JP2018006881A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2018006881A
JP2018006881A JP2016128270A JP2016128270A JP2018006881A JP 2018006881 A JP2018006881 A JP 2018006881A JP 2016128270 A JP2016128270 A JP 2016128270A JP 2016128270 A JP2016128270 A JP 2016128270A JP 2018006881 A JP2018006881 A JP 2018006881A
Authority
JP
Japan
Prior art keywords
pixel
imaging
gain value
boundary
functional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016128270A
Other languages
Japanese (ja)
Inventor
伊音 上原
Ion Uehara
伊音 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sigma Corp
Original Assignee
Sigma Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sigma Corp filed Critical Sigma Corp
Priority to JP2016128270A priority Critical patent/JP2018006881A/en
Publication of JP2018006881A publication Critical patent/JP2018006881A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of acquiring satisfactory image data by using only an acquired signal value to perform appropriate correction on a function pixel.SOLUTION: An image processing apparatus comprises: imaging means 200 including multiple imaging pixels that are disposed in a two-dimensional shape, and multiple function pixels having sensitivity which is different from that of the imaging pixels; a boundary discrimination part for discriminating whether a function pixel is present in a boundary part; and a gain value calculation part for calculating a gain value with respect to the function pixel. The boundary part is a location where a signal value is changed discontinuously. The gain value calculation part uses signal values outputted from the imaging pixels disposed around a function pixel for which the boundary discrimination part discriminates that the function pixel is not present in the boundary part, to calculate a gain value with respect to a function pixel for which the boundary discrimination part discriminates that the function pixel is present in the boundary part.SELECTED DRAWING: Figure 1

Description

本発明は、デジタルスチルカメラ等に搭載される撮像素子において、機能画素位置から出力される撮像用信号の画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for an imaging signal output from a functional pixel position in an imaging device mounted on a digital still camera or the like.

デジタルスチルカメラは、レンズ系から入射された光線を光電変換するために、CMOS(Complementary Metal Oxide Semiconductor)センサーやCCD(Charge Coupled Device)センサー等の撮像素子を内部に有している。撮像素子は、一般的に撮像用画素を二次元状に配列されることで構成されるが、加えて特定の機能を有する機能画素を搭載する技術が広く知られている。ここで、本文献における機能画素とは、撮像用画素に対して異なる感度を有する画素を指すものとする。   The digital still camera has an image pickup device such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor in order to photoelectrically convert light incident from a lens system. An imaging element is generally configured by two-dimensionally arranging imaging pixels. In addition, a technique for mounting a functional pixel having a specific function is widely known. Here, the functional pixel in this document refers to a pixel having different sensitivity with respect to the imaging pixel.

例えば特許文献1では、機能画素として瞳分割機能を有する焦点検出画素を有する撮像素子が開示されている。焦点検出画素は、受光部の感度領域を偏心させた2種類の画素があり、それぞれの画素から出力される信号から像ズレ量を検出することで焦点検出を行う。   For example, Patent Document 1 discloses an imaging element having a focus detection pixel having a pupil division function as a functional pixel. There are two types of focus detection pixels in which the sensitivity region of the light receiving unit is decentered, and focus detection is performed by detecting an image shift amount from a signal output from each pixel.

焦点検出画素のような機能画素の光電変換特性として、光量に対する信号値の応答性が撮像用画素に比べて線形的に低くなるという特徴がある。また、信号減衰率はレンズと撮像素子の特性の組み合わせによって大きく異なる。従って、機能画素から出力される信号を撮像用信号として画像データ生成に取り扱うためには、適切な補正を行う必要がある。   As a photoelectric conversion characteristic of a functional pixel such as a focus detection pixel, there is a characteristic that the responsiveness of the signal value with respect to the light amount is linearly lower than that of the imaging pixel. Further, the signal attenuation rate varies greatly depending on the combination of the characteristics of the lens and the image sensor. Therefore, in order to handle a signal output from the functional pixel as an image pickup signal for image data generation, it is necessary to perform appropriate correction.

機能画素に対する補正方法の1つとして、信号増幅を行うゲイン補正が知られている。ゲイン補正は機能画素から得られる信号値、及び信号値に対するゲイン値が信頼できる値であれば、適切な補正として機能する。   As one of the correction methods for functional pixels, gain correction for performing signal amplification is known. The gain correction functions as an appropriate correction if the signal value obtained from the functional pixel and the gain value for the signal value are reliable values.

しかし一方で、撮像素子や電子回路によるノイズが発生した場合には、信頼できる信号値が得られないため、ゲイン補正では好適な補正値を取得できない。また、レンズの状態や撮影時の環境など何らかの要因によってゲイン値が適切でなかった場合についても、好適な補正値を取得できない。このような場合にコントラストに大きな変化のない被写体を撮像すると、周囲の撮像画素から出力される信号値と乖離した補正値が算出されることから、顕著な補正エラーが表れてしまう。   However, on the other hand, when noise due to an image sensor or an electronic circuit occurs, a reliable signal value cannot be obtained, so that a suitable correction value cannot be obtained by gain correction. In addition, a suitable correction value cannot be acquired even when the gain value is not appropriate due to some factors such as the state of the lens and the shooting environment. In such a case, if a subject with no significant change in contrast is imaged, a correction value that deviates from the signal value output from the surrounding imaging pixels is calculated, so that a significant correction error appears.

一方、機能画素に対する別の補正方法として、補間補正が知られている。補間補正は機能画素の周辺に位置する撮像用画素の信号値を参照して行う補正であり、多くの場合に適切な補正として機能する。   On the other hand, interpolation correction is known as another correction method for functional pixels. Interpolation correction is correction performed by referring to signal values of imaging pixels located around functional pixels, and functions as appropriate correction in many cases.

しかし、補間補正は平均化処理の一種であることから特徴的な情報は失われる。よって、全ての機能画素に対して補間補正を行うと画像データの解像感が損なわれてしまう。   However, characteristic information is lost because interpolation correction is a kind of averaging process. Therefore, when interpolation correction is performed on all functional pixels, the resolution of the image data is impaired.

例えば、大きくコントラストが変化するような被写体のエッジ上に機能画素が位置していた場合、得られるべき信号値が周囲の撮像用画素の信号値と大きく異なることが考えられる。その場合には周囲の画素からの補間は好適に作用せず、エッジ部分の鮮鋭度が低下してしまう可能性が有る。また、参照する撮像用画素がエッジ上に位置する場合も同様である。   For example, when a functional pixel is located on the edge of a subject whose contrast changes greatly, it is conceivable that the signal value to be obtained is significantly different from the signal values of surrounding imaging pixels. In such a case, interpolation from surrounding pixels does not work favorably, and the sharpness of the edge portion may be reduced. The same applies when the imaging pixel to be referenced is located on the edge.

従って、非エッジ領域に存在する機能画素に対しては何らかの要因によるエラーケースを避けるために補間補正を行いつつ、エッジ付近に存在する機能画素に対しては機能画素から取得された信号値を極力活用するためにゲイン補正を行う、という両補正を併用した補正方法が有効である。   Therefore, for functional pixels that exist in the non-edge region, interpolation correction is performed to avoid an error case due to some cause, and for functional pixels that exist near the edge, the signal value obtained from the functional pixel is used as much as possible. A correction method using both corrections, in which gain correction is performed in order to utilize, is effective.

このような補正を行う際には、エッジ付近に存在する機能画素に対して適切なゲイン値を設定する必要がある。   When performing such correction, it is necessary to set an appropriate gain value for a functional pixel existing near the edge.

なお本文献では以後エッジ付近に位置する焦点検出画素とは、エッジ上に位置する焦点検出画素を示す。また、補間補正を行う際に参照する撮像用画素がエッジ上に位置している焦点検出画素も同様に示すこととする。また、非エッジ領域に位置する焦点検出画素とは、エッジ付近に位置する焦点検出画素を除いた焦点検出画素を示すこととする。   In this document, the focus detection pixel located near the edge hereinafter refers to a focus detection pixel located on the edge. In addition, focus detection pixels in which an imaging pixel to be referred to when performing interpolation correction is located on the edge are also shown. The focus detection pixel located in the non-edge region indicates a focus detection pixel excluding the focus detection pixel located near the edge.

ゲイン値の設定方法として、例えば特許文献2が挙げられる。特許文献2に開示された発明によれば、撮像装置が光学装置から通信で得られた情報から適切と思われるゲイン量を設定し、焦点検出用画素に線形の補正を与えている。   As a method for setting the gain value, for example, Patent Document 2 can be cited. According to the invention disclosed in Patent Document 2, the imaging apparatus sets a gain amount that seems to be appropriate from information obtained by communication from the optical apparatus, and gives linear correction to the focus detection pixels.

これによって、焦点検出用画素の位置に本来あるべき撮像画素の出力を正確に推定することができる、としている。   As a result, it is possible to accurately estimate the output of the imaging pixel that should originally be at the position of the focus detection pixel.

特許第3592147号公報Japanese Patent No. 3592147 特開2006−108955号公報JP 2006-108955 A

しかし特許文献2に記載の発明は、光学装置から情報を得ることが必須の構成となっている。従って、光学装置との通信が不可能な場合や、通信の結果不適合な光学装置であった場合、適切なゲイン値を設定することができないという問題がある。   However, in the invention described in Patent Document 2, it is essential to obtain information from the optical device. Accordingly, there is a problem that an appropriate gain value cannot be set when communication with the optical device is impossible or when the optical device is incompatible as a result of communication.

特にゲイン値は光学装置の特性、撮像素子の特性及び撮影時の光学情報に依存して変化することから、光学装置から情報を得ることが出来ない場合、適切なゲイン値を設定することは困難となる。従って、撮像素子から取得された信号値のみを用いて適切となるゲイン値を設定する手段が求められている。   In particular, since the gain value changes depending on the characteristics of the optical device, the characteristics of the image sensor, and the optical information at the time of shooting, it is difficult to set an appropriate gain value when information cannot be obtained from the optical device. It becomes. Accordingly, there is a need for a means for setting an appropriate gain value using only the signal value acquired from the image sensor.

上記課題から本発明は、取得された信号値のみを用いることで機能画素に対して適切な補正を行い、良好な画像データを取得可能な画像処理装置及び画像処理方法を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an image processing apparatus and an image processing method capable of appropriately correcting a functional pixel by using only acquired signal values and acquiring good image data. To do.

請求項1に示す発明は、2次元状に配置された複数の撮像用画素と、前記撮像用画素とは異なる感度を持つ複数の機能画素と、を有する撮像手段と、前記機能画素が境界部に存在するか判定する境界判定部と、前記機能画素に対するゲイン値を算出するゲイン値算出部と、を有し、前記境界部は信号値が不連続に変化する箇所であり、前記ゲイン値算出部は前記境界判定部が境界部に存在しないと判定した前記機能画素の周囲に配置された前記撮像用画素から出力される信号値を用いて、前記境界判定部が境界部に存在すると判定した前記機能画素に対するゲイン値を算出することを特徴とする画像処理装置である。   According to the first aspect of the present invention, there is provided an imaging means having a plurality of imaging pixels arranged two-dimensionally and a plurality of functional pixels having different sensitivities from the imaging pixels, and the functional pixels are boundary portions. A boundary determination unit that determines whether or not the function pixel exists, and a gain value calculation unit that calculates a gain value for the functional pixel. The boundary unit is a portion where the signal value changes discontinuously, and the gain value calculation Determined that the boundary determination unit exists in the boundary part using a signal value output from the imaging pixels arranged around the functional pixel determined that the boundary determination unit does not exist in the boundary part An image processing apparatus that calculates a gain value for the functional pixel.

請求項2に示す発明は、前記ゲイン算出部は、前記境界判定部が境界部に存在しないと判定した前記機能画素に対して所定の前記機能画素の周囲に配置された前記撮像用画素から出力される信号値の代表値を所定の前記機能画素から出力される信号値で除算することで推定ゲイン値を算出し、前記推定ゲイン値を空間的に補間することで全ての前記機能画素に対する前記ゲイン値を算出することを特徴とする請求項1に記載の画像処理装置である。   In the invention according to claim 2, the gain calculation unit outputs from the imaging pixels arranged around a predetermined functional pixel with respect to the functional pixel determined that the boundary determination unit does not exist in the boundary. The estimated gain value is calculated by dividing the representative value of the signal value to be divided by the signal value output from the predetermined functional pixel, and the estimated gain value is spatially interpolated to calculate the estimated gain value. The image processing apparatus according to claim 1, wherein a gain value is calculated.

請求項3に示す発明は、前記推定ゲイン値の空間的な補間は前記推定ゲイン値を用いて所定の集団毎の前記ゲイン値を算出し、前記所定の集団毎のゲイン値を空間的に補間することで行われることを特徴とする請求項2に記載の画像処理装置である。   According to a third aspect of the present invention, in the spatial interpolation of the estimated gain value, the gain value for each predetermined group is calculated using the estimated gain value, and the gain value for each predetermined group is spatially interpolated. The image processing apparatus according to claim 2, wherein the image processing apparatus is performed.

請求項4に示す発明は、前記境界判定部が境界部に存在していると判定した前記機能画素に対して前記ゲイン値算出部で算出された前記ゲイン値を用いてゲイン補正を行うゲイン補正部と、前記境界判定部が境界部に存在しないと判定した前記機能画素に対して補間補正を行う補間補正部と、を有することを特徴とする請求項1乃至請求項3のいずれかに記載の画像処理装置である。   According to a fourth aspect of the present invention, the gain correction is performed by performing gain correction using the gain value calculated by the gain value calculation unit with respect to the functional pixel determined that the boundary determination unit exists in the boundary part. 4. The method according to claim 1, further comprising: an interpolation correction unit configured to perform interpolation correction on the functional pixel that is determined not to exist in the boundary part by the boundary determination unit. This is an image processing apparatus.

請求項5に示す発明は、前記境界判定部は前記機能画素の周囲に配置された前記撮像用画素のばらつきを算出することで前記機能画素が境界部に存在するか判定することを特徴とする請求項1乃至請求項4のいずれかに記載の画像処理装置である。   The invention described in claim 5 is characterized in that the boundary determination unit determines whether or not the functional pixel exists in the boundary by calculating a variation of the imaging pixels arranged around the functional pixel. An image processing apparatus according to claim 1.

請求項6に示す発明は、前記撮像手段は複数の前記機能画素が隣接して配置される機能画素群を有することを特徴とする請求項1乃至請求項5のいずれかに記載の画像処理装置である。   6. The image processing apparatus according to claim 1, wherein the imaging unit includes a functional pixel group in which a plurality of functional pixels are arranged adjacent to each other. It is.

請求項7に示す発明は、前記機能画素は、前記撮像手段へ光束を導く撮像光学系からの光束のうち分割された光束を光電変換する焦点検出画素であることを特徴とする請求項1乃至請求項6のいずれかに記載の画像処理装置である。   According to a seventh aspect of the present invention, the functional pixel is a focus detection pixel that photoelectrically converts a divided light beam among the light beams from the imaging optical system that guides the light beam to the imaging unit. An image processing apparatus according to claim 6.

請求項8に示す発明は、前記機能画素は、前記撮像用画素に対し異なる構造を取る又はフィルタを有することで、異なる感度を持つ飽和防止画素であることを特徴とする請求項1乃至請求項6のいずれかに記載の画像処理装置である。   The invention described in claim 8 is characterized in that the functional pixel is a saturation prevention pixel having different sensitivity by adopting a different structure or a filter with respect to the imaging pixel. 6. The image processing apparatus according to claim 6.

請求項9に示す発明は、前記撮像手段は、深さ方向に積層された複数の層の受光部を有する複数の受光素子が半導体基板上に配置された積層型固体撮像素子であることを特徴とする請求項1乃至請求項8のいずれかに記載の画像処理装置である。   The invention described in claim 9 is characterized in that the imaging means is a stacked solid-state imaging device in which a plurality of light receiving elements each having a plurality of layers of light receiving portions stacked in the depth direction are arranged on a semiconductor substrate. An image processing apparatus according to any one of claims 1 to 8.

請求項10に示す発明は、前記画像処理装置を有する撮像装置であって、前記撮像装置に装着された光学装置から前記撮像装置が光学装置情報を判別出来ない場合に前記機能画素に対するゲイン値を算出することを特徴とする請求項1乃至請求項9のいずれかに記載の撮像装置である。   According to a tenth aspect of the present invention, there is provided an imaging device having the image processing device, wherein the gain value for the functional pixel is obtained when the imaging device cannot discriminate optical device information from an optical device mounted on the imaging device. The imaging device according to claim 1, wherein the imaging device is calculated.

請求項11に示す発明は、2次元状に配置された複数の撮像用画素と、撮像用画素とは異なる感度を持つ複数の機能画素と、を有する撮像手段の画像処理方法であって、境界判定部は信号値が不連続に変化する箇所である境界部に前記機能画素が存在するか判定し、ゲイン算出部は前記機能画素に対するゲイン値を算出し、前記境界判定部が境界に面していないと判定した前記機能画素の周囲に配置された前記撮像用画素から出力される信号値を用いて前記機能画素に対するゲイン値を算出することを特徴とする画像処理方法である。   The invention described in claim 11 is an image processing method of an imaging means having a plurality of imaging pixels arranged two-dimensionally and a plurality of functional pixels having different sensitivities from the imaging pixels, The determination unit determines whether the functional pixel is present at a boundary portion where the signal value changes discontinuously, the gain calculation unit calculates a gain value for the functional pixel, and the boundary determination unit faces the boundary. A gain value for the functional pixel is calculated using a signal value output from the imaging pixels arranged around the functional pixel determined not to be.

本発明によれば、取得された信号値のみを用いることで機能画素に対して適切な補正を行い、良好な画像データを取得可能な画像処理装置及び画像処理方法を得ることができる。   According to the present invention, it is possible to obtain an image processing apparatus and an image processing method capable of appropriately correcting a functional pixel by using only the acquired signal value and acquiring good image data.

本発明の一実施形態であるカメラシステムの主要な構成を示したブロック図である。It is the block diagram which showed the main structures of the camera system which is one Embodiment of this invention. 図1に示した撮像装置に実装される撮像素子の単一画素を単純化した断面図である。It is sectional drawing which simplified the single pixel of the image pick-up element mounted in the imaging device shown in FIG. 焦点検出画素を配置した撮像素子の画素配置列を示した模式図である。It is the schematic diagram which showed the pixel arrangement | sequence row | line of the image pick-up element which has arrange | positioned the focus detection pixel. 焦点検出画素の構造を示した模式図である。It is the schematic diagram which showed the structure of the focus detection pixel. X座標とゲイン値の関係を示した模式図である。It is the schematic diagram which showed the relationship between X coordinate and a gain value. 補正処理部の構造を示したブロック図である。It is the block diagram which showed the structure of the correction process part. 焦点検出画素群を中心として3×4個の画素を抽出した模式図である。It is the schematic diagram which extracted 3 * 4 pixel centering on the focus detection pixel group. 撮像素子におけるゲイン値算出を示す模式図である。It is a schematic diagram which shows gain value calculation in an image sensor. X座標毎のゲイン値の空間的な補間について示した模式図である。It is the schematic diagram shown about the spatial interpolation of the gain value for every X coordinate. 値の置き換えを示す模式図である。It is a schematic diagram which shows replacement of a value. 焦点検出画素の信号値補正処理のフロー図である。It is a flowchart of the signal value correction process of a focus detection pixel. 飽和防止画素を配置した撮像素子の画素配置列を示した模式図である。It is the schematic diagram which showed the pixel arrangement | sequence row | line of the image pick-up element which has arrange | positioned the saturation prevention pixel. 飽和防止画素群を中心として4×4個の画素を抽出した模式図である。It is the schematic diagram which extracted 4x4 pixels centering on the saturation prevention pixel group.

以下、添付の図面に従って、本発明を実施するための最良の形態について説明する。なお、この実施の形態により本発明が限定されるものではない。   The best mode for carrying out the present invention will be described below with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.

図1に示すブロック図には、本発明の一実施形態であるカメラシステムの主要な構成が示されている。本図に示すカメラシステムは、撮像装置100と、光学装置101と、撮影光学系110と、撮像素子200と、信号処理部150と、補正処理部152と、画像処理部154と、メモリ部160と、カメラCPU170と、ユーザインターフェイス(I/F)171と、記録媒体インターフェイス(I/F)172と、画像表示部190と、を備えている。   The block diagram shown in FIG. 1 shows the main configuration of a camera system according to an embodiment of the present invention. The camera system shown in the figure includes an imaging device 100, an optical device 101, a photographing optical system 110, an imaging device 200, a signal processing unit 150, a correction processing unit 152, an image processing unit 154, and a memory unit 160. A camera CPU 170, a user interface (I / F) 171, a recording medium interface (I / F) 172, and an image display unit 190.

光学装置101は撮像装置100に対して交換可能であり、不図示のレンズCPUを備えている。また、撮影光学系110は、フォーカスレンズ群やズームレンズ群を含む、複数の不図示のレンズ群で構成されている。本図においては、簡単のために1枚のレンズのみ記載している。   The optical device 101 can be exchanged for the imaging device 100 and includes a lens CPU (not shown). The photographing optical system 110 includes a plurality of lens groups (not shown) including a focus lens group and a zoom lens group. In this figure, only one lens is shown for simplicity.

撮像素子200は、撮影光学系110により集光された光線を受光して光電変換し、信号値として出力する。本実施形態の撮像素子200としては、CMOSイメージセンサが用いられている。   The image sensor 200 receives the light beam collected by the photographing optical system 110, photoelectrically converts it, and outputs it as a signal value. A CMOS image sensor is used as the imaging device 200 of the present embodiment.

この撮像素子200の受光面は多数の画素から構成されている。これらの画素は、その内部において、入射光の波長により光電変換される深さの違いを用いることで、単一画素からRGBの各色成分信号を出力可能な垂直色分離型のイメージセンサである。垂直色分離型のイメージセンサについて詳しくは後述する。   The light receiving surface of the image sensor 200 is composed of a large number of pixels. These pixels are vertical color separation type image sensors that can output RGB color component signals from a single pixel by using the difference in depth that is photoelectrically converted depending on the wavelength of incident light. Details of the vertical color separation type image sensor will be described later.

撮像素子200の最上面に位置するフォトダイオード210には焦点検出画素が周期的に配置されている。焦点検出画素について詳しくは後述する。   Focus detection pixels are periodically arranged in the photodiode 210 located on the uppermost surface of the image sensor 200. Details of the focus detection pixel will be described later.

本実施形態の撮像素子200には、画素から読み出した色成分信号を増幅するゲイン可変アンプやアナログ画像信号をデジタル変換するA/Dコンバータが内蔵されている。   The image sensor 200 of this embodiment incorporates a variable gain amplifier that amplifies a color component signal read from a pixel and an A / D converter that digitally converts an analog image signal.

信号処理部150は、撮像素子200から出力された信号に対して通常の信号処理を行う。通常の信号処理とはダーク処理、線形化などであり、公知技術と同様であるため説明を省略する。撮像素子200から出力された信号は、各種信号処理が施された後、Rawデータとして一旦メモリ部160に記録される。メモリ部160は、このほかにも各種データのバッファとして機能する。   The signal processing unit 150 performs normal signal processing on the signal output from the image sensor 200. Normal signal processing includes dark processing, linearization, and the like, which are the same as known techniques, and thus description thereof is omitted. The signal output from the image sensor 200 is subjected to various signal processing and then temporarily recorded as raw data in the memory unit 160. In addition, the memory unit 160 functions as a buffer for various data.

補正処理部152は、メモリ部160から読み出されたRawデータに対して機能画素から出力された信号値を補正する処理を行う。機能画素の信号値補正処理について詳しくは後述する。   The correction processing unit 152 performs processing for correcting the signal value output from the functional pixel with respect to the Raw data read from the memory unit 160. Details of the signal value correction processing of the functional pixel will be described later.

画像処理部154は、補正処理部152によって補正された画像データに対して通常の画像処理を行う。通常の画像処理とはホワイトバランス調整、色調補正処理、階調変換処理などであり、公知技術と同様であるため説明を省略する。   The image processing unit 154 performs normal image processing on the image data corrected by the correction processing unit 152. Normal image processing includes white balance adjustment, color tone correction processing, gradation conversion processing, and the like, which are the same as those in the publicly known technology, and thus description thereof is omitted.

カメラCPU170は、撮像装置100全体の包括的な制御を行う。特に、カメラCPU170は、信号処理部150、補正処理部152及び画像処理部154の制御を行う。   The camera CPU 170 performs comprehensive control of the entire imaging apparatus 100. In particular, the camera CPU 170 controls the signal processing unit 150, the correction processing unit 152, and the image processing unit 154.

ユーザI/F171は、例えば、レリーズボタン、電源ボタン、コマンドダイヤル、十字キー等の操作部材を有しており、ユーザがこれらの操作部材を操作すると、カメラCPU170は所定の動作を行う指示を出す。   For example, the user I / F 171 includes operation members such as a release button, a power button, a command dial, and a cross key. When the user operates these operation members, the camera CPU 170 issues an instruction to perform a predetermined operation. .

記録媒体I/F172は、不図示の記録媒体との間でRAWデータや現像後の画像データの記録又は読み出しを行う。この記録媒体は、半導体メモリ等の着脱可能な記録媒体である。   The recording medium I / F 172 records or reads RAW data and developed image data with a recording medium (not shown). This recording medium is a detachable recording medium such as a semiconductor memory.

画像表示部190は、画像処理部154で処理された画像データや、不図示の記録媒体から読み出された画像データ等を表示する。   The image display unit 190 displays image data processed by the image processing unit 154, image data read from a recording medium (not shown), and the like.

なお、上述したゲイン可変アンプ、ゲイン補正回路、A/Dコンバータを内蔵していない撮像素子200を採用する場合には、これらのデバイスを個別に搭載すればよい。   Note that when the imaging element 200 that does not include the above-described variable gain amplifier, gain correction circuit, and A / D converter is employed, these devices may be mounted individually.

図2は、撮像装置100に実装される撮像素子200の単一画素を単純化して示した断面図である。上述したように、本実施形態の撮像素子200はいわゆる垂直色分離型のイメージセンサであり、各画素には、深さ方向に3つのフォトダイオードが積層して形成されている。   FIG. 2 is a cross-sectional view schematically showing a single pixel of the image sensor 200 mounted on the image pickup apparatus 100. As described above, the image sensor 200 of the present embodiment is a so-called vertical color separation type image sensor, and each pixel is formed by stacking three photodiodes in the depth direction.

ある画素に光が入射すると、入射光中の青色(B)成分は主に最上面に位置するフォトダイオード210で光電変換される。同様に、入射光中の緑色(G)成分は主に中間深さに位置するフォトダイオード230で光電変換され、赤色(R)成分は主に最下層に位置するフォトダイオード250で光電変換される。これらの、垂直方向の色分離は撮像素子200の材料として用いるシリコン(Si)の特性を利用したものである。   When light enters a certain pixel, the blue (B) component in the incident light is photoelectrically converted mainly by the photodiode 210 located on the uppermost surface. Similarly, the green (G) component in the incident light is mainly photoelectrically converted by the photodiode 230 located at the intermediate depth, and the red (R) component is mainly photoelectrically converted by the photodiode 250 located at the lowermost layer. . These vertical color separations utilize the characteristics of silicon (Si) used as the material of the image sensor 200.

これら3つのフォトダイオードは、Si基板の内部の異なる深さに所定のドープ処理を行うことで形成される。具体的には、B成分用フォトダイオード210は、約0.2〜0.5μmの間の深さに形成され、G成分用フォトダイオード230は、約0.5〜1.5μmの間の深さに形成され、R成分用フォトダイオード250は、約1.5〜3.0μmの間の深さに形成される。   These three photodiodes are formed by performing a predetermined doping process at different depths inside the Si substrate. Specifically, the B component photodiode 210 is formed to a depth of about 0.2 to 0.5 μm, and the G component photodiode 230 is formed to a depth of about 0.5 to 1.5 μm. The R component photodiode 250 is formed to a depth of about 1.5 to 3.0 μm.

従って、本実施形態の撮像素子200はベイヤー型イメージセンサに必須のカラーフィルタが不要でありながら、1つの画素でRGB3色の色成分信号を取得することが可能である。各画素が3色全ての波長成分を光電変換できるため、ベイヤー型イメージセンサにおいては必須の画素補間を行う必要がないというメリットもある。   Therefore, the image sensor 200 according to the present embodiment can acquire color component signals of three colors of RGB with one pixel, while the color filter essential for the Bayer image sensor is unnecessary. Since each pixel can photoelectrically convert all three color wavelength components, there is a merit that it is not necessary to perform essential pixel interpolation in the Bayer image sensor.

なお、上記の構成に限らず、有機物や無機物等により形成された特定の吸収特性を有する光電変換膜を複数積層させた構成としてもよい。   Note that the present invention is not limited to the above configuration, and a plurality of photoelectric conversion films having specific absorption characteristics formed of an organic material, an inorganic material, or the like may be stacked.

また、単層からなるセンサーにカラーフィルタを搭載した、標準的な構造のイメージセンサを使用した構成としても良い。   Further, a configuration using an image sensor having a standard structure in which a color filter is mounted on a single-layer sensor may be used.

(実施例1)
図3は、最上面に位置するフォトダイオード行列のうち一部に焦点検出画素を配置した撮像素子200の画素配置列を示した模式図である。以降の実施例では、撮像用画素とは焦点検出画素ではない画素を指すものとする。Ln、Rnは互いに対を成す左目及び右目の焦点検出画素であり、互いに隣接して配置される。
Example 1
FIG. 3 is a schematic diagram showing a pixel arrangement row of the image sensor 200 in which focus detection pixels are arranged in a part of the photodiode matrix located on the uppermost surface. In the following embodiments, an imaging pixel refers to a pixel that is not a focus detection pixel. Ln and Rn are left-eye and right-eye focus detection pixels that are paired with each other, and are disposed adjacent to each other.

例えば、左目焦点検出画素L1は右目焦点検出画素R1と互いに対を成し焦点検出画素群S1を構成する。以下同様に、左目焦点検出画素Lnは右目焦点検出画素Rnと互いに対を成し焦点検出画素群Snを構成する。ここでnは任意の自然数であり、撮像素子200の必要に応じて設定される。検出用画素群Snは周期的に配置されているものとする。   For example, the left eye focus detection pixel L1 and the right eye focus detection pixel R1 are paired with each other to form a focus detection pixel group S1. Similarly, the left eye focus detection pixel Ln is paired with the right eye focus detection pixel Rn to form a focus detection pixel group Sn. Here, n is an arbitrary natural number, and is set according to the necessity of the image sensor 200. It is assumed that the detection pixel group Sn is periodically arranged.

また、各焦点検出画素は撮像素子200の左上を原点とするXY座標によっても表される。XY座標は焦点検出画素を対象とした座標とし、左目焦点検出画素と右目焦点検出画素を区別せず、撮像用画素は除外して数え上げるものとする。   Each focus detection pixel is also represented by XY coordinates with the origin at the upper left of the image sensor 200. The XY coordinates are coordinates for the focus detection pixel. The left-eye focus detection pixel and the right-eye focus detection pixel are not distinguished, and the imaging pixels are excluded and counted.

次に焦点検出画素について説明する。焦点検出画素は、デジタルカメラにおけるオートフォーカス(AF)のための測距データを読み出すために配置される画素である。撮像素子200から出力される信号を用いて位相差検出を行うことで、高精度のAFが可能となる。   Next, the focus detection pixel will be described. The focus detection pixel is a pixel arranged to read out distance measurement data for autofocus (AF) in the digital camera. By performing phase difference detection using a signal output from the image sensor 200, highly accurate AF is possible.

図4を用いて左目焦点検出画素Lnと右目焦点検出画素Rnの構造を説明する。図4(a)は左目焦点検出画素Lnの構造を示した模式図である。左目焦点検出画素Lnの光入射側にはマイクロレンズ270が形成されている。左目焦点検出画素Lnは偏心した開口部290を有し、画素の略半分の領域を遮光されることで入射光量が制限された構造となっている。   The structure of the left eye focus detection pixel Ln and the right eye focus detection pixel Rn will be described with reference to FIG. FIG. 4A is a schematic diagram showing the structure of the left eye focus detection pixel Ln. A microlens 270 is formed on the light incident side of the left eye focus detection pixel Ln. The left-eye focus detection pixel Ln has an opening 290 that is eccentric, and has a structure in which the amount of incident light is limited by shielding approximately half of the area of the pixel.

また、図4(b)は右目焦点検出画素Rnの構造を示した模式図である。右目焦点検出画素Rnは左目焦点検出画素Lnと比較し、各マイクロレンズ270の光軸を挟んだ対称な位置に開口部290を持つ構造をとる。 FIG. 4B is a schematic diagram showing the structure of the right eye focus detection pixel Rn. The right eye focus detection pixel Rn has a structure having an opening 290 at a symmetrical position across the optical axis of each microlens 270, as compared with the left eye focus detection pixel Ln.

焦点検出画素による焦点検出プロセスは、例えば特許文献1に開示されている公知の技術であり、本実施例での説明は省略する。   The focus detection process by the focus detection pixel is a known technique disclosed in, for example, Patent Document 1, and description thereof in this embodiment is omitted.

焦点検出画素から出力される信号は焦点検出に用いられるが、同時に画像信号として画像データ生成にも使用される。ここで焦点検出画素は画素全体から略半分を被膜された、入射光量の制限された構造のため、撮像用画素と比較して略半分の感度しか持たず、撮像用画素と比べて同一光量に対して信号値が低下してしまう。従って、焦点検出画素から出力される信号値を画像データへと使用するには信号値に対して補正処理を行う必要がある。   The signal output from the focus detection pixel is used for focus detection, but at the same time, it is also used for generating image data as an image signal. Here, the focus detection pixel has a structure in which approximately half of the entire pixel is coated and the amount of incident light is limited. Therefore, the focus detection pixel has approximately half the sensitivity compared to the imaging pixel, and has the same light intensity as the imaging pixel. On the other hand, the signal value decreases. Therefore, in order to use the signal value output from the focus detection pixel for the image data, it is necessary to perform a correction process on the signal value.

焦点検出画素への補正方法は、非エッジ領域に位置する焦点検出画素に対しては周辺に位置する撮像用画素から補間補正を行い、一方、補間補正にとって言わばエラー部であるエッジ付近に位置する焦点検出画素に対してはゲイン補正を行うことが効果的である。   In the correction method for the focus detection pixel, interpolation correction is performed on the focus detection pixel located in the non-edge region from the imaging pixels located in the periphery, and on the other hand, the interpolation detection is located near the edge which is an error part. It is effective to perform gain correction on the focus detection pixels.

エッジ付近に位置する焦点検出画素に対して適切なゲイン補正を行うためには、適切なゲイン値を設定する必要がある。焦点検出画素に対するゲイン値は、画素の構造及び入射光線角によって、それぞれ決定される。また、入射光線角は焦点検出画素の撮像素子200内における座標によってそれぞれ決定される。   In order to perform appropriate gain correction on the focus detection pixels located near the edge, it is necessary to set an appropriate gain value. The gain value for the focus detection pixel is determined by the structure of the pixel and the incident ray angle. Further, the incident ray angle is determined by the coordinates of the focus detection pixel in the image sensor 200.

ここで本実施例における焦点検出画素では瞳分割方向がX方向であることから、Y方向への入射光線角の差異は入射光線量にほぼ影響を与えず、X座標が等しい画素同士は入射光線量の差が無視できる程度となる。従って、本実施例ではX座標が同一であればゲイン値は同一の値を取るとする。   Here, in the focus detection pixel according to the present embodiment, the pupil division direction is the X direction. Therefore, the difference in incident light angle in the Y direction does not substantially affect the amount of incident light, and pixels having the same X coordinate are incident light. The amount difference is negligible. Therefore, in the present embodiment, it is assumed that the gain value is the same if the X coordinate is the same.

図5は本実施例の左目焦点検出画素に対するX座標とゲイン値の関係を示した模式図である。図5の模式図における縦軸はゲイン値、横軸はX座標、曲線a及び曲線bはX座標とゲイン値の関係曲線を示している。   FIG. 5 is a schematic diagram showing the relationship between the X coordinate and the gain value for the left-eye focus detection pixel of this embodiment. In the schematic diagram of FIG. 5, the vertical axis represents the gain value, the horizontal axis represents the X coordinate, the curves a and b represent the relationship curve between the X coordinate and the gain value.

焦点検出画素は前述したようにX方向へ瞳分割され、画素の右半分の領域を遮光されている。このような構造の場合、撮像素子200の中央から左方に位置する焦点検出画素は入射光線角に起因して、中央付近と比較して入射光線量が減少する。従って強いゲインをかける必要があるため、ゲイン値は高い値を取る。逆に、撮像素子200の中央から右方に位置する焦点検出画素は、入射光線量が増加するため、ゲイン値は低くなる。   As described above, the focus detection pixel is pupil-divided in the X direction, and the right half region of the pixel is shielded from light. In the case of such a structure, the focus detection pixel located to the left of the center of the image sensor 200 has a reduced amount of incident light compared to the vicinity of the center due to the incident light angle. Accordingly, since it is necessary to apply a strong gain, the gain value takes a high value. Conversely, the focus detection pixel located to the right of the center of the image sensor 200 has a low gain value because the amount of incident light increases.

また、撮像素子200の水平方向における中央のX座標に対するゲイン値は略2.0倍となる。これは、光線が理想的には撮像素子200に対して垂直に入射することで、ちょうど被膜部分のみの光線が遮断されることに起因する。本実施例では被膜部分は画素全体に対して略半分の面積を有するので、そのゲイン値は略2.0倍となる。   Further, the gain value with respect to the central X coordinate in the horizontal direction of the image sensor 200 is approximately 2.0 times. This is due to the fact that light rays ideally enter the image sensor 200 perpendicularly so that only the light rays in the coating portion are blocked. In this embodiment, the film portion has a substantially half area with respect to the entire pixel, so that the gain value is approximately 2.0 times.

なお、図5は左目焦点検出画素に対する模式図である。右目焦点検出画素の場合、X座標軸を挟んで略反転した形状の図が得られる。   FIG. 5 is a schematic diagram for the left-eye focus detection pixel. In the case of the right-eye focus detection pixel, a figure having a substantially inverted shape across the X coordinate axis is obtained.

図5における曲線a及び曲線bは異なる条件におけるX座標とゲイン値の関係を示している。入射光線角は撮影条件及び光学装置の特性によって決定され、それらの条件次第でX座標とゲイン値の関係曲線は様々な形状を取る。このようなX座標とゲイン値の関係曲線を算出すれば、全ての焦点検出画素に対する好適なゲイン値も算出可能となる。   Curves a and b in FIG. 5 indicate the relationship between the X coordinate and the gain value under different conditions. The incident ray angle is determined by the imaging conditions and the characteristics of the optical device, and the relationship curve between the X coordinate and the gain value takes various shapes depending on the conditions. If such a relationship curve between the X coordinate and the gain value is calculated, a suitable gain value for all focus detection pixels can also be calculated.

そのため、従来では撮像装置が光学装置から情報を取得することで、X座標とゲイン値の関係曲線を算出し、焦点検出画素に対する好適なゲイン値を算出していた。しかし本発明ではゲイン値の等しい焦点検出画素の集団を利用することで、算出に必要な情報を使用せずに好適なゲイン値を設定する。   Therefore, conventionally, when the imaging apparatus acquires information from the optical apparatus, a relationship curve between the X coordinate and the gain value is calculated, and a suitable gain value for the focus detection pixel is calculated. However, in the present invention, by using a group of focus detection pixels having the same gain value, a suitable gain value is set without using information necessary for calculation.

つまり本実施例における補正処理部152は、まず非エッジ領域に存在する焦点検出画素に対して、焦点検出画素とその周辺に位置する撮像用画素との出力比率から、推定ゲイン値を算出する。続いて算出した個別の推定ゲイン値について、焦点検出画素のX座標が共通する値毎に集団とし、その集団毎の代表値を取る。そのようにして得た同一X座標集団毎の代表値を要素として空間的な補間を行うことで、X座標とゲイン値の関係曲線を推定する。以上のようにして各同一X座標集団に対するゲイン値を算出し、エッジ付近に位置する焦点検出画素に適用することで、撮像素子200から取得された信号値のみを用いて好適なゲイン値の設定が可能となる。   That is, the correction processing unit 152 in the present embodiment first calculates an estimated gain value for the focus detection pixels existing in the non-edge region from the output ratio between the focus detection pixels and the imaging pixels located in the vicinity thereof. Subsequently, the individual estimated gain values calculated are grouped for each value with the common X coordinate of the focus detection pixel, and a representative value for each group is taken. The relationship curve between the X coordinate and the gain value is estimated by performing spatial interpolation using the representative value for each identical X coordinate group thus obtained as an element. By calculating the gain value for each identical X coordinate group as described above and applying it to the focus detection pixels located near the edge, a suitable gain value is set using only the signal value acquired from the image sensor 200. Is possible.

図6に示すブロック図には、補正処理部152の主要な構成が示されている。補正処理部152はゲイン値算出部、ゲイン値補間部、ゲイン補正部、補間補正部を有している。以下、補正処理部152における焦点検出画素の信号値補正処理について説明する。   The main configuration of the correction processing unit 152 is shown in the block diagram shown in FIG. The correction processing unit 152 includes a gain value calculation unit, a gain value interpolation unit, a gain correction unit, and an interpolation correction unit. Hereinafter, the signal value correction processing of the focus detection pixel in the correction processing unit 152 will be described.

メモリ部160から補正処理部152に読み出されたRawデータは初めにゲイン値算出部にて、焦点検出画素がエッジ付近に位置するかについての判定(以下エッジ判定とする)が行われる。上記判定は全ての焦点検出画素に対して行われ、その判定結果はメモリ部160に記録される。   The raw data read from the memory unit 160 to the correction processing unit 152 is first subjected to determination (hereinafter referred to as edge determination) as to whether the focus detection pixel is located near the edge by the gain value calculation unit. The above determination is performed for all focus detection pixels, and the determination result is recorded in the memory unit 160.

エッジ判定は、対象の焦点検出画素の周辺に位置する撮像用画素のばらつきを算出し、評価することによって行われる。本実施例ではばらつきとして周辺に位置する撮像用画素の最大値と最小値の差を使用する。ただし、分散をばらつきとして使用するなど可能であり、これに限定されるものではない。   The edge determination is performed by calculating and evaluating the variation of the imaging pixels located around the target focus detection pixel. In this embodiment, the difference between the maximum value and the minimum value of imaging pixels located in the vicinity is used as the variation. However, it is possible to use dispersion as a variation, and the present invention is not limited to this.

図7は、図3に示した撮像素子200の画素配置列から、焦点検出画素群S1を中心として3×4個の画素を抽出した図である。左目焦点検出画素L1と右目焦点検出画素R1はTL、TUL、TC、TR、TUR、BL、BLL、BC、BR、BLRを周辺に位置する撮像用画素としている。また、左目焦点検出画素L1と右目焦点検出画素R1は隣り合って配置されていることから、どちらかがエッジ付近に位置すれば、他方もエッジ付近に位置することとなる。   FIG. 7 is a diagram in which 3 × 4 pixels are extracted from the pixel arrangement row of the image sensor 200 illustrated in FIG. 3 with the focus detection pixel group S1 as the center. The left-eye focus detection pixel L1 and the right-eye focus detection pixel R1 use TL, TUL, TC, TR, TUR, BL, BLL, BC, BR, and BLR as imaging pixels located in the vicinity. Further, since the left eye focus detection pixel L1 and the right eye focus detection pixel R1 are arranged adjacent to each other, if one is located near the edge, the other is also located near the edge.

本実施例においてばらつきは、周辺に位置する撮像用画素の最大値と最小値の差を、焦点検出画素群の信号値で正規化することによって算出される。周辺に位置する撮像用画素の最大値をM、最小値をm、ばらつきをVと定義すると、M、m及びVは次の式で表される。

Figure 2018006881
Figure 2018006881
Figure 2018006881
ただし、s_TL、s_TUL、s_TC、s_TR、s_TUR、s_BL、s_BLL、s_BC、s_BR、s_BLR、s_L1、s_R1、は各画素から出力される信号値である。 In this embodiment, the variation is calculated by normalizing the difference between the maximum value and the minimum value of imaging pixels located in the vicinity with the signal value of the focus detection pixel group. When the maximum value of imaging pixels located in the periphery is defined as M, the minimum value is defined as m, and the variation is defined as V, M, m, and V are expressed by the following equations.
Figure 2018006881
Figure 2018006881
Figure 2018006881
However, s_TL, s_TUL, s_TC, s_TR, s_TUR, s_BL, s_BLL, s_BC, s_BR, s_BLR, s_L1, and s_R1 are signal values output from each pixel.

エッジ判定は算出されたばらつきが境界値を超えているか否かを評価する。ばらつきの大小は周辺に位置する撮像用画素の信号差の大小を示しており、つまりばらつきが境界値以上であれば焦点検出画素がエッジ付近に位置することを意味し、境界値未満であれば焦点検出画素が非エッジ領域に位置することを意味する。ここで境界値は自由に設定可能な数値であり、実施者の必要に応じて適宜設定すればよい。以上のようにして、エッジ判定は行われる。   In the edge determination, it is evaluated whether or not the calculated variation exceeds the boundary value. The magnitude of the variation indicates the magnitude of the signal difference between the imaging pixels located in the vicinity, that is, if the variation is greater than or equal to the boundary value, it means that the focus detection pixel is located near the edge, and if less than the boundary value This means that the focus detection pixel is located in the non-edge region. Here, the boundary value is a numerical value that can be freely set, and may be set as appropriate according to the needs of the practitioner. The edge determination is performed as described above.

次にゲイン値算出部は、非エッジ領域に位置すると判定された焦点検出画素について、その周辺に位置する撮像用画素の信号値から、補間推定値を算出する。補間推定値は周辺に位置する撮像用画素の信号値を要素とした代表値である。本実施例では以後代表値として中央値を算出することとするが、これに限られるものではなく、平均値等としてもよい。   Next, for the focus detection pixel determined to be located in the non-edge region, the gain value calculation unit calculates an interpolation estimated value from the signal value of the imaging pixel located in the vicinity thereof. The interpolation estimated value is a representative value with the signal value of the imaging pixel located in the vicinity as an element. In the present embodiment, the median is calculated as the representative value thereafter, but the present invention is not limited to this and may be an average value or the like.

算出された補間推定値は、所定の焦点検出画素の信号値について周辺画素の信号値を根拠とし、補間的に推定された値である。この補間推定値を実際の焦点検出画素の信号値で除算することで、焦点検出画素の仮想的なゲイン値である推定ゲイン値が算出される。算出された推定ゲイン値はメモリ部160に記録される。補間推定値をI、推定ゲイン値をG_Eとすると、例えば左目焦点検出画素L1の推定ゲイン値は次の式で表される。

Figure 2018006881
The calculated interpolation estimated value is a value estimated in an interpolated manner based on the signal value of the surrounding pixels with respect to the signal value of the predetermined focus detection pixel. By dividing this interpolation estimated value by the actual signal value of the focus detection pixel, an estimated gain value which is a virtual gain value of the focus detection pixel is calculated. The calculated estimated gain value is recorded in the memory unit 160. When the interpolation estimated value is I and the estimated gain value is G_E, for example, the estimated gain value of the left-eye focus detection pixel L1 is expressed by the following equation.
Figure 2018006881

ゲイン値補間部は、記録された推定ゲイン値を読出し、ゲイン値の空間的な補間を行う。このような補間を行うことで、エッジ付近に位置すると判定された焦点検出画素に関するゲイン値について算出することが可能となる。ゲイン値の補間は同構造の画素同士で行う必要があるため、右目焦点検出画素と左目焦点検出画素とで別途行われる。   The gain value interpolation unit reads the recorded estimated gain value and performs spatial interpolation of the gain value. By performing such interpolation, it is possible to calculate the gain value related to the focus detection pixel determined to be located near the edge. Since interpolation of gain values needs to be performed between pixels having the same structure, it is performed separately for the right eye focus detection pixel and the left eye focus detection pixel.

図8は撮像素子200におけるゲイン値算出を示す模式図である。以下、図8を用いて左目焦点検出画素におけるゲイン値の空間的な補間方法を説明する。図8中の数字の組は左目焦点検出画素の座標であり、Y座標は奇数のみを取る。ここで、m、nは任意の自然数であり、実施者の必要に応じて適宜設定される。また、座標(2.3)等にかかっている四角の枠は、焦点検出画素がエッジ上に位置していることを意味している。   FIG. 8 is a schematic diagram showing gain value calculation in the image sensor 200. Hereinafter, the spatial interpolation method of the gain value in the left eye focus detection pixel will be described with reference to FIG. The set of numbers in FIG. 8 is the coordinates of the left eye focus detection pixel, and the Y coordinate takes only an odd number. Here, m and n are arbitrary natural numbers, and are appropriately set according to the needs of the practitioner. In addition, a square frame covering the coordinates (2.3) or the like means that the focus detection pixel is located on the edge.

ゲイン値補間部は、まずX座標毎の代表値を算出する。ゲイン値は前述したように入射光線量により、X座標毎に決定される数値である。従ってゲイン値算出部にて算出された、同一X座標におけるそれぞれの焦点検出画素に対する推定ゲイン値は同一の数値が得られるはずである。しかし推定ゲイン値は焦点検出画素の周辺画素の信号値によって推定された値にすぎず、その精度は低いため、実際には同一の数値を得られない。従って、それらを要素として代表値を求めることで、各同一X座標集団において、より精度の高いゲイン値が推定される。なお代表値として中央値を算出することとするが、これに限られるものではない。   The gain value interpolation unit first calculates a representative value for each X coordinate. As described above, the gain value is a numerical value determined for each X coordinate by the amount of incident light. Therefore, the estimated gain value for each focus detection pixel at the same X coordinate calculated by the gain value calculation unit should be the same. However, the estimated gain value is only a value estimated from the signal values of the surrounding pixels of the focus detection pixel, and since the accuracy thereof is low, the same numerical value cannot actually be obtained. Therefore, by obtaining representative values using these as elements, a gain value with higher accuracy is estimated in each identical X coordinate group. Although the median value is calculated as the representative value, the present invention is not limited to this.

例えば、X座標が1である同一X座標集団の代表値は、座標(1.1)から座標(1.2n−1)までの左目焦点検出画素の推定ゲイン値を要素として算出される。X座標が2である同一X座標集団の代表値は同様にして算出されるが、座標(2.3)はエッジ上に位置していることから、エッジ判定においてばらつきが境界値を超えていると判定されるため、推定ゲイン値が算出されない。従って、座標(2.3)を除いた座標(2.1)から座標(2.2n―1)までの推定ゲイン値を要素として算出される。X座標が3である同一X座標集団については全ての焦点検出画素がエッジ上に位置しているとする。すると推定ゲイン値が算出される焦点検出画素が存在しないため、この集団における代表値は算出されない。   For example, the representative value of the same X coordinate group whose X coordinate is 1 is calculated using the estimated gain value of the left-eye focus detection pixel from the coordinates (1.1) to the coordinates (1.2n−1) as an element. The representative value of the same X coordinate group whose X coordinate is 2 is calculated in the same manner, but since the coordinate (2.3) is located on the edge, the variation in edge determination exceeds the boundary value. Therefore, the estimated gain value is not calculated. Accordingly, the estimated gain value from the coordinate (2.1) to the coordinate (2.2n-1) excluding the coordinate (2.3) is calculated as an element. It is assumed that all focus detection pixels are located on the edge for the same X coordinate group whose X coordinate is 3. Then, since there is no focus detection pixel for which the estimated gain value is calculated, the representative value in this group is not calculated.

ここで、X座標が3である同一X座標集団のような推定ゲイン値をもたない画素集団については、値を与えるためにゲイン値の推定を行わなくてはならない。また、非エッジ領域に位置すると判定された焦点検出画素数が少ない画素集団の場合、代表値の精度が不十分である可能性がある。そこでゲイン値が空間的に滑らかに変化することを用い、X座標毎のゲイン値の空間的な補間を行う。   Here, for a pixel group that does not have an estimated gain value, such as the same X coordinate group having an X coordinate of 3, a gain value must be estimated to give a value. In addition, in the case of a pixel group with a small number of focus detection pixels determined to be located in the non-edge region, the accuracy of the representative value may be insufficient. Therefore, spatial gain interpolation for each X coordinate is performed using the fact that the gain value changes smoothly in space.

図9はX座標毎のゲイン値の空間的な補間について示した模式図である。本実施例において空間的な補間はX座標をパラメータとした代表値の多項式近似によって行われる。図9の模式図における縦軸はゲイン値、横軸はX座標、黒点はX座標毎の代表値、曲線はX座標毎の代表値を多項式近似することで得られた近似曲線を示している。   FIG. 9 is a schematic diagram showing spatial interpolation of gain values for each X coordinate. In this embodiment, spatial interpolation is performed by polynomial approximation of representative values using the X coordinate as a parameter. In the schematic diagram of FIG. 9, the vertical axis represents the gain value, the horizontal axis represents the X coordinate, the black dot represents the representative value for each X coordinate, and the curve represents an approximate curve obtained by polynomial approximation of the representative value for each X coordinate. .

このようにして算出された近似曲線は、特定の条件におけるX座標とゲイン値の関係曲線として推定された曲線である。近似曲線は非エッジ領域に存在する全ての焦点検出画素の信号値を要素としているため、精度の高い推定が行われている。   The approximate curve calculated in this way is a curve estimated as a relationship curve between the X coordinate and the gain value under a specific condition. Since the approximate curve uses the signal values of all focus detection pixels existing in the non-edge region as elements, high-precision estimation is performed.

図10は値の置き換えを示す模式図である。図10中の白丸は、X座標毎の代表値に対応した、置き換え後のゲイン値を示している。全てのX座標毎の代表値は、近似多項式にX座標を代入して求めた値に置き換えられる。また、代表値が存在しなかったX座標に対しても、近似多項式によってゲイン値が算出される。   FIG. 10 is a schematic diagram showing value replacement. A white circle in FIG. 10 indicates the gain value after replacement corresponding to the representative value for each X coordinate. The representative values for all the X coordinates are replaced with values obtained by substituting the X coordinates into the approximate polynomial. Also, the gain value is calculated by the approximate polynomial for the X coordinate for which no representative value exists.

以上のようにX座標毎の代表値に対して近似曲線によって得られたゲイン値を置換することで、全てのX座標毎の代表値について、精度の高いゲイン値が算出される。また、近似曲線から大きく外れているような、精度の不十分な代表値である外れ値を補正することができる。また、X座標が3である同一X座標集団のような代表値が存在しないX座標に対してゲイン値を算出することが可能となる。   As described above, by replacing the representative value for each X coordinate with the gain value obtained by the approximate curve, a highly accurate gain value is calculated for all the representative values for each X coordinate. Further, an outlier that is a representative value with insufficient accuracy, such as a large deviation from the approximate curve, can be corrected. Further, it is possible to calculate a gain value for an X coordinate having no representative value such as the same X coordinate group having an X coordinate of 3.

続いてゲイン補正部におけるゲイン補正処理について説明を行う。ゲイン補正処理はエッジ付近に位置する焦点検出画素から得られた信号値に対し、ゲイン値補間部によって算出された該X座標におけるゲイン値を乗算することによって行われる。   Next, gain correction processing in the gain correction unit will be described. The gain correction process is performed by multiplying the signal value obtained from the focus detection pixel located near the edge by the gain value at the X coordinate calculated by the gain value interpolation unit.

次に、補間補正部における補間補正処理について説明を行う。前述したように、非エッジ領域に位置する焦点検出画素に対しては補間補正がより好適に作用する。補間補正部は、非エッジ領域に位置する焦点検出画素に対して、焦点検出画素の周辺に位置する撮像用画素を使用することで補間補正処理を行う。例えば、周辺に位置する撮像用画素の信号値について中央値を算出し、焦点検出画素の信号値と置き換えるなどすればよい。   Next, the interpolation correction process in the interpolation correction unit will be described. As described above, the interpolation correction works more favorably on the focus detection pixels located in the non-edge region. The interpolation correction unit performs an interpolation correction process on the focus detection pixels located in the non-edge region by using the imaging pixels located around the focus detection pixels. For example, a median value may be calculated for the signal values of the imaging pixels located in the vicinity and replaced with the signal values of the focus detection pixels.

図11は本実施例における焦点検出画素の信号値補正処理のフロー図を示している。以下、図に従って本実施例の信号値補正処理について説明する。   FIG. 11 shows a flowchart of the signal value correction process of the focus detection pixel in this embodiment. Hereinafter, the signal value correction processing of this embodiment will be described with reference to the drawings.

ステップS101でカメラCPU170から信号値補正処理命令が発信されると、ステップS102でメモリ部160から補正処理部152にRawデータが読み出される。   When a signal value correction processing command is transmitted from the camera CPU 170 in step S101, raw data is read from the memory unit 160 to the correction processing unit 152 in step S102.

ステップS103では、ゲイン値算出部において所定の焦点検出画素がエッジ付近に位置しているかについての判定が行われる。所定の焦点検出画素がエッジ付近に位置していると判定された場合、ステップS104で所定の画素に対してflag=1がメモリ部160に記録される。   In step S103, the gain value calculation unit determines whether a predetermined focus detection pixel is located near the edge. If it is determined that the predetermined focus detection pixel is located near the edge, flag = 1 is recorded in the memory unit 160 for the predetermined pixel in step S104.

一方、所定の焦点検出画素が非エッジ領域に位置していると判定された場合、ステップS105で所定の画素に対してflag=0がメモリ部160に記録される。続いて、所定の焦点検出画素に対して補間推定値が算出され、推定ゲイン値が算出される。推定ゲイン値はflagと同様にメモリ部160に記録される。   On the other hand, when it is determined that the predetermined focus detection pixel is located in the non-edge region, flag = 0 is recorded in the memory unit 160 for the predetermined pixel in step S105. Subsequently, an interpolation estimated value is calculated for a predetermined focus detection pixel, and an estimated gain value is calculated. The estimated gain value is recorded in the memory unit 160 similarly to the flag.

ステップS107では、全ての焦点検出画素に対してエッジ判定が行われたかの判定が行われる。全ての焦点検出画素に対してエッジ判定が行われていない場合、ステップS103に戻り、エッジ判定が行われていない画素に対してエッジ判定を行う。   In step S107, it is determined whether edge determination has been performed for all focus detection pixels. If edge determination has not been performed for all focus detection pixels, the process returns to step S103, and edge determination is performed for pixels for which edge determination has not been performed.

全ての焦点検出画素に対してエッジ判定が行われている場合、ステップS108ではゲイン値補間部においてゲイン値の空間的な補間が行われる。まずメモリ部160からflag=0が記録された焦点検出画素について、算出された推定ゲイン値が読み出される。読み出された推定ゲイン値からX座標毎の代表値が算出され、更にX座標毎の代表値を要素としたゲイン値の空間的補正が行われる。算出された全てのX座標におけるゲイン値はメモリ部160に保存される。   When edge determination is performed for all focus detection pixels, gain value spatial interpolation is performed in the gain value interpolation unit in step S108. First, the calculated estimated gain value is read from the memory unit 160 for the focus detection pixel in which flag = 0 is recorded. A representative value for each X coordinate is calculated from the read estimated gain value, and further, a spatial correction of the gain value using the representative value for each X coordinate as an element is performed. The calculated gain values at all X coordinates are stored in the memory unit 160.

ステップS109では、所定の焦点検出画素がflag=1であるかについての判定が行われる。flag=1の場合、エッジ付近に位置する焦点検出画素であるので、ステップS110においてゲイン補正部にてゲイン補正処理が行われる。この際、所定の焦点検出画素のX座標に対応するゲイン値がメモリ部160から読み出され、適用される。   In step S109, a determination is made as to whether a predetermined focus detection pixel is flag = 1. When flag = 1, since the focus detection pixel is located near the edge, a gain correction process is performed in the gain correction unit in step S110. At this time, a gain value corresponding to the X coordinate of a predetermined focus detection pixel is read from the memory unit 160 and applied.

一方、所定の焦点検出画素がflag=0である場合、非エッジ領域に位置する焦点検出画素であるので、ステップS111において補間補正部にて補間補正処理が行われる。   On the other hand, when the predetermined focus detection pixel is flag = 0, since it is a focus detection pixel located in the non-edge region, an interpolation correction process is performed in the interpolation correction unit in step S111.

ステップS112では、全ての焦点検出画素に対して補正処理が行われたかの判定が行われる。全ての焦点検出画素に対して補正処理が行われていない場合、ステップS109に戻り、補正処理が行われていない画素に対して補正処理を行う。   In step S112, it is determined whether correction processing has been performed for all focus detection pixels. If correction processing has not been performed for all focus detection pixels, the process returns to step S109, and correction processing is performed on pixels for which correction processing has not been performed.

全ての焦点検出画素に対して補正処理が行われている場合、信号値補正処理は終了する。ここで本フローは右目焦点検出画素と、左目焦点検出画素とで別個に行われる。従って、両検出画素に対して信号値補正処理が行われるよう、本処理は2度行われる。   When the correction process is performed on all focus detection pixels, the signal value correction process ends. Here, this flow is performed separately for the right eye focus detection pixel and the left eye focus detection pixel. Therefore, this process is performed twice so that the signal value correction process is performed on both detection pixels.

なお、ステップS101からステップS107までは右目焦点検出画素と、左目焦点検出画素との処理を共通化しても良い。その場合、ステップS108からステップS113までが右目焦点検出画素と、左目焦点検出画素とで別個に行われる。   In steps S101 to S107, the processing of the right eye focus detection pixel and the left eye focus detection pixel may be shared. In that case, Step S108 to Step S113 are performed separately for the right eye focus detection pixel and the left eye focus detection pixel.

以上の様に本実施例の撮像装置100は、エッジ付近に位置する焦点検出画素について、非エッジ領域における焦点検出画素からゲイン値を算出可能であることから、撮像素子200から取得された信号値のみを用いてゲイン補正処理を行うことができる。従って、装着している光学装置の情報が取得できないような場合においても、撮像素子200から取得された信号値のみを用いることで好適な補正処理が可能となる。   As described above, since the imaging apparatus 100 according to the present embodiment can calculate the gain value from the focus detection pixels in the non-edge region for the focus detection pixels located near the edge, the signal value acquired from the image sensor 200 is obtained. Gain correction processing can be performed using only Therefore, even in the case where information on the mounted optical device cannot be acquired, a preferable correction process can be performed by using only the signal value acquired from the image sensor 200.

また、多項式近似を行うことで全ての焦点検出画素のゲイン値が持ちうる推定誤差を空間的に取り除くことができるため、最終的な画像データについて、ゲイン値設定における推定誤差から生じるエラーケースを低減できる。   Also, by performing polynomial approximation, the estimation error that can be held by the gain values of all focus detection pixels can be spatially removed, reducing the error cases caused by the estimation error in gain value setting for the final image data it can.

また、焦点検出画素がエッジ付近に位置する場合にはゲイン補正を行い、非エッジ領域に位置する場合には補間補正を行うことから最終的な画像について、エッジにおける鮮鋭度を失わず、かつ推定誤差の少ない補正処理が可能となる。   In addition, gain correction is performed when the focus detection pixel is located near the edge, and interpolation correction is performed when the focus detection pixel is located in the non-edge region. Therefore, the final image is estimated without loss of sharpness at the edge. Correction processing with less error is possible.

(実施例2)
実施例1では機能画素として焦点検出画素を配置したが、本発明はそれ以外の機能画素に適用することも可能である。実施例2における発明は、飽和防止画素を機能画素とする撮像素子200を備えた撮像装置100の画像処理方法である。
(Example 2)
In the first embodiment, focus detection pixels are arranged as functional pixels. However, the present invention can also be applied to other functional pixels. The invention in the second embodiment is an image processing method of the imaging apparatus 100 including the imaging element 200 having a saturation prevention pixel as a functional pixel.

飽和防止画素は画素の一部を遮蔽する、若しくは入射光量の透過率を抑制するフィルタを画素に設置する、などの方法で撮像用画素と比較して低い感度を有する機能画素である。撮像用画素よりも低い感度を有することで、撮像用画素の信号値が飽和するような場合にも飽和の起こっていない信号値を出力可能であることから、画像の白飛びに対して有効な補正を行うために設置される。   The saturation prevention pixel is a functional pixel having a lower sensitivity than the imaging pixel by a method of shielding a part of the pixel or installing a filter for suppressing the transmittance of the incident light amount in the pixel. Since it has a lower sensitivity than the imaging pixel, it can output a signal value without saturation even when the signal value of the imaging pixel is saturated. Installed to make corrections.

図12は最上面に位置するフォトダイオード行列のうち一部に飽和防止画素を配置した撮像素子200の画素配置列を示した模式図である。LTn、RTn、LBn、RBnは飽和防止画素であり、各画素が別の飽和防止画素2つと隣接するようにして配置されている。ここでnは任意の自然数であり、撮像素子200の必要に応じて設定される。   FIG. 12 is a schematic diagram showing a pixel arrangement row of the image sensor 200 in which saturation prevention pixels are arranged in a part of the photodiode matrix located on the uppermost surface. LTn, RTn, LBn, and RBn are saturation prevention pixels, and are arranged so that each pixel is adjacent to two other saturation prevention pixels. Here, n is an arbitrary natural number, and is set according to the necessity of the image sensor 200.

例えば、左上飽和防止画素LT1と右上飽和防止画素RT1と左下飽和防止画素LB1と右下飽和防止画素RB1は、飽和防止画素群U1を構成する。   For example, the upper left saturation prevention pixel LT1, the upper right saturation prevention pixel RT1, the lower left saturation prevention pixel LB1, and the lower right saturation prevention pixel RB1 constitute a saturation prevention pixel group U1.

本実施例における飽和防止画素は、画素の周辺部を遮光されることで入射光量が制限された構造となっている。画素の中央部は開口部となっており、開口部は撮像用画素の開口部の略4分の1の面積を有している。また、撮像素子200中の飽和防止画素は全て同様の構造となる。   The saturation prevention pixel in this embodiment has a structure in which the amount of incident light is limited by shielding the periphery of the pixel. The central portion of the pixel is an opening, and the opening has an area that is approximately a quarter of the opening of the imaging pixel. In addition, all the saturation prevention pixels in the image sensor 200 have the same structure.

飽和防止画素から出力される信号値は、周辺画素が飽和を起こした際には飽和防止のための信号処理に寄与する。一方、周辺画素が飽和を起こしていない場合においては、画像信号として画像データ生成のみに使用される。ここで飽和防止画素は入射光量の制限された構造のため、撮像用画素と比較して略4分の1の感度しか持たず、撮像用画素と比べて同一光量に対して信号値が低下してしまう。従って、飽和防止画素から出力される信号値を画像データへと使用するには実施例1と同様に信号値に対して補正処理を行う必要がある。   The signal value output from the saturation prevention pixel contributes to signal processing for preventing saturation when the peripheral pixel is saturated. On the other hand, when the peripheral pixels are not saturated, they are used only for generating image data as image signals. Here, since the saturation prevention pixel has a structure in which the amount of incident light is limited, it has only about one-fourth the sensitivity as compared with the imaging pixel, and the signal value decreases for the same amount of light as compared with the imaging pixel. End up. Therefore, in order to use the signal value output from the saturation prevention pixel for the image data, it is necessary to perform a correction process on the signal value as in the first embodiment.

ここで本実施例における飽和防止画素では中央部が開口部となっていることから、像高が等しい画素同士はケラレ量の差が無視できる程度である。従って、本実施例では像高毎にゲイン値を共通とする焦点検出画素群が形成される。   Here, since the central portion of the saturation prevention pixel in this embodiment is an opening, the difference in the amount of vignetting is negligible between pixels having the same image height. Therefore, in this embodiment, a focus detection pixel group having a common gain value for each image height is formed.

信号値補正処理について手法は実施例1と同様であるが、ばらつきの算出方法が異なるので、以下に説明する。図13は、図12に示した撮像素子200の画素配置列から、飽和防止画素群U1を中心として4×4個の画素を抽出した図である。   The method for the signal value correction processing is the same as that in the first embodiment, but the method for calculating the variation is different and will be described below. FIG. 13 is a diagram in which 4 × 4 pixels are extracted from the pixel arrangement column of the image sensor 200 illustrated in FIG. 12 with the saturation prevention pixel group U1 as the center.

実施例2におけるばらつきは、飽和防止画素群U1の周辺に位置する撮像用画素の最大値と最小値の差を、焦点検出画素群の信号値で正規化することによって算出される。周辺に位置する撮像用画素の最大値をM、最小値をm、ばらつきをVと定義すると、M、m及びVは次の式で表される。

Figure 2018006881
Figure 2018006881
Figure 2018006881
ただし、s_LTT、s_LUL、s_LTL、s_RTT、s_RUR、s_RTR、s_LBL、s_LLL、sLBB、s_RBR、s_RLR、s_RBB、s_LT1、s_RT1、s_LB1、s_RB1は各画素から出力される信号値である。 The variation in the second embodiment is calculated by normalizing the difference between the maximum value and the minimum value of the imaging pixels located around the saturation prevention pixel group U1 with the signal value of the focus detection pixel group. When the maximum value of imaging pixels located in the periphery is defined as M, the minimum value is defined as m, and the variation is defined as V, M, m, and V are expressed by the following equations.
Figure 2018006881
Figure 2018006881
Figure 2018006881
However, s_LTT, s_LUL, s_LTL, s_RTT, s_RUR, s_RTR, s_LBL, s_LLL, sLBB, s_RBR, s_RLR, s_RBB, s_LT1, s_RT1, s_LB1, and s_RB1 are output from each pixel.

以上の様にしてばらつきは算出される。推定ゲイン値の算出等、その他の処理は実施例1と同様に行えばよい。ただし実施例1と異なり全ての機能画素が同一の構造をしているため、信号値補正処理は1度行うのみで良い。   The variation is calculated as described above. Other processes such as calculation of the estimated gain value may be performed in the same manner as in the first embodiment. However, unlike the first embodiment, since all the functional pixels have the same structure, the signal value correction process needs to be performed only once.

本実施例によれば、飽和防止画素のような撮像用画素と感度の異なる画素に対して、好適な信号値補正を行うことが可能である。   According to the present embodiment, it is possible to perform a suitable signal value correction on a pixel having a sensitivity different from that of an imaging pixel such as a saturation prevention pixel.

以上で説明したように、取得された信号値のみを用いることで機能画素に対して適切な補正を行い、良好な画像データを取得可能な画像処理装置及び画像処理方法を得ることができる。   As described above, it is possible to obtain an image processing apparatus and an image processing method capable of appropriately correcting the functional pixel by using only the acquired signal value and acquiring good image data.

100 撮像装置
101 光学装置
110 撮影光学系
130 読み出し制御部
150 信号処理部
152 補正処理部
154 画像処理部
160 メモリ部
170 カメラCPU
171 ユーザインターフェース(I/F)
172 記録媒体インターフェース(I/F)
190 画像表示部
200 撮像素子
210 最上面に位置するフォトダイオード
230 中間深さに位置するフォトダイオード
250 最下層に位置するフォトダイオード
270 マイクロレンズ
290 開口部
DESCRIPTION OF SYMBOLS 100 Image pick-up apparatus 101 Optical apparatus 110 Image pick-up optical system 130 Reading control part 150 Signal processing part 152 Correction processing part 154 Image processing part 160 Memory part 170 Camera CPU
171 User interface (I / F)
172 Recording medium interface (I / F)
190 Image display unit 200 Image sensor 210 Photodiode 230 located on the top surface Photodiode 250 located at the intermediate depth Photodiode 270 located on the bottom layer Microlens 290 Opening

Claims (11)

2次元状に配置された複数の撮像用画素と、前記撮像用画素とは異なる感度を持つ複数の機能画素と、を有する撮像手段と、
前記機能画素が境界部に存在するか判定する境界判定部と、
前記機能画素に対するゲイン値を算出するゲイン値算出部と、を有し、
前記境界部は信号値が不連続に変化する箇所であり、
前記ゲイン値算出部は前記境界判定部が境界部に存在しないと判定した前記機能画素の周囲に配置された前記撮像用画素から出力される信号値を用いて、前記境界判定部が境界部に存在すると判定した前記機能画素に対するゲイン値を算出することを特徴とする画像処理装置。
An imaging means having a plurality of imaging pixels arranged two-dimensionally and a plurality of functional pixels having different sensitivities from the imaging pixels;
A boundary determination unit that determines whether the functional pixel is present at the boundary;
A gain value calculation unit for calculating a gain value for the functional pixel,
The boundary is a point where the signal value changes discontinuously,
The gain value calculation unit uses the signal value output from the imaging pixels arranged around the functional pixel determined that the boundary determination unit does not exist in the boundary unit, and the boundary determination unit is used as the boundary unit. An image processing apparatus that calculates a gain value for the functional pixel determined to be present.
前記ゲイン算出部は、
前記境界判定部が境界部に存在しないと判定した前記機能画素に対して所定の前記機能画素の周囲に配置された前記撮像用画素から出力される信号値の代表値を所定の前記機能画素から出力される信号値で除算することで推定ゲイン値を算出し、
前記推定ゲイン値を空間的に補間することで全ての前記機能画素に対する前記ゲイン値を算出することを特徴とする請求項1に記載の画像処理装置。
The gain calculator is
The representative value of the signal value output from the imaging pixel arranged around the predetermined functional pixel is determined from the predetermined functional pixel with respect to the functional pixel determined that the boundary determination unit does not exist in the boundary portion. Calculate the estimated gain value by dividing by the output signal value,
The image processing apparatus according to claim 1, wherein the gain values for all the functional pixels are calculated by spatially interpolating the estimated gain values.
前記推定ゲイン値の空間的な補間は前記推定ゲイン値を用いて所定の集団毎の前記ゲイン値を算出し、前記所定の集団毎のゲイン値を空間的に補間することで行われることを特徴とする請求項2に記載の画像処理装置。   The spatial interpolation of the estimated gain value is performed by calculating the gain value for each predetermined group using the estimated gain value and spatially interpolating the gain value for each predetermined group. The image processing apparatus according to claim 2. 前記境界判定部が境界部に存在していると判定した前記機能画素に対して前記ゲイン値算出部で算出された前記ゲイン値を用いてゲイン補正を行うゲイン補正部と、
前記境界判定部が境界部に存在しないと判定した前記機能画素に対して補間補正を行う補間補正部と、を有することを特徴とする請求項1乃至請求項3のいずれかに記載の画像処理装置。
A gain correction unit that performs gain correction using the gain value calculated by the gain value calculation unit with respect to the functional pixel that has been determined that the boundary determination unit exists in the boundary part;
4. The image processing according to claim 1, further comprising: an interpolation correction unit that performs interpolation correction on the functional pixel that is determined not to exist in the boundary by the boundary determination unit. 5. apparatus.
前記境界判定部は前記機能画素の周囲に配置された前記撮像用画素のばらつきを算出することで前記機能画素が境界部に存在するか判定することを特徴とする請求項1乃至請求項4のいずれかに記載の画像処理装置。   5. The boundary determination unit according to claim 1, wherein the boundary determination unit determines whether the functional pixel is present in the boundary part by calculating a variation of the imaging pixels arranged around the functional pixel. The image processing apparatus according to any one of the above. 前記撮像手段は複数の前記機能画素が隣接して配置される機能画素群を有することを特徴とする請求項1乃至請求項5のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the imaging unit includes a functional pixel group in which a plurality of the functional pixels are arranged adjacent to each other. 前記機能画素は、前記撮像手段へ光束を導く撮像光学系からの光束のうち分割された光束を光電変換する焦点検出画素であることを特徴とする請求項1乃至請求項6のいずれかに記載の画像処理装置。   7. The focus detection pixel according to claim 1, wherein the functional pixel is a focus detection pixel that photoelectrically converts a divided light beam among light beams from an imaging optical system that guides the light beam to the imaging unit. Image processing apparatus. 前記機能画素は、前記撮像用画素に対し異なる構造を取る又はフィルタを有することで、異なる感度を持つ飽和防止画素であることを特徴とする請求項1乃至請求項6のいずれかに記載の画像処理装置。   The image according to any one of claims 1 to 6, wherein the functional pixel is a saturation prevention pixel having different sensitivity by adopting a different structure or a filter with respect to the imaging pixel. Processing equipment. 前記撮像手段は、深さ方向に積層された複数の層の受光部を有する複数の受光素子が半導体基板上に配置された積層型固体撮像素子であることを特徴とする請求項1乃至請求項8のいずれかに記載の画像処理装置。   2. The stacked solid-state imaging device according to claim 1, wherein the imaging unit is a stacked solid-state imaging device in which a plurality of light receiving elements each having a plurality of layers of light receiving portions stacked in a depth direction are arranged on a semiconductor substrate. The image processing apparatus according to any one of 8. 前記画像処理装置を有する撮像装置であって、
前記撮像装置に装着された光学装置から前記撮像装置が光学装置情報を判別出来ない場合に前記機能画素に対するゲイン値を算出することを特徴とする請求項1乃至請求項9のいずれかに記載の撮像装置。
An imaging apparatus having the image processing apparatus,
The gain value for the functional pixel is calculated when the imaging apparatus cannot discriminate optical apparatus information from the optical apparatus mounted on the imaging apparatus. Imaging device.
2次元状に配置された複数の撮像用画素と、撮像用画素とは異なる感度を持つ複数の機能画素と、を有する撮像手段の画像処理方法であって、
境界判定部は信号値が不連続に変化する箇所である境界部に前記機能画素が存在するか判定し、
ゲイン算出部は前記機能画素に対するゲイン値を算出し、
前記境界判定部が境界に面していないと判定した前記機能画素の周囲に配置された前記撮像用画素から出力される信号値を用いて前記機能画素に対するゲイン値を算出することを特徴とする画像処理方法。
An image processing method of an imaging means having a plurality of imaging pixels arranged two-dimensionally and a plurality of functional pixels having different sensitivities from the imaging pixels,
The boundary determination unit determines whether or not the functional pixel is present at a boundary portion where the signal value changes discontinuously,
The gain calculation unit calculates a gain value for the functional pixel,
A gain value for the functional pixel is calculated using a signal value output from the imaging pixels arranged around the functional pixel determined by the boundary determination unit as not facing the boundary. Image processing method.
JP2016128270A 2016-06-29 2016-06-29 Image processing apparatus and image processing method Pending JP2018006881A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016128270A JP2018006881A (en) 2016-06-29 2016-06-29 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016128270A JP2018006881A (en) 2016-06-29 2016-06-29 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2018006881A true JP2018006881A (en) 2018-01-11

Family

ID=60949943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016128270A Pending JP2018006881A (en) 2016-06-29 2016-06-29 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2018006881A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295937A (en) * 2008-06-09 2009-12-17 Sony Corp Dummy exposure substrate and method of manufacturing the same, immersion exposure apparatus, and method of manufacturing device
WO2013168505A1 (en) * 2012-05-10 2013-11-14 富士フイルム株式会社 Imaging device and signal correction method
WO2014041845A1 (en) * 2012-09-12 2014-03-20 富士フイルム株式会社 Imaging device and signal processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009295937A (en) * 2008-06-09 2009-12-17 Sony Corp Dummy exposure substrate and method of manufacturing the same, immersion exposure apparatus, and method of manufacturing device
WO2013168505A1 (en) * 2012-05-10 2013-11-14 富士フイルム株式会社 Imaging device and signal correction method
WO2014041845A1 (en) * 2012-09-12 2014-03-20 富士フイルム株式会社 Imaging device and signal processing method

Similar Documents

Publication Publication Date Title
US10999544B2 (en) Image sensor including phase detection pixels and image pickup device
US9742984B2 (en) Image capturing apparatus and method of controlling the same
KR101442313B1 (en) Camera sensor correction
US9497397B1 (en) Image sensor with auto-focus and color ratio cross-talk comparison
JP5361535B2 (en) Imaging device
JP5572765B2 (en) Solid-state imaging device, imaging apparatus, and focusing control method
KR20180133157A (en) Image sensor including phase detection pixel
CN103444183B (en) Color imaging element and imaging device
JP2009124573A (en) Imaging apparatus
US8736742B2 (en) Image pickup apparatus that performs automatic focus control and control method for the image pickup apparatus
CN103460704B (en) Color image sensor and imaging device
JP5657184B2 (en) Imaging apparatus and signal processing method
US20170257583A1 (en) Image processing device and control method thereof
JP2008113236A (en) Shading correction method and device in imaging apparatus
JP2013190734A (en) Focus detection device and imaging device
JP2014032214A (en) Imaging apparatus and focus position detection method
JP6024102B2 (en) Imaging device
JP5786355B2 (en) Defocus amount detection device and electronic camera
JP5228777B2 (en) Focus detection apparatus and imaging apparatus
JP6547645B2 (en) Image processing method
CN103460702A (en) Color image capturing element, image capturing device, and image capturing program
JP2016057474A (en) Imaging device and focus adjustment method
JP2018006881A (en) Image processing apparatus and image processing method
JP7250428B2 (en) Imaging device and its control method
JP2012156882A (en) Solid state imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200908