JP2009033737A - Signal processing apparatus, image pickup apparatus and synchronization processing program - Google Patents

Signal processing apparatus, image pickup apparatus and synchronization processing program Download PDF

Info

Publication number
JP2009033737A
JP2009033737A JP2008166710A JP2008166710A JP2009033737A JP 2009033737 A JP2009033737 A JP 2009033737A JP 2008166710 A JP2008166710 A JP 2008166710A JP 2008166710 A JP2008166710 A JP 2008166710A JP 2009033737 A JP2009033737 A JP 2009033737A
Authority
JP
Japan
Prior art keywords
signal
pixel position
color signal
color
interpolated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008166710A
Other languages
Japanese (ja)
Other versions
JP5250315B2 (en
Inventor
Satoru Wada
和田  哲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008166710A priority Critical patent/JP5250315B2/en
Priority to US12/163,762 priority patent/US8199230B2/en
Publication of JP2009033737A publication Critical patent/JP2009033737A/en
Application granted granted Critical
Publication of JP5250315B2 publication Critical patent/JP5250315B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/133Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing panchromatic light, e.g. filters passing white light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a signal processing apparatus which can perform color signal interpolating processing (a synchronizing processing) for the reduction of a false color and noise irrespective of a signal. <P>SOLUTION: A synchronization processing unit 12 which processes image pickup signals including R, G and B signals and luminance signals (W signals) outputted from an image pickup device 10 is used to interpolate other color signals than the respective color signals at pixel positions where the R, G and B signals exist. This color signal interpolating processing includes luminance use estimating processing which estimates color signals interpolated at the pixel positions using not only the same kinds of color signals as the color signals to be interpolated but also the luminance signals existing around the pixel positions. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮像素子から出力された複数種類の色信号と輝度信号を含む撮像信号を処理する信号処理装置に関する。   The present invention relates to a signal processing apparatus that processes an imaging signal including a plurality of types of color signals and luminance signals output from an imaging element.

ベイヤー配列のカラーフィルタを有する単板式のイメージセンサでは、イメージセンサに含まれる多数の光電変換素子の各々から1つの色成分の信号しか得られないため、多数の光電変換素子の各々に対応する画素位置に、その光電変換素子からは得られない色信号を補間するいわゆる同時化処理を行う必要がある。同時化処理は、本来画素位置に存在していない色信号を周りの色信号を用いて補間する処理であるため、偽色の発生が問題となる。特許文献1には、どのような信号であっても偽色を低減することができる方法が開示されている。   In a single-plate image sensor having a Bayer array color filter, only one color component signal can be obtained from each of a large number of photoelectric conversion elements included in the image sensor. Therefore, a pixel corresponding to each of the large number of photoelectric conversion elements. It is necessary to perform a so-called synchronization process for interpolating a color signal that cannot be obtained from the photoelectric conversion element at the position. Since the synchronization process is a process of interpolating a color signal that does not originally exist at the pixel position using surrounding color signals, generation of false colors becomes a problem. Patent Document 1 discloses a method that can reduce false colors with any signal.

図5は、ベイヤー配列のカラーフィルタを有する単板式のイメージセンサから得られた色信号の配列を示した図である。
図5に示す円が色信号であり、“R”が内部に記載された円が赤色信号を示し、“G”が内部に記載された円が緑色信号を示し、“B”が内部に記載された円が青色信号を示している。各色信号の上には、画素位置を表す番号(01〜16)を付してある。
FIG. 5 is a diagram illustrating an arrangement of color signals obtained from a single-plate image sensor having a color filter with a Bayer arrangement.
The circle shown in FIG. 5 is a color signal, the circle with “R” written inside indicates a red signal, the circle with “G” written inside shows a green signal, and “B” written inside. Circles indicate blue signals. On each color signal, a number (01 to 16) indicating a pixel position is attached.

図5に示したような撮像信号に対し、特許文献1に開示された方法で同時化処理を行う場合は、B,Gの信号が並ぶラインにおけるG信号のみを有する画素位置10に補間すべきR信号(R10)の算出を、被写体が縦方向に相関性のあるものとしたときに、画像の局所的な領域におけるR信号とG信号との差は等しいという前提、すなわち、R10−G10=R09−G09の関係が成立するという前提に基づいて、R10=G10+(R09−G09)の演算により行う。この場合、R09画素位置のG信号(G09)は、G09=(G05+G13)/2等のように、画素位置09が存在するRGライン上におけるG信号に対して1次元補間演算を施すことにより算出する。   When the image signal as shown in FIG. 5 is subjected to the synchronization process by the method disclosed in Patent Document 1, it should be interpolated to the pixel position 10 having only the G signal in the line where the B and G signals are arranged. Assuming that the calculation of the R signal (R10) is correlated in the vertical direction, the difference between the R signal and the G signal in the local region of the image is equal, that is, R10−G10 = Based on the premise that the relationship of R09-G09 is established, R10 = G10 + (R09-G09) is performed. In this case, the G signal (G09) at the R09 pixel position is calculated by performing a one-dimensional interpolation operation on the G signal on the RG line where the pixel position 09 exists, such as G09 = (G05 + G13) / 2. To do.

このように、従来は、任意の画素位置(例えば画素位置10)に補間すべき色信号(例えばR10)については、その画素位置にあるG信号(G10)と、その画素位置を含むラインの隣のラインの近傍画素位置にある補間すべき色信号と同一種類の色信号(R09)と、その同一種類の色信号の近傍のG信号(G05、G13)とを用いて推定することで、偽色を効果的に低減させている。   As described above, conventionally, for a color signal (for example, R10) to be interpolated at an arbitrary pixel position (for example, pixel position 10), the G signal (G10) at the pixel position and the line including the pixel position are adjacent to each other. By using the color signal (R09) of the same type as the color signal to be interpolated at the pixel position in the vicinity of this line and the G signal (G05, G13) in the vicinity of the color signal of the same type, The color is effectively reduced.

特開2001−101398号公報JP 2001-101398 A

しかし、特許文献1に開示された方法では、G10、G05、及びG13にノイズが多く含まれていると、これらを用いて生成したR10にもノイズが多く含まれることになり、画質劣化を招いてしまう。又、被写体色によっては、R信号とG信号との相関性が低くなり、偽色低減効果が弱くなる場合がある。又、被写体が斜め方向に相関性を持つ場合、GとRBラインが交互に並ぶため、G信号による相関演算での偽色低減効果はない。   However, in the method disclosed in Patent Document 1, if G10, G05, and G13 contain a lot of noise, R10 generated by using these also contains a lot of noise, resulting in image quality degradation. I will. In addition, depending on the subject color, the correlation between the R signal and the G signal is lowered, and the false color reduction effect may be weakened. In addition, when the subject has a correlation in the oblique direction, the G and RB lines are alternately arranged, so there is no false color reduction effect in the correlation calculation using the G signal.

本発明は、上記事情に鑑みてなされたものであり、どのような信号であっても偽色及びノイズを低減する色信号補間処理(同時化処理)を行うことが可能な信号処理装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a signal processing device capable of performing color signal interpolation processing (synchronization processing) to reduce false color and noise for any signal. The purpose is to do.

本発明の信号処理装置は、撮像素子から出力された複数種類の色信号と輝度信号を含む撮像信号に信号処理を施してカラー画像データを生成する信号処理装置であって、前記複数種類の色信号の各々を、生成すべき前記カラー画像データを構成する画素データの画素位置に配置し、前記輝度信号を前記画素位置の周囲に配置すると共に、前記複数種類の色信号の各々の存在する画素位置に、前記各々の色信号以外の種類の色信号を補間する処理を行う同時化処理手段を備え、前記同時化処理手段による色信号を補間するための処理が、前記画素位置に補間すべき色信号を前記画素位置の周囲にある前記補間すべき色信号と同種類の色信号及び前記輝度信号を用いて推定する輝度利用推定処理を含む。   The signal processing apparatus of the present invention is a signal processing apparatus that generates color image data by performing signal processing on an imaging signal including a plurality of types of color signals and luminance signals output from an imaging device, and the plurality of types of colors Each of the signals is arranged at a pixel position of pixel data constituting the color image data to be generated, the luminance signal is arranged around the pixel position, and each of the plurality of types of color signals is present. A synchronization processing means for performing a process for interpolating a color signal other than each of the color signals at a position, and the process for interpolating the color signal by the synchronization processing means should be interpolated at the pixel position; A luminance utilization estimation process for estimating a color signal by using the color signal of the same type as the color signal to be interpolated around the pixel position and the luminance signal.

本発明の信号処理装置は、前記画素位置に配置された前記撮像信号が、第1の色信号、第2の色信号、及び第3の色信号の3種類の色信号と前記輝度信号とを含み、前記輝度信号と前記第1の色信号とを特定方向に配列した第1の列と、前記輝度信号と前記第2の色信号と前記第3の色信号とを前記特定方向に配列した第2の列とを前記特定方向に直交する直交方向に交互に配列した構成であり、前記画素位置が、前記色信号が配置された座標位置であり、前記同時化処理手段は、前記特定方向に相関性のある色信号が存在する画素位置のうち、前記第2の色信号が存在する画素位置と前記第3の色信号が存在する画素位置とに補間すべき第1の色信号と、前記第1の色信号が存在する画素位置に補間すべき第2の色信号及び第3の色信号とについては、前記輝度利用推定処理によって補間を行うものであり、前記輝度利用推定処理とは、前記画素位置に補間すべき第1の色信号を、前記画素位置に存在する色信号を含む第2の列に含まれる当該画素位置近傍の前記輝度信号と、当該第2の列の隣の前記第1の列にある当該画素位置近傍の輝度信号と、当該第1の列の当該輝度信号の近傍にある第1の色信号とを用いて推定し、前記画素位置に補間すべき第2の色信号を、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号と、当該第1の列の隣の前記第2の列にある当該画素位置近傍の第2の色信号と、当該第2の列の当該第2の色信号の近傍にある輝度信号とを用いて推定し、前記画素位置に補間すべき第3の色信号を、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号と、当該第1の列の隣の前記第2の列にある当該画素位置近傍の第3の色信号と、当該第2の列の当該第3の色信号の近傍にある輝度信号とを用いて推定する処理である。   In the signal processing device according to the aspect of the invention, the imaging signal arranged at the pixel position includes three types of color signals, a first color signal, a second color signal, and a third color signal, and the luminance signal. A first column in which the luminance signal and the first color signal are arranged in a specific direction; and the luminance signal, the second color signal, and the third color signal are arranged in the specific direction. The second column and the second column are arranged alternately in an orthogonal direction orthogonal to the specific direction, the pixel position is a coordinate position where the color signal is arranged, and the synchronization processing means A first color signal to be interpolated between a pixel position where the second color signal exists and a pixel position where the third color signal exists, A second color signal and a third color signal to be interpolated at a pixel position where the first color signal exists; In this case, the luminance utilization estimation process performs interpolation. The luminance utilization estimation process includes a first color signal to be interpolated at the pixel position and a second color signal including the color signal present at the pixel position. The luminance signal in the vicinity of the pixel position included in the column, the luminance signal in the vicinity of the pixel position in the first column adjacent to the second column, and the vicinity of the luminance signal in the first column The second color signal to be interpolated at the pixel position is estimated using a first color signal, and the vicinity of the pixel position included in the first column including the color signal present at the pixel position A luminance signal, a second color signal in the vicinity of the pixel position in the second column next to the first column, and a luminance signal in the vicinity of the second color signal in the second column The third color signal to be interpolated at the pixel position is estimated at the pixel position. The luminance signal in the vicinity of the pixel position included in the first column including the existing color signal, and the third color signal in the vicinity of the pixel position in the second column adjacent to the first column; The estimation processing is performed using a luminance signal in the vicinity of the third color signal in the second column.

本発明の信号処理装置は、前記輝度利用推定処理では、前記第1の色信号を補間すべき画素位置に、当該画素位置に存在する色信号を含む第2の列に含まれる当該画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該画素位置の前記直交方向隣の画素位置である第1の隣接画素位置に、前記第1の隣接画素位置に存在する輝度信号を含む前記第1の列に含まれる当該第1の隣接画素位置近傍の前記第1の色信号を用いて第1の色信号を補間し、当該画素位置に補間した輝度信号に、前記第1の隣接画素位置に補間した第1の色信号と前記第1の隣接画素位置に存在する輝度信号との差分を加算することで、当該画素位置に補間すべき第1の色信号を推定し、前記第2の色信号を補間すべき画素位置に、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該第1の列の隣の第2の列に含まれる当該画素位置近傍の前記第2の色信号が存在する画素位置である第2の隣接画素位置に、前記第2の隣接画素位置に存在する第2の色信号を含む前記第2の列に含まれる当該第2の隣接画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該画素位置に補間した輝度信号に、前記第2の隣接画素位置に存在する第2の色信号と前記第2の隣接画素位置に補間した輝度信号との差分を加算することで、当該画素位置に補間すべき第2の色信号を推定し、前記第3の色信号を補間すべき画素位置に、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該第1の列の隣の第2の列に含まれる当該画素位置近傍の前記第3の色信号が存在する画素位置である第3の隣接画素位置に、前記第3の隣接画素位置に存在する第3の色信号を含む前記第2の列に含まれる当該第3の隣接画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該画素位置に補間した輝度信号に、前記第3の隣接画素位置に存在する第3の色信号と前記第3の隣接画素位置に補間した輝度信号との差分を加算することで、当該画素位置に補間すべき第3の色信号を推定する。   In the luminance use estimation process, the signal processing apparatus according to the present invention is in the vicinity of the pixel position included in the second column including the color signal existing at the pixel position at the pixel position where the first color signal is to be interpolated. The luminance signal is interpolated using the luminance signal, and the first adjacent pixel position which is the pixel position adjacent to the pixel position in the orthogonal direction includes the luminance signal present at the first adjacent pixel position. The first color signal is interpolated using the first color signal in the vicinity of the first adjacent pixel position included in one column, and the luminance signal interpolated at the pixel position is converted into the first adjacent pixel position. The first color signal to be interpolated at the pixel position is estimated by adding the difference between the first color signal interpolated to the luminance signal and the luminance signal existing at the first adjacent pixel position, and the second color signal is estimated. The color signal present at the pixel position where the color signal should be interpolated The luminance signal is interpolated using the luminance signal in the vicinity of the pixel position included in the first column including the second color in the vicinity of the pixel position included in the second column adjacent to the first column. In the vicinity of the second adjacent pixel position included in the second column including the second color signal existing in the second adjacent pixel position at the second adjacent pixel position where the signal is present. The luminance signal is interpolated using the luminance signal, and the luminance signal interpolated at the second adjacent pixel position and the luminance signal interpolated at the second adjacent pixel position into the luminance signal interpolated at the pixel position. The second color signal to be interpolated at the pixel position is estimated, and the third color signal to be interpolated includes the color signal present at the pixel position. A luminance signal is obtained using the luminance signal in the vicinity of the pixel position included in one column. The third adjacent pixel is positioned at a third adjacent pixel position where the third color signal in the vicinity of the pixel position included in the second column adjacent to the first column is present. The luminance signal is interpolated using the luminance signal in the vicinity of the third adjacent pixel position included in the second column including the third color signal existing at the position, and the luminance signal interpolated at the pixel position is By adding the difference between the third color signal existing at the third adjacent pixel position and the luminance signal interpolated at the third adjacent pixel position, the third color signal to be interpolated at the pixel position is obtained. presume.

本発明の信号処理装置は、前記同時化処理手段は、前記第2の色信号が存在する画素位置に補間すべき第3の色信号と、前記第3の色信号が存在する画素位置に補間すべき第2の色信号とについては、輝度非利用推定処理によって補間を行うものであり、前記輝度非利用推定処理とは、前記画素位置に補間すべき色信号を、当該画素位置に存在する色信号を含む第2の列に含まれる当該色信号近傍の前記補間すべき色信号と同一種類の色信号を用いて推定する処理である。   In the signal processing device according to the aspect of the invention, the synchronization processing unit may interpolate a third color signal to be interpolated at a pixel position where the second color signal exists and a pixel position where the third color signal exists. The second color signal to be interpolated is performed by the luminance non-use estimation process, and the luminance non-use estimation process includes the color signal to be interpolated at the pixel position at the pixel position. This is estimation processing using the same type of color signal as the color signal to be interpolated in the vicinity of the color signal included in the second column including the color signal.

本発明の信号処理装置は、前記同時化処理手段による色信号を補間するための処理が、前記画素位置に補間すべき色信号を前記画素位置の周囲にある前記補間すべき色信号と同種類の色信号及び前記第1の色信号を用いて推定する第1の色信号利用推定処理を含む。   In the signal processing apparatus according to the present invention, the color signal to be interpolated at the pixel position is the same type as the color signal to be interpolated around the pixel position. And a first color signal utilization estimation process for estimating using the first color signal and the first color signal.

本発明の信号処理装置は、前記画素位置に配置された前記撮像信号が、前記特定方向及び前記直交方向に交差する交差方向に見たときに、前記第1の色信号と前記第2の色信号を前記交差方向に配列した第3の列と、前記第1の色信号と前記第3の色信号を前記交差方向に配列した第4の列とを、前記輝度信号を前記交差方向に配列した第5の列を挟んで前記交差方向に直交する方向に交互に配列した構成となっており、前記同時化処理手段は、前記交差方向に相関性のある色信号が存在する画素位置のうち、前記第2の色信号が存在する画素位置に補間すべき第3の色信号と、前記第3の色信号が存在する画素位置に補間すべき第2の色信号と、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号と、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号とについては、前記第1の色信号利用推定処理によって補間を行うものであり、前記第1の色信号利用推定処理とは、前記第3の色信号が存在する画素位置に補間すべき第2の色信号を、当該画素位置に存在する色信号を含む第4の列に含まれる当該画素位置近傍の前記第1の色信号と、当該第4の列の隣の前記第3の列にある当該画素位置近傍の第1の色信号と、当該第3の列の当該第1の色信号の近傍にある第2の色信号とを用いて推定し、前記第2の色信号が存在する画素位置に補間すべき第3の色信号を、当該画素位置に存在する色信号を含む第3の列に含まれる当該画素位置近傍の前記第1の色信号と、当該第3の列の隣の前記第4の列にある当該画素位置近傍の第1の色信号と、当該第4の列の当該第1の色信号の近傍にある第3の色信号とを用いて推定し、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号を、当該第1の色信号と、当該第1の色信号を含む第3の列の隣の前記第4の列にある当該画素位置近傍の第3の色信号と、当該第4の列の当該第3の色信号の近傍にある第1の色信号とを用いて推定し、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号を、当該第1の色信号と、当該第4の列の隣の前記第3の列にある当該画素位置近傍の第2の色信号と、当該第4の列の当該第2の色信号の近傍にある第1の色信号とを用いて推定する処理である。   In the signal processing device of the present invention, the first color signal and the second color are obtained when the imaging signal arranged at the pixel position is viewed in a crossing direction intersecting the specific direction and the orthogonal direction. A third column in which signals are arranged in the cross direction, a fourth column in which the first color signals and the third color signals are arranged in the cross direction, and the luminance signals in the cross direction. The synchronization processing means is arranged so that the color signal correlated with the intersecting direction is present among the pixel positions having the fifth column sandwiched therebetween in a direction orthogonal to the intersecting direction. , A third color signal to be interpolated at a pixel position where the second color signal exists, a second color signal to be interpolated at a pixel position where the third color signal exists, and the third column A third color signal to be interpolated at a pixel position where the first color signal is included, The second color signal to be interpolated at the pixel position where the first color signal exists in the fourth column is interpolated by the first color signal use estimation process, The first color signal use estimation process includes the second color signal to be interpolated at the pixel position where the third color signal exists in the fourth column including the color signal present at the pixel position. The first color signal in the vicinity of the pixel position, the first color signal in the vicinity of the pixel position in the third column adjacent to the fourth column, and the first color signal in the third column A third color signal that is estimated using a second color signal in the vicinity of the color signal and is to be interpolated at a pixel position where the second color signal exists includes the color signal present at the pixel position The first color signal in the vicinity of the pixel position included in the third column and the fourth column adjacent to the third column Estimation is performed using the first color signal in the vicinity of the pixel position and the third color signal in the vicinity of the first color signal in the fourth column, and the third color signal included in the third column is included in the estimation. The third color signal to be interpolated at the pixel position where the one color signal exists is in the fourth column next to the first color signal and the third column including the first color signal. Estimation is performed using the third color signal in the vicinity of the pixel position and the first color signal in the vicinity of the third color signal in the fourth column, and the first color signal included in the fourth column is included in the fourth column. The second color signal to be interpolated at the pixel position where the one color signal exists is the second color signal near the pixel position in the third column adjacent to the first color signal and the fourth column. And the first color signal in the vicinity of the second color signal in the fourth column.

本発明の信号処理装置は、前記同時化処理手段は、前記第2の色信号が存在する画素位置及び前記第3の色信号が存在する画素位置にそれぞれ補間すべき第1の色信号と、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号と、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号とについては、第1の色信号非利用推定処理によって補間を行うものであり、前記第1の色信号非利用推定処理とは、前記第2の色信号が存在する画素位置に補間すべき第1の色信号を、当該第2の色信号を含む前記第3の列の当該第2の色信号近傍にある第1の色信号を用いて推定し、前記第3の色信号が存在する画素位置に補間すべき第1の色信号を、当該第3の色信号を含む前記第4の列の当該第3の色信号近傍にある第1の色信号を用いて推定し、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号を、当該第3の列の当該第1の色信号近傍にある第2の色信号を用いて推定し、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号を、当該第4の列の当該第1の色信号近傍にある第3の色信号を用いて推定する処理である。   In the signal processing device of the present invention, the synchronization processing means includes a first color signal to be interpolated at a pixel position where the second color signal exists and a pixel position where the third color signal exists, The second color signal to be interpolated at the pixel position where the first color signal included in the third column exists and the pixel position where the first color signal included in the fourth column exists. The third color signal to be interpolated is to be interpolated by the first color signal non-use estimation process, and the first color signal non-use estimation process is the presence of the second color signal. A first color signal to be interpolated at a pixel position to be estimated is estimated using a first color signal in the vicinity of the second color signal in the third column including the second color signal; The first color signal to be interpolated at the pixel position where the third color signal exists is the first color signal including the third color signal. The second color to be interpolated at the pixel position where the first color signal included in the third column exists and is estimated using the first color signal in the vicinity of the third color signal in the column A signal is estimated using a second color signal in the vicinity of the first color signal in the third column, and is interpolated at a pixel position where the first color signal included in the fourth column exists. This is a process of estimating the third color signal to be performed using the third color signal in the vicinity of the first color signal in the fourth column.

本発明の信号処理装置は、前記第1の色信号が緑色信号であり、前記第2の色信号が赤色信号であり、前記第3の色信号が青色信号である。   In the signal processing device of the present invention, the first color signal is a green signal, the second color signal is a red signal, and the third color signal is a blue signal.

本発明の信号処理装置は、前記撮像素子が、前記第1の色信号、前記第2の色信号、及び前記第3の色信号の各々に応じた光の色成分を検出する色検出用光電変換素子からなる第1のグループと前記輝度信号に応じた光の輝度成分を検出する輝度検出用光電変換素子からなる第2のグループとを備え、前記第1のグループに含まれる各光電変換素子は、前記第2のグループに含まれる各光電変換素子の位置を基準にした場合に、前記第2のグループに含まれる各光電変換素子に前記第1のグループに含まれる1つの光電変換素子が隣接するように、前記基準の位置から所定の方向にずれた位置に配置されている。   In the signal processing device according to the aspect of the invention, the image pickup device detects color components of light corresponding to each of the first color signal, the second color signal, and the third color signal. Each photoelectric conversion element included in the first group includes a first group of conversion elements and a second group of luminance detection photoelectric conversion elements that detect a luminance component of light corresponding to the luminance signal. Is based on the position of each photoelectric conversion element included in the second group, and one photoelectric conversion element included in the first group is included in each photoelectric conversion element included in the second group. It is arranged at a position shifted in a predetermined direction from the reference position so as to be adjacent to each other.

本発明の信号処理装置は、前記同時化処理手段が、前記3種類の色信号を、その総数が減少するように、特定方向、前記特定方向に直交する直交方向、又は前記特定方向及び前記直交方向に隣接する同一色の色信号同士を加算した上で、前記撮像信号を前記座標位置に配置する。   In the signal processing device according to the aspect of the invention, the synchronization processing unit may be configured to specify the specific direction, the orthogonal direction orthogonal to the specific direction, or the specific direction and the orthogonal so that the total number of the three types of color signals is reduced. After adding the color signals of the same color adjacent in the direction, the imaging signal is arranged at the coordinate position.

本発明の信号処理装置は、前記撮像素子が、前記色信号を得るための多数の光電変換素子を含み、前記3種類の色信号が、前記光電変換素子から読み出した電荷を、その総数が減少するように、特定方向、前記特定方向に直交する直交方向、又は、前記特定方向及び前記直交方向に隣接する同色成分の電荷同士を加算してから、加算後の電荷に応じた色信号を出力させる駆動により得られたものである。   In the signal processing apparatus of the present invention, the image pickup device includes a large number of photoelectric conversion elements for obtaining the color signal, and the three kinds of color signals reduce the total number of charges read from the photoelectric conversion element. As described above, after adding charges of the same color component adjacent to the specific direction, the orthogonal direction orthogonal to the specific direction, or adjacent to the specific direction and the orthogonal direction, a color signal corresponding to the added charge is output. Obtained by driving.

本発明の信号処理装置は、前記3種類の色信号が、緑色信号と赤色信号と青色信号であり、前記同時化処理手段は、前記赤色信号と前記青色信号のみ加算を行う。   In the signal processing apparatus of the present invention, the three types of color signals are a green signal, a red signal, and a blue signal, and the synchronization processing unit adds only the red signal and the blue signal.

本発明の信号処理装置は、前記3種類の色信号が、緑色信号と赤色信号と青色信号であり、前記赤色信号と前記青色信号のみが、前記加算によって得られたものである。   In the signal processing apparatus of the present invention, the three kinds of color signals are a green signal, a red signal, and a blue signal, and only the red signal and the blue signal are obtained by the addition.

本発明の撮像装置は、前記信号処理装置と前記撮像素子とを備える。   The imaging device of the present invention includes the signal processing device and the imaging device.

本発明の同時化処理プログラムは、コンピュータを前記同時化処理手段として機能させるためのプログラムである。   The synchronization processing program of the present invention is a program for causing a computer to function as the synchronization processing means.

本発明によれば、どのような信号であっても偽色及びノイズを低減する色信号補間処理(同時化処理)を行うことが可能な信号処理装置を提供することができる。   According to the present invention, it is possible to provide a signal processing apparatus capable of performing color signal interpolation processing (synchronization processing) that reduces false color and noise for any signal.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態である撮像装置に搭載される撮像素子の概略平面模式図である。
図1に示す撮像素子10は、半導体基板上の行方向Xとこれに直交する列方向Yに正方格子状に配列された多数の光電変換素子(1,2,3)からなる第1のグループと、半導体基板上の行方向Xと列方向Yに正方格子状に配列された多数の光電変換素子(4)からなる第2のグループとを備える。第1のグループを構成する光電変換素子と第2のグループを構成する光電変換素子との数は同一となっている。
FIG. 1 is a schematic plan view of an image pickup element mounted on an image pickup apparatus that is an embodiment of the present invention.
The image pickup device 10 shown in FIG. 1 includes a first group including a large number of photoelectric conversion elements (1, 2, 3) arranged in a square lattice pattern in a row direction X on a semiconductor substrate and a column direction Y orthogonal thereto. And a second group consisting of a large number of photoelectric conversion elements (4) arranged in a square lattice pattern in the row direction X and the column direction Y on the semiconductor substrate. The number of photoelectric conversion elements constituting the first group and the number of photoelectric conversion elements constituting the second group are the same.

第1のグループに含まれる各光電変換素子は、第2のグループに含まれる各光電変換素子4の位置を基準にした場合に、第2のグループに含まれる各光電変換素子4に第1のグループに含まれる1つの光電変換素子が隣接するように、該基準の位置から所定の方向(図1の例では、斜め左上45度の方向)にずれた位置に配置されており、全ての光電変換素子がいわゆるハニカム状に配列された構成となっている。すなわち、撮像素子10に含まれる多数の光電変換素子は、Y方向に一定のピッチで配列された複数の光電変換素子からなる光電変換素子列を、X方向に一定のピッチで複数配列した配置となっており、隣接する2つの光電変換素子列は、当該光電変換素子列に含まれる光電変換素子のY方向の配列ピッチの約1/2、Y方向に互いにずれて配置された特開平10−136391号公報に記載されたような構成となっている。   When each photoelectric conversion element included in the first group is based on the position of each photoelectric conversion element 4 included in the second group, the first photoelectric conversion element 4 included in the second group All the photoelectric conversion elements included in the group are arranged at positions deviated from the reference position in a predetermined direction (in the example shown in FIG. 1, obliquely in the upper left direction of 45 degrees) so that the photoelectric conversion elements are adjacent to each other. The conversion elements are arranged in a so-called honeycomb shape. That is, a large number of photoelectric conversion elements included in the imaging element 10 are arranged such that a plurality of photoelectric conversion element arrays each including a plurality of photoelectric conversion elements arranged at a constant pitch in the Y direction are arranged at a constant pitch in the X direction. The two adjacent photoelectric conversion element arrays are arranged at about 1/2 of the arrangement pitch in the Y direction of the photoelectric conversion elements included in the photoelectric conversion element array and shifted from each other in the Y direction. The configuration is as described in US Pat.

光電変換素子1〜4は、それぞれ同一構造となっており、それぞれの受光面上方に形成されるフィルタによって、それぞれの検出する光の成分が異なるものとなっている。   The photoelectric conversion elements 1 to 4 have the same structure, and the detected light components are different depending on the filters formed above the respective light receiving surfaces.

光電変換素子1は、光の赤色(R)成分を透過するRカラーフィルタが受光面上に形成されており、これにより、光のR成分を検出する光電変換素子として機能する。光電変換素子2は、光の緑色(G)成分を透過するGカラーフィルタが受光面上に形成されており、これにより、光のG成分を検出する光電変換素子として機能する。光電変換素子3は、光の青色(B)成分を透過するBカラーフィルタが受光面上に形成されており、これにより、光のB成分を検出する光電変換素子として機能する。光電変換素子4は、光の輝度成分と相関のある分光特性を持った輝度フィルタが受光面上に形成されており、これにより、光の輝度成分を検出する光電変換素子として機能する。   The photoelectric conversion element 1 has an R color filter that transmits a red (R) component of light formed on the light receiving surface, thereby functioning as a photoelectric conversion element that detects the R component of light. The photoelectric conversion element 2 has a G color filter that transmits the green (G) component of light formed on the light receiving surface, thereby functioning as a photoelectric conversion element that detects the G component of light. The photoelectric conversion element 3 has a B color filter that transmits the blue (B) component of light formed on the light receiving surface, thereby functioning as a photoelectric conversion element that detects the B component of light. In the photoelectric conversion element 4, a luminance filter having spectral characteristics correlated with the luminance component of light is formed on the light receiving surface, thereby functioning as a photoelectric conversion element for detecting the luminance component of light.

輝度フィルタは、NDフィルタや、透明フィルタ、白色フィルタ、グレーのフィルタ等が該当するが、光電変換素子4の受光面の上方に何も設けずに光が直接受光面に入射する構成も、輝度フィルタを設けたということができる。   The brightness filter corresponds to an ND filter, a transparent filter, a white filter, a gray filter, or the like, but the configuration in which light is directly incident on the light receiving surface without providing anything above the light receiving surface of the photoelectric conversion element 4 is also possible. It can be said that a filter is provided.

第1のグループの各光電変換素子の受光面上方に形成されたカラーフィルタはベイヤー配列となっている。つまり、第1のグループの各光電変換素子は、光電変換素子1と光電変換素子2とがこの順番でX方向に交互に配列されたRG光電変換素子行と、光電変換素子2と光電変換素子3とがこの順番でX方向に交互に配列されたGB光電変換素子行とが、Y方向に交互に配列された配置となっている。   The color filters formed above the light receiving surfaces of the photoelectric conversion elements of the first group are in a Bayer array. That is, each photoelectric conversion element of the first group includes an RG photoelectric conversion element row in which the photoelectric conversion elements 1 and the photoelectric conversion elements 2 are alternately arranged in this order in the X direction, and the photoelectric conversion element 2 and the photoelectric conversion element. 3 and GB photoelectric conversion element rows arranged alternately in the X direction in this order are arranged alternately in the Y direction.

以下では、光電変換素子1から得られる赤色成分の撮像信号をR信号、光電変換素子2から得られる緑色成分の撮像信号をG信号、光電変換素子3から得られる青色成分の撮像信号をB信号、光電変換素子4から得られる輝度成分の撮像信号をW信号と言う。   In the following description, the red component imaging signal obtained from the photoelectric conversion element 1 is an R signal, the green component imaging signal obtained from the photoelectric conversion element 2 is a G signal, and the blue component imaging signal obtained from the photoelectric conversion element 3 is a B signal. An imaging signal of a luminance component obtained from the photoelectric conversion element 4 is referred to as a W signal.

図2は、本発明の実施形態である撮像装置の概略構成を示すブロック図である。
図2に示す撮像装置は、図1に示した撮像素子10と、撮像素子10から出力されるアナログ信号に所定のアナログ信号処理及びデジタル変換処理を行うAFE11と、生成すべきカラー画像データを構成する画素データの座標位置である画素位置にRGB3色の色信号を持たせる同時化処理を行う同時化処理部12と、同時化処理によって1つの画素位置に生成されたR,G,Bの3つの色信号を輝度信号Yと色差信号Cに変換するYC変換部13と、YC信号と光電変換素子4から得られた撮像信号とを合成する合成処理部14と、圧縮処理部15と、記録メディア16とを備える。
FIG. 2 is a block diagram illustrating a schematic configuration of the imaging apparatus according to the embodiment of the present invention.
The image pickup apparatus shown in FIG. 2 includes the image pickup element 10 shown in FIG. 1, an AFE 11 that performs predetermined analog signal processing and digital conversion processing on analog signals output from the image pickup element 10, and color image data to be generated. A synchronization processing unit 12 that performs a synchronization process for giving a RGB color signal to a pixel position that is a coordinate position of pixel data to be processed, and R, G, and B 3 generated at one pixel position by the synchronization process YC conversion unit 13 that converts one color signal into luminance signal Y and color difference signal C, a synthesis processing unit 14 that combines the YC signal and the image pickup signal obtained from photoelectric conversion element 4, a compression processing unit 15, and a recording Media 16.

同時化処理部12は、AFE11から出力される撮像信号を、その撮像信号が得られた光電変換素子に対応するメモリ上の座標位置に配置すると共に、メモリ上の光電変換素子1〜3の各々に対応する座標位置(これが、生成すべきカラー画像データを構成する画素データの画素位置となる)に、該各々からは得られない色信号を、該各々の周囲の光電変換素子から得られた色信号を用いて補間生成する同時化処理を行う。同時化処理部12は、例えばDSPが所定のプログラムを実行することによって実現される一機能である。以下、この同時化処理の具体的方法について説明する。   The synchronization processing unit 12 arranges the imaging signal output from the AFE 11 at the coordinate position on the memory corresponding to the photoelectric conversion element from which the imaging signal is obtained, and each of the photoelectric conversion elements 1 to 3 on the memory. A color signal that cannot be obtained from each of these is obtained from the surrounding photoelectric conversion elements at the coordinate positions corresponding to (this is the pixel position of the pixel data constituting the color image data to be generated). A synchronization process for generating an interpolation using a color signal is performed. The synchronization processing unit 12 is a function realized by, for example, a DSP executing a predetermined program. Hereinafter, a specific method of this synchronization processing will be described.

図3は、メモリ上に配置された撮像信号の配列を示した図である。図3において、内部に“R”を記した円は光電変換素子1から得られたR信号を示し、内部に“G”を記した円は光電変換素子2から得られたG信号を示し、内部に“B”を記した円は光電変換素子3から得られたB信号を示し、内部に“W”を記した円は光電変換素子4から得られたW信号を示している。各信号の存在する位置は、その信号の出力元の光電変換素子の位置に対応しており、この位置を画素位置と定義する。各画素位置の上にはその位置を示す番号(01〜32)を付してある。G信号は、特許請求の範囲の第1の色信号に対応し、R信号は、特許請求の範囲の第2の色信号に対応し、B信号は、特許請求の範囲の第3の色信号に対応する。   FIG. 3 is a diagram showing an arrangement of image pickup signals arranged on the memory. In FIG. 3, a circle with “R” inside shows the R signal obtained from the photoelectric conversion element 1, and a circle with “G” inside shows the G signal obtained from the photoelectric conversion element 2, The circle with “B” inside shows the B signal obtained from the photoelectric conversion element 3, and the circle with “W” inside shows the W signal obtained from the photoelectric conversion element 4. The position where each signal exists corresponds to the position of the photoelectric conversion element from which the signal is output, and this position is defined as the pixel position. A number (01 to 32) indicating the position is given above each pixel position. The G signal corresponds to the first color signal in the claims, the R signal corresponds to the second color signal in the claims, and the B signal corresponds to the third color signal in the claims. Corresponding to

図3に示すように、メモリ上に配置された撮像信号は、X方向とY方向に45度の角度で交差するZ方向に見たときに、W信号とG信号とをZ方向に交互に配列した第1の列と、R信号とB信号とをW信号を挟んでZ方向に交互に配列した第2の列とを、Z方向に直交する直交方向に交互に配列した構成となっている。又、Y方向に見たときに、G信号とR信号をY方向に交互に配列した第3の列と、G信号とB信号をY方向に交互に配列した第4の列とを、W信号をY方向に配列した第5の列を挟んでX方向に交互に配列した構成となっている。Z方向は、特許請求の範囲の特定方向に対応し、Y方向は、特許請求の範囲の交差方向に対応する。   As shown in FIG. 3, when the imaging signal arranged on the memory is viewed in the Z direction intersecting the X direction and the Y direction at an angle of 45 degrees, the W signal and the G signal are alternately arranged in the Z direction. The arrangement is such that the arranged first column and the second column in which the R signal and the B signal are alternately arranged in the Z direction with the W signal interposed therebetween are alternately arranged in the orthogonal direction orthogonal to the Z direction. Yes. Further, when viewed in the Y direction, a third column in which G signals and R signals are alternately arranged in the Y direction and a fourth column in which G signals and B signals are alternately arranged in the Y direction are represented by W In this configuration, the signals are alternately arranged in the X direction across the fifth column in which the signals are arranged in the Y direction. The Z direction corresponds to a specific direction in the claims, and the Y direction corresponds to an intersecting direction in the claims.

同時化処理部12は、AFE11から出力された多数の撮像信号の各々がどの方向に相関性を持っているかを、例えばその撮像信号に隣接するW信号を利用することで判断し、Z方向又はこれに直交する方向に相関性のある撮像信号については、その撮像信号が存在する画素位置に補間すべき色信号を、その画素位置の周囲にある該補間すべき色信号と同種類の色信号及びW信号を用いて推定する輝度利用推定処理と、その画素位置に補間すべき色信号を、その画素位置の周囲にある該補間すべき色信号と同種類の色信号を用いて推定する輝度非利用推定処理とにより、R信号、G信号、及びB信号の各々が存在する画素位置に、そこに存在していない色信号を補間する。   The synchronization processing unit 12 determines in which direction each of a large number of imaging signals output from the AFE 11 has a correlation by using, for example, a W signal adjacent to the imaging signal, For imaging signals that are correlated in a direction orthogonal to this, the color signal to be interpolated at the pixel position where the imaging signal exists is the same type of color signal as the color signal to be interpolated around the pixel position. And luminance use estimation processing that is estimated using the W signal, and a luminance signal that estimates the color signal to be interpolated at the pixel position using the same type of color signal as the color signal to be interpolated around the pixel position. By the non-use estimation process, the color signal that does not exist is interpolated at the pixel position where each of the R signal, the G signal, and the B signal exists.

又、同時化処理部12は、X方向又はY方向に相関性のある撮像信号については、その撮像信号が存在する画素位置に補間すべき色信号を、その画素位置の周囲にある該補間すべき色信号と同種類の色信号及びG信号を用いて推定するG利用推定処理と、その画素位置に補間すべき色信号を、その画素位置の周囲にある該補間すべき色信号と同種類の色信号を用いて推定するG非利用推定処理とにより、R信号、G信号、及びB信号の各々が存在する画素位置に、そこに存在していない色信号を補間する。   Further, the synchronization processing unit 12 interpolates a color signal to be interpolated at a pixel position where the image pickup signal exists for an image signal correlated in the X direction or the Y direction, around the pixel position. G-use estimation processing that estimates using the same color signal and G signal as the power color signal, and the color signal to be interpolated at the pixel position is the same type as the color signal to be interpolated around the pixel position The color signal that does not exist is interpolated at the pixel position where each of the R signal, the G signal, and the B signal exists by the G non-use estimation process that estimates using the color signal.

例えば、図3に示すG10がどの方向に相関性を持っているかを判断する場合、同時化処理部12は、Y方向:(W05+W13)/2−(W06+W14)/2、X方向:(W05+W06)/2−(W13+W14)/2、Z方向:(W06−W13)、Z方向に直交する方向:(W05−W14)の4つの演算を行い、演算結果のうち絶対値が最小となった方向を、G10に相関性のある方向と判断する。   For example, when determining in which direction G10 shown in FIG. 3 is correlated, the synchronization processing unit 12 uses the Y direction: (W05 + W13) / 2− (W06 + W14) / 2, the X direction: (W05 + W06). / 2- (W13 + W14) / 2, Z direction: (W06-W13), direction orthogonal to the Z direction: (W05-W14), and the direction in which the absolute value is the smallest among the calculation results , It is determined that the direction has a correlation with G10.

以下の説明では、便宜上、画素位置**に存在するR信号のことを「R**」と記載し、画素位置**に存在するG信号のことを「G**」と記載し、画素位置**に存在するB信号のことを「B**」と記載し、画素位置**に存在するW信号のことを「W**」と記載する。   In the following description, for convenience, the R signal existing at the pixel position ** is described as “R **”, the G signal existing at the pixel position ** is described as “G **”, and the pixel The B signal existing at the position ** is described as “B **”, and the W signal existing at the pixel position ** is described as “W **”.

以下、例えばZ方向に相関性のある撮像信号の存在する画素位置に色信号を補間する方法(方法1)と、例えばY方向に相関性のある撮像信号の存在する画素位置に色信号を補間する方法(方法2)とをそれぞれ具体的に説明する。   Hereinafter, for example, a method of interpolating a color signal at a pixel position where an imaging signal correlated in the Z direction exists (Method 1) and an interpolation of a color signal at a pixel position where an imaging signal correlated in the Y direction exists, for example The method (method 2) to be performed will be specifically described.

(方法1)
(a)B信号の存在する画素位置にR信号を補間する場合
この場合、同時化処理部12は、輝度非利用推定処理によって補間すべきR信号を推定する。即ち、同時化処理部12は、B信号の存在する画素位置に補間すべきR信号を、当該画素位置に存在するB信号を含む第2の列に含まれる当該画素位置近傍のR信号を用いて推定する。
例えば、画素位置11にR信号(R11)を補間する場合、同時化処理部12は、B11を含む第2の列に含まれるB11近傍のR信号(R04、R18)の平均を求める以下の式(1)により、R11を推定する。R11=(R04+R18)/2・・・(1)
(Method 1)
(A) When R signal is interpolated at the pixel position where the B signal exists In this case, the synchronization processing unit 12 estimates the R signal to be interpolated by the luminance non-use estimation process. That is, the synchronization processing unit 12 uses the R signal to be interpolated at the pixel position where the B signal exists, and the R signal near the pixel position included in the second column including the B signal existing at the pixel position. To estimate.
For example, when the R signal (R11) is interpolated at the pixel position 11, the synchronization processing unit 12 calculates the average of the R signals (R04, R18) in the vicinity of B11 included in the second column including B11. R11 is estimated from (1). R11 = (R04 + R18) / 2 (1)

(b)R信号の存在する画素位置にB信号を補間する場合
この場合、同時化処理部12は、輝度非利用推定処理によって補間すべきB信号を推定する。即ち、同時化処理部12は、R信号の存在する画素位置に補間すべきB信号を、当該画素位置に存在するR信号を含む第2の列に含まれる当該画素位置近傍のB信号を用いて推定する。
例えば、画素位置18にB信号(B18)を補間する場合、同時化処理部12は、R18を含む第2の列に含まれるR18近傍のB信号(B11、B25)の平均を求める以下の式(2)により、B18を推定する。B18=(B11+B25)/2・・・(2)
(B) When B signal is interpolated at a pixel position where the R signal exists In this case, the synchronization processing unit 12 estimates a B signal to be interpolated by luminance non-use estimation processing. That is, the synchronization processing unit 12 uses the B signal to be interpolated at the pixel position where the R signal exists, and the B signal near the pixel position included in the second column including the R signal existing at the pixel position. To estimate.
For example, when the B signal (B18) is interpolated at the pixel position 18, the synchronization processing unit 12 calculates the average of the B signals (B11, B25) in the vicinity of R18 included in the second column including R18. B18 is estimated from (2). B18 = (B11 + B25) / 2 (2)

(c)B信号の存在する画素位置とR信号の存在する画素位置とにそれぞれG信号を補間する場合
この場合、同時化処理部12は、輝度利用推定処理によって補間すべきG信号を推定する。即ち、B信号の存在する画素位置とR信号の存在する画素位置とにそれぞれ補間すべきG信号を、その画素位置に存在する色信号を含む第2の列に含まれる当該画素位置近傍のW信号と、当該第2の列の隣の第1の列にある当該画素位置近傍のW信号と、当該第1の列の当該W信号の近傍にあるG信号とを用いて推定する。
(C) When G signal is interpolated to each pixel position where B signal is present and pixel position where R signal is present In this case, the synchronization processing unit 12 estimates the G signal to be interpolated by the luminance use estimation process. . That is, the G signal to be interpolated to the pixel position where the B signal exists and the pixel position where the R signal exists respectively, and the W near the pixel position included in the second column including the color signal existing at the pixel position. The estimation is performed using the signal, the W signal in the vicinity of the pixel position in the first column adjacent to the second column, and the G signal in the vicinity of the W signal in the first column.

例えば、画素位置11にG信号(G11)を補間する場合、Z方向に相関性のある被写体において、画像の局所的な領域におけるW信号とG信号との差は等しいという前提、すなわち、G11−W11={(G06−W06)+(G15−W15)}/2の関係が成立するという前提に基づいて、G11=W11+{(G06−W06)+(G15−W15)}/2・・・(3)の演算により、G11を推定する。   For example, when the G signal (G11) is interpolated at the pixel position 11, it is assumed that the difference between the W signal and the G signal in the local region of the image is equal in an object correlated in the Z direction, that is, G11−. Based on the premise that the relationship of W11 = {(G06-W06) + (G15-W15)} / 2 is established, G11 = W11 + {(G06-W06) + (G15-W15)} / 2. G11 is estimated by the calculation of 3).

具体的に、同時化処理部12は、まず、画素位置11に、画素位置11に存在するB11を含む第2の列に含まれる画素位置11近傍の輝度信号(W07、W14)を用いて輝度信号(W11)を補間し、画素位置11のZ方向に直交する方向の隣の画素位置である画素位置06に、画素位置06に存在するW06を含む第1の列に含まれる画素位置06近傍のG信号(G03,G10)を用いてG06を補間し、画素位置11のZ方向に直交する方向の隣の画素位置である画素位置15に、画素位置15に存在するW15を含む第1の列に含まれる画素位置15近傍のG信号(G12,G19)を用いてG15を補間する。   Specifically, the synchronization processing unit 12 first uses the luminance signal (W07, W14) in the vicinity of the pixel position 11 included in the second column including B11 existing at the pixel position 11 at the pixel position 11. The signal (W11) is interpolated and the vicinity of the pixel position 06 included in the first column including W06 existing at the pixel position 06 at the pixel position 06 that is the pixel position adjacent to the pixel position 11 in the direction orthogonal to the Z direction. G06 is interpolated using the G signal (G03, G10) of the first pixel, and the pixel position 15 that is the pixel position adjacent to the pixel position 11 in the direction orthogonal to the Z direction includes the first W15 existing at the pixel position 15. G15 is interpolated using G signals (G12, G19) in the vicinity of the pixel position 15 included in the column.

W11については、例えばW07とW14の平均を演算することで求め、G06については、例えばG03とG10の平均を演算することで求め、G15については、例えばG12とG19の平均を演算することで求める。W11、G06、G15を求めた後は、式(3)に従い、W11+{(G06−W06)+(G15−W15)}/2の演算を行うことで、G11を推定する。同様の方法で、R信号の存在する画素位置にもG信号を補間する。   W11 is obtained, for example, by calculating the average of W07 and W14, G06 is obtained, for example, by calculating the average of G03 and G10, and G15 is obtained, for example, by calculating the average of G12 and G19. . After obtaining W11, G06, and G15, G11 is estimated by performing an operation of W11 + {(G06-W06) + (G15−W15)} / 2 according to the equation (3). In the same way, the G signal is also interpolated at the pixel position where the R signal exists.

尚、式(3)は、画素位置11と画素位置06及び15との相関に基づいてG11を推定するものとなっているが、画素位置11と画素位置06との相関又は画素位置11と画素位置15との相関に基づいてG11を推定することも可能である。この場合、上記式(3)を次の式(4)又は(5)のように変形して用いれば良い。G11=W11+(G06−W06)・・・(4)、G11=W11+(G15−W15)・・・(5)。   Note that Equation (3) estimates G11 based on the correlation between the pixel position 11 and the pixel positions 06 and 15, but the correlation between the pixel position 11 and the pixel position 06 or the pixel position 11 and the pixel. It is also possible to estimate G11 based on the correlation with the position 15. In this case, the above equation (3) may be used as modified as the following equation (4) or (5). G11 = W11 + (G06-W06) (4), G11 = W11 + (G15-W15) (5).

(d)G信号の存在する画素位置にR信号とB信号を補間する場合
この場合、同時化処理部12は、輝度利用推定処理によって補間すべきR信号及びB信号を推定する。即ち、G信号の存在する画素位置に補間すべきR信号を、その画素位置に存在するG信号を含む第1の列に含まれる当該画素位置近傍のW信号と、当該第1の列の隣の第2の列にある当該画素位置近傍のR信号と、当該第2の列の当該R信号の近傍にあるW信号とを用いて推定する。又、G信号の存在する画素位置に補間すべきB信号を、その画素位置に存在するG信号を含む第1の列に含まれる当該画素位置近傍のW信号と、当該第1の列の隣の第2の列にある当該画素位置近傍のB信号と、当該第2の列の当該B信号の近傍にあるW信号とを用いて推定する。
(D) When R signal and B signal are interpolated at the pixel position where the G signal exists In this case, the synchronization processing unit 12 estimates the R signal and the B signal to be interpolated by the luminance use estimation process. That is, the R signal to be interpolated at the pixel position where the G signal exists, the W signal in the vicinity of the pixel position included in the first column including the G signal existing at the pixel position, and the first column. The estimation is performed using the R signal in the vicinity of the pixel position in the second column and the W signal in the vicinity of the R signal in the second column. Also, the B signal to be interpolated at the pixel position where the G signal exists, the W signal near the pixel position included in the first column including the G signal present at the pixel position, and the first column adjacent to the W signal. Is estimated using the B signal in the vicinity of the pixel position in the second column and the W signal in the vicinity of the B signal in the second column.

例えば、画素位置19にR信号(R19)を補間する場合、Z方向に相関性のある被写体において、画像の局所的な領域におけるW信号とR信号との差は等しいという前提、すなわち、R19−W19={(R18−W18)+(R20−W20)}/2の関係が成立するという前提に基づいて、R19=W19+{(R18−W18)+(R20−W20)}/2・・・(6)の演算により、R19を推定する。
同様に、B19−W19={(B11−W11)+(B27−W27)}/2の関係が成立するという前提に基づいて、B19=W19+{(B11−W11)+(B27−W27)}/2・・・(7)の演算により、B19を推定する。
For example, when the R signal (R19) is interpolated at the pixel position 19, in the subject having a correlation in the Z direction, the difference between the W signal and the R signal in the local region of the image is equal, that is, R19−. Based on the premise that the relationship of W19 = {(R18−W18) + (R20−W20)} / 2 is established, R19 = W19 + {(R18−W18) + (R20−W20)} / 2. R19 is estimated by the calculation of 6).
Similarly, based on the premise that the relationship B19−W19 = {(B11−W11) + (B27−W27)} / 2 is established, B19 = W19 + {(B11−W11) + (B27−W27)} / 2... B19 is estimated by the calculation of (7).

具体的に、同時化処理部12は、画素位置19に、画素位置19に存在するG19を含む第1の列に含まれる画素位置19近傍の輝度信号(W15、W22)を用いて輝度信号(W19)を補間し、画素位置19のX方向の隣の画素位置である画素位置18に、画素位置18に存在するR18を含む第2の列に含まれる画素位置18近傍のW信号(W14,W21)を用いてW18を補間し、画素位置19のX方向の隣の画素位置である画素位置20に、画素位置20に存在するR20を含む第2の列に含まれる画素位置20近傍のW信号(W16,W23)を用いてW20を補間する。
又、同時化処理部12は、画素位置19のY方向の隣の画素位置である画素位置11に、画素位置11に存在するB11を含む第2の列に含まれる画素位置11近傍のW信号(W07,W14)を用いてW11を補間し、画素位置19のY方向の隣の画素位置である画素位置27に、画素位置27に存在するB27を含む第2の列に含まれる画素位置27近傍のW信号(W23,W30)を用いてW27を補間する。
Specifically, the synchronization processing unit 12 uses the luminance signal (W15, W22) in the vicinity of the pixel position 19 included in the first column including G19 present at the pixel position 19 as the luminance signal (W15, W22). W19) is interpolated, and a W signal (W14, W14, near the pixel position 18 included in the second column including R18 existing at the pixel position 18 is added to the pixel position 18 that is the pixel position adjacent to the pixel position 19 in the X direction. W18) is interpolated using W21), and the pixel position 20 that is the pixel position adjacent to the pixel position 19 in the X direction is replaced with the W in the vicinity of the pixel position 20 included in the second column including R20 that exists at the pixel position 20. W20 is interpolated using signals (W16, W23).
Further, the synchronization processing unit 12 generates a W signal in the vicinity of the pixel position 11 included in the second column including B11 existing at the pixel position 11 at the pixel position 11 that is the pixel position adjacent to the pixel position 19 in the Y direction. W11 is interpolated using (W07, W14), and the pixel position 27 included in the second column including B27 existing at the pixel position 27 is added to the pixel position 27 that is the pixel position adjacent to the pixel position 19 in the Y direction. Interpolation of W27 is performed using neighboring W signals (W23, W30).

W19については、例えばW15とW22の平均を演算することで求め、W18については、例えばW14とW21の平均を演算することで求め、W20については、例えばW16とW23の平均を演算することで求め、W11については、例えばW07とW14の平均を演算することで求め、W27については、例えばW23とW30の平均を演算することで求める。W18,W19,W20,W11,W27を求めた後は、式(6)にしたがってW19+{(R18−W18)+(R20−W20)}/2の演算を行うことで、R19を推定し、式(7)にしたがってW19+{(B11−W11)+(B27−W27)}/2の演算を行うことで、B19を推定する。   For example, W19 is obtained by calculating the average of W15 and W22, W18 is obtained by calculating the average of W14 and W21, and W20 is obtained by calculating the average of W16 and W23, for example. , W11 is obtained, for example, by calculating the average of W07 and W14, and W27 is obtained, for example, by calculating the average of W23 and W30. After obtaining W18, W19, W20, W11, and W27, R19 is estimated by calculating W19 + {(R18−W18) + (R20−W20)} / 2 according to Equation (6), B19 is estimated by calculating W19 + {(B11-W11) + (B27-W27)} / 2 according to (7).

尚、式(6)は、画素位置19と画素位置18及び20との相関に基づいてR19を推定するものとなっているが、画素位置19と画素位置18との相関又は画素位置19と画素位置20との相関に基づいてR19を推定することも可能である。この場合、上記式(6)を次の式(8)又は(9)のように変形して用いれば良い。R19=W19+(R18−W18)・・・(8)、R19=W19+(R20−W20)・・・(9)。   Note that Equation (6) estimates R19 based on the correlation between the pixel position 19 and the pixel positions 18 and 20, but the correlation between the pixel position 19 and the pixel position 18 or the pixel position 19 and the pixel. It is also possible to estimate R19 based on the correlation with the position 20. In this case, the above formula (6) may be used as modified as the following formula (8) or (9). R19 = W19 + (R18−W18) (8), R19 = W19 + (R20−W20) (9).

又、式(7)は、画素位置19と画素位置11及び27との相関に基づいてB19を推定するものとなっているが、画素位置19と画素位置11との相関又は画素位置19と画素位置27との相関に基づいてB19を推定することも可能である。この場合、上記式(7)を次の式(10)又は(11)のように変形して用いれば良い。B19=W19+(B11−W11)・・・(10)、B19=W19+(B27−W27)・・・(11)。   Expression (7) estimates B19 based on the correlation between the pixel position 19 and the pixel positions 11 and 27, but the correlation between the pixel position 19 and the pixel position 11 or the pixel position 19 and the pixel. It is also possible to estimate B19 based on the correlation with the position 27. In this case, the above equation (7) may be used as modified as the following equation (10) or (11). B19 = W19 + (B11−W11) (10), B19 = W19 + (B27−W27) (11).

上記(a)〜(d)の処理を行うことで、各画素位置にR信号、G信号、B信号が存在した状態を作ることができる。   By performing the processes (a) to (d), it is possible to create a state in which the R signal, the G signal, and the B signal exist at each pixel position.

(方法2)
(a)B信号の存在する画素位置にG信号を補間する場合
この場合、同時化処理部12は、G非利用推定処理によって補間すべきG信号を推定する。即ち、同時化処理部12は、B信号の存在する画素位置に補間すべきG信号を、当該B信号を含む第4の列の当該B信号近傍にあるG信号を用いて推定する。
例えば、画素位置11にG信号(G11)を補間する場合、同時化処理部12はG11を含む第4の列に含まれるB11近傍のG信号(G03、G19)の平均を求める以下の式(12)により、G11を推定する。G11=(G03+G19)/2・・・(12)
(Method 2)
(A) When G signal is interpolated at a pixel position where B signal exists In this case, the synchronization processing unit 12 estimates a G signal to be interpolated by G non-use estimation processing. That is, the synchronization processing unit 12 estimates the G signal to be interpolated at the pixel position where the B signal exists, using the G signal in the vicinity of the B signal in the fourth column including the B signal.
For example, when the G signal (G11) is interpolated at the pixel position 11, the synchronization processing unit 12 calculates the average of the G signals (G03, G19) in the vicinity of B11 included in the fourth column including G11 ( 12), G11 is estimated. G11 = (G03 + G19) / 2 (12)

(b)R信号の存在する画素位置にG信号を補間する場合
この場合、同時化処理部12は、G非利用推定処理によって補間すべきG信号を推定する。即ち、同時化処理部12は、R信号の存在する画素位置に補間すべきG信号を、当該R信号を含む第3の列の当該R信号近傍にあるG信号を用いて推定する。
例えば、画素位置18にG信号(G18)を補間する場合、同時化処理部12はR18を含む第3の列に含まれるR18近傍のG信号(G10、G26)の平均を求める以下の式(13)により、G18を推定する。G18=(G10+G26)/2・・・(13)
(B) When a G signal is interpolated at a pixel position where an R signal exists In this case, the synchronization processing unit 12 estimates a G signal to be interpolated by a G non-use estimation process. That is, the synchronization processing unit 12 estimates the G signal to be interpolated at the pixel position where the R signal exists using the G signal in the vicinity of the R signal in the third column including the R signal.
For example, when the G signal (G18) is interpolated at the pixel position 18, the synchronization processing unit 12 calculates the average of the G signals (G10, G26) in the vicinity of R18 included in the third column including R18 ( 13), G18 is estimated. G18 = (G10 + G26) / 2 (13)

(c)B信号の存在する画素位置にR信号を補間する場合
この場合、同時化処理部12は、G利用推定処理によって補間すべきR信号を推定する。即ち、B信号の存在する画素位置に補間すべきR信号を、当該画素位置に存在する色信号を含む第4の列に含まれる当該画素位置近傍のG信号と、当該第4の列の隣の第3の列にある当該画素位置近傍のG信号と、当該第3の列の当該G信号の近傍にあるR信号とを用いて推定する。
(C) When R signal is interpolated at pixel position where B signal exists In this case, the synchronization processing unit 12 estimates the R signal to be interpolated by the G use estimation process. That is, the R signal to be interpolated at the pixel position where the B signal exists, the G signal near the pixel position included in the fourth column including the color signal present at the pixel position, and the adjacent to the fourth column. Is estimated using the G signal near the pixel position in the third column and the R signal near the G signal in the third column.

例えば、画素位置11にR信号(R11)を補間する場合、Y方向に相関性のある被写体において、画像の局所的な領域におけるR信号とG信号との差は等しいという前提、すなわち、R11−G11={(R10−G10)+(R12−G12)}/2の関係が成立するという前提に基づいて、R11=G11+{(R10−G10)+(R12−G12)}/2・・・(14)の演算により、R11を推定する。   For example, when the R signal (R11) is interpolated at the pixel position 11, it is assumed that the difference between the R signal and the G signal in the local region of the image is equal in the subject having a correlation in the Y direction, that is, R11−. Based on the premise that the relationship of G11 = {(R10−G10) + (R12−G12)} / 2 is established, R11 = G11 + {(R10−G10) + (R12−G12)} / 2. R11 is estimated by the calculation of 14).

具体的に、同時化処理部12は、まず、画素位置11に、画素位置11に存在するB11を含む第4の列に含まれる画素位置11近傍のG信号(G03、G19)を用いてG信号(G11)を補間し、画素位置11のX方向隣の画素位置である画素位置10に、画素位置10に存在するG10を含む第3の列に含まれる画素位置10近傍のR信号(R02,R18)を用いてR10を補間し、画素位置11のX方向隣の画素位置である画素位置12に、画素位置12に存在するG12を含む第3の列に含まれる画素位置12近傍のR信号(R04,R20)を用いてR12を補間する。   Specifically, the synchronization processing unit 12 first uses the G signal (G03, G19) in the vicinity of the pixel position 11 included in the fourth column including B11 existing at the pixel position 11 at the pixel position 11 as G. The signal (G11) is interpolated, and an R signal (R02) in the vicinity of the pixel position 10 included in the third column including G10 existing at the pixel position 10 is added to the pixel position 10 which is the pixel position adjacent to the pixel position 11 in the X direction. , R18) is used to interpolate R10, and R in the vicinity of the pixel position 12 included in the third column including G12 existing at the pixel position 12 is added to the pixel position 12 that is adjacent to the pixel position 11 in the X direction. R12 is interpolated using the signals (R04, R20).

G11については、例えばG03とG19の平均を演算することで求め、R10については、例えばR02とR18の平均を演算することで求め、R12については、例えばR04とR20の平均を演算することで求める。G11、R10、R12を求めた後は、式(14)に従ってG11+{(R10−G10)+(R12−G12)}/2の演算を行うことで、R11を推定する。   G11 is obtained, for example, by calculating the average of G03 and G19, R10 is obtained, for example, by calculating the average of R02 and R18, and R12 is obtained, for example, by calculating the average of R04 and R20. . After obtaining G11, R10, and R12, R11 is estimated by calculating G11 + {(R10−G10) + (R12−G12)} / 2 according to Equation (14).

尚、式(14)は、画素位置11と画素位置10及び12との相関に基づいてR11を推定するものとなっているが、画素位置11と画素位置10との相関又は画素位置11と画素位置12との相関に基づいてR11を推定することも可能である。この場合、上記式(14)を次の式(15)又は(16)のように変形して用いれば良い。R11=G11+(R10−G10)・・・(15)、R11=G11+(R12−G12)・・・(16)。   The equation (14) estimates R11 based on the correlation between the pixel position 11 and the pixel positions 10 and 12, but the correlation between the pixel position 11 and the pixel position 10 or the pixel position 11 and the pixel. It is also possible to estimate R11 based on the correlation with the position 12. In this case, the above equation (14) may be used as modified as the following equation (15) or (16). R11 = G11 + (R10−G10) (15), R11 = G11 + (R12−G12) (16).

(d)R信号の存在する画素位置にB信号を補間する場合
この場合、同時化処理部12は、G利用推定処理によって補間すべきB信号を推定する。即ち、R信号の存在する画素位置に補間すべきB信号を、当該画素位置に存在する色信号を含む第3の列に含まれる当該画素位置近傍のG信号と、当該第3の列の隣の第4の列にある当該画素位置近傍のG信号と、当該第4の列の当該G信号の近傍にあるB信号とを用いて推定する。
(D) When B signal is interpolated at a pixel position where R signal exists In this case, the synchronization processing unit 12 estimates the B signal to be interpolated by the G use estimation process. That is, the B signal to be interpolated at the pixel position where the R signal exists, the G signal near the pixel position included in the third column including the color signal present at the pixel position, and the third column adjacent to the G signal. The G signal in the vicinity of the pixel position in the fourth column and the B signal in the vicinity of the G signal in the fourth column are used for estimation.

例えば、画素位置18にB信号(B18)を補間する場合、Y方向に相関性のある被写体において、画像の局所的な領域におけるB信号とG信号との差は等しいという前提、すなわち、B18−G18={(B17−G17)+(B19−G19)}/2の関係が成立するという前提に基づいて、R18=G18+{(B17−G17)+(B19−G19)}/2・・・(17)の演算により、B18を推定する。   For example, when the B signal (B18) is interpolated at the pixel position 18, it is assumed that the difference between the B signal and the G signal in the local region of the image is the same in the subject correlated in the Y direction, that is, B18− Based on the premise that the relationship of G18 = {(B17−G17) + (B19−G19)} / 2 is established, R18 = G18 + {(B17−G17) + (B19−G19)} / 2. B18 is estimated by the calculation of 17).

具体的に、同時化処理部12は、まず、画素位置18に、画素位置18に存在するR18を含む第3の列に含まれる画素位置18近傍のG信号(G10、G26)を用いてG信号(G18)を補間し、画素位置18のX方向隣の画素位置である画素位置17に、画素位置17に存在するG17を含む第4の列に含まれる画素位置17近傍のB信号(B09,B25)を用いてB17を補間し、画素位置18のX方向隣の画素位置である画素位置19に、画素位置19に存在するG19を含む第4の列に含まれる画素位置19近傍のB信号(B11,B27)を用いてB19を補間する。   Specifically, the synchronization processing unit 12 first uses the G signal (G10, G26) in the vicinity of the pixel position 18 included in the third column including R18 existing at the pixel position 18 at the pixel position 18 as G. The signal (G18) is interpolated, and the B signal (B09) in the vicinity of the pixel position 17 included in the fourth column including G17 existing at the pixel position 17 is added to the pixel position 17 that is the pixel position adjacent to the pixel position 18 in the X direction. , B25) is used to interpolate B17, and the pixel position 19 that is the pixel position adjacent to the pixel position 18 in the X direction is replaced with B near the pixel position 19 included in the fourth column including G19 existing at the pixel position 19. B19 is interpolated using the signals (B11, B27).

G18については、例えばG10とG26の平均を演算することで求め、B17については、例えばB09とB25の平均を演算することで求め、B19については、例えばB11とB27の平均を演算することで求める。G18、B17、B19を求めた後は、式(17)に従ってG18+{(B17−G17)+(B19−G19)}/2の演算を行うことで、B18を推定する。   For example, G18 is obtained by calculating the average of G10 and G26, B17 is obtained by calculating the average of B09 and B25, and B19 is obtained by calculating the average of B11 and B27, for example. . After obtaining G18, B17, and B19, B18 is estimated by calculating G18 + {(B17−G17) + (B19−G19)} / 2 according to Equation (17).

尚、式(17)は、画素位置18と画素位置17及び19との相関に基づいてB18を推定するものとなっているが、画素位置18と画素位置17との相関又は画素位置18と画素位置19との相関に基づいてB18を推定することも可能である。この場合、上記式(17)を次の式(18)又は(19)のように変形して用いれば良い。B18=G18+(B17−G17)・・・(18)、B18=G18+(B19−G19)・・・(19)。   Note that Equation (17) estimates B18 based on the correlation between the pixel position 18 and the pixel positions 17 and 19, but the correlation between the pixel position 18 and the pixel position 17 or the pixel position 18 and the pixel. It is also possible to estimate B18 based on the correlation with the position 19. In this case, the above equation (17) may be used as modified as the following equation (18) or (19). B18 = G18 + (B17−G17) (18), B18 = G18 + (B19−G19) (19).

(e)第4の列のG信号の存在する画素位置にR信号を補間する場合
この場合、同時化処理部12は、G利用推定処理によって補間すべきR信号を推定する。即ち、第4の列のG信号の存在する画素位置に補間すべきR信号を、当該G信号と、当該第4の列の隣の第3の列にある当該画素位置近傍のR信号と、当該第4の列の当該R信号の近傍にあるG信号とを用いて推定する。
(E) When R signal is interpolated at the pixel position where the G signal in the fourth column exists In this case, the synchronization processing unit 12 estimates the R signal to be interpolated by the G use estimation process. That is, the R signal to be interpolated at the pixel position where the G signal in the fourth column exists, the G signal, and the R signal near the pixel position in the third column adjacent to the fourth column, Estimation is performed using a G signal in the vicinity of the R signal in the fourth column.

例えば、画素位置19にR信号(R19)を補間する場合、Y方向に相関性のある被写体において、画像の局所的な領域におけるR信号とG信号との差は等しいという前提、すなわち、R19−G19={(R18−G18)+(R20−G20)}/2の関係が成立するという前提に基づいて、R19=G19+{(R18−G18)+(R20−G20)}/2・・・(20)の演算により、R19を推定する。   For example, when the R signal (R19) is interpolated at the pixel position 19, it is assumed that the difference between the R signal and the G signal in the local region of the image is equal in the subject correlated in the Y direction, that is, R19−. Based on the premise that the relationship of G19 = {(R18−G18) + (R20−G20)} / 2 is established, R19 = G19 + {(R18−G18) + (R20−G20)} / 2. R19 is estimated by the calculation of 20).

具体的に、同時化処理部12は、まず、画素位置19のX方向隣の画素位置である画素位置18に、画素位置18に存在するR18を含む第3の列に含まれる画素位置18近傍のG信号(G10,G26)を用いてG18を補間し、画素位置18のX方向隣の画素位置である画素位置20に、画素位置20に存在するR20を含む第3の列に含まれる画素位置20近傍のG信号(G12,G28)を用いてG20を補間する。   Specifically, the synchronization processing unit 12 first sets the vicinity of the pixel position 18 included in the third column including R18 existing at the pixel position 18 to the pixel position 18 that is the pixel position adjacent to the pixel position 19 in the X direction. G18 is interpolated using the G signal (G10, G26) of the pixel, and the pixel included in the third column including R20 present at the pixel position 20 at the pixel position 20 that is the pixel position adjacent to the pixel position 18 in the X direction. G20 is interpolated using G signals (G12, G28) in the vicinity of position 20.

G18については、例えばG10とG26の平均を演算することで求め、G20については、例えばG12とG28の平均を演算することで求める。G18、G20を求めた後は、式(20)に従って、G19+{(R18−G18)+(R20−G20)}/2の演算を行うことで、R19を推定する。   G18 is obtained, for example, by calculating the average of G10 and G26, and G20 is obtained, for example, by calculating the average of G12 and G28. After obtaining G18 and G20, R19 is estimated by calculating G19 + {(R18−G18) + (R20−G20)} / 2 according to equation (20).

尚、式(20)は、画素位置19と画素位置18及び20との相関に基づいてR19を推定するものとなっているが、画素位置19と画素位置18との相関又は画素位置19と画素位置20との相関に基づいてR19を推定することも可能である。この場合、上記式(20)を次の式(21)又は(22)のように変形して用いれば良い。R19=G19+(R18−G18)・・・(21)、R19=G19+(R20−G20)・・・(22)。   Equation (20) estimates R19 based on the correlation between the pixel position 19 and the pixel positions 18 and 20, but the correlation between the pixel position 19 and the pixel position 18 or the pixel position 19 and the pixel. It is also possible to estimate R19 based on the correlation with the position 20. In this case, the above equation (20) may be used as modified as the following equation (21) or (22). R19 = G19 + (R18−G18) (21), R19 = G19 + (R20−G20) (22).

(f)第3の列のG信号の存在する画素位置にB信号を補間する場合
この場合、同時化処理部12は、G利用推定処理によって補間すべきB信号を推定する。即ち、第3の列のG信号の存在する画素位置に補間すべきB信号を、当該G信号と、当該G信号を含む第3の列の隣の第4の列にある当該画素位置近傍のB信号と、当該第4の列の当該B信号の近傍にあるG信号とを用いて推定する。
(F) When interpolating the B signal at the pixel position where the G signal in the third column exists In this case, the synchronization processing unit 12 estimates the B signal to be interpolated by the G use estimation process. That is, the B signal to be interpolated at the pixel position where the G signal in the third column exists is changed to the vicinity of the pixel position in the fourth column adjacent to the G signal and the third column including the G signal. Estimation is performed using the B signal and the G signal in the vicinity of the B signal in the fourth column.

例えば、画素位置10にB信号(B10)を補間する場合、Y方向に相関性のある被写体において、画像の局所的な領域におけるB信号とG信号との差は等しいという前提、すなわち、B10−G10={(B09−G09)+(B11−G11)}/2の関係が成立するという前提に基づいて、B10=G10+{(B09−G09)+(B11−G11)}/2・・・(23)の演算により、B10を推定する。   For example, when the B signal (B10) is interpolated at the pixel position 10, it is assumed that the difference between the B signal and the G signal in the local region of the image is the same in an object correlated in the Y direction, that is, B10−. Based on the premise that the relationship of G10 = {(B09−G09) + (B11−G11)} / 2 is established, B10 = G10 + {(B09−G09) + (B11−G11)} / 2. B10 is estimated by the calculation of 23).

具体的に、同時化処理部12は、まず、画素位置10のX方向隣の画素位置である画素位置09に、画素位置09に存在するB09を含む第4の列に含まれる画素位置09近傍のG信号(G01,G17)を用いてG09を補間し、画素位置10のX方向隣の画素位置である画素位置11に、画素位置11に存在するB11を含む第4の列に含まれる画素位置11近傍のG信号(G03,G19)を用いてG11を補間する。   Specifically, the synchronization processing unit 12 first has a vicinity of the pixel position 09 included in the fourth column including B09 existing at the pixel position 09 at the pixel position 09 that is the pixel position adjacent to the pixel position 10 in the X direction. G09 is interpolated using the G signal (G01, G17), and the pixel included in the fourth column including B11 existing at the pixel position 11 at the pixel position 11 that is the pixel position adjacent to the pixel position 10 in the X direction. G11 is interpolated using G signals (G03, G19) in the vicinity of position 11.

G09については、例えばG01とG17の平均を演算することで求め、G11については、例えばG03とG19の平均を演算することで求める。G01、G11を求めた後は、式(23)に従って、G10+{(B09−G09)+(B11−G11)}/2の演算を行うことで、B10を推定する。   G09 is obtained, for example, by calculating the average of G01 and G17, and G11 is obtained, for example, by calculating the average of G03 and G19. After obtaining G01 and G11, B10 is estimated by calculating G10 + {(B09−G09) + (B11−G11)} / 2 according to equation (23).

尚、式(23)は、画素位置10と画素位置09及び11との相関に基づいてB10を推定するものとなっているが、画素位置10と画素位置09との相関又は画素位置10と画素位置11との相関に基づいてB10を推定することも可能である。この場合、上記式(23)を次の式(24)又は(25)のように変形して用いれば良い。B10=G10+(B09−G09)・・・(24)、B10=G10+(B11−G11)・・・(25)。   Note that Equation (23) estimates B10 based on the correlation between the pixel position 10 and the pixel positions 09 and 11, but the correlation between the pixel position 10 and the pixel position 09 or the pixel position 10 and the pixel. It is also possible to estimate B10 based on the correlation with the position 11. In this case, the above equation (23) may be used as modified as the following equation (24) or (25). B10 = G10 + (B09−G09) (24), B10 = G10 + (B11−G11) (25).

(g)第3の列のG信号の存在する画素位置にR信号を補間する場合
この場合、同時化処理部12は、G非利用推定処理によって補間すべきR信号を推定する。即ち、同時化処理部12は、第3の列のG信号の存在する画素位置に補間すべきR信号を、当該第3の列の当該G信号近傍にあるR信号を用いて推定する。
例えば、画素位置10にR信号(R10)を補間する場合、同時化処理部12はG10を含む第3の列に含まれるG10近傍のR信号(R02、R18)の平均を求める以下の式(26)により、R10を推定する。R10=(R02+R18)/2・・・(26)。
(G) When R signal is interpolated at a pixel position where the G signal in the third column exists In this case, the synchronization processing unit 12 estimates the R signal to be interpolated by the G non-use estimation process. That is, the synchronization processing unit 12 estimates the R signal to be interpolated at the pixel position where the G signal in the third column exists using the R signal in the vicinity of the G signal in the third column.
For example, when the R signal (R10) is interpolated at the pixel position 10, the synchronization processing unit 12 calculates the average of the R signals (R02, R18) in the vicinity of G10 included in the third column including G10 ( 26), R10 is estimated. R10 = (R02 + R18) / 2 (26).

(h)第4の列のG信号の存在する画素位置にB信号を補間する場合
この場合、同時化処理部12は、G非利用推定処理によって補間すべきB信号を推定する。即ち、同時化処理部12は、第4の列のG信号の存在する画素位置に補間すべきB信号を、当該第4の列の当該G信号近傍にあるB信号を用いて推定する。
例えば、画素位置17にB信号(B17)を補間する場合、同時化処理部12はG17を含む第4の列に含まれるG17近傍のB信号(B09、B25)の平均を求める以下の式(27)により、B17を推定する。B17=(B09+B25)/2・・・(27)。
(H) When interpolating a B signal at a pixel position where a G signal in the fourth column exists In this case, the synchronization processing unit 12 estimates a B signal to be interpolated by a G non-use estimation process. That is, the synchronization processing unit 12 estimates the B signal to be interpolated at the pixel position where the G signal in the fourth column exists using the B signal in the vicinity of the G signal in the fourth column.
For example, when the B signal (B17) is interpolated at the pixel position 17, the synchronization processing unit 12 calculates the average of the B signals (B09, B25) in the vicinity of G17 included in the fourth column including G17 ( 27), B17 is estimated. B17 = (B09 + B25) / 2 (27).

上記(a)〜(h)の処理を行うことで、各画素位置にR信号、G信号、B信号が存在した状態を作ることができる。   By performing the processes (a) to (h), it is possible to create a state in which an R signal, a G signal, and a B signal exist at each pixel position.

同時化処理部12は、被写体に応じて以上のような方法1又は方法2の処理を行うことで、光電変換素子1,2,3に対応する画素位置にR,G,B3色の色信号を生成する。YC変換部13では、光電変換素子1,2,3に対応する画素位置にある信号から各画素位置に対応するYC信号が生成され、合成処理部14では、各画素位置に生成された輝度信号と、その画素位置に隣接する画素位置にあるW信号との合成処理が行われる。これにより、第1のグループを構成する光電変換素子と同じ数の解像度のカラー画像データが完成する。尚、合成処理は行わなくても良いが、光電変換素子4は他の光電変換素子よりも感度が高くなっているため、合成処理を行うことで、ダイナミックレンジの拡大を図ることができる。合成処理後のカラー画像データは圧縮処理部15で圧縮され、記録メディア16に記録される。   The synchronization processing unit 12 performs the processing of the method 1 or the method 2 as described above according to the subject, so that color signals of R, G, and B colors are obtained at pixel positions corresponding to the photoelectric conversion elements 1, 2, and 3. Is generated. The YC conversion unit 13 generates a YC signal corresponding to each pixel position from the signals at the pixel positions corresponding to the photoelectric conversion elements 1, 2, and 3, and the synthesis processing unit 14 generates the luminance signal generated at each pixel position. Are combined with the W signal at the pixel position adjacent to the pixel position. Thereby, color image data having the same number of resolutions as the photoelectric conversion elements constituting the first group is completed. Although the synthesis process may not be performed, the photoelectric conversion element 4 has higher sensitivity than the other photoelectric conversion elements, and thus the dynamic range can be expanded by performing the synthesis process. The combined color image data is compressed by the compression processing unit 15 and recorded on the recording medium 16.

このように、Z方向に相関性のある斜め被写体(例えば、Z方向に延びる矢印のような画像)については、方法1によって同時化処理を行い、Y方向に相関性のある縦被写体(例えば、Y方向に延びる矢印のような画像)については、方法2によって同時化処理を行うことで、斜め被写体に対しても方法2によって同時化処理を行っている従来と比較して、斜め被写体を含む被写体の撮像を行ったときの偽色を減らすことができ、高画質化を実現することができる。   As described above, for an oblique subject having a correlation in the Z direction (for example, an image like an arrow extending in the Z direction), the synchronization processing is performed by the method 1, and a vertical subject having a correlation in the Y direction (for example, As for the image (such as an arrow extending in the Y direction), by performing the synchronization process by the method 2, the diagonal object is included as compared to the conventional case where the synchronization process is also performed by the method 2 for the diagonal object. False colors when the subject is imaged can be reduced, and high image quality can be realized.

又、光電変換素子4は、入射する光の波長域が他の光電変換素子よりも広く、感度が高くなっているため、W信号のS/NはG信号のS/Nよりも良好となる。式(3)〜(11)に示したような輝度利用推定処理を行う場合は、ノイズの少ないW信号に基づいて補間すべき信号を推定することができるため、ノイズの少ない画像の生成が可能となる。   In addition, since the photoelectric conversion element 4 has a wider wavelength range of incident light than other photoelectric conversion elements and has higher sensitivity, the S / N of the W signal is better than the S / N of the G signal. . When performing luminance utilization estimation processing as shown in equations (3) to (11), it is possible to estimate a signal to be interpolated based on a low-noise W signal, so that an image with low noise can be generated. It becomes.

又、例えば輝度フィルタとして透明フィルタ等を用いた場合、W信号は、R信号、G信号、及びB信号の全ての成分を含んでいるため、G信号とR信号との相関性やG信号とB信号との相関性に比べて、W信号とR信号,G信号,B信号の各々との相関性は高いものとなる。上述した方法1において、R信号の存在する画素位置とB信号の存在する画素位置にそれぞれ補間されるG信号と、G信号の存在する画素位置に補間されるR信号及びB信号とは、W信号とG信号との相関性もしくは、W信号とR信号又はB信号との相関性に基づいて求められたものである。このように、相関性の高い信号によって補完すべき信号を推定しているため、偽色低減効果を向上させることができる。   For example, when a transparent filter or the like is used as a luminance filter, the W signal includes all components of the R signal, the G signal, and the B signal. Therefore, the correlation between the G signal and the R signal, Compared with the correlation with the B signal, the correlation between the W signal and each of the R signal, the G signal, and the B signal is high. In the method 1 described above, the G signal that is interpolated at the pixel position where the R signal exists and the pixel position where the B signal exists, and the R signal and B signal that are interpolated at the pixel position where the G signal exists are W It is obtained based on the correlation between the signal and the G signal or the correlation between the W signal and the R signal or the B signal. Thus, since the signal to be complemented by the highly correlated signal is estimated, the false color reduction effect can be improved.

又、以上説明した同時化処理は、図1に示すような構成の撮像素子10を搭載した撮像装置に限らず、例えば、第1のグループの光電変換素子を有する撮像素子と、第2のグループの光電変換素子を有する撮像素子とを搭載し、これらをサンプリングポイントをずらして配置してある2板式の撮像装置においても適用することができる。又、この同時化処理は、撮像素子10から得られたRAWデータをコンピュータに入力し、このコンピュータ内で所定のプログラムを実行することにより行っても良い。   Further, the synchronization processing described above is not limited to an image pickup apparatus equipped with the image pickup element 10 having the configuration shown in FIG. 1, for example, an image pickup element having a first group of photoelectric conversion elements and a second group. The present invention can also be applied to a two-plate type image pickup apparatus in which an image pickup element having a photoelectric conversion element is mounted and these are arranged by shifting sampling points. The synchronization processing may be performed by inputting RAW data obtained from the image sensor 10 to a computer and executing a predetermined program in the computer.

又、本実施形態では、撮像素子10をイメージセンサとしているが、これはラインセンサであっても良い。この場合は、R信号を出力する光電変換素子、G信号を出力する光電変換素子、B信号を出力する光電変換素子が所定方向に並ぶラインと、W信号を出力する光電変換素子が所定方向に並ぶラインとが、該所定方向に直交する方向に並べられた配置の撮像素子を用いれば良い。   In the present embodiment, the image sensor 10 is an image sensor, but it may be a line sensor. In this case, a photoelectric conversion element that outputs an R signal, a photoelectric conversion element that outputs a G signal, a photoelectric conversion element that outputs a B signal is arranged in a predetermined direction, and a photoelectric conversion element that outputs a W signal is in a predetermined direction. An image sensor having an arrangement in which the lines are arranged in a direction orthogonal to the predetermined direction may be used.

又、以上の説明では、光電変換素子1〜3から得られた色信号を、そのまま、生成すべきカラー画像データを構成する画素データの画素位置に配置してから、同時化処理を行うものとしているが、光電変換素子1〜3から得られた色信号については、この色信号を、その総数が減少するように同一色の色信号同士を加算した上で画素位置に配置し、この状態で同時化処理を行うようにしても良い。   In the above description, the color signals obtained from the photoelectric conversion elements 1 to 3 are arranged as they are at the pixel positions of the pixel data constituting the color image data to be generated, and then the synchronization processing is performed. However, the color signals obtained from the photoelectric conversion elements 1 to 3 are arranged at pixel positions after adding the color signals of the same color so that the total number thereof is reduced. Synchronization processing may be performed.

図4は、このような加算処理を行ったときのメモリ上に配置された撮像信号の配列を示した図である。図4において、内部に“R+”を記した四角は光電変換素子1から得られたR信号同士を加算して得られたR+信号を示し、内部に“G+”を記した四角は光電変換素子2から得られたG信号同士を加算して得られたG+信号を示し、内部に“B+”を記した円は光電変換素子3から得られたB信号同士を加算して得られたB+信号を示している。   FIG. 4 is a diagram showing an array of imaging signals arranged on the memory when such addition processing is performed. In FIG. 4, a square with “R +” inside shows an R + signal obtained by adding together R signals obtained from the photoelectric conversion element 1, and a square with “G +” inside is a photoelectric conversion element. 2 represents a G + signal obtained by adding together the G signals obtained from 2, and a circle with “B +” inside is a B + signal obtained by adding together the B signals obtained from the photoelectric conversion element 3 Is shown.

例えば、図4に示すように、図3に示すG01とG03とG17とG19を加算して、これらの中心位置にある画素位置10に、加算後のG+信号を配置する。又、図3に示すR02とR04とR18とR20を加算して、これらの中心位置にある画素位置11に、加算後のR+信号を配置する。又、図3に示すB09とB11とB25とB27を加算して、これらの中心位置にある画素位置18に、加算後のB+信号を配置する。又、図3に示すG10とG12とG26とG28を加算して、これらの中心位置にある画素位置19に、加算後のG+信号を配置する。   For example, as shown in FIG. 4, G01, G03, G17, and G19 shown in FIG. 3 are added, and the added G + signal is arranged at the pixel position 10 at the center position. Further, R02, R04, R18, and R20 shown in FIG. 3 are added, and the R + signal after the addition is arranged at the pixel position 11 at the center position thereof. Further, B09, B11, B25, and B27 shown in FIG. 3 are added, and the B + signal after the addition is arranged at the pixel position 18 at the center position thereof. Further, G10, G12, G26, and G28 shown in FIG. 3 are added, and the G + signal after the addition is arranged at the pixel position 19 at the center position thereof.

このように、X方向とY方向に隣接する同色成分の色信号同士を加算することで、図4の画素位置01〜04〜28〜25で囲まれる範囲)にG+信号が2つと、R+信号とB+信号とが生成される。以下、図4に示したような撮像信号配列における同時化処理について説明する。   In this way, by adding the color signals of the same color components adjacent to each other in the X direction and the Y direction, two G + signals are present in a range surrounded by the pixel positions 01 to 04 to 28 to 25 in FIG. And the B + signal are generated. Hereinafter, the synchronization processing in the imaging signal array as shown in FIG. 4 will be described.

同時化処理部12は、メモリ上に配置した色信号の各々がどの方向に相関性を持っているかを、例えばその撮像信号に隣接するW信号を利用することで判断し、Z方向又はこれに直交する方向に相関性のある色信号については、その色信号が存在する画素位置に補間すべき色信号を、その画素位置の周囲にある該補間すべき色信号と同種類の色信号及びW信号を用いて推定する輝度利用推定処理を用いて、R信号、G信号、及びB信号を補間する。   The synchronization processing unit 12 determines in which direction each of the color signals arranged on the memory has a correlation by using, for example, a W signal adjacent to the imaging signal, and the Z direction or For a color signal correlated in the orthogonal direction, the color signal to be interpolated at the pixel position where the color signal exists, the color signal of the same type as the color signal to be interpolated around the pixel position, and W The R signal, the G signal, and the B signal are interpolated using a luminance utilization estimation process that estimates using the signal.

又、同時化処理部12は、X方向又はY方向に相関性のある色信号については、その色信号が存在する画素位置に補間すべき色信号を、その画素位置の周囲にある該補間すべき色信号と同種類の色信号及びG信号を用いて推定するG利用推定処理を用いて、R信号、G信号、及びB信号を補間する。以下、図4の画素位置10にR信号、G信号、B信号を補間する方法を例にして具体的に説明する。   Also, the synchronization processing unit 12 interpolates the color signal to be interpolated at the pixel position where the color signal exists for the color signal correlated in the X direction or the Y direction, around the pixel position. The R signal, the G signal, and the B signal are interpolated using a G use estimation process that estimates using the same kind of color signal and G signal as the power color signal. Hereinafter, a method for interpolating the R signal, the G signal, and the B signal at the pixel position 10 in FIG. 4 will be described in detail.

まず、図4に示すG+10がどの方向に相関性を持っているかを判断する場合、同時化処理部12は、Y方向:(W05+W13)/2−(W06+W14)/2、X方向:(W05+W06)/2−(W13+W14)/2、Z方向:(W06−W13)、Z方向に直交する方向:(W05−W14)の4つの演算を行い、演算結果のうち絶対値が最小となった方向を、G+10に相関性のある方向と判断する。   First, when determining in which direction G + 10 shown in FIG. 4 is correlated, the synchronization processing unit 12 performs the Y direction: (W05 + W13) / 2− (W06 + W14) / 2, the X direction: (W05 + W06). / 2- (W13 + W14) / 2, Z direction: (W06-W13), direction orthogonal to the Z direction: (W05-W14), and the direction in which the absolute value is the smallest among the calculation results , G + 10 is determined to be correlated.

(方法1:Z方向に相関がある場合)
(a)画素位置10にR信号を補間する場合
この場合、同時化処理部12は輝度利用推定処理によって補間すべきR信号を推定する。
画素位置10にR信号(R10)を補間する場合、Z方向に相関性のある被写体において、画像の局所的な領域におけるW信号とR信号との差は等しいという前提は、加算前のR信号を用いて、
R10−W10={(R02−W02)+(R04−W04)+(R18−W18)+(R20−W20)}/4・・・(28)
と表すことが出来る。
さらに、R+11=(R02+R04+R18+R20)であるため、下記式28を変形した式29の演算によりR10を推定する。
R10=W10+{“R+11”−W02−W04−W18−W20}/4・・・(29)
(Method 1: When there is a correlation in the Z direction)
(A) When R signal is interpolated at pixel position 10 In this case, the synchronization processing unit 12 estimates the R signal to be interpolated by luminance use estimation processing.
When the R signal (R10) is interpolated at the pixel position 10, the premise that the difference between the W signal and the R signal in the local region of the image is equal in the subject correlated in the Z direction is the R signal before addition. Using,
R10−W10 = {(R02−W02) + (R04−W04) + (R18−W18) + (R20−W20)} / 4 (28)
Can be expressed as
Further, since R + 11 = (R02 + R04 + R18 + R20), R10 is estimated by the calculation of Expression 29 obtained by modifying Expression 28 below.
R10 = W10 + {“R + 11” −W02−W04−W18−W20} / 4 (29)

具体的に、同時化処理部12は、W02,W04,W18,W20,W10をZ方向の近傍画素によって推定する。
例えば、W02=(W05+Wb)/2、W04=(W07+Wd)/2、W18=(W21+W14)/2、W20=(W23+W16)/2、W10=(W13+W06)/2となる。
Specifically, the synchronization processing unit 12 estimates W02, W04, W18, W20, and W10 from neighboring pixels in the Z direction.
For example, W02 = (W05 + Wb) / 2, W04 = (W07 + Wd) / 2, W18 = (W21 + W14) / 2, W20 = (W23 + W16) / 2, and W10 = (W13 + W06) / 2.

よって、式29は下記式30に変形できるため、式30により、R10を求めることができる。
R10=(W13+W06)/2+{“R+11”−(W05+Wb)/2−(W07+Wd)/2−(W21+W14)/2−(W23+W16)/2}/4・・・(30)
Therefore, since Equation 29 can be transformed into the following Equation 30, R10 can be obtained from Equation 30.
R10 = (W13 + W06) / 2 + {“R + 11” − (W05 + Wb) / 2− (W07 + Wd) / 2− (W21 + W14) / 2− (W23 + W16) / 2} / 4 (30)

(b)画素位置10にB信号を補間する場合
この場合、同時化処理部12は輝度利用推定処理によって補間すべきB信号を推定する。
画素位置10にB信号(B10)を補間する場合、Z方向に相関性のある被写体において、画像の局所的な領域におけるW信号とB信号との差は等しいという前提は、加算前のB信号を用いて、
B10−W10={(B09−W09)+(B11−W11)+(B25−W25)+(B27−W27)}/4・・・(31)
と表すことが出来る。
さらに、“B+18”=(B09+B11+B25+B27)であるため、式31を変形した式32の演算によりB10を推定する。
B10=W10+{“B+18”−W09−W11−W25−W27}/4・・・(32)
(B) When B Signal is Interpolated at Pixel Position 10 In this case, the synchronization processing unit 12 estimates the B signal to be interpolated by the luminance use estimation process.
When the B signal (B10) is interpolated at the pixel position 10, the premise that the difference between the W signal and the B signal in the local region of the image is equal in the subject correlated in the Z direction is the B signal before addition. Using,
B10−W10 = {(B09−W09) + (B11−W11) + (B25−W25) + (B27−W27)} / 4 (31)
Can be expressed as
Furthermore, since “B + 18” = (B09 + B11 + B25 + B27), B10 is estimated by the calculation of Expression 32 obtained by modifying Expression 31.
B10 = W10 + {“B + 18” −W09−W11−W25−W27} / 4 (32)

式32は、上記(a)の処理と同様に、下記式33に変形できるため、この式33により、B10を求めることができる。
B10=(W13+W06)/2+{“B+18”−(Wf+W05)/2−(W14+W07)/2−(Wh+W21)/2−(W30+W23)/2}/4・・・(33)
Since Expression 32 can be transformed into the following Expression 33 similarly to the processing of (a) above, B10 can be obtained from this Expression 33.
B10 = (W13 + W06) / 2 + {“B + 18” − (Wf + W05) / 2− (W14 + W07) / 2− (Wh + W21) / 2− (W30 + W23) / 2} / 4 (33)

(c)画素位置10にG信号を補間する場合
この場合、同時化処理部12は輝度利用推定処理によって補間すべきG信号を推定する。
画素位置10にG信号(G10)を補間する場合、Z方向に相関性のある被写体において、画像の局所的な領域におけるW信号とG信号との差は等しいという前提は、加算前のG信号を用いて、
G10−W10={(G01−W01)+(G03−W03)+(G17−W17)+(G19−W19)}/4・・・(34)
と表すことが出来る。
さらに、“G+10”=(G01+G03+G17+G19)であるため、式34を変形した式35の演算によりG10を推定する。
G10=W10+{“G+10”−W01−W03−W17−W19}/4・・・(35)
(C) When G Signal is Interpolated at Pixel Position 10 In this case, the synchronization processing unit 12 estimates the G signal to be interpolated by the luminance use estimation process.
When the G signal (G10) is interpolated at the pixel position 10, the premise that the difference between the W signal and the G signal in the local region of the image is equal in the subject correlated in the Z direction is the G signal before addition. Using,
G10−W10 = {(G01−W01) + (G03−W03) + (G17−W17) + (G19−W19)} / 4 (34)
Can be expressed as
Furthermore, since “G + 10” = (G01 + G03 + G17 + G19), G10 is estimated by the calculation of Expression 35 obtained by modifying Expression 34.
G10 = W10 + {“G + 10” −W01−W03−W17−W19} / 4 (35)

式35は、上記(a)の処理と同様に、下記式36に変形できるため、この式36により、G10を求めることができる。
G10=(W13+W06)/2+{“G+10”−(We+Wa)/2−(W06+Wc)/2−(Wg+W13)/2−(W22+W15)/2}/4・・(36)
Since Expression 35 can be transformed into the following Expression 36 similarly to the processing of (a) above, G10 can be obtained from Expression 36.
G10 = (W13 + W06) / 2 + {"G + 10"-(We + Wa) / 2- (W06 + Wc) / 2- (Wg + W13) / 2- (W22 + W15) / 2} / 4 (36)

(方法2:Y方向に相関がある場合)
(a)画素位置10にR信号を補間する場合
この場合、同時化処理部12はG利用推定処理によって補間すべきR信号を推定する。
例えば、画素位置10にR信号(R10)を補間する場合、Y方向に相関性のある被写体において、画像の局所的な領域におけるG信号とR信号の差は等しいという前提は、加算前のG信号とR信号を用いて、
R10−G10={(R02−G02)+(R04−G04)+(R18−G18)+(R20−G20}/4・・・(37)
と表すことが出来る。
さらに、“R+11”=(R02+R04+R18+R20)であるため、式37を変形した式38の演算によりR10を推定する。
R10=G10+{“R+11”−G02−G04−G18−G20}/4・・・(38)
(Method 2: When there is a correlation in the Y direction)
(A) When R signal is interpolated at pixel position 10 In this case, the synchronization processing unit 12 estimates the R signal to be interpolated by the G use estimation process.
For example, when the R signal (R10) is interpolated at the pixel position 10, the premise that the difference between the G signal and the R signal in the local region of the image is equal in the subject having a correlation in the Y direction is the G before the addition. Using signal and R signal,
R10−G10 = {(R02−G02) + (R04−G04) + (R18−G18) + (R20−G20} / 4 (37)
Can be expressed as
Furthermore, since “R + 11” = (R02 + R04 + R18 + R20), R10 is estimated by the calculation of Expression 38 obtained by modifying Expression 37.
R10 = G10 + {“R + 11” −G02−G04−G18−G20} / 4 (38)

具体的に、同時化処理部12は、まず、G02をY方向の近傍画素により求める。例えば、G02=G10とする。同様にG04=G12、G18=G26、G20=G28と求まる。次に、G10は加算中心として“G+10”/4と求まる。   Specifically, the synchronization processing unit 12 first obtains G02 from neighboring pixels in the Y direction. For example, G02 = G10. Similarly, G04 = G12, G18 = G26, and G20 = G28. Next, G10 is obtained as “G + 10” / 4 as the addition center.

更に、“G+19”=(G10+G12+G26+G28)であるため、式38を変形した式39の演算によりR10を推定することができる。
R10=“G+10”/4+{“R+11”−“G+19”}/4・・・(39)
Furthermore, since “G + 19” = (G10 + G12 + G26 + G28), R10 can be estimated by the calculation of Expression 39 obtained by modifying Expression 38.
R10 = “G + 10” / 4 + {“R + 11” − “G + 19”} / 4 (39)

(b)画素位置10にB信号を補間する場合
この場合、同時化処理部12はG利用推定処理によって補間すべきB信号を推定する。
例えば、画素位置10にB信号(B10)を補間する場合、Y方向に相関性のある被写体において、画像の局所的な領域におけるG信号とB信号の差は等しいという前提は、加算前のG信号とB信号を用いて、
B10−G10={(B09−G09)+(B11−G11)+(B25−G25)+(B27−G27)}/4・・・(40)
と表すことが出来る。
さらに、“B+18”=(B09+B11+B25+B27)であるため、式40を変形した式41の演算によりB10を推定する。
B10=G10+{“B+18”−G09−G11−G25−G27}/4・・・(41)
(B) When B Signal is Interpolated at Pixel Position 10 In this case, the synchronization processing unit 12 estimates the B signal to be interpolated by the G use estimation process.
For example, when the B signal (B10) is interpolated at the pixel position 10, the premise that the difference between the G signal and the B signal in the local region of the image is equal in the subject correlated in the Y direction is the G before the addition. Using signal and B signal,
B10−G10 = {(B09−G09) + (B11−G11) + (B25−G25) + (B27−G27)} / 4 (40)
Can be expressed as
Furthermore, since “B + 18” = (B09 + B11 + B25 + B27), B10 is estimated by the calculation of Expression 41 obtained by modifying Expression 40.
B10 = G10 + {“B + 18” −G09−G11−G25−G27} / 4 (41)

式41は、上記(a)の処理と同様に、下記式42に変形できるため、この式42により、B10を求めることができる。
B10=“G+10”/4+{“B+18”−“G+10”}/4・・・(42)
Since Expression 41 can be transformed into the following Expression 42 in the same manner as the processing of (a) above, B10 can be obtained from this Expression 42.
B10 = "G + 10" / 4 + {"B + 18"-"G + 10"} / 4 (42)

(c)画素位置10にG信号を補間する場合
この場合、同時化処理部12は、“G+10”/4をG信号とする。
(C) When G Signal is Interpolated at Pixel Position 10 In this case, the synchronization processing unit 12 sets “G + 10” / 4 as the G signal.

以上のように、同色の色信号又は電荷同士を加算しても、縦横および斜め方向の相関演算を行う事で偽色低減を行う事が可能である。又、色解像は輝度解像に比べ低解像でも問題となり難いため、電荷を加算して読み出す事で画質への影響が少なく読み出しレートの低減が可能である。又、信号出力後に信号を加算することでも、演算する色画素数の削減することが出来る。又、図4に示した例では、色信号を縦横方向に加算するため、縦横方向に等解像の低解像画像を得る事が可能となる。   As described above, even if color signals or charges of the same color are added, false color reduction can be performed by performing correlation calculation in the vertical and horizontal directions and in the diagonal direction. In addition, since the color resolution is less likely to be a problem even when the resolution is lower than the luminance resolution, the readout rate can be reduced by adding charges and reading and having little influence on the image quality. Also, the number of color pixels to be calculated can be reduced by adding signals after signal output. In the example shown in FIG. 4, since the color signals are added in the vertical and horizontal directions, it is possible to obtain a low resolution image of equal resolution in the vertical and horizontal directions.

尚、加算の方法としては、X方向に隣接する同色成分の色信号同士を加算する方法や、Y方向に隣接する同色成分の色信号同士を加算する方法を採用しても良い。例えば、図3に示すG01とG17を加算して、画素位置09にG信号を配置し、B09とB25を加算して画素位置17にB信号を配置するといった処理を行うことで、図3と比較して画素データ数が半分となるカラー画像データを生成するようにしても良い。又は、図3に示すG01とG03を加算して、画素位置02にG信号を配置し、R02とR04を加算して画素位置03にR信号を配置するといった処理を行うことで、図3と比較して画素データ数が半分となるカラー画像データを生成するようにしても良い。   As a method of addition, a method of adding color signals of the same color component adjacent in the X direction or a method of adding color signals of the same color component adjacent in the Y direction may be employed. For example, G01 and G17 shown in FIG. 3 are added, the G signal is arranged at the pixel position 09, and B09 and B25 are added and the B signal is arranged at the pixel position 17, thereby performing FIG. In comparison, color image data in which the number of pixel data is halved may be generated. Alternatively, G01 and G03 shown in FIG. 3 are added, the G signal is arranged at the pixel position 02, and R02 and R04 are added and the R signal is arranged at the pixel position 03, so that FIG. In comparison, color image data in which the number of pixel data is halved may be generated.

又、G信号は加算せずに、R信号とB信号だけを加算するようにしても良い。この場合、輝度と相関の高いG信号が加算されないため、W信号とG信号とがダイヤモンド型の配列となり、縦横方向に高い解像を得る事が出来る。また、R信号とB信号を加算する事で画素数を減らし、演算や読み出しのコストを削減でき、感度の向上を図る事も可能である。   Further, only the R signal and the B signal may be added without adding the G signal. In this case, since the G signal having a high correlation with the luminance is not added, the W signal and the G signal are arranged in a diamond shape, and high resolution can be obtained in the vertical and horizontal directions. Further, by adding the R signal and the B signal, the number of pixels can be reduced, the cost of calculation and readout can be reduced, and the sensitivity can be improved.

R信号、B信号の補間処理は、上述した加算時の補間処理と同等となり、G信号の補間処理は、上述した非加算時の補間処理と同等となる。これにより、R信号とB信号は、R信号とB信号を加算した画素位置に補間され、G信号は加算前の全画素位置に補間される。R信号とB信号を加算前の全画素位置に補間する場合、全画素位置に補間されているG信号を用いたG利用推定処理を使いる。すなわち加算されたR信号とB信号の配置された画素位置にあるG信号を、R信号とB信号から減算して差分を求め、差分値同士を平均化して補間し、各画素位置のG信号と加算することにより求める事ができる。   The R signal and B signal interpolation processing is equivalent to the above-described interpolation processing at the time of addition, and the G signal interpolation processing is equivalent to the above-described interpolation processing at the time of non-addition. Thereby, the R signal and the B signal are interpolated at the pixel position obtained by adding the R signal and the B signal, and the G signal is interpolated at all the pixel positions before the addition. When the R signal and the B signal are interpolated at all pixel positions before addition, G utilization estimation processing using the G signal interpolated at all pixel positions is used. That is, the G signal at the pixel position where the added R signal and B signal are arranged is subtracted from the R signal and B signal to obtain a difference, and the difference values are averaged and interpolated to obtain the G signal at each pixel position. Can be obtained by adding.

又、ここでは、メモリ上において色信号の加算を行うものとしたが、撮像素子10の駆動時に、光電変換素子から読み出した電荷を加算することで、加算された色信号を撮像素子10から出力させるようにしても良い。   Here, the color signals are added on the memory. However, when the image sensor 10 is driven, the added color signal is output from the image sensor 10 by adding the charges read from the photoelectric conversion elements. You may make it let it.

この場合、撮像素子10をCCD(Charge Coupled Device)型のものとする。つまり、光電変換素子から垂直電荷転送路に電荷を読み出してこれをY方向に転送し、転送した電荷を水平電荷転送路においてX方向まで転送し、転送した電荷をその電荷量に応じた信号に変換して出力する出力部を有する構成とする。そして、撮像素子10を駆動する駆動部が、光電変換素子から読み出した電荷を、その総数が減少するように、X方向、Y方向、又は、Y方向及びX方向に隣接する同色成分の電荷同士を垂直電荷転送路や水平電荷転送路で加算してから、加算後の電荷に応じた色信号を出力させる駆動を行うようにすれば良い。   In this case, the imaging device 10 is a CCD (Charge Coupled Device) type. In other words, the charge is read from the photoelectric conversion element to the vertical charge transfer path, transferred in the Y direction, the transferred charge is transferred to the X direction in the horizontal charge transfer path, and the transferred charge is converted into a signal corresponding to the charge amount. A configuration having an output unit for converting and outputting. And the drive part which drives the image pick-up element 10 WHEREIN: The charge of the same color component adjacent to a X direction, a Y direction, or a Y direction and a X direction so that the total of the charge read from the photoelectric conversion element may decrease. Is added in the vertical charge transfer path or the horizontal charge transfer path, and then driving for outputting a color signal corresponding to the added charge is performed.

本発明の実施形態である撮像装置に搭載される撮像素子の概略平面模式図Schematic plan view of an image sensor mounted on an image pickup apparatus according to an embodiment of the present invention 本発明の実施形態である撮像装置の概略構成を示すブロック図1 is a block diagram showing a schematic configuration of an imaging apparatus that is an embodiment of the present invention. 図2のAFEから出力されてメモリ上に配置された撮像信号の配列を示した図The figure which showed the arrangement | sequence of the imaging signal output from AFE of FIG. 2, and arrange | positioned on the memory 図2のAFEから出力されてメモリ上に配置された撮像信号の加算後の配列を示した図The figure which showed the arrangement | sequence after the addition of the imaging signal output from AFE of FIG. 2 and arrange | positioned on the memory 従来の同時化処理方法を説明するための図The figure for demonstrating the conventional synchronous processing method

符号の説明Explanation of symbols

1〜3 色検出用光電変換素子
4 輝度検出用光電変換素子
12 同時化処理部
1 to 3 Color detection photoelectric conversion element 4 Luminance detection photoelectric conversion element 12 Synchronization processing unit

Claims (15)

撮像素子から出力された3種類の色信号と輝度信号を含む撮像信号に信号処理を施してカラー画像データを生成する信号処理装置であって、
前記撮像信号に含まれる各信号を座標位置に配置し、生成すべき前記カラー画像データの1画素データに対応する前記座標位置である画素位置に、前記3種類の色信号を補間する処理を行う同時化処理手段を備え、
前記同時化処理手段による色信号を補間するための処理が、前記画素位置に補間すべき色信号を前記画素位置の周囲にある前記補間すべき色信号と同種類の色信号及び前記輝度信号を用いて推定する輝度利用推定処理を含む信号処理装置。
A signal processing apparatus that generates color image data by performing signal processing on an imaging signal including three types of color signals and luminance signals output from an imaging element,
Each signal included in the imaging signal is arranged at a coordinate position, and processing for interpolating the three types of color signals is performed at the pixel position that is the coordinate position corresponding to one pixel data of the color image data to be generated. A synchronization processing means,
The process for interpolating the color signal by the synchronization processing means is to convert the color signal to be interpolated at the pixel position into the color signal of the same type as the color signal to be interpolated around the pixel position and the luminance signal. A signal processing apparatus including luminance use estimation processing to be estimated by using.
請求項1記載の信号処理装置であって、
前記座標位置に配置された前記撮像信号が、第1の色信号、第2の色信号、及び第3の色信号の3種類の色信号と前記輝度信号とを含み、前記輝度信号と前記第1の色信号とを特定方向に配列した第1の列と、前記輝度信号と前記第2の色信号と前記第3の色信号とを前記特定方向に配列した第2の列とを前記特定方向に直交する直交方向に交互に配列した構成であり、
前記画素位置が、前記色信号が配置された座標位置であり、
前記同時化処理手段は、前記特定方向に相関性のある色信号が存在する画素位置のうち、前記第2の色信号が存在する画素位置と前記第3の色信号が存在する画素位置とに補間すべき第1の色信号と、前記第1の色信号が存在する画素位置に補間すべき第2の色信号及び第3の色信号とについては、前記輝度利用推定処理によって補間を行うものであり、
前記輝度利用推定処理とは、前記画素位置に補間すべき第1の色信号を、前記画素位置に存在する色信号を含む第2の列に含まれる当該画素位置近傍の前記輝度信号と、当該第2の列の隣の前記第1の列にある当該画素位置近傍の輝度信号と、当該第1の列の当該輝度信号の近傍にある第1の色信号とを用いて推定し、前記画素位置に補間すべき第2の色信号を、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号と、当該第1の列の隣の前記第2の列にある当該画素位置近傍の第2の色信号と、当該第2の列の当該第2の色信号の近傍にある輝度信号とを用いて推定し、前記画素位置に補間すべき第3の色信号を、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号と、当該第1の列の隣の前記第2の列にある当該画素位置近傍の第3の色信号と、当該第2の列の当該第3の色信号の近傍にある輝度信号とを用いて推定する処理である信号処理装置。
The signal processing device according to claim 1,
The imaging signal disposed at the coordinate position includes three types of color signals, a first color signal, a second color signal, and a third color signal, and the luminance signal, and the luminance signal and the first color signal. A first column in which one color signal is arranged in a specific direction; and a second column in which the luminance signal, the second color signal, and the third color signal are arranged in the specific direction. It is a configuration arranged alternately in the orthogonal direction orthogonal to the direction,
The pixel position is a coordinate position where the color signal is arranged,
The synchronization processing means includes a pixel position where the second color signal exists and a pixel position where the third color signal exists among pixel positions where a color signal correlated in the specific direction exists. The first color signal to be interpolated and the second color signal and the third color signal to be interpolated at the pixel position where the first color signal exists are interpolated by the luminance use estimation process. And
The luminance use estimation processing includes the first color signal to be interpolated at the pixel position, the luminance signal in the vicinity of the pixel position included in the second column including the color signal existing at the pixel position, Estimating using the luminance signal in the vicinity of the pixel position in the first column next to the second column and the first color signal in the vicinity of the luminance signal in the first column; A second color signal to be interpolated at the position, the luminance signal in the vicinity of the pixel position included in the first column including the color signal existing at the pixel position, and the second color signal adjacent to the first column. A third color signal to be estimated by using the second color signal in the vicinity of the pixel position in the column and the luminance signal in the vicinity of the second color signal in the second column and to be interpolated to the pixel position. For the luminance signal in the vicinity of the pixel position included in the first column including the color signal present at the pixel position. A signal, a third color signal in the vicinity of the pixel position in the second column adjacent to the first column, and a luminance signal in the vicinity of the third color signal in the second column. A signal processing apparatus which is a process to be estimated using.
請求項2記載の信号処理装置であって、
前記輝度利用推定処理では、前記第1の色信号を補間すべき画素位置に、当該画素位置に存在する色信号を含む第2の列に含まれる当該画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該画素位置の前記直交方向隣の画素位置である第1の隣接画素位置に、前記第1の隣接画素位置に存在する輝度信号を含む前記第1の列に含まれる当該第1の隣接画素位置近傍の前記第1の色信号を用いて第1の色信号を補間し、当該画素位置に補間した輝度信号に、前記第1の隣接画素位置に補間した第1の色信号と前記第1の隣接画素位置に存在する輝度信号との差分を加算することで、当該画素位置に補間すべき第1の色信号を推定し、
前記第2の色信号を補間すべき画素位置に、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該第1の列の隣の第2の列に含まれる当該画素位置近傍の前記第2の色信号が存在する画素位置である第2の隣接画素位置に、前記第2の隣接画素位置に存在する第2の色信号を含む前記第2の列に含まれる当該第2の隣接画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該画素位置に補間した輝度信号に、前記第2の隣接画素位置に存在する第2の色信号と前記第2の隣接画素位置に補間した輝度信号との差分を加算することで、当該画素位置に補間すべき第2の色信号を推定し、
前記第3の色信号を補間すべき画素位置に、当該画素位置に存在する色信号を含む第1の列に含まれる当該画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該第1の列の隣の第2の列に含まれる当該画素位置近傍の前記第3の色信号が存在する画素位置である第3の隣接画素位置に、前記第3の隣接画素位置に存在する第3の色信号を含む前記第2の列に含まれる当該第3の隣接画素位置近傍の前記輝度信号を用いて輝度信号を補間し、当該画素位置に補間した輝度信号に、前記第3の隣接画素位置に存在する第3の色信号と前記第3の隣接画素位置に補間した輝度信号との差分を加算することで、当該画素位置に補間すべき第3の色信号を推定する信号処理装置。
The signal processing apparatus according to claim 2,
In the luminance use estimation process, luminance is used by using the luminance signal in the vicinity of the pixel position included in the second column including the color signal existing at the pixel position at the pixel position where the first color signal is to be interpolated. Interpolate the signal, and the first adjacent pixel position, which is the pixel position adjacent to the pixel position in the orthogonal direction, includes the luminance signal present in the first adjacent pixel position, the first column included in the first column The first color signal interpolated at the first adjacent pixel position by interpolating the first color signal using the first color signal in the vicinity of one adjacent pixel position and interpolating at the pixel position. And the difference between the luminance signal existing at the first adjacent pixel position and the first color signal to be interpolated at the pixel position are estimated,
The luminance signal is interpolated at the pixel position where the second color signal is to be interpolated using the luminance signal in the vicinity of the pixel position included in the first column including the color signal existing at the pixel position, and the second color signal is interpolated. The second adjacent pixel position in the second adjacent pixel position, which is the pixel position where the second color signal exists in the vicinity of the pixel position and is included in the second column adjacent to the first column, is present in the second adjacent pixel position. The luminance signal is interpolated using the luminance signal in the vicinity of the second adjacent pixel position included in the second column including the second color signal, and the second adjacent signal is added to the luminance signal interpolated at the pixel position. Estimating the second color signal to be interpolated at the pixel position by adding the difference between the second color signal present at the pixel position and the luminance signal interpolated at the second adjacent pixel position;
The luminance signal is interpolated at the pixel position where the third color signal is to be interpolated using the luminance signal in the vicinity of the pixel position included in the first column including the color signal existing at the pixel position, and the second color signal is interpolated. The third adjacent pixel position, which is the pixel position where the third color signal exists in the vicinity of the pixel position and is included in the second column adjacent to the first column, exists at the third adjacent pixel position. A luminance signal is interpolated using the luminance signal in the vicinity of the third adjacent pixel position included in the second column including the third color signal, and the luminance signal interpolated at the pixel position is interpolated with the third adjacent signal. A signal processing device that estimates the third color signal to be interpolated at the pixel position by adding the difference between the third color signal present at the pixel position and the luminance signal interpolated at the third adjacent pixel position .
請求項2又は3記載の信号処理装置であって、
前記同時化処理手段は、前記第2の色信号が存在する画素位置に補間すべき第3の色信号と、前記第3の色信号が存在する画素位置に補間すべき第2の色信号とについては、輝度非利用推定処理によって補間を行うものであり、
前記輝度非利用推定処理とは、前記画素位置に補間すべき色信号を、当該画素位置に存在する色信号を含む第2の列に含まれる当該色信号近傍の前記補間すべき色信号と同一種類の色信号を用いて推定する処理である信号処理装置。
The signal processing device according to claim 2 or 3,
The synchronization processing means includes a third color signal to be interpolated at a pixel position where the second color signal exists, and a second color signal to be interpolated at a pixel position where the third color signal exists. Is interpolated by luminance non-use estimation processing,
In the luminance non-use estimation process, the color signal to be interpolated at the pixel position is the same as the color signal to be interpolated in the vicinity of the color signal included in the second column including the color signal existing at the pixel position. A signal processing apparatus that is a process that estimates using various types of color signals.
請求項2〜4のいずれか1項記載の信号処理装置であって、
前記同時化処理手段による色信号を補間するための処理が、前記画素位置に補間すべき色信号を前記画素位置の周囲にある前記補間すべき色信号と同種類の色信号及び前記第1の色信号を用いて推定する第1の色信号利用推定処理を含む信号処理装置。
The signal processing device according to any one of claims 2 to 4,
In the process for interpolating the color signal by the synchronization processing means, the color signal to be interpolated at the pixel position is the same type of color signal as the color signal to be interpolated around the pixel position, and the first A signal processing apparatus including a first color signal use estimation process for estimation using a color signal.
請求項5記載の信号処理装置であって、
前記画素位置に配置された前記撮像信号が、前記特定方向及び前記直交方向に交差する交差方向に見たときに、前記第1の色信号と前記第2の色信号を前記交差方向に配列した第3の列と、前記第1の色信号と前記第3の色信号を前記交差方向に配列した第4の列とを、前記輝度信号を前記交差方向に配列した第5の列を挟んで前記交差方向に直交する方向に交互に配列した構成となっており、
前記同時化処理手段は、前記交差方向に相関性のある色信号が存在する画素位置のうち、前記第2の色信号が存在する画素位置に補間すべき第3の色信号と、前記第3の色信号が存在する画素位置に補間すべき第2の色信号と、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号と、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号とについては、前記第1の色信号利用推定処理によって補間を行うものであり、
前記第1の色信号利用推定処理とは、前記第3の色信号が存在する画素位置に補間すべき第2の色信号を、当該画素位置に存在する色信号を含む第4の列に含まれる当該画素位置近傍の前記第1の色信号と、当該第4の列の隣の前記第3の列にある当該画素位置近傍の第1の色信号と、当該第3の列の当該第1の色信号の近傍にある第2の色信号とを用いて推定し、
前記第2の色信号が存在する画素位置に補間すべき第3の色信号を、当該画素位置に存在する色信号を含む第3の列に含まれる当該画素位置近傍の前記第1の色信号と、当該第3の列の隣の前記第4の列にある当該画素位置近傍の第1の色信号と、当該第4の列の当該第1の色信号の近傍にある第3の色信号とを用いて推定し、
前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号を、当該第1の色信号と、当該第1の色信号を含む第3の列の隣の前記第4の列にある当該画素位置近傍の第3の色信号と、当該第4の列の当該第3の色信号の近傍にある第1の色信号とを用いて推定し、
前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号を、当該第1の色信号と、当該第4の列の隣の前記第3の列にある当該画素位置近傍の第2の色信号と、当該第4の列の当該第2の色信号の近傍にある第1の色信号とを用いて推定する処理である信号処理装置。
The signal processing device according to claim 5,
The first color signal and the second color signal are arranged in the intersecting direction when the image pickup signal arranged at the pixel position is viewed in the intersecting direction intersecting the specific direction and the orthogonal direction. A third column, a fourth column in which the first color signal and the third color signal are arranged in the crossing direction, and a fifth column in which the luminance signal is arranged in the crossing direction are sandwiched. It is configured to be alternately arranged in a direction orthogonal to the intersecting direction,
The synchronization processing means includes a third color signal to be interpolated at a pixel position where the second color signal is present among pixel positions where a correlated color signal exists in the intersecting direction, and the third color signal. A second color signal to be interpolated at a pixel position where the color signal of the second color signal is present, a third color signal to be interpolated at a pixel position where the first color signal included in the third column is present, and The second color signal to be interpolated at the pixel position where the first color signal exists in the fourth column is to be interpolated by the first color signal use estimation process,
The first color signal use estimation process includes a second color signal to be interpolated at a pixel position where the third color signal exists in a fourth column including the color signal present at the pixel position. The first color signal in the vicinity of the pixel position, the first color signal in the vicinity of the pixel position in the third column adjacent to the fourth column, and the first color signal in the third column. And a second color signal in the vicinity of the color signal of
The third color signal to be interpolated at the pixel position where the second color signal exists, and the first color signal near the pixel position included in the third column including the color signal present at the pixel position. A first color signal in the vicinity of the pixel position in the fourth column next to the third column, and a third color signal in the vicinity of the first color signal in the fourth column And using
A third color signal to be interpolated at a pixel position where the first color signal included in the third column is present, a third column including the first color signal and the first color signal. Using the third color signal in the vicinity of the pixel position in the fourth column next to the first color signal and the first color signal in the vicinity of the third color signal in the fourth column,
The second color signal to be interpolated at the pixel position where the first color signal included in the fourth column is present, the first color signal, and the third color signal adjacent to the fourth column. A signal processing apparatus which is a process of estimating using a second color signal in the vicinity of the pixel position in the column and a first color signal in the vicinity of the second color signal in the fourth column.
請求項6記載の信号処理装置であって、
前記同時化処理手段は、前記第2の色信号が存在する画素位置及び前記第3の色信号が存在する画素位置にそれぞれ補間すべき第1の色信号と、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号と、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号とについては、第1の色信号非利用推定処理によって補間を行うものであり、
前記第1の色信号非利用推定処理とは、前記第2の色信号が存在する画素位置に補間すべき第1の色信号を、当該第2の色信号を含む前記第3の列の当該第2の色信号近傍にある第1の色信号を用いて推定し、前記第3の色信号が存在する画素位置に補間すべき第1の色信号を、当該第3の色信号を含む前記第4の列の当該第3の色信号近傍にある第1の色信号を用いて推定し、前記第3の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第2の色信号を、当該第3の列の当該第1の色信号近傍にある第2の色信号を用いて推定し、前記第4の列に含まれる前記第1の色信号が存在する画素位置に補間すべき第3の色信号を、当該第4の列の当該第1の色信号近傍にある第3の色信号を用いて推定する処理である信号処理装置。
The signal processing device according to claim 6,
The synchronization processing means is included in the third column and the first color signal to be interpolated at the pixel position where the second color signal exists and the pixel position where the third color signal exists, respectively. The second color signal to be interpolated at the pixel position where the first color signal exists and the third color signal to be interpolated at the pixel position where the first color signal included in the fourth column exists. Are interpolated by the first color signal non-use estimation process,
In the first color signal non-use estimation process, the first color signal to be interpolated at the pixel position where the second color signal exists is replaced with the first column of the third column including the second color signal. The first color signal that is estimated using the first color signal in the vicinity of the second color signal and is to be interpolated at the pixel position where the third color signal exists includes the third color signal. The second color to be estimated by using the first color signal in the vicinity of the third color signal in the fourth column and to be interpolated at the pixel position where the first color signal included in the third column exists. The pixel position at which the first color signal included in the fourth column exists is estimated using the second color signal in the vicinity of the first color signal in the third column. A signal processing device that is a process for estimating a third color signal to be interpolated using a third color signal in the vicinity of the first color signal in the fourth column
請求項2〜7のいずれか1項記載の信号処理装置であって、
前記第1の色信号が緑色信号であり、前記第2の色信号が赤色信号であり、前記第3の色信号が青色信号である信号処理装置。
The signal processing device according to any one of claims 2 to 7,
The signal processing device, wherein the first color signal is a green signal, the second color signal is a red signal, and the third color signal is a blue signal.
請求項2〜8のいずれか1項記載の信号処理装置であって、
前記撮像素子が、前記第1の色信号、前記第2の色信号、及び前記第3の色信号の各々に応じた光の色成分を検出する色検出用光電変換素子からなる第1のグループと前記輝度信号に応じた光の輝度成分を検出する輝度検出用光電変換素子からなる第2のグループとを備え、
前記第1のグループに含まれる各光電変換素子は、前記第2のグループに含まれる各光電変換素子の位置を基準にした場合に、前記第2のグループに含まれる各光電変換素子に前記第1のグループに含まれる1つの光電変換素子が隣接するように、前記基準の位置から所定の方向にずれた位置に配置されている信号処理装置。
The signal processing device according to any one of claims 2 to 8,
A first group in which the image sensor includes a color detection photoelectric conversion element that detects a color component of light corresponding to each of the first color signal, the second color signal, and the third color signal. And a second group of luminance detecting photoelectric conversion elements for detecting a luminance component of light according to the luminance signal,
When the photoelectric conversion elements included in the first group are based on the positions of the photoelectric conversion elements included in the second group, the photoelectric conversion elements included in the second group A signal processing device arranged at a position shifted in a predetermined direction from the reference position so that one photoelectric conversion element included in one group is adjacent.
請求項1記載の信号処理装置であって、
前記同時化処理手段が、前記3種類の色信号を、その総数が減少するように、特定方向、前記特定方向に直交する直交方向、又は前記特定方向及び前記直交方向に隣接する同一色の色信号同士を加算した上で、前記撮像信号を前記座標位置に配置する信号処理装置。
The signal processing device according to claim 1,
The synchronization processing unit is configured to reduce the total number of the three kinds of color signals in a specific direction, an orthogonal direction orthogonal to the specific direction, or the same color adjacent to the specific direction and the orthogonal direction. A signal processing device that adds the signals and arranges the imaging signal at the coordinate position.
請求項1記載の信号処理装置であって、
前記撮像素子が、前記色信号を得るための多数の光電変換素子を含み、
前記3種類の色信号が、前記光電変換素子から読み出した電荷を、その総数が減少するように、特定方向、前記特定方向に直交する直交方向、又は、前記特定方向及び前記直交方向に隣接する同色成分の電荷同士を加算してから、加算後の電荷に応じた色信号を出力させる駆動により得られたものである信号処理装置。
The signal processing device according to claim 1,
The image sensor includes a number of photoelectric conversion elements for obtaining the color signal,
The three types of color signals are adjacent to the specific direction, the orthogonal direction orthogonal to the specific direction, or adjacent to the specific direction and the orthogonal direction so that the total number of charges read from the photoelectric conversion element decreases. A signal processing apparatus obtained by driving to add charges of the same color component and then outputting a color signal corresponding to the added charge.
請求項10記載の信号処理装置であって、
前記3種類の色信号が、緑色信号と赤色信号と青色信号であり、
前記同時化処理手段は、前記赤色信号と前記青色信号のみ加算を行う信号処理装置。
The signal processing device according to claim 10,
The three kinds of color signals are a green signal, a red signal and a blue signal,
The synchronization processing means is a signal processing device that adds only the red signal and the blue signal.
請求項11記載の信号処理装置であって、
前記3種類の色信号が、緑色信号と赤色信号と青色信号であり、
前記赤色信号と前記青色信号のみが、前記加算によって得られたものである信号処理装置。
The signal processing device according to claim 11,
The three kinds of color signals are a green signal, a red signal and a blue signal,
A signal processing apparatus in which only the red signal and the blue signal are obtained by the addition.
請求項1〜13のいずれか1項記載の信号処理装置と、
前記撮像素子とを備える撮像装置。
A signal processing device according to any one of claims 1 to 13,
An imaging apparatus comprising the imaging element.
コンピュータを、請求項1〜13のいずれか1項記載の信号処理装置の前記同時化処理手段として機能させるための同時化処理プログラム。   A synchronization processing program for causing a computer to function as the synchronization processing means of the signal processing apparatus according to claim 1.
JP2008166710A 2007-06-28 2008-06-26 Signal processing device, imaging device, and synchronization processing program Expired - Fee Related JP5250315B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008166710A JP5250315B2 (en) 2007-06-28 2008-06-26 Signal processing device, imaging device, and synchronization processing program
US12/163,762 US8199230B2 (en) 2007-06-28 2008-06-27 Signal processing apparatus, image pickup apparatus and computer readable medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007170448 2007-06-28
JP2007170448 2007-06-28
JP2008166710A JP5250315B2 (en) 2007-06-28 2008-06-26 Signal processing device, imaging device, and synchronization processing program

Publications (2)

Publication Number Publication Date
JP2009033737A true JP2009033737A (en) 2009-02-12
JP5250315B2 JP5250315B2 (en) 2013-07-31

Family

ID=40403673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008166710A Expired - Fee Related JP5250315B2 (en) 2007-06-28 2008-06-26 Signal processing device, imaging device, and synchronization processing program

Country Status (1)

Country Link
JP (1) JP5250315B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017153A1 (en) * 2012-07-27 2014-01-30 ソニー株式会社 Image processing device, image processing method, and program
US10362279B2 (en) 2015-09-22 2019-07-23 Samsung Electronics Co., Ltd. Image capturing device
US10567712B2 (en) 2017-11-13 2020-02-18 Canon Kabushiki Kaisha Imaging device and imaging system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234688A (en) * 1998-02-18 1999-08-27 Sony Corp Drive method for solid-state image pickup device, solid-state image pickup element and camera
JP2003199117A (en) * 2001-12-25 2003-07-11 Sony Corp Image pickup device and signal processing method for solid-state imaging element
JP2006157600A (en) * 2004-11-30 2006-06-15 Fuji Film Microdevices Co Ltd Digital camera
WO2007015982A2 (en) * 2005-07-28 2007-02-08 Eastman Kodak Company Processing color and panchromatic pixels
JP2007166432A (en) * 2005-12-15 2007-06-28 Konica Minolta Photo Imaging Inc Imaging unit and imaging device
JP2008219598A (en) * 2007-03-06 2008-09-18 Sony Corp Solid object imaging device and imaging device
JP2010512048A (en) * 2006-11-30 2010-04-15 イーストマン コダック カンパニー Low resolution image generation
JP2010512050A (en) * 2006-12-01 2010-04-15 イーストマン コダック カンパニー Improved light sensitivity in image sensors

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11234688A (en) * 1998-02-18 1999-08-27 Sony Corp Drive method for solid-state image pickup device, solid-state image pickup element and camera
JP2003199117A (en) * 2001-12-25 2003-07-11 Sony Corp Image pickup device and signal processing method for solid-state imaging element
JP2006157600A (en) * 2004-11-30 2006-06-15 Fuji Film Microdevices Co Ltd Digital camera
WO2007015982A2 (en) * 2005-07-28 2007-02-08 Eastman Kodak Company Processing color and panchromatic pixels
JP2007166432A (en) * 2005-12-15 2007-06-28 Konica Minolta Photo Imaging Inc Imaging unit and imaging device
JP2010512048A (en) * 2006-11-30 2010-04-15 イーストマン コダック カンパニー Low resolution image generation
JP2010512050A (en) * 2006-12-01 2010-04-15 イーストマン コダック カンパニー Improved light sensitivity in image sensors
JP2008219598A (en) * 2007-03-06 2008-09-18 Sony Corp Solid object imaging device and imaging device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017153A1 (en) * 2012-07-27 2014-01-30 ソニー株式会社 Image processing device, image processing method, and program
US10362279B2 (en) 2015-09-22 2019-07-23 Samsung Electronics Co., Ltd. Image capturing device
US10567712B2 (en) 2017-11-13 2020-02-18 Canon Kabushiki Kaisha Imaging device and imaging system

Also Published As

Publication number Publication date
JP5250315B2 (en) 2013-07-31

Similar Documents

Publication Publication Date Title
JP4284628B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM FOR IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR IMAGE PROCESSING METHOD
JP5872408B2 (en) Color imaging apparatus and image processing method
JP4946581B2 (en) Image processing device
JPWO2012117583A1 (en) Color imaging device
JP2007251393A (en) Color filter, image pickup device, and image processing unit
JP2009246963A (en) Image processing apparatus, image processing method, and program
JP4796871B2 (en) Imaging device
KR20140055503A (en) Image processing method, image signal processor and image sensing system thereof
JP2010016814A (en) Image processing apparatus and method, and computer-readable medium
JP3926363B2 (en) Pixel signal processing apparatus and pixel signal processing method
TW201314623A (en) Image processing module and image processing method
JP4894594B2 (en) Image processing device
US8199230B2 (en) Signal processing apparatus, image pickup apparatus and computer readable medium
JP5250315B2 (en) Signal processing device, imaging device, and synchronization processing program
JP4934991B2 (en) Imaging signal processing apparatus and method, and imaging apparatus
KR100810155B1 (en) Image sensor for expanding wide dynamic range and output Bayer-pattern image
JP5753395B2 (en) Imaging device
US20060044428A1 (en) Image pickup device and signal processing method
JP5087474B2 (en) Imaging device
JP4962293B2 (en) Image processing apparatus, image processing method, and program
JP2004172859A (en) Imaging unit and imaging method
JP2008042313A (en) Interpolating processor and interpolating processing method
JP5033700B2 (en) Imaging device
US20130038772A1 (en) Image processing apparatus and image processing method
JP2004172858A (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110208

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20120914

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20121004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130415

R150 Certificate of patent or registration of utility model

Ref document number: 5250315

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees