JP4478934B2 - Image signal processing device - Google Patents

Image signal processing device Download PDF

Info

Publication number
JP4478934B2
JP4478934B2 JP2004217229A JP2004217229A JP4478934B2 JP 4478934 B2 JP4478934 B2 JP 4478934B2 JP 2004217229 A JP2004217229 A JP 2004217229A JP 2004217229 A JP2004217229 A JP 2004217229A JP 4478934 B2 JP4478934 B2 JP 4478934B2
Authority
JP
Japan
Prior art keywords
line
pixel information
pixels
solid
readout
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004217229A
Other languages
Japanese (ja)
Other versions
JP2006041799A (en
Inventor
直基 久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2004217229A priority Critical patent/JP4478934B2/en
Publication of JP2006041799A publication Critical patent/JP2006041799A/en
Application granted granted Critical
Publication of JP4478934B2 publication Critical patent/JP4478934B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像信号処理装置に係り、特に画素が1列ごとに半ピッチずれて配列された固体撮像素子から出力される画像信号の処理技術に関する。   The present invention relates to an image signal processing apparatus, and more particularly to a technique for processing an image signal output from a solid-state imaging device in which pixels are arranged with a half-pitch shift for each column.

図6はハニカム配列と呼ばれる画素配列を有する固体撮像素子の概略構成図である。同図に示すように、この固体撮像素子10は、受光セル11の幾何学的な形状の中心点を行方向及び列方向に1つ置きに画素ピッチの半分(1/2ピッチ)ずらして配列させたものとなっている。   FIG. 6 is a schematic configuration diagram of a solid-state imaging device having a pixel array called a honeycomb array. As shown in the figure, this solid-state imaging device 10 is arranged by shifting the center point of the geometric shape of the light receiving cell 11 every other half in the pixel pitch in the row direction and the column direction (1/2 pitch). It has been made to.

また、この固体撮像素子10は、各受光セル11に対応してそれぞれR(赤)、G(緑)、B(青)の何れか1色の原色カラーフィルタが割り当てられている。図6のように、水平方向についてGGGG…の行の次段にBRBR…の行が配置され、その次段にGGGG…の行、更にその次の行にRBRB…という具合に配列される。また、列方向についてみれば、GGGG…の列と、BBBB…の列と、GGGG…の列と、RRRR…の列とが循環式に繰り返される配列パターンとなっている。   The solid-state imaging device 10 is assigned a primary color filter of any one of R (red), G (green), and B (blue) corresponding to each light receiving cell 11. As shown in FIG. 6, the BRBR... Row is arranged in the next stage of the GGGG... Row in the horizontal direction, the GGGG... Row is arranged in the next stage, and the RBRB. In the column direction, the GGGG column, the BBBB column, the GGGG column, and the RRRR column are repeated in a cyclic manner.

この種のハニカム配列の固体撮像素子10は、R、G、B画素が斜め45度の配置をとり、正方配列の固体撮像素子に対し、水平、垂直の解像度をアップさせている。   This type of honeycomb array solid-state image sensor 10 has R, G, and B pixels arranged at an angle of 45 degrees, and has a higher horizontal and vertical resolution than a square array solid-state image sensor.

ところで、固体撮像素子10は、動画(ムービー)駆動される場合と、静止画駆動される場合とがある。ムービー駆動される場合には、所定のフレームレートで周期的に各受光セル11に蓄積された信号電荷の読み出しを行なう必要があるが、近年の固体撮像素子の高画素数化に伴い、所定のフレームレート内で信号電荷を読み出すことが困難になっており、そのため水平ラインを間引いて読み出すようにしている。   By the way, the solid-state image sensor 10 may be driven by a moving image (movie) or may be driven by a still image. In the case of movie driving, it is necessary to periodically read out signal charges accumulated in each light receiving cell 11 at a predetermined frame rate. It is difficult to read out signal charges within the frame rate, and therefore, horizontal lines are thinned out for reading.

一方、特許文献1には、水平方向の同じ色の画素同士を画素混合し、これにより高画質、信号電荷の読み出しの高速化を図るようにした固体撮像素子装置が提案されている。
特開2003−264844号公報
On the other hand, Patent Document 1 proposes a solid-state imaging device device in which pixels of the same color in the horizontal direction are mixed to thereby achieve high image quality and high-speed signal charge readout.
JP 2003-264844 A

図6に示した固体撮像素子10からの情報の読み出し順序は、図7(A)に示すよう斜め45度に配置されたGライン、RBラインの2ラインの画素情報を同一水平タイミングで読み出し、ムービー駆動においては、この読み出した画素情報(…Gn n n,n+1 n+1 n+1,…)をそれぞれの空間位置の画素情報として使用し、又は同図(B)に示すように読み出した隣接するライン間の画素情報を補間処理し、垂直方向のライン数を増加させた画素情報をそれぞれの空間位置の画素情報として使用しているため、各画素の本来の画素空間位置の情報が有効に利用されず、特に垂直解像度が十分に引き出されず、また、偽信号が発生するという問題がある。 The reading order of information from the solid-state imaging device 10 shown in FIG. 6 is to read out pixel information of two lines of the G line and the RB line arranged at an angle of 45 degrees as shown in FIG. In movie driving, the read pixel information (... G n B n R n, G n + 1 B n + 1 R n + 1, ...) Is used as pixel information at each spatial position, or FIG. As shown in B), pixel information between adjacent lines read out is interpolated and pixel information with an increased number of lines in the vertical direction is used as pixel information at each spatial position. In other words, the information on the pixel space position is not used effectively, the vertical resolution is not sufficiently extracted, and a false signal is generated.

また、一般の正方画素配列の固体撮像素子と同じ垂直本数を読み出そうとすると、45度配置された2ラインの画素情報を同時に読み出すことになるため、1.4倍の駆動周波数が必要となり、周辺も含めたデバイスへの要求性能が厳しくなることでのコストアップ、消費電力増大によるシステム負荷となる。   In addition, if the same vertical number as that of a solid-state image sensor having a general square pixel arrangement is read out, pixel information of two lines arranged at 45 degrees is read out at the same time, and thus a drive frequency of 1.4 times is required. In addition, the required performance of the device including the periphery becomes severe, resulting in a cost increase and a system load due to an increase in power consumption.

一方、ハニカム配列の固体撮像素子から全画素情報を読み出し、静止画と同じ信号処理(正方画素配列と同じ画素配列になるように不足する画素を補間処理によって作成する信号処理など)を行なうことで、垂直本数は少なくとも同等の垂直解像度を得ようとすると、高速な信号処理、メモリ容量の増大に繋がるという問題がある。また、垂直方向にRB市松状に配置されていなければ、静止画と同等の画像処理は不可能であり、一方、RB市松状に配置された固体撮像素子では、垂直奇数間引きしか対応できないという問題がある。   On the other hand, by reading out all pixel information from a solid-state image sensor with a honeycomb arrangement, and performing the same signal processing as a still image (such as signal processing that creates an insufficient pixel by interpolation processing so as to have the same pixel arrangement as a square pixel arrangement) If the vertical resolution is at least equivalent to the vertical resolution, there is a problem that high-speed signal processing and memory capacity increase. In addition, if the RB checkered pattern is not arranged in the vertical direction, image processing equivalent to a still image is impossible. On the other hand, the solid-state imaging device arranged in the RB checkered pattern can deal with only vertical odd thinning. There is.

本発明はこのような事情に鑑みてなされたもので、ハニカム配列の固体撮像素子をムービー駆動する際に駆動周波数を上げることなく、垂直解像度の改善、及び偽信号の発生を低減することができる画像信号処理装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and can improve the vertical resolution and reduce the generation of false signals without increasing the driving frequency when driving a solid-state image pickup element having a honeycomb arrangement. An object is to provide an image signal processing apparatus.

前記目的を達成するために本発明の画像信号処理装置は、R、G、Bの何れか1色のカラーフィルタがそれぞれ割り当てられた複数の画素が2次元配列された固体撮像素子であって、各画素が相互に斜め45度の位置関係に配列されるとともに、水平方向にG画素のみからなるGラインと水平方向にR画素とB画素とが交互に繰り返すRBラインとが垂直方向に繰り返してなる固体撮像素子と、前記固体撮像素子にて互いに隣接する前記Gラインと前記RBラインとから画素ごとに交互に画素情報を読み出して、互いに隣接する前記Gラインの画素情報及び前記RBラインの画素情報を1読出ライン分の画素情報として出力する読出手段と、前記Gライン及び前記RBラインのうちいずれか一方を第1ラインとして他方を第2ラインとし、前記固体撮像素子上の垂直方向の空間位置が互いに異なる一の読出ライン及び他の読出ラインにおける前記第2ラインの垂直方向の空間位置に応じて、前記一の読出ライン及び前記他の読出ラインにおける前記第2ラインの画素情報を重み付けして演算することで、前記各読出ラインの前記第2ラインの画素情報を補正する補正手段であって、前記各読出ラインにて補正後の前記第2ラインの画素情報が前記第1ラインの垂直方向の空間位置に対応する画素情報になる重み付けを行う補正手段と、を備えたことを特徴とする。
例えば、前記補正手段は、前記一の読出ラインにおける前記第2ラインの画素情報をD1、前記他の読出ラインにおける前記第2ラインの画素情報をD2、前記一の読出ラインにおける前記第1ラインと前記一の読出ラインにおける前記第2ラインとの垂直方向の空間位置の差をa、前記一の読出ラインにおける前記第1ラインと前記他の読出ラインにおける前記第2ラインとの垂直方向の空間位置の差をbとしたとき、前記一の読出ラインにおける前記第2ラインの補正後の画素情報Dを、数式{D=(D1×a+D2×b)/(a+b)}により算出する。
In order to achieve the above object, the image signal processing apparatus of the present invention is a solid-state imaging device in which a plurality of pixels each assigned with a color filter of any one of R, G, and B are two-dimensionally arranged, The pixels are arranged in a positional relationship of 45 degrees obliquely to each other, and a G line consisting of only G pixels in the horizontal direction and an RB line in which R pixels and B pixels are alternately repeated in the horizontal direction are repeated in the vertical direction. comprising a solid-state imaging device, the solid the adjacent by the image pickup device to read out the pixel information alternately from the G line and the RB line for each pixel, the G line of pixel information and the RB lines adjacent to each other reading means for outputting the pixel information as pixel information for one read line, the other of either one of said G line and the RB line as the first line and second line, before According to the vertical spatial position of the second line in the one readout line and the other readout line that are different from each other in the vertical spatial position on the solid-state imaging device, the one readout line and the other readout line Correcting means for correcting the pixel information of the second line of each readout line by weighting and calculating the pixel information of the second line, wherein the second line after correction at each readout line Correction means for performing weighting so that pixel information becomes pixel information corresponding to a vertical spatial position of the first line .
For example, the correcting means may include pixel information of the second line in the one readout line as D1, pixel information of the second line in the other readout line as D2, and the first line in the one readout line as the first line. The difference in vertical spatial position between the first readout line and the second line is a, and the vertical spatial position between the first line in the one readout line and the second line in the other readout line. The pixel information D after correction of the second line in the one readout line is calculated by the equation {D = (D1 × a + D2 × b) / (a + b)} where b is the difference between the two.

即ち、前記読出手段は、前記固体撮像素子から1ライン分の画素情報を読み出す際に、隣接するGラインとRBラインとから画素ごとに交互に読み出し、これによりGBGRGBGR…の点順次の画素情報として出力する。上記のようして読み出した1ラインの画素情報のうちのGライン及びRBラインのうちの一方のライン(例えば、Gライン)の垂直方向の空間位置を基準にすると、RBライン上のR画素、B画素の垂直方向の空間位置は、GラインとRBラインの間隔だけずれている。そこで、前記補正手段は、他方のラインの画素情報を垂直方向の空間位置のずれに対応した重み付けで補正するようにしている。これにより、各画素の本来の画素空間位置の情報を有効に利用し、垂直解像度の向上を図るとともに、偽信号の発生を低減できるようにしている。   That is, when reading out the pixel information for one line from the solid-state image sensor, the reading unit alternately reads out the pixel information from the adjacent G line and RB line for each pixel, thereby generating point-sequential pixel information of GBGRGBGR. Output. Based on the vertical spatial position of one of the G line and RB line (for example, G line) of the pixel information of one line read out as described above, R pixels on the RB line, The spatial position of the B pixel in the vertical direction is shifted by an interval between the G line and the RB line. Therefore, the correction means corrects the pixel information of the other line with a weight corresponding to the deviation of the spatial position in the vertical direction. As a result, the information of the original pixel space position of each pixel is effectively used to improve the vertical resolution and to reduce the generation of false signals.

また、本発明の一態様において、前記読出手段は、ムービー駆動時に前記固体撮像素子から垂直方向の画素情報を間引いて読み出すことを特徴としている。これにより、固体撮像素子からの画素情報の読み出しのための駆動周波数を上げることなく、ムービーで要求される所定のフレームレート内で1フレーム分の画素情報を読み出すことができるようにしている。 In the aspect of the invention, the reading unit may read out pixel information in the vertical direction from the solid-state imaging device when driving a movie. Thereby, the pixel information for one frame can be read out within a predetermined frame rate required for the movie without increasing the driving frequency for reading out the pixel information from the solid-state imaging device.

また、本発明の一態様において、前記固体撮像素子は、垂直方向にG画素、R画素、及びB画素が一列に配列されていることを特徴としている。垂直方向に同じ色の画素が一列に並んでいるため、間引き間隔に制限がなく、奇数間引き及び偶数間引きの両方が可能である。 Further, in one embodiment of the present invention, the solid-state imaging device is characterized in that G pixels, R pixels, and B pixels are arranged in a line in the vertical direction. Since pixels of the same color are arranged in a row in the vertical direction, there is no limitation on the thinning interval, and both odd thinning and even thinning are possible.

また、本発明の一態様において、前記補正手段は、前記固体撮像素子の垂直方向にて前記各読出ラインの間に位置し且つデータ上にて前記読出ラインの間に挿入される補間ラインの画素情報を前記各読出ラインの画素情報に基づいて補間演算するものであって、前記補間ラインの垂直方向の空間位置と、前記各読出ラインの垂直方向の同じ色の画素の垂直方向の空間位置とに基づいて重み付け補間を行なうことを特徴としている。 In one aspect of the present invention, the correction unit is a pixel of an interpolation line that is located between the readout lines in the vertical direction of the solid-state imaging device and is inserted between the readout lines on data. information, the be one that interpolation operation based on the pixel information of each read line, a spatial position in the vertical direction of the interpolation line, the spatial position in the vertical direction of the same color of pixels in the vertical direction of the respective read line Based on the above, weighted interpolation is performed.

即ち、前記読出手段によって読み出されたラインとは異なる任意のライン(補間ライン)上の画素情報を補間によって算出するようにしている。これにより、固体撮像素子から読み出す垂直本数を低減しつつ、垂直解像度の向上を図るようにしている。   That is, pixel information on an arbitrary line (interpolation line) different from the line read by the reading means is calculated by interpolation. Thus, the vertical resolution is improved while reducing the number of vertical lines read from the solid-state imaging device.

本発明によれば、ハニカム配列の固体撮像素子から隣接するGラインとRBラインとから画素ごとに交互に読み出された1ライン分の画素情報は、G画素とRB画素との垂直方向の空間位置がずれているが、Gライン及びRBラインのうちの一方のラインの垂直方向の空間位置を基準にし、他方のラインの画素情報を垂直方向の空間位置に比例した重み付けで補正するようにしたため、各画素の本来の画素空間位置の情報を有効に利用することができ、垂直解像度の向上を図るとともに、偽信号の発生を低減することができる。   According to the present invention, the pixel information for one line alternately read for each pixel from the adjacent G line and RB line from the solid-state image pickup device having the honeycomb arrangement is the vertical space between the G pixel and the RB pixel. Although the position is shifted, the vertical spatial position of one of the G and RB lines is used as a reference, and the pixel information of the other line is corrected with a weight proportional to the vertical spatial position. Thus, information on the original pixel space position of each pixel can be used effectively, so that the vertical resolution can be improved and the generation of false signals can be reduced.

以下添付図面に従って本発明に係る画像信号処理装置の好ましい実施の形態について詳説する。   Hereinafter, preferred embodiments of an image signal processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.

図1は本発明に係る画像信号処理装置を含む撮像装置の実施の形態を示すブロック図である。   FIG. 1 is a block diagram showing an embodiment of an imaging apparatus including an image signal processing apparatus according to the present invention.

同図に示す撮像装置(デジタルカメラ)100は、静止画や動画の記録及び再生機能を有し、デジタルカメラ100全体の動作は中央処理装置(CPU)12によって統括制御される。 CPU12は、所定のプログラムに従って本カメラシステムを制御する制御手段として機能するとともに、自動露出(AE)演算、自動焦点調節(AF)演算、ホワイトバランス(WB)調整演算など、各種演算を実施する演算手段として機能し、更に後述するように信号処理回路16での補間演算に必要なデータ(係数)等を出力する。   An image pickup apparatus (digital camera) 100 shown in FIG. 1 has functions for recording and reproducing still images and moving images, and the overall operation of the digital camera 100 is centrally controlled by a central processing unit (CPU) 12. The CPU 12 functions as a control means for controlling the camera system according to a predetermined program, and performs various calculations such as automatic exposure (AE) calculation, automatic focus adjustment (AF) calculation, white balance (WB) adjustment calculation, etc. It functions as a means, and further outputs data (coefficients) required for the interpolation calculation in the signal processing circuit 16 as will be described later.

バス14を介してCPU12と接続されたメモリ18はROMやSDRAMを含み、ROMには、CPU12が実行するプログラム及び制御に必要な各種データ等が格納される。また、SDRAMは、プログラムの展開領域及びCPU12の演算作業用領域として利用されるとともに、画像データの一時記憶領域として利用される。   A memory 18 connected to the CPU 12 via the bus 14 includes a ROM and an SDRAM, and the ROM stores programs executed by the CPU 12, various data necessary for control, and the like. The SDRAM is used as a program development area and a calculation work area for the CPU 12 and as a temporary storage area for image data.

操作部20は、撮影ボタン、モード切替えレバー、モードダイヤル、メニュー/OKキー、十字キー等を有し、この操作部18での操作による信号はCPU12に入力され、CPU12は入力信号に基づいてデジタルカメラ100の各回路を制御し、例えば、レンズ駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、LCDモニタの表示制御などを行う。   The operation unit 20 includes a shooting button, a mode switching lever, a mode dial, a menu / OK key, a cross key, and the like. A signal generated by the operation on the operation unit 18 is input to the CPU 12, and the CPU 12 performs digital processing based on the input signal. Each circuit of the camera 100 is controlled, and for example, lens drive control, photographing operation control, image processing control, image data recording / reproduction control, LCD monitor display control, and the like are performed.

LCDモニタ22は、撮影時に画角確認用の電子ファインダとして使用できるとともに、記録済み画像を再生表示する手段として利用される。また、LCDモニタ22は、ユーザインターフェース用表示画面としても利用され、必要に応じてメニュー情報や選択項目、設定内容などの情報が表示される。   The LCD monitor 22 can be used as an electronic viewfinder for checking the angle of view at the time of shooting, and is used as means for reproducing and displaying recorded images. The LCD monitor 22 is also used as a user interface display screen, and displays information such as menu information, selection items, and setting contents as necessary.

メディアコントローラ24は、メディアソケット(図示せず)に装着される記録メディア26に適した入出力信号の受渡しを行うために所要の信号変換を行う。   The media controller 24 performs necessary signal conversion in order to deliver an input / output signal suitable for the recording medium 26 mounted in a media socket (not shown).

次に、デジタルカメラ100の撮影機能について説明する。   Next, the shooting function of the digital camera 100 will be described.

撮影モードが選択されると、CCD等からなる固体撮像素子(以下、この実施の形態では「CCD」という)10を含む撮像部に電源が供給され、撮影可能な状態になる。尚、CCD10は、図6に示したようにハニカム配列のもので、R、G、B画素が斜め45度の配置をとり、水平方向にGGGG…のGラインと、BRBR…のRBラインとが交互に配置され、垂直方向にGGGG…の列と、BBBB…の列と、GGGG…の列と、RRRR…の列とが循環式に繰り返される配列パターンとなっている。   When the shooting mode is selected, power is supplied to an image pickup unit including a solid-state image pickup device 10 (hereinafter referred to as “CCD” in this embodiment) made of a CCD or the like, and the camera is ready for shooting. As shown in FIG. 6, the CCD 10 has a honeycomb arrangement, R, G, and B pixels are arranged at an angle of 45 degrees, and the GGGG... G line and the BRBR. The array pattern is alternately arranged, and the GGGG column, the BBBB column, the GGGG column, and the RRRR column are repeated in the vertical direction in a cyclic manner.

撮影レンズ30は、CPU12によって制御されるレンズドライバ32によって電動駆動され、フォーカス制御が行われる。撮影レンズ30を通過した光は、CCD10の受光面に結像される。CCD10は、各受光セル11の電荷蓄積時間(シャッタースピード)を制御する電子シャッター機能を有している。CPU12は、タイミングジェネレータ34及びCCDドライバ36を介してCCD10での電荷蓄積時間の制御、CCD10からの信号電荷の読出制御を行なう。   The taking lens 30 is electrically driven by a lens driver 32 controlled by the CPU 12 to perform focus control. The light that has passed through the photographing lens 30 forms an image on the light receiving surface of the CCD 10. The CCD 10 has an electronic shutter function for controlling the charge accumulation time (shutter speed) of each light receiving cell 11. The CPU 12 performs control of charge accumulation time in the CCD 10 and readout control of signal charges from the CCD 10 via the timing generator 34 and the CCD driver 36.

CCD10の受光面に結像された被写体像は、各受光セル11によって入射光量に応じた量の信号電荷に変換される。各受光セル11に蓄積された信号電荷は、CPU12の指令に従いタイミングジェネレータ34及びCCDドライバ36から与えられる駆動パルスに基づいて信号電荷に応じた電圧信号(画像信号)として順次読み出される。   The subject image formed on the light receiving surface of the CCD 10 is converted into a signal charge of an amount corresponding to the amount of incident light by each light receiving cell 11. The signal charge accumulated in each light receiving cell 11 is sequentially read out as a voltage signal (image signal) corresponding to the signal charge based on a drive pulse given from the timing generator 34 and the CCD driver 36 in accordance with a command from the CPU 12.

CCD10から出力された信号はアナログ処理部(CDS/ADC)38に送られ、ここで画素ごとのRGB信号がサンプリングホールド(相関二重サンプリング処理)され、A/D変換器によってデジタル信号に変換される。デジタル信号に変換された点順次のRGB信号は、信号処理回路16に加えられる。   The signal output from the CCD 10 is sent to an analog processing unit (CDS / ADC) 38, where RGB signals for each pixel are sampled and held (correlated double sampling processing), and converted into a digital signal by an A / D converter. The The dot sequential RGB signal converted into the digital signal is applied to the signal processing circuit 16.

信号処理回路16は、後述するようにRGB画素のCCD10での垂直方向の空間位置ずれを補正する補間処理部を含み、ここで補正されたRGBの画像データはメモリ18に一時記憶される。また、信号処理回路16は、メモリ18に記憶されたRGBの画像データをCPU12の指令に従って処理する。即ち、信号処理回路16は、同時化回路、ホワイトバランス補正回路、ガンマ補正回路、輪郭補正回路、輝度・色差信号生成回路等を含む画像処理手段として機能し、CPU12からのコマンドに従ってメモリ18を活用しながら所定の信号処理を行う。信号処理回路16で処理された画像データは再びメモリ18に記憶される。   As will be described later, the signal processing circuit 16 includes an interpolation processing unit that corrects the vertical spatial position shift of the RGB pixels in the CCD 10, and the RGB image data corrected here is temporarily stored in the memory 18. The signal processing circuit 16 processes the RGB image data stored in the memory 18 in accordance with a command from the CPU 12. That is, the signal processing circuit 16 functions as an image processing unit including a synchronization circuit, a white balance correction circuit, a gamma correction circuit, a contour correction circuit, a luminance / color difference signal generation circuit, and the like, and uses the memory 18 in accordance with a command from the CPU 12. While performing predetermined signal processing. The image data processed by the signal processing circuit 16 is stored in the memory 18 again.

撮影画像をLCDモニタ22にモニタ出力する場合、メモリ18から画像データが読み出され、バス14を介してLCDドライバ40に送られる。LCDドライバ40は、入力された画像データをLCD表示用の信号に変換してLCDモニタ22に出力する。   When the captured image is output to the LCD monitor 22, the image data is read from the memory 18 and sent to the LCD driver 40 via the bus 14. The LCD driver 40 converts the input image data into an LCD display signal and outputs it to the LCD monitor 22.

CCD10をムービー駆動する場合には、撮像中の映像がリアルタイムにLCDモニタ22に表示される。撮影者は、LCDモニタ22に表示される映像(ムービー画)によって撮影画角を確認できる。   When the CCD 10 is driven by a movie, the image being captured is displayed on the LCD monitor 22 in real time. The photographer can check the shooting angle of view from the video (movie image) displayed on the LCD monitor 22.

操作部20の撮影ボタンが半押しされると、デジタルカメラ100はAE及びAF処理を開始し、その後、撮影ボタンが全押しされると、静止画記録用の撮影動作がスタートする。即ち、撮影ボタンの全押しに応動して取得された画像データは信号処理回路16において輝度/色差信号(Y/C信号)に変換され、ガンマ補正等の所定の処理が施された後、メモリ18に格納される。   When the shooting button of the operation unit 20 is half-pressed, the digital camera 100 starts AE and AF processing. After that, when the shooting button is fully pressed, a shooting operation for recording a still image starts. That is, the image data acquired in response to the full press of the shooting button is converted into a luminance / color difference signal (Y / C signal) in the signal processing circuit 16 and subjected to predetermined processing such as gamma correction, and then the memory. 18.

メモリ18に格納されたY/C信号は、圧縮伸長回路42によって所定のフォーマットに従って圧縮された後、メディアコントローラ24を介して記録メディア26に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)形式で記録される。   The Y / C signal stored in the memory 18 is compressed according to a predetermined format by the compression / decompression circuit 42 and then recorded on the recording medium 26 via the media controller 24. For example, a still image is recorded in JPEG (Joint Photographic Experts Group) format.

次に、信号処理回路16における本発明に係る画像信号処理について説明する。   Next, image signal processing according to the present invention in the signal processing circuit 16 will be described.

いま、CCD10をムービー駆動する際にCCD10から垂直方向の画素情報を1/2間引きで読み出す場合、図6に示すようにCCDのトランスファーゲートに対応する電極V1A,V3Aに転送時の電圧よりも高い電圧の読出用パルスを印加し、そのトランスファーゲートに対応する受光セルに蓄積された電荷を垂直転送路に読み出す。その後、垂直転送路は垂直転送用のタイミング信号によって4相駆動され、垂直転送路に読み出された電荷を水平転送路に向かって転送する。水平転送路に転送された電荷は、水平駆動パルスによって水平方向に転送され、信号電荷に応じた電圧信号として順次読み出される。   When the pixel information in the vertical direction is read from the CCD 10 by ½ decimation when driving the CCD 10 in a movie, the voltage is higher than the voltage at the time of transfer to the electrodes V1A and V3A corresponding to the CCD transfer gate as shown in FIG. A voltage reading pulse is applied, and the charge accumulated in the light receiving cell corresponding to the transfer gate is read out to the vertical transfer path. Thereafter, the vertical transfer path is driven in four phases by a vertical transfer timing signal, and charges read to the vertical transfer path are transferred toward the horizontal transfer path. The charges transferred to the horizontal transfer path are transferred in the horizontal direction by a horizontal drive pulse and sequentially read out as voltage signals corresponding to the signal charges.

ここで、電極V1Aに対応するGラインと、電極V3Aに対応するRBラインとは、1ラインとして信号処理され、前述したアナログ処理部38からは、GBGRGBGR…の順に点順次のRGB信号が出力される。   Here, the G line corresponding to the electrode V1A and the RB line corresponding to the electrode V3A are signal-processed as one line, and the above-described analog processing unit 38 outputs dot-sequential RGB signals in the order of GBGRGBGR. The

図2(A)はCCD10から読み出されたラインn、n+1における点順次のRGB信号を示している。   FIG. 2A shows dot-sequential RGB signals on lines n and n + 1 read from the CCD 10.

ここで、ラインnにおけるG画素(Gライン上の画素)とRB画素(RBライン上の画素)とは垂直方向の空間位置がずれているため、この空間位置ずれに応じて画像情報を補正する。例えば、Gラインを基準にし、RBラインのRB画素を、Gラインの空間位置に対応する画素情報になるように補間処理する。   Here, since the vertical position of the G pixel (pixel on the G line) and the RB pixel (pixel on the RB line) in the line n are shifted, the image information is corrected according to this spatial position shift. . For example, using the G line as a reference, the RB pixel of the RB line is interpolated so as to become pixel information corresponding to the spatial position of the G line.

即ち、図2(B)に示すように、ラインn−1のRGB画素情報(RGB信号)をRn-1 n-1 n-1 、ラインnのRGB信号をRn n n 、ラインn+1のRGB信号をRn+1 n+1 n+1 、ラインn+2のRGB信号をRn+2 n+2 n+2 とすると、補間処理後の実データラインn、n+1のRGB信号を、次式に示すように補正する。
[数1]
実データラインn
G=Gn
B=(Bn ×3+Bn+1 ×1)/4
R=(Rn ×3+Rn+1 ×1)/4
実データラインn+1
G=Gn+1
B=(Bn+1 ×3+Bn+2 ×1)/4
R=(Rn+1 ×3+Rn+2 ×1)/4
また、ラインn−1とラインnとの中間のライン(補間ライン)n、ラインnとラインn+1との中間の補間ラインn+1のRGB信号は、次式によって算出する。
[数2]
補間ラインn
G=(Gn-1 +Gn )/2
B=(Bn-1 ×1+Bn ×3)/4
R=(Rn-1 ×1+Rn ×3)/4
補間ラインn+1
G=(G+Gn+1 )/2
B=(Bn ×1+Bn+1 ×3)/4
R=(Rn ×1+Rn+1 ×3)/4
上記[数1]について、図3を参照しながら詳述する。
That is, as shown in FIG. 2 (B), RGB pixel information of the line n-1 the (RGB signal) R n-1 G n-1 B n-1, the RGB signal of the line n R n G n B n If the RGB signal of line n + 1 is R n + 1 G n + 1 B n + 1 , and the RGB signal of line n + 2 is R n + 2 G n + 2 B n + 2 , the actual data line n after interpolation processing, The n + 1 RGB signal is corrected as shown in the following equation.
[Equation 1]
Actual data line n
G = G n
B = (B n × 3 + B n + 1 × 1) / 4
R = (R n × 3 + R n + 1 × 1) / 4
Actual data line n + 1
G = G n + 1
B = (B n + 1 × 3 + B n + 2 × 1) / 4
R = (R n + 1 × 3 + R n + 2 × 1) / 4
Further, the RGB signals of the line (interpolation line) n between the line n-1 and the line n and the interpolation line n + 1 between the line n and the line n + 1 are calculated by the following equations.
[Equation 2]
Interpolation line n
G = (G n-1 + G n ) / 2
B = (B n-1 × 1 + B n × 3) / 4
R = (R n-1 × 1 + R n × 3) / 4
Interpolation line n + 1
G = (G + G n + 1 ) / 2
B = (B n × 1 + B n + 1 × 3) / 4
R = (R n × 1 + R n + 1 × 3) / 4
[Equation 1] will be described in detail with reference to FIG.

図3はCCD10のRGB画素の空間位置関係を示す図である。   FIG. 3 is a diagram showing the spatial positional relationship of the RGB pixels of the CCD 10.

いま、CCD10から1/2間引きで読み出されるラインn−1、n、n+1…のうちのラインnでの補正について説明する。Gラインを基準にすると、Gライン上のGn は補正する必要がない。一方、Gライン上のBを求める場合には、GラインからBn までの垂直方向の距離aと、GラインからBn+1 までの垂直方向の距離bとを使用し、Bn とBn+1 とを1次線形補間することによりGライン上のBを求める。このBは、次式により求めることができる。
[数3]
B=(Bn ×a+Bn+1 ×b)/(a+b)
=(Bn ×a+Bn+1 ×3a)/(a+3a) (∵b=3a)
=(Bn ×3+Bn+1 ×1)/4
同様にして、Gライン上のRを求めることができる。
Now, correction of the line n among the lines n-1, n, n + 1... Read out from the CCD 10 by 1/2 thinning will be described. If the G line is used as a reference, it is not necessary to correct G n on the G line. On the other hand, when obtaining a B on G line, using a distance a in the vertical direction from the G line to B n, and a distance b in the vertical direction from the G line to B n + 1, B n and B B on the G line is obtained by linearly interpolating n + 1 . This B can be obtained by the following equation.
[Equation 3]
B = ( Bn * a + Bn + 1 * b) / (a + b)
= (B n × a + B n + 1 × 3a) / (a + 3a) (∵b = 3a)
= (B n × 3 + B n + 1 × 1) / 4
Similarly, R on the G line can be obtained.

次に、上記補間処理を行なう信号処理回路16の補間処理部について説明する。   Next, the interpolation processing unit of the signal processing circuit 16 that performs the interpolation processing will be described.

図4は信号処理回路16内の補間処理部の実施の形態を示すの要部ブロック図である。この補間処理部は、ラインメモリ50、52、乗算器54、56及び加算器58から構成されている。   FIG. 4 is a principal block diagram showing an embodiment of the interpolation processing unit in the signal processing circuit 16. The interpolation processing unit includes line memories 50 and 52, multipliers 54 and 56, and an adder 58.

ラインメモリ50、52は、それぞれアナログ処理部38から点順次で出力される1ライン分のRGB信号(CCDデータ)を保持し、かつラインn、ラインn+1の2ラインのCCDデータを1画素ずつ同時に乗算器54、56に出力する。乗算器54、56の他の入力には、CPU12の端子a,bから補間演算に必要な係数が加えられており、乗算器54、56は、これらの2入力を乗算する。即ち、CPU12は、[数1]に示したようにG信号が乗算器54、56に入力される場合には、乗算器54、56にそれぞれ係数1、0を出力し、RB信号が乗算器54、56に入力される場合には、乗算器54、56にそれぞれ係数3/4、1/4を出力する。そして、乗算器54、56での乗算結果は、それぞれ加算器58に加えられ、ここで加算されて補間データとして出力される。   Each of the line memories 50 and 52 holds one line of RGB signals (CCD data) output from the analog processing unit 38 in a dot-sequential manner, and simultaneously processes two lines of CCD data of line n and line n + 1 one pixel at a time. It outputs to the multipliers 54 and 56. Coefficients necessary for the interpolation operation are added to the other inputs of the multipliers 54 and 56 from the terminals a and b of the CPU 12, and the multipliers 54 and 56 multiply these two inputs. That is, when the G signal is input to the multipliers 54 and 56 as shown in [Equation 1], the CPU 12 outputs the coefficients 1 and 0 to the multipliers 54 and 56, respectively, and the RB signal is the multiplier. When the signals are input to 54 and 56, the coefficients 3/4 and 1/4 are output to the multipliers 54 and 56, respectively. The multiplication results in the multipliers 54 and 56 are respectively added to an adder 58, where they are added and output as interpolation data.

図5は信号処理回路16の補間処理部の他の実施の形態を示す要部ブロック図である。尚、図4に示した補間処理部と共通する部分には同一の符号を付し、その詳細な説明は省略する。   FIG. 5 is a principal block diagram showing another embodiment of the interpolation processing unit of the signal processing circuit 16. Note that portions common to the interpolation processing unit shown in FIG. 4 are denoted by the same reference numerals, and detailed description thereof is omitted.

図5に示す補間処理部は、図4に示した補間処理部に対して、更にラインメモリ53、乗算器57、加算器59及びセレクタ60が追加されて構成されている。   The interpolation processing unit shown in FIG. 5 is configured by further adding a line memory 53, a multiplier 57, an adder 59, and a selector 60 to the interpolation processing unit shown in FIG.

CPU12は、実データラインにおける補間データを出力させる場合には、セレクタ60が入力Aを選択出力するように選択信号をセレクタ60に出力し、補間ラインにおける補間データを出力させる場合には、セレクタ60が入力Bを選択出力するように選択信号をセレクタ60に出力する。   When outputting interpolation data in the actual data line, the CPU 12 outputs a selection signal to the selector 60 so that the selector 60 selects and outputs the input A. When outputting interpolation data in the interpolation line, the CPU 12 Outputs a selection signal to the selector 60 so as to select and output the input B.

また、CPU12は、図4で説明したように実データラインにおける補間データを出力させる場合には、端子a,bから補間演算に必要な係数(1,0)又は(3/4,1/4)を出力し、補間ラインにおける補間データを出力させる場合には、[数2]に示したように、端子b,cから補間演算に必要な係数(1/2,1/2)又は(1/4,3/4)を出力する。   Further, when outputting the interpolation data in the actual data line as described with reference to FIG. 4, the CPU 12 uses the coefficient (1, 0) or (3/4, 1/4) necessary for the interpolation calculation from the terminals a and b. ) And the interpolation data in the interpolation line is output, as shown in [Equation 2], the coefficients (1/2, 1/2) or (1 / 4, 3/4) is output.

即ち、CPU12は、乗算器56、57にそれぞれラインn+1、n+2のG信号が入力される場合には、乗算器56、57にそれぞれ係数1/2、1/2を出力し、乗算器56、57にそれぞれラインn+1、n+2のRB信号が入力される場合には、乗算器56、57にそれぞれ係数1/4、3/4を出力する。そして、乗算器56,57での乗算結果は、それぞれ加算器59に加えれ、ここで加算されてセレクタ60のB入力に出力される。   That is, when the G signals on the lines n + 1 and n + 2 are input to the multipliers 56 and 57, the CPU 12 outputs the coefficients 1/2 and 1/2 to the multipliers 56 and 57, respectively. When the RB signals of lines n + 1 and n + 2 are input to 57, the coefficients 1/4 and 3/4 are output to the multipliers 56 and 57, respectively. The multiplication results in the multipliers 56 and 57 are respectively added to the adder 59, where they are added and output to the B input of the selector 60.

この補間処理部では、1ライン分のCCDデータが取り込まれると、実データラインにおける補間データの演算と、補間ラインにおける補間データの演算とを行い、複数ライン(2ライン)分の補間データを出力するようにしている。   In this interpolation processing unit, when CCD data for one line is fetched, the interpolation data for the actual data line and the interpolation data for the interpolation line are calculated, and the interpolation data for a plurality of lines (two lines) is output. Like to do.

尚、この実施の形態では、CCD10をムービー駆動する際にCCD10から垂直方向の画素情報を1/2間引きで読み出す場合について説明したが、このCCD10は、垂直方向にG画素、R画素、及びB画素が一列に配列されているため、奇数間引き、偶数間引きのいずれの間引き系で読み出すようにしてもよく、任意の間引き率で間引くことができる。   In this embodiment, the case where the pixel information in the vertical direction is read from the CCD 10 by 1/2 thinning when the CCD 10 is movie-driven has been described. However, the CCD 10 has a G pixel, an R pixel, and a B pixel in the vertical direction. Since the pixels are arranged in a line, the data may be read out by either an odd thinning system or an even thinning system, and thinning can be performed at an arbitrary thinning rate.

いま、間引きを1/Nとし、Gラインを基準にすると、実データラインにおける補正データは、次式で表すことができる。
[数4]
G=Gn
R=(Rn ×(N×2−1)+Rn+1 )/(N×2)
B=(Bn ×(N×2−1)+Bn+1 )/(N×2)
但し、間引き:1/N
また、実データライン間に任意の本数の補間ラインを挿入することができる。この場合の任意の補間ラインにおける補正データは、次式で表すことができる。
[数5]
G=(Gn ×(M−L)+Gn+1 ×L)/M
R=Rn ×{(N−1)/N×2+L/M}
+Rn+1 ×{(N+1)/N×2+(M−L)/M}
B=Bn ×{(N−1)/N×2+L/M}
+Bn+1 ×{(N+1)/N×2+(M−L)/M}
但し、間引き:1/N
M倍ライン補間(M−1ライン挿入)
L=1〜M−1 :L≦N×2の時
L=1−in(M/N)〜M−1〜int (M/N):L>N×2の時
Now, assuming that the thinning is 1 / N and the G line is used as a reference, the correction data in the actual data line can be expressed by the following equation.
[Equation 4]
G = G n
R = (R n × (N × 2-1) + R n + 1) / (N × 2)
B = ( Bn * (N * 2-1) + Bn + 1 ) / (N * 2)
However, thinning: 1 / N
In addition, an arbitrary number of interpolation lines can be inserted between actual data lines. In this case, correction data in an arbitrary interpolation line can be expressed by the following equation.
[Equation 5]
G = ( Gn * (ML) + Gn + 1 * L) / M
R = R n × {(N -1) / N × 2 + L / M}
+ R n + 1 × {(N + 1) / N × 2 + (ML) / M}
B = Bn * {(N-1) / N * 2 + L / M}
+ B n + 1 × {(N + 1) / N × 2 + (ML) / M}
However, thinning: 1 / N
M times line interpolation (M-1 line insertion)
L = 1 to M−1: When L ≦ N × 2 L = 1−in (M / N) to M−1 to int (M / N): When L> N × 2

図1は本発明に係る画像信号処理装置を含む撮像装置の実施の形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of an imaging apparatus including an image signal processing apparatus according to the present invention. 図2(A)及び(B)はそれぞれCCDから読み出されたラインn、n+1における点順次のRGB信号と補間処理後のRGB信号とを示す図である。FIGS. 2A and 2B are diagrams showing dot-sequential RGB signals on lines n and n + 1 read from the CCD and RGB signals after interpolation processing, respectively. 図3は本発明に係る補間処理を説明するために用いたCCDのRGB画素の空間位置関係を示す図である。FIG. 3 is a diagram showing the spatial positional relationship of the RGB pixels of the CCD used for explaining the interpolation processing according to the present invention. 図4は信号処理回路内の補間処理部の実施の形態を示すの要部ブロック図である。FIG. 4 is a principal block diagram showing an embodiment of the interpolation processing unit in the signal processing circuit. 図5は信号処理回路内の補間処理部の他の実施の形態を示すの要部ブロック図である。FIG. 5 is a principal block diagram showing another embodiment of the interpolation processing unit in the signal processing circuit. 図6はハニカム配列を有する固体撮像素子の概略構成図である。FIG. 6 is a schematic configuration diagram of a solid-state imaging device having a honeycomb arrangement. 図7(A)及び(B)はそれぞれCCDから読み出されたラインn、n+1における点順次のRGB信号と従来の補間処理後のRGB信号とを示す図である。FIGS. 7A and 7B are diagrams showing dot sequential RGB signals on lines n and n + 1 read from the CCD and RGB signals after conventional interpolation processing, respectively.

符号の説明Explanation of symbols

10…固体撮像素子(CCD)、11…受光セル、12…中央処理装置(CPU)、16…信号処理回路、34…タイミングジェネータ、36…CCDドライバ、50、52、53…ラインメモリ、54、56、57…乗算器、58、59…加算器、60…セレクタ、100…撮像装置(デジタルカメラ)   DESCRIPTION OF SYMBOLS 10 ... Solid-state image sensor (CCD), 11 ... Light receiving cell, 12 ... Central processing unit (CPU), 16 ... Signal processing circuit, 34 ... Timing generator, 36 ... CCD driver, 50, 52, 53 ... Line memory, 54 , 56, 57 ... multipliers, 58, 59 ... adders, 60 ... selectors, 100 ... imaging devices (digital cameras)

Claims (5)

R、G、Bの何れか1色のカラーフィルタがそれぞれ割り当てられた複数の画素が2次元配列された固体撮像素子であって、各画素が相互に斜め45度の位置関係に配列されるとともに、水平方向にG画素のみからなるGラインと水平方向にR画素とB画素とが交互に繰り返すRBラインとが垂直方向に繰り返してなる固体撮像素子と、
前記固体撮像素子にて互いに隣接する前記Gラインと前記RBラインとから画素ごとに交互に画素情報を読み出して、互いに隣接する前記Gラインの画素情報及び前記RBラインの画素情報を1読出ライン分の画素情報として出力する読出手段と、
前記Gライン及び前記RBラインのうちいずれか一方を第1ラインとして他方を第2ラインとし、前記固体撮像素子上の垂直方向の空間位置が互いに異なる一の読出ライン及び他の読出ラインにおける前記第2ラインの垂直方向の空間位置に応じて、前記一の読出ライン及び前記他の読出ラインにおける前記第2ラインの画素情報を重み付けして演算することで、前記各読出ラインの前記第2ラインの画素情報を補正する補正手段であって、前記各読出ラインにて補正後の前記第2ラインの画素情報が前記第1ラインの垂直方向の空間位置に対応する画素情報になる重み付けを行う補正手段と、
を備えたことを特徴とする画像信号処理装置。
A solid-state imaging device in which a plurality of pixels each assigned with a color filter of any one of R, G, and B are two-dimensionally arranged, and the pixels are arranged in a 45-degree oblique positional relationship with each other A solid-state imaging device in which a G line including only G pixels in the horizontal direction and an RB line in which R pixels and B pixels are alternately repeated in the horizontal direction are repeated in the vertical direction;
Wherein by alternately read out pixel information from the G line and the RB line for each pixel, the G line pixel information and the RB line pixel information one reading of the adjacent adjacent to each other in the solid- Reading means for outputting pixel information for a line ;
Wherein in the G line and the either of the RB line other was a second line as a first line, wherein the solid space position in the vertical direction on the imaging element are different from one each other read lines and other read line the According to the vertical spatial position of the two lines, the pixel information of the second line in the one readout line and the other readout line is weighted and calculated, thereby calculating the second line of each readout line. Correcting means for correcting pixel information, wherein the pixel information of the second line after correction in each readout line is weighted to become pixel information corresponding to a vertical spatial position of the first line. When,
An image signal processing apparatus comprising:
前記補正手段は、前記一の読出ラインにおける前記第2ラインの画素情報をD1、前記他の読出ラインにおける前記第2ラインの画素情報をD2、前記一の読出ラインにおける前記第1ラインと前記一の読出ラインにおける前記第2ラインとの垂直方向の空間位置の差をa、前記一の読出ラインにおける前記第1ラインと前記他の読出ラインにおける前記第2ラインとの垂直方向の空間位置の差をbとしたとき、前記一の読出ラインにおける前記第2ラインの補正後の画素情報Dを、数式{D=(D1×a+D2×b)/(a+b)}により算出することを特徴とする請求項1に記載の画像信号処理装置。The correction means includes pixel information of the second line in the one readout line as D1, pixel information of the second line in the other readout line as D2, and the first line and the one in the one readout line. The difference in vertical spatial position with respect to the second line in the read line is a, and the difference in vertical spatial position between the first line in the one read line and the second line in the other read line The pixel information D after the correction of the second line in the one readout line is calculated by the formula {D = (D1 × a + D2 × b) / (a + b)}, where b is. Item 2. The image signal processing device according to Item 1. 前記読出手段は、ムービー駆動時に前記固体撮像素子から垂直方向の画素情報を間引いて読み出すことを特徴とする請求項1または2に記載の画像信号処理装置。 3. The image signal processing apparatus according to claim 1, wherein the reading unit reads out pixel information in the vertical direction from the solid-state image pickup device when driving a movie. 4. 前記固体撮像素子は、垂直方向にG画素、R画素、及びB画素が一列に配列されていることを特徴とする請求項1ないし3のいずれか1項に記載の画像信号処理装置。 The solid-state imaging device, G pixels in the vertical direction, R pixels and B pixels image signal processing apparatus according to any one of 3 claims 1, characterized in that it is arranged in a row. 前記補正手段は、前記固体撮像素子の垂直方向にて前記各読出ラインの間に位置し且つデータ上にて前記読出ラインの間に挿入される補間ラインの画素情報を前記各読出ラインの画素情報に基づいて補間演算するものであって、前記補間ラインの垂直方向の空間位置と、前記各読出ラインの垂直方向の同じ色の画素の垂直方向の空間位置とに基づいて重み付け補間を行なうことを特徴とする請求項に記載の画像信号処理装置。 Wherein the correction means, the pixel information of the interpolation line to be inserted between the reading lines the position to and at data on during each read line in the vertical direction of the solid-state imaging device, the pixels in each read line Interpolation calculation is performed based on information, and weighted interpolation is performed based on a vertical spatial position of the interpolation line and a vertical spatial position of pixels of the same color in the vertical direction of each readout line. The image signal processing apparatus according to claim 3 .
JP2004217229A 2004-07-26 2004-07-26 Image signal processing device Expired - Fee Related JP4478934B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004217229A JP4478934B2 (en) 2004-07-26 2004-07-26 Image signal processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004217229A JP4478934B2 (en) 2004-07-26 2004-07-26 Image signal processing device

Publications (2)

Publication Number Publication Date
JP2006041799A JP2006041799A (en) 2006-02-09
JP4478934B2 true JP4478934B2 (en) 2010-06-09

Family

ID=35906337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004217229A Expired - Fee Related JP4478934B2 (en) 2004-07-26 2004-07-26 Image signal processing device

Country Status (1)

Country Link
JP (1) JP4478934B2 (en)

Also Published As

Publication number Publication date
JP2006041799A (en) 2006-02-09

Similar Documents

Publication Publication Date Title
JP5108802B2 (en) Imaging apparatus and through image display method thereof
JP5207853B2 (en) Still image and moving image imaging apparatus
JP4951440B2 (en) Imaging apparatus and solid-state imaging device driving method
US20060050956A1 (en) Signal processing apparatus, signal processing method, and signal processing program
JP4600315B2 (en) Camera device control method and camera device using the same
JP5068158B2 (en) Imaging device
JP5381142B2 (en) Imaging device and imaging apparatus
JP2007274599A (en) Imaging apparatus
JP5033711B2 (en) Imaging device and driving method of imaging device
JP3902525B2 (en) Image signal processing device
JPH09238355A (en) Method for eliminating line noise of image pickup device and line noise elimination device using it
JP3967853B2 (en) Solid-state imaging device and signal readout method
JP4133283B2 (en) Image processing apparatus, image processing method, and digital still camera
JP4393242B2 (en) Solid-state imaging device and driving method of solid-state imaging device
JP4246018B2 (en) Electronic camera device and image processing method thereof
JP4048615B2 (en) Pixel number conversion device and digital camera device
JP4478934B2 (en) Image signal processing device
JP2005217955A (en) Imaging device, its control method, program, and storage medium
JP2006262382A (en) Image processing apparatus
JP2005020276A (en) Solid-state image pickup element and image pickup device
JP3909930B2 (en) Single plate color solid-state imaging device
JP4984517B2 (en) Imaging unit and imaging apparatus
JP2005020275A (en) Image pickup apparatus
JP2005303653A (en) Image pickup device
JP2008252935A (en) Image pickup device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061226

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090723

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100219

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees