JP3988760B2 - Solid-state imaging device - Google Patents

Solid-state imaging device Download PDF

Info

Publication number
JP3988760B2
JP3988760B2 JP2004237152A JP2004237152A JP3988760B2 JP 3988760 B2 JP3988760 B2 JP 3988760B2 JP 2004237152 A JP2004237152 A JP 2004237152A JP 2004237152 A JP2004237152 A JP 2004237152A JP 3988760 B2 JP3988760 B2 JP 3988760B2
Authority
JP
Japan
Prior art keywords
signal
solid
imaging device
long
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004237152A
Other languages
Japanese (ja)
Other versions
JP2004357335A (en
Inventor
博也 日下
茂生 阪上
知章 塘
正明 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004237152A priority Critical patent/JP3988760B2/en
Publication of JP2004357335A publication Critical patent/JP2004357335A/en
Application granted granted Critical
Publication of JP3988760B2 publication Critical patent/JP3988760B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本発明は、撮影画像のダイナミックレンジ拡大が可能な固体撮像装置に関するものである。   The present invention relates to a solid-state imaging device capable of expanding a dynamic range of a captured image.

従来から、露光量の異なる2つの画像信号を合成してダイナミックレンジの広い映像信号を得るための固体撮像装置としては、例えば、特許文献1及び特許文献2で開示されているものがある。   Conventionally, as a solid-state imaging device for synthesizing two image signals having different exposure amounts to obtain a video signal having a wide dynamic range, for example, there are those disclosed in Patent Document 1 and Patent Document 2.

特許文献1においては、露光時間を変えて撮影した連続する2枚のフィールド画像をそれぞれレベルシフトさせた後、1フレームの画像に合成することでダイナミックレンジの広い画像を得ることが可能なデジタルスチルカメラが開示されている。   In Patent Document 1, a digital still that can obtain an image having a wide dynamic range by level-shifting two consecutive field images taken with different exposure times and then combining them with one frame image. A camera is disclosed.

また、特許文献2においては、複数のCCDから得られる露光時間の異なった複数のフレーム画像をそれぞれレベルシフトさせた後、1フレームの画像に合成することでダイナミックレンジの広い画像を得ることが可能なデジタルスチルカメラが開示されている。   Further, in Patent Document 2, it is possible to obtain an image with a wide dynamic range by level-shifting a plurality of frame images obtained from a plurality of CCDs with different exposure times and then combining them with one frame image. A digital still camera is disclosed.

他にも、1フィールド期間内に長時間露光信号と短時間露光信号を読み出し可能な特殊なCCDを用いてダイナミックレンジを拡大したビデオカメラの例が知られている(非特許文献1)。
特開平9−214829号公報 特開平9−275527号公報 映像メディア学会技術報告Vol.22,No.3,pp1〜6(1998)”単板Hyper-Dカラーカメラ信号処理方式の開発”
In addition, an example of a video camera in which the dynamic range is expanded using a special CCD that can read out a long exposure signal and a short exposure signal within one field period is known (Non-Patent Document 1).
JP-A-9-214829 JP-A-9-275527 ITE Technical Report Vol.22, No.3, pp1-6 (1998) “Development of single-panel Hyper-D color camera signal processing method”

しかしながら、例えば特許文献1にて開示されているデジタルスチルカメラにおいては、露光時間を変えて撮影した連続する2枚のフィールド画像を合成するため、合成後の画像は1フィールド分の画像解像度、つまりCCDの画素数の半分の解像度しか得られず、撮影画像の解像度不足が懸念される。   However, in the digital still camera disclosed in Patent Document 1, for example, since two continuous field images shot with different exposure times are combined, the combined image has an image resolution of one field, that is, Only half the number of pixels of the CCD can be obtained, and there is a concern that the resolution of the captured image is insufficient.

これに対し、特許文献2にて開示されているデジタルスチルカメラにおいては、複数のCCDにより撮影された露光時間の異なる画像信号を合成するために、合成後の画像は1フレーム分の画像解像度、つまりCCDの画素数分の解像度が得られるが、CCDが複数個必要となり撮像装置のサイズ、コストの面で不利となる。   On the other hand, in the digital still camera disclosed in Patent Document 2, in order to synthesize image signals with different exposure times taken by a plurality of CCDs, the synthesized image has an image resolution of one frame, That is, although the resolution corresponding to the number of pixels of the CCD can be obtained, a plurality of CCDs are required, which is disadvantageous in terms of the size and cost of the imaging device.

また、非特許文献1で報告済みの撮像装置の場合は撮影画像のダイナミックレンジ拡大には特殊なCCDが必要となる。
本発明は以上の問題に鑑みてなされたものであり、民生用固体撮像装置に一般的に用いられる固体撮像素子を1個用いることで安価で、且つCCDの画素数並みの画像解像度でダイナミックレンジを拡大した画像を撮影可能な固体撮像装置を提供することを目的とする。
In addition, in the case of the imaging apparatus already reported in Non-Patent Document 1, a special CCD is required to expand the dynamic range of the captured image.
The present invention has been made in view of the above problems, and is inexpensive by using one solid-state imaging device generally used in a consumer solid-state imaging device, and has a dynamic range with an image resolution comparable to the number of pixels of a CCD. An object of the present invention is to provide a solid-state imaging device capable of capturing an image with an enlarged image.

本願の請求項記載の発明は、行列状に配置された複数個のホトダイオードと、前記ホトダイオード上に蓄積された電荷を外部に出力するための転送手段を有する固体撮像素子と、前記ホトダイオードに入射する光を遮光する遮光手段と、前記固体撮像素子から出力される画像信号を合成する信号合成手段と、を有し、前記固体撮像素子は、第1露光として前記ホトダイオード上に蓄積された電荷の一部のみを第1の読み出し制御パルスの印加後に前記転送手段を介して出力し、更に、前記第1の読み出し制御パルス印加後、前記遮光手段による露光終了をもって完了する第2露光において前記ホトダイオード上に蓄積された電荷を第2の読み出し制御パルスの印加後に前記転送手段を介して出力し、前記信号合成手段は、前記第1露光及び前記第2露光により撮影され、それぞれ前記転送手段を介して出力される画像信号を合成することを特徴とするものである。 The invention of the first aspect, a plurality of photodiodes arranged in a matrix, and the solid-state image sensor having a transfer means for outputting a charge accumulated on the photodiode to the outside, incident on the photodiode Light shielding means for shielding the light to be transmitted, and signal synthesis means for synthesizing the image signal output from the solid-state imaging device, wherein the solid-state imaging device is configured to store the charge accumulated on the photodiode as the first exposure. Only a part is output via the transfer means after application of the first readout control pulse, and after the application of the first readout control pulse, on the photodiode in the second exposure that is completed upon completion of exposure by the light shielding means. The charge accumulated in the first readout control pulse is output via the transfer means after the application of the second readout control pulse, and the signal synthesis means Captured by the serial second exposure, it is characterized in synthesizing the image signals output respectively through said transfer means.

本願の請求項記載の発明は、行列状に配置された複数個のホトダイオードと、前記ホトダイオード上に蓄積された電荷を外部に出力するための転送手段を有する固体撮像素子と、前記ホトダイオードに入射する光を遮光する遮光手段と、前記固体撮像素子から出力される画像信号を合成する信号合成手段と、を有し、前記固体撮像素子は、第1露光として前記ホトダイオード上に蓄積された電荷を第1の読み出し制御パルスの印加後にフィールド読み出しにより前記転送手段を介して出力し、更に、前記第1の読み出し制御パルス印加後、前記遮光手段による露光終了をもって完了する第2露光において前記ホトダイオード上に蓄積された電荷を第2の読み出し制御パルスの印加後に前記転送手段を介して出力し、前記信号合成手段は、前記第1露光及び前記第2露光により撮影され、それぞれ前記転送手段を介して出力される画像信号を合成することを特徴とし、かつ前記第1露光により撮影された画像信号は、前記第2露光により撮影された画像信号に比べ画素数の少ない画像であることを特徴とするものである。

The invention according to claim 2 of the present application includes a plurality of photodiodes arranged in a matrix, a solid-state imaging device having transfer means for outputting charges accumulated on the photodiodes to the outside, and incident on the photodiodes Light shielding means for shielding the light to be transmitted, and signal synthesis means for synthesizing the image signal output from the solid-state imaging device, and the solid-state imaging device uses the charge accumulated on the photodiode as the first exposure. After application of the first readout control pulse, output is performed via the transfer means by field readout. Further, after application of the first readout control pulse, the second exposure is completed upon completion of exposure by the light shielding means on the photodiode. The accumulated charge is output via the transfer means after application of the second readout control pulse, and the signal synthesis means The image signals photographed by the first exposure and the second exposure are respectively combined with the image signals output via the transfer means, and the image signals photographed by the first exposure are obtained by the second exposure. The present invention is characterized in that the image has fewer pixels than the photographed image signal.

本発明によれば、固体撮像素子の露光及び信号読み出しモードを制御し、1フィールド分の短時間露光信号と1フレーム分の長時間露光信号を撮影しこれらを合成することで、固体撮像素子の画素数並みの解像度を持ちながらもダイナミックレンジが拡大された画像を撮影することができる。さらに本固体撮像装置で使用する固体撮像素子には、民生用固体撮像装置で一般に用いられているIT−CCDが使用可能であるため、複数の固体撮像素子や特殊な固体撮像素子を使用する必要がなく、安価に装置を構成することができる。 According to the present invention, the exposure and signal readout mode of the solid-state imaging device is controlled, and a short-time exposure signal for one field and a long-time exposure signal for one frame are photographed and synthesized. It is possible to shoot an image with an increased dynamic range while having a resolution equivalent to the number of pixels. Furthermore, as the solid-state image pickup device used in the solid-state image pickup device, an IT-CCD generally used in a consumer solid-state image pickup device can be used. Therefore, it is necessary to use a plurality of solid-state image pickup devices or special solid-state image pickup devices. Therefore, the apparatus can be configured at low cost.

(実施の形態1)
図1は、本発明の実施の形態1における固体撮像装置のブロック図である。同図において、1は光学レンズ、2は光学絞りと兼用の機械シャッター、3は固体撮像素子であり、本実施の形態1においては民生用固体撮像装置で一般に用いられているインタライン転送CCD(IT−CCD)であるとする。4は相関二重サンプリング回路と自動利得制御(AGC)回路から構成されるアナログ信号処理手段、5はA/D変換手段、6はA/D変換手段5によりデジタル信号に変換された画像信号を記憶する画像メモリである。7は画像メモリ6から読み出される2系統の画像信号を合成する信号合成手段である。
(Embodiment 1)
FIG. 1 is a block diagram of the solid-state imaging device according to Embodiment 1 of the present invention. In the figure, 1 is an optical lens, 2 is a mechanical shutter that also serves as an optical diaphragm, and 3 is a solid-state image sensor. In the first embodiment, an interline transfer CCD (commonly used in a consumer solid-state image pickup device) IT-CCD). 4 is an analog signal processing means comprising a correlated double sampling circuit and an automatic gain control (AGC) circuit, 5 is an A / D conversion means, and 6 is an image signal converted into a digital signal by the A / D conversion means 5. An image memory to be stored. Reference numeral 7 denotes a signal synthesis means for synthesizing two systems of image signals read from the image memory 6.

信号合成手段7で得られた信号はデジタル信号処理手段8において、輝度信号と色信号の分離、ノイズ除去、エッジ強調、マトリクス演算、特定のフォーマットへのエンコード等の処理が施される。また機械シャッター駆動制御手段9は機械シャッター2の開閉の制御を行う手段であり、固体撮像素子駆動制御手段10は固体撮像素子3の露光制御や信号読み出しのモード、タイミング等を制御する手段である。なおこれらを含め上記すべての構成要素の動作モードや動作タイミングはシステム制御手段11により統合的に制御されるものとする。   The signal obtained by the signal synthesizing unit 7 is subjected to processing such as separation of the luminance signal and color signal, noise removal, edge enhancement, matrix calculation, and encoding to a specific format in the digital signal processing unit 8. The mechanical shutter drive control means 9 is a means for controlling the opening and closing of the mechanical shutter 2, and the solid-state image sensor drive control means 10 is a means for controlling exposure control, signal readout mode, timing, etc. of the solid-state image sensor 3. . It is assumed that the operation mode and operation timing of all the components including these are controlled by the system control means 11 in an integrated manner.

図2(a)、(b)、(c)、(d)は、固体撮像素子3の動作、構成を説明するための模式図である。なお本発明の実施の形態1において固体撮像素子3は、フィールド読み出しモードとフレーム読み出しモードの2つの読み出しモードで信号を読み出すことが可能なインタライン転送CCD(IT−CCD)であり、説明の便宜上、図2のような垂直4画素、水平2画素のいわゆる4×2画素の構成で説明する。   2A, 2 </ b> B, 2 </ b> C, and 2 </ b> D are schematic diagrams for explaining the operation and configuration of the solid-state imaging device 3. In the first embodiment of the present invention, the solid-state imaging device 3 is an interline transfer CCD (IT-CCD) that can read out signals in two readout modes, a field readout mode and a frame readout mode. The description will be made with a so-called 4 × 2 pixel configuration of 4 vertical pixels and 2 horizontal pixels as shown in FIG.

図2(a)、(b)は、IT−CCDにおけるフィールド読み出しモードを説明するための図である。図2(a)において、ホトダイオードは光電変換により光の強さに応じた信号電荷が蓄積される部分であり、一定時間の後、印加される制御パルスによってこの蓄積された電荷は垂直転送CCDに移動する。このとき隣接する上下2つのホトダイオードの電荷が垂直転送CCD上で混合され、水平転送CCDを介して外部に出力される。以上が第1フィールドの読み出し動作である。   FIGS. 2A and 2B are diagrams for explaining the field readout mode in the IT-CCD. In FIG. 2A, a photodiode is a portion in which signal charges corresponding to the intensity of light are accumulated by photoelectric conversion. After a predetermined time, the accumulated charges are applied to a vertical transfer CCD by an applied control pulse. Moving. At this time, charges of two adjacent upper and lower photodiodes are mixed on the vertical transfer CCD and output to the outside via the horizontal transfer CCD. The above is the read operation of the first field.

第2フィールドは、図2(b)に示すように、垂直転送CCD上で混合されるホトダイオードのペアが第1フィールドの場合比べ垂直方向に1画素ずれる。これにより2フィールド分の信号読み出しにより、インタレース方式の1フレームに相当する画像信号を読み出すことができる。   In the second field, as shown in FIG. 2B, the pair of photodiodes mixed on the vertical transfer CCD is shifted by one pixel in the vertical direction compared to the case of the first field. Thus, an image signal corresponding to one frame of the interlace method can be read out by reading out signals for two fields.

次に、図2(c)、(d)を用いてフレーム読み出しモードについて説明する。フレーム読み出しモードではまず第1フィールドにおいて(図2(c))、垂直方向に1画素飛ばしでホトダイオードに蓄積された電荷が垂直転送CCDに転送され、これが水平転送CCDを介して外部に出力される。そして第2フィールドにおいて(図2(d))は、第1フィールドで垂直転送CCDに転送されなかったホトダイオードの電荷が垂直転送CCDに転送され、これが水平転送CCDを介して外部に出力される。このようにフレーム読み出しモードではホトダイオード上の電荷が垂直転送CCDで混合されることなく、外部に出力される。これにより2フィールド分の信号読み出しにより、インタレース方式の1フレームに相当する画像信号を読み出すことができる。   Next, the frame reading mode will be described with reference to FIGS. In the frame readout mode, first, in the first field (FIG. 2 (c)), the charge accumulated in the photodiode is transferred to the vertical transfer CCD by skipping one pixel in the vertical direction, and this is output to the outside through the horizontal transfer CCD. . In the second field (FIG. 2 (d)), the charge of the photodiode that has not been transferred to the vertical transfer CCD in the first field is transferred to the vertical transfer CCD, and this is output to the outside via the horizontal transfer CCD. Thus, in the frame readout mode, the charges on the photodiode are output to the outside without being mixed by the vertical transfer CCD. Thus, an image signal corresponding to one frame of the interlace method can be read out by reading out signals for two fields.

図3は、固体撮像素子3上に形成される補色市松タイプのカラーフィルター配列図である。図3中、Mgはマゼンタ、Gはグリーン、Yeはイエロー、Cyはシアンの各色を表す。図3に示す通りフォトダイオード1画素に対し1色のカラーフィルターが対応している。   FIG. 3 is a complementary color checkered type color filter array diagram formed on the solid-state imaging device 3. In FIG. 3, Mg represents magenta, G represents green, Ye represents yellow, and Cy represents cyan. As shown in FIG. 3, one color filter corresponds to one pixel of the photodiode.

図4は、信号合成手段7の構成例を示すブロック図である。同図において701は画像メモリ6から出力される画像信号の2水平走査ライン分の画像信号を加算する2ライン加算手段である(なお以下、水平走査ラインに相当する画像信号を単に水平ラインもしくは水平ライン信号と称す)。702は画像メモリ6から出力される画像信号に対し垂直方向の補間処理を施す補間手段である。重み付け加算手段703は2水平ライン加算手段701と補間手段702の出力を重み付け加算する手段である。   FIG. 4 is a block diagram illustrating a configuration example of the signal synthesis unit 7. In the figure, reference numeral 701 denotes a two-line adding means for adding image signals for two horizontal scanning lines of the image signal output from the image memory 6 (hereinafter, the image signal corresponding to the horizontal scanning line is simply referred to as a horizontal line or a horizontal line). Called line signal). Reference numeral 702 denotes an interpolation unit that performs an interpolation process in the vertical direction on the image signal output from the image memory 6. The weighting addition means 703 is a means for weighting and adding the outputs of the two horizontal line addition means 701 and the interpolation means 702.

図5は、2水平ライン加算手段701の構成例を示すブロック図である。同図において70101は1ラインメモリであり画像メモリ6から出力された画像信号の1ライン分を1水平同期期間だけ遅延させる手段である。70102は加算器であり、1ラインメモリ70101において遅延させられた水平ライン信号と、2水平ライン加算手段701に入力する水平ライン信号とがこの加算器70102において加算されることで隣接する上下2ラインの加算が行われる。   FIG. 5 is a block diagram showing a configuration example of the two horizontal line addition means 701. In the drawing, reference numeral 70101 denotes a one-line memory, which is a means for delaying one line of the image signal output from the image memory 6 by one horizontal synchronization period. Reference numeral 70102 denotes an adder, and the horizontal line signal delayed in the 1-line memory 70101 and the horizontal line signal input to the 2-horizontal line adding means 701 are added in the adder 70102 so that two adjacent upper and lower lines are added. Is added.

図6は、補間手段702の構成を示すブロック図である。同図において70201、70202は1ラインメモリであり画像メモリ6から出力された画像信号の1ライン分を1水平同期期間だけ遅延させる手段である。70203、70204はアンプ手段であり、画像メモリ6からの入力信号及び1ラインメモリ70202の出力信号に対し一定のゲインを乗算する。70205は加算器であり、アンプ手段70203、70204でゲインを乗算された信号を加算する。   FIG. 6 is a block diagram illustrating a configuration of the interpolation unit 702. In the figure, reference numerals 70201 and 70202 denote one-line memories, which are means for delaying one line of the image signal output from the image memory 6 by one horizontal synchronization period. Reference numerals 70203 and 70204 denote amplifier means for multiplying the input signal from the image memory 6 and the output signal of the one-line memory 70202 by a certain gain. Reference numeral 70205 denotes an adder that adds the signals multiplied by the gains by the amplifier means 70203 and 70204.

図7は重み付け加算手段703の構成を示すブロック図である。同図において70301は合成係数発生手段であり、ここで2水平ライン加算手段701を経た信号の画素毎の信号レベルに応じてある係数k(1≧k≧0)を発生し、k及び1−kなる値を乗算器70302、70303に与える。乗算器70302、70303はk及び1−kを補間手段702を経た信号及び2水平ライン加算手段701を経た信号に乗算し、この結果は加算器70304にて加算され出力される。   FIG. 7 is a block diagram showing the configuration of the weighted addition means 703. In the figure, reference numeral 70301 denotes synthesis coefficient generation means, which generates a coefficient k (1 ≧ k ≧ 0) according to the signal level for each pixel of the signal that has passed through the two horizontal line addition means 701, and k and 1− The value k is supplied to multipliers 70302 and 70303. Multipliers 70302 and 70303 multiply k and 1-k by the signal that has passed through interpolation means 702 and the signal that has passed through 2 horizontal line addition means 701, and the result is added by adder 70304 and output.

以上のように構成された本発明の実施の形態1の固体撮像装置に関し、以下その動作を説明する。
本発明の実施の形態1においては、短時間露光信号(以下これをshort信号と称す)と長時間露光信号(以下これをlong信号と称す)の2つの画像を撮影し、これを合成することでダイナミックレンジを拡大した画像を撮影することを特徴とする。このようなダイナミックレンジ拡大の原理を図8を用いて説明する。図8(a)、(b)は露光時の被写体の明るさ(固体撮像素子への入射光量)と固体撮像素子から出力される信号量の関係を示すものである。図8(a)に示すように長時間露光時は入射光により固体撮像素子のホトダイオード上に発生する電荷量が大きく、当然のことながら出力される信号量も大きくなる。しかしホトダイオードに蓄積される電荷量には上限が存在し、この上限を超えると飽和、つまり信号がつぶれてしまう現象が発生し、被写体像を正確に再現することができない。逆に図8(b)に示すように露光時間を短く設定すれば飽和を回避することは可能であるが、今度は被写体内の低輝度部分のS/Nが劣化する。そこで長時間露光により得られた信号(long信号)と短時間露光で得られた信号(short信号)を用いて、低輝度部はlong信号、高輝度部はshort信号からなる画像を合成すれば、被写体の低輝度部から高輝度部までを再現でき、撮像装置のダイナミックレンジを拡大することが可能となる。この際に、short信号にはlong信号との露光量の比(露光時間の比)に相当するゲインを乗じた後(図8(c))に合成を行えば図8(d)に示すように露光量の比に応じたダイナミックレンジの拡大が実現できる。例えばlong信号とshort信号の露光量比(露光時間比)が1:Dの場合、ダイナミックレンジはD倍に拡大可能である。
以下、上記の原理に従って撮影画像のダイナミックレンジを拡大可能な撮像装置の具体例に関し説明する。
まず、short信号とlong信号の撮影方法に関し図9を用いて説明する。図9は固体撮像素子3における被写体像の露光及び露光した信号の読み出しに関するタイミングチャートである。同図において(a)は垂直方向の同期信号、(b)は固体撮像素子3のホトダイオードからの信号電荷読み出しを制御する読み出し制御パルス、(c)は機械シャッター2の開閉状態、(d)は固体撮像素子3のホトダイオード上の露光信号、(e)は固体撮像素子3から出力される信号を示す。
short信号の露光時は、機械シャッター2を開放状態にし、電子シャッター機能を用いて必要な露光時間、例えば1/1000秒間露光を行う。1/1000秒の露光が終了した後、読み出し制御パルスによりホトダイオード上の蓄積電荷は垂直転送CCDに移動させる。このとき固体撮像素子3はフィールド読み出しモードで駆動するものとし、図2(a)で説明したようにホトダイオード上の蓄積電荷を垂直転送CCD上で混合し、外部に読み出す。この際読み出す画像信号は第1フィールド分の信号のみとする。図10にフィールド読み出しモードで読み出されたshort信号を示す。なお固体撮像素子3の垂直方向のホトダイオードの数はN個(説明の便宜上、Nは偶数とするがこれに限るものではない。)とする。図10に示すように読み出されたshort信号はYe、Cy、G、Mgの4色の信号がそれぞれ加算されたYe+Mg、Cy+G、Ye+G、Cy+Mgの4種類の信号となる。またその垂直方向のライン数はホトダイオードの垂直方向の個数Nの1/2となる。
次に、short信号を読み出している間に、long信号の露光を行う。long信号の露光期間は例えば1/100秒とする。long信号の露光時間は機械シャッター2の開閉で制御するものとし、long信号の露光開始後1/100秒後に機械シャッター2を閉じ露光を完了する。このように機械シャッター2を閉じることで、長時間露光したその信号は読み出し中に余分に露光されることがない。
long信号の露光が完了すると読み出し制御パルスによりホトダイオード上の蓄積電荷は垂直転送CCDに転送される。このとき固体撮像素子3はフレーム読み出しモードで駆動するものとし、図2(c)で説明したように垂直方向の奇数ラインに相当するホトダイオードの電荷を第1フィールド分だけ読み出しを行う。第1フィールドの信号読み出し終了後に、今度は垂直方向の偶数ラインに相当するホトダイオードの電荷を読み出し(第2フィールド)、これによってlong信号は1フレームに相当する信号を固体撮像素子3から読み出す。なお、図9(a)に示した垂直同期信号の周期は例えば1/100秒とし、固体撮像素子3からの1フィールド分の信号読み出しは、垂直同期信号の1周期内で完了するものとする。図11にフレーム読み出しモードで読み出されたlong信号を示す。図11に示すように読み出されたlong信号は第1フィールドはYe、Cyの2色の信号となり、第2フィールドはG、Mgの2色の信号となる。またその垂直方向のライン数は各フィールドでホトダイオードの垂直方向の個数Nの1/2であり、2つのフィールドを合わせると1フレームに相当するNラインの信号となる。
以上のような露光及び信号読み出しを行うことで、露光時間の異なる2つの信号、つまり1フィールド画像であるshort信号と1フレーム画像であるlong信号を得ることが可能である。なお、short信号は水平ライン数がlong信号の1/2であるため、short信号はlong信号に比べ画素数の少ない信号となっている。
次に、固体撮像素子3で得られた露光時間の異なる2つの信号は、アナログ信号処理手段4を経てA/D変換手段5によりデジタル信号に変換され画像メモリ6に一旦記憶される。
画像メモリ6からはlong信号とshort信号が読み出される。なお、画像メモリ6からlong信号を読み出す際、long信号は第1フィールドの1ライン目、第2フィールドの1ライン目、第1フィールドの2ライン目、というように1フレーム画像としてみた場合の先頭ラインから順に読み出されることとする。画像メモリ6から読み出されたlong信号は2水平ライン加算手段701に送られる。2水平ライン加算手段701においては、フレーム信号としてみた場合に隣接する上下2ラインのlong信号が加算混合される。これはlong信号とshort信号を合成する際に、2つの信号の信号形式が異なると合成ができないためであり、よってlong信号に対しては2水平ライン加算手段701により、固体撮像素子3の垂直転送CCD上での画素混合と同一の処理を施し、short信号に対しては補間手段702により1フィールド画像を1フレーム画像に変換する。
図12(a)に2水平ライン加算手段701において隣接する上下2ラインの信号が加算混合された後のlong信号を、図12(b)に補間処理前のshort信号を、図12(c)に補間処理後のshort信号を示す。図12(a)と(c)に示すように、long信号に対する2水平ライン加算処理及びshort信号に対する補間処理によって、long信号とshort信号の信号形式が合致する。
補間手段702では、図12(b)に示すフィールド画像を補間処理により同図(c)に示すフレーム画像に変換するが、その方法について以下に説明する。
例えば図12(b)における第2ラインと第3ラインの間の水平ライン信号を補間処理により求める場合、Ye+G、Cy+Mgの信号からなる水平ライン信号をつくる必要がある。このとき最も近傍のYe+G、Cy+Mgの信号からなるラインは第2ラインと第4ラインであるため、この両者から補間処理により第2ラインと第3ラインの間のラインを求める。但し補間処理により水平ライン信号を求める位置と、第2ライン、第4ラインとの空間的距離は等距離ではないため、その距離に応じて重み付けが必要となる。そこで補間手段702においては、連続して入力される3ラインの水平ライン信号のうち中心を除く上下両端のラインが乗算器70203、70204に入力される構成であるため、この乗算器70203、70204で乗じる数をそれぞれ1/4、3/4として重み付けし、その乗算結果を加算器70205にて加算すればよい。
なお、乗算器70203、70204にて乗算される数は、補間処理により水平ライン信号を求める位置と、第2ライン、第4ラインとの空間的距離の比が1:3であることから決定する。
同様に、第3ラインと第4ラインの間の水平ライン信号を補間処理により求める場合、Ye+Mg、Cy+Gの信号からなる水平ライン信号をつくる必要がり、このとき最も近傍のYe+Mg、Cy+Gの信号からなるラインは第3ラインと第5ラインであるため、この両者との距離の比に応じた重み付けを行い、補間処理により第3ラインと第4ラインの間のラインを求めることができる。
The operation of the solid-state imaging device according to the first embodiment of the present invention configured as described above will be described below.
In Embodiment 1 of the present invention, two images of a short exposure signal (hereinafter referred to as a short signal) and a long exposure signal (hereinafter referred to as a long signal) are taken and synthesized. It is characterized by taking an image with an expanded dynamic range. The principle of such dynamic range expansion will be described with reference to FIG. FIGS. 8A and 8B show the relationship between the brightness of the subject at the time of exposure (the amount of light incident on the solid-state image sensor) and the signal amount output from the solid-state image sensor. As shown in FIG. 8A, during long exposure, the amount of charge generated on the photodiode of the solid-state image sensor by the incident light is large, and naturally the amount of signal output is also large. However, there is an upper limit on the amount of charge accumulated in the photodiode, and if this upper limit is exceeded, saturation occurs, that is, a signal is destroyed, and the subject image cannot be accurately reproduced. Conversely, if the exposure time is set short as shown in FIG. 8B, saturation can be avoided, but this time the S / N of the low-luminance portion in the subject deteriorates. Therefore, if a signal obtained by long exposure (long signal) and a signal obtained by short exposure (short signal) are used to synthesize an image consisting of a long signal for the low luminance part and a short signal for the high luminance part. Thus, it is possible to reproduce from the low-luminance portion to the high-luminance portion of the subject, and it is possible to expand the dynamic range of the imaging apparatus. At this time, if the short signal is multiplied by a gain corresponding to the ratio of exposure amount to the long signal (exposure time ratio) (FIG. 8 (c)), then synthesis is performed as shown in FIG. 8 (d). In addition, the dynamic range can be expanded according to the exposure amount ratio. For example, when the exposure amount ratio (exposure time ratio) between the long signal and the short signal is 1: D, the dynamic range can be expanded to D times.
Hereinafter, a specific example of an imaging apparatus capable of expanding the dynamic range of a captured image according to the above principle will be described.
First, a method of photographing short signals and long signals will be described with reference to FIG. FIG. 9 is a timing chart relating to exposure of a subject image and reading of an exposed signal in the solid-state imaging device 3. In the figure, (a) is a vertical synchronization signal, (b) is a readout control pulse for controlling signal charge readout from a photodiode of the solid-state image sensor 3, (c) is an open / close state of the mechanical shutter 2, and (d) is an open / close state. An exposure signal on the photodiode of the solid-state image sensor 3, (e) shows a signal output from the solid-state image sensor 3.
At the time of short signal exposure, the mechanical shutter 2 is opened, and exposure is performed for a necessary exposure time, for example, 1/1000 second using the electronic shutter function. After the exposure for 1/1000 second is completed, the accumulated charge on the photodiode is moved to the vertical transfer CCD by the read control pulse. At this time, the solid-state imaging device 3 is assumed to be driven in the field readout mode. As described with reference to FIG. 2A, the accumulated charges on the photodiode are mixed on the vertical transfer CCD and read out to the outside. At this time, only the image signal for the first field is read out. FIG. 10 shows a short signal read in the field read mode. Note that the number of photodiodes in the vertical direction of the solid-state imaging device 3 is N (for convenience of explanation, N is an even number, but is not limited thereto). As shown in FIG. 10, the read short signal is four signals of Ye + Mg, Cy + G, Ye + G, and Cy + Mg obtained by adding signals of four colors Ye, Cy, G, and Mg, respectively. It becomes. The number of lines in the vertical direction is 1/2 of the number N of photodiodes in the vertical direction.
Next, the long signal is exposed while the short signal is being read out. The exposure period of the long signal is, for example, 1/100 second. The exposure time of the long signal is controlled by opening / closing the mechanical shutter 2, and the mechanical shutter 2 is closed 1/100 seconds after the start of exposure of the long signal to complete the exposure. By closing the mechanical shutter 2 in this way, the signal exposed for a long time is not exposed excessively during reading.
When the exposure of the long signal is completed, the accumulated charge on the photodiode is transferred to the vertical transfer CCD by the read control pulse. At this time, the solid-state imaging device 3 is assumed to be driven in the frame readout mode, and as described with reference to FIG. 2C, the photodiode charge corresponding to the odd-numbered lines in the vertical direction is read out for the first field. After completing the signal reading of the first field, this time, the charge of the photodiode corresponding to the even-numbered line in the vertical direction is read (second field), and thereby the long signal reads the signal corresponding to one frame from the solid-state imaging device 3. Note that the period of the vertical synchronization signal shown in FIG. 9A is, for example, 1/100 second, and signal reading for one field from the solid-state imaging device 3 is completed within one period of the vertical synchronization signal. . FIG. 11 shows a long signal read in the frame reading mode. As shown in FIG. 11, in the long signal read out, the first field is a two-color signal of Ye and Cy, and the second field is a two-color signal of G and Mg. The number of lines in the vertical direction is ½ of the number N of photodiodes in the vertical direction in each field. When the two fields are combined, an N-line signal corresponding to one frame is obtained.
By performing the exposure and signal readout as described above, it is possible to obtain two signals having different exposure times, that is, a short signal that is one field image and a long signal that is one frame image. In addition, since the number of horizontal lines of the short signal is ½ that of the long signal, the short signal has a smaller number of pixels than the long signal.
Next, the two signals having different exposure times obtained by the solid-state imaging device 3 are converted into digital signals by the A / D conversion means 5 through the analog signal processing means 4 and temporarily stored in the image memory 6.
A long signal and a short signal are read from the image memory 6. When the long signal is read from the image memory 6, the long signal is the first line when viewed as a one-frame image such as the first line of the first field, the first line of the second field, the second line of the first field, and so on. It is assumed that data are read sequentially from the line. The long signal read from the image memory 6 is sent to the two horizontal line adding means 701. In the two horizontal line addition means 701, when viewed as a frame signal, long signals of two adjacent upper and lower lines are added and mixed. This is because when a long signal and a short signal are combined, if the signal formats of the two signals are different from each other, the combination cannot be performed. The same processing as the pixel mixing on the transfer CCD is performed, and for the short signal, one field image is converted into one frame image by the interpolation means 702.
FIG. 12 (a) shows a long signal after the signals of two adjacent upper and lower lines added and mixed in the two horizontal line addition means 701, FIG. 12 (b) shows a short signal before interpolation processing, and FIG. 12 (c). Shows the short signal after interpolation processing. As shown in FIGS. 12A and 12C, the signal formats of the long signal and the short signal are matched by the two horizontal line addition processing for the long signal and the interpolation processing for the short signal.
The interpolating means 702 converts the field image shown in FIG. 12 (b) into the frame image shown in FIG. 12 (c) by interpolation processing. The method will be described below.
For example, when the horizontal line signal between the second line and the third line in FIG. 12B is obtained by interpolation processing, it is necessary to create a horizontal line signal composed of Ye + G and Cy + Mg signals. At this time, since the nearest lines consisting of Ye + G and Cy + Mg signals are the second line and the fourth line, a line between the second line and the third line is obtained by interpolation processing from both. However, since the spatial distance between the position for obtaining the horizontal line signal by the interpolation process and the second line and the fourth line is not equal, weighting is required according to the distance. Therefore, the interpolation unit 702 has a configuration in which the upper and lower end lines except for the center of the three consecutively input horizontal line signals are input to the multipliers 70203 and 70204. The numbers to be multiplied may be weighted as 1/4 and 3/4, respectively, and the multiplication results may be added by an adder 70205.
Note that the number multiplied by the multipliers 70203 and 70204 is determined because the ratio of the spatial distance between the position where the horizontal line signal is obtained by interpolation processing and the second line and the fourth line is 1: 3. .
Similarly, when the horizontal line signal between the third line and the fourth line is obtained by interpolation processing, it is necessary to create a horizontal line signal composed of Ye + Mg and Cy + G signals. At this time, the nearest Ye + Mg Since the lines composed of Cy + G signals are the third line and the fifth line, weighting is performed according to the ratio of the distance between them, and the line between the third line and the fourth line is obtained by interpolation processing. Can be sought.

以上の処理により、1フレーム分のlong信号と、1フィールド分のshort信号から補間処理を経て得られた1フレームに相当する信号が生成される。   Through the above processing, a signal corresponding to one frame obtained by performing interpolation processing from a long signal for one frame and a short signal for one field is generated.

これらlong信号とshort信号を合成し、ダイナミックレンジを拡大した信号を合成する手段が、重み付け加算手段703である。重み付け加算手段703においては図7に示した合成係数発生手段70301によりlong信号の画素毎の信号レベルに応じた合成係数kを求め、この合成係数kに応じて1画素単位でlong信号と、画面上の同じ空間位置に存在する補間処理により1フレーム画像となったshort信号とを合成する。   Means for synthesizing the long signal and the short signal and synthesizing a signal with an expanded dynamic range is a weighted addition means 703. In the weighting and adding means 703, a synthesis coefficient k corresponding to the signal level of each pixel of the long signal is obtained by the synthesis coefficient generating means 70301 shown in FIG. 7, and the long signal and the screen are displayed in units of one pixel according to the synthesis coefficient k. The short signal that has become one frame image is synthesized by the interpolation processing existing at the same spatial position.

図13は合成係数発生手段70301におけるlong信号の信号レベルから画素ごとに合成係数kを求める方法の一例である。図13に示すように、long信号レベルに対し2つの閾値Th_minとTh_maxを設定し、long信号レベルが(数1)の場合、つまりlong信号の信号レベルがTh_min以下で飽和の可能性がない場合は合成係数kを0とし、longレベルが(数2)の場合、つまりlong信号レベルがTh_max以上で固体撮像素子の出力が飽和レベルに近いような場合、合成係数kを1とする。なお閾値Th_max、Th_minは使用する固体撮像素子の飽和特性やS/Nに応じて適宜決定する。   FIG. 13 shows an example of a method for obtaining the synthesis coefficient k for each pixel from the signal level of the long signal in the synthesis coefficient generating means 70301. As shown in FIG. 13, when two threshold values Th_min and Th_max are set for the long signal level and the long signal level is (Expression 1), that is, when the signal level of the long signal is equal to or less than Th_min and there is no possibility of saturation. The combination coefficient k is 0, and when the long level is (Expression 2), that is, when the long signal level is equal to or higher than Th_max and the output of the solid-state imaging device is close to the saturation level, the combination coefficient k is set to 1. Note that the threshold values Th_max and Th_min are appropriately determined according to the saturation characteristics and S / N of the solid-state imaging device to be used.

Figure 0003988760
Figure 0003988760

Figure 0003988760
Figure 0003988760

また、long信号レベルが(数3)の場合、つまりlong信号レベルが中間である場合には、図13に示すように合成係数kは(数4)の1次式で決定する。   Further, when the long signal level is (Expression 3), that is, when the long signal level is intermediate, the synthesis coefficient k is determined by the linear expression of (Expression 4) as shown in FIG.

Figure 0003988760
Figure 0003988760

Figure 0003988760
Figure 0003988760

以上のように求められた合成係数kを用いて、long信号とshort信号は画素毎に(数5)により合成される。long信号とshort信号を合成した信号を合成信号とする。   Using the synthesis coefficient k determined as described above, the long signal and the short signal are synthesized by (Equation 5) for each pixel. A signal obtained by combining the long signal and the short signal is defined as a combined signal.

Figure 0003988760
Figure 0003988760

例えば、図14に示すlong信号(Ye+Mg)L11と、この(Ye+Mg)L11と空間的位置が同じであるshort信号(Ye+Mg)S11から合成信号(Ye+Mg)M11を求める場合、long信号から決定される合成係数をk11とすると(数6)により合成が行われる。   For example, the combined signal (Ye + Mg) M11 is obtained from the long signal (Ye + Mg) L11 shown in FIG. 14 and the short signal (Ye + Mg) S11 having the same spatial position as this (Ye + Mg) L11. In this case, if the synthesis coefficient determined from the long signal is k11, the synthesis is performed according to (Equation 6).

Figure 0003988760
Figure 0003988760

合成信号の他の画素も(数6)と同様に、同じ空間的位置に存在するlong信号とshort信号から求められる。   Other pixels of the synthesized signal are also obtained from the long signal and the short signal existing at the same spatial position as in (Equation 6).

なお、(数5)及び(数6)においてshort信号に乗算される定数Dは、long信号とshort信号の露光量の比(露光時間の比)であり、例えばlong信号の露光量(露光時間)をTL、short信号の露光量(露光時間)をTSとすると、Dは(数7)で求められる。   The constant D multiplied by the short signal in (Equation 5) and (Equation 6) is the ratio of the exposure amount of the long signal to the short signal (exposure time ratio), for example, the exposure amount of the long signal (exposure time). ) Is TL, and the exposure amount (exposure time) of the short signal is TS, D is obtained by (Expression 7).

Figure 0003988760
Figure 0003988760

このようにlong信号とshort信号を用いて、long信号の信号レベルが閾値Th_min以下の部分はlong信号、同信号レベルが閾値Th_max以上つまり固体撮像素子3の出力が飽和するに近い部分(撮影画像の輝度が高く、普通ならば信号がつぶれるような部分)はshort信号、その中間の明るさの部分はlong信号とshort信号を重み付け加算した信号からなる合成信号を合成することで、撮影した画像信号のダイナミックレンジを拡大することが可能である。   In this way, using the long signal and the short signal, the portion where the signal level of the long signal is equal to or less than the threshold Th_min is a long signal, and the portion where the signal level is equal to or greater than the threshold Th_max, that is, the output of the solid-state imaging device 3 is close to saturation. The portion where the signal is high and the signal is crushed normally) is a short signal, and the intermediate brightness portion is a synthesized signal composed of a signal obtained by weighted addition of the long signal and the short signal. It is possible to expand the dynamic range of the signal.

但し、ダイナミックレンジ拡大がなされた合成信号のうち、long信号からなる部分は本来1フレームの画像信号であるため画像解像度が高い。これに対してshort信号からなる部分は1フィールドの画像信号から合成されるため、long信号からなる部分に比べ画像解像度は低い。しかし一般に、画面全体の信号レベルが飽和に近くなるような撮影条件はまれであり、そのような条件下でも、光学絞りを絞りこむなどして入射光量を制限するため画面全体の信号レベルが飽和に近いレベルとなることはなく、撮影画像の大半をshort信号からなる部分が占めることは実使用上あまり起こりえない。また、限られた階調で画像を表現する場合、高輝度部つまり信号レベルが高い部分は低・中輝度部に比べ、少なめに階調が割り当てられることが多い。このためshort信号からなる部分の解像度劣化はさほど目立たず、上記のような方法でlong信号とshort信号を合成してもCCDの画素数並みの解像度の合成画像が得られると考えられる。   However, of the synthesized signal whose dynamic range has been expanded, the portion consisting of the long signal is originally an image signal of one frame, so that the image resolution is high. On the other hand, since the portion consisting of the short signal is synthesized from the image signal of one field, the image resolution is lower than that of the portion consisting of the long signal. However, in general, shooting conditions that cause the signal level of the entire screen to approach saturation are rare, and even under such conditions, the signal level of the entire screen is saturated to limit the amount of incident light by narrowing the optical aperture. However, it is unlikely in practical use that the portion of the short signal occupies most of the photographed image. In addition, when an image is expressed with a limited gradation, a high gradation portion, that is, a portion with a high signal level, is often assigned a smaller gradation than a low / medium luminance portion. For this reason, the resolution degradation of the portion consisting of the short signal is not so conspicuous, and it is considered that even if the long signal and the short signal are synthesized by the method as described above, a synthesized image having a resolution equivalent to the number of pixels of the CCD can be obtained.

以上の通り、信号合成手段7において合成された合成信号は、デジタル信号処理手段8において輝度と色信号の分離、ノイズ除去、エッジ強調、ガンマ補正、マトリクス演算、特定のフォーマットへのエンコード等の処理が施される。デジタル信号処理手段8における信号処理に関しては本願発明の目的と直接は関係がないため詳細な説明は省略する。   As described above, the synthesized signal synthesized by the signal synthesizing unit 7 is processed by the digital signal processing unit 8 such as separation of luminance and color signals, noise removal, edge enhancement, gamma correction, matrix calculation, encoding to a specific format, and the like. Is given. Since the signal processing in the digital signal processing means 8 is not directly related to the object of the present invention, detailed description thereof is omitted.

以上のように、本発明の実施の形態1の固体撮像装置においては、固体撮像素子3の露光及び信号読み出しモードを制御し、1フィールド分の短時間露光信号と1フレーム分の長時間露光信号を撮影しこれらを合成することで、CCDの画素数並みの解像度を持ちながらダイナミックレンジも拡大された画像を撮影することができる。さらに本固体撮像装置で使用する固体撮像素子には、民生用固体撮像装置で一般に用いられているIT−CCDが使用可能であるため、複数の固体撮像素子や特殊な固体撮像素子を使用する必要がなく、安価に装置を構成することができる。   As described above, in the solid-state imaging device according to Embodiment 1 of the present invention, the exposure and signal readout modes of the solid-state imaging device 3 are controlled, and the short-time exposure signal for one field and the long-time exposure signal for one frame. By capturing these images and synthesizing them, it is possible to capture an image having a resolution equivalent to the number of pixels of the CCD and an expanded dynamic range. Furthermore, as the solid-state image pickup device used in the solid-state image pickup device, an IT-CCD generally used in a consumer solid-state image pickup device can be used. Therefore, it is necessary to use a plurality of solid-state image pickup devices or special solid-state image pickup devices. Therefore, the apparatus can be configured at low cost.

(実施の形態2)本発明の実施の形態2における固体撮像装置は、図1に示した本発明の実施の形態1に対し、重み付け加算手段(本実施の形態2では704と付番し区別する)の構成及び同手段でなされる処理が異なる。以下、本発明の実施の形態1と同様の処理内容部分に関しては説明は省略し、本発明の実施の形態1と異なる部分のみ説明する。   (Embodiment 2) The solid-state imaging device according to Embodiment 2 of the present invention is different from that of Embodiment 1 of the present invention shown in FIG. And the processing performed by the same means is different. Hereinafter, the description of the processing content portion similar to that of the first embodiment of the present invention will be omitted, and only the portion different from the first embodiment of the present invention will be described.

図15は、本発明の実施の形態2における重み付け加算手段704のブロック図である。同図において70401は2水平ライン加算手段701を経たlong信号から輝度信号成分を抽出する輝度信号抽出手段である。70402は合成係数発生手段であり、ここで輝度信号抽出手段70401を経たlong信号の輝度成分の輝度信号レベルに応じてある係数k(1≧k≧0)を発生し、k及び1−kなる値を乗算器70403、70404に与える。乗算器70403、70404はk及び1−kを補間手段702を経たshort信号及び2水平ライン加算手段701を経たlong信号に乗算し、この結果は加算器70405にて加算され出力される。   FIG. 15 is a block diagram of weighted addition means 704 in Embodiment 2 of the present invention. In the figure, reference numeral 70401 denotes a luminance signal extracting means for extracting a luminance signal component from the long signal that has passed through the two horizontal line adding means 701. 70402 is a synthesis coefficient generating unit, which generates a coefficient k (1 ≧ k ≧ 0) according to the luminance signal level of the luminance component of the long signal that has passed through the luminance signal extracting unit 70401, and becomes k and 1−k. The value is supplied to multipliers 70403 and 70404. Multipliers 70403 and 70404 multiply k and 1-k by the short signal that has passed through the interpolation means 702 and the long signal that has passed through the two horizontal line addition means 701, and the result is added and output by the adder 70405.

図16は輝度信号抽出手段70401の構成例を示すブロック図である。同図において704011は入力信号を1画素分の期間だけ遅延させる手段である。704012は加算器であり、1画素遅延手段704011において遅延された画素信号と輝度信号抽出手段70401に入力された画素信号を、この加算器704012において加算することで水平方向に隣接する2画素の加算が行われ信号の低域成分のみを抽出する。輝度信号抽出手段70401により抽出される信号の低域成分はすなわち画像信号の輝度信号に相当する。   FIG. 16 is a block diagram illustrating a configuration example of the luminance signal extraction unit 70401. In the figure, 704011 is a means for delaying the input signal by a period of one pixel. 704012 is an adder, and the adder 704012 adds the pixel signal delayed by the one-pixel delay unit 704011, and the pixel signal input to the luminance signal extraction unit 70401, thereby adding two pixels adjacent in the horizontal direction. And only the low frequency component of the signal is extracted. The low frequency component of the signal extracted by the luminance signal extraction means 70401 corresponds to the luminance signal of the image signal.

以上のように構成された本発明の実施の形態2の固体撮像装置に関し、以下その動作を説明する。
本発明の実施の形態1と異なり、本発明の実施の形態2においてはlong信号とshort信号を合成する際に使用する合成係数をlong信号から抽出した輝度信号の信号レベルをもとに決定する。
そのためlong信号から輝度信号を抽出する手段である輝度信号抽出手段70401を重み付け加算手段704内に有する。
The operation of the solid-state imaging device according to the second embodiment of the present invention configured as described above will be described below.
Unlike the first embodiment of the present invention, in the second embodiment of the present invention, the synthesis coefficient used when synthesizing the long signal and the short signal is determined based on the signal level of the luminance signal extracted from the long signal. .
Therefore, the weighted addition means 704 has luminance signal extraction means 70401 which is means for extracting the luminance signal from the long signal.

輝度信号抽出手段70401においては、2水平ライン加算手段701の出力のうち水平方向に隣り合う2画素の信号を順次加算することで以下の(数8)に基づきlong信号の輝度成分(以下これをlong輝度信号と称す)を抽出する。   The luminance signal extraction means 70401 sequentially adds the signals of the two pixels adjacent in the horizontal direction out of the outputs of the two horizontal line addition means 701, so that the luminance component of the long signal (hereinafter referred to as this) long luminance signal).

Figure 0003988760
Figure 0003988760

例えば、図17に示すlong信号(Ye+Mg)L11とlong信号(Cy+G)L12とからlong輝度信号YL11を求める場合、(Ye+Mg)L11と(Cy+G)L12を加算することになる。同様にlong輝度信号YL12を求める場合は、(Cy+G)L12と(Ye+Mg)L13を加算する。
long信号から抽出した輝度信号(long輝度信号)をもとに合成係数を決定する方法を以下に説明する。
For example, when obtaining the long luminance signal YL11 from the long signal (Ye + Mg) L11 and the long signal (Cy + G) L12 shown in FIG. 17, add (Ye + Mg) L11 and (Cy + G) L12. become. Similarly, when obtaining the long luminance signal YL12, (Cy + G) L12 and (Ye + Mg) L13 are added.
A method for determining the synthesis coefficient based on the luminance signal (long luminance signal) extracted from the long signal will be described below.

図18は合成係数発生手段70402におけるlong輝度信号の信号レベルから画素ごとに合成係数kを求める方法の一例である。図18に示すように、long輝度信号レベルに対し2つの閾値Th_min’とTh_max’を設定し、long輝度信号レベルが(数9)の場合、つまり被写体の輝度レベルがTh_min’以下の低輝度の場合は合成係数kを0とし、long輝度信号レベルが(数10)の場合、つまり被写体の輝度レベルがTh_max’以上の高輝度の場合、合成係数kを1とする。なお閾値Th_max’、Th_min’は使用する固体撮像素子の飽和特性やS/Nに応じて適宜決定する。   FIG. 18 shows an example of a method for obtaining the synthesis coefficient k for each pixel from the signal level of the long luminance signal in the synthesis coefficient generating means 70402. As shown in FIG. 18, when two threshold values Th_min ′ and Th_max ′ are set for the long luminance signal level and the long luminance signal level is (Equation 9), that is, the luminance level of the subject is lower than Th_min ′. In this case, the synthesis coefficient k is set to 0, and the synthesis coefficient k is set to 1 when the long luminance signal level is (Equation 10), that is, when the luminance level of the subject is higher than Th_max ′. Note that the thresholds Th_max ′ and Th_min ′ are appropriately determined according to the saturation characteristics and S / N of the solid-state imaging device to be used.

Figure 0003988760
Figure 0003988760

Figure 0003988760
Figure 0003988760

また、long輝度信号レベルが(数11)の場合、つまり輝度が低輝度と高輝度の中間である場合には、図18に示すように合成係数kは(数12)の1次式で決定する。   When the long luminance signal level is (Equation 11), that is, when the luminance is intermediate between the low luminance and the high luminance, the synthesis coefficient k is determined by the linear expression of (Equation 12) as shown in FIG. To do.

Figure 0003988760
Figure 0003988760

Figure 0003988760
Figure 0003988760

以上のように求められた合成係数kを用いて、long信号とshort信号は画素毎に(数5)により合成される。long信号とshort信号を合成した信号を合成信号とする。   Using the synthesis coefficient k determined as described above, the long signal and the short signal are synthesized by (Equation 5) for each pixel. A signal obtained by combining the long signal and the short signal is defined as a combined signal.

例えば、図19に示すlong信号(Ye+Mg)L11と、この(Ye+Mg)L11と空間的位置が同じであるshort信号(Ye+Mg)S11から合成信号(Ye+Mg)M11を求める場合、これら2つの信号と空間的位置が同じであるlong輝度信号YL11から決定される合成係数(これをky11とする)をもとに(数13)により合成が行われる。   For example, the combined signal (Ye + Mg) M11 is obtained from the long signal (Ye + Mg) L11 shown in FIG. 19 and the short signal (Ye + Mg) S11 having the same spatial position as this (Ye + Mg) L11. In this case, the synthesis is performed by (Equation 13) based on the synthesis coefficient (this is referred to as ky11) determined from the long luminance signal YL11 having the same spatial position as these two signals.

Figure 0003988760
Figure 0003988760

合成信号の他の画素も(数13)と同様に、同じ空間的位置に存在するlong信号とshort信号から求められる。   Other pixels of the synthesized signal are also obtained from the long signal and the short signal existing at the same spatial position as in (Equation 13).

なお、(数13)においてshort信号に乗算される定数Dは、本発明の実施の形態1と同様にlong信号とshort信号の露光量の比(露光時間の比)であり、(数7)で求められる。   Note that the constant D multiplied by the short signal in (Equation 13) is the ratio of the exposure amount of the long signal and the short signal (exposure time ratio) as in the first embodiment of the present invention. Is required.

このようにlong信号とshort信号を用いて、低輝度部はlong信号、高輝度部はshort信号、低輝度部と高輝度部の中間の輝度の部分はlong信号とshort信号を重み付け加算した信号からなる合成信号を合成することで、撮影した画像信号のダイナミックレンジを拡大することが可能である。
また、輝度信号はlong信号から抽出される低周波成分といえるため、この輝度信号をもとに合成係数を求める場合、合成係数決定に対しlong信号中のノイズ成分が及ぼす影響を低減することができる。
In this way, using the long signal and short signal, the low luminance part is a long signal, the high luminance part is a short signal, and the intermediate luminance part between the low luminance part and the high luminance part is a signal obtained by weighting and adding the long signal and the short signal. It is possible to expand the dynamic range of the captured image signal by synthesizing the synthesized signal consisting of
In addition, since the luminance signal can be said to be a low-frequency component extracted from the long signal, when determining the synthesis coefficient based on this luminance signal, the influence of the noise component in the long signal on the synthesis coefficient determination can be reduced. it can.

以上のように、本発明の実施の形態2の固体撮像装置においても、固体撮像素子3の露光及び信号読み出しモードを制御し、1フィールド分の短時間露光信号と1フレーム分の長時間露光信号を撮影しこれらを合成することで、CCDの画素数並みの解像度を持ちつつダイナミックレンジが拡大された画像を撮影することができる。さらに本固体撮像装置で使用する固体撮像素子には、民生用固体撮像装置で一般に用いられているIT−CCDが使用可能であるため、複数の固体撮像素子や特殊な固体撮像素子を使用する必要がなく、安価に装置を構成することができる。   As described above, also in the solid-state imaging device according to the second embodiment of the present invention, the exposure and signal readout modes of the solid-state imaging device 3 are controlled, and the short-time exposure signal for one field and the long-time exposure signal for one frame. By capturing these images and synthesizing them, it is possible to capture an image with an increased dynamic range while having a resolution comparable to the number of CCD pixels. Furthermore, as the solid-state image pickup device used in the solid-state image pickup device, an IT-CCD generally used in a consumer solid-state image pickup device can be used. Therefore, it is necessary to use a plurality of solid-state image pickup devices or special solid-state image pickup devices. Therefore, the apparatus can be configured at low cost.

(実施の形態3)
図20は、本発明の実施の形態3における固体撮像装置のブロック図である。同図において、光学レンズ1、光学絞りと兼用の機械シャッター2、固体撮像素子3、アナログ信号処理手段4、A/D変換手段5、画像メモリ6、シャッター駆動手段9、固体撮像素子駆動手段10、2水平ライン加算手段701、輝度信号抽出手段70401、補間手段702の機能、動作は本発明の実施の形態1及び実施の形態2と同様であるため、図1から図19と同一の番号を付して説明は省略する。
(Embodiment 3)
FIG. 20 is a block diagram of the solid-state imaging device according to Embodiment 3 of the present invention. In the figure, an optical lens 1, a mechanical shutter 2 that also serves as an optical aperture, a solid-state imaging device 3, an analog signal processing unit 4, an A / D conversion unit 5, an image memory 6, a shutter driving unit 9, and a solid-state imaging device driving unit 10. The functions and operations of the two horizontal line adder 701, the luminance signal extractor 70401, and the interpolator 702 are the same as those in the first and second embodiments of the present invention. A description thereof will be omitted.

図20に示したブロック図において、上記以外の構成要素に関して説明すると、12は輝度信号抽出手段70401の出力に対し垂直方向の補間処理を施す輝度信号補間手段であり、輝度信号合成手段13は輝度信号抽出手段70401と輝度信号補間手段12の出力を合成する手段である。なお、輝度信号補間手段12に入力される輝度信号はshort信号から抽出された輝度信号であるためshort輝度信号と称し、long信号から抽出される輝度信号をlong輝度信号と称す。よって輝度信号抽出手段70401から直接、輝度信号合成手段13に入力される信号がlong輝度信号、輝度信号補間手段12から輝度信号合成手段13に入力される信号がshort輝度信号の補間処理後の信号となる。   In the block diagram shown in FIG. 20, components other than those described above will be described. Reference numeral 12 denotes a luminance signal interpolation unit that performs vertical interpolation processing on the output of the luminance signal extraction unit 70401, and the luminance signal synthesis unit 13 This is a means for synthesizing the outputs of the signal extraction means 70401 and the luminance signal interpolation means 12. Note that the luminance signal input to the luminance signal interpolation unit 12 is a luminance signal extracted from the short signal, and hence is referred to as a short luminance signal, and the luminance signal extracted from the long signal is referred to as a long luminance signal. Therefore, a signal directly inputted from the luminance signal extracting unit 70401 to the luminance signal synthesizing unit 13 is a long luminance signal, and a signal inputted from the luminance signal interpolating unit 12 to the luminance signal synthesizing unit 13 is a signal after interpolation processing of the short luminance signal. It becomes.

また、信号合成手段14は2ライン加算手段701と補間手段702の出力を合成する手段である。1ラインメモリ15、16、17,18は信号合成手段14の出力を同時化する際に必要な1水平同期期間分の遅延手段であり、1ラインメモリ15、16、17,18の出力と信号合成手段14の出力の合計5ラインの水平ライン信号から同じ空間位置にレッド(R)成分を持つ信号とブルー(B)成分を持つ信号を同時化手段19で得る。   The signal synthesis means 14 is a means for synthesizing the outputs of the 2-line addition means 701 and the interpolation means 702. The 1-line memories 15, 16, 17, and 18 are delay means for one horizontal synchronization period required when synchronizing the outputs of the signal synthesis means 14, and the outputs and signals of the 1-line memories 15, 16, 17, and 18 A synchronizer 19 obtains a signal having a red (R) component and a signal having a blue (B) component at the same spatial position from a total of five horizontal line signals output from the combiner 14.

輝度信号合成手段13で得られた輝度信号と、同時化手段19で得られたレッド(R)成分を持つ信号とブルー(B)成分を持つ信号はデジタル信号処理手段20において、ノイズ除去、エッジ強調、マトリクス演算、特定のフォーマットへのエンコード等の処理が施される。なおこれらを含め上記すべての構成要素の動作モードや動作タイミングはシステム制御手段21により統合的に制御されるものとする。   The luminance signal obtained by the luminance signal synthesizing unit 13, the signal having the red (R) component and the signal having the blue (B) component obtained by the synchronizing unit 19 are subjected to noise removal and edge processing in the digital signal processing unit 20. Processing such as emphasis, matrix operation, and encoding to a specific format is performed. It is assumed that the operation modes and operation timings of all the components including these are controlled by the system control means 21 in an integrated manner.

図21は輝度信号補間手段12の構成を示すブロック図である。同図において1201は1ラインメモリであり輝度信号抽出手段70401から出力された画像信号の1ライン分を1水平同期期間だけ遅延させる手段である。1202、1203はアンプ手段であり、それぞれ1201を経た信号及び輝度信号抽出手段70401を経て輝度信号補間手段12に入力された信号に対し一定のゲインを乗算する。1204は加算器であり、アンプ手段1202、1203でゲインを乗算された信号を加算する。   FIG. 21 is a block diagram showing the configuration of the luminance signal interpolation means 12. In the figure, reference numeral 1201 denotes a one-line memory, which is a means for delaying one line of the image signal output from the luminance signal extracting means 70401 by one horizontal synchronization period. Reference numerals 1202 and 1203 denote amplifier means, which respectively multiply the signal input through 1201 and the signal input to the luminance signal interpolation means 12 through the luminance signal extraction means 70401 by a certain gain. An adder 1204 adds the signals multiplied by the gains by the amplifier units 1202 and 1203.

図22は輝度信号合成手段13の構成を示すブロック図である。同図において1301は合成係数発生手段であり、ここで輝度信号抽出手段70401を経たlong輝度信号の画素毎の信号レベルに応じてある係数k(1≧k≧0)を発生し、k及び1−kなる値を乗算器1302、1303に与える。乗算器1302、1303はk及び1−kをshort輝度信号及びlong輝度信号に乗算し、この結果は加算器1304にて加算され出力される。   FIG. 22 is a block diagram showing the configuration of the luminance signal synthesis means 13. In the figure, reference numeral 1301 denotes synthesis coefficient generation means, which generates a coefficient k (1 ≧ k ≧ 0) corresponding to the signal level for each pixel of the long luminance signal passed through the luminance signal extraction means 70401, and k and 1 A value of −k is supplied to the multipliers 1302 and 1303. Multipliers 1302 and 1303 multiply k and 1-k by the short luminance signal and the long luminance signal, and the result is added by an adder 1304 and output.

図23は信号合成手段14の構成を示すブロック図である。同図において1401、1402は乗算器であり、輝度信号合成手段13より供給される係数k及び1−kをそれぞれshort信号及び2水平ライン加算後のlong信号に乗算する乗算器である。この乗算結果は加算器1403にて加算され出力される。   FIG. 23 is a block diagram showing the configuration of the signal synthesis means 14. In the figure, reference numerals 1401 and 1402 denote multipliers which respectively multiply the short signal and the long signal after addition of two horizontal lines by the coefficients k and 1-k supplied from the luminance signal synthesis means 13. The multiplication results are added by an adder 1403 and output.

図24は同時化手段19の構成を示すブロック図である。同図において1901は入力される信号から3つの信号を選択し、出力A、出力B、出力Cに出力するセレクタ、1902、1903は出力B及び出力Cから出力される信号にある定数を乗算するアンプ手段であり、この乗算後の信号は加算器1904にて加算される。1905はセレクタ1901の出力Aと加算器1904の出力を出力D、出力Eに振り分けて出力するセレクタである。なお、セレクタ1901、1905による信号の出力先の選択は後述の通り、信号の色成分によって振り分けられることとする。   FIG. 24 is a block diagram showing the configuration of the synchronization means 19. In the figure, reference numeral 1901 selects three signals from input signals, selectors that output to output A, output B, and output C, and 1902 and 1903 multiply constants in signals output from output B and output C. An amplifier means, and the multiplied signal is added by an adder 1904. A selector 1905 distributes the output A of the selector 1901 and the output of the adder 1904 to an output D and an output E, and outputs them. Note that the selection of the signal output destination by the selectors 1901 and 1905 is made according to the color component of the signal, as will be described later.

以上のように構成された本発明の実施の形態3の固体撮像装置に関し、以下その動作を説明する。
本発明の実施の形態3においても、短時間露光信号(short信号)と長時間露光信号(long信号)の2つの画像を撮影し、これを合成することでダイナミックレンジを拡大した画像を撮影する点は本発明の実施の形態1及び2と同様である。しかし本発明の実施の形態3においては、輝度信号と、後に色信号として処理される信号とで個別に短時間露光信号(short信号)と長時間露光信号(long信号)の合成を行うことを特徴とする。
そのために本発明の実施の形態3においては本発明の実施の形態1の場合と同様に、画像メモリ6から読み出されたlong信号は、2水平ライン加算手段701においては、フレーム信号としてみた場合に隣接する上下2ラインのlong信号が加算混合される。これはshort信号が固体撮像素子3の垂直転送CCD上で画素混合されているため、これにlong信号を合わせるための措置である。
The operation of the solid-state imaging device according to Embodiment 3 of the present invention configured as described above will be described below.
Also in the third embodiment of the present invention, two images of a short-time exposure signal (short signal) and a long-time exposure signal (long signal) are captured, and an image with an expanded dynamic range is captured by combining these images. The point is the same as in the first and second embodiments of the present invention. However, in the third embodiment of the present invention, the short-time exposure signal (short signal) and the long-time exposure signal (long signal) are individually synthesized by the luminance signal and the signal that is processed as the color signal later. Features.
Therefore, in the third embodiment of the present invention, as in the case of the first embodiment of the present invention, the long signal read from the image memory 6 is viewed as a frame signal in the two horizontal line adding means 701. The long signals of the upper and lower two lines adjacent to are added and mixed. This is a measure for matching the long signal to the short signal because the pixel is mixed on the vertical transfer CCD of the solid-state image pickup device 3.

輝度信号抽出手段70401においては、本発明の実施の形態2と同様に2水平ライン加算手段701の出力のうち水平方向に隣り合う2画素の信号を順次加算することで(数8)に基づきlong信号の輝度成分(以下これをlong輝度信号と称す)を抽出する。   In the luminance signal extraction means 70401, as in the second embodiment of the present invention, the signals of two pixels adjacent in the horizontal direction among the outputs of the two horizontal line addition means 701 are sequentially added, and long based on (Equation 8). A luminance component of the signal (hereinafter referred to as a long luminance signal) is extracted.

例えば、図17に示すlong信号(Ye+Mg)L11とlong信号(Cy+G)L12とからlong輝度信号YL11を求める場合、(Ye+Mg)L11と(Cy+G)L12を加算することになる。同様にlong輝度信号YL12を求める場合は、(Cy+G)L12と(Ye+Mg)L13を加算する。   For example, when obtaining the long luminance signal YL11 from the long signal (Ye + Mg) L11 and the long signal (Cy + G) L12 shown in FIG. 17, add (Ye + Mg) L11 and (Cy + G) L12. become. Similarly, when obtaining the long luminance signal YL12, (Cy + G) L12 and (Ye + Mg) L13 are added.

次に、画像メモリ6から読み出されるshort信号は、まず輝度信号抽出手段70401においてlong信号の場合と同様に輝度信号が求められる。   Next, as for the short signal read out from the image memory 6, the luminance signal extraction means 70401 first obtains the luminance signal as in the case of the long signal.

図25にlong輝度信号、図26にshort輝度信号を示す。   FIG. 25 shows a long luminance signal, and FIG. 26 shows a short luminance signal.

図26に示すようにshort信号は1フィールドの信号であったため、short輝度信号も当然1フィールドの輝度信号である。そこでこの1フィールドのshort輝度信号を1フレームの信号に変換し、long輝度信号と信号形式を同一とするための手段が、輝度信号補間手段12である。   Since the short signal is a signal of one field as shown in FIG. 26, the short luminance signal is naturally a luminance signal of one field. Therefore, the means for converting the short luminance signal of one field into a signal of one frame and having the same signal format as the long luminance signal is the luminance signal interpolating means 12.

輝度信号補間手段12は具体的には、図21に示したアンプ手段1202、1203で乗算するゲインを0.5とすることで連続する2ラインの加算平均値を求めこれを補間信号とする。図27に補間処理後のshort輝度信号を示す。   Specifically, the luminance signal interpolating means 12 obtains the addition average value of two continuous lines by setting the gain multiplied by the amplifier means 1202 and 1203 shown in FIG. 21 to 0.5, and uses this as an interpolation signal. FIG. 27 shows the short luminance signal after the interpolation processing.

以上の処理により、1フレーム分のlong信号から得られた輝度信号(long輝度信号)と、1フィールド分のshort信号から補間処理を経て得られた1フレームに相当する輝度信号(short輝度信号)が生成される。このように1フィールドのshort信号から1フレームのshort輝度信号を合成した理由は、short信号とlong信号を合成してダイナミックレンジ拡大を図る際に、short信号が1フィールドの信号のままでは画像を構成する水平ラインが不足し、1フレームの信号であるlong信号と合成することができないためである。   With the above processing, a luminance signal (long luminance signal) obtained from a long signal for one frame and a luminance signal (short luminance signal) corresponding to one frame obtained through interpolation processing from a short signal for one field. Is generated. The reason for synthesizing the short luminance signal of one frame from the short signal of one field in this way is that when the short signal and the long signal are combined to increase the dynamic range, an image is generated if the short signal remains as a signal of one field. This is because there are not enough horizontal lines to be configured and it cannot be combined with a long signal which is a signal of one frame.

これらlong輝度信号とshort輝度信号を合成し、ダイナミックレンジを拡大した輝度信号を合成する手段が、輝度信号合成手段13である。輝度信号合成手段13においては図22に示した合成係数発生手段1301によりlong輝度信号の画素毎の信号レベルに応じた合成係数kを求め、この合成係数kに応じて1画素単位でlong輝度信号と、画面上の同じ空間位置に存在するshort輝度信号とを合成する。   A means for synthesizing the long luminance signal and the short luminance signal to synthesize a luminance signal with an expanded dynamic range is a luminance signal synthesizing means 13. In the luminance signal synthesizing unit 13, a synthesis coefficient k corresponding to the signal level of each pixel of the long luminance signal is obtained by the synthesis coefficient generating unit 1301 shown in FIG. 22, and the long luminance signal in units of one pixel according to the synthesis coefficient k. Are combined with the short luminance signal existing at the same spatial position on the screen.

long輝度信号の信号レベルから画素ごとに合成係数kを求める方法の一例としては、本発明の実施の形態2と同様の方法が考えられるため説明は省略する。   As an example of a method for obtaining the synthesis coefficient k for each pixel from the signal level of the long luminance signal, a method similar to that of Embodiment 2 of the present invention can be considered, and the description thereof is omitted.

求められた合成係数kを用いて、long輝度信号とshort輝度信号は画素毎に(数14)により合成される。long輝度信号とshort輝度信号を合成した信号を合成輝度信号とする。   The long luminance signal and the short luminance signal are synthesized by (Equation 14) for each pixel by using the obtained synthesis coefficient k. A signal obtained by combining the long luminance signal and the short luminance signal is defined as a combined luminance signal.

Figure 0003988760
Figure 0003988760

例えば、図28に示すlong輝度信号YL11と、このYL11と空間的位置が同じであるshort輝度信号YS11から合成輝度信号YM11を求める場合、long輝度信号(YL11)から決定される合成係数をk11とすると(数15)により合成が行われる。   For example, when the combined luminance signal YM11 is obtained from the long luminance signal YL11 shown in FIG. 28 and the short luminance signal YS11 whose spatial position is the same as YL11, the combination coefficient determined from the long luminance signal (YL11) is k11. Then, synthesis is performed according to (Equation 15).

Figure 0003988760
Figure 0003988760

合成輝度信号の他の画素も(数15)と同様に、同じ空間的位置に存在するlong輝度信号とshort輝度信号から求められる。   Other pixels of the synthesized luminance signal are also obtained from the long luminance signal and the short luminance signal existing at the same spatial position as in (Equation 15).

なお、(数14)及び(数15)においてshort輝度信号に乗算される定数Dは、long信号とshort信号の露光量の比(露光時間の比)であり(数7)で求められる。   The constant D multiplied by the short luminance signal in (Equation 14) and (Equation 15) is the ratio of the exposure amount of the long signal and the short signal (exposure time ratio) and is obtained by (Equation 7).

このようにlong輝度信号とshort輝度信号を用いて、低輝度部はlong輝度信号、高輝度部はshort輝度信号、低輝度部と高輝度部の中間の輝度の部分はlong輝度信号とshort輝度信号を重み付け加算した信号からなる合成輝度信号を合成することで、撮影した画像の輝度信号のダイナミックレンジを拡大することが可能である。   In this way, using the long luminance signal and the short luminance signal, the low luminance portion is the long luminance signal, the high luminance portion is the short luminance signal, and the intermediate luminance portion between the low luminance portion and the high luminance portion is the long luminance signal and the short luminance signal. By synthesizing a synthesized luminance signal composed of signals obtained by weighted addition of signals, the dynamic range of the luminance signal of the captured image can be expanded.

但し、ダイナミックレンジ拡大がなされた輝度信号のうち、long輝度信号からなる部分は本来1フレームの画像信号であるため画像解像度が高い。これに対してshort輝度信号からなる部分は1フィールドの画像信号から合成されるため、long輝度信号からなる部分に比べ画像解像度は低い。しかし一般に、画面全体が高輝度となるような撮影条件下はまれであり、そのような条件下でも、光学絞りを絞りこむなどして入射光量を制限するため画面全体が高輝度となることはなく、撮影画像の大半をshort輝度信号からなる部分が占めることは実使用上あまり起こりえない。また、限られた階調で画像を表現する場合、高輝度部は低・中輝度部に比べ、少なめに階調が割り当てられることが多い。このためshort輝度信号からなる部分の解像度劣化はさほど目立たず、上記のような方法でlong輝度信号とshort輝度信号を合成してもCCDの画素数並みの解像度の合成画像が得られると考えられる。   However, among the luminance signals whose dynamic range has been expanded, the portion consisting of the long luminance signal is originally an image signal of one frame, so that the image resolution is high. On the other hand, since the portion composed of the short luminance signal is synthesized from the image signal of one field, the image resolution is lower than that of the portion composed of the long luminance signal. However, in general, shooting conditions that cause the entire screen to have high brightness are rare, and even under such conditions, the entire screen has high brightness because the amount of incident light is limited by narrowing the optical aperture. In fact, it is unlikely that the majority of the photographed image is occupied by the portion composed of the short luminance signal in practical use. In addition, when an image is expressed with a limited gradation, the high luminance part is often assigned a smaller gradation than the low / medium luminance part. For this reason, the resolution degradation of the portion consisting of the short luminance signal is not so conspicuous, and it is considered that even if the long luminance signal and the short luminance signal are synthesized by the above-described method, a synthesized image having a resolution equivalent to the number of pixels of the CCD can be obtained. .

以上が輝度信号の合成によるダイナミックレンジ拡大に関する処理内容である。次に、色信号に関する処理について説明する。   The above is the processing content related to the dynamic range expansion by the synthesis of the luminance signal. Next, processing relating to color signals will be described.

画像メモリ6から読み出されたshort信号と、2水平ライン加算手段701において隣接する上下2ラインが加算されたlong信号は、色信号のダイナミックレンジ拡大のための合成処理を信号合成手段14において施される。   The short signal read from the image memory 6 and the long signal obtained by adding the two upper and lower adjacent lines in the two horizontal line adding means 701 are combined in the signal combining means 14 for expanding the dynamic range of the color signal. Is done.

なお、short信号は1フィールド信号であるため1フレーム信号であるlong信号と信号形式が異なる。よって本発明の実施の形態1と同様に、補間手段702によって1フィールド画像を1フレーム画像に変換する。
2水平ライン加算手段701において隣接する上下2ラインの信号が加算混合された後のlong信号及び補間手段702において補間処理されたshort信号は、図12(a)、(c)示す通りであり、本発明の実施の形態1と同様にlong信号に対する2水平ライン加算処理及びshort信号に対する補間処理によって、long信号とshort信号の信号形式が合致している。
Since the short signal is a single field signal, the signal format is different from the long signal which is a single frame signal. Therefore, similarly to the first embodiment of the present invention, the interpolating means 702 converts one field image into one frame image.
The long signal after the signals of the upper and lower two lines adjacent to each other in the two horizontal line addition means 701 are added and mixed and the short signal subjected to the interpolation processing in the interpolation means 702 are as shown in FIGS. As in the first embodiment of the present invention, the signal formats of the long signal and the short signal are matched by the two horizontal line addition processing for the long signal and the interpolation processing for the short signal.

信号合成手段14におけるlong信号とshort信号の合成は、本発明の実施の形態2と同様に、信号合成手段14に入力されるlong信号及びshort信号と空間的に位置が一致しているlong輝度信号とshort輝度信号とが合成される際に使用される合成係数k及び(数7)で求められるDにより画素毎に実施される。信号合成手段14で合成された信号を合成信号と称す。   As in the second embodiment of the present invention, the long signal whose position is spatially coincident with the long signal and the short signal input to the signal combining unit 14 is combined with the long signal and the short signal in the signal combining unit 14. This is performed for each pixel by the combination coefficient k used when the signal and the short luminance signal are combined and D obtained by (Equation 7). The signal synthesized by the signal synthesizing unit 14 is referred to as a synthesized signal.

以上が色信号のダイナミックレンジ拡大のための合成処理である。   The above is the synthesis process for expanding the dynamic range of the color signal.

さて、信号合成手段14で求められた合成信号は、Ye+Mg及びCy+Gの画素が水平方向に並ぶラインと、Ye+G及びCy+Mgの画素が水平方向に並ぶラインが垂直方向に2ライン周期で繰り返される構成のため、色の三原色であるレッド、グリーン、ブルーをそれぞれR、G、Bとすると、Ye+Mg及びCy+Gの画素が並ぶラインからは(数16)によりR成分を持った2R−Gなる色信号が、Ye+G及びCy+Mgが並ぶラインからは(数17)によりB成分を持った2B―Gなる色信号が得られる。   The synthesized signal obtained by the signal synthesizing means 14 is such that a line in which Ye + Mg and Cy + G pixels are arranged in a horizontal direction and a line in which Ye + G and Cy + Mg pixels are arranged in a horizontal direction are in a vertical direction. Since the three primary colors of red, green, and blue are R, G, and B, respectively, because they are repeated in a two-line cycle, from the line where pixels of Ye + Mg and Cy + G are arranged, R The 2R-G color signal having the component is obtained from the line in which Ye + G and Cy + Mg are arranged, and the 2B-G color signal having the B component is obtained from (Equation 17).

Figure 0003988760
Figure 0003988760

Figure 0003988760
Figure 0003988760

これはいわゆる色差線順次であり、1水平ライン信号に対して色信号はR成分を持った2R−G、もしくはB成分を持った2B―Gのどちらか一方しか得られない。そこで1水平ライン信号に対し、R成分とB成分の双方の成分を持った信号を得るために、ラインメモリ15、16、17、18及び同時化手段19により同時化処理が施される。   This is so-called color difference line sequential, and for one horizontal line signal, only one of the color signals 2R-G having an R component or 2B-G having a B component can be obtained. Therefore, in order to obtain a signal having both the R component and the B component for one horizontal line signal, the line memories 15, 16, 17, 18 and the synchronization means 19 perform a synchronization process.

ラインメモリ15、16、17、18及び同時化手段19による同時化処理の具体的な内容を以下に説明する。同時化手段19には信号合成手段14及びラインメモリ15、16、17、18から連続する5ラインの水平ライン信号が入力される。信号合成手段14で合成された信号を合成信号を図29(a)とし、仮に同時化手段19に入力される5ラインの信号が図29(b)に示す第3ライン〜第7ラインの信号であったとする。このとき、同時化処理の対象は入力される5ラインの中心に位置する水平ライン信号であるとし、図29(b)の第5ラインの水平ライン信号に対し同時化処理を行うとすると、第5ラインはR成分を持った2R−Gに対応する信号であるため、B成分を持った2B―Gは周辺の水平ライン信号から補間処理によりつくり出せばよい。そこで図24に示す同時化手段19においてはセレクタ1901は、第5ラインの信号を出力Aに、第3ライン及び第7ラインの2B−Gに対応する信号を出力B及び出力Cに出力する。アンプ手段1902、1903で乗算するゲインは0.5とし、この乗算結果を加算器1904で加算すれば第3ラインと第7ラインの加算平均結果が求められる。この加算平均結果とセレクタ1901の出力Aの出力である第5ラインの信号はセレクタ1905に入力され、ここで出力先が選択され、2R−Gに対応する第5ラインの水平ライン信号は出力Dに、2B−Gに対応する第3ラインと第7ラインの加算平均結果は出力Eに出力される。このような動作により第5ラインが存在する空間位置に、R成分を持った2R−Gに対応する信号とB成分を持った2B−Gに対応する信号を得ることができる。同様に、例えば同時化手段19に第5ライン〜第9ラインの信号が入力され、第7ラインの水平ライン信号に対し同時化処理を行うとすると、第7ラインはB成分を持った2B−Gに対応する信号であるため、今度はR成分を持った2R―Gは周辺の水平ライン信号から補間処理によりつくり出せばよい。そこで図24に示す同時化手段19においてはセレクタ1901は、第7ラインの信号を出力Aに、第5ライン及び第9ラインの2R−Gに対応する信号を出力B及び出力Cに出力する。アンプ手段1902、1903で乗算するゲインは0.5とし、この乗算結果を加算器1904で加算すれば第5ラインと第9ラインの加算平均結果が求められる。この加算平均結果とセレクタ1901の出力Aの出力である第7ラインの信号はセレクタ1905に入力され、ここで出力先が選択され2B−Gに対応する第7ラインの水平ライン信号は出力Eに、2R−Gに対応する第5ラインと第9ラインの加算平均結果は出力Dに出力される。このような動作により第7ラインが存在する空間位置に、R成分を持った2R−Gに対応する信号とB成分を持った2B−Gに対応する信号を得ることができる。なお、同時化手段19は入力信号に応じて上記のような処理が行われるよう、入出力信号の選択等が自動的もしくはシステム制御手段21の制御により実施されるものとする。   The specific contents of the synchronization processing by the line memories 15, 16, 17, 18 and the synchronization means 19 will be described below. The synchronizing means 19 is inputted with five continuous horizontal line signals from the signal synthesizing means 14 and the line memories 15, 16, 17 and 18. The signal synthesized by the signal synthesizing unit 14 is shown as a synthesized signal in FIG. 29 (a), and the five lines of signals inputted to the synchronizing unit 19 are the signals of the third to seventh lines shown in FIG. 29 (b). Suppose that At this time, it is assumed that the target of the synchronization processing is a horizontal line signal positioned at the center of the input five lines, and if the synchronization processing is performed on the horizontal line signal of the fifth line in FIG. Since 5 lines are signals corresponding to 2R-G having an R component, 2B-G having a B component may be generated by interpolation processing from surrounding horizontal line signals. Therefore, in the synchronization means 19 shown in FIG. 24, the selector 1901 outputs the signal of the fifth line to the output A and the signals corresponding to 2B-G of the third line and the seventh line to the output B and the output C. The gain multiplied by the amplifier means 1902 and 1903 is 0.5, and if the multiplication results are added by the adder 1904, the addition average result of the third line and the seventh line is obtained. The result of the averaging and the signal of the fifth line which is the output of the output A of the selector 1901 are input to the selector 1905, where the output destination is selected, and the horizontal line signal of the fifth line corresponding to 2R-G is the output D. In addition, the addition average result of the third line and the seventh line corresponding to 2B-G is output to the output E. By such an operation, a signal corresponding to 2R-G having an R component and a signal corresponding to 2B-G having a B component can be obtained at a spatial position where the fifth line exists. Similarly, for example, when the signals of the fifth line to the ninth line are input to the synchronization means 19 and the synchronization process is performed on the horizontal line signal of the seventh line, the seventh line has the 2B− with B component. Since it is a signal corresponding to G, 2R-G having an R component may be generated by interpolation processing from surrounding horizontal line signals. Therefore, in the synchronizing means 19 shown in FIG. 24, the selector 1901 outputs the signal of the seventh line to the output A and the signals corresponding to 2R-G of the fifth line and the ninth line to the output B and the output C. The gain multiplied by the amplifier means 1902 and 1903 is 0.5, and if the multiplication results are added by the adder 1904, the addition average result of the fifth line and the ninth line is obtained. The result of the averaging and the signal of the seventh line which is the output A of the selector 1901 are input to the selector 1905, where the output destination is selected and the horizontal line signal of the seventh line corresponding to 2B-G is output to the output E. The addition average result of the fifth line and the ninth line corresponding to 2R−G is output to the output D. By such an operation, a signal corresponding to 2R-G having an R component and a signal corresponding to 2B-G having a B component can be obtained at a spatial position where the seventh line exists. It is assumed that the synchronizer 19 performs selection of input / output signals or the like automatically or under the control of the system controller 21 so that the above-described processing is performed according to the input signal.

以上の通り、輝度信号合成手段13において合成された合成輝度信号及び同時化手段19で得られたR成分を持った2R−Gに対応する信号とB成分を持った2B−Gに対応する信号は、デジタル信号処理手段20においてノイズ除去、エッジ強調、ガンマ補正、マトリクス演算、特定のフォーマットへのエンコード等の処理が施される。デジタル信号手段20における信号処理に関しては本願発明の目的と直接は関係がないため詳細な説明は省略する。   As described above, the synthesized luminance signal synthesized by the luminance signal synthesizing unit 13 and the signal corresponding to 2R-G having the R component obtained by the synchronizing unit 19 and the signal corresponding to 2B-G having the B component. The digital signal processing means 20 performs processing such as noise removal, edge enhancement, gamma correction, matrix calculation, and encoding to a specific format. Since the signal processing in the digital signal means 20 is not directly related to the object of the present invention, a detailed description is omitted.

以上のように、本発明の実施の形態3の固体撮像装置においては、固体撮像素子3の露光及び信号読み出しモードを制御し、1フィールド分の短時間露光信号と1フレーム分の長時間露光信号を撮影しこれらを合成することで、固体撮像素子の画素数並みの解像度を持ちながらもダイナミックレンジが拡大された画像を撮影することができる。さらに本固体撮像装置で使用する固体撮像素子には、民生用固体撮像装置で一般に用いられているIT−CCDが使用可能であるため、複数の固体撮像素子や特殊な固体撮像素子を使用する必要がなく、安価に装置を構成することができる。   As described above, in the solid-state imaging device according to the third embodiment of the present invention, the exposure and signal readout modes of the solid-state imaging device 3 are controlled, and the short-time exposure signal for one field and the long-time exposure signal for one frame. By capturing these images and synthesizing them, it is possible to capture an image with an expanded dynamic range while having a resolution comparable to the number of pixels of the solid-state imaging device. Furthermore, as the solid-state image pickup device used in the solid-state image pickup device, an IT-CCD generally used in a consumer solid-state image pickup device can be used. Therefore, it is necessary to use a plurality of solid-state image pickup devices or special solid-state image pickup devices. Therefore, the apparatus can be configured at low cost.

(実施の形態4)
本発明の実施の形態4における固体撮像装置は、図20に示した本発明の実施の形態3に対し、2水平ライン加算手段70401の出力に対する間引き手段22が追加され、これに伴い補間手段702、1ラインメモリ17、18が削除され、さらに信号合成手段、同時化手段、デジタル信号処理手段、システム制御手段の構成・機能が異なる(本発明の実施の形態4では信号合成手段23、同時化手段24、デジタル信号処理手段25、システム制御手段26と付番し区別する)点が主な相違点であるため、以下、本発明の実施の形態3と同様の処理内容部分に関しては説明は省略し、本発明の実施の形態3と異なる部分のみ説明する。図30は、本発明の実施の形態4における固体撮像装置のブロック図である。同図において、間引き手段22は2水平ライン加算手段701の出力からその水平ライン信号を間引き、1フレーム画像を1フィールド画像に変換する手段である。信号合成手段23は、間引き手段22及び画像メモリ6の出力を輝度信号合成手段13にて求められる合成係数kに基づき合成する手段である。同時化手段24は、信号合成手段23の出力を同時化処理する手段である。
(Embodiment 4)
In the solid-state imaging device according to the fourth embodiment of the present invention, the thinning means 22 for the output of the two horizontal line adding means 70401 is added to the third embodiment of the present invention shown in FIG. 1 line memories 17 and 18 are deleted, and the configuration and function of the signal synthesis means, synchronization means, digital signal processing means, and system control means are different (in the fourth embodiment of the present invention, the signal synthesis means 23, synchronization). The main difference is that they are numbered and distinguished from the means 24, the digital signal processing means 25, and the system control means 26), and hence the description of the processing contents similar to those of the third embodiment of the present invention will be omitted. Only the differences from the third embodiment of the present invention will be described. FIG. 30 is a block diagram of a solid-state imaging device according to Embodiment 4 of the present invention. In the figure, the thinning means 22 is a means for thinning out the horizontal line signal from the output of the two horizontal line adding means 701 and converting one frame image into one field image. The signal synthesis unit 23 is a unit that synthesizes the outputs of the thinning unit 22 and the image memory 6 based on the synthesis coefficient k obtained by the luminance signal synthesis unit 13. The synchronization unit 24 is a unit that performs a process of synchronizing the output of the signal synthesis unit 23.

輝度信号合成手段13で得られた輝度信号と、同時化手段24で得られたレッド(R)成分を持つ信号とブルー(B)成分を持つ信号はデジタル信号処理手段25において、ノイズ除去、エッジ強調、マトリクス演算、特定のフォーマットへのエンコード等の処理が施される。なおこれらを含め上記すべての構成要素の動作モードや動作タイミングはシステム制御手段26により統合的に制御されるものとする。   The luminance signal obtained by the luminance signal synthesizing unit 13, the signal having the red (R) component and the signal having the blue (B) component obtained by the synchronizing unit 24 are subjected to noise removal and edge processing in the digital signal processing unit 25. Processing such as emphasis, matrix operation, and encoding to a specific format is performed. It is assumed that the operation modes and operation timings of all the components including these are controlled by the system control means 26 in an integrated manner.

図31は同時化手段24の構成を示すブロック図である。2401、2402は信号合成手段23と1ラインメモリ16を経た信号にある定数を乗算するアンプ手段であり、この乗算後の信号は加算器2403にて加算される。2404は1ラインメモリ15の出力と加算器2403の出力を出力D、出力Eに振り分けて出力するセレクタである。なお、セレクタ2404による信号の出力先の選択は後述の通り、信号の色成分によって振り分けられることとする。
以上のように構成された本発明の実施の形態4の固体撮像装置に関し、以下その動作を説明する。
FIG. 31 is a block diagram showing the configuration of the synchronization means 24. As shown in FIG. Reference numerals 2401 and 2402 denote amplifier means for multiplying a signal that has passed through the signal synthesizing means 23 and the one-line memory 16, and the multiplied signals are added by an adder 2403. Reference numeral 2404 denotes a selector that distributes the output of the one-line memory 15 and the output of the adder 2403 to output D and output E, and outputs them. Note that the selection of the signal output destination by the selector 2404 is made according to the color component of the signal, as will be described later.
The operation of the solid-state imaging device according to Embodiment 4 of the present invention configured as described above will be described below.

本発明の実施の形態3で説明したように、2水平ライン加算手段701の出力は1フレーム画像であるlong信号である。しかし画像メモリ6に記憶されているshort信号は1フィールド画像であるため、このままでは信号合成手段23においてlong信号とshort信号は合成が行えない。そこで本発明の実施の形態においてはshort信号を補間処理により1フレームの信号に変換した。 As described in the third embodiment of the present invention, the output of the two horizontal line adding means 701 is a long signal that is a one-frame image. However, since the short signal stored in the image memory 6 is a one-field image, the long signal and the short signal cannot be combined in the signal combining unit 23 as it is. Therefore, in Embodiment 3 of the present invention, the short signal is converted into a signal of one frame by interpolation processing.

本発明の実施の形態4においては、色信号は輝度信号と同程度の情報量を持たなくても画質面で問題がないことを利用して、本発明の実施の形態3とは逆に、1フレーム画像であるlong信号に対し垂直方向の間引き処理を施すことでlong信号を1フィールド画像に変換し、色信号合成手段24においてshort信号と合成する。具体的には図12(a)に示したような2ライン加算後のlong信号の偶数ラインを間引き手段22により間引くことで、信号合成手段23に入力されるlong信号を1フィールド画像に変換する。この間引き後のlong信号は図12(b)に示したようなshort信号と同様の形式となる。   In Embodiment 4 of the present invention, the color signal does not have a problem in image quality even if it does not have the same amount of information as the luminance signal, and contrary to Embodiment 3 of the present invention, The long signal is converted into a one-field image by performing a thinning process in the vertical direction on the long signal which is one frame image, and is combined with the short signal by the color signal combining unit 24. Specifically, the long signal input to the signal synthesis unit 23 is converted into a one-field image by thinning out even lines of the long signal after addition of two lines as shown in FIG. . The long signal after the thinning has the same format as the short signal as shown in FIG.

信号合成手段23においては入力される1フィールド画像であるlong信号とshort信号は、本発明の実施の形態3と同様に、これらの信号と空間的に位置が一致しているlong輝度信号とshort輝度信号とが合成される際に使用される合成係数k及び(数7)で求められるDにより画素ごとに合成される。信号合成手段23で合成された信号を合成信号と称す。   In the signal synthesizing unit 23, the long signal and the short signal which are input one-field images are the same as the third embodiment of the present invention, and the long luminance signal and the short signal whose positions are spatially coincident with these signals. The pixel is synthesized for each pixel by the synthesis coefficient k used when the luminance signal is synthesized and D obtained by (Equation 7). The signal synthesized by the signal synthesizing means 23 is referred to as a synthesized signal.

次に、合成信号は同時化手段24において同時化処理がなされるが、本発明の実施の形態3と異なり、合成信号は1フィールド信号であるため、同時化手段24に入力する信号は例えば図32(b)に示すように第2ラインから第4ラインの3ライン分でよい。この3ラインの信号から本発明の実施の形態3と同様にR成分を持った2R−Gに対応する信号とB成分を持った2B−Gに対応する信号を得ることができる。例えば、第3ラインの位置にR成分を持った2R−Gに対応する信号とB成分を持った2B−Gに対応する信号を得るには、第2ラインと第4ラインの信号を加算平均して2B−Gに対応する信号を合成すればよい。   Next, the synthesizing signal is subjected to synchronization processing in the synchronizer 24, but unlike the third embodiment of the present invention, the synthesized signal is a one-field signal. As shown in FIG. 32 (b), three lines from the second line to the fourth line are sufficient. Similar to the third embodiment of the present invention, a signal corresponding to 2R-G having an R component and a signal corresponding to 2B-G having a B component can be obtained from these three lines of signals. For example, to obtain a signal corresponding to 2R-G having an R component at the position of the third line and a signal corresponding to 2B-G having a B component, the signals of the second line and the fourth line are added and averaged. Then, a signal corresponding to 2B-G may be synthesized.

同時化手段24で得られた2つの信号はデジタル信号処理手段25において本発明の実施の形態3と同様に処理されるが、本発明の実施の形態4では信号合成手段23で合成された合成信号は1フィールド信号であるため、必要があればデジタル信号処理手段25においてフレーム画像への変換等がなされることは言うまでもない。   The two signals obtained by the synchronization means 24 are processed in the digital signal processing means 25 in the same manner as in the third embodiment of the present invention, but in the fourth embodiment of the present invention, the synthesis synthesized by the signal synthesizing means 23. Since the signal is a one-field signal, it goes without saying that the digital signal processing means 25 converts it into a frame image if necessary.

以上のように、本発明の実施の形態4の固体撮像装置においても、本発明の実施の形態3と同様に固体撮像素子3の露光及び信号読み出しモードを制御し、1フィールド分の短時間露光信号と1フレーム分の長時間露光信号を撮影しこれらを合成することで、固体撮像素子の画素数並みの解像度を持ちつつダイナミックレンジが拡大された画像を撮影することができる。さらに本発明の実施の形態4においては、色信号をフィールド信号として処理するため、1ラインメモリの必要個数等を削減でき、より安価に装置を構成することができる。
なお本発明の実施の形態1において、short信号はフィールド読み出しモードで読み出した1フィールド画像としたがこれに限るものではなく、例えば垂直方向に水平ライン信号を間引いて読み出す構成も考えられる。一例としては、図33に示すように固体撮像素子3からshort信号を読み出す場合に垂直方向に3ライン毎に1ラインの信号を読み出す構成が考えられる。この場合、short信号は固体撮像素子上で上下2つのホトダイオードに蓄積された電荷が混合されずに読み出されるため、long信号に対する2水平ライン加算処理が不要となる。また、図4に示した補間手段702による補間処理においては、short信号の水平ライン数をlong信号に合わせるように補間処理を行う必要がある。つまり補間手段702においてはshort信号の各水平ライン信号間に2ライン分の水平ライン信号を補間処理により作成することになる。これによりshort信号とlong信号は同一の信号形式となり図4に示した重み付け加算手段703により合成することが可能となる。この場合、合成係数kは上下2水平ライン加算されていないlong信号の各画素の信号レベルから例えば図13に示したような方法で求めればよい。なお、このようにshort信号を間引いて読み出す場合はlong信号に対する2水平ライン加算処理が不要と記したがこれに限るものではなく、long信号、short信号ともに2水平ライン加算処理を施した後に、合成処理を行う構成も考えられる。
As described above, also in the solid-state imaging device according to the fourth embodiment of the present invention, the exposure and signal readout mode of the solid-state imaging device 3 are controlled as in the third embodiment of the present invention to perform short-time exposure for one field. By photographing the signal and the long-time exposure signal for one frame and combining them, it is possible to photograph an image with an expanded dynamic range while having a resolution comparable to the number of pixels of the solid-state imaging device. Furthermore, in Embodiment 4 of the present invention, since the color signal is processed as a field signal, the required number of one-line memories can be reduced, and the apparatus can be configured at a lower cost.
In the first embodiment of the present invention, the short signal is a one-field image read in the field read mode. However, the present invention is not limited to this. For example, a configuration in which the horizontal line signal is thinned out in the vertical direction can be considered. As an example, as shown in FIG. 33, when a short signal is read out from the solid-state imaging device 3, a configuration in which one line signal is read out every three lines in the vertical direction can be considered. In this case, since the short signal is read without mixing the charges accumulated in the two upper and lower photodiodes on the solid-state imaging device, the two horizontal line addition processing for the long signal becomes unnecessary. Further, in the interpolation processing by the interpolation means 702 shown in FIG. 4, it is necessary to perform the interpolation processing so that the number of horizontal lines of the short signal matches the long signal. That is, in the interpolation means 702, horizontal line signals for two lines are created by interpolation processing between the horizontal line signals of the short signal. As a result, the short signal and the long signal have the same signal format and can be combined by the weighted addition means 703 shown in FIG. In this case, the synthesis coefficient k may be obtained by a method as shown in FIG. 13 from the signal level of each pixel of the long signal that is not subjected to addition of the upper and lower two horizontal lines. In addition, in the case of reading out the short signal by thinning out in this way, it is described that the two horizontal line addition processing for the long signal is not necessary, but this is not limited to this, and after performing the two horizontal line addition processing for both the long signal and the short signal, A configuration for performing synthesis processing is also conceivable.

また、本発明の実施の形態1において、露光量の異なる2つの信号は1フィールド画像であるshort信号と1フレーム画像であるlong信号としたがこれに限るものではなく、固体撮像装置の用途によっては1フィールド画像であるlong信号と1フレーム画像であるshort信号としてもよい。この場合、図34に示すようにlong信号に対し補間手段702により垂直方向の補間処理を行い、short信号に対しては2水平ライン加算手段701により隣接する上下2ラインの加算を行う構成とすればよく、重み付け加算手段703で使用する合成係数は補間処理後のlong信号から求めればよい。また、補間処理前のlong信号から合成係数を求める構成も考えられ、この場合、図34(a)に示したshort信号の偶数ラインの位置には対応するlong信号が存在せず合成係数kを決めることができないため、short信号の偶数ラインの上下のラインと同じ位置に存在するlong信号の水平ライン信号から求められる合成係数から、short信号の偶数ラインの位置の合成係数を決定するなどをすればよい。このように、1フィールド画像であるlong信号と1フレーム画像であるshort信号から合成信号を求めることで、高輝度部での解像度の高いダイナミックレンジ拡大画像が撮影可能である。   In the first embodiment of the present invention, the two signals having different exposure amounts are a short signal that is a 1-field image and a long signal that is a 1-frame image, but the present invention is not limited to this. May be a long signal that is one field image and a short signal that is one frame image. In this case, as shown in FIG. 34, the long signal is interpolated by the interpolation means 702 in the vertical direction, and the short signal is added by the two horizontal line adding means 701 to add two adjacent upper and lower lines. What is necessary is just to obtain | require the synthetic | combination coefficient used by the weighting addition means 703 from the long signal after an interpolation process. Further, a configuration is also conceivable in which a synthesis coefficient is obtained from a long signal before interpolation processing. In this case, the corresponding long signal does not exist at the position of the even line of the short signal shown in FIG. Since it cannot be determined, the synthesis coefficient at the even line position of the short signal is determined from the synthesis coefficient obtained from the horizontal line signal of the long signal existing at the same position as the upper and lower lines of the even line of the short signal. That's fine. In this manner, by obtaining a composite signal from a long signal that is a 1-field image and a short signal that is a 1-frame image, a dynamic range expanded image with a high resolution in a high-luminance part can be taken.

また、本発明の実施の形態1及び本発明の実施の形態2において、補間手段702は1ラインメモリを2個使用し、2水平ライン分の信号から補間処理を行う構成としたがこれに限るものではなく、例えば更に多数の1ラインメモリを用いて、更に多数の水平ライン信号から高次の内挿処理により補間処理を行う構成も考えられる。また、図35に示すように入力される1水平ラインを2回ずつ繰り返し出力することで水平ライン数を2倍にするいわゆる前値補間を行う構成も考えられる。   In Embodiment 1 and Embodiment 2 of the present invention, the interpolation unit 702 uses two 1-line memories and performs interpolation processing from signals for two horizontal lines. For example, a configuration is also possible in which interpolation processing is performed from a larger number of horizontal line signals by higher-order interpolation processing using a larger number of one-line memories. Further, as shown in FIG. 35, a configuration is also conceivable in which so-called pre-value interpolation is performed to double the number of horizontal lines by repeatedly outputting one horizontal line input twice.

また、本発明の実施の形態1において、信号合成手段7では、long信号とshort信号を合成するための合成係数kはlong信号の画素毎に求めるものとしたがこれに限るものではなく、例えば複数の画素の信号レベルの平均値もしくは最小値もしくは最大値もしくは中間値から画素毎の合成係数kを求める構成や、画素毎に求められたkの値のうち複数個から求めたkの平均値もしくは最小値もしくは最大値もしくは中間値を画素毎の合成係数とする構成も考えられる。   In the first embodiment of the present invention, the signal synthesis means 7 obtains the synthesis coefficient k for synthesizing the long signal and the short signal for each pixel of the long signal. However, the present invention is not limited to this. A configuration for obtaining a synthesis coefficient k for each pixel from an average value, minimum value, maximum value, or intermediate value of signal levels of a plurality of pixels, and an average value of k obtained from a plurality of k values obtained for each pixel Alternatively, a configuration in which the minimum value, the maximum value, or the intermediate value is used as a synthesis coefficient for each pixel is also conceivable.

また、本発明の実施の形態1において、信号合成手段7では、複数の画素からなるブロックに対して合成係数を求めて合成を行う構成も考えられる。例えば図36において、long信号(Ye+Mg)L11と(Cy+G)L12、(Ye+Mg)L13と(Cy+G)L14をそれぞれ1ブロックとし、これと同位置に存在するshort信号(Ye+Mg)S11と(Cy+G)S12、(Ye+Mg)S13と(Cy+G)S14をそれぞれ1ブロックとすると、この2画素単位のブロック毎に合成係数を求め、合成を行うことも可能であり、このとき例えばlong信号(Ye+Mg)L11と(Cy+G)L12からなるブロックとshort信号(Ye+Mg)S11と(Cy+G)S12の合成は、このブロックの合成係数をkb11とするとそれぞれ(数18)のように行う。((Ye+Mg)M11、(Cy+G)M12は合成後の信号)   In the first embodiment of the present invention, the signal synthesizing unit 7 may be configured to perform synthesis by obtaining a synthesis coefficient for a block composed of a plurality of pixels. For example, in FIG. 36, each of the long signals (Ye + Mg) L11 and (Cy + G) L12, (Ye + Mg) L13 and (Cy + G) L14 is one block, and the short signal ( If Ye + Mg) S11 and (Cy + G) S12, (Ye + Mg) S13 and (Cy + G) S14 are each one block, the synthesis coefficient is obtained for each block of 2 pixel units, and synthesis is performed. In this case, for example, a block consisting of a long signal (Ye + Mg) L11 and (Cy + G) L12 and a short signal (Ye + Mg) S11 and (Cy + G) S12 can be combined. When the coefficient is kb11, the calculation is performed as shown in (Equation 18). ((Ye + Mg) M11, (Cy + G) M12 are combined signals)

Figure 0003988760
Figure 0003988760

この場合、合成係数kb11はブロックに含まれるlong信号(例えば(Ye+Mg)L11と(Cy+G)L12)のいずれかの信号レベル、もしくはブロックに含まれるlong信号(例えば(Ye+Mg)L11と(Cy+G)L12)の平均値、最大値、最小値、中間値の少なくともいずれかから図13に示した方法で求まるkをブロックの合成係数kb11とすればよい。また、ブロックに含まれるlong信号の各信号レベルから図13に示した方法で求められる画素毎のkの値(例えば図36中のk1、k2)の平均値、最大値、最小値、中間値のいずれかをブロックの合成係数kb11とする構成も考えられる。なおブロック内の画素数は2画素と限らないことはいうまでもない。 In this case, the synthesis coefficient kb11 is either a signal level of a long signal (for example, (Ye + Mg) L11 and (Cy + G) L12) included in the block, or a long signal (for example, (Ye + Mg)) included in the block. The k obtained by the method shown in FIG. 13 from at least one of the average value, the maximum value, the minimum value, and the intermediate value of L11 and (Cy + G) L12) may be used as the block synthesis coefficient kb11. Further, an average value, maximum value, minimum value, and intermediate value of k values (for example, k1 and k2 in FIG. 36) for each pixel obtained by the method shown in FIG. 13 from each signal level of the long signal included in the block. A configuration in which any one of these is used as a block synthesis coefficient kb11 is also conceivable. Needless to say, the number of pixels in the block is not limited to two.

また、本発明の実施の形態1において、信号合成手段7では、複数の画素からなるブロックを設け、このブロック内の特定の位置、例えばブロックの中心位置に存在するlong信号レベルから図13に示した方法で求まる合成係数をブロック内の各画素の合成処理に用いる構成も考えられる。この場合、合成係数を画素毎に求める必要がなく、処理を簡略化できる。なお、合成係数を求める際に使用する画素の位置はブロックの中心位置に限る必要はない。
また、本発明の実施の形態1において、信号合成手段7では、合成係数kはlong信号ではなくフレーム画像に変換したshort信号から求める構成も考えられる。
また、フレーム画像に変換したshort信号ではなく、フィールド画像であるshort信号から合成係数kを求める構成も考えられる。この場合、図12からわかるようにlong信号の偶数ラインに対応するshort信号は存在しないため、このままでは合成係数を決定することができない。この場合、long信号の偶数ラインに対応する位置の合成係数は周辺のshort信号もしくは周辺の合成係数から求めればよい。
Further, in the first embodiment of the present invention, the signal synthesizing means 7 is provided with a block composed of a plurality of pixels, and a long signal level existing at a specific position in the block, for example, the center position of the block, is shown in FIG. A configuration is also conceivable in which the synthesis coefficient obtained by the above method is used for the synthesis processing of each pixel in the block. In this case, it is not necessary to obtain a synthesis coefficient for each pixel, and the processing can be simplified. Note that the position of the pixel used when obtaining the synthesis coefficient need not be limited to the center position of the block.
In the first embodiment of the present invention, the signal synthesizing unit 7 may be configured to obtain the synthesis coefficient k from a short signal converted into a frame image instead of a long signal.
Further, a configuration is also conceivable in which the synthesis coefficient k is obtained from a short signal that is a field image instead of a short signal converted into a frame image. In this case, as can be seen from FIG. 12, since there is no short signal corresponding to the even lines of the long signal, the synthesis coefficient cannot be determined as it is. In this case, the synthesis coefficient at the position corresponding to the even line of the long signal may be obtained from the peripheral short signal or the peripheral synthesis coefficient.

また、本発明の実施の形態1において信号レベルから合成係数kを求める方法の例を図13に示したが、合成係数kの決定方法はこれに限るものではなく、例えば図37に示すように輝度レベルに応じて非線形にkを決定する方法も考えられる。   Moreover, although the example of the method of calculating | requiring the synthetic | combination coefficient k from a signal level in Embodiment 1 of this invention was shown in FIG. 13, the determination method of the synthetic | combination coefficient k is not restricted to this, For example, as shown in FIG. A method of determining k non-linearly according to the luminance level is also conceivable.

また、本発明の実施の形態2において、short信号はフィールド読み出しモードで読み出した1フィールド画像としたがこれに限るものではなく、一例としては、図33にあげたように垂直方向に水平ライン信号を間引いて読み出す構成も考えられる。この場合、short信号は固体撮像素子上で上下2つのホトダイオードに蓄積された電荷が混合されずに読み出されるため、long信号に対する2水平ライン加算処理が不要となる。また、図4に示した補間手段702による補間処理においては、short信号の水平ライン数をlong信号に合わせるように補間処理を行う必要がある。つまり補間手段702においてはshort信号の各水平ライン信号間に2ライン分の水平ライン信号を補間処理により作成することになる。これによりshort信号とlong信号は同一の信号形式となり図4に示した重み付け加算手段703により合成することが可能となる。但し、図15に示した輝度信号抽出手段70401には上下2水平ライン加算されていないlong信号が供給されるため、同手段に輝度信号抽出のための2水平ライン加算処理を新たに追加する必要がある。あるいは輝度信号抽出手段70401の前段に2水平ライン加算手段701と同様の手段を設け、輝度信号抽出手段70401には2水平ラインが加算された信号が供給されるようにする必要がある。なお、このようにshort信号を間引いて読み出す場合はlong信号に対する2水平ライン加算処理が不要と記したがこれに限るものではなく、long信号、short信号ともに2水平ライン加算処理を施した後に、合成処理を行う構成も考えられる。   In the second embodiment of the present invention, the short signal is a one-field image read in the field read mode. However, the present invention is not limited to this. For example, as shown in FIG. A configuration is also conceivable in which thinning out and reading out is performed. In this case, since the short signal is read without mixing the charges accumulated in the two upper and lower photodiodes on the solid-state imaging device, the two horizontal line addition processing for the long signal becomes unnecessary. Further, in the interpolation processing by the interpolation means 702 shown in FIG. 4, it is necessary to perform the interpolation processing so that the number of horizontal lines of the short signal matches the long signal. That is, in the interpolation means 702, horizontal line signals for two lines are created by interpolation processing between the horizontal line signals of the short signal. As a result, the short signal and the long signal have the same signal format and can be combined by the weighted addition means 703 shown in FIG. However, since the luminance signal extraction means 70401 shown in FIG. 15 is supplied with a long signal that has not been subjected to addition of two horizontal lines, it is necessary to newly add two horizontal line addition processing for extracting the luminance signal to the means. There is. Alternatively, it is necessary to provide means similar to the two horizontal line addition means 701 in the preceding stage of the luminance signal extraction means 70401 so that the signal obtained by adding the two horizontal lines is supplied to the luminance signal extraction means 70401. In addition, in the case of reading out the short signal by thinning out in this way, it is described that the two horizontal line addition processing for the long signal is not necessary, but this is not limited to this, and after performing the two horizontal line addition processing for both the long signal and the short signal, A configuration for performing synthesis processing is also conceivable.

また、本発明の実施の形態2において、露光量の異なる2つの信号は1フィールド画像であるshort信号と1フレーム画像であるlong信号としたがこれに限るものではなく、固体撮像装置の用途によっては1フィールド画像であるlong信号と1フレーム画像であるshort信号としてもよい。この場合、図34に示すようにlong信号に対し補間手段702により垂直方向の補間処理を行い、short信号に対しては2水平ライン加算手段701により隣接する上下2ラインの加算を行う構成とすればよく、重み付け加算手段703で使用する合成係数は補間処理後のlong信号から抽出された輝度信号から求めればよい。また、補間処理前のlong信号から抽出された輝度信号から合成係数を求める構成も考えられ、この場合、図34(a)に示したshort信号の偶数ラインの位置には対応するlong信号が存在せず合成係数kを決めることができないため、short信号の偶数ラインの上下のラインと同じ位置に存在するlong信号の水平ライン信号から抽出された輝度信号より求められる合成係数から、short信号の偶数ラインの位置の合成係数を決定するなどをすればよい。このように、1フィールド画像であるlong信号と1フレーム画像であるshort信号から合成信号を求めることで、高輝度部での解像度の高いダイナミックレンジ拡大画像が撮影可能である。   In the second embodiment of the present invention, the two signals having different exposure amounts are a short signal that is a 1-field image and a long signal that is a 1-frame image, but the present invention is not limited to this. May be a long signal that is one field image and a short signal that is one frame image. In this case, as shown in FIG. 34, the long signal is interpolated by the interpolation means 702 in the vertical direction, and the short signal is added by the two horizontal line adding means 701 to add two adjacent upper and lower lines. What is necessary is just to obtain | require the synthetic | combination coefficient used by the weighting addition means 703 from the luminance signal extracted from the long signal after interpolation processing. In addition, a configuration is also conceivable in which a synthesis coefficient is obtained from a luminance signal extracted from a long signal before interpolation processing. In this case, a corresponding long signal exists at the position of the even line of the short signal shown in FIG. Therefore, the even number of the short signal is calculated from the combination coefficient obtained from the luminance signal extracted from the horizontal signal of the long signal existing at the same position as the upper and lower lines of the even line of the short signal. What is necessary is just to determine the synthetic | combination coefficient of the position of a line. In this manner, by obtaining a composite signal from a long signal that is a 1-field image and a short signal that is a 1-frame image, a dynamic range expanded image with a high resolution in a high-luminance part can be taken.

また、本発明の実施の形態2において、信号合成手段7では、long信号とshort信号を合成するための合成係数kはlong輝度信号の画素毎に求めるものとしたがこれに限るものではなく、例えば複数の画素の輝度信号レベルの平均値もしくは最小値もしくは最大値もしくは中間値から画素毎の合成係数kを求める構成や、画素毎に求められたkの値のうち複数個から求めたkの平均値もしくは最小値もしくは最大値もしくは中間値を画素毎の合成係数とする構成も考えられる。   Further, in the second embodiment of the present invention, the signal synthesis means 7 obtains the synthesis coefficient k for synthesizing the long signal and the short signal for each pixel of the long luminance signal. However, the present invention is not limited to this. For example, a configuration for obtaining a synthesis coefficient k for each pixel from an average value, minimum value, maximum value, or intermediate value of luminance signal levels of a plurality of pixels, or k obtained from a plurality of k values obtained for each pixel A configuration in which an average value, a minimum value, a maximum value, or an intermediate value is used as a synthesis coefficient for each pixel is also conceivable.

また、本発明の実施の形態2において、信号合成手段7では、複数の画素からなるブロックに対して合成係数を求めて合成を行う構成も考えられる。例えば図38において、long信号(Ye+Mg)L11と(Cy+G)L12、(Ye+Mg)L13と(Cy+G)L14をそれぞれ1ブロックとし、これと同位置に存在するshort信号(Ye+Mg)S11と(Cy+G)S12、(Ye+Mg)S13と(Cy+G)S14をそれぞれ1ブロックとすると、この2画素単位のブロック毎に合成係数を求め、合成を行うことも可能であり、このとき例えばlong信号(Ye+Mg)L11と(Cy+G)L12からなるブロックとshort信号(Ye+Mg)S11と(Cy+G)S12の合成は、このブロックの合成係数をkb11とするとそれぞれ(数18)のように行う。この場合、合成係数kb11はブロックに対応するlong輝度信号(例えば図38中のYL11とYL12)のいずれかの信号レベル、もしくはブロックに対応するlong輝度信号の平均値、最大値、最小値、中間値の少なくともいずれかから図18に示した方法で求まるkをブロックの合成係数kb11とすればよい。また、ブロックに対応するlong輝度信号の各信号レベルから図18に示した方法で求められる画素毎のkの値(例えば図38中のk1、k2)の平均値、最大値、最小値、中間値のいずれかをブロックの合成係数kb11とする構成も考えられる。なおブロック内の画素数は2画素と限らないことはいうまでもない。   In the second embodiment of the present invention, the signal synthesizing unit 7 may be configured to obtain a synthesis coefficient for a block composed of a plurality of pixels and perform synthesis. For example, in FIG. 38, each of the long signals (Ye + Mg) L11 and (Cy + G) L12, (Ye + Mg) L13 and (Cy + G) L14 is one block, and the short signal ( If Ye + Mg) S11 and (Cy + G) S12, (Ye + Mg) S13 and (Cy + G) S14 are each one block, the synthesis coefficient is obtained for each block of 2 pixel units, and synthesis is performed. In this case, for example, a block consisting of a long signal (Ye + Mg) L11 and (Cy + G) L12 and a short signal (Ye + Mg) S11 and (Cy + G) S12 can be combined. When the coefficient is kb11, the calculation is performed as shown in (Equation 18). In this case, the synthesis coefficient kb11 is either the signal level of the long luminance signal corresponding to the block (for example, YL11 and YL12 in FIG. 38), or the average value, maximum value, minimum value, and intermediate value of the long luminance signal corresponding to the block. K determined by the method shown in FIG. 18 from at least one of the values may be used as the block synthesis coefficient kb11. Further, the average value, maximum value, minimum value, and intermediate value of k values (for example, k1 and k2 in FIG. 38) for each pixel obtained by the method shown in FIG. 18 from each signal level of the long luminance signal corresponding to the block. A configuration in which one of the values is the block synthesis coefficient kb11 is also conceivable. Needless to say, the number of pixels in the block is not limited to two.

また、本発明の実施の形態2において、信号合成手段7では、複数の画素からなるブロックを設け、このブロック内の特定の位置、例えばブロックの中心位置に対応するlong輝度信号レベルから図18に示した方法で求まる合成係数をブロック内の各画素の合成処理に用いる構成も考えられる。この場合、合成係数を画素毎に求める必要がなく、処理を簡略化できる。なお、合成係数を求める際に使用する画素の位置はブロックの中心位置に限る必要はない。
また、本発明の実施の形態2において、信号合成手段7では、合成係数kはlong輝度信号ではなくフレーム画像に変換したshort信号から抽出される輝度信号(short輝度信号)から求める構成も考えられる。また、フレーム画像に変換したshort信号から抽出される輝度信号ではなく、フィールド画像であるshort信号から抽出される輝度信号から合成係数kを求める構成も考えられる。この場合、図12からわかるようにlong信号の偶数ラインに対応するshort信号は存在しないため、このままでは合成係数を決定することができない。この場合、long信号の偶数ラインに対応する位置の合成係数は周辺のshort輝度信号もしくは周辺の合成係数から求めればよい。
Further, in the second embodiment of the present invention, the signal synthesizing means 7 is provided with a block composed of a plurality of pixels, and a long luminance signal level corresponding to a specific position in the block, for example, the center position of the block, is shown in FIG. A configuration is also conceivable in which the synthesis coefficient obtained by the method shown is used for the synthesis processing of each pixel in the block. In this case, it is not necessary to obtain a synthesis coefficient for each pixel, and the processing can be simplified. Note that the position of the pixel used when obtaining the synthesis coefficient need not be limited to the center position of the block.
In the second embodiment of the present invention, the signal synthesizing unit 7 may be configured to obtain the synthesis coefficient k from a luminance signal (short luminance signal) extracted from a short signal converted into a frame image instead of a long luminance signal. . Further, a configuration is also conceivable in which the synthesis coefficient k is obtained from the luminance signal extracted from the short signal that is a field image, instead of the luminance signal extracted from the short signal converted into the frame image. In this case, as can be seen from FIG. 12, since there is no short signal corresponding to the even lines of the long signal, the synthesis coefficient cannot be determined as it is. In this case, the synthesis coefficient at the position corresponding to the even line of the long signal may be obtained from the peripheral short luminance signal or the peripheral synthesis coefficient.

また、本発明の実施の形態2において信号レベルから合成係数kを求める方法の例を図18に示したが、合成係数kの決定方法はこれに限るものではなく、例えば図39に示すように輝度レベルに応じて非線形にkを決定する方法も考えられる。
また、本発明の実施の形態3において、short信号はフィールド読み出しモードで読み出した1フィールド画像としたがこれに限るものではなく、一例としては、図33にあげたように垂直方向に水平ライン信号を間引いて読み出す構成も考えられる。この場合、short信号は固体撮像素子上で上下2つのホトダイオードに蓄積された電荷が混合されずに読み出されるため、例えば図40に示すような構成とすればよい。図40に示した構成ではshort信号の上下2画素混合を2水平ライン加算手段27(2水平ライン加算手段701と同様の手段であるが、区別するために付番を27とする)において行うため、結果的には図20に示した構成と同様の機能、効果を実現できる。但し、輝度信号補間手段12においてはshort信号の間引かれ方に応じて、補間処理の内容が変わることは言うまでもない。例えばshort信号が図30に示したように間引かれた信号の場合、例えば図41に示すようにshort輝度信号(図41(c))の各水平ライン間に2ラインづつの補間水平ライン信号を内挿により作成すればよい。また補間手段702においても同様にshort信号の間引かれ方に応じて、必要な水平ライン信号を作成すればよいことは言うまでもない。なお、図33にあげたように垂直方向に水平ライン信号を間引いて読み出す構成の場合、図40に2水平ライン加算手段701及び27の2つの2水平ライン加算手段を持つ構成を示したがこれに限るものではなく、2水平ライン加算手段701及び27を持たない構成も考えられる。この場合、輝度信号抽出手段70401に2水平ライン加算手段701及び27と同様の効果を有する手段を包含させることでlong信号とshort信号からの輝度抽出が可能である。またこのような2水平ライン加算手段701、27を有さない構成は、固体撮像素子3上に形成された色フィルターが例えばレッド(R)、グリーン(G)、ブルー(B)の原色からなり、一般に固体撮像素子3のホトダイオード上の電荷を混合せずに輝度信号と色信号を得る撮像方式においても有効である。
また、本発明の実施の形態3及び本発明の実施の形態4において、露光量の異なる2つの信号は1フィールド画像であるshort信号と1フレーム画像であるlong信号としたがこれに限るものではなく、固体撮像装置の用途によっては1フィールド画像であるlong信号と1フレーム画像であるshort信号としてもよい。この場合、long信号から得られるlong輝度信号に対し輝度信号補間手段12により垂直方向の補間処理を行い、補間処理後のlong輝度とshort輝度信号を輝度信号合成手段13において合成すればよく、その際に使用する合成係数は補間処理後のlong輝度信号から求めればよい。また、本発明の実施の形態1及び本発明の実施の形態2と同様に補間処理前のlong輝度信号から抽出された輝度信号から合成係数を求める構成も考えられる。このように、1フィールド画像であるlong信号と1フレーム画像であるshort信号から合成信号を求めることで、高輝度部での解像度の高いダイナミックレンジ拡大画像が撮影可能である。
また、本発明の実施の形態3において、補間手段702は1ラインメモリを2個使用し、2水平ライン分の信号から補間処理を行う構成としたがこれに限るものではなく、例えば更に多数の1ラインメモリを用いて、更に多数の水平ライン信号から高次の内挿処理により補間処理を行う構成も考えられる。また、入力される1水平ラインを2回ずつ繰り返し出力することで水平ライン数を2倍にするいわゆる前値補間を行う構成も考えられる。
Further, although an example of a method for obtaining the synthesis coefficient k from the signal level in Embodiment 2 of the present invention is shown in FIG. 18, the method for determining the synthesis coefficient k is not limited to this. For example, as shown in FIG. A method of determining k non-linearly according to the luminance level is also conceivable.
In the third embodiment of the present invention, the short signal is a one-field image read in the field read mode. However, the present invention is not limited to this. For example, as shown in FIG. A configuration is also conceivable in which thinning out and reading out is performed. In this case, since the short signal is read out without mixing the charges accumulated in the upper and lower photodiodes on the solid-state imaging device, the configuration shown in FIG. In the configuration shown in FIG. 40, the upper and lower two-pixel mixing of the short signal is performed by the two horizontal line addition means 27 (same means as the two horizontal line addition means 701, but the number is 27 for distinction). As a result, functions and effects similar to those of the configuration shown in FIG. 20 can be realized. However, it goes without saying that in the luminance signal interpolating means 12, the content of the interpolation processing changes depending on how the short signal is thinned out. For example, when the short signal is a signal thinned out as shown in FIG. 30, for example, as shown in FIG. 41, two horizontal interpolated horizontal line signals are provided between each horizontal line of the short luminance signal (FIG. 41 (c)). May be created by interpolation. Needless to say, the interpolation unit 702 can also generate the necessary horizontal line signal according to how the short signal is thinned out. In the case of the configuration in which the horizontal line signal is thinned and read out in the vertical direction as shown in FIG. 33, FIG. 40 shows a configuration having two 2-horizontal line addition means of 2-horizontal line addition means 701 and 27. The present invention is not limited to this, and a configuration without the two horizontal line addition means 701 and 27 is also conceivable. In this case, it is possible to extract the luminance from the long signal and the short signal by including a unit having the same effect as the two horizontal line adding units 701 and 27 in the luminance signal extracting unit 70401. Further, in such a configuration without the two horizontal line adding means 701 and 27, the color filter formed on the solid-state image pickup device 3 is composed of primary colors of red (R), green (G), and blue (B), for example. In general, it is also effective in an imaging system that obtains a luminance signal and a color signal without mixing charges on the photodiode of the solid-state imaging device 3.
In the third embodiment and the fourth embodiment of the present invention, the two signals having different exposure amounts are a short signal that is a one-field image and a long signal that is a one-frame image. Alternatively, depending on the use of the solid-state imaging device, a long signal that is one field image and a short signal that is one frame image may be used. In this case, the luminance signal interpolating means 12 performs vertical interpolation processing on the long luminance signal obtained from the long signal, and the luminance signal synthesizing means 13 synthesizes the long luminance and the short luminance signal after the interpolation processing. What is necessary is just to obtain | require the synthetic | combination coefficient used in the case from the long luminance signal after an interpolation process. Further, as in the first embodiment and the second embodiment of the present invention, a configuration is also conceivable in which the synthesis coefficient is obtained from the luminance signal extracted from the long luminance signal before the interpolation processing. In this manner, by obtaining a composite signal from a long signal that is a 1-field image and a short signal that is a 1-frame image, a dynamic range expanded image with a high resolution in a high-luminance part can be taken.
In the third embodiment of the present invention, the interpolation unit 702 uses two 1-line memories and performs interpolation processing from signals for two horizontal lines. However, the present invention is not limited to this. A configuration is also conceivable in which interpolation processing is performed from a larger number of horizontal line signals by high-order interpolation processing using a one-line memory. In addition, a configuration in which so-called pre-value interpolation is performed to double the number of horizontal lines by repeatedly outputting each input horizontal line twice.

また、本発明の実施の形態3及び本発明の実施の形態4において、輝度信号補間手段12は2水平ライン信号の加算平均値を補間信号としたがこれに限るものではなく、例えば更に多数の水平ライン信号から高次の内挿処理により補間処理を行う構成や、前値補間により補間信号を得る構成も考えられる。   In the third embodiment and the fourth embodiment of the present invention, the luminance signal interpolation means 12 uses the addition average value of the two horizontal line signals as an interpolation signal, but the present invention is not limited to this. A configuration in which interpolation processing is performed from a horizontal line signal by high-order interpolation processing and a configuration in which an interpolation signal is obtained by previous value interpolation are also conceivable.

また、本発明の実施の形態3及び本発明の実施の形態4において、輝度信号合成手段13においてlong輝度信号とshort輝度信号を合成するための合成係数kはlong輝度信号の画素毎に求めるものとしたがこれに限るものではなく、例えば、複数の画素のlong輝度信号レベルの平均値もしくは最小値もしくは最大値もしくは中間値から画素毎の合成係数kを求める構成や、画素毎に求められたkの値のうち複数個のkの値の平均値もしくは最小値もしくは最大値もしくは中間値を画素毎の合成係数とする構成も考えられる。   In Embodiment 3 and Embodiment 4 of the present invention, the synthesis coefficient k for synthesizing the long luminance signal and the short luminance signal in the luminance signal synthesizing unit 13 is obtained for each pixel of the long luminance signal. However, the present invention is not limited to this. For example, a composition for obtaining the synthesis coefficient k for each pixel from the average value, minimum value, maximum value, or intermediate value of the long luminance signal levels of a plurality of pixels, or the value obtained for each pixel. A configuration in which an average value, a minimum value, a maximum value, or an intermediate value of a plurality of k values among k values is used as a synthesis coefficient for each pixel is also conceivable.

また、本発明の実施の形態3及び本発明の実施の形態4において、輝度信号合成手段13では、複数の画素からなるブロックに対して合成係数を求めて合成を行う構成も考えられる。例えば図43において、long輝度信号YL11とYL12、YL13とYL14をそれぞれ1ブロックとし、これと同位置に存在するshort輝度信号YS11とYS12、YS13とYS14をそれぞれ1ブロックとすると、この2画素単位のブロック毎に合成係数を求め、合成を行うことも可能であり、このとき例えばlong輝度信号YL11とYL12からなるブロックとshort輝度信号YS11とYS12の合成は、このブロックの合成係数をkb11とするとそれぞれ(数19)のように行う。(YMは合成後の輝度信号)。   Further, in Embodiment 3 and Embodiment 4 of the present invention, the luminance signal combining means 13 may be configured to perform combining by obtaining a combination coefficient for a block composed of a plurality of pixels. For example, in FIG. 43, assuming that the long luminance signals YL11 and YL12, YL13 and YL14 are each one block, and the short luminance signals YS11 and YS12 and YS13 and YS14 existing at the same position are one block, this two-pixel unit. It is also possible to obtain a synthesis coefficient for each block and perform synthesis.In this case, for example, a block consisting of long luminance signals YL11 and YL12 and a short luminance signal YS11 and YS12 are synthesized, assuming that the synthesis coefficient of this block is kb11. (Equation 19) (YM is the synthesized luminance signal).

Figure 0003988760
Figure 0003988760

この場合、合成係数kb11はブロックに対応するlong輝度信号(例えば図43中のY11とY12)のいずれかの信号レベル、もしくはブロックに対応するlong輝度信号の平均値、最大値、最小値、中間値の少なくともいずれかから図18に示した方法で求まるkをブロックの合成係数kb11とすればよい。また、ブロックに対応するlong輝度信号の各信号レベルから図18に示した方法で求められる画素毎のkの値(例えば図43中のk1、k2)の平均値、最大値、最小値、中間値のいずれかをブロックの合成係数kb11とする構成も考えられる。なおブロック内の画素数は2画素と限らないことはいうまでもない。 In this case, the synthesis coefficient kb11 is either the signal level of the long luminance signal corresponding to the block (for example, Y11 and Y12 in FIG. 43), or the average value, maximum value, minimum value, and intermediate value of the long luminance signal corresponding to the block. K determined by the method shown in FIG. 18 from at least one of the values may be used as the block synthesis coefficient kb11. Further, the average value, maximum value, minimum value, and intermediate value of k values (for example, k1 and k2 in FIG. 43) for each pixel obtained by the method shown in FIG. 18 from each signal level of the long luminance signal corresponding to the block. A configuration in which one of the values is the block synthesis coefficient kb11 is also conceivable. Needless to say, the number of pixels in the block is not limited to two.

また、本発明の実施の形態3及び本発明の実施の形態4において、輝度信号合成手段13では、複数の画素からなるブロックを設け、このブロック内の特定の位置、例えばブロックの中心位置に対応するlong輝度信号レベルから図18に示した方法で求まる合成係数をブロック内の各画素の合成処理に用いる構成も考えられる。この場合、合成係数を画素毎に求める必要がなく、処理を簡略化できる。なお、合成係数を求める際に使用する画素の位置はブロックの中心位置に限る必要はない。   In Embodiment 3 and Embodiment 4 of the present invention, the luminance signal synthesis means 13 provides a block composed of a plurality of pixels and corresponds to a specific position in this block, for example, the center position of the block. A configuration in which the synthesis coefficient obtained by the method shown in FIG. 18 from the long luminance signal level is used for the synthesis processing of each pixel in the block is also conceivable. In this case, it is not necessary to obtain a synthesis coefficient for each pixel, and the processing can be simplified. Note that the position of the pixel used when obtaining the synthesis coefficient need not be limited to the center position of the block.

また、本発明の実施の形態3及び本発明の実施の形態4において、信号合成手段14及び23では、long信号とshort信号を合成するための合成係数kはlong輝度信号から合成係数発生手段1301により画素毎に求められた値を用いるものとしたがこれに限るものではなく、例えば図42に示すように信号合成手段14及び23の内部に合成係数発生手段1404を独自に備え、複数の画素のlong輝度信号レベルの平均値もしくは最小値もしくは最大値もしくは中間値から画素毎の合成係数kを求める構成や、画素毎に求められたkの値のうち複数個から求めたkの平均値もしくは最小値もしくは最大値もしくは中間値を画素毎の合成係数とする構成も考えられる。なおここで、合成係数発生手段1404の機能は合成係数発生手段1301と同様である。   In the third embodiment and the fourth embodiment of the present invention, in the signal synthesis means 14 and 23, the synthesis coefficient k for synthesizing the long signal and the short signal is a synthesis coefficient generation means 1301 from the long luminance signal. However, the present invention is not limited to this. For example, as shown in FIG. 42, a synthesis coefficient generation unit 1404 is uniquely provided inside the signal synthesis units 14 and 23, and a plurality of pixels is obtained. The composition of obtaining the synthesis coefficient k for each pixel from the average value, minimum value, maximum value or intermediate value of the long luminance signal level, or the average value of k obtained from a plurality of k values obtained for each pixel or A configuration in which the minimum value, the maximum value, or the intermediate value is used as a synthesis coefficient for each pixel is also conceivable. Here, the function of the synthesis coefficient generation unit 1404 is the same as that of the synthesis coefficient generation unit 1301.

また、本発明の実施の形態3及び本発明の実施の形態4において、信号合成手段14及び23では、複数の画素からなるブロックに対して合成係数を求めて合成を行う構成も考えられる。例えば図38において、long信号(Ye+Mg)L11と(Cy+G)L12、(Ye+Mg)L13と(Cy+G)L14をそれぞれ1ブロックとし、これと同位置に存在するshort信号(Ye+Mg)S11と(Cy+G)S12、(Ye+Mg)S13と(Cy+G)S14をそれぞれ1ブロックとすると、この2画素単位のブロック毎に合成係数を求め、合成を行うことも可能であり、このとき例えばlong信号(Ye+Mg)L11と(Cy+G)L12からなるブロックとshort信号(Ye+Mg)S11と(Cy+G)S12の合成は、このブロックの合成係数をkb11とすると(数18)のように行う。この場合、合成係数kb11は各ブロックと空間的に同じ位置に存在するlong輝度信号(例えば図38中のYL11とYL12)のいずれかの信号レベル、もしくはブロックと空間的に同じ位置に存在するlong輝度信号の平均値、最大値、最小値、中間値の少なくともいずれかから図18に示した方法で求まるkをブロックの合成係数kb11とすればよい。また、ブロックと空間的に同じ位置に存在するlong輝度信号の各信号レベルから図18に示した方法で求められる画素毎のkの値(例えば図38中のk1、k2)の平均値、最大値、最小値、中間値のいずれかをブロックの合成係数kb11とする構成も考えられる。なおブロック内の画素数は2画素と限らないことはいうまでもない。   In the third embodiment and the fourth embodiment of the present invention, the signal synthesis means 14 and 23 may be configured to perform synthesis by obtaining a synthesis coefficient for a block composed of a plurality of pixels. For example, in FIG. 38, each of the long signals (Ye + Mg) L11 and (Cy + G) L12, (Ye + Mg) L13 and (Cy + G) L14 is one block, and the short signal ( If Ye + Mg) S11 and (Cy + G) S12, (Ye + Mg) S13 and (Cy + G) S14 are each one block, the synthesis coefficient is obtained for each block of 2 pixel units, and synthesis is performed. In this case, for example, a block consisting of a long signal (Ye + Mg) L11 and (Cy + G) L12 and a short signal (Ye + Mg) S11 and (Cy + G) S12 can be combined. When the coefficient is kb11, the calculation is performed as shown in (Expression 18). In this case, the synthesis coefficient kb11 is either a signal level of a long luminance signal (for example, YL11 and YL12 in FIG. 38) that exists at the same spatial position as each block, or a long that exists at the same spatial position as the block. K obtained by the method shown in FIG. 18 from at least one of the average value, the maximum value, the minimum value, and the intermediate value of the luminance signal may be used as the block synthesis coefficient kb11. Further, the average value and the maximum value of k values (for example, k1 and k2 in FIG. 38) for each pixel obtained by the method shown in FIG. 18 from each signal level of the long luminance signal existing spatially at the same position as the block. A configuration in which any one of the value, the minimum value, and the intermediate value is used as the block synthesis coefficient kb11 is also conceivable. Needless to say, the number of pixels in the block is not limited to two.

また、本発明の実施の形態3及び本発明の実施の形態4において、信号合成手段14及び23では、複数の画素からなるブロックを設け、このブロック内の特定の位置、例えばブロックの中心位置と空間的に同じ位置に存在するlong輝度信号レベルから図18に示した方法で求まる合成係数をブロック内の各画素の合成処理に用いる構成も考えられる。この場合、合成係数を画素毎に求める必要がなく、処理を簡略化できる。なお、合成係数を求める際に使用する画素の位置はブロックの中心位置に限る必要はない。   In Embodiment 3 and Embodiment 4 of the present invention, the signal synthesizing means 14 and 23 provide a block composed of a plurality of pixels, and a specific position in this block, for example, the center position of the block A configuration is also conceivable in which the synthesis coefficient obtained by the method shown in FIG. 18 from the long luminance signal level existing at the same spatial position is used for the synthesis processing of each pixel in the block. In this case, it is not necessary to obtain a synthesis coefficient for each pixel, and the processing can be simplified. Note that the position of the pixel used when obtaining the synthesis coefficient need not be limited to the center position of the block.

また、本発明の実施の形態3及び本発明の実施の形態4において、信号合成手段14及び23で使用する合成係数kは上記方法でlong輝度信号から得られた値に一定の係数を乗算、もしくは一定の係数を加減算した値とする構成も考えられる。   In the third embodiment and the fourth embodiment of the present invention, the synthesis coefficient k used in the signal synthesis means 14 and 23 is obtained by multiplying the value obtained from the long luminance signal by the above method by a certain coefficient. Alternatively, a configuration in which a constant coefficient is added or subtracted is also conceivable.

また、本発明の実施の形態3及び本発明の実施の形態4において、輝度信号合成手段13、信号合成手段14及び23では、合成係数kはlong輝度信号ではなくフレーム画像に変換したshort信号から抽出される輝度信号(short輝度信号)から求める構成も考えられる。また、フレーム画像に変換したshort信号から抽出される輝度信号ではなく、フィールド画像であるshort信号から抽出される輝度信号から合成係数kを求める構成も考えられる。この場合、図12からわかるようにlong信号の偶数ラインに対応するshort信号は存在しないため、このままでは合成係数を決定することができない。この場合、long信号の偶数ラインに対応する位置の合成係数は周辺のshort輝度信号もしくは周辺の合成係数をそのまま用いるか、もしくは周辺の合成係数の平均値もしくは最大値もしくは最小値もしくは中間値から求めれる方法等が考えられる。その他、周辺の合成係数とその位置関係から補間処理により求める方法も考えられる。   In the third embodiment and the fourth embodiment of the present invention, in the luminance signal synthesis means 13 and the signal synthesis means 14 and 23, the synthesis coefficient k is not a long luminance signal but a short signal converted into a frame image. A configuration obtained from the extracted luminance signal (short luminance signal) is also conceivable. Further, a configuration is also conceivable in which the synthesis coefficient k is obtained from the luminance signal extracted from the short signal that is a field image, instead of the luminance signal extracted from the short signal converted into the frame image. In this case, as can be seen from FIG. 12, since there is no short signal corresponding to the even lines of the long signal, the synthesis coefficient cannot be determined as it is. In this case, the composite coefficient at the position corresponding to the even line of the long signal uses the peripheral short luminance signal or the peripheral composite coefficient as it is, or is obtained from the average value, maximum value, minimum value or intermediate value of the peripheral composite coefficient. Possible methods are considered. In addition, a method is also conceivable in which interpolation processing is used to determine the peripheral composite coefficients and their positional relationships.

また、本発明の実施の形態3及び本発明の実施の形態4において輝度信号レベルから合成係数kを求める方法の例を図18に示したが、合成係数kの決定方法はこれに限るものではなく、例えば図39に示すように輝度レベルに応じて非線形にkを決定する方法も考えられる。
また、本発明の実施の形態4において、short信号はフィールド読み出しモードで読み出した1フィールド画像としたがこれに限るものではなく、一例としては、図33にあげたように垂直方向に水平ライン信号を間引いて読み出す構成も考えられる。この場合、short信号は固体撮像素子上で上下2つのホトダイオードに蓄積された電荷が混合されずに読み出されるため、例えば図40と同様に2水平ライン加算手段によりshort信号の上下2画素混合を行うようにすれば、結果的には図30に示した構成と同様の機能、効果を実現できる。但し、本発明の実施の形態3と同様に輝度信号補間手段12においてはshort信号の間引かれ方に応じて、補間処理の内容が変わることは言うまでもない。また間引き手段22においても同様にshort信号の間引かれ方に応じて、long信号がshort信号と同じ信号形式になるように間引きを行えばよいことは言うまでもない。
Moreover, although the example of the method of calculating | requiring the synthesis coefficient k from the luminance signal level in Embodiment 3 of this invention and Embodiment 4 of this invention was shown in FIG. 18, the determination method of the synthesis coefficient k is not restricted to this. For example, as shown in FIG. 39, a method of determining k non-linearly according to the luminance level is also conceivable.
In the fourth embodiment of the present invention, the short signal is a one-field image read in the field read mode. However, the present invention is not limited to this. For example, as shown in FIG. A configuration is also conceivable in which thinning out and reading out is performed. In this case, since the short signal is read without mixing the charges accumulated in the two upper and lower photodiodes on the solid-state image sensor, the upper and lower two pixels are mixed by the two horizontal line addition means as in FIG. As a result, the same functions and effects as the configuration shown in FIG. 30 can be realized. However, as in the third embodiment of the present invention, it goes without saying that the luminance signal interpolating means 12 changes the content of the interpolation processing depending on how the short signal is thinned out. It goes without saying that the thinning means 22 may also perform thinning so that the long signal has the same signal format as the short signal according to how the short signal is thinned.

また、本発明の実施の形態4においては間引き手段22によりlong信号の垂直方向の間引き処理を行う構成を説明したが、図44に示すように画像信号から水平方向に画素を間引く機能を持つ水平方向間引き手段27を設け、これにより2水平ライン加算手段701を経たlong信号とshort信号の両者の水平方向の画素を例えば1/2に間引くような構成も考えられる。この場合、上記のように水平方向の画素を1/2に間引けば、同時化処理のための1ラインメモリ15、16をその半分の容量の0.5ラインメモリ28、29に置き換えることが可能である。このように水平方向にも画素を間引くことで本発明の固体撮像装置の構成を更に簡略化し安価にすることが可能である。
その場合、水平方向の間引き処理を行う前にlong信号及びshort信号の水平方向の帯域制限を行っておけば、間引き処理により不要な折り返しが発生しない。同様に垂直方向にも帯域制限を施せば、垂直方向の間引き処理に際しても不要な折り返しを回避可能であることは言うまでもない。
Further, in the fourth embodiment of the present invention, the configuration in which the thinning means 22 performs the thinning process of the long signal in the vertical direction has been described. However, as shown in FIG. A configuration is also conceivable in which the direction thinning means 27 is provided so that the horizontal pixels of both the long signal and the short signal that have passed through the two horizontal line addition means 701 are thinned to, for example, 1/2. In this case, if the number of pixels in the horizontal direction is reduced to 1/2 as described above, the 1-line memories 15 and 16 for the synchronization process can be replaced with the half-line 0.5-line memories 28 and 29. Is possible. Thus, by thinning out pixels in the horizontal direction, the configuration of the solid-state imaging device of the present invention can be further simplified and made inexpensive.
In this case, if the horizontal band limitation of the long signal and the short signal is performed before the thinning process in the horizontal direction, unnecessary aliasing does not occur due to the thinning process. Similarly, if band limitation is applied also in the vertical direction, it goes without saying that unnecessary aliasing can be avoided even in thinning processing in the vertical direction.

また上記すべての本発明の実施の形態において、long信号とshort信号は一旦画像メモリ6に記憶することとしたがこれに限るものではなく、例えばlong信号もしくはshort信号のいづれか一方のみ画像メモリ6に記憶させ、残りの片方の信号の固体撮像素子3からの読み出しと画像メモリ6からの信号読み出しを同期させて合成の処理を行う方法も考えられる。この場合、画像メモリ6の容量を削減でき、更に安価に固体撮像装置を構成可能である。   In all the embodiments of the present invention, the long signal and the short signal are temporarily stored in the image memory 6. However, the present invention is not limited to this. For example, only one of the long signal and the short signal is stored in the image memory 6. A method of storing and synthesizing the remaining one of the signals from the solid-state imaging device 3 and the signal reading from the image memory 6 may be considered. In this case, the capacity of the image memory 6 can be reduced, and a solid-state imaging device can be configured at a lower cost.

また上記すべての本発明の実施の形態において、固体撮像素子3上に形成されるカラーフィルター配列は図3に示すようなマゼンタ、グリーン、イエロー、シアンの4色からなる補色市松タイプを用いて説明したがこれに限るものではなく、一例をあげるならば、図45に示すようなマゼンタ(Mg)とグリーン(G)がライン毎に位置反転しない配置や、図46に示すようなグリーン(G)とシアン(Cy)、イエロー(Ye)の2つの補色フィルタをストライプ状に配置する構成も考えられる。   In all the embodiments of the present invention described above, the color filter array formed on the solid-state imaging device 3 is described using a complementary color checkered type consisting of four colors of magenta, green, yellow, and cyan as shown in FIG. However, the present invention is not limited to this. For example, magenta (Mg) and green (G) as shown in FIG. 45 are arranged so that their positions are not reversed for each line, or green (G) as shown in FIG. In addition, a configuration in which two complementary color filters of cyan (Cy) and yellow (Ye) are arranged in a stripe shape is also conceivable.

また上記すべての本発明の実施の形態において、固体撮像素子3上に形成されるカラーフィルター配列は図3に示すようなマゼンタ、グリーン、イエロー、シアンの4色からなる構成を用いて説明したがこれに限るものではなく、グリーン(G)、ブルー(B)、レッド(R)からなる原色フィルタを用いた構成も考えられ、そのフィルター配置として一例をあげるならば、図47に示したベイヤー方式、図48に示したインタライン方式、図49に示したGストライプRB完全市松方式、図50に示したストライプ方式、図51に示した斜めストライプ方式、図52に示したGストライプRB線順次方式、図53に示したGストライプRB点順次方式等が考えられる。このように原色フィルタを用いた場合に輝度信号は(数20)に従い求められることは言うまでもない。   In all the embodiments of the present invention described above, the color filter array formed on the solid-state image pickup device 3 has been described using a configuration comprising four colors of magenta, green, yellow, and cyan as shown in FIG. The configuration using primary color filters consisting of green (G), blue (B), and red (R) is not limited to this, and the Bayer method shown in FIG. 47 is an example of the filter arrangement. 48, the G stripe RB complete checkered method shown in FIG. 49, the stripe method shown in FIG. 50, the diagonal stripe method shown in FIG. 51, and the G stripe RB line sequential method shown in FIG. The G stripe RB point sequential method shown in FIG. 53 can be considered. Needless to say, when the primary color filter is used in this way, the luminance signal is obtained according to (Equation 20).

Figure 0003988760
Figure 0003988760

また上記すべての本発明の実施の形態において、固体撮像素子3上に形成されるカラーフィルター配列を図3に示すようなマゼンタ、グリーン、イエロー、シアンの4色からなる補色市松タイプとし、更にshort信号の読み出しをフィールド読み出しとして説明したため、long信号とshort信号の信号形式をあわせるために、2水平ライン加算手段701によるlong信号の上下2水平ライン加算処理を含む構成を示したがこれに限るものではなく、上記図45〜図53に示したような他のフィルター配置を採用した場合や、フィールド読み出しではなく、図33に示したような間引き読み出しを行う場合には、2水平ライン加算処理が必ずしも必要ではないことは言うまでもない。   In all the embodiments of the present invention described above, the color filter array formed on the solid-state image pickup device 3 is a complementary color checkered type consisting of four colors of magenta, green, yellow, and cyan as shown in FIG. Since the readout of the signal is described as the field readout, the configuration including the upper and lower two horizontal line addition processing of the long signal by the two horizontal line addition means 701 is shown in order to match the signal format of the long signal and the short signal. Instead, when other filter arrangements such as those shown in FIGS. 45 to 53 are employed, or when thinning readout as shown in FIG. 33 is performed instead of field readout, the two horizontal line addition processing is performed. Needless to say, this is not always necessary.

また上記すべての本発明の実施の形態において、合成係数を求める際の閾値Th_max、Th_min、Th_max’、Th_min’をそれぞれ(数21)のように設定し、長時間露光信号と短時間露光信号を重み付け加算ではなく、ある信号レベルを境に切り替える構成も考えられる。   In all the embodiments of the present invention, the thresholds Th_max, Th_min, Th_max ′, and Th_min ′ for obtaining the synthesis coefficient are set as shown in (Equation 21), and the long exposure signal and the short exposure signal are set. Instead of weighted addition, a configuration in which a certain signal level is switched to a boundary is also conceivable.

Figure 0003988760
Figure 0003988760

本発明の実施の形態1による固体撮像装置を示すブロック図1 is a block diagram showing a solid-state imaging device according to Embodiment 1 of the present invention. 本発明の実施の形態1における固体撮像素子3からの信号読み出しモードの説明図Explanatory drawing of the signal reading mode from the solid-state image sensor 3 in Embodiment 1 of this invention. 本発明の実施の形態1における固体撮像素子3上に形成される色フィルタ配置の例を示す図The figure which shows the example of the color filter arrangement | positioning formed on the solid-state image sensor 3 in Embodiment 1 of this invention. 本発明の実施の形態1における信号合成手段7の構成を示すブロック図The block diagram which shows the structure of the signal synthetic | combination means 7 in Embodiment 1 of this invention. 本発明の実施の形態1における2水平ライン加算手段701の構成を示すブロック図The block diagram which shows the structure of the 2 horizontal line addition means 701 in Embodiment 1 of this invention. 本発明の実施の形態1における補間手段702の構成を示すブロック図The block diagram which shows the structure of the interpolation means 702 in Embodiment 1 of this invention. 本発明の実施の形態1における重み付け加算手段703の構成を示すブロック図FIG. 2 is a block diagram showing the configuration of weighted addition means 703 in Embodiment 1 of the present invention. 本発明の実施の形態1におけるダイナミックレンジ拡大の原理を説明する説明図Explanatory drawing explaining the principle of dynamic range expansion in Embodiment 1 of this invention 本発明の実施の形態1におけるlong信号、short信号の露光及び読み出しタイミングを説明するための説明図Explanatory drawing for demonstrating the exposure and read-out timing of the long signal and short signal in Embodiment 1 of this invention 本発明の実施の形態1におけるshort信号を説明するための説明図Explanatory drawing for demonstrating the short signal in Embodiment 1 of this invention. 本発明の実施の形態1におけるlong信号を説明するための説明図Explanatory drawing for demonstrating the long signal in Embodiment 1 of this invention 本発明の実施の形態1における2水平ライン加算処理と補間処理を説明するための説明図Explanatory drawing for demonstrating 2 horizontal line addition processing and interpolation processing in Embodiment 1 of this invention 本発明の実施の形態1における合成係数決定方法を説明するためのグラフGraph for explaining a synthesis coefficient determination method in Embodiment 1 of the present invention 本発明の実施の形態1における信号合成処理の方法を説明するための説明図Explanatory drawing for demonstrating the method of the signal synthesis process in Embodiment 1 of this invention 本発明の実施の形態2における重み付け加算手段704の構成を示すブロック図The block diagram which shows the structure of the weighting addition means 704 in Embodiment 2 of this invention. 本発明の実施の形態2における輝度信号抽出手段70401の構成を示すブロック図The block diagram which shows the structure of the luminance signal extraction means 70401 in Embodiment 2 of this invention. 本発明の実施の形態2におけるlong輝度信号の作成方法を説明するための説明図Explanatory drawing for demonstrating the production method of the long luminance signal in Embodiment 2 of this invention 本発明の実施の形態2における合成係数決定方法を説明するためのグラフGraph for explaining a synthesis coefficient determination method in Embodiment 2 of the present invention 本発明の実施の形態2における信号合成処理の方法を説明するための説明図Explanatory drawing for demonstrating the method of the signal synthesis process in Embodiment 2 of this invention c固体撮像装置を示すブロック図c Block diagram showing a solid-state imaging device 本発明の実施の形態3における輝度信号補間手段12の構成を示すブロック図The block diagram which shows the structure of the luminance signal interpolation means 12 in Embodiment 3 of this invention. 本発明の実施の形態3における輝度信号合成手段13の構成を示すブロック図The block diagram which shows the structure of the luminance signal synthetic | combination means 13 in Embodiment 3 of this invention. 本発明の実施の形態3における信号合成手段14の構成を示すブロック図The block diagram which shows the structure of the signal synthetic | combination means 14 in Embodiment 3 of this invention. 本発明の実施の形態3における同時化手段19の構成を示すブロック図The block diagram which shows the structure of the synchronization means 19 in Embodiment 3 of this invention. 本発明の実施の形態3におけるlong輝度信号を説明するための説明図Explanatory drawing for demonstrating the long luminance signal in Embodiment 3 of this invention 本発明の実施の形態3におけるshort輝度信号を説明するための説明図Explanatory drawing for demonstrating the short luminance signal in Embodiment 3 of this invention. 本発明の実施の形態3における輝度信号の補間処理を説明するための説明図Explanatory drawing for demonstrating the interpolation process of the luminance signal in Embodiment 3 of this invention 本発明の実施の形態3における輝度信号の合成方法を説明するための説明図Explanatory drawing for demonstrating the synthetic | combination method of the luminance signal in Embodiment 3 of this invention. 本発明の実施の形態3における同時化手段19による同時化処理を説明するための説明図Explanatory drawing for demonstrating the synchronization process by the synchronization means 19 in Embodiment 3 of this invention 本発明の実施の形態4における固体撮像装置を示すブロック図Block diagram showing a solid-state imaging device according to Embodiment 4 of the present invention 本発明の実施の形態4における同時化手段24の構成を示すブロック図The block diagram which shows the structure of the synchronization means 24 in Embodiment 4 of this invention. 本発明の実施の形態3における同時化手段24による同時化処理を説明するための説明図Explanatory drawing for demonstrating the synchronization process by the synchronization means 24 in Embodiment 3 of this invention 固体撮像素子3からの画像信号読み出し方法の別の例を示す説明図Explanatory drawing which shows another example of the image signal read-out method from the solid-state image sensor 3. 本発明の実施の形態1においてlong信号をフィールド画、short信号をフレーム画とした場合の2水平ライン加算処理と補間処理を説明するための説明図Explanatory drawing for explaining 2-horizontal line addition processing and interpolation processing when a long signal is a field image and a short signal is a frame image in the first embodiment of the present invention. 前値補間処理を説明するための説明図Explanatory drawing for explaining the previous value interpolation processing 本発明の実施の形態1におけるlong信号とshort信号の合成方法の別の例を示す説明図Explanatory drawing which shows another example of the synthetic | combination method of the long signal and short signal in Embodiment 1 of this invention. 本発明の実施の形態1におけるlong信号レベルから合成係数を決定する方法の別の例を示すグラフThe graph which shows another example of the method of determining a synthetic | combination coefficient from the long signal level in Embodiment 1 of this invention. 本発明の実施の形態2におけるlong信号とshort信号の合成方法の別の例を示す説明図Explanatory drawing which shows another example of the synthetic | combination method of the long signal and short signal in Embodiment 2 of this invention. 本発明の実施の形態2におけるlong輝度信号レベルから合成係数を決定する方法の別の例を示すグラフThe graph which shows another example of the method of determining a synthetic | combination coefficient from the long luminance signal level in Embodiment 2 of this invention. 本発明の実施の形態3においてshort信号の読み出し方法を変えた場合の固体撮像装置のブロック図Block diagram of a solid-state imaging device when the short signal readout method is changed in Embodiment 3 of the present invention 本発明の実施の形態3においてshort信号の読み出し方法を変えた場合の輝度信号補間処理の内容を説明するための説明図Explanatory drawing for demonstrating the content of the luminance signal interpolation process at the time of changing the reading method of a short signal in Embodiment 3 of this invention 本発明の実施の形態3において信号合成手段14の別の構成を示すブロック図The block diagram which shows another structure of the signal synthetic | combination means 14 in Embodiment 3 of this invention. 本発明の実施の形態3及び本発明の実施の形態4におけるlong輝度信号とshort輝度信号の合成方法の別の例を示す説明図Explanatory drawing which shows another example of the synthetic | combination method of the long luminance signal and short luminance signal in Embodiment 3 of this invention and Embodiment 4 of this invention. 本発明の実施の形態4における固体撮像装置の別の例を示すブロック図Block diagram showing another example of a solid-state imaging device according to Embodiment 4 of the present invention 固体撮像素子3上に形成される色フィルタ配置の別の例を示す図The figure which shows another example of the color filter arrangement | positioning formed on the solid-state image sensor 3. 固体撮像素子3上に形成される色フィルタ配置(CyYeGストライプ方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (CyYeG stripe system) formed on the solid-state image sensor 3 固体撮像素子3上に形成される色フィルタ配置(ベイヤー方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (Bayer system) formed on the solid-state image sensor 3. 固体撮像素子3上に形成される色フィルタ配置(インタライン方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (interline system) formed on the solid-state image sensor 3. 固体撮像素子3上に形成される色フィルタ配置(GストライプRB完全市松方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (G stripe RB perfect checkered system) formed on the solid-state image sensor 3 固体撮像素子3上に形成される色フィルタ配置(ストライプ方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (stripe system) formed on the solid-state image sensor 3. 固体撮像素子3上に形成される色フィルタ配置(斜めストライプ方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (diagonal stripe system) formed on the solid-state image sensor 3. 固体撮像素子3上に形成される色フィルタ配置(GストライプRB線順次方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (G stripe RB line sequential system) formed on the solid-state image sensor 3 固体撮像素子3上に形成される色フィルタ配置(GストライプRB点順次方式)の別の例を示す図The figure which shows another example of the color filter arrangement | positioning (G stripe RB point sequential system) formed on the solid-state image sensor 3

符号の説明Explanation of symbols

1 光学レンズ
2 機械シャッター
3 固体撮像素子
4 アナログ信号処理手段
5 A/D変換手段
6 画像メモリ
7 信号合成手段
8 デジタル信号処理手段
9 シャッター駆動制御手段
10 固体撮像素子駆動制御手段
11 システム制御手段
DESCRIPTION OF SYMBOLS 1 Optical lens 2 Mechanical shutter 3 Solid-state image sensor 4 Analog signal processing means 5 A / D conversion means 6 Image memory 7 Signal synthesis means 8 Digital signal processing means 9 Shutter drive control means 10 Solid-state image sensor drive control means 11 System control means

Claims (12)

行列状に配置された複数個のホトダイオードと、前記ホトダイオード上に蓄積された電荷を外部に出力するための転送手段を有する固体撮像素子と、前記ホトダイオードに入射する光を遮光する遮光手段と、前記固体撮像素子から出力される画像信号を合成する信号合成手段と、を有し、前記固体撮像素子は、第1露光として前記ホトダイオード上に蓄積された電荷の一部のみを第1の読み出し制御パルスの印加後に前記転送手段を介して出力し、更に、前記第1の読み出し制御パルス印加後、前記遮光手段による露光終了をもって完了する第2露光において前記ホトダイオード上に蓄積された電荷を第2の読み出し制御パルスの印加後に前記転送手段を介して出力し、前記信号合成手段は、前記第1露光及び前記第2露光により撮影され、それぞれ前記転送手段を介して出力される画像信号を合成することを特徴とする固体撮像装置。 A plurality of photodiodes arranged in a matrix; a solid-state imaging device having a transfer means for outputting the charge accumulated on the photodiodes to the outside; a light shielding means for shielding light incident on the photodiode; Signal synthesizing means for synthesizing image signals output from the solid-state imaging device, and the solid-state imaging device uses a first readout control pulse for only a part of the electric charge accumulated on the photodiode as the first exposure. After the application of the first readout control pulse, the second readout of the charge accumulated on the photodiode in the second exposure completed upon completion of the exposure by the light shielding means. After the control pulse is applied, the signal is output through the transfer unit, and the signal synthesis unit is photographed by the first exposure and the second exposure, A solid-state imaging apparatus characterized by synthesizing the image signal outputted through respectively said transfer means. 行列状に配置された複数個のホトダイオードと、前記ホトダイオード上に蓄積された電荷を外部に出力するための転送手段を有する固体撮像素子と、前記ホトダイオードに入射する光を遮光する遮光手段と、前記固体撮像素子から出力される画像信号を合成する信号合成手段と、を有し、前記固体撮像素子は、第1露光として前記ホトダイオード上に蓄積された電荷を第1の読み出し制御パルスの印加後にフィールド読み出しにより前記転送手段を介して出力し、更に、前記第1の読み出し制御パルス印加後、前記遮光手段による露光終了をもって完了する第2露光において前記ホトダイオード上に蓄積された電荷を第2の読み出し制御パルスの印加後に前記転送手段を介して出力し、前記信号合成手段は、前記第1露光及び前記第2露光により撮影され、それぞれ前記転送手段を介して出力される画像信号を合成することを特徴とし、かつ前記第1露光により撮影された画像信号は、前記第2露光により撮影された画像信号に比べ画素数の少ない画像であることを特徴とする固体撮像装置。 A plurality of photodiodes arranged in a matrix; a solid-state imaging device having a transfer means for outputting the charge accumulated on the photodiodes to the outside; a light shielding means for shielding light incident on the photodiode; Signal synthesizing means for synthesizing image signals output from the solid-state imaging device, and the solid-state imaging device uses the charge accumulated on the photodiode as the first exposure after applying the first readout control pulse. A second read control is performed to output the charge accumulated on the photodiode in the second exposure which is output through the transfer means by reading and is completed after the exposure by the light shielding means is completed after the application of the first read control pulse. After the pulse is applied, the signal is output through the transfer unit, and the signal synthesis unit performs the first exposure and the second exposure. The image signals captured by the first exposure are combined, and the image signals captured by the first exposure are compared with the image signals captured by the second exposure. A solid-state imaging device characterized in that the number of images is small. 第1露光の露光時間は電子シャッターにより制御することを特徴とする請求項1または請求項のいずれかに記載の固体撮像装置。 Exposure time for the first exposure is a solid-state imaging device according to claim 1 or claim 2, characterized in that controlled by the electronic shutter. 第1露光と第2露光では、露光量を異ならせて露光を行うことを特徴とする請求項1からのいずれかに記載の固体撮像装置。 In the first and second exposures, the solid-state imaging device according to any one of claims 1 to 3, characterized in that the exposure by varying the exposure amount. 第2の読み出し制御パルスの印加後、第2露光においてホトダイオードに蓄積された電荷はフレーム読み出しにより出力されることを特徴とする請求項に記載の固体撮像装置。 3. The solid-state imaging device according to claim 2 , wherein after the second readout control pulse is applied, the electric charge accumulated in the photodiode in the second exposure is output by frame readout. 第1の読み出し制御パルスの印加後に読み出される画像は、第2の読み出し制御パルス印加後に読み出される画像に比べ、画素数の少ない画像であることを特徴とする請求項1、3、4のいずれかに記載の固体撮像装置。 Image read out after the application of the first read control pulse is compared with an image read out after the application a second read control pulse, claim 1, characterized in that the image having less number of pixels, 3,4 either The solid-state imaging device described in 1. 機械的な遮光手段は光学絞りを兼用することを特徴とする請求項1から請求項のいずれかに記載の固体撮像装置。 The solid-state imaging device according to claim 6 mechanical shielding means from the claim 1, characterized in that also serves the optical diaphragm. 固体撮像素子上に形成されるカラーフィルターはマゼンタ、グリーン、イエロー、シアンの4色であることを特徴とする請求項1から請求項のいずれかに記載の固体撮像装置。 Color filters formed on the solid-state imaging device magenta, green, yellow, solid-state imaging device according to any one of claims 1 to 7, characterized in that the four colors of cyan. 固体撮像素子上に形成されるカラーフィルター配列はマゼンタ、グリーン、イエロー、シアンの4色からなる補色市松タイプであることを特徴とする請求項1から請求項のいずれかに記載の固体撮像装置。 A color filter array formed on the solid-state imaging device magenta, green, yellow, solid-state imaging device according to any one of claims 1 to 8, characterized in that the complementary color checkered type consisting of four colors of cyan . 固体撮像素子上に形成されるカラーフィルターはレッド、グリーン、ブルーの3色であることを特徴とする請求項1から請求項のいずれかに記載の固体撮像装置。 Solid color filters red is formed on the imaging device, the green, the solid-state imaging device according to any one of claims 1 to 7, characterized in that the three colors of blue. 固体撮像素子上に形成されるカラーフィルター配列はレッド、グリーン、ブルーの3色からなる3色ストライプタイプであることを特徴とする請求項1から請求項のいずれかに記載の固体撮像装置。 Solid color filter array formed on the imaging device red, green, solid-state imaging device according to any one of claims 1 to 7, characterized in that the three-color stripe type consisting of three colors of blue. 固体撮像素子はインタライン転送CCD(IT−CCD)であることを特徴とする請求項1から請求項11のいずれかに記載の固体撮像装置。 Solid-state image sensor solid-state imaging device according to any one of claims 1 to 11, characterized in that the interline transfer CCD (IT-CCD).
JP2004237152A 2004-08-17 2004-08-17 Solid-state imaging device Expired - Fee Related JP3988760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004237152A JP3988760B2 (en) 2004-08-17 2004-08-17 Solid-state imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004237152A JP3988760B2 (en) 2004-08-17 2004-08-17 Solid-state imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP33122499A Division JP3674420B2 (en) 1999-11-22 1999-11-22 Solid-state imaging device

Publications (2)

Publication Number Publication Date
JP2004357335A JP2004357335A (en) 2004-12-16
JP3988760B2 true JP3988760B2 (en) 2007-10-10

Family

ID=34056477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004237152A Expired - Fee Related JP3988760B2 (en) 2004-08-17 2004-08-17 Solid-state imaging device

Country Status (1)

Country Link
JP (1) JP3988760B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006311240A (en) * 2005-04-28 2006-11-09 Olympus Corp Imaging apparatus
EP1883902B1 (en) * 2005-05-10 2011-08-03 Active Optics Pty. Ltd. Method of controlling an image capturing system, image capturing system and digital camera
JP4657052B2 (en) * 2005-07-29 2011-03-23 イーストマン コダック カンパニー Digital camera, shooting method, and shooting control program.
US8059174B2 (en) * 2006-05-31 2011-11-15 Ess Technology, Inc. CMOS imager system with interleaved readout for providing an image with increased dynamic range
JP2008301389A (en) * 2007-06-04 2008-12-11 Panasonic Corp Image processing lsi and imaging device
JP5157464B2 (en) * 2008-01-15 2013-03-06 株式会社ニコン Image processing device
JP4934617B2 (en) * 2008-03-11 2012-05-16 株式会社リコー Imaging apparatus and imaging method
JP5181970B2 (en) * 2008-09-25 2013-04-10 オムロン株式会社 Image processing apparatus and image processing method
JP5267587B2 (en) * 2011-01-31 2013-08-21 株式会社リコー Imaging apparatus and imaging method

Also Published As

Publication number Publication date
JP2004357335A (en) 2004-12-16

Similar Documents

Publication Publication Date Title
EP1237363B1 (en) Solid-state imaging device
JP5347707B2 (en) Imaging apparatus and imaging method
EP1246453A2 (en) Signal processing apparatus and method, and image sensing apparatus
EP0910209B1 (en) A video camera having an increased dynamic range
JP2004064165A (en) Imaging apparatus and the imaging method
JP4600315B2 (en) Camera device control method and camera device using the same
JP2942903B2 (en) Digital camera signal processor
JP2002084449A (en) Image pickup device employing solid-state imaging device
JP3999321B2 (en) Electronic camera
EP2214136B1 (en) Method and program for controlling image capture apparatus
JP3674420B2 (en) Solid-state imaging device
JP3988760B2 (en) Solid-state imaging device
KR20120024448A (en) Imaging apparatus, signal processing method, and program
JP2002335454A (en) Image processing unit, image processing method and imaging apparatus
JP2003189193A (en) Image pickup device
JP2001352486A (en) Image pickup device
JPH07123421A (en) Image pickup device
JP2005117494A (en) Imaging apparatus
JPH0795481A (en) Image pickup device
JP4814749B2 (en) Solid-state imaging device
JP3536502B2 (en) Digital still camera
JP2005051393A (en) Imaging apparatus
JP5377068B2 (en) Imaging device
JP2005117276A (en) Imaging device
JPH0984029A (en) Color image pickup device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070709

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100727

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110727

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120727

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130727

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees