JP2011087338A - Image pickup device and image pickup method - Google Patents

Image pickup device and image pickup method Download PDF

Info

Publication number
JP2011087338A
JP2011087338A JP2011017668A JP2011017668A JP2011087338A JP 2011087338 A JP2011087338 A JP 2011087338A JP 2011017668 A JP2011017668 A JP 2011017668A JP 2011017668 A JP2011017668 A JP 2011017668A JP 2011087338 A JP2011087338 A JP 2011087338A
Authority
JP
Japan
Prior art keywords
image
data
image data
sensitivity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011017668A
Other languages
Japanese (ja)
Other versions
JP5267587B2 (en
Inventor
Kenji Shiraishi
賢二 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2011017668A priority Critical patent/JP5267587B2/en
Publication of JP2011087338A publication Critical patent/JP2011087338A/en
Application granted granted Critical
Publication of JP5267587B2 publication Critical patent/JP5267587B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup device capable of obtaining high-sensitivity and high-resolution without the use of a special sensor by combining summation of distances between screens and summation of distances between pixels and by reducing time lag between the screens in the summation of the distances between the screens; and to provide an image pickup method. <P>SOLUTION: The image pickup device has N pieces of image pickup elements 11 disposed in a matrix, and a driving means 52 for driving the image pickup elements 11 and reading image pickup signals. The image pickup device further has a synthesizing means for synthesizing first image data and second image data to thereby form third image data. The first image data has M (M<N) pieces of pixel data that are obtained by summing image pickup signals from the plurality of image pickup elements that are in a predetermined positional relation during reading of the image pickup elements when the driving means 52 reads the image pickup signals from a portion of the image pickup elements 11. The second image data has O (N≥O>M) pieces of pixel data that are obtained by the driving means that reads the image pickup signals from all the pickup elements 11. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

高感度で高解像な撮像が可能な撮像装置及び撮像制御方法に関する。   The present invention relates to an imaging apparatus and an imaging control method capable of imaging with high sensitivity and high resolution.

デジタルカメラに撮像装置が用いられている。ところで、技術の進歩に伴い、デジタルカメラにおいて、センサーの画素数が多くなったことに加え、撮像装置の小型化が進み、センサーの各ピクセルが非常に微細になった。高画素により解像度の向上は得られたが、そのトレードオフとしてセンサーの感度が低くなってしまった。その結果、暗いところで手ぶれが発生しやすくなった。センサー出力が小さくなった分を電気的に増幅する方式は古くから用いられているが、この場合ノイズもいっしょに増幅してしまうために、あまり大きな増幅は行うことはできない。   An imaging device is used in a digital camera. By the way, with the advancement of technology, in addition to the increase in the number of pixels of a sensor in a digital camera, the downsizing of the imaging device has progressed, and each pixel of the sensor has become very fine. Although the resolution was improved by the high pixels, the sensitivity of the sensor was lowered as a trade-off. As a result, camera shake is likely to occur in dark places. A method of electrically amplifying the sensor output has been used for a long time, but in this case, noise is also amplified together, so that a large amplification cannot be performed.

そのため、次のように、多くの発明がなされている。   Therefore, many inventions have been made as follows.

複数画素加算により感度を向上させる発明(特許文献1参照。)、また、感度が高い画素と感度が低い画素が混在する特殊な(ハニカム)CCD(Charge Coupled Device)を使い、高感度データと低感度データを使って画素加算を行い、高ダイナミックレンジと高感度と高解像度を実現させた発明(特許文献2参照。)、静止画用に分割転送するCCDのフィールド間を比較した場合に差が少ないときに、低輝度の被写体をフィールドを加算することで高感度化を行った発明(特許文献3参照。)、複数画素を加算して高感度を得るもので、読み出し時に読み出しタイミングを工夫することで、画素加算によって低下する解像度の低下を抑えた発明(特許文献4参照。)、高感度撮影時は複数画素加算を行い、高解像度撮影時は加算を行わない読み出しを行った発明(特許文献5参照。)、高感度撮影のため、明るさにあわせて水平画素加算の加算条件を変えた発明(特許文献6参照。)、複数回撮影した画面同士を加算することで高感度化を行う発明(特許文献7参照。)。   An invention that improves sensitivity by adding a plurality of pixels (see Patent Document 1), and a special (honeycomb) CCD (Charge Coupled Device) in which pixels with high sensitivity and pixels with low sensitivity are mixed. An invention that performs pixel addition using sensitivity data to achieve a high dynamic range, high sensitivity, and high resolution (see Patent Document 2), and there is a difference when comparing CCD fields divided and transferred for still images. Invention in which high sensitivity is achieved by adding fields to low-luminance subjects when there are few (see Patent Document 3), which obtains high sensitivity by adding a plurality of pixels, and devise readout timing at the time of readout Thus, an invention that suppresses a decrease in resolution that is reduced by pixel addition (see Patent Document 4), a multi-pixel addition is performed during high-sensitivity shooting, and no addition is performed during high-resolution shooting. The invention (see Patent Document 5), the invention for changing the addition condition of horizontal pixel addition according to the brightness for high-sensitivity photography (see Patent Document 6), and adding screens taken multiple times The invention which makes high sensitivity by doing (refer patent document 7).

なお、感度とは、撮像素子に所定時間T露光したときの感度を"1"とし、二つの撮像素子の出力を加算した場合は、その感度は"2"と同等になる。また、同じ、撮像素子に、2Tの時間露光した場合は、その感度は"2"と同等の露光量(蓄積データ量又は輝度)となる。   The sensitivity is “1” when the image sensor is exposed to T for a predetermined time, and when the outputs of the two image sensors are added, the sensitivity is equal to “2”. Further, when the same image sensor is exposed for 2T, the sensitivity becomes an exposure amount (accumulated data amount or luminance) equivalent to “2”.

特許文献1、4、5及び6に記載された発明は、いずれも、後述する図3のような読み出し時に画素加算をして読み出す方式がある。この方式は2つ以上の画素の出力を加算して読み出すことにより、感度は加算した画素数分だけアップすることができるが、画素数が少なくなったことと等価であり、全画素を使った撮影よりも解像度が落ちるという問題がある。   Each of the inventions described in Patent Documents 1, 4, 5 and 6 has a method of reading by adding pixels at the time of reading as shown in FIG. In this method, by adding and reading the outputs of two or more pixels, the sensitivity can be increased by the number of added pixels, but this is equivalent to a reduction in the number of pixels, and all pixels were used. There is a problem that the resolution is lower than shooting.

また、特許文献2に記載された発明は、感度が高い画素と低い画素をセンサーの中に混在させて、ダイナミックレンジの拡大と高感度化を実現しようとしているものであるが、特殊なセンサーが必要になるとともに、後段の処理も複雑になり、回路規模拡大からコストアップと撮像装置の大型化という問題となってしまう。またセンサーを同サイズで同画素数とした場合、高感度画素の数は、全画素数よりも少なくなるため、暗くない場所で解像度が低下するという問題がある。   In addition, the invention described in Patent Document 2 is intended to increase the dynamic range and increase the sensitivity by mixing high sensitivity pixels and low sensitivity pixels in the sensor. In addition to being necessary, the subsequent processing becomes complicated, resulting in problems such as an increase in cost due to an increase in circuit scale and an increase in the size of the imaging apparatus. Further, when the sensors have the same size and the same number of pixels, the number of high-sensitivity pixels is smaller than the total number of pixels, so that there is a problem that the resolution is lowered in a dark place.

また、特許文献3に記載された発明は、読み出し後にライン間で加算をするものであるが、これも解像度が低下するという問題がある。   Further, the invention described in Patent Document 3 performs addition between lines after reading, but this also has a problem that the resolution is lowered.

特許文献7に記載された発明は、連続的に撮影した静止画同士を加算することで感度を高める方法の発明である。この公報の方式では取り込んだ画面同士の時間差が問題となる。500万画素などの高画素撮像装置では、全画素を読み出すために200msec以上の時間がかかってしまう。そのため画像間の露光タイミングのずれは露光時間を考えると250msec程度となり(換言すれば、この発明では、250msec以上異なる時間の画像を加算することになる。)、手持ちでの撮影は困難になる。また、動いている物体の撮影もブレが生じてしまう。   The invention described in Patent Document 7 is an invention of a method for increasing sensitivity by adding still images taken continuously. In the method of this publication, a time difference between captured screens becomes a problem. In a high pixel imaging device such as 5 million pixels, it takes 200 msec or more to read out all pixels. For this reason, the difference in exposure timing between images is about 250 msec in consideration of the exposure time (in other words, in the present invention, images having different times of 250 msec or more are added), and hand-held shooting becomes difficult. In addition, the shooting of a moving object also causes blurring.

また、手ブレを防ぐために機械的な機構を設ける撮像装置もあるが、これはブレを検出する装置と、レンズ又はセンサーなどを動かす装置が必要になり、コストアップにつながるという問題がある。また、この方式は被写体が動く、いわゆる物体ブレには対応できないという問題がある。   In addition, there is an image pickup apparatus provided with a mechanical mechanism to prevent camera shake, but this requires a device for detecting a shake and a device for moving a lens or a sensor, resulting in a problem of an increase in cost. In addition, this method has a problem that it cannot cope with so-called object blurring in which the subject moves.

フラッシュの光量を大きくする方法もあるが、この場合は、電荷をためるコンデンサーの容量を大きくする必要があり、コストアップと大型化が問題である。また、遠近の両方に被写体がある場合に、手前が適正になるように発光量を調整すると、遠い側の被写体が暗くなってしまうという問題が発生ある。   There is also a method of increasing the amount of light of the flash, but in this case, it is necessary to increase the capacity of the capacitor for accumulating electric charges, which raises the problem of cost increase and enlargement. In addition, when there is a subject in both the near and near, if the amount of light emission is adjusted so that the near side is appropriate, there is a problem that the subject on the far side becomes dark.

以上のような問題の対策として、本発明は、画面間加算と画素間加算を組み合わせ、画面間加算の画面間タイムラグを小さくすることで、特殊なセンサーを用いることなく高感度と高解像度な撮像装置及び撮像方法を提供することを目的とするものである。   As a countermeasure against the above problems, the present invention combines high-sensitivity and high-resolution imaging without using a special sensor by combining inter-screen addition and inter-pixel addition and reducing the inter-screen time lag of inter-screen addition. An object of the present invention is to provide an apparatus and an imaging method.

上記目的を達成するために、本発明の撮像装置は、マトリックス状に配置されたN個の撮像素子と、該撮像素子を駆動して撮像信号を読出す駆動手段とを有する撮像装置において、前記駆動手段が、全部又は一部の前記撮像素子から前記撮像信号を読出す際、所定の位置関係にある複数の前記撮像素子からの撮像信号を、該撮像素子の読取時に加算して得たM(M<N)個の画素データを有する第1の画像データと、前記駆動手段が、全部又は一部の前記撮像素子から前記撮像信号を読出して得たO(N≧O>M)個の画素データを有する第2の画像データと、を合成して、第3の画像データを合成する合成手段を有することを特徴とする。   In order to achieve the above object, an imaging apparatus according to the present invention includes: N imaging elements arranged in a matrix; and a driving unit that drives the imaging elements and reads an imaging signal. When the driving means reads the imaging signals from all or a part of the imaging elements, M obtained by adding the imaging signals from the plurality of imaging elements having a predetermined positional relationship at the time of reading the imaging elements First image data having (M <N) pixel data, and O (N ≧ O> M) number of images obtained by reading out the imaging signals from all or a part of the imaging elements by the driving unit. The image processing apparatus includes combining means for combining the second image data having pixel data and combining the third image data.

これにより、高感度低解像度画像である第1の画像データと低感度高解像度画像である第2の画像データとを加算することで、従来の高感度化の隣接画素加算することによって落ちてしまった解像度を高解像度画像によって補うことで、高感度で高解像度を実現することができる。   As a result, the first image data, which is a high-sensitivity low-resolution image, and the second image data, which is a low-sensitivity high-resolution image, are added, and the conventional high-sensitivity adjacent pixel addition is lost. The high resolution can be realized with high sensitivity by supplementing the resolution with a high resolution image.

また、上記目的を達成するために、本発明の撮像装置は、前記撮像素子を露光する露光手段を有し、前記駆動手段が、前記第1の画像データを読出す期間と、前記露光手段が、第2の画像データを得るために前記撮像素子を露光する期間とが、一部重複するように構成することができる。   In order to achieve the above object, the image pickup apparatus of the present invention includes an exposure unit that exposes the image pickup device, the drive unit reads the first image data, and the exposure unit The period during which the image sensor is exposed to obtain the second image data can be configured to partially overlap.

このように、高感度低解像度画像である第1の画像データを読出す期間と低感度高解像度画像である第2の画像データのための露光する期間とが、一部重複するようしたので、第1の画像データと第2の画像データのタイミングラグを小さくすることができる。   As described above, since the period for reading the first image data that is a high-sensitivity low-resolution image and the period for exposure for the second image data that is a low-sensitivity high-resolution image partially overlap, The timing lag between the first image data and the second image data can be reduced.

また、上記目的を達成するために、本発明の撮像装置は、前記撮像素子を露光する露光手段と、前記第1の画像データ及び前記第2の画像データを、画像データの合成等の処理を行う信号処理部に転送する転送手段とを有し、前記露光手段が第1の画像データを得るために前記撮像素子に対して露光を行い、さらに、前記転送手段が第1の画像データを転送した後に、前記露光手段が第2の画像データを得るために前記撮像素子に対して露光を行い、さらに、前記転送手段が第2の画像データを転送するように構成することができる。   In order to achieve the above object, an image pickup apparatus according to the present invention includes an exposure unit that exposes the image pickup device, a process such as image data combining of the first image data and the second image data. A transfer means for transferring to the signal processing unit to perform, the exposure means exposes the image sensor to obtain the first image data, and the transfer means transfers the first image data. Then, the exposure means performs exposure on the image sensor to obtain the second image data, and the transfer means transfers the second image data.

これにより、高感度低解像度画像である第1の画像データのために露光して読出す期間が、低感度高解像度画像である第2の画像データのために露光して読出す期間よりも、短いので、第1の画像データを得てから、第2の画像データを得るようにしても、第1の画像データと第2の画像データのタイミングラグを小さくすることができる。つまり、高感度で短い転送時間の高感度用データの露光と転送を先に行うことで、従来の2画面加算で発生していた露光開始タイミングのタイムラグを短くすることができ、手ブレを発生しにくくすることができる。   Thus, the period of exposure and reading for the first image data that is a high-sensitivity low-resolution image is longer than the period of exposure and reading for the second image data that is a low-sensitivity high-resolution image. Since it is short, the timing lag between the first image data and the second image data can be reduced even if the second image data is obtained after obtaining the first image data. In other words, by performing exposure and transfer of high-sensitivity data with high sensitivity and a short transfer time first, the time lag of the exposure start timing that occurred in the conventional two-screen addition can be shortened, causing camera shake. Can be difficult.

また、上記目的を達成するために、本発明の撮像装置は、高域周波数通過フィルタを有し、前記合成手段は、前記第1の画像データと、前記高域周波数通過フィルタにより処理された第2の画像データとを合成するように構成することができる。   In order to achieve the above object, the imaging apparatus of the present invention has a high-frequency pass filter, and the synthesizing means is processed by the first image data and the high-frequency pass filter. The two image data can be combined.

このように、低感度高解像度画像である第2の画像データに対して高域周波数通過フィルタ処理を行った上で、高感度低解像度画像である第1の画像データとの合成を行うことにより、低感度高解像度画像である第2の画像データのエッジ成分を取り出して加算することで、加算による白とび(高輝度クリップ)の可能性を低くすることができる。   As described above, the second image data that is the low-sensitivity high-resolution image is subjected to the high-frequency pass filter processing and then combined with the first image data that is the high-sensitivity low-resolution image. By extracting and adding the edge component of the second image data that is a low-sensitivity high-resolution image, the possibility of overexposure (high-intensity clip) due to addition can be reduced.

また、上記目的を達成するために、本発明の撮像装置は、画像サイズ変換手段を有し、前記合成手段は、前記画像サイズ変換手段により拡大された前記第1の画像データと、第2の画像データとを合成するように構成することができる。   In order to achieve the above object, the imaging apparatus according to the present invention includes an image size conversion unit, and the synthesis unit includes the first image data enlarged by the image size conversion unit, The image data can be combined with the image data.

これにより、高感度低解像度画像である第1の画像データと、低感度高解像度画像である第2の画像データの良い所を取って、画像データを合成することができる。つまり、大きいサイズにあわせることで、高解像度のデータの情報を削ることなく使用し、高画質な画像を得ることができる。   As a result, it is possible to synthesize image data by taking a good place between the first image data that is a high-sensitivity low-resolution image and the second image data that is a low-sensitivity high-resolution image. In other words, by adjusting to a large size, it is possible to obtain high-quality images by using high-resolution data information without cutting it.

また、上記目的を達成するために、本発明の撮像装置は、前記第1の画像データ及び前記第2の画像データから、所定の値を減算する減算手段を有し、前記合成手段は、前記減算手段により、所定の値が減算された前記第1の画像データ又は前記第2の画像データを用いて、合成を行うように構成することができる。   In order to achieve the above object, the imaging apparatus of the present invention has subtracting means for subtracting a predetermined value from the first image data and the second image data, and the synthesizing means The first image data or the second image data obtained by subtracting a predetermined value by the subtracting unit can be used for combining.

これにより、一定の値を減算すること低輝度部のノイズを除去することができる。なお、この処理は、低感度高解像度画像に対して、より有効である。   Thereby, the noise of a low-intensity part can be removed by subtracting a fixed value. This process is more effective for low-sensitivity high-resolution images.

また、上記目的を達成するために、本発明の撮像装置は、ホワイトバランス調整手段を有し、ホワイトバランス調整手段は、前記第1の画像データに基づいて、ホワイトバランスを調整するように構成することができる。   In order to achieve the above object, the imaging apparatus of the present invention includes a white balance adjustment unit, and the white balance adjustment unit is configured to adjust the white balance based on the first image data. be able to.

このように、信号レベルの大きい高感度低解像度画像である第1の画像データから静止画撮影時のAWB評価値(RGB積算)を取得することで、ノイズの影響が少ない安定したAWB処理を行うことができる。   As described above, by acquiring the AWB evaluation value (RGB integration) at the time of still image shooting from the first image data that is a high-sensitivity low-resolution image with a large signal level, stable AWB processing with less influence of noise is performed. be able to.

また、上記目的を達成するために、本発明の撮像装置は、前記第1の画像データから、所定の値を減算する減算手段を有し、前記ホワイトバランス調整手段は、前記減算手段が、前記第1の画像データから所定の値を減算する前の前記第1の画像データに基づいて、ホワイトバランスを調整するように構成することができる。   In order to achieve the above object, the imaging apparatus of the present invention includes a subtracting unit that subtracts a predetermined value from the first image data, and the white balance adjusting unit includes the subtracting unit, The white balance can be adjusted based on the first image data before subtracting a predetermined value from the first image data.

これにより、減算によりホワイトバランスがずれることを防ぐことができる。減算後にAWBゲイン乗算を行うと、減算した効果が異なってしまう。例えば、R=B=10、G=20として、Rゲインが2倍、Bゲインが2倍、減算する値を3だとする。減算を先に行うと、R:(10−3)×2=14、G:(20−3)=17、B:(10−3)×2=14となりホワイトバランスが崩れてしまう。先にAWBゲイン乗算を行うと、R:(10×2)−3=17、G:(20−3)=17、B:(10×2)−3=17となりホワイトバランスは崩れない。   Thereby, it is possible to prevent the white balance from being shifted due to subtraction. If the AWB gain multiplication is performed after the subtraction, the subtracted effect is different. For example, assuming that R = B = 10 and G = 20, the R gain is 2 times, the B gain is 2 times, and the value to be subtracted is 3. If subtraction is performed first, R: (10-3) × 2 = 14, G: (20-3) = 17, B: (10-3) × 2 = 14, and the white balance is lost. If AWB gain multiplication is performed first, R: (10 × 2) −3 = 17, G: (20−3) = 17, and B: (10 × 2) −3 = 17, and the white balance is not lost.

また、上記目的を達成するために、本発明の撮像装置は、前記駆動手段により読み出される撮像素子数を切り換える読出し画素数切換手段を有するように構成することができる。   In order to achieve the above object, the imaging apparatus of the present invention can be configured to have a readout pixel number switching means for switching the number of imaging elements read by the driving means.

これにより、例えば、記録画素数により高感度用データの読み出し画素数を変更するものである。少ない画素数を記録するときは、転送する画素数を減らすことで、2回の露光開始タイミングのずれをさらに短くすることが可能となる。   Thereby, for example, the number of readout pixels of the high sensitivity data is changed depending on the number of recording pixels. When recording a small number of pixels, it is possible to further shorten the deviation of the two exposure start timings by reducing the number of pixels to be transferred.

また、上記目的を達成するために、本発明の撮像方法は、マトリックス状に配置されたN個の撮像素子を駆動して撮像信号を読出す駆動ステップと、前記駆動ステップは、全部又は一部の前記撮像素子から前記撮像信号を読出して、所定の位置関係にある複数の前記撮像素子からの撮像信号の加算を行って、M(N>M)個の画素データ得る第1の駆動ステップと、全部又は一部の前記撮像素子から前記撮像信号を読出して、O(N≧O>M)個の画素データを得る第2の駆動ステップとを有し、前記第1の駆動ステップで得た第1の画像データと、前記第2の駆動ステップで得た第2の画像データとを合成して、第3の画像データを合成する合成ステップとを有する。   In order to achieve the above object, an imaging method according to the present invention includes a driving step of driving N imaging elements arranged in a matrix to read out an imaging signal, and the driving step is wholly or partly. A first driving step of reading out the imaging signals from the imaging elements and adding the imaging signals from the plurality of imaging elements in a predetermined positional relationship to obtain M (N> M) pixel data; A second driving step of reading out the imaging signals from all or a part of the imaging elements to obtain O (N ≧ O> M) pixel data, and obtained in the first driving step. A synthesis step of synthesizing the third image data by synthesizing the first image data and the second image data obtained in the second driving step;

また、上記目的を達成するために、本発明の撮像方法は、前記撮像素子を露光して第2の画像データを得る露光ステップを有し、前記第1の駆動ステップにより前記第1の画像データを読出している期間と、前記露光ステップにより第2の画像データを得るために前記撮像素子を露光する期間とが、一部重複するように構成することができる。   In order to achieve the above object, the imaging method of the present invention has an exposure step of exposing the imaging device to obtain second image data, and the first image data is obtained by the first driving step. And a period during which the image sensor is exposed to obtain the second image data by the exposure step can be configured to partially overlap.

また、上記目的を達成するために、本発明の撮像方法は、前記第1の画像データを、画像データの合成等の処理を行う信号処理部に転送する第1の転送ステップと、前記第2の画像データを、前記信号処理部に転送する第2の転送ステップと、前記撮像素子を露光して第1の画像データを得るための露光を行う第1の露光ステップと、前記撮像素子を露光して第2の画像データを得るための露光を行う第2の露光ステップと、を有し、第1の露光ステップ及び第1の転送ステップの後に、第2の露光ステップ及び第2の転送ステップを有するように構成することができる。   In order to achieve the above object, the imaging method of the present invention includes a first transfer step of transferring the first image data to a signal processing unit that performs processing such as composition of image data, and the second. A second transfer step for transferring the image data to the signal processing unit, a first exposure step for performing exposure for exposing the image sensor to obtain first image data, and exposing the image sensor. And a second exposure step for performing exposure for obtaining second image data, and after the first exposure step and the first transfer step, the second exposure step and the second transfer step. It can comprise so that it may have.

また、上記目的を達成するために、本発明の撮像方法は、画像データに対して高域周波数成分を通過させる高域周波数通過フィルタ処理を行う高域周波数通過フィルタステップを有し、前記合成ステップは、前記第1の画像データと、前記高域周波数通過フィルタステップにより処理された第2の画像データとを合成するように構成することができる。   In order to achieve the above object, the imaging method of the present invention includes a high-frequency pass filter step for performing high-frequency pass filter processing for passing high-frequency components to image data, and the synthesis step May be configured to synthesize the first image data and the second image data processed by the high-pass frequency pass filter step.

また、上記目的を達成するために、本発明の撮像方法は、前記第1の画像データの画像サイズを変換する画像サイズ変換ステップを有し、前記合成ステップは、前記画像サイズ変換ステップにより拡大された前記第1の画像データと、第2の画像データとを合成するように構成することができる。   In order to achieve the above object, the imaging method of the present invention has an image size conversion step of converting an image size of the first image data, and the synthesis step is enlarged by the image size conversion step. The first image data and the second image data can be combined.

また、上記目的を達成するために、本発明の撮像方法は、前記第1の画像データから、所定の値を減算する第1の減算ステップと、前記第2の画像データから、所定の値を減算する第2の減算ステップと、を有し、前記合成ステップは、第1の減算ステップ又は第2の減算ステップにより、所定の値が減算された前記第1の画像データ又は前記第2の画像データに対して、合成を行うように構成することができる。   In order to achieve the above object, the imaging method of the present invention includes a first subtraction step for subtracting a predetermined value from the first image data, and a predetermined value from the second image data. A second subtracting step for subtracting, and the combining step includes the first image data or the second image subtracted from a predetermined value by the first subtracting step or the second subtracting step. The data can be configured to be combined.

また、上記目的を達成するために、本発明の撮像方法は、ホワイトバランス調整ステップを有し、ホワイトバランス調整ステップは、前記第1の画像データに基づいて、ホワイトバランスを調整するように構成することができる。   In order to achieve the above object, the imaging method of the present invention includes a white balance adjustment step, and the white balance adjustment step is configured to adjust the white balance based on the first image data. be able to.

また、上記目的を達成するために、本発明の撮像方法は、前記第1の画像データから、所定の値を減算する減算ステップを有し、前記ホワイトバランス調整ステップは、前記減算ステップにより前記第1の画像データから所定の値を減算する前の前記第1の画像データに基づいて、ホワイトバランスを調整するように構成することができる。   In order to achieve the above object, the imaging method of the present invention has a subtraction step of subtracting a predetermined value from the first image data, and the white balance adjustment step is performed by the subtraction step. The white balance can be adjusted based on the first image data before a predetermined value is subtracted from one image data.

また、上記目的を達成するために、本発明の撮像方法は、前記駆動ステップにより読み出される撮像素子数を切り換える画素数切換ステップを有するように構成することができる。   In order to achieve the above object, the imaging method of the present invention can be configured to include a pixel number switching step for switching the number of imaging elements read out by the driving step.

本発明は、画面間加算と画素間加算を組み合わせ、画面間加算の画面間タイムラグを小さくすることで、特殊なセンサーを用いることなく高感度と高解像度な撮像装置及び撮像方法を提供することができる。   The present invention provides a high-sensitivity and high-resolution imaging apparatus and imaging method without using a special sensor by combining inter-screen addition and inter-pixel addition and reducing the inter-screen time lag of inter-screen addition. it can.

撮像装置のブロック図を説明するための図である。It is a figure for demonstrating the block diagram of an imaging device. カメラの外観図である。It is an external view of a camera. 画素加算あり間引き転送読み出し図である。It is a thinning transfer readout diagram with pixel addition. 分割された画像を説明するための図である。It is a figure for demonstrating the divided | segmented image. AWB乗算回路を説明するための図である。It is a figure for demonstrating an AWB multiplication circuit. 通常モードの静止画記録のタイミングチャートである。6 is a timing chart of normal mode still image recording. 全画素フィールド転送読み出し図を説明するための図である。It is a figure for demonstrating the all pixel field transfer read-out figure. 従来の画面加算のタイミングチャートを説明するための図である。It is a figure for demonstrating the timing chart of the conventional screen addition. 高感度モードの静止画記録のタイミングチャート(その1)である。3 is a timing chart (part 1) for still image recording in a high sensitivity mode. 高感度モードの静止画記録のタイミングチャート(その2)である。7 is a timing chart (part 2) for still image recording in the high sensitivity mode. 高感度モードの静止画記録のタイミングチャート(その3)である。12 is a timing chart (part 3) for still image recording in the high sensitivity mode. 機能ブロック構成図である。It is a functional block block diagram. 撮像方法を説明するための図である。It is a figure for demonstrating the imaging method.

以下にデジタルカメラを例として、図面により本発明の実施例を示す。
(システム構成)
図1は本実施形態に係わるデジタルカメラのブロック図であり、図2はカメラの外観図である。
Embodiments of the present invention will be described below with reference to the drawings, taking a digital camera as an example.
(System configuration)
FIG. 1 is a block diagram of a digital camera according to this embodiment, and FIG. 2 is an external view of the camera.

最初に、図1に示されているデジタルカメラのブロック図の各部についての説明をする。   First, each part of the block diagram of the digital camera shown in FIG. 1 will be described.

レンズユニット内にあるレンズ(ズーム及びフォーカスレンズ)は、モータドライバ15によって駆動される。モータドライバ15は、信号処理ICの内部に含まれるCPU(Central Processing Unit)135によって制御される。   The lens (zoom and focus lens) in the lens unit is driven by the motor driver 15. The motor driver 15 is controlled by a CPU (Central Processing Unit) 135 included in the signal processing IC.

撮像部は、CCD11、CCD11を駆動するTG(タイミング信号発生器)124、CCDからの出力データから画像信号をサンプリングするCDS121、AGC(アナログゲインコントローラ)122、CCD11からの出力電気信号(アナログ画像データ)をデジタル信号に変換するA/D変換器123から構成されている。ここで、CDS121、AGC122、A/D変換器123及びTG124をAFE(アナログフロントエンド)12と言う。   The imaging unit includes a CCD 11, a TG (timing signal generator) 124 that drives the CCD 11, a CDS 121 that samples an image signal from output data from the CCD, an AGC (analog gain controller) 122, and an electrical signal output from the CCD 11 (analog image data). ) Is converted to a digital signal. Here, the CDS 121, the AGC 122, the A / D converter 123, and the TG 124 are referred to as an AFE (analog front end) 12.

なお、TG124は、CPU135の制御の元に、画面水平同期信号(HD)と画面垂直同期信号(VD)に基づいて、CCD11、CDS121、AGC122及びA/D変換器123にタイミング信号を供給している。TG124は、マトリックス状に配置された撮像素子を駆動して撮像信号を読出す駆動手段に、撮像素子の読出しの為のタイミングを発生して、駆動手段に供給する。駆動手段は、TG124が生成したタイミングに基づいて、撮像素子に蓄積された電荷の転送を行う。つまり、TG124が生成したタイミングに基づいて、撮像素子に蓄積された電荷は、垂直転送、水平転送が行われる。また、垂直転送、水平転送が行われる際に、TG124が生成したタイミングに基づいて、撮像素子の間引き、電荷の加算等が行われる。   The TG 124 supplies timing signals to the CCD 11, CDS 121, AGC 122, and A / D converter 123 based on the screen horizontal synchronization signal (HD) and the screen vertical synchronization signal (VD) under the control of the CPU 135. Yes. The TG 124 generates timing for reading the image sensor to drive means that drives the image sensors arranged in a matrix and reads the image signal, and supplies the timing to the drive means. The driving unit transfers the charge accumulated in the image sensor based on the timing generated by the TG 124. That is, based on the timing generated by the TG 124, the charge accumulated in the image sensor is subjected to vertical transfer and horizontal transfer. Further, when vertical transfer and horizontal transfer are performed, thinning of the image sensor, addition of charges, and the like are performed based on the timing generated by the TG 124.

その結果、TG124は、撮像素子数を切り換える機能を有していると言える。   As a result, it can be said that the TG 124 has a function of switching the number of imaging elements.

また、TG124は、電子シャッタ出力を行うことができ、電子シャッタの出力本数を変更することで、撮像素子の露光時間を制御する機能を有している。   Further, the TG 124 can perform electronic shutter output, and has a function of controlling the exposure time of the image sensor by changing the number of outputs of the electronic shutter.

また、撮像部からのデジタル信号は、信号処理IC13に印加されて、信号処理される。図1の信号処理IC13は、メモリコントローラ131、CCDI/F部132、画像処理部133、リサイズ・フィルタ部134、システム制御を行うCPU135、表示I/F部136、JPEGコーデック部137、画素間演算部138、カードコントローラ部139、通信I/F部140から構成されている。   Further, the digital signal from the imaging unit is applied to the signal processing IC 13 for signal processing. The signal processing IC 13 in FIG. 1 includes a memory controller 131, a CCD I / F unit 132, an image processing unit 133, a resizing / filtering unit 134, a CPU 135 that performs system control, a display I / F unit 136, a JPEG codec unit 137, and an inter-pixel calculation. Part 138, a card controller part 139, and a communication I / F part 140.

CCDI/F部132は、画面水平同期信号(HD)と画面垂直同期信号(VD)の出力を行い、その同期信号に合わせてA/D変換器123から入力されるデジタルRGB信号を取り込む。   The CCD I / F unit 132 outputs a screen horizontal synchronization signal (HD) and a screen vertical synchronization signal (VD), and takes in a digital RGB signal input from the A / D converter 123 according to the synchronization signal.

ここでは、画面水平同期信号(HD)と画面垂直同期信号(VD)は、信号処理IC13から出力される形式をとったが、TG124から出力されるような形式として同期をとるシステムとしてもよい。   Here, the screen horizontal synchronization signal (HD) and the screen vertical synchronization signal (VD) are output from the signal processing IC 13, but may be synchronized as a format output from the TG 124.

モニタリング動作時は、RGBデータを画像処理部133に送り、画像処理部133では、RGBデータをYUVデータに変換し、さらに、リサイズ・フィルタ部134で表示に適したサイズに変換した画像データがSDRAM(Synchronous Dynamic Random Access Memory)17のYUVデータ領域173に出力される。   During the monitoring operation, the RGB data is sent to the image processing unit 133. The image processing unit 133 converts the RGB data into YUV data, and the image data converted into a size suitable for display by the resizing / filtering unit 134 is SDRAM. The data is output to the YUV data area 173 of (Synchronous Dynamic Random Access Memory) 17.

なお、SDRAM17は、YUVデータ領域173以外に、RAW−RGBデータ領域172及びJPEGデータ領域174を有している。YUVデータ領域173には、YUV形式の画像データが記憶され、RAW−RGBデータ領域172には、撮像部からの生のRGB形式の画像データが記憶され、JPEGデータ領域174には、JPEG形式のデータが記憶される。   The SDRAM 17 has a RAW-RGB data area 172 and a JPEG data area 174 in addition to the YUV data area 173. The YUV data area 173 stores YUV format image data, the RAW-RGB data area 172 stores raw RGB format image data from the imaging unit, and the JPEG data area 174 stores JPEG format image data. Data is stored.

モニタリング動作に続く、静止画撮影時は、CCD11の全画素を複数回に分けて転送が行われるため、各フィールドデータはメモリコントローラ131経由でSDRAM17のRAW−RGBデータ領域172に記憶される。   At the time of still image shooting following the monitoring operation, all the pixels of the CCD 11 are transferred in a plurality of times, so that each field data is stored in the RAW-RGB data area 172 of the SDRAM 17 via the memory controller 131.

画像処理部133は、システム制御を行うCPU135から設定された画像処理パラメータに基づき、CCDI/F132から送られてきたRGBデータ、又は、SDRAM17に一時保管されたRGBデータをYUVデータに変換処理して出力する。   The image processing unit 133 converts the RGB data sent from the CCD I / F 132 or the RGB data temporarily stored in the SDRAM 17 into YUV data based on the image processing parameters set by the CPU 135 that performs system control. Output.

リサイズ・フィルタ部134は、YUVデータとRGBデータを入力とし、記録するために必要なサイズへのサイズ変換、サムネイル画像へのサイズ変換、表示に適したサイズへのサイズ変換などを行う。このリサイズ・フィルタ部134は、空間フィルタ処理機能も有している、拡大や縮小をした時に発生するギザギザ感やモザイクなどの画質劣化を軽減するために、線形補間、バイキュービック補間などの複数の補間方式が選択可能で、必要な画質や速度に応じて、CPU135によって設定が変更されて、フィルタ処理が行われる。例えば、モニタリング時は高速の処理速度が必要なため、水平のみの線形補間やフィルタOFF(単純間引き)が選択され、静止画撮影時は、解像度が必要なためバイキュービック補間が選択される。   The resizing / filtering unit 134 receives YUV data and RGB data as input, and performs size conversion to a size necessary for recording, size conversion to a thumbnail image, size conversion to a size suitable for display, and the like. The resizing / filtering unit 134 also has a spatial filter processing function. In order to reduce image quality deterioration such as a jagged feeling or mosaic that occurs when enlarging or reducing, a plurality of linear interpolations, bicubic interpolations, and the like are provided. An interpolation method can be selected, and the setting is changed by the CPU 135 according to the required image quality and speed, and filter processing is performed. For example, since a high processing speed is required at the time of monitoring, horizontal only linear interpolation and filter OFF (simple thinning) are selected, and at the time of still image shooting, bicubic interpolation is selected because resolution is required.

また、リサイズ・フィルタ部134は、リサイズ倍率を1倍に設定することで、リサイズを行わず、フィルタ機能だけ動作させることができる。フィルタの設定としては、空間周波数が高い成分(画像のエッジ成分)だけを取り出すハイパスフィルタや、空間周波数が低い成分だけを取り出して平滑化をするローパスフィルタが設定可能である。   Further, the resizing / filtering unit 134 can operate only the filter function without performing resizing by setting the resizing magnification to 1. As a filter setting, a high-pass filter that extracts only a component having a high spatial frequency (an edge component of an image) or a low-pass filter that extracts and smoothes only a component having a low spatial frequency can be set.

画素間演算部138は、2つの画像データの対応する各画素間の演算を行う。扱う画像データはYUV形式のデータとRGB形式のデータであり、各YUV又は各RGBのデータのbit数は8、12,16bitから選択が可能である。入力画像をAとBとし、出力画像をCとすると以下のような式で演算が行われる。   The inter-pixel calculation unit 138 performs a calculation between corresponding pixels of the two image data. The image data to be handled is YUV format data and RGB format data, and the number of bits of each YUV or each RGB data can be selected from 8, 12, 16 bits. When the input image is A and B and the output image is C, the calculation is performed by the following equation.

Clip[ α×A(x,y) + β×B(x,y) ] = C(x,y) ・・・(1)
Clip[ α×A(x,y) × β×B(x,y) ] = C(x,y) ・・・(2)
Clip[ α×A(x,y) / β×B(x,y) ] = C(x,y) ・・・(3)
また、画素間演算部138は、その他、次の式(4)の演算を含む多様な演算が可能である。
Clip [α × A (x, y) + β × B (x, y)] = C (x, y) (1)
Clip [α × A (x, y) × β × B (x, y)] = C (x, y) (2)
Clip [α × A (x, y) / β × B (x, y)] = C (x, y) (3)
In addition, the inter-pixel calculation unit 138 can perform various calculations including the calculation of the following formula (4).

Clip[ α×A(x,y) + β ] = C(x,y) ・・・(4)
ただし、-128≦α≦127,-128≦β≦127
x,yは、各画像における水平(x)と垂直(y)の位置である。なお、原点は、画面の中央又は左上等に設定する。
Clip [α × A (x, y) + β] = C (x, y) (4)
However, −128 ≦ α ≦ 127, −128 ≦ β ≦ 127
x and y are horizontal (x) and vertical (y) positions in each image. The origin is set at the center or upper left of the screen.

Clip[ ]は、出力画像Cで選択された出力bit数でクリップを行う。
表示I/F部136はSDRAM17に書き込まれた表示用データを表示装置(LCD/TV等)19に送り、撮影画像の表示を行う。この表示装置19は、カメラが内蔵しているLCDに表示することも、TVビデオ信号として出力してテレビに表示することも可能である。
Clip [] performs clipping with the number of output bits selected in the output image C.
The display I / F unit 136 sends the display data written in the SDRAM 17 to a display device (LCD / TV or the like) 19 to display a photographed image. The display device 19 can be displayed on an LCD built in the camera, or can be output as a TV video signal and displayed on a television.

JPEGコーデック部137は、記録時はSDRAM17のYUVデータ領域173に書き込まれたYUV形式の画像データを圧縮して、JPEG符号化されたデータを出力し、再生時は、メモリカード20より読み出したJPEG符号化データを、YUV形式の画像データに伸張して出力する。   The JPEG codec unit 137 compresses the YUV format image data written in the YUV data area 173 of the SDRAM 17 during recording and outputs JPEG-encoded data. During playback, the JPEG codec unit 137 reads the JPEG read from the memory card 20. The encoded data is expanded into YUV format image data and output.

カードコントローラ部139は、CPU135の指示により、メモリカード20内データのSDRAMへの読み出しと、SDRAM17上のデータのメモリカードへ20の書き込みを行う。   The card controller unit 139 reads the data in the memory card 20 to the SDRAM and writes the data on the SDRAM 17 to the memory card 20 according to instructions from the CPU 135.

全体制御部であるCPU135は、起動時に書き換え可能なROM18に格納されたプログラム及び制御データをSDRAM17にロードし、そのプログラムコードに基づいて全体を制御する。CPU135は、操作部14のボタン等による指示、又は図示しないリモコン等の外部動作指示、又はパーソナルコンピュータ等の外部端末からの通信による通信動作指示に従い、撮像動作制御、画像処理装置における画像処理パラメータの設定、メモリコントロール、表示制御を行う。   The CPU 135, which is the overall control unit, loads the program and control data stored in the ROM 18 that can be rewritten at the time of startup into the SDRAM 17, and controls the whole based on the program code. The CPU 135 controls the imaging operation and the image processing parameters in the image processing apparatus in accordance with an instruction from the button of the operation unit 14, an external operation instruction such as a remote controller (not shown), or a communication operation instruction by communication from an external terminal such as a personal computer. Perform settings, memory control, and display control.

通信I/F部140は、USB(Universal Serial Bus)回線21を介して、PC(Personal Computer)やプリンタなどとの通信によって、画像ファイルの送受信を行う。また、USB回線21を介して、CPU135の制御プログラムのバージョンアップも、PCからプログラムを受信することで実現している。なお、通信I/F部140は、USB回線以外の回線と接続するようにしてもよい。   The communication I / F unit 140 transmits and receives an image file by communication with a PC (Personal Computer), a printer, or the like via a USB (Universal Serial Bus) line 21. Further, the upgrade of the control program of the CPU 135 is realized by receiving the program from the PC via the USB line 21. Note that the communication I / F unit 140 may be connected to a line other than the USB line.

操作部14は、図4にある各種ボタンやスイッチに相当し、撮影者が撮像装置の動作指示を行うためのものであり、撮影を指示するレリーズキー、光学ズーム及び電子ズーム倍率を設定するズームボタン、露光モード選択や記録サイズ選択やその他の各種設定を外部から行うための入力手段を備えている。
(通常モード)
静止画の撮影モードは、従来の通常モードの撮影と、高感度撮影モードがる。
The operation unit 14 corresponds to the various buttons and switches shown in FIG. 4 and is used by the photographer to instruct the operation of the imaging apparatus. The operation unit 14 is a release key for instructing photographing, an optical zoom, and a zoom for setting an electronic zoom magnification. Input means for externally performing buttons, exposure mode selection, recording size selection, and other various settings.
(Normal mode)
The still image shooting mode includes a conventional normal mode shooting and a high-sensitivity shooting mode.

最初に、500万画素のデジタルカメラを例として、通常モードの撮影動作についての説明を行う。   First, the shooting operation in the normal mode will be described using a digital camera with 5 million pixels as an example.

図2の撮影/再生切り替えダイアル25を撮影に設定し、電源釦26によってカメラを起動すると、図1のモータドライバ15によって、レンズが撮影可能位置に移動し、LCD(図1の表示装置19)には電子ファインダ機能であるモニタリング映像が表示される。   When the photographing / playback switching dial 25 in FIG. 2 is set to photographing and the camera is activated by the power button 26, the lens is moved to a photographing position by the motor driver 15 in FIG. 1, and the LCD (display device 19 in FIG. 1) Displays a monitoring image which is an electronic viewfinder function.

起動状態から、ズーム望遠釦27を押すことで、ズームレンズが望遠側(以下テレ側)へ移動する。ズーム広角釦28を押すと、ズームレンズが広角側(以下ワイド側)に移動する。   When the zoom telephoto button 27 is pressed from the activated state, the zoom lens moves to the telephoto side (hereinafter referred to as the telephoto side). When the zoom wide-angle button 28 is pressed, the zoom lens moves to the wide-angle side (hereinafter, wide side).

このときのCCDの駆動形式は、図3(A)(画素加算1/4ライン読み出し)である。図3(A)において、白い画素が読み出され、黒い画素は読み出されない。また、読み出された画素は、垂直方向で2つの画素が加算され、「垂直方向で加算された」画素がさらに、水平方向の他の「垂直方向で加算された」画素と加算される。したがって、ラインは1/4に間引かれるが、データの大きさは、1画素のデータの大きさに対して4倍の大きさ(したがって、4倍の明るさとなる。)となっている。   The CCD drive format at this time is shown in FIG. 3A (pixel addition 1/4 line readout). In FIG. 3A, white pixels are read and black pixels are not read. In addition, two pixels in the vertical direction are added to the read pixel, and a pixel “added in the vertical direction” is further added to another pixel added in the vertical direction. Therefore, although the line is thinned to ¼, the data size is four times as large as the data size of one pixel (thus, four times as bright).

記録画素が2560×1920ピクセルの500万画素のCCDの場合、図3(A)のように、画素加算1/4ライン読み出しを行うことによって、水平画素数は半分になり、垂直画素数は1/8になるため、1280×240画素のデータが出力される。   In the case of a 5-million-pixel CCD with 2560 × 1920 recording pixels, as shown in FIG. 3A, by performing pixel addition 1/4 line readout, the number of horizontal pixels is halved and the number of vertical pixels is 1. Since / 8, data of 1280 × 240 pixels is output.

この画素読み出しや加算転送の制御信号を出しているのが、図1のTG124である。   The TG 124 in FIG. 1 outputs control signals for pixel readout and addition transfer.

TG124は信号処理IC13からの画面水平同期信号(HD)と画面垂直同期信号(VD)を動作の起点として、CCD11へ制御信号を出力している。AFE12もTG124からのタイミング信号に同期して、CDS121でCCD出力画像データをサンプリングし、AGC122で増幅し、A/D変換器123でA/D変換を行い、12bitのRGBデータとして出力を行う。CCDI/F132もTG124から出力される画像転送クロックに同期して、RGB形式の画像データを信号処理IC13の中に取り込む。信号処理IC13では、最初に、CCDI/F132で黒レベル調整やホワイトバランス調整を行った後に、ガンマ変換を行って8bitのRGB形式の画像データとして画像処理部133へ画像データを出力する。画像処理部133では、RGB形式の画像データをYUV形式の画像データに変換するYUV変換処理やエッジ強調処理が行われ、リサイズ・フィルタ部134へ出力する。リサイズ・フィルタ部134は、画像処理部133よりCCDの駆動(走査)にほぼ同期して順次送られてくる1280×240画素のYUV形式の画像データに対して、線形補間を行った後にリサンプリングすることで、表示用の640×480画素にリサイズを行い、メモリコントローラ131を介してSDRAM17に出力する。この動作はCCDの読み出しサイクルである60フレーム/秒のサイクルで繰り返される。   The TG 124 outputs a control signal to the CCD 11 with the screen horizontal synchronization signal (HD) and the screen vertical synchronization signal (VD) from the signal processing IC 13 as the starting point of operation. In synchronization with the timing signal from the TG 124, the AFE 12 also samples the CCD output image data by the CDS 121, amplifies it by the AGC 122, performs A / D conversion by the A / D converter 123, and outputs it as 12-bit RGB data. The CCD I / F 132 also captures RGB format image data into the signal processing IC 13 in synchronization with the image transfer clock output from the TG 124. The signal processing IC 13 first performs black level adjustment and white balance adjustment with the CCD I / F 132, and then performs gamma conversion to output image data to the image processing unit 133 as 8-bit RGB format image data. The image processing unit 133 performs YUV conversion processing or edge enhancement processing for converting RGB format image data into YUV format image data, and outputs the result to the resizing / filtering unit 134. The resizing / filtering unit 134 performs resampling after linear interpolation is performed on 1280 × 240 pixel YUV format image data that is sequentially sent from the image processing unit 133 in synchronization with CCD driving (scanning). As a result, the image is resized to 640 × 480 pixels for display and is output to the SDRAM 17 via the memory controller 131. This operation is repeated at a cycle of 60 frames / second, which is a CCD readout cycle.

表示I/F部136は、上述したように、生成された640×480画素のYUV形式の画像データに、TV表示やLCD表示に必要な制御信号を付加した後に、表示装置であるTVやLCDに出力する。
(オートホワイトバランス)
オートホワイトバランス(以下AWB)制御について説明する。
As described above, the display I / F unit 136 adds a control signal necessary for TV display or LCD display to the generated 640 × 480 pixel YUV format image data, and then displays the TV or LCD as a display device. Output to.
(Auto white balance)
Auto white balance (hereinafter, AWB) control will be described.

図1におけるCCDI/F部132は、図4のように画像を分割したそれぞれのブロック毎に、後述するAWB評価値であるRGB毎の積算値(RGB積算値)を算出する。この積算値されたデータを用いてAWBの制御値(Rゲイン、Bゲイン)を決定し、ホワイトバランスをあわせる。   The CCD I / F unit 132 in FIG. 1 calculates an integrated value for each RGB (RGB integrated value), which is an AWB evaluation value described later, for each block obtained by dividing the image as shown in FIG. Using the integrated data, AWB control values (R gain, B gain) are determined, and white balance is adjusted.

図5は、そのAWB制御を行うためのAWB乗算回路である。この回路はCCDI/F部132と、画像処理部133と、リサイズ・フィルタ部134によって、実現できる回路であり、このAWB乗算回路において、制御が必要な場合は適宜ゲインを設定し、必要ではない場合は、そのゲインを1倍に設定する。   FIG. 5 shows an AWB multiplication circuit for performing the AWB control. This circuit can be realized by the CCD I / F unit 132, the image processing unit 133, and the resizing / filtering unit 134. In this AWB multiplication circuit, when control is required, a gain is appropriately set, which is not necessary. In this case, the gain is set to 1.

次に、AWBにおけるゲイン算出例を説明する。CCDI/F部132で積算された各ブロックにおけるRGB毎の積算値は、CCDI/F部132内部のレジスタに保存されており、CPU135はそれぞれの積算値を読み出すことができる。この積算値を各色毎にさらに加算したΣR、ΣG、ΣBを算出する。白が白くなるということはR=G=Bとなる状態であるから、以下のようにRゲインとBゲインを算出する。   Next, an example of gain calculation in AWB will be described. The integrated values for each RGB in each block integrated by the CCD I / F unit 132 are stored in a register inside the CCD I / F unit 132, and the CPU 135 can read out the integrated values. ΣR, ΣG, and ΣB are calculated by further adding this integrated value for each color. Since white becomes white is a state where R = G = B, R gain and B gain are calculated as follows.

Rgain=(ΣG/ΣR)
Bgain=(ΣG/ΣB)・・・(5)
Ggain= 1
この式(5)により、算出されたRgain、Bgain及びGgainが、図5におけるRgain45、Bgain46及びGgain47となる。このRgain45、Bgain46及びGgain47を、ホワイトバランスゲインアンプ41、42、43に供給して、入力されたRGBの制御を行う。その結果、AWB乗算回路から、ホワイトバランスがなされた出力R'G'及びB'を得る。
Rgain = (ΣG / ΣR)
Bgain = (ΣG / ΣB) (5)
Ggain = 1
Rgain, Bgain, and Ggain calculated by this equation (5) become Rgain45, Bgain46, and Ggain47 in FIG. The Rgain 45, Bgain 46, and Ggain 47 are supplied to the white balance gain amplifiers 41, 42, and 43, and the input RGB is controlled. As a result, white balanced outputs R′G ′ and B ′ are obtained from the AWB multiplication circuit.

なお、図4及び図5を用いて、ホワイトバランスの基本機能を説明したが、本発明では、これ以外のホワイトバランスの機能を具備したものであってもよい。   Although the basic functions of white balance have been described with reference to FIGS. 4 and 5, the present invention may have other white balance functions.

モニタリングにおいては、画面垂直同期信号VDに同期して各積算値を読み出し、RゲインとBゲインを算出し、CCDI/F部132のAWB乗算回路にゲインを設定する。   In monitoring, each integrated value is read in synchronization with the screen vertical synchronization signal VD, R gain and B gain are calculated, and the gain is set in the AWB multiplication circuit of the CCD I / F unit 132.

この値は次のフレームで読み出されたデータに対して乗算される。スチルにおいては、インターレース転送される第1及び第2フレームからRGBの積算を行う。この積算結果からAWBゲインを算出し、画像処理部の入力部にあるAWB乗算回路によってAWB制御が行われる。
(通常モードのタイミングチャート)
図6が通常モードの静止画記録の動作を示すタイミングチャートである。垂直同期新信号A、メカニカルシャッタB、露光制御Cの関係を示している。t1までがモニタリング(電子ビューファイター、ライブビューともいう。)期間であり、t1からt2が静止画露光期間(T1)であり、t2からt3が静止画データ転送期間(T2)である。なお、図6では、実際の露光時間T3は、電子シャッタにより、静止画露光期間(T1)よりも、短縮されている。
This value is multiplied with the data read in the next frame. In the still, RGB is integrated from the first and second frames transferred interlaced. An AWB gain is calculated from the integration result, and AWB control is performed by an AWB multiplication circuit in the input unit of the image processing unit.
(Normal mode timing chart)
FIG. 6 is a timing chart showing the operation of still image recording in the normal mode. The relationship between the vertical synchronization new signal A, the mechanical shutter B, and the exposure control C is shown. The period up to t1 is a monitoring (also referred to as electronic view fighter or live view) period, t1 to t2 is a still picture exposure period (T1), and t2 to t3 is a still picture data transfer period (T2). In FIG. 6, the actual exposure time T3 is shorter than the still image exposure period (T1) by the electronic shutter.

レリーズ釦30が押される(撮影要求)と、図1におけるCPU135の指令によって、モータドライブ15が作動し、フォーカスレンズが移動し、例えば山登りAFを原理にしたCCD−AFなどの合焦動作が行われる。続いて、CPU135の指令により、TG124は、露光時間設定、静止画露光時間設定などの撮影準備処理が行われ、静止画露光期間T1において、画面垂直同期信号(VD)を起点として記録露光処理が行われる。露光時間T3が経過するとメカシャッタが閉じ(t2)。その後、CCD全画素分のRGBデータは、静止画データ転送期間(T2)に、例えば、図7に示すように4フィールドに分解されてCCDより読み出され(一垂直同期期間に一つのフィールドが転送されるので、4フィールドは、4垂直同期期間で転送される。)、一度、SDRAM17のRAW−RGBデータ領域172に取り込まれる。   When the release button 30 is pressed (photographing request), the motor drive 15 is actuated by the instruction of the CPU 135 in FIG. 1, the focus lens is moved, and for example, a focusing operation such as CCD-AF based on the principle of mountain climbing AF is performed. Is called. Subsequently, in accordance with an instruction from the CPU 135, the TG 124 performs shooting preparation processing such as exposure time setting and still image exposure time setting. In the still image exposure period T1, the recording exposure processing is started from the screen vertical synchronization signal (VD). Done. When the exposure time T3 has elapsed, the mechanical shutter is closed (t2). Thereafter, the RGB data for all the pixels of the CCD are decomposed into four fields as shown in FIG. 7, for example, in the still image data transfer period (T2) and read out from the CCD (one field in one vertical synchronization period). 4 fields are transferred in 4 vertical synchronization periods.) Once, they are taken into the RAW-RGB data area 172 of the SDRAM 17.

なお、モニタリングでは、図3(A)に示されているように、垂直が1/8に間引かれ(且つ、水平方向で他の対応する画素と加算され)て読み出されている。それに対して、静止画データ転送は、垂直1/4を4回に分けて転送する。転送される画素数は16倍に増えているため、転送時間は約0.26秒(1/60秒×16画素)となる。また、静止画データ転送期間に、CCDI/F部132は、図に示すように、オートホワイトバランスのための、RGBの積算処理を行う。   In the monitoring, as shown in FIG. 3A, the vertical is thinned out to 1/8 (and added with other corresponding pixels in the horizontal direction) and read out. On the other hand, the still image data transfer is performed by dividing the vertical 1/4 into four times. Since the number of transferred pixels has increased 16 times, the transfer time is about 0.26 seconds (1/60 seconds × 16 pixels). Also, during the still image data transfer period, the CCD I / F unit 132 performs RGB integration processing for auto white balance, as shown in the figure.

SDRAM17のRAW−RGBデータ領域172に取り込まれたRGB形式の(RAW)データは、信号処理IC13の画像処理部133に送られYUV形式の画像データに変換される。このYUV形式の画像データは、リサイズ・フィルタ部134で記録画素数に合わせたサイズに変換された後に、JPEG圧縮処理を行い、ヘッダ情報を付加してJPEGファイルとしてメモリカード20に保存される。
(高感度モードのタイミングチャート)
つぎに本発明の高感度モード撮影の露光タイミングを、従来の画面加算を行う場合のタイミングチャート(図8)と本発明の高感度モード撮影のタイミングチャート(図9)を比較することで説明する。
The RGB (RAW) data captured in the RAW-RGB data area 172 of the SDRAM 17 is sent to the image processing unit 133 of the signal processing IC 13 and converted into YUV format image data. The YUV format image data is converted to a size that matches the number of recording pixels by the resizing / filtering unit 134, and then subjected to JPEG compression processing, header information is added, and the image data is stored in the memory card 20 as a JPEG file.
(High sensitivity mode timing chart)
Next, the exposure timing of high-sensitivity mode shooting according to the present invention will be described by comparing the timing chart (FIG. 8) when performing conventional screen addition with the timing chart (FIG. 9) of high-sensitivity mode shooting according to the present invention. .

図8は、従来の画面加算を行う場合における画面加算動作のタイミングチャートであり、垂直同期新信号A、メカニカルシャッタB、露光制御Cの関係を示している。   FIG. 8 is a timing chart of the screen addition operation in the case of performing conventional screen addition, and shows the relationship between the vertical synchronization new signal A, the mechanical shutter B, and the exposure control C.

図8の場合は、静止画露光と静止画転送とをそれぞれ2回行って、メモリ(SDRAM)に取り込まれた2画面分のRGBデータを加算するものである。画素数が少ないシステムにおいては、静止画の転送時間が短いために、2回の露光のタイムラグが大きな問題とはならなかった。しかし500万画素では、静止画の転送時間だけで上述したように、約0.26秒かかってしまうため、露光前準備など追加すると、約0.3秒の露光のタイムラグが発生してしまう。結果として長時間露光をしているときと同じようにぶれが発生してしまう。   In the case of FIG. 8, still image exposure and still image transfer are performed twice, and the RGB data for two screens captured in the memory (SDRAM) are added. In a system with a small number of pixels, since the transfer time of a still image is short, the time lag between two exposures has not been a big problem. However, in the case of 5 million pixels, as described above, it takes about 0.26 seconds only for the transfer time of the still image. Therefore, if preparation before exposure is added, an exposure time lag of about 0.3 seconds occurs. As a result, blurring occurs as in the case of long exposure.

本発明のタイミングチャートが図9である。高精細画である静止画用の露光を開始する前にまず高感度用の露光を行う。   FIG. 9 is a timing chart of the present invention. Before starting exposure for a high-definition still image, first, exposure for high sensitivity is performed.

図2のレリーズ釦30で撮影者によって撮影要求が入力されると、AFが行われる。次に図9の(1)の期間で高感度用の露光時間の設定が行われる(この設定は、CPU135がTG124に対して行い、TG124はこの設定にしたがって露光時間制御を行う。)。図9では、(2)の期間と(3)の期間が高感度用の露光時間と設定されている。(1)、(2)及び(3)の期間は、垂直同期期間であるので、高感度用の露光時間は、60フレーム/秒の2フレーム転送期間分であり、約33msecが設定されている。VD信号の終了時点(t1)から露光(電荷蓄積)が始まる。続いて(3)の期間にCPU135よりTG124に対して高感度用転送モードの設定と静止画記録用の露光時間の設定が行われる。   When a photographing request is input by the photographer with the release button 30 in FIG. 2, AF is performed. Next, the exposure time for high sensitivity is set in the period (1) in FIG. 9 (this setting is performed by the CPU 135 for the TG 124, and the TG 124 performs exposure time control according to this setting). In FIG. 9, the periods (2) and (3) are set as exposure times for high sensitivity. Since the periods of (1), (2) and (3) are vertical synchronization periods, the exposure time for high sensitivity is for two frame transfer periods of 60 frames / second, and is set to about 33 msec. . Exposure (charge accumulation) starts from the end point (t1) of the VD signal. Subsequently, in the period (3), the CPU 135 sets the high-sensitivity transfer mode and the exposure time for still image recording for the TG 124.

(4)の期間では高感度用のデータ転送が行われる。このときの読み出しデータは、図3(B)の画素加算1/2ライン読み出しモードである。水平と垂直で画素を加算して読み出しているので、感度がほぼ4倍になっている。読み出し画素数は、水平画素数が半分(2画素が加算されるため半分となる。)になり、垂直画素数が1/4(画素の半分が間引かれ、さらに、2画素が加算されるので1/4となる。)になるため、1280×480画素が出力される。図3(A)に示されている通常のモニタリングの場合よりも垂直ラインが2倍になっているため、読み出しの時間も2倍の約33msecとなる。このデータはCCDI/F部132を介してRGBデータとしてSDRAM17に保存される。   Data transfer for high sensitivity is performed during the period (4). The readout data at this time is the pixel addition 1/2 line readout mode in FIG. Since the pixels are read out in the horizontal and vertical directions, the sensitivity is almost quadrupled. The number of readout pixels is half the number of horizontal pixels (half because two pixels are added), the number of vertical pixels is 1/4 (half of the pixels are thinned, and two pixels are added). Therefore, 1280 × 480 pixels are output. Since the vertical line is doubled compared to the case of normal monitoring shown in FIG. 3A, the readout time is also doubled to about 33 msec. This data is stored in the SDRAM 17 as RGB data via the CCD I / F unit 132.

この(4)の期間の高感度用読み出し時に、高感度用RGBデータからCCDI/F部132でAWB用のRGB積算が行われている。(3)の期間にRGB積算開始時期の設定を行うことで次のフレームである(4)の期間に転送されるデータからRGBの積算を行うことができる。この高感度用RGBデータからAWB用RGB積算を作成することは、高感度用データの方が通常感度の静止画用データの値よりも大きいため、ノイズの影響が少なくなり、安定したAWB制御ができるようになるというメリットがある。さらに、このAWB制御用のRゲインとBゲインは、静止画用データ転送時にCCDI/F部132で乗算することができるため、後段で加算前にAWBゲインをかけるための処理が不要になり処理時間の短縮が図られる。   At the time of high sensitivity readout during the period (4), RGB integration for AWB is performed by the CCD I / F unit 132 from the RGB data for high sensitivity. By setting the RGB integration start time in the period (3), RGB integration can be performed from the data transferred in the period (4), which is the next frame. The creation of RGB integration for AWB from this RGB data for high sensitivity is because the data for high sensitivity is greater than the value of still image data for normal sensitivity, so the influence of noise is reduced and stable AWB control is achieved. There is a merit that it can be done. Furthermore, since the R gain and the B gain for AWB control can be multiplied by the CCD I / F unit 132 at the time of still image data transfer, the processing for applying the AWB gain before the addition in the subsequent stage becomes unnecessary. Time is shortened.

さらに、この(4)の期間の高感度用のデータ読み出しと平行して、(3)の期間で設定された高精細画である静止画用の露光時間によって露光が行われている。図9では、(4)の期間の1垂直同期期間(1VD期間)分の露光が行われている(同じ、1VD期間図であっても、(1)、(2)、(3)の期間に対して、(4)の期間は2倍である。)ので、約33msecとなっている。この期間にCPU135よりTG124に対して静止画転送モード(図7)の設定が行われる。   Further, in parallel with the high-sensitivity data reading in the period (4), the exposure is performed with the exposure time for a still image that is a high-definition image set in the period (3). In FIG. 9, exposure is performed for one vertical synchronization period (1 VD period) of the period (4) (even in the same 1 VD period diagram, the periods (1), (2), and (3) On the other hand, the period of (4) is doubled). During this period, the CPU 135 sets the still image transfer mode (FIG. 7) for the TG 124.

(4)の期間の終了時にメカシャッタが閉じられ、(5)の期間から図7に示すような4分割インターレース転送が行われる。転送されたデータはCCDI/F部132を介して順次SDRAM17に書き込まれる。転送が完了すると,メカシャッタが開かれ、TG124に対してモニタリング用の転送モードが設定され、次回撮影が可能になる。   At the end of the period (4), the mechanical shutter is closed, and the four-division interlace transfer as shown in FIG. 7 is performed from the period (5). The transferred data is sequentially written into the SDRAM 17 via the CCD I / F unit 132. When the transfer is completed, the mechanical shutter is opened, a transfer mode for monitoring is set for the TG 124, and the next shooting can be performed.

以上のように、従来の複数画面加算(図8)では2回の露光間の時間的なずれ(タイムラグ)が大きいため、手ブレが発生してしまう問題や、動いているものを撮影できないなどの問題があった。しかし本発明のように読み出しが高速になるモードを最初の露光データに使うことで、タイムラグを短くすることが可能にすることができた。   As described above, in the conventional multi-screen addition (FIG. 8), the time lag between the two exposures (time lag) is large. There was a problem. However, the time lag can be shortened by using the mode in which reading is performed at a high speed as in the present invention for the first exposure data.

図9では、高感度用露光時間と静止画用露光時間をいずれも約33msecとしているが、これに限ったものではない。   In FIG. 9, the exposure time for high sensitivity and the exposure time for still images are both set to about 33 msec, but the present invention is not limited to this.

図10のように、静止画用露光時間を1VD以上に設定することも可能であるし((4)の期間に(5)の期間が付加されている。(5)の期間は、データ転送は行わない。)、同様に高感度用の露光時間をさらに長くすることも可能である。これは要求される画質によって切り換えてもよい。例えば高解像度が必要な場合は、静止画用のデータの割合を多くするために静止画用露光を長くすることができる。   As shown in FIG. 10, the still image exposure time can be set to 1 VD or more (the period (5) is added to the period (4). The period (5) is the data transfer period. In the same manner, it is possible to further increase the exposure time for high sensitivity. This may be switched according to the required image quality. For example, when high resolution is required, the still image exposure can be lengthened in order to increase the ratio of still image data.

図11は、高感度用データ転送と静止画用露光を平行して行うことのできないシステムにおけるタイミングチャートである。つまり、露光手段が高感度用データを得るために撮像素子に対して露光を行い、さらに、転送手段が高感度用データを転送した後に、高精細画像データを得るために撮像素子に対して露光を行い、さらに、転送手段が高精細画像データを転送する場合である。この場合でも図8の従来システムに比べるとタイムラグは少なくなっていることが判る。また、(1)の期間は高感度用データの露光時間を設定するための時間であるため、通常の1VD期間分の時間は必要ない。そのため、TG設定変更、動作クロック変更、VD周期を変更できるシステムにおいては、この1VD期間を短くすることで、2回の露光タイミングのずれをより短くすることができる。
(画像データの加算)
ここでは、取り込まれた2つの画像データの加算処理について、3つの場合について説明する。RGBデータでの加算、静止画用RGBデータからエッジ情報を生成して行う加算及びYUV変換後のYUVデータによる加算について、順次説明する。
(RGBデータでの加算)
高感度用RGBデータとして1280×480画素、静止画用データとして2560×1920画素の2画面分のRGBデータがSDRAMに保存されている。
FIG. 11 is a timing chart in a system in which high-sensitivity data transfer and still image exposure cannot be performed in parallel. That is, the exposure means exposes the image sensor to obtain high sensitivity data, and further, the transfer means exposes the image sensor to obtain high-definition image data after transferring the high sensitivity data. In addition, the transfer means transfers high-definition image data. Even in this case, it can be seen that the time lag is reduced as compared with the conventional system of FIG. Further, since the period (1) is a time for setting the exposure time of the high sensitivity data, a time corresponding to the normal 1VD period is not necessary. Therefore, in a system that can change the TG setting, change the operation clock, and change the VD cycle, shortening the 1 VD period can further shorten the deviation of the two exposure timings.
(Adding image data)
Here, three cases of the addition processing of two captured image data will be described. Addition using RGB data, addition performed by generating edge information from still image RGB data, and addition using YUV data after YUV conversion will be sequentially described.
(Addition with RGB data)
RGB data for two screens of 1280 × 480 pixels as high-sensitivity RGB data and 2560 × 1920 pixels as still image data is stored in the SDRAM.

2560×1920画素で静止画を記録する場合は、最初に高感度用データ(1280×480画素)を2560×1920画素に拡大する。SDRAM17に保存されている高感度用RGBデータを読み出して、リサイズ・フィルタ部134に送る。リサイズ・フィルタ部134では、入力部でAWB乗算回路(図5)によってAWBのゲインが乗算される。このゲインは、上記高感度用データ転送時に取得したRGB積算値から算出した値を用いる。AWBゲインを乗算したRGBデータは、ローパスフィルタをかけながら拡大処理を行い、結果をSDRAM17に書き戻す。ここでローパスフィルタとしたのは、図3(B)のように、読み出しは一部のデータを間引いて読み出しており、YUV変換時に偽色の発生や直線がぎざぎざになる問題が発生する可能性ある。そのため感度を高めるために用いるデータは、ローパスフィルタをかけるようにする。   When recording a still image with 2560 × 1920 pixels, the high sensitivity data (1280 × 480 pixels) is first enlarged to 2560 × 1920 pixels. The high-sensitivity RGB data stored in the SDRAM 17 is read and sent to the resize filter unit 134. In the resize filter unit 134, the input unit multiplies the AWB gain by the AWB multiplication circuit (FIG. 5). As this gain, a value calculated from the RGB integrated value acquired at the time of transferring the high sensitivity data is used. The RGB data multiplied by the AWB gain is enlarged while applying a low pass filter, and the result is written back to the SDRAM 17. The low-pass filter is used here, as shown in FIG. 3B, because a part of the data is read out as shown in FIG. 3B, and there is a possibility that a false color is generated or a straight line is jagged during YUV conversion. is there. For this reason, data used to increase sensitivity is subjected to a low-pass filter.

なお、静止画用データは、高感度用データのRGB積算からAWBゲインを算出し、静止画転送時にCCDI/F部132においてAWBゲイン乗算が行われている。AWBゲインの乗算が行われていない場合は、リサイズ・フィルタ部134でAWB乗算処理だけを行うこともできるが、この場合は処理時間が延びてしまうため、予めCCDI/F部132で乗算しておくことが望ましい。   For still image data, the AWB gain is calculated from the RGB integration of the high sensitivity data, and AWB gain multiplication is performed in the CCD I / F unit 132 during transfer of the still image. If the AWB gain is not multiplied, the resizing / filter unit 134 can perform only the AWB multiplication process. In this case, however, the processing time is increased, so that the CCD I / F unit 132 performs multiplication in advance. It is desirable to keep it.

上述した処理の結果、高感度用RGBデータと静止画用RGBデータとは、いずれも2560×1920画素、12bit、AWBゲインが乗算された状態にある。   As a result of the above-described processing, the high-sensitivity RGB data and the still image RGB data are both in a state of being multiplied by 2560 × 1920 pixels, 12 bits, and an AWB gain.

次に2つの画像は、画素間演算部138に送られる。式(1)において、静止画用データを画像A、高感度用データを画像B、加算結果と画像Cとして加算される。ここでは加算結果に対して12bitでクリップされる。画像Cは再びSDRAM17に書き戻される。ここではα、βは1としたが、ローパスフィルタをかけたことによってノイズが少なくなった画像Bのβを1よりも大きくすることで、より感度アップをするようにしてもよい。   Next, the two images are sent to the inter-pixel operation unit 138. In equation (1), still image data is added as image A, high sensitivity data is added as image B, and the addition result and image C are added. Here, the addition result is clipped with 12 bits. The image C is written back to the SDRAM 17 again. Here, α and β are set to 1, but the sensitivity may be further increased by increasing β of the image B in which noise is reduced by applying a low-pass filter to be larger than 1.

その後の処理は、通常撮影と同じプロセスで処理される。SDRAM17に書き戻された画像CのRGBデータは、画像処理部133に送られてエッジ強調処理やカラー調整などを行った後に、YUV形式の画像データに変換され、SDRAM17に書き戻される。YUV形式の画像データはJPEG圧縮され、ヘッダ情報付加などが行われた後にメモリカードに保存される。   Subsequent processing is performed in the same process as normal imaging. The RGB data of the image C written back to the SDRAM 17 is sent to the image processing unit 133 and subjected to edge enhancement processing, color adjustment, and the like, converted into YUV format image data, and written back to the SDRAM 17. The image data in the YUV format is JPEG compressed, added with header information, etc., and stored in a memory card.

ここで、例として、解像度を上げずに、感度だけを上げて静止画の記憶する方法を説明する。   Here, as an example, a method for storing still images with only the sensitivity increased without increasing the resolution will be described.

640×480画素で静止画を記録する場合は、最初に、図7に示されている通常静止画(2560×1920画素)を、図3(B)に示されている高感度データと同じサイズ(1280×480画素)に縮小する。SDRAM17に保存されている静止画RGBデータを読み出して、リサイズ・フィルタ部134に送る。静止画用RGBデータは、CCDI/F部132ですでにAWBゲインが乗算されているので、リサイズ・フィルタ部134ではゲインの乗算は行わない。入力されたRGBデータは、各色ごとに例えば線形補間フィルタなどの補間フィルタをかけながらリサンプリングを行って縮小を行い、SDRAM17に書き戻す。   When recording a still image with 640 × 480 pixels, first, the normal still image (2560 × 1920 pixels) shown in FIG. 7 is the same size as the high-sensitivity data shown in FIG. 3 (B). Reduce to (1280 × 480 pixels). The still image RGB data stored in the SDRAM 17 is read and sent to the resize / filter unit 134. Since the still image RGB data has already been multiplied by the AWB gain in the CCD I / F unit 132, the resize filter unit 134 does not multiply the gain. The input RGB data is reduced by resampling while applying an interpolation filter such as a linear interpolation filter for each color, and written back to the SDRAM 17.

次に、高感度用データをリサイズ・フィルタ部134に読み込む。入力部でAWB乗算回路(図5)によってAWBのゲインが乗算され、ローパスフィルタをかけ、リサイズ処理を行わずにSDRAM17に書き戻す。   Next, the high sensitivity data is read into the resizing / filtering unit 134. An AWB multiplication circuit (FIG. 5) multiplies the AWB gain at the input unit, applies a low-pass filter, and writes back to the SDRAM 17 without performing a resizing process.

高感度用RGBデータと静止画用RGBデータとは、いずれも1280×480画素、12bit、AWBゲインが乗算された状態のデータを画素間演算部138に送る。   The high-sensitivity RGB data and the still-image RGB data are all sent to the inter-pixel operation unit 138 in a state in which 1280 × 480 pixels, 12 bits, and AWB gain are multiplied.

式(1)において、静止画用データを画像A、高感度用データを画像B、加算結果と画像Cとして加算される。ここでは加算結果に対して12bitでクリップされる。画像Cは再びSDRAM17に書き戻される。   In equation (1), still image data is added as image A, high sensitivity data is added as image B, and the addition result and image C are added. Here, the addition result is clipped with 12 bits. The image C is written back to the SDRAM 17 again.

その後の処理は、通常撮影と同じプロセスで処理される。SDRAM17に書き戻された画像CのRGBデータは、画像処理部に送られてエッジ強調処理やカラー調整などを行った後にYUVデータに変換され、そのままリサイズ・フィルタ部134に送られ、YUVの640×480画素としてSDRAM17に書き戻される。YUVはJPEG圧縮され、ヘッダ情報付加などが行われた後にメモリカードに保存される。   Subsequent processing is performed in the same process as normal imaging. The RGB data of the image C written back to the SDRAM 17 is sent to the image processing unit, subjected to edge enhancement processing, color adjustment, and the like, converted to YUV data, sent to the resizing / filtering unit 134 as it is, and YUV 640. X480 pixels are written back to the SDRAM 17. YUV is JPEG-compressed, and is added to the header information and stored in the memory card.

この方式では、高感度用データと静止画用データの露光時間がいずれも33msec(=1/30sec)だったとした場合、トータル露光時間は約66msecとなるが、高感度用データは感度が4倍になっているため、図6のような従来の撮影システムで66msecの露光をした場合の2.5倍の感度が得られている。手ブレしにくい高感度で高解像度の撮像が実現される。   In this method, if the exposure time for both high-sensitivity data and still image data is 33 msec (= 1/30 sec), the total exposure time is about 66 msec, but the high-sensitivity data has four times the sensitivity. Therefore, the sensitivity is 2.5 times as high as that obtained when the conventional photographing system as shown in FIG. 6 is exposed for 66 msec. High-sensitivity and high-resolution imaging with less camera shake is realized.

また、感度をさらに高くするために、高感度用データの露光時間を長くすることがより効果的である。高感度用露光時間を66msec、静止画用露光時間を33msecとすると、トータル露光時間は約100msecとなる。これは従来の撮影システムでは約300msecの露光量に相当する。つまり露光時間は1/3となり、感度は3倍が得られている。   In order to further increase the sensitivity, it is more effective to lengthen the exposure time of the high sensitivity data. If the exposure time for high sensitivity is 66 msec and the exposure time for still images is 33 msec, the total exposure time is about 100 msec. This corresponds to an exposure amount of about 300 msec in the conventional photographing system. That is, the exposure time is 1/3, and the sensitivity is tripled.

また640×480画素で静止画を記録する場合は、高感度用データを図3(A)の画素加算1/4ライン読み出しモードを使うようにしてもよい。この読み出しモードでの読み出し画素数は1280×240画素である。この場合は、高感度データを1280×480画素にリサイズし、通常静止画データを1280×480画素に縮小した後に加算処理をすることになる。   Further, when a still image is recorded with 640 × 480 pixels, the high-sensitivity data may be used in the pixel addition 1/4 line readout mode of FIG. The number of readout pixels in this readout mode is 1280 × 240 pixels. In this case, the high sensitivity data is resized to 1280 × 480 pixels, and the normal still image data is reduced to 1280 × 480 pixels, and then the addition process is performed.

この画素加算1/4ライン読み出しモードは、1/60secサイクルなので、図9の(4)の期間が短くでき、2回の露光開始タイミングのずれをさらに短くすることができる。
(静止画用RGBデータからエッジ情報を生成して行う加算)
この加算の方式は、静止画用RGBデータを、解像度を高めるためのエッジ情報として用いる方式である。最初に高感度用データ(1280×480画素)を2560×1920画素に拡大する。SDRAM17に保存されている高感度用RGBデータを読み出して、リサイズ・フィルタ部134に送る。リサイズ・フィルタ部134では、入力部でAWB乗算回路(図5)によってAWBのゲインを乗算する。このゲインは、上記高感度用データ転送時に取得したRGB積算値から算出した値を用いる。AWBゲインを乗算したRGBデータは、ローパスフィルタをかけながら拡大処理を行い、その結果をSDRAM17に書き戻す。ここでローパスフィルタとしたのは、上記同様にYUV変換時に偽色の発生や直線がぎざぎざになる問題が発生する可能性を抑えるためである。
Since this pixel addition 1/4 line readout mode is 1/60 sec cycle, the period (4) in FIG. 9 can be shortened, and the deviation of the two exposure start timings can be further shortened.
(Addition by generating edge information from RGB data for still images)
This addition method is a method in which still image RGB data is used as edge information for increasing the resolution. First, the high sensitivity data (1280 × 480 pixels) is expanded to 2560 × 1920 pixels. The high-sensitivity RGB data stored in the SDRAM 17 is read and sent to the resize filter unit 134. In the resize filter unit 134, the input unit multiplies the AWB gain by the AWB multiplication circuit (FIG. 5). As this gain, a value calculated from the RGB integrated value acquired at the time of transferring the high sensitivity data is used. The RGB data multiplied by the AWB gain is enlarged while applying a low pass filter, and the result is written back to the SDRAM 17. The reason why the low-pass filter is used here is to suppress the possibility of occurrence of a false color or a problem of jagged lines during YUV conversion as described above.

次に、静止画用RGBデータをリサイズ・フィルタ部134へ送る。静止画用RGBデータはすでにAWBのゲイン乗算が済んでいるので、ここではゲインは1倍とする。この静止画用RGBデータに対して、ハイパスフィルタをかけてエッジ成分だけを取り出すし、リサイズを行わずにSDRAM17に書き戻す。   Next, the still image RGB data is sent to the resizing / filtering unit 134. Since the still image RGB data has already been subjected to AWB gain multiplication, the gain is set to 1 here. This still image RGB data is subjected to a high-pass filter to extract only the edge component, and is written back to the SDRAM 17 without resizing.

2つの画像は画素間演算部に送られる。式(1)において、静止画用データを画像A、高感度用データを画像B、加算結果と画像Cとして加算される。ここでは加算結果に対して12bitでクリップされる。画像Cは再びSDRAM17に書き戻される。   The two images are sent to the inter-pixel calculation unit. In equation (1), still image data is added as image A, high sensitivity data is added as image B, and the addition result and image C are added. Here, the addition result is clipped with 12 bits. The image C is written back to the SDRAM 17 again.

その後の処理は、通常撮影と同じプロセスで処理される。SDRAM17に書き戻された画像CのRGBデータは、画像処理部に送られてエッジ強調処理やカラー調整などを行った後にYUVデータに変換され、SDRAM書き戻される。YUVはJPEG圧縮され、ヘッダ情報付加などが行われた後にメモリカード20に保存される。   Subsequent processing is performed in the same process as normal imaging. The RGB data of the image C written back to the SDRAM 17 is sent to the image processing unit, subjected to edge enhancement processing, color adjustment, and the like, converted to YUV data, and written back to the SDRAM. YUV is JPEG-compressed, and is added to the header information and stored in the memory card 20.

この方法は、高感度用データによって感度アップを行い、静止画用データで解像度をアップさせている。   In this method, sensitivity is increased by high sensitivity data, and resolution is increased by still image data.

高感度用データと静止画用データの露光時間がいずれも約33msecだったとした場合、トータル露光時間は約66msecとなるが、高感度用データは感度が4倍になっているため、図6のような従来の撮影システムでは約166msecの露光量に相当する。解像度は静止画用のデータから得られ、露光時間は1/2.5(=66/166)の時間となり2倍の感度が得られている。手ブレしにくい高感度で高解像度の撮像が実現できる。   If the exposure time of both the high sensitivity data and the still image data is about 33 msec, the total exposure time is about 66 msec, but the sensitivity of the high sensitivity data is quadrupled. Such a conventional photographing system corresponds to an exposure amount of about 166 msec. The resolution is obtained from still image data, and the exposure time is 1 / 2.5 (= 66/166), which is twice as sensitive. High-sensitivity and high-resolution imaging that is less susceptible to camera shake can be realized.

また、感度をさらに高くするために、高感度用データの露光時間を長くすることがより効果的である。高感度用露光時間を66msec、静止画用露光時間を33msecとすると、トータル露光時間は約100msecとなる。これは従来の撮影システムでは約266msecの露光量に相当する。露光時間は1/2.6となり、感度は2.6倍が得られている。   In order to further increase the sensitivity, it is more effective to lengthen the exposure time of the high sensitivity data. If the exposure time for high sensitivity is 66 msec and the exposure time for still images is 33 msec, the total exposure time is about 100 msec. This corresponds to an exposure amount of about 266 msec in the conventional photographing system. The exposure time is 1 / 2.6, and the sensitivity is 2.6 times.

上記処理において、静止画データからハイパスフィルタ出力を得るため、静止画データにノイズがあった場合、そのノイズも取り出してしまう可能性がある。そのためリサイズ・フィルタ部134による処理の前に、ノイズ軽減を行うこともできる。ノイズ軽減処理は画素間演算部で行うことができる。ランダムノイズは通常レベルが小さい。そのため式(4)を用いて、βにマイナスの値を入れることで低輝度部のノイズを除去してしまう。ノイズの除去された画像により解像情報がフィルタ処理によって取り出され、より高画質な画像が得られる。
(YUV変換後のYUVデータによる加算)
高感度用RGBデータとして1280×480画素、静止画用データとして2560×1920画素の2画面分のRGBデータがSDRAMに保存されている。
In the above processing, in order to obtain a high-pass filter output from still image data, if there is noise in the still image data, there is a possibility that the noise will be extracted. Therefore, noise reduction can be performed before the processing by the resizing / filtering unit 134. The noise reduction process can be performed by the inter-pixel calculation unit. Random noise usually has a low level. For this reason, using Expression (4), a negative value is added to β to remove noise in the low luminance part. The resolution information is extracted by the filtering process from the image from which noise is removed, and a higher quality image is obtained.
(Addition by YUV data after YUV conversion)
RGB data for two screens of 1280 × 480 pixels as high-sensitivity RGB data and 2560 × 1920 pixels as still image data is stored in the SDRAM.

最初に高感度用データ(1280×480画素)を画像処理部133に送り、CCDI/F部132のRGB積算データをもとに算出されたAWBゲインによってAWB乗算処理が行われた後に、カラー調整などを行ってYUVデータに変換を行う。YUVデータはそのままリサイズ・フィルタ部134に送られ、ローパスフィルタをかけながら2560×1920画素に拡大処理を行い、結果をSDRAM17に書き戻す。ここでローパスフィルタとしたのは、図3(B)のように、読み出しは一部のデータを間引いて読み出しており、線がぎざぎざになる問題などが発生する可能性あるため、ローパスフィルタをかけるようにする。   First, the high sensitivity data (1280 × 480 pixels) is sent to the image processing unit 133, and after the AWB multiplication processing is performed by the AWB gain calculated based on the RGB integrated data of the CCD I / F unit 132, color adjustment is performed. Etc. to convert it into YUV data. The YUV data is sent to the resizing / filtering unit 134 as it is, the enlargement processing is performed to 2560 × 1920 pixels while applying a low-pass filter, and the result is written back to the SDRAM 17. The low-pass filter is used here because, as shown in FIG. 3B, a part of the data is read out and there is a possibility that the line becomes jagged. Like that.

次に、静止画用RGBデータを画像処理部133に送る。静止画用データは、高感度用データのRGB積算からAWBゲインを算出し、静止画転送時にCCDI/F部132においてAWBゲイン乗算が行われているため、ここではAWB乗算処理は行わず、カラー調整やエッジ生成処理などを行ってYUVデータに変換する。YUVデータは、リサイズ・フィルタ部134に送られ、ハイパスフィルタがかけられ、解像成分(エッジ成分)だけを取り出し、拡大縮小処理は行わずにSDRAM17に書き戻す。   Next, the still image RGB data is sent to the image processing unit 133. For still image data, the AWB gain is calculated from the RGB integration of the high sensitivity data, and the AWB gain multiplication is performed in the CCD I / F unit 132 at the time of still image transfer. Adjustment, edge generation processing, etc. are performed and converted into YUV data. The YUV data is sent to the resizing / filtering unit 134, is subjected to a high-pass filter, takes out only the resolution component (edge component), and writes it back to the SDRAM 17 without performing enlargement / reduction processing.

ここまでで、高感度用RGBデータと静止画用RGBデータとは、いずれも2560×1920画素のYUVデータとなっている。   Up to this point, the high sensitivity RGB data and the still image RGB data are both YUV data of 2560 × 1920 pixels.

次に、2つの画像のYデータだけを画素間演算部138に送られる。人間の目は、色情報の解像力が弱く、解像度に影響するのは輝度(Y)データなので、Yデータだけを処理する。   Next, only Y data of two images is sent to the inter-pixel operation unit 138. The human eye processes only Y data because the resolution of color information is weak and it is luminance (Y) data that affects the resolution.

式(1)において、静止画用Yデータを画像A、高感度用Yデータを画像B、加算結果Yデータと画像Cとして加算される。ここでは加算結果に対して8bitでクリップされる。画像Cは再びSDRAM17に書き戻される。   In Expression (1), the still image Y data is added as image A, the high sensitivity Y data is added as image B, and the addition result Y data and image C are added. Here, the addition result is clipped at 8 bits. The image C is written back to the SDRAM 17 again.

その後の処理は、通常撮影と同じプロセスで処理される。SDRAM17に書き戻された画像CのYデータと高感度用データから作成したUVデータを使って、リサイズ・フィルタ部で記録に必要なサイズにリサイズを行い、JPEGコーデック部137でJEPG圧縮、ヘッダ情報付加を行って後にJPEG画像ファイルとしてメモリカード20に保存される。   Subsequent processing is performed in the same process as normal imaging. Using the UV data created from the Y data of the image C written back to the SDRAM 17 and the data for high sensitivity, the resizing / filtering unit performs resizing to the size required for recording, and the JPEG codec unit 137 performs JEPG compression and header information. After the addition, it is stored in the memory card 20 as a JPEG image file.

この方式は、第2の方式と同様に、高感度用データによって感度アップを行い、静止画用データで解像度をアップさせている。   In this method, as in the second method, sensitivity is increased by high sensitivity data, and resolution is increased by still image data.

高感度用データと静止画用データの露光時間がいずれも約33msecだったとした場合、トータル露光時間は約66msecとなるが、高感度用データは感度が4倍になっているため、図5のような従来の撮影システムでは約166msecの露光量に相当する。解像度は静止画用のデータから得られ、露光時間は1/2.5(=66/166)の時間となり2倍の感度が得られている。手ブレしにくい高感度で高解像度の撮像が実現できる。   If the exposure time of both the high sensitivity data and the still image data is about 33 msec, the total exposure time is about 66 msec, but the sensitivity of the high sensitivity data is quadrupled. Such a conventional photographing system corresponds to an exposure amount of about 166 msec. The resolution is obtained from still image data, and the exposure time is 1 / 2.5 (= 66/166), which is twice as sensitive. High-sensitivity and high-resolution imaging that is less susceptible to camera shake can be realized.

また、感度をさらに高くするために、高感度用データの露光時間を長くすることがより効果的である。高感度用露光時間を66msec、静止画用露光時間を33.msecとすると、トータル露光時間は約100msecとなる。これは従来の撮影システムでは約266msecの露光量に相当する。露光時間は1/2.6となり、感度は4倍が得られている。
(機能構成ブロック)
本発明の撮像装置は、例えば、図12に示されているブロックを有している。つまり、露光手段51、駆動手段・画素数切換手段52、転送手段53、信号処理部54及びSDRAM17である。また、信号処理部54は、合成手段541、高域周波数通過フィルタ542、サイズ変換手段543、減算手段544及びホワイトバランス調整手段545を有している。
In order to further increase the sensitivity, it is more effective to lengthen the exposure time of the high sensitivity data. If the exposure time for high sensitivity is 66 msec and the exposure time for still images is 33 msec, the total exposure time is about 100 msec. This corresponds to an exposure amount of about 266 msec in the conventional photographing system. The exposure time is 1 / 2.6, and the sensitivity is 4 times.
(Functional configuration block)
The imaging apparatus of the present invention has, for example, the blocks shown in FIG. That is, the exposure unit 51, the drive unit / pixel number switching unit 52, the transfer unit 53, the signal processing unit 54, and the SDRAM 17. Further, the signal processing unit 54 includes a synthesizing unit 541, a high frequency pass filter 542, a size converting unit 543, a subtracting unit 544, and a white balance adjusting unit 545.

露光手段51は、撮像素子であるCCD11の露光を行う。駆動手段・画素数切換手段52は、CCD11を駆動して撮像信号を読出したり、CCD11から読み出す画素数を切り換える。転送手段53は、読みとれた撮像信号を信号処理部54に転送する。   The exposure means 51 exposes the CCD 11 that is an image sensor. The driving unit / pixel number switching unit 52 drives the CCD 11 to read out an imaging signal and switches the number of pixels read out from the CCD 11. The transfer unit 53 transfers the read image pickup signal to the signal processing unit 54.

また、信号処理部54は、転送された画像データを処理する。例えば、合成手段541は、複数の画像データを合成する。高域周波数通過フィルタ542は、画像データに対して、高域周波数通過フィルタ処理を行う。サイズ変換手段543は、画像データのサイズを変換する。減算手段544は、画像データから所定の値を減算する。ホワイトバランス調整手段545は、画像データに対して、ホワイトバランスの調整を行う。   The signal processing unit 54 processes the transferred image data. For example, the synthesizing unit 541 synthesizes a plurality of image data. The high frequency pass filter 542 performs high frequency pass filter processing on the image data. The size converter 543 converts the size of the image data. The subtracting means 544 subtracts a predetermined value from the image data. The white balance adjustment unit 545 adjusts the white balance for the image data.

SDRAM17は、信号処理部54が処理した結果の画像データを格納し、又は、信号処理部54が処理する画像データを格納している。
(撮像方法)
本発明の撮像方法は、図13に示されている処理フローを有している。
The SDRAM 17 stores image data obtained as a result of processing by the signal processing unit 54 or stores image data processed by the signal processing unit 54.
(Imaging method)
The imaging method of the present invention has the processing flow shown in FIG.

信号処理ステップS15に至るまで、二つの処理フローのルートがある。一つは、高感度画像データを得るための処理であり、他方は、高精細画像データを得るための処理である。   There are two processing flow routes up to the signal processing step S15. One is a process for obtaining high-sensitivity image data, and the other is a process for obtaining high-definition image data.

高感度画像データを得るための処理は、高感度画像用画素切替ステップS11、高感度画像用露光ステップS12、高感度画像用駆動ステップS13及び高感度画像用画像転送ステップS14である。   Processing for obtaining high-sensitivity image data includes a high-sensitivity image pixel switching step S11, a high-sensitivity image exposure step S12, a high-sensitivity image drive step S13, and a high-sensitivity image image transfer step S14.

高感度画像用画素切替ステップS11は、高感度画像データを得るために、撮像素子に対して、駆動手段により、間引かれる画素及び加算される画素を設定する(例えば、図3(A))。この設定は、CPU135により、TG124に設定される。   In the high-sensitivity image pixel switching step S11, in order to obtain high-sensitivity image data, the pixels to be thinned out and the pixels to be added are set by the driving unit with respect to the image sensor (for example, FIG. 3A). . This setting is set in the TG 124 by the CPU 135.

高感度画像用露光ステップS12は、マトリックス状に配置された撮像素子であるCCDを露光するステップであり、高感度画像用駆動ステップS13は、露光されたCCDに対して、駆動手段が撮像信号を読出すステップであり、高感度画像用画像転送ステップS14は、読み出した撮像信号を信号処理部に転送するステップである。   The high-sensitivity image exposure step S12 is a step of exposing a CCD, which is an image pickup element arranged in a matrix, and the high-sensitivity image drive step S13 is a step in which the drive means outputs an image pickup signal to the exposed CCD. The high-sensitivity image image transfer step S14 is a step of transferring the read imaging signal to the signal processing unit.

同様に、高精細画像データを得るための処理は、高精細画像用画素切替ステップS21、高精細画像用露光ステップS22、高精細画像用駆動ステップS23及び高精細画像用画像転送ステップS24である。   Similarly, the processing for obtaining high-definition image data is a high-definition image pixel switching step S21, a high-definition image exposure step S22, a high-definition image driving step S23, and a high-definition image image transfer step S24.

高精細画像用画素切替ステップS21は、高精細画像データを得るために、撮像素子に対して、駆動手段により、間引かれる画素及び加算される画素を設定する(例えば、図7)。この設定は、CPU135により、TG124に設定される。   In the high-definition image pixel switching step S21, pixels to be thinned out and pixels to be added are set by the driving means for the image sensor to obtain high-definition image data (for example, FIG. 7). This setting is set in the TG 124 by the CPU 135.

高精細画像用露光ステップS22は、マトリックス状に配置された撮像素子であるCCDを露光するステップであり、高精細画像用駆動ステップS23は、露光されたCCDに対して、駆動手段が撮像信号を読出すステップであり、高精細画像用画像転送ステップS24は、読み出した撮像信号を信号処理部に転送するステップである。   The high-definition image exposure step S22 is a step of exposing a CCD, which is an image pickup device arranged in a matrix, and the high-definition image drive step S23 is a step in which the drive means outputs an image pickup signal to the exposed CCD. The high-definition image transfer step S24 is a step of transferring the read image pickup signal to the signal processing unit.

なお、高感度画像用画素切替ステップS11は、全部又は一部の撮像素子から撮像信号を読出して、所定の位置関係にある複数の前記撮像素子からの撮像信号の加算を行って、M(N>M)個の画素データ(高感度画像データ)得るように切り換える。一方、高精細画像用画素切替ステップS21は、全部又は一部の前記撮像素子から前記撮像信号を読出して、O(N≧O>M)個の画素データ(高精細画像データ)を得るように切り換える。   In the high-sensitivity image pixel switching step S11, image signals are read from all or some of the image sensors, and the image signals from a plurality of the image sensors having a predetermined positional relationship are added, and M (N > M) Switch so as to obtain pixel data (high-sensitivity image data). On the other hand, in the high-definition image pixel switching step S21, the imaging signals are read from all or a part of the imaging elements so as to obtain O (N ≧ O> M) pixel data (high-definition image data). Switch.

なお、高感度画像用画像転送ステップS14における転送処理の後に、高精細画像用画像24における転送処理が行われる。   Note that the transfer process for the high-definition image 24 is performed after the transfer process in the high-sensitivity image transfer step S14.

また、高感度画像用駆動ステップS13の駆動処理と、高精細画像用露光ステップS22における露光処理とは、一部重複するようにしてもよい。   Further, the driving process in the high-sensitivity image driving step S13 and the exposure process in the high-definition image exposure step S22 may partially overlap.

また、高感度画像用画像転送ステップS14の後に、高精細画像用露光ステップS22における露光処理を行うようにしてもよい。   Further, after the high-sensitivity image image transfer step S14, the exposure process in the high-definition image exposure step S22 may be performed.

高感度画像用画素切替ステップS11、高感度画像用露光ステップS12、高感度画像用駆動ステップS13及び高感度画像用画像転送ステップS14で得られた高感度画像データと、高精細画像用画素切替ステップS21、高精細画像用露光ステップS22、高精細画像用駆動ステップS23及び高精細画像用画像転送ステップS24で得られた高精細画像データとは、それぞれ、信号処理ステップS15で、必要に応じて、画像サイズ変換、減算及びホワイトバランス調整等の信号処理が行われる。   High-sensitivity image pixel switching step S11, high-sensitivity image exposure step S12, high-sensitivity image drive step S13, and high-sensitivity image image transfer step S14, and high-definition image pixel switching step The high-definition image data obtained in S21, high-definition image exposure step S22, high-definition image drive step S23, and high-definition image image transfer step S24, respectively, is signal processing step S15. Signal processing such as image size conversion, subtraction, and white balance adjustment is performed.

その後、高感度画像データ及び高精細画像データは、合成ステップS16で合成される。   Thereafter, the high-sensitivity image data and the high-definition image data are synthesized in the synthesis step S16.

なお、ホワイトバランス調整は、高感度画像データにより行われるのが好ましい。   The white balance adjustment is preferably performed using high-sensitivity image data.

また、減算及びホワイトバランス調整が行われる場合は、ホワイトバランス調整後にホワイトバランス調整が行われる。   When subtraction and white balance adjustment are performed, white balance adjustment is performed after white balance adjustment.

高感度画像データを拡大して、高精細画像データと同じサイズにして、合成するようにしてもよい。   The high-sensitivity image data may be enlarged to have the same size as the high-definition image data and may be combined.

以上の通り、本発明は、読み出し時間が短い高感度低解像度画像と、読み出し時間が相対的に低感度高解像度画像とを加算すること、及び読み出しタイミングの工夫することで、高感度で高解像度の撮影が可能となり、手ブレ機構などを追加しなくても手ブレしにくい撮像装置が実現できる。また高感度のデータからホワイトバランスのデータを取得することで、安定したホワイトバランスが実現できる。   As described above, the present invention adds a high-sensitivity low-resolution image with a short readout time and a high-sensitivity image with a relatively low readout time, and devise the readout timing to achieve high sensitivity and high resolution. Therefore, it is possible to realize an imaging apparatus that is less likely to be shaken without adding a camera shake mechanism. Also, stable white balance can be achieved by acquiring white balance data from highly sensitive data.

11 CCD
12 AFE
13 信号処理IC
14 操作部
15 モータドライバ
16 ストロボモジュール
17 SDRAM
18 ROM
19 表示装置
20 メモリカード
21 USB
44 AWBゲインアンプ
51 露光手段
52 駆動手段・画素数切換手段
53 転送手段
54 信号処理部
121 CDS
122 AGC
123 A/D
124 TG
131 メモリコントローラ
132 CCDI/F部
133 画像処理部
134 リサイズ・フィルタ部
135 CPU
136 表示I/F部
137 JPEGコーデック部
138 画素間演算部
139 カードコントローラ部
140 通信I/F部
541 合成手段
542 高域周波数通過フィルタ
543 サイズ変換手段
544 減算手段
545 ホワイトバランス調整手段
11 CCD
12 AFE
13 Signal processing IC
14 Operation Unit 15 Motor Driver 16 Strobe Module 17 SDRAM
18 ROM
19 Display device 20 Memory card 21 USB
44 AWB gain amplifier 51 Exposure unit 52 Drive unit / pixel number switching unit 53 Transfer unit 54 Signal processing unit 121 CDS
122 AGC
123 A / D
124 TG
131 Memory Controller 132 CCD I / F Unit 133 Image Processing Unit 134 Resizing / Filtering Unit 135 CPU
136 Display I / F unit 137 JPEG codec unit 138 Inter-pixel calculation unit 139 Card controller unit 140 Communication I / F unit 541 Combining unit 542 High frequency pass filter 543 Size converting unit 544 Subtracting unit 545 White balance adjusting unit

特開2005-45435公報JP 2005-45435 A 特開2004-336468公報JP 2004-336468 A 特開2004-235901公報JP 2004-235901 A 特開2002−84548公報JP 2002-84548 A 特開平11−298800公報JP 11-298800 A 特許第3123415号公報Japanese Patent No. 3123415 特開平5−344417公報JP-A-5-344417

Claims (4)

マトリックス状に配置されたN個の受光素子と、該受光素子を駆動して撮像信号を読出す駆動手段とを有する撮像装置において、
前記駆動手段が、全部又は一部の前記受光素子から前記撮像信号を読出す際、所定の位置関係にある複数の前記受光素子からの撮像信号を、該受光素子の読取時に加算して得たM(M<N)個の画素データを有する第1の画像データと、
前記駆動手段が、全部又は一部の前記受光素子から前記撮像信号を読出して得たO(N≧O>M)個の画素データを有する第2の画像データと、
を合成して、第3の画像データを合成する合成手段を有することを特徴とする撮像装置。
In an imaging apparatus having N light receiving elements arranged in a matrix and driving means for driving the light receiving elements and reading an imaging signal,
When the driving means reads the imaging signals from all or a part of the light receiving elements, the imaging means obtained from a plurality of the light receiving elements in a predetermined positional relationship is obtained by adding the signals when reading the light receiving elements. First image data having M (M <N) pixel data;
Second image data having O (N ≧ O> M) pixel data obtained by reading out the imaging signal from all or a part of the light receiving elements;
An image pickup apparatus comprising combining means for combining the third image data by combining the first and second image data.
前記受光素子を露光する露光手段を有し、
前記駆動手段が、前記第1の画像データを読出す期間と、前記露光手段が、第2の画像データを得るために前記受光素子を露光する期間とが、一部重複することを特徴とする請求項1記載の撮像装置。
Exposure means for exposing the light receiving element;
A period in which the driving unit reads out the first image data and a period in which the exposure unit exposes the light receiving element to obtain second image data partially overlap each other. The imaging device according to claim 1.
マトリックス状に配置されたN個の受光素子を駆動して撮像信号を読出す駆動ステップと、
前記駆動ステップは、全部又は一部の前記受光素子から前記撮像信号を読出して、所定の位置関係にある複数の前記受光素子からの撮像信号の加算を行って、M(N>M)個の画素データ得る第1の駆動ステップと、全部又は一部の前記受光素子から前記撮像信号を読出して、O(N≧O>M)個の画素データを得る第2の駆動ステップとを有し、
前記第1の駆動ステップで得た第1の画像データと、前記第2の駆動ステップで得た第2の画像データとを合成して、第3の画像データを合成する合成ステップとを有することを特徴とする撮像方法。
A driving step of driving N light receiving elements arranged in a matrix to read out an imaging signal;
In the driving step, the imaging signals are read from all or a part of the light receiving elements, and the imaging signals from a plurality of the light receiving elements in a predetermined positional relationship are added, so that M (N> M) A first driving step for obtaining pixel data, and a second driving step for reading out the imaging signals from all or part of the light receiving elements to obtain O (N ≧ O> M) pixel data,
And a synthesis step of synthesizing the third image data by synthesizing the first image data obtained in the first driving step and the second image data obtained in the second driving step. An imaging method characterized by the above.
前記受光素子を露光して第2の画像データを得る露光ステップを有し、
前記第1の駆動ステップにより前記第1の画像データを読出している期間と、前記露光ステップにより第2の画像データを得るために前記受光素子を露光する期間とが、一部重複することを特徴とする請求項3記載の撮像方法。
An exposure step of exposing the light receiving element to obtain second image data;
The period during which the first image data is read out by the first driving step and the period during which the light receiving element is exposed to obtain the second image data by the exposure step partially overlap. The imaging method according to claim 3.
JP2011017668A 2011-01-31 2011-01-31 Imaging apparatus and imaging method Expired - Fee Related JP5267587B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011017668A JP5267587B2 (en) 2011-01-31 2011-01-31 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011017668A JP5267587B2 (en) 2011-01-31 2011-01-31 Imaging apparatus and imaging method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005292516A Division JP4695481B2 (en) 2005-10-05 2005-10-05 Imaging apparatus and imaging method

Publications (2)

Publication Number Publication Date
JP2011087338A true JP2011087338A (en) 2011-04-28
JP5267587B2 JP5267587B2 (en) 2013-08-21

Family

ID=44079896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011017668A Expired - Fee Related JP5267587B2 (en) 2011-01-31 2011-01-31 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP5267587B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016030157A (en) * 2014-07-30 2016-03-07 Hoya株式会社 Imaging device for endoscope

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357335A (en) * 2004-08-17 2004-12-16 Matsushita Electric Ind Co Ltd Solid-state imaging apparatus
JP2007036978A (en) * 2005-07-29 2007-02-08 Eastman Kodak Co Digital camera, photographing method and photography control program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004357335A (en) * 2004-08-17 2004-12-16 Matsushita Electric Ind Co Ltd Solid-state imaging apparatus
JP2007036978A (en) * 2005-07-29 2007-02-08 Eastman Kodak Co Digital camera, photographing method and photography control program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016030157A (en) * 2014-07-30 2016-03-07 Hoya株式会社 Imaging device for endoscope

Also Published As

Publication number Publication date
JP5267587B2 (en) 2013-08-21

Similar Documents

Publication Publication Date Title
JP4943721B2 (en) Color noise removal method for image data and imaging apparatus using the method
JP4727457B2 (en) Imaging device
JP5950678B2 (en) Imaging apparatus, control method, and program
JP5002931B2 (en) Imaging apparatus and program thereof
US7589778B2 (en) Digital camera
JP5009880B2 (en) Imaging apparatus and imaging method
KR20120115119A (en) Image processing device for generating composite image having predetermined aspect ratio
JP4695481B2 (en) Imaging apparatus and imaging method
JP2006033123A (en) Image pickup device
JP4675204B2 (en) Imaging device driving method and imaging apparatus
JP2005236662A (en) Imaging method, imaging device, and imaging system
JP6032912B2 (en) Imaging apparatus, control method thereof, and program
JP5820720B2 (en) Imaging device
JP4445662B2 (en) Electronic camera
JP4934617B2 (en) Imaging apparatus and imaging method
JP2009065320A (en) Imaging device
JP5267587B2 (en) Imaging apparatus and imaging method
JP2011029879A (en) Imaging apparatus and imaging method
JP2004343363A (en) Imaging apparatus
EP3672218A1 (en) Imaging apparatus
JP2012156667A (en) Imaging apparatus and imaging method
JP5750262B2 (en) Imaging apparatus and imaging method
JP2004235901A (en) Image pickup device
JP2003153093A (en) Solid-state imaging device, electronic still camera, method for driving solid-state image pickup element and control program for driving the solid-state image pickup element
JP5929362B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130422

R151 Written notification of patent or utility model registration

Ref document number: 5267587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees