JP2009290344A - Image processing device and imaging device - Google Patents

Image processing device and imaging device Download PDF

Info

Publication number
JP2009290344A
JP2009290344A JP2008138509A JP2008138509A JP2009290344A JP 2009290344 A JP2009290344 A JP 2009290344A JP 2008138509 A JP2008138509 A JP 2008138509A JP 2008138509 A JP2008138509 A JP 2008138509A JP 2009290344 A JP2009290344 A JP 2009290344A
Authority
JP
Japan
Prior art keywords
image
pixel
signal
interpolation
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008138509A
Other languages
Japanese (ja)
Other versions
JP5202106B2 (en
Inventor
Norikazu Tsunekawa
法和 恒川
Seiji Okada
誠司 岡田
Akihiro Maenaka
章弘 前中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2008138509A priority Critical patent/JP5202106B2/en
Priority to PCT/JP2009/059627 priority patent/WO2009145201A1/en
Priority to US12/994,843 priority patent/US20110063473A1/en
Publication of JP2009290344A publication Critical patent/JP2009290344A/en
Application granted granted Critical
Publication of JP5202106B2 publication Critical patent/JP5202106B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To suppress the sensation of degradation in the resolution and generation of jaggies which are produced, when summing reading-out or decimation reading-out of pixel signals is performed. <P>SOLUTION: An image processing device performs summing reading-out of the pixel signals of a light-receiving pixel group which are two-dimensionally arranging on imaging elements of a single plane system, and acquires an original image. Here, a plurality of original images are acquired, (Fig.35(a) to (d)) whose pixel positions with pixel signals are different each other, by using a plurality of adding patterns whose combination of receiving pixels to be targets of the addition are different. Pixel signals of the same color contained in the pixel signal group of the original image are mixed with one another for respective images, and an interpolation image with a pixel signal obtained by the mixing is generated. Afterwards, a sheet of constituted output image is produced, by compositing a plurality of interpolation images produced from a plurality of original images. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、取得した原画像に対して画像処理を行う画像処理装置、及び、デジタルビデオカメラ等の撮像装置に関する。   The present invention relates to an image processing apparatus that performs image processing on an acquired original image, and an imaging apparatus such as a digital video camera.

多画素から成る静止画像を撮影可能な撮像素子(イメージセンサ)にて動画像を撮影する場合、撮像素子からの画素信号の読み出し速度に応じて、フレームレートを低く抑える必要がある。高フレームレートを実現するためには、画素信号の加算読み出し或いは間引き読み出しを行って画像データを減らす必要がある。   When a moving image is captured by an image sensor (image sensor) that can capture a still image composed of multiple pixels, it is necessary to reduce the frame rate in accordance with the readout speed of the pixel signal from the image sensor. In order to realize a high frame rate, it is necessary to reduce image data by performing addition readout or thinning readout of pixel signals.

但し、撮像素子上の画素間隔は水平及び垂直方向において均等であるにも拘らず、加算読み出し或いは間引き読み出しを行うと、画素信号が存在する間隔が不均等となる。この不均等に配列された画素信号を有する画像をそのまま表示すると、ジャギーや偽色が発生する。この問題を回避するための手法として、画素信号が存在する画素間隔が均等となるように補間処理を行う手法が提案されている(例えば、特許文献1及び2参照)   However, although the pixel interval on the image sensor is uniform in the horizontal and vertical directions, when addition reading or thinning readout is performed, the interval at which pixel signals exist becomes unequal. If an image having pixel signals that are unevenly arranged is displayed as it is, jaggies and false colors are generated. As a technique for avoiding this problem, a technique has been proposed in which interpolation processing is performed so that pixel intervals in which pixel signals exist are equal (see, for example, Patent Documents 1 and 2).

この手法を、図54を参照して説明する。図54において、ブロック901は、単板方式を採用した撮像素子の受光画素前面に配置されたカラーフィルタ配列(ベイヤー配列)を示している。ブロック902は、加算読み出しを行うことによって、この撮像素子から得られるR、G及びB信号の存在位置を示している。加算読み出しでは、注目位置の近傍画素における画素信号が加算され、加算信号が注目位置の画素信号として撮像素子から読み出される。例えば、G信号が生成されるべき注目位置の、左斜め上、右斜め上、左斜め下及び右斜め下に隣接する実際の受光画素の画素信号を加算することによって、注目位置のG信号が生成される。図54では、黒塗りの丸によってG信号についての注目位置を示すと共に該丸に接続される矢印によって信号加算の様子を示しているが、B及びR信号についても、同様の加算読み出しが行われる。   This method will be described with reference to FIG. In FIG. 54, a block 901 indicates a color filter array (Bayer array) arranged in front of the light receiving pixels of the image sensor that employs the single plate method. A block 902 indicates the presence positions of the R, G, and B signals obtained from the image sensor by performing addition reading. In addition reading, pixel signals in pixels near the target position are added, and the added signal is read out from the image sensor as a pixel signal at the target position. For example, by adding the pixel signals of the actual light receiving pixels adjacent to the upper left position, upper right position, lower left position, and lower right position of the target position where the G signal is to be generated, Generated. In FIG. 54, the target position for the G signal is indicated by a black circle and the state of signal addition is indicated by an arrow connected to the circle, but the same addition reading is also performed for the B and R signals. .

ブロック902に示されるように、加算読み出しを行って得られる画像の画素間隔は不均等である。この不均等な画素間隔を均等な画素間隔に修正するための補間処理を行うことで、ブロック903及び904に示されるような画素信号配列を有する画像が得られる。つまり、R、G及びB信号が、ベイヤー配列のように配列された画像が得られる。このブロック904にて示される画像(RAWデータ)に対して、所謂デモザイキング処理(色同時化処理)を行うことで、ブロック905に示される出力画像が得られる。出力画像は、水平及び垂直方向に均等な間隔で画素が配列された二次元画像であり、出力画像における各画素に対してR、G及びB信号が割り当てられる。   As indicated by block 902, the pixel spacing of the image obtained by performing additive readout is uneven. By performing an interpolation process for correcting this unequal pixel interval to an equal pixel interval, an image having a pixel signal arrangement as shown in blocks 903 and 904 is obtained. That is, an image in which R, G, and B signals are arranged like a Bayer array is obtained. A so-called demosaicing process (color synchronization process) is performed on the image (RAW data) indicated by the block 904, whereby the output image indicated by the block 905 is obtained. The output image is a two-dimensional image in which pixels are arranged at equal intervals in the horizontal and vertical directions, and R, G, and B signals are assigned to each pixel in the output image.

特開2003−092764号公報JP 2003-092764 A 特開2003−299112号公報JP 2003-299112 A

図54に示すような従来手法を用いて得た出力画像では、R、G及びB信号が存在する画素間隔が均等となるため、ジャギーや偽色の発生が抑制される。しかしながら、加算読み出しに由来する画素間隔の不均等を解消すべく、画素間隔を均等化するための補間処理を実行している。このような補間処理の実行は、必然的に、解像感の劣化(実質的な解像度の劣化)を招く。また、画素信号の間引き読み出しを行う場合にも、同様の問題が生じる。   In the output image obtained by using the conventional method as shown in FIG. 54, the pixel intervals in which the R, G, and B signals exist are uniform, so that the occurrence of jaggy and false colors is suppressed. However, an interpolation process for equalizing the pixel intervals is executed in order to eliminate the non-uniform pixel intervals resulting from the addition reading. Execution of such an interpolation process inevitably causes degradation in resolution (substantial degradation in resolution). The same problem occurs when thinning out pixel signals.

そこで本発明は、画素信号の加算読み出し又は間引き読み出しを行った場合に生じ得る解像感劣化の抑制に寄与する画像処理装置及び撮像装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing apparatus and an imaging apparatus that contribute to the suppression of resolution degradation that may occur when pixel signals are added or read out.

本発明に係る画像処理装置は、単板方式の撮像素子に二次元配列された受光画素群の画素信号の加算読み出し又は間引き読み出しを行う読出手段を有し、加算又は間引きの対象となる受光画素の組み合わせが異なる複数の読み出しパターンを用いることにより、画素信号を有する画素位置が互いに異なる複数の原画像を取得する原画像取得手段と、前記原画像ごとに、前記原画像の画素信号群に含まれる同一色の画素信号同士を混合し、その混合によって得られた画素信号を有する補間画像を生成する補間処理手段と、を備えたことを特徴とする。   An image processing apparatus according to the present invention includes a reading unit that performs addition reading or thinning readout of pixel signals of a light receiving pixel group that is two-dimensionally arranged on a single-plate image pickup device, and is a light receiving pixel that is a target of addition or thinning. And a plurality of readout patterns having different combinations of the original image acquisition means for acquiring a plurality of original images having pixel positions different from each other, and each original image is included in the pixel signal group of the original image. And interpolating means for generating interpolated images having pixel signals obtained by mixing the pixel signals of the same color.

画素信号を有する画素位置が互いに異なる複数の原画像を取得する原画像取得手段を画像処理装置に設け、原画像ごとに同一色の画素信号混合を行うことによって補間画像を得る。これにより、画素位置間隔を均等化するための、図54に対応する補間処理を省略することが可能となり、結果、その補間処理に起因する解像感劣化を抑制することが可能となる。尚、この補間処理を行わないことに由来して生じうる問題に対しては、例えば、前記複数の原画像から生成された複数の補間画像を合成することによって、或いは、該複数の補間画像を動画像として出力することによって、対応することができる。   The image processing apparatus is provided with original image acquisition means for acquiring a plurality of original images having different pixel positions having pixel signals, and an interpolated image is obtained by mixing pixel signals of the same color for each original image. Thereby, it is possible to omit the interpolation processing corresponding to FIG. 54 for equalizing the pixel position intervals, and as a result, it is possible to suppress degradation in resolution caused by the interpolation processing. Incidentally, for problems that may arise due to not performing this interpolation processing, for example, by synthesizing a plurality of interpolation images generated from the plurality of original images, or by combining the plurality of interpolation images. This can be dealt with by outputting as a moving image.

具体的には例えば、各補間画像の画素信号群は、第1の色を含む複数色の画素信号から成り、各補間画像において、前記第1の色の画素信号が存在する画素位置の間隔は不均等である。   Specifically, for example, the pixel signal group of each interpolation image includes a plurality of pixel signals including the first color, and in each interpolation image, an interval between pixel positions where the pixel signal of the first color exists is It is uneven.

画素位置間隔を均等化するための、図54に対応する補間処理は行われず、各補間画像において、画素位置の間隔は不均等とされる。これにより、図54に対応する補間処理に起因する解像感劣化を抑制することが可能となる。   The interpolation processing corresponding to FIG. 54 for equalizing the pixel position intervals is not performed, and the pixel position intervals are unequal in each interpolated image. As a result, it is possible to suppress degradation of resolution due to the interpolation processing corresponding to FIG.

具体的には例えば、前記複数の原画像に含まれる着目した1枚の原画像を着目原画像と呼ぶとともに、前記着目原画像から生成される補間画像を着目補間画像と呼び、且つ、前記複数色に含まれる着目色の画素信号を着目色画素信号と呼んだ場合、前記補間処理手段は、前記着目原画像の着目色画素信号が存在する画素位置と異なる位置に補間画素位置を設定して、前記補間画素位置に着目色の画素信号を有する画像を前記着目補間画像として生成し、前記着目補間画像を生成する際、着目色画素信号が存在する、前記着目原画像上の複数の画素位置に注目して、前記複数の画素位置おける複数の着目色画素信号を混合することにより前記補間画素位置に対する画素信号を生成し、前記補間画素位置は、前記複数の画素位置の重心位置に設定される。   Specifically, for example, a focused original image included in the plurality of original images is referred to as a focused original image, an interpolation image generated from the focused original image is referred to as a focused interpolation image, and the plurality When the pixel signal of the target color included in the color is called the target color pixel signal, the interpolation processing unit sets the interpolation pixel position at a position different from the pixel position where the target color pixel signal of the target original image exists. A plurality of pixel positions on the target original image where the target color pixel signal exists when generating an image having the target color pixel signal at the interpolation pixel position as the target interpolation image and generating the target interpolation image. Paying attention to generate a pixel signal for the interpolated pixel position by mixing a plurality of target color pixel signals at the plurality of pixel positions, and the interpolated pixel position is set to the center of gravity of the plurality of pixel positions It is.

例えば、着目原画像及び着目補間画像が、夫々、図12(a)〜(c)に示される原画像251及び図13(a)〜(c)に示される色補間画像261であって、且つ、着目色が緑であると共に補間画素位置が図12(a)に示される補間画素位置301である場合、着目原画像(251)の着目色画素信号(G信号)が存在する画素位置と異なる位置に補間画素位置(301)が設定されて、補間画素位置(301)に着目色の画素信号(G信号)を有する画像が着目補間画像(261)として生成される。この際、着目色画素信号(G信号)が存在する、着目原画像(251)上の複数の画素位置が注目され、前記複数の画素位置おける複数の着目色画素信号を混合することにより前記補間画素位置(301)に対する画素信号が生成される。そして、補間画素位置(301)は、前記複数の画素位置の重心位置に設定される。   For example, the original image of interest and the interpolation image of interest are the original image 251 shown in FIGS. 12A to 12C and the color interpolation image 261 shown in FIGS. 13A to 13C, respectively. When the target color is green and the interpolation pixel position is the interpolation pixel position 301 shown in FIG. 12A, the pixel position is different from the pixel position where the target color pixel signal (G signal) of the target original image (251) exists. The interpolation pixel position (301) is set as the position, and an image having the pixel signal (G signal) of the target color at the interpolation pixel position (301) is generated as the target interpolation image (261). At this time, a plurality of pixel positions on the target original image (251) where the target color pixel signal (G signal) exists is noted, and the interpolation is performed by mixing a plurality of target color pixel signals at the plurality of pixel positions. A pixel signal for the pixel position (301) is generated. Then, the interpolation pixel position (301) is set to the barycentric position of the plurality of pixel positions.

更に具体的は例えば、前記補間処理手段は、前記複数の着目色画素信号を等比率で混合することによって前記補間画素位置に対する画素信号を生成する。   More specifically, for example, the interpolation processing unit generates a pixel signal for the interpolation pixel position by mixing the plurality of target color pixel signals at an equal ratio.

このような混合によって、前記第1の色の画素信号が存在する画素位置の間隔が不均等となる。   Due to such mixing, the interval between the pixel positions where the pixel signals of the first color are present becomes uneven.

そして例えば、前記補間処理手段により前記複数の原画像から生成された複数の補間画像に基づいて1枚の出力画像を生成する出力画像生成手段を更に備え、前記出力画像は、均等配列された画素位置の夫々に複数色分の画素信号を有し、前記出力画像生成手段は、前記複数の補間画像間で対応する読み出しパターンが異なることに由来する、前記複数の補間画像間における画素位置の相違に基づいて、前記出力画像の生成を行う。   For example, the image processing apparatus further includes output image generation means for generating one output image based on a plurality of interpolation images generated from the plurality of original images by the interpolation processing means, and the output image includes pixels arranged in an equal arrangement. Each of the positions has pixel signals for a plurality of colors, and the output image generation means is derived from a difference in a corresponding readout pattern between the plurality of interpolation images, and a difference in pixel positions between the plurality of interpolation images Based on the above, the output image is generated.

出力画像の画素間隔は均等であるため、出力画像においてジャギーや偽色の発生が抑制される。   Since the pixel interval of the output image is uniform, the occurrence of jaggy and false color is suppressed in the output image.

また例えば、前記複数の補間画像間における物体の動きを検出する動き検出手段を更に備え、前記出力画像生成手段は、前記画素位置の相違だけでなく前記動きの大きさにも基づいて、前記出力画像の生成を行うようにしてもよい。   In addition, for example, it further includes a motion detection unit that detects a motion of an object between the plurality of interpolation images, and the output image generation unit is configured to output the output based on not only the difference in the pixel position but also the magnitude of the motion. An image may be generated.

より具体的には例えば、前記複数の補間画像は少なくとも第1及び第2の補間画像を含み、前記出力画像生成手段は、前記動き検出手段によって検出された、前記第1の補間画像と前記第2の補間画像との間における物体の動きの大きさに基づいて重み係数を設定する重み係数設定手段を有し、前記重み係数に従って前記第1及び第2の補間画像の画素信号を混合することにより前記出力画像を生成する。   More specifically, for example, the plurality of interpolated images include at least first and second interpolated images, and the output image generating unit is configured to detect the first interpolated image and the first interpolated image detected by the motion detecting unit. Weight coefficient setting means for setting a weight coefficient based on the magnitude of the motion of the object between the two interpolated images, and mixing the pixel signals of the first and second interpolated images according to the weight coefficient To generate the output image.

これにより、出力画像における輪郭部のぼけや二重像の発生を抑制することも可能となる。   Thereby, it is also possible to suppress the blurring of the outline portion and the generation of the double image in the output image.

更に例えば、前記複数の読み出しパターンを用いて前記複数の原画像を取得する動作を繰り返し実行することにより、前記出力画像生成手段にて時系列上に並ぶ出力画像列が生成され、当該画像処理装置は、前記出力画像列に対して画像圧縮処理を施すことにより、フレーム内符号化画像及びフレーム間予測符号化画像を含む圧縮動画像を生成する画像圧縮手段を更に備え、前記画像圧縮手段は、前記出力画像列を形成する各出力画像に対応して設定された重み係数に基づいて、前記出力画像列の中から前記フレーム内符号化画像の対象となる出力画像を選択するようにしてもよい。   Further, for example, by repeatedly executing the operation of acquiring the plurality of original images using the plurality of readout patterns, an output image sequence arranged in a time series is generated by the output image generation unit, and the image processing apparatus Further includes image compression means for generating a compressed moving image including an intra-frame encoded image and an inter-frame prediction encoded image by performing an image compression process on the output image sequence, and the image compression means includes: An output image to be a target of the intra-frame encoded image may be selected from the output image sequence based on a weighting factor set corresponding to each output image forming the output image sequence. .

これは、圧縮動画像の全体的な画質の向上に寄与する。   This contributes to improving the overall image quality of the compressed moving image.

また例えば、前記補間処理手段により前記複数の原画像から生成された複数の補間画像を動画像として出力するようにしてもよい。   Further, for example, a plurality of interpolation images generated from the plurality of original images by the interpolation processing means may be output as moving images.

また例えば、加算又は間引きの対象となる受光画素の組み合わせが異なる複数の読み出しパターンは複数組存在し、当該画像処理装置は、前記複数の補間画像間における物体の動きを検出する動き検出手段を更に備え、検出された動きの向きに基づいて、前記原画像を取得するために用いる読み出しパターンの組を可変設定するようにしてもよい。   Further, for example, there are a plurality of readout patterns having different combinations of light receiving pixels to be added or thinned out, and the image processing apparatus further includes a motion detection unit that detects the motion of the object between the plurality of interpolation images. A set of read patterns used for acquiring the original image may be variably set based on the detected direction of motion.

これにより、画像中の物体の動きに適した読み出しパターンの組が動的に可変設定される。   Thereby, a set of readout patterns suitable for the movement of the object in the image is dynamically variably set.

本発明に係る撮像装置は、単板方式の撮像素子と、上記の何れかに記載の画像処理装置と、を備えたことを特徴とする。   An image pickup apparatus according to the present invention includes a single-plate image pickup device and any one of the image processing apparatuses described above.

本発明によれば、画素信号の加算読み出し又は間引き読み出しを行った場合に生じ得る解像感劣化の抑制に寄与する画像処理装置及び撮像装置を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the image processing apparatus and imaging device which contribute to suppression of the feeling of resolution which may arise when the addition reading or thinning-out reading of a pixel signal is performed.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下の実施の形態は、あくまでも本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   The significance or effect of the present invention will become more apparent from the following description of embodiments. However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. .

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。後に第1〜第8実施例を説明するが、まず、各実施例に共通する事項又は各実施例にて参照される事項について説明する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle. The first to eighth embodiments will be described later. First, matters that are common to each embodiment or items that are referred to in each embodiment will be described.

図1は、本発明の実施形態に係る撮像装置1の全体ブロック図である。撮像装置1は、例えば、デジタルビデオカメラである。撮像装置1は、動画像及び静止画像を撮影可能となっていると共に、動画像撮影中に静止画像を同時に撮影することも可能となっている。   FIG. 1 is an overall block diagram of an imaging apparatus 1 according to an embodiment of the present invention. The imaging device 1 is a digital video camera, for example. The imaging device 1 can capture a moving image and a still image, and can also capture a still image simultaneously during moving image capturing.

[基本的な構成の説明]
撮像装置1は、撮像部11と、AFE(Analog Front End)12と、映像信号処理部13と、マイク14と、音声信号処理部15と、圧縮処理部16と、DRAM(Dynamic Random Access Memory)などの内部メモリ17と、SD(Secure Digital)カードや磁気ディスクなどの外部メモリ18と、伸張処理部19と、VRAM(Video Random Access Memory)20と、音声出力回路21と、TG(タイミングジェネレータ)22と、CPU(Central Processing Unit)23と、バス24と、バス25と、操作部26と、表示部27と、スピーカ28と、を備えている。操作部26は、録画ボタン26a、シャッタボタン26b及び操作キー26c等を有している。撮像装置1内の各部位は、バス24又は25を介して、各部位間の信号(データ)のやり取りを行う。
[Description of basic configuration]
The imaging apparatus 1 includes an imaging unit 11, an AFE (Analog Front End) 12, a video signal processing unit 13, a microphone 14, an audio signal processing unit 15, a compression processing unit 16, and a DRAM (Dynamic Random Access Memory). An internal memory 17 such as an SD (Secure Digital) card or a magnetic disk, a decompression processing unit 19, a VRAM (Video Random Access Memory) 20, an audio output circuit 21, and a TG (timing generator). 22, a CPU (Central Processing Unit) 23, a bus 24, a bus 25, an operation unit 26, a display unit 27, and a speaker 28. The operation unit 26 includes a recording button 26a, a shutter button 26b, an operation key 26c, and the like. Each part in the imaging apparatus 1 exchanges signals (data) between the parts via the bus 24 or 25.

TG22は、撮像装置1全体における各動作のタイミングを制御するためのタイミング制御信号を生成し、生成したタイミング制御信号を撮像装置1内の各部に与える。タイミング制御信号は、垂直同期信号Vsyncと水平同期信号Hsyncを含む。CPU23は、撮像装置1内の各部の動作を統括的に制御する。操作部26は、ユーザによる操作を受け付ける。操作部26に与えられた操作内容は、CPU23に伝達される。撮像装置1内の各部は、必要に応じ、信号処理時に一時的に各種のデータ(デジタル信号)を内部メモリ17に記録する。   The TG 22 generates a timing control signal for controlling the timing of each operation in the entire imaging apparatus 1, and provides the generated timing control signal to each unit in the imaging apparatus 1. The timing control signal includes a vertical synchronization signal Vsync and a horizontal synchronization signal Hsync. The CPU 23 comprehensively controls the operation of each unit in the imaging apparatus 1. The operation unit 26 receives an operation by a user. The operation content given to the operation unit 26 is transmitted to the CPU 23. Each unit in the imaging apparatus 1 temporarily records various data (digital signals) in the internal memory 17 during signal processing as necessary.

撮像部11は、撮像素子(イメージセンサ)33の他、図示されない光学系、絞り及びドライバを備える。被写体からの入射光は、光学系及び絞りを介して、撮像素子33に入射する。光学系を構成する各レンズは、被写体の光学像を撮像素子33上に結像させる。TG22は、上記タイミング制御信号に同期した、撮像素子33を駆動するための駆動パルスを生成し、該駆動パルスを撮像素子33に与える。   The imaging unit 11 includes an imaging system (image sensor) 33, an optical system (not shown), a diaphragm, and a driver. Incident light from the subject enters the image sensor 33 via the optical system and the stop. Each lens constituting the optical system forms an optical image of the subject on the image sensor 33. The TG 22 generates a drive pulse for driving the image sensor 33 in synchronization with the timing control signal, and applies the drive pulse to the image sensor 33.

撮像素子33は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる固体撮像素子である。撮像素子33は、光学系及び絞りを介して入射した光学像を光電変換し、該光電変換によって得られた電気信号をAFE12に出力する。より具体的には、撮像素子33は、マトリクス状に二次元配列された複数の受光画素(図1において不図示)を備え、各撮影において、各受光画素は露光時間に応じた電荷量の信号電荷を蓄える。蓄えた信号電荷の電荷量に比例した大きさを有する各受光画素からの電気信号は、TG22からの駆動パルスに従って、後段のAFE12に順次出力される。   The image sensor 33 is a solid-state image sensor composed of a CCD (Charge Coupled Devices), a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. The image sensor 33 photoelectrically converts an optical image incident through the optical system and the diaphragm, and outputs an electrical signal obtained by the photoelectric conversion to the AFE 12. More specifically, the image sensor 33 includes a plurality of light receiving pixels (not shown in FIG. 1) that are two-dimensionally arranged in a matrix, and in each photographing, each light receiving pixel has a charge amount signal corresponding to the exposure time. Stores charge. The electrical signal from each light receiving pixel having a magnitude proportional to the amount of the stored signal charge is sequentially output to the subsequent AFE 12 in accordance with the drive pulse from the TG 22.

AFE12は、撮像素子33(各受光画素)から出力されるアナログ信号を増幅し、増幅されたアナログ信号をデジタル信号に変換してから映像信号処理部13に出力する。AFE12における信号増幅の増幅度はCPU23によって制御される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して各種画像処理を施し、画像処理後の画像についての映像信号を生成する。映像信号は、通常、画像の輝度を表す輝度信号Yと、画像の色を表す色差信号U及びVと、から構成される。   The AFE 12 amplifies the analog signal output from the image sensor 33 (each light receiving pixel), converts the amplified analog signal into a digital signal, and outputs the digital signal to the video signal processing unit 13. The degree of amplification of signal amplification in the AFE 12 is controlled by the CPU 23. The video signal processing unit 13 performs various types of image processing on the image represented by the output signal of the AFE 12, and generates a video signal for the image after the image processing. The video signal is generally composed of a luminance signal Y representing the luminance of the image and color difference signals U and V representing the color of the image.

マイク14は撮像装置1の周辺音をアナログの音声信号に変換し、音声信号処理部15は、このアナログの音声信号をデジタルの音声信号に変換する。   The microphone 14 converts the peripheral sound of the imaging device 1 into an analog audio signal, and the audio signal processing unit 15 converts the analog audio signal into a digital audio signal.

圧縮処理部16は、映像信号処理部13からの映像信号を、所定の圧縮方式を用いて圧縮する。動画像または静止画像の撮影及び記録時において、圧縮された映像信号は外部メモリ18に記録される。また、圧縮処理部16は、音声信号処理部15からの音声信号を、所定の圧縮方式を用いて圧縮する。動画像撮影及び記録時において、映像信号処理部13からの映像信号と音声信号処理部15からの音声信号は、圧縮処理部16にて時間的に互いに関連付けられつつ圧縮され、圧縮後のそれらは外部メモリ18に記録される。   The compression processing unit 16 compresses the video signal from the video signal processing unit 13 using a predetermined compression method. The compressed video signal is recorded in the external memory 18 at the time of capturing and recording a moving image or a still image. The compression processing unit 16 compresses the audio signal from the audio signal processing unit 15 using a predetermined compression method. At the time of moving image shooting and recording, the video signal from the video signal processing unit 13 and the audio signal from the audio signal processing unit 15 are compressed while being correlated with each other in time by the compression processing unit 16, and after compression, Recorded in the external memory 18.

録画ボタン26aは、動画像の撮影及び記録の開始/終了を指示するための押しボタンスイッチであり、シャッタボタン26bは、静止画像の撮影及び記録を指示するための押しボタンスイッチである。   The recording button 26a is a push button switch for instructing start / end of moving image shooting and recording, and the shutter button 26b is a push button switch for instructing shooting and recording of a still image.

撮像装置1の動作モードには、動画像及び静止画像の撮影が可能な撮影モードと、外部メモリ18に格納された動画像及び静止画像を表示部27に再生表示する再生モードと、が含まれる。操作キー26cに対する操作に応じて、各モード間の遷移は実施される。   The operation mode of the imaging apparatus 1 includes a shooting mode capable of shooting a moving image and a still image, and a playback mode for reproducing and displaying the moving image and the still image stored in the external memory 18 on the display unit 27. . Transition between the modes is performed according to the operation on the operation key 26c.

撮影モードでは、所定のフレーム周期にて順次撮影が行われ、撮像素子33から撮影画像列が取得される。撮影画像列に代表される画像列とは、時系列で並ぶ画像の集まりを指す。また、画像を表すデータを画像データと呼ぶ。画像データも、映像信号の一種と考えることができる。1つのフレーム周期分の画像データによって1枚分の画像が表現される。映像信号処理部13は、AFE12の出力信号によって表される画像に対して各種画像処理を施すが、この画像処理を施す前の、AFE12の出力信号そのものによって表される画像を、原画像と呼ぶ。従って、1つのフレーム周期分の、AFE12の出力信号によって、1枚の原画像が表現される。   In the shooting mode, shooting is sequentially performed at a predetermined frame period, and a shot image sequence is acquired from the image sensor 33. An image sequence typified by a captured image sequence refers to a collection of images arranged in time series. Data representing an image is called image data. Image data can also be considered as a kind of video signal. One image is represented by image data for one frame period. The video signal processing unit 13 performs various types of image processing on the image represented by the output signal of the AFE 12, and the image represented by the output signal itself of the AFE 12 before this image processing is referred to as an original image. . Accordingly, one original image is represented by the output signal of the AFE 12 for one frame period.

撮影モードにおいて、ユーザが録画ボタン26aを押下すると、CPU23の制御の下、その押下後に得られる映像信号及びそれに対応する音声信号が、順次、圧縮処理部16を介して外部メモリ18に記録される。動画像撮影の開始後、再度ユーザが録画ボタン26aを押下すると、映像信号及び音声信号の外部メモリ18への記録は終了し、1つの動画像の撮影は完了する。また、撮影モードにおいて、ユーザがシャッタボタン26bを押下すると、静止画像の撮影及び記録が行われる。   When the user presses the recording button 26a in the shooting mode, under the control of the CPU 23, the video signal obtained after the pressing and the corresponding audio signal are sequentially recorded in the external memory 18 via the compression processing unit 16. . When the user presses the recording button 26a again after starting the moving image shooting, the recording of the video signal and the audio signal to the external memory 18 is completed, and the shooting of one moving image is completed. In the shooting mode, when the user presses the shutter button 26b, a still image is shot and recorded.

再生モードにおいて、ユーザが操作キー26cに所定の操作を施すと、外部メモリ18に記録された動画像又は静止画像を表す圧縮された映像信号は、伸張処理部19にて伸張されVRAM20に書き込まれる。尚、撮影モードにおいては、通常、録画ボタン26a及びシャッタボタン26bに対する操作内容に関係なく、映像信号処理13による映像信号の生成が逐次行われており、その映像信号はVRAM20に書き込まれる。   In the playback mode, when the user performs a predetermined operation on the operation key 26c, a compressed video signal representing a moving image or a still image recorded in the external memory 18 is expanded by the expansion processing unit 19 and written to the VRAM 20. . In the shooting mode, the video signal is normally generated by the video signal processing 13 regardless of the operation contents of the recording button 26a and the shutter button 26b, and the video signal is written in the VRAM 20.

表示部27は、液晶ディスプレイなどの表示装置であり、VRAM20に書き込まれている映像信号に応じた画像を表示する。また、再生モードにおいて動画像を再生する際、外部メモリ18に記録された動画像に対応する圧縮された音声信号も、伸張処理部19に送られる。伸張処理部19は、受け取った音声信号を伸張して音声出力回路21に送る。音声出力回路21は、与えられたデジタルの音声信号をスピーカ28にて出力可能な形式の音声信号(例えば、アナログの音声信号)に変換してスピーカ28に出力する。スピーカ28は、音声出力回路21からの音声信号を音声(音)として外部に出力する。   The display unit 27 is a display device such as a liquid crystal display, and displays an image corresponding to the video signal written in the VRAM 20. In addition, when a moving image is reproduced in the reproduction mode, a compressed audio signal corresponding to the moving image recorded in the external memory 18 is also sent to the expansion processing unit 19. The decompression processing unit 19 decompresses the received audio signal and sends it to the audio output circuit 21. The audio output circuit 21 converts a given digital audio signal into an audio signal in a format that can be output by the speaker 28 (for example, an analog audio signal) and outputs the audio signal to the speaker 28. The speaker 28 outputs the sound signal from the sound output circuit 21 to the outside as sound (sound).

[撮像素子の受光画素配列]
図2は、撮像素子33の有効領域内の受光画素配列を示している。撮像素子33の有効領域は長方形形状を有しており、その長方形の一頂点を撮像素子33の原点と捉える。原点が撮像素子33の有効領域の左上隅に位置するものとする。撮像素子33の垂直方向における有効画素数と水平方向における有効画素数との積(例えば、数100〜数1000の二乗)に相当する個数の受光画素が二次元配列されることによって、撮像素子33の有効領域が形成される。撮像素子33の有効領域内の各受光画素をPS[x,y]にて表す。ここで、x及びyは整数である。撮像素子33の原点から見て、右側に位置する受光画素ほど、対応する変数xの値が大きくなり、下側に位置する受光画素ほど、対応する変数yの値が大きくなるものとする。撮像素子33において、上下方向は垂直方向に対応し、左右方向は水平方向に対応する。
[Light receiving pixel array of image sensor]
FIG. 2 shows a light receiving pixel array in the effective area of the image sensor 33. The effective area of the image sensor 33 has a rectangular shape, and one vertex of the rectangle is regarded as the origin of the image sensor 33. It is assumed that the origin is located at the upper left corner of the effective area of the image sensor 33. The number of light receiving pixels corresponding to the product of the number of effective pixels in the vertical direction of the image sensor 33 and the number of effective pixels in the horizontal direction (for example, the square of several hundred to several thousand) is two-dimensionally arranged. The effective area is formed. Each light receiving pixel in the effective area of the image sensor 33 is represented by P S [x, y]. Here, x and y are integers. It is assumed that the value of the corresponding variable x increases as the light receiving pixel located on the right side as viewed from the origin of the image sensor 33, and the value of the corresponding variable y increases as the light receiving pixel located below. In the image sensor 33, the vertical direction corresponds to the vertical direction, and the horizontal direction corresponds to the horizontal direction.

図2では、便宜上、10×10の受光画素領域のみを図示しており、この受光画素領域を符号200によって参照する。以下の説明では、受光画素領域200内の受光画素に特に注目する。受光画素領域200内には、不等式「1≦x≦10」及び「1≦y≦10」を満たす合計100個の受光画素PS[x,y]が示されている。受光画素領域200内に属する受光画素群の内、受光画素PS[1,1]の配置位置が最も撮像素子33の原点に近く、受光画素PS[10,10]の配置位置が最も撮像素子33の原点から遠い。 In FIG. 2, only a 10 × 10 light receiving pixel region is shown for convenience, and this light receiving pixel region is referred to by reference numeral 200. In the following description, attention is particularly paid to the light receiving pixels in the light receiving pixel region 200. In the light receiving pixel region 200, a total of 100 light receiving pixels P S [x, y] satisfying the inequalities “1 ≦ x ≦ 10” and “1 ≦ y ≦ 10” are shown. Of the light receiving pixel group belonging to the light receiving pixel region 200, the arrangement position of the light receiving pixel P S [1,1] is closest to the origin of the image sensor 33, and the arrangement position of the light receiving pixel P S [10,10] is most imaged. It is far from the origin of the element 33.

撮像装置1は、1枚のイメージセンサのみを用いる、いわゆる単板方式を採用している。図3は、撮像素子33の各受光画素の前面に配置されたカラーフィルタの配列を示している。図3に示される配列は、一般に、ベイヤー配列と呼ばれる。カラーフィルタには、光の赤成分のみを透過させる赤フィルタと、光の緑成分のみを透過させる緑フィルタと、光の青成分のみを透過させる青フィルタと、がある。赤フィルタは、受光画素PS[2nA−1,2nB]の前面に配置され、青フィルタは、受光画素PS[2nA,2nB−1]の前面に配置され、緑フィルタは、受光画素PS[2nA−1,2nB−1]又はPS[2nA,2nB]の前面に配置される。ここで、nA及びnBは整数である。尚、図3並びに後述の図5等において、赤フィルタに対応する部位をRにて表し、緑フィルタに対応する部位をGにて表し、青フィルタに対応する部位をBにて表す。 The imaging device 1 employs a so-called single plate method that uses only one image sensor. FIG. 3 shows an arrangement of color filters arranged in front of each light receiving pixel of the image sensor 33. The arrangement shown in FIG. 3 is generally called a Bayer arrangement. Color filters include a red filter that transmits only the red component of light, a green filter that transmits only the green component of light, and a blue filter that transmits only the blue component of light. Red filter is placed in front of the light receiving pixels P S [2n A -1,2n B] , the blue filter is disposed in front of the light receiving pixels P S [2n A, 2n B -1], green filter, It is arranged in front of the light receiving pixel P S [2n A -1,2 n B -1] or P S [2n A , 2n B ]. Here, n A and n B are integers. In FIG. 3 and FIG. 5 to be described later, a part corresponding to the red filter is represented by R, a part corresponding to the green filter is represented by G, and a part corresponding to the blue filter is represented by B.

赤フィルタ、緑フィルタ、青フィルタが前面に配置された受光画素を、夫々、赤受光画素、緑受光画素、青受光画素とも呼ぶ。各受光画素は、カラーフィルタを介して自身に入射した光を光電変換によって電気信号に変換する。この電気信号は、受光画素の画素信号を表し、以下、それを「受光画素信号」と呼ぶこともある。赤受光画素、緑受光画素及び青受光画素は、夫々、光学系の入射光の、赤成分、緑成分及び青成分にのみ反応する。   The light receiving pixels in which the red filter, the green filter, and the blue filter are arranged in front are also referred to as a red light receiving pixel, a green light receiving pixel, and a blue light receiving pixel, respectively. Each light receiving pixel converts light incident on itself through a color filter into an electrical signal by photoelectric conversion. This electric signal represents a pixel signal of the light receiving pixel, and hereinafter, it may be referred to as a “light receiving pixel signal”. Each of the red light receiving pixel, the green light receiving pixel, and the blue light receiving pixel reacts only to the red component, the green component, and the blue component of the incident light of the optical system.

撮像素子33から受光画素信号を読み出す方式には、全画素読み出し方式、加算読み出し方式、間引き読み出し方式がある。全画素読み出し方式にて撮像素子33から受光画素信号を読み出す場合、撮像素子33の有効領域内に位置する全ての受光画素からの受光画素信号が個別にAFE12を介して映像信号処理部13に与えられる。加算読み出し方式及び間引き読み出し方式については、後述される。尚、以下の説明では、記述の簡略化上、AFE12における信号増幅及びデジタル化を無視して考える。   As a method of reading out the light receiving pixel signal from the image sensor 33, there are an all-pixel reading method, an addition reading method, and a thinning-out reading method. When the light receiving pixel signal is read from the image sensor 33 by the all pixel reading method, the light receiving pixel signals from all the light receiving pixels located in the effective area of the image sensor 33 are individually given to the video signal processing unit 13 via the AFE 12. It is done. The addition reading method and the thinning reading method will be described later. In the following description, for simplification of description, signal amplification and digitization in the AFE 12 are ignored.

[原画像の画素配列]
図4(a)は、原画像の画素配列を示している。図4(a)では、図2の受光画素領域200に対応する、原画像の一部画像領域のみを示している。原画像を含む任意の画像は、二次元直交座標系である画像座標面XY上に二次元配列された画素群から形成されている、と考えることができる(図4(b)参照)。
[Pixel array of original image]
FIG. 4A shows the pixel array of the original image. FIG. 4A shows only a partial image region of the original image corresponding to the light receiving pixel region 200 of FIG. It can be considered that an arbitrary image including the original image is formed from a pixel group two-dimensionally arranged on the image coordinate plane XY which is a two-dimensional orthogonal coordinate system (see FIG. 4B).

記号P[x,y]は、受光画素PS[x,y]に対応する、原画像上の画素を表す。撮像素子33の原点に対応する原画像の原点から見て、右側に位置する画素ほど、対応する記号P[x,y]中の変数xの値が大きくなり、下側に位置する画素ほど、対応する記号P[x,y]中の変数yの値が大きくなるものとする。原画像において、上下方向は垂直方向に対応し、左右方向は水平方向に対応する。 The symbol P [x, y] represents a pixel on the original image corresponding to the light receiving pixel P S [x, y]. As viewed from the origin of the original image corresponding to the origin of the image sensor 33, the value of the variable x in the corresponding symbol P [x, y] increases as the pixel is located on the right side, and the pixel located on the lower side represents It is assumed that the value of the variable y in the corresponding symbol P [x, y] increases. In the original image, the vertical direction corresponds to the vertical direction, and the horizontal direction corresponds to the horizontal direction.

また、以下の説明において、撮像素子33の位置を記号[x,y]にて表すと共に、原画像を含む任意の画像上の位置(画像座標面XY上の位置)も記号[x,y]にて表す。撮像素子33における位置[x,y]は、受光画素PS[x,y]の、撮像素子33上の位置と合致し、画像(画像座標面XY)における位置[x,y]は、原画像の画素P[x,y]の位置と合致する。但し、撮像素子33の各受光画素及び原画像上の各画素は、水平及び垂直方向においてゼロではない一定の大きさを有してため、厳密には、撮像素子33における位置[x,y]は、受光画素PS[x,y]の中心位置と合致し、画像(画像座標面XY)における位置[x,y]は、原画像の画素P[x,y]の中心位置と合致する。また、以下の説明では、画素(又は受光画素)の位置を示すことを明示すべく、記号[x,y]を、画素位置を表す記号としても用いることがある。 In the following description, the position of the image sensor 33 is represented by the symbol [x, y], and the position on the arbitrary image including the original image (position on the image coordinate plane XY) is also represented by the symbol [x, y]. Represented by The position [x, y] on the image sensor 33 matches the position on the image sensor 33 of the light receiving pixel P S [x, y], and the position [x, y] on the image (image coordinate plane XY) is the original. It matches the position of the pixel P [x, y] of the image. However, since each light receiving pixel of the image sensor 33 and each pixel on the original image have a certain size that is not zero in the horizontal and vertical directions, strictly speaking, the position [x, y] in the image sensor 33 Matches the center position of the light receiving pixel P S [x, y], and the position [x, y] in the image (image coordinate plane XY) matches the center position of the pixel P [x, y] of the original image. . In the following description, the symbol [x, y] may be used as a symbol representing the pixel position in order to clarify that the position of the pixel (or the light receiving pixel) is indicated.

尚、原画像上の1画素の、水平方向の幅をWpで表す(図4(a)参照)。原画像上の1画素の、垂直方向の幅もWpである。従って、画像(画像座標面XY)上において、位置[x,y]と位置[x+1,y]との距離及び位置[x,y]と位置[x,y+1]との距離は、共にWpである。   Note that the horizontal width of one pixel on the original image is represented by Wp (see FIG. 4A). The vertical width of one pixel on the original image is also Wp. Therefore, on the image (image coordinate plane XY), the distance between the position [x, y] and the position [x + 1, y] and the distance between the position [x, y] and the position [x, y + 1] are both Wp. is there.

全画素読み出し方式を用いた場合、AFE12から出力される、受光画素PS[x,y]の受光画素信号は、原画像の画素P[x,y]の画素信号となる。図5に、全画素読み出し方式を用いて得た原画像220における、画素信号のイメージ図を示す。図5及び後述する図6(a)〜(e)では、図示の簡略化上、画素位置[1,1]〜[4,4]に対応する部分のみを示している。また、図5及び後述する図6(a)〜(e)では、画素信号が表す色成分(R、G又はB)を、画素位置に対応させて示している。 When the all-pixel readout method is used, the light receiving pixel signal of the light receiving pixel P S [x, y] output from the AFE 12 is the pixel signal of the pixel P [x, y] of the original image. FIG. 5 shows an image diagram of pixel signals in the original image 220 obtained by using the all-pixel readout method. In FIG. 5 and FIGS. 6A to 6E described later, only the portions corresponding to the pixel positions [1, 1] to [4, 4] are shown for simplification of illustration. Further, in FIG. 5 and FIGS. 6A to 6E described later, the color component (R, G, or B) represented by the pixel signal is shown corresponding to the pixel position.

原画像220において、画素位置[2nA−1,2nB]の画素信号は、AFE12から出力される赤受光画素PS[2nA−1,2nB]の受光画素信号であり、画素位置[2nA,2nB−1]の画素信号は、AFE12から出力される青受光画素PS[2nA,2nB−1]の受光画素信号であり、画素位置[2nA−1,2nB−1]又はP[2nA,2nB]の画素信号は、AFE12から出力される緑受光画素PS[2nA−1,2nB−1]又はPS[2nA,2nB]の受光画素信号である(nA及びnBは整数)。このように、全画素読み出し方式を用いた場合、画像上での画素間隔は、撮像素子33上の受光画素間隔と同様、均等となっている。 In the original image 220, pixel signals of the pixel position [2n A -1, 2n B] is a light receiving pixel signals of the red light receiving pixels P S output [2n A -1, 2n B] from AFE 12, the pixel position [ 2n a, the pixel signals of 2n B -1] is, blue light receiving pixels P S [2n a outputted from the AFE 12, a light receiving pixel signals of 2n B -1], the pixel position [2n a -1,2n B - 1] or P [2n A , 2n B ] pixel signals are output from the AFE 12 as light receiving pixels P S [2n A −1, 2n B −1] or P S [2n A , 2n B ]. Signal (n A and n B are integers). As described above, when the all-pixel readout method is used, the pixel interval on the image is equal to the light receiving pixel interval on the image sensor 33.

原画像220では、1つの画素位置に対して、赤成分、緑成分及び青成分の内の何れかの1つの色成分のみの画素信号が存在している。映像信号処理部13は、補間処理を用い、画像を形成する各々の画素に対して、3つの色成分の画素信号を割り当てるための処理を行う。この処理を、色補間処理と呼ぶ。色補間処理は、一般にデモザイキング処理とも呼ばれ、色同時化処理と呼ばれることもある。   In the original image 220, a pixel signal of only one color component among the red component, the green component, and the blue component exists for one pixel position. The video signal processing unit 13 uses interpolation processing to perform processing for assigning pixel signals of three color components to each pixel forming the image. This process is called a color interpolation process. The color interpolation process is generally called a demosaicing process and sometimes called a color synchronization process.

以下、原画像を含む任意の画像において、赤成分、緑成分及び青成分のデータを表す画素信号を、夫々、R信号、G信号及びB信号と呼ぶ。また、R信号、G信号及びB信号の何れかを色信号と呼ぶこともあり、それらを総称して、色信号と呼ぶこともある。   Hereinafter, in an arbitrary image including an original image, pixel signals representing data of a red component, a green component, and a blue component are referred to as an R signal, a G signal, and a B signal, respectively. In addition, any of the R signal, the G signal, and the B signal may be referred to as a color signal, and they may be collectively referred to as a color signal.

図6(a)〜(c)は、原画像220に対して施される色補間処理の概念図であり、図6(d)〜(e)は、原画像220に色補間処理を施すことによって得られた色補間画像230のイメージ図である。図6(a)〜(c)は、夫々、G、B及びR信号に対する色補間処理の概念図であり、図6(d)〜(e)では、色補間画像230の各画素位置にG、B及びR信号が存在している様子が示されている。図6(a)〜(c)において、丸で囲まれたG、B及びRは、夫々、周辺画素(矢印の根元に位置する画素)を用いた補間処理によって得られたG、B及びR信号を表している。尚、図示の煩雑化防止のため、色補間画像230におけるG、B及びR信号を別個に示しているが、原画像220から1枚の色補間画像230が生成される。   6A to 6C are conceptual diagrams of color interpolation processing performed on the original image 220, and FIGS. 6D to 6E illustrate color interpolation processing performed on the original image 220. FIG. It is an image figure of the color interpolation image 230 obtained by this. 6A to 6C are conceptual diagrams of color interpolation processing for the G, B, and R signals, respectively. In FIGS. 6D to 6E, each pixel position of the color interpolation image 230 has G , B and R signals are shown. In FIGS. 6A to 6C, G, B, and R surrounded by circles are G, B, and R obtained by interpolation processing using peripheral pixels (pixels located at the roots of arrows), respectively. Represents a signal. In order to prevent complication, the G, B, and R signals in the color interpolation image 230 are shown separately, but one color interpolation image 230 is generated from the original image 220.

周知の如く、原画像220に対する色補間処理では、注目画素の周辺画素における着目色の画素信号を混合することによって、注目画素における着目色の画素信号が生成される。例えば、図6(a)に示す如く、原画像220における画素位置[3,1]、[2,2]、[4,2]及び[3,3]の画素信号の平均信号が、色補間画像230における画素位置[3,2]のG信号として生成され、原画像220における画素位置[2,2]、[1,3]、[3,3]及び[2,4]の画素信号の平均信号が、色補間画像230における画素位置[2,3]のG信号として生成される。原画像220における画素位置[2,2]及び[3,3]の画素信号は、そのまま、夫々、色補間画像230における画素位置[2,2]及び[3,3]のG信号とされる。同様に、周知の信号補間方法に従って、色補間画像230における各画素のB及びR信号も生成される。   As is well known, in the color interpolation process for the original image 220, the pixel signal of the target color in the target pixel is generated by mixing the pixel signals of the target color in the peripheral pixels of the target pixel. For example, as shown in FIG. 6A, an average signal of pixel signals at pixel positions [3, 1], [2, 2], [4, 2] and [3, 3] in the original image 220 is color interpolation. The G signal of the pixel position [3, 2] in the image 230 is generated and the pixel signals of the pixel positions [2, 2], [1, 3], [3, 3] and [2, 4] in the original image 220 are The average signal is generated as the G signal at the pixel position [2, 3] in the color interpolation image 230. The pixel signals at pixel positions [2, 2] and [3, 3] in the original image 220 are directly used as G signals at pixel positions [2, 2] and [3, 3] in the color interpolation image 230, respectively. . Similarly, B and R signals of each pixel in the color interpolation image 230 are also generated according to a known signal interpolation method.

撮像装置1は、加算読み出し方式又は間引き読み出し方式の利用時に特徴的な動作を行う。以下に、この特徴的な動作の実現方法を説明する実施例として、第1〜第8実施例を説明する。矛盾なき限り、或る実施例に記載した事項は他の実施例にも適用される。   The imaging apparatus 1 performs a characteristic operation when using the addition reading method or the thinning reading method. Hereinafter, first to eighth embodiments will be described as embodiments for explaining a method for realizing this characteristic operation. As long as there is no contradiction, the matters described in one embodiment also apply to other embodiments.

<<第1実施例>>
まず、第1実施例について説明する。第1実施例では、撮像素子33から画素信号を読み出す方式として、複数の受光画素信号を加算しながら読み出す加算読み出し方式を用いる。この際、用いる加算パターンを複数の加算パターンの間で順次変更させながら加算読み出しを行い、加算パターンの異なる複数の色補間画像を合成することによって1枚の出力合成画像を生成する。加算パターンとは、加算の対象となる受光画素の組み合わせパターンを意味する。用いられる複数の加算パターンは、互いに異なる第1、第2、第3及び第4の加算パターンの内の、2以上の加算パターンを含む。
<< First Example >>
First, the first embodiment will be described. In the first embodiment, as a method of reading out pixel signals from the image sensor 33, an addition reading method of reading out while adding a plurality of light receiving pixel signals is used. At this time, addition reading is performed while sequentially changing the addition pattern to be used between the plurality of addition patterns, and one output composite image is generated by combining a plurality of color interpolation images having different addition patterns. The addition pattern means a combination pattern of light receiving pixels to be added. The plurality of addition patterns used include two or more addition patterns among first, second, third, and fourth addition patterns that are different from each other.

図7(a)、(b)、図8(a)及び(b)は、夫々、第1、第2、第3及び第4の加算パターンを用いた場合の信号加算の様子を示す。図7(a)、(b)、図8(a)及び(b)に対応する第1、第2、第3及び第4の加算パターンを、夫々、加算パターンPA1、PA2、PA3及びPA4によって参照することもある。図9(a)、(b)、(c)及び(d)は、夫々、第1、第2、第3及び第4の加算パターンを用いて加算読み出しを行った場合に得られる、原画像の画素信号の様子を示す。上述したように、受光画素PS[1,1]〜PS[10,10]から成る受光画素領域200に注目する(図2参照)。 FIGS. 7A, 7B, 8A, and 8B show how signals are added when the first, second, third, and fourth addition patterns are used, respectively. The first, second, third, and fourth addition patterns corresponding to FIGS. 7A, 7B, 8A, and 8B are added to the addition patterns P A1 , P A2 , and P A3, respectively. And P A4 . FIGS. 9A, 9B, 9C, and 9D are original images obtained when addition reading is performed using the first, second, third, and fourth addition patterns, respectively. The state of the pixel signal is shown. As described above, attention is paid to the light receiving pixel region 200 including the light receiving pixels P S [1,1] to P S [10, 10] (see FIG. 2).

図7(a)、(b)、図8(a)及び(b)に示される黒塗りの丸は、夫々、第1、第2、第3及び第4の加算パターンを用いた場合に想定される仮想的な受光画素の配置位置を示している。図7(a)、(b)、図8(a)及び(b)において、黒塗りの丸の周囲に示された矢印は、その丸に対応する仮想的な受光画素の画素信号を生成するために、該仮想的な受光画素の周辺受光画素の画素信号が加算される様子を示している。   Black circles shown in FIGS. 7A, 7B, 8A, and 8B are assumed when the first, second, third, and fourth addition patterns are used, respectively. The arrangement positions of the virtual light receiving pixels are shown. In FIGS. 7A, 7B, 8A, and 8B, the arrows shown around the black circles generate pixel signals of virtual light receiving pixels corresponding to the circles. For this reason, the pixel signals of the peripheral light receiving pixels of the virtual light receiving pixels are added.

第1の加算パターンとしての加算パターンPA1を用いる場合は、
撮像素子33の画素位置[2+4nA,2+4nB]及び[3+4nA,3+4nB]に仮想的な緑受光画素が配置され、撮像素子33の画素位置[3+4nA,2+4nB]に仮想的な青受光画素が配置され、撮像素子33の画素位置[2+4nA,3+4nB]に仮想的な赤受光画素が配置される、と想定する。
第2の加算パターンとしての加算パターンPA2を用いる場合は、
撮像素子33の画素位置[4+4nA,4+4nB]及び[5+4nA,5+4nB]に仮想的な緑受光画素が配置され、撮像素子33の画素位置[5+4nA,4+4nB]に仮想的な青受光画素が配置され、撮像素子33の画素位置[4+4nA,5+4nB]に仮想的な赤受光画素が配置される、と想定する。
第3の加算パターンとしての加算パターンPA3を用いる場合は、
撮像素子33の画素位置[4+4nA,2+4nB]及び[5+4nA,3+4nB]に仮想的な緑受光画素が配置され、撮像素子33の画素位置[5+4nA,2+4nB]に仮想的な青受光画素が配置され、撮像素子33の画素位置[4+4nA,3+4nB]に仮想的な赤受光画素が配置される、と想定する。
第4の加算パターンとしての加算パターンPA4を用いる場合は、
撮像素子33の画素位置[2+4nA,4+4nB]及び[3+4nA,5+4nB]に仮想的な緑受光画素が配置され、撮像素子33の画素位置[3+4nA,4+4nB]に仮想的な青受光画素が配置され、撮像素子33の画素位置[2+4nA,5+4nB]に仮想的な赤受光画素が配置される、と想定する。
尚、nA及びnBは、上述したように、整数である。
When using the addition pattern P A1 as the first addition pattern,
Pixel position of the image sensor 33 [2 + 4n A, 2 + 4n B] and virtual green light receiving pixels are arranged in a [3 + 4n A, 3 + 4n B], virtual blue pixel positions of the image sensor 33 [3 + 4n A, 2 + 4n B] It is assumed that a light receiving pixel is disposed and a virtual red light receiving pixel is disposed at a pixel position [2 + 4n A , 3 + 4n B ] of the image sensor 33.
When using the addition pattern P A2 as the second addition pattern,
Virtual green light receiving pixels are arranged at pixel positions [4 + 4n A , 4 + 4n B ] and [5 + 4n A , 5 + 4n B ] of the image sensor 33, and virtual blue at the pixel positions [5 + 4n A , 4 + 4n B ] of the image sensor 33. It is assumed that a light receiving pixel is arranged and a virtual red light receiving pixel is arranged at a pixel position [4 + 4n A , 5 + 4n B ] of the image sensor 33.
When using the addition pattern P A3 as the third addition pattern,
Virtual green light receiving pixels are arranged at pixel positions [4 + 4n A , 2 + 4n B ] and [5 + 4n A , 3 + 4n B ] of the image sensor 33, and virtual blue at the pixel positions [5 + 4n A , 2 + 4n B ] of the image sensor 33. It is assumed that a light receiving pixel is arranged and a virtual red light receiving pixel is arranged at the pixel position [4 + 4n A , 3 + 4n B ] of the image sensor 33.
When using the addition pattern P A4 as the fourth addition pattern,
Pixel position of the image sensor 33 [2 + 4n A, 4 + 4n B] and virtual green light receiving pixels are arranged in a [3 + 4n A, 5 + 4n B], virtual blue pixel positions of the image sensor 33 [3 + 4n A, 4 + 4n B] It is assumed that a light receiving pixel is arranged and a virtual red light receiving pixel is arranged at a pixel position [2 + 4n A , 5 + 4n B ] of the image sensor 33.
Note that n A and n B are integers as described above.

1つの仮想的な受光画素の画素信号は、その仮想的な受光画素の左斜め上、右斜め上、左斜め下及び右斜め下に隣接する実際の受光画素の画素信号の加算信号とされる。例えば、加算パターンPA1を用いる場合において、画素位置[2,2]に配置される仮想的な緑受光画素の画素信号は、実際の緑受光画素PS[1,1]、[3,1]、[1,3]及び[3,3]の画素信号の加算信号とされる。このように、同一色のカラーフィルタが配置された4つの受光画素の画素信号を加算することによって、その4つの受光画素の中心に位置する1つの仮想的な受光画素の画素信号を形成する。これは、どの加算パターン(後述する加算パターンPB1〜PB4、PC1〜PC4及びPD1〜PD4を含む)を用いた場合も同じである。 The pixel signal of one virtual light receiving pixel is an addition signal of the pixel signals of the actual light receiving pixels adjacent to the upper left, upper right, lower left, and lower right of the virtual light receiving pixel. . For example, when the addition pattern P A1 is used, the pixel signals of the virtual green light receiving pixels arranged at the pixel position [2, 2] are the actual green light receiving pixels P S [1, 1], [3, 1 ], [1,3] and [3,3] are added signals. In this manner, by adding the pixel signals of the four light receiving pixels in which the color filters of the same color are arranged, a pixel signal of one virtual light receiving pixel located at the center of the four light receiving pixels is formed. This is the same even when any addition pattern (including addition patterns P B1 to P B4 , P C1 to P C4, and P D1 to P D4 described later) is used.

そして、位置[x,y]に配置された仮想的な受光画素の画素信号が、画像上の位置[x,y]の画素信号として取り扱われるように原画像が取得される。   Then, the original image is acquired so that the pixel signal of the virtual light receiving pixel arranged at the position [x, y] is handled as the pixel signal at the position [x, y] on the image.

従って、第1の加算パターン(PA1)を用いた加算読み出しによって得られる原画像は、図9(a)に示す如く、画素位置[2+4nA,2+4nB]及び[3+4nA,3+4nB]に配置された、G信号のみを有する画素と、画素位置[3+4nA,2+4nB]に配置された、B信号のみを有する画素と、画素位置[2+4nA,3+4nB]に配置された、R信号のみを有する画素と、を備えた画像となる。
同様に、第2の加算パターン(PA2)を用いた加算読み出しによって得られる原画像は、図9(b)に示す如く、画素位置[4+4nA,4+4nB]及び[5+4nA,5+4nB]に配置された、G信号のみを有する画素と、画素位置[5+4nA,4+4nB]に配置された、B信号のみを有する画素と、画素位置[4+4nA,5+4nB]に配置された、R信号のみを有する画素と、を備えた画像となる。
同様に、第3の加算パターン(PA3)を用いた加算読み出しによって得られる原画像は、図9(c)に示す如く、画素位置[4+4nA,2+4nB]及び[5+4nA,3+4nB]に配置された、G信号のみを有する画素と、画素位置[5+4nA,2+4nB]に配置された、B信号のみを有する画素と、画素位置[4+4nA,3+4nB]に配置された、R信号のみを有する画素と、を備えた画像となる。
同様に、第4の加算パターン(PA4)を用いた加算読み出しによって得られる原画像は、図9(d)に示す如く、画素位置[2+4nA,4+4nB]及び[3+4nA,5+4nB]に配置された、G信号のみを有する画素と、画素位置[3+4nA,4+4nB]に配置された、B信号のみを有する画素と、画素位置[2+4nA,5+4nB]に配置された、R信号のみを有する画素と、を備えた画像となる。
Therefore, as shown in FIG. 9A, the original image obtained by the addition reading using the first addition pattern (P A1 ) is at pixel positions [2 + 4n A , 2 + 4n B ] and [3 + 4n A , 3 + 4n B ]. The pixel having only the G signal, the pixel having only the B signal, disposed at the pixel position [3 + 4n A , 2 + 4n B ], and the R signal disposed at the pixel position [2 + 4n A , 3 + 4n B ]. And an image including a pixel having only a pixel.
Similarly, as shown in FIG. 9B, the original image obtained by addition reading using the second addition pattern (P A2 ) has pixel positions [4 + 4n A , 4 + 4n B ] and [5 + 4n A , 5 + 4n B ]. The pixel having only the G signal, the pixel having only the B signal, and the pixel having only the B signal, and the pixel position [4 + 4n A , 5 + 4n B ], arranged at the pixel position [5 + 4n A , 4 + 4n B ]. An image including pixels having only signals.
Similarly, the original image obtained by addition reading using the third addition pattern (P A3 ) has pixel positions [4 + 4n A , 2 + 4n B ] and [5 + 4n A , 3 + 4n B ] as shown in FIG. The pixel having only the G signal, the pixel having only the B signal, and the pixel having only the B signal and the pixel position [4 + 4n A , 3 + 4n B ], which are arranged at the pixel position [5 + 4n A , 2 + 4n B ]. An image including pixels having only signals.
Similarly, the original image obtained by addition reading using the fourth addition pattern (P A4 ) has pixel positions [2 + 4n A , 4 + 4n B ] and [3 + 4n A , 5 + 4n B ] as shown in FIG. The pixel having only the G signal, the pixel having only the B signal, and the pixel having only the B signal and the pixel position [2 + 4n A , 5 + 4n B ], which are arranged at the pixel position [3 + 4n A , 4 + 4n B ]. An image including pixels having only signals.

第1、第2、第3及び第4の加算パターンを用いた加算読み出しによって得られる原画像を、以下、夫々、第1、第2、第3及び第4の加算パターンの原画像と呼ぶ。また、或る原画像において、R、G又はB信号を有する画素を実画素とも呼び、R、G及びB信号の何れもが存在しない画素を空白画素とも呼ぶ。従って例えば、第1の加算パターンの原画像では、位置[2+4nA,2+4nB]、[3+4nA,3+4nB]、[3+4nA,2+4nB]又は[2+4nA,3+4nB]に配置される画素のみが実画素であり、それ以外の画素(例えば、位置[1,1]に配置される画素)は空白画素である。 Hereinafter, original images obtained by addition reading using the first, second, third, and fourth addition patterns are referred to as original images of the first, second, third, and fourth addition patterns, respectively. In a certain original image, a pixel having an R, G, or B signal is also referred to as a real pixel, and a pixel in which none of the R, G, and B signals exists is also referred to as a blank pixel. Therefore, for example, in the original image of the first addition pattern, pixels arranged at positions [2 + 4n A , 2 + 4n B ], [3 + 4n A , 3 + 4n B ], [3 + 4n A , 2 + 4n B ] or [2 + 4n A , 3 + 4n B ]. Only pixels are actual pixels, and other pixels (for example, pixels arranged at the position [1, 1]) are blank pixels.

図10は、図1の映像信号処理部13として用いられる映像信号処理部13aの内部ブロック図を含む、図1の撮像装置1の一部ブロック図である。映像信号処理部13aは、符号51〜56によって参照される各部位を備える。   FIG. 10 is a partial block diagram of the imaging apparatus 1 in FIG. 1 including an internal block diagram of the video signal processing unit 13a used as the video signal processing unit 13 in FIG. The video signal processing unit 13a includes portions that are referred to by reference numerals 51 to 56.

色補間処理部51は、AFE12からのRAWデータに対して色補間処理を施すことにより、RAWデータをR、G及びB信号に変換する。この変換は、フレームごとに実行されて、この変換によって得られたR、G及びB信号はフレームメモリ52に一時記憶される。RAWデータとは、AFE12の出力信号によって示される、原画像を表す画像データである。   The color interpolation processing unit 51 converts the RAW data into R, G, and B signals by performing color interpolation processing on the RAW data from the AFE 12. This conversion is executed for each frame, and R, G, and B signals obtained by this conversion are temporarily stored in the frame memory 52. The RAW data is image data representing an original image indicated by the output signal of the AFE 12.

色補間処理部51での色補間処理によって、1枚の原画像から1枚の色補間画像が生成される。フレーム周期が経過する毎に、撮像素子33からAFE12を介して第1、第2、・・・、第(n−1)、第n番目の原画像が順次取得され、色補間処理部51により、第1、第2、・・・、第(n−1)、第n番目の原画像から夫々第1、第2、・・・、第(n−1)、第n番目の色補間画像が生成される。ここで、nは2以上の整数である。   By color interpolation processing in the color interpolation processing unit 51, one color interpolation image is generated from one original image. Each time the frame period elapses, the first, second,..., (N−1) th, and nth original images are sequentially acquired from the image sensor 33 via the AFE 12, and the color interpolation processing unit 51 , First, second,..., (N−1) th, nth original image, first, second,..., (N−1) th, nth color interpolated image, respectively. Is generated. Here, n is an integer of 2 or more.

動き検出部53は、現時点において色補間処理部51から出力されている現フレームのR、G及びB信号と、フレームメモリ52に記憶されている前フレームのR、G及びB信号と、に基づいて、隣接フレーム間のオプティカルフローを求める。つまり、第(n−1)及び第n番目の色補間画像の画像データに基づいて、両色補間画像間のオプティカルフローを求める。動き検出部53は、そのオプティカルフローから、両色補間画像間における、動きの大きさ及び向きを検出する。動き検出部53の検出結果はメモリ54に記憶される。   The motion detection unit 53 is based on the R, G, and B signals of the current frame currently output from the color interpolation processing unit 51 and the R, G, and B signals of the previous frame stored in the frame memory 52. Thus, an optical flow between adjacent frames is obtained. That is, the optical flow between the two color interpolation images is obtained based on the image data of the (n−1) th and nth color interpolation images. The motion detection unit 53 detects the magnitude and direction of motion between the two-color interpolated images from the optical flow. The detection result of the motion detection unit 53 is stored in the memory 54.

画像合成部55は、色補間処理部51の出力信号とフレームメモリ52に記憶されている信号を受け、受けた信号によって表される複数の色補間画像に基づいて1枚の出力合成画像を生成する。この生成の際、メモリ54に記憶された、動き検出部53の検出結果も参照される。信号処理部56は、画像合成部55から出力される出力合成画像のR、G及びB信号を、輝度信号Y及び色差信号U及びVから成る映像信号に変換する。この変換によって得られた映像信号(Y、U及びV)は、圧縮処理部16に送られ、所定の画像圧縮方式に従って圧縮符号化される。   The image composition unit 55 receives the output signal of the color interpolation processing unit 51 and the signal stored in the frame memory 52, and generates one output composite image based on a plurality of color interpolation images represented by the received signal. To do. At the time of this generation, the detection result of the motion detection unit 53 stored in the memory 54 is also referred to. The signal processing unit 56 converts the R, G, and B signals of the output combined image output from the image combining unit 55 into a video signal composed of the luminance signal Y and the color difference signals U and V. The video signals (Y, U, and V) obtained by this conversion are sent to the compression processing unit 16 and are compressed and encoded according to a predetermined image compression method.

尚、図10に示す構成では、AFE12から圧縮処理部16に向かって、色補間処理部51、フレームメモリ52、動き量検出部53、画像合成部55及び信号処理部56が、この順番に配列されているが、この順番を変更することも可能である。以下に、色補間処理の基本方法を説明した後、色補間処理部51、動き量検出部53及び画像合成部55の機能について、詳細に説明する。   In the configuration shown in FIG. 10, the color interpolation processing unit 51, the frame memory 52, the motion amount detection unit 53, the image synthesis unit 55, and the signal processing unit 56 are arranged in this order from the AFE 12 toward the compression processing unit 16. However, this order can be changed. Hereinafter, after describing the basic method of color interpolation processing, the functions of the color interpolation processing unit 51, the motion amount detection unit 53, and the image composition unit 55 will be described in detail.

[色補間処理の基本方法]
G信号に着目し、図11(a)及び(b)を参照して、色補間処理の基本方法を説明する。原画像のG信号から色補間画像のG信号を生成する際、色補間画像上に補間画素位置が定められ、その補間画素位置の近傍位置に存在し且つG信号を有する、原画像における複数の実画素が注目される。そして、その注目された複数の実画素におけるG信号を混合することによって補間画素位置のG信号が生成される。補間画素位置におけるG信号を生成するために注目された複数の実画素を、便宜上、参照実画素群と呼ぶ。
[Basic method of color interpolation]
Focusing on the G signal, a basic method of color interpolation processing will be described with reference to FIGS. 11 (a) and 11 (b). When generating the G signal of the color interpolation image from the G signal of the original image, an interpolation pixel position is determined on the color interpolation image, and a plurality of the original image having a G signal are present in the vicinity of the interpolation pixel position. Real pixels are noticed. Then, the G signal at the interpolated pixel position is generated by mixing the G signals at the plurality of actual pixels of interest. A plurality of actual pixels that are noticed for generating the G signal at the interpolation pixel position are referred to as a reference actual pixel group for convenience.

参照実画素群を形成する実画素の個数が2であって、参照実画素群が第1及び第2画素から成る場合、式(A1)に従って補間画素位置におけるG信号値が算出される。ここで、図11(a)に示す如く、d1及びd2は、夫々、第1画素の画素位置と補間画素位置との距離及び第2画素の画素位置と補間画素位置との距離である。ここにおける距離は、画像上における距離(画像座標面XY上の距離)である。原画像における第1及び第2画素のG信号値を夫々式(A1)のVG1及びVG2に代入することによって得たVGTは、補間画素位置におけるG信号値を表す。つまり、補間画素位置におけるG信号値は、参照実画素群のG信号値を距離d1及びd2に応じて線形補間することによって算出される。尚、G信号値とはG信号の値を指す(R信号値、B信号値も同様)。 When the number of real pixels forming the reference real pixel group is 2 and the reference real pixel group is composed of the first and second pixels, the G signal value at the interpolation pixel position is calculated according to the equation (A1). Here, as shown in FIG. 11A, d 1 and d 2 are the distance between the pixel position of the first pixel and the interpolation pixel position, and the distance between the pixel position of the second pixel and the interpolation pixel position, respectively. . The distance here is a distance on the image (a distance on the image coordinate plane XY). V GT obtained by substituting the G signal values of the first and second pixels in the original image into V G1 and V G2 of equation (A1) respectively represents the G signal value at the interpolation pixel position. That is, the G signal value at the interpolation pixel position is calculated by linearly interpolating the G signal value of the reference actual pixel group according to the distances d 1 and d 2 . The G signal value indicates the value of the G signal (the same applies to the R signal value and the B signal value).

Figure 2009290344
Figure 2009290344

参照実画素群を形成する実画素の個数が4であって、参照実画素群が第1〜第4画素から成る場合も、参照実画素群を形成する実画素の個数が2である場合と同様の線形補間によって、補間画素位置におけるG信号値が算出される。つまり、第1〜第4画素の画素位置と補間画素位置との距離d1〜d4に応じた比率にて第1〜第4画素のG信号値VG1〜VG4を混合することにより、補間画素位置におけるG信号値VGTが算出される(図11(b)参照)。 Even when the number of real pixels forming the reference real pixel group is four and the reference real pixel group is composed of the first to fourth pixels, the number of real pixels forming the reference real pixel group is two. The G signal value at the interpolation pixel position is calculated by the same linear interpolation. That is, by mixing the G signal values V G1 to V G4 of the first to fourth pixels at a ratio according to the distances d 1 to d 4 between the pixel positions of the first to fourth pixels and the interpolation pixel position, A G signal value V GT at the interpolation pixel position is calculated (see FIG. 11B).

色補間処理部51では、参照実画素群のG信号を混合することによって補間画素位置におけるG信号を生成する際、複数の実画素のG信号を等比率で混合する(同じ割合にて混合する)。逆に言えば、参照実画素群のG信号を等比率で混合することによって信号が補間されるべき位置に、補間画素位置を設定する。この要求を満たすべく、補間画素位置は、参照実画素群を形成する実画素の画素位置の重心位置に設定される。より詳細には、参照実画素群を形成する各実画素の画素位置を結ぶことによって形成される図形の重心位置が、補間画素位置として設定される。   When the color interpolation processing unit 51 generates the G signal at the interpolation pixel position by mixing the G signals of the reference actual pixel group, the G signals of the plurality of actual pixels are mixed at an equal ratio (mixed at the same ratio). ). In other words, the interpolated pixel position is set to the position where the signal is to be interpolated by mixing the G signals of the reference real pixel group at an equal ratio. In order to satisfy this requirement, the interpolation pixel position is set to the barycentric position of the pixel positions of the actual pixels forming the reference actual pixel group. More specifically, the barycentric position of the figure formed by connecting the pixel positions of the respective real pixels forming the reference real pixel group is set as the interpolation pixel position.

従って、参照実画素群が第1及び第2画素から成る場合は、第1画素の画素位置と第2画素の画素位置とを結ぶ図形(線分)の重心位置、即ち、両画素位置間の中心位置に補間画素位置が設定される。そうすると、必然的にd1=d2となるため、式(A1)は下記式(A2)に変形される。つまり、第1及び第2画素のG信号値の平均値が、補間画素位置のG信号値として算出される。 Therefore, when the reference real pixel group is composed of the first and second pixels, the barycentric position of the figure (line segment) connecting the pixel position of the first pixel and the pixel position of the second pixel, that is, between both pixel positions. An interpolation pixel position is set at the center position. Then, since d 1 = d 2 inevitably, the expression (A1) is transformed into the following expression (A2). That is, the average value of the G signal values of the first and second pixels is calculated as the G signal value at the interpolation pixel position.

Figure 2009290344
Figure 2009290344

また、参照実画素群が第1〜4画素から成る場合は、第1〜4画素の画素位置を結ぶことによって形成される四角形の重心位置に補間画素位置が設定され、その補間画素位置のG信号値VGTは、第1〜4画素のG信号値VG1〜VG4の平均値とされる。 In addition, when the reference real pixel group includes the first to fourth pixels, the interpolation pixel position is set at the center of gravity of the quadrangle formed by connecting the pixel positions of the first to fourth pixels, and the G of the interpolation pixel position is set. The signal value V GT is an average value of the G signal values V G1 to V G4 of the first to fourth pixels.

G信号に着目して、色補間処理の基本方法を説明したが、B信号及びR信号に対しても、同様の方法に従って色補間処理がなされる。即ち、着目色が緑、青及び赤の何れであるかに拘らず、上述の基本方法に従って着目色の色信号に対する色補間処理がなされる。B又はR信号に対する色補間処理を考える場合は、上述の“G”を“B”又は“R”に読み替えれば足る。   Although the basic method of color interpolation processing has been described focusing on the G signal, the color interpolation processing is performed on the B signal and R signal according to the same method. That is, regardless of whether the target color is green, blue, or red, color interpolation processing is performed on the color signal of the target color according to the basic method described above. When considering the color interpolation processing for the B or R signal, it is sufficient to replace the above-mentioned “G” with “B” or “R”.

[色補間処理部]
色補間処理部51は、AFE12から得られる原画像に対して色補間処理を施すことによって色補間画像を生成する。第1実施例及び後述する第2〜第6実施例において、AFE12から色補間処理部51に与えられる原画像は、第1、第2、第3又は第4の加算パターンの原画像である。故に、色補間処理の対象となる原画像における画素間隔(隣接する実画素の間隔)は、図9(a)〜(d)に示す如く、不均等である。このような原画像に対して、色補間処理部51は、上述の基本方法に従う色補間処理を実行する。
[Color interpolation processing unit]
The color interpolation processing unit 51 generates a color interpolation image by performing color interpolation processing on the original image obtained from the AFE 12. In the first embodiment and the second to sixth embodiments described later, the original image given from the AFE 12 to the color interpolation processing unit 51 is the original image of the first, second, third, or fourth addition pattern. Therefore, the pixel interval (interval of adjacent real pixels) in the original image that is the target of the color interpolation process is unequal as shown in FIGS. For such an original image, the color interpolation processing unit 51 performs color interpolation processing according to the basic method described above.

図12(a)〜(c)及び図13(a)〜(c)を参照して、第1の加算パターンの原画像251から色補間画像261を生成するための色補間処理を説明する。図12(a)〜(c)は、夫々、補間画素位置のG、B及びR信号を生成するために、原画像251の実画素のG、B及びR信号が混合される様子を示す図である。図13(a)〜(c)は、夫々、色補間画像261上のG、B及びR信号を示す図である。図12(a)〜(c)に示される黒塗りの丸は、夫々、色補間画像261におけるG、B及びR信号が生成されるべき補間画素位置を示し、各黒塗りの丸の周囲に示された矢印は、補間画素位置の色信号を生成するために複数の色信号が混合される様子を示している。尚、図示の煩雑化防止のため、色補間画像261におけるG、B及びR信号を別個に示しているが、原画像251から1枚の色補間画像261が生成される。   With reference to FIGS. 12A to 12C and FIGS. 13A to 13C, color interpolation processing for generating the color interpolation image 261 from the original image 251 of the first addition pattern will be described. FIGS. 12A to 12C are diagrams showing how the G, B, and R signals of the real pixels of the original image 251 are mixed in order to generate the G, B, and R signals at the interpolation pixel positions, respectively. It is. FIGS. 13A to 13C are diagrams showing the G, B, and R signals on the color interpolation image 261, respectively. The black circles shown in FIGS. 12A to 12C indicate the interpolation pixel positions where the G, B, and R signals should be generated in the color interpolation image 261, respectively, and around each black circle. The arrows shown indicate how a plurality of color signals are mixed in order to generate a color signal at the interpolation pixel position. In order to prevent complication of illustration, the G, B, and R signals in the color interpolation image 261 are shown separately, but one color interpolation image 261 is generated from the original image 251.

まず、図12(a)及び図13(a)を参照し、原画像251におけるG信号から色補間画像261におけるG信号を生成するための色補間処理を説明する。不等式“2≦x≦7”及び“2≦y≦7”を満たす位置[x,y]を内包するブロック241に注目する。そして、ブロック241内に属する実画素のG信号から生成される、色補間画像261の補間画素位置のG信号を考える。尚、補間画素位置に対して生成されるG信号(又はB信号若しくはR信号)を、特に、補間G信号(又は補間B信号若しくは補間R信号)とも呼ぶ。   First, a color interpolation process for generating a G signal in the color interpolation image 261 from a G signal in the original image 251 will be described with reference to FIGS. Note the block 241 that contains the position [x, y] that satisfies the inequalities “2 ≦ x ≦ 7” and “2 ≦ y ≦ 7”. Then, consider the G signal at the interpolation pixel position of the color interpolation image 261 generated from the G signal of the real pixel belonging to the block 241. Note that the G signal (or B signal or R signal) generated for the interpolation pixel position is also referred to as an interpolation G signal (or interpolation B signal or interpolation R signal).

ブロック241内に属する、原画像251上の実画素のG信号から、色補間画像261に設定される2つの補間画素位置301及び302についての補間G信号が生成される。補間画素位置301は、G信号を有する実画素P[2,6]、P[3,7]、P[3,3]及びP[6,6]の画素位置の重心位置[3.5,5.5]である。位置[3.5,5.5]は、位置[3,6]と位置[4,5]の中心位置に相当する。補間画素位置302は、G信号を有する実画素P[6,2]、P[7,3]、P[3,3]及びP[6,6]の画素位置の重心位置[5.5,3.5]である。位置[5.5,3.5]は、位置[6,3]と位置[5,4]の中心位置に相当する。   Interpolated G signals for the two interpolated pixel positions 301 and 302 set in the color interpolated image 261 are generated from the G signals of actual pixels on the original image 251 belonging to the block 241. The interpolated pixel position 301 is a barycentric position [3.5, pixel positions of real pixels P [2,6], P [3,7], P [3,3] and P [6,6] having G signals. 5.5]. The position [3.5, 5.5] corresponds to the center position of the position [3, 6] and the position [4, 5]. The interpolation pixel position 302 is a barycentric position [5.5] of the pixel positions of the real pixels P [6,2], P [7,3], P [3,3] and P [6,6] having the G signal. 3.5]. The position [5.5, 3.5] corresponds to the center position of the position [6, 3] and the position [5, 4].

図13(a)では、補間画素位置301及び302に生成される補間G信号を夫々符号311及び312によって指し示している。補間画素位置301に生成されるG信号311の値は、原画像251における実画素P[2,6]、P[3,7]、P[3,3]及びP[6,6]の画素値(即ちG信号値)の平均値とされる。つまり、G信号311にとっての参照実画素群の画素信号を等比率で混合することによってG信号311が生成される。同様に、補間画素位置302に生成されるG信号312の値は、原画像251における実画素P[6,2]、P[7,3]、P[3,3]及びP[6,6]の画素値(即ちG信号値)の平均値とされる。つまり、G信号312にとっての参照実画素群の画素信号を等比率で混合することによってG信号312が生成される。尚、画素値とは、画素信号の値を指す。   In FIG. 13A, the interpolated G signals generated at the interpolated pixel positions 301 and 302 are indicated by reference numerals 311 and 312 respectively. The values of the G signal 311 generated at the interpolation pixel position 301 are the pixels of the actual pixels P [2,6], P [3,7], P [3,3] and P [6,6] in the original image 251. The average value of the values (that is, the G signal value) is used. That is, the G signal 311 is generated by mixing the pixel signals of the reference real pixel group for the G signal 311 at an equal ratio. Similarly, the values of the G signal 312 generated at the interpolation pixel position 302 are the real pixels P [6,2], P [7,3], P [3,3] and P [6,6] in the original image 251. ] Of pixel values (that is, G signal values). That is, the G signal 312 is generated by mixing the pixel signals of the reference real pixel group for the G signal 312 at an equal ratio. The pixel value refers to the value of the pixel signal.

また、原画像251における実画素P[x,y]のG信号は、そのまま、色補間画像261の位置[x,y]におけるG信号とされる。つまり例えば、原画像251における実画素P[3,3]及びP[6,6]のG信号(即ち、原画像251における位置[3,3]及び[6,6]のG信号)は、それぞれ、色補間画像261の位置[3,3]及び[6,6]におけるG信号313及び314とされる。他の位置(例えば、位置[2,2])に対しても同様である。   Further, the G signal of the actual pixel P [x, y] in the original image 251 is directly used as the G signal at the position [x, y] of the color interpolation image 261. That is, for example, the G signals of the actual pixels P [3, 3] and P [6, 6] in the original image 251 (that is, the G signals of the positions [3, 3] and [6, 6] in the original image 251) are These are the G signals 313 and 314 at the positions [3, 3] and [6, 6] of the color interpolation image 261, respectively. The same applies to other positions (for example, position [2, 2]).

ブロック241に注目した場合は、2つの補間画素位置301及び302が設定されて、それらに対する補間G信号311及び312が生成される。注目するブロックを、ブロック241を起点として、水平方向、垂直方向に4画素ずつずらして、順次、同様の補間G信号の生成処理を行う。これにより、図20(a)に示すような、色補間画像261上のG信号が生成される。図20(a)におけるG12,3、G13,2、G12,2及びG13,3は、夫々、図13(a)のG信号311、312、313及び314に対応している。図20(a)に対する詳細な説明は後述することとし、先に、B及びR信号に対する色補間処理と、第2〜第4の加算パターンを用いた場合の色補間処理を説明する。 When attention is paid to the block 241, two interpolation pixel positions 301 and 302 are set, and interpolation G signals 311 and 312 are generated for them. The block of interest is shifted by 4 pixels in the horizontal and vertical directions starting from the block 241 and the same interpolation G signal generation process is sequentially performed. As a result, a G signal on the color interpolation image 261 as shown in FIG. G1 2,3 , G1 3,2 , G1 2,2 and G1 3,3 in FIG. 20A respectively correspond to the G signals 311, 312, 313 and 314 in FIG. A detailed description of FIG. 20A will be described later. First, the color interpolation processing for the B and R signals and the color interpolation processing when the second to fourth addition patterns are used will be described.

図12(b)及び図13(b)を参照し、原画像251におけるB信号から色補間画像261におけるB信号を生成するための色補間処理を説明する。ブロック241に注目し、ブロック241内に属する実画素のB信号から生成される、色補間画像261の補間画素位置のB信号を考える。   A color interpolation process for generating a B signal in the color interpolation image 261 from a B signal in the original image 251 will be described with reference to FIGS. 12B and 13B. Focusing on the block 241, consider the B signal at the interpolation pixel position of the color interpolation image 261 generated from the B signal of the real pixel belonging to the block 241.

ブロック241内に属する実画素のB信号から、色補間画像261に設定される3つの補間画素位置321〜323についての補間B信号が生成される。補間画素位置321は、B信号を有する実画素P[3,2]及びP[3,6]の画素位置の重心位置[3,4]と合致する。補間画素位置322は、B信号を有する実画素P[3,6]及びP[7,6]の画素位置の重心位置[5,6]と合致する。補間画素位置323は、B信号を有する実画素P[3,2]、P[7,2]、P[3,6]及びP[7,6]の画素位置の重心位置[5,4]と合致する。   Interpolated B signals for the three interpolated pixel positions 321 to 323 set in the color interpolated image 261 are generated from the B signals of actual pixels belonging to the block 241. The interpolated pixel position 321 matches the barycentric position [3,4] of the pixel positions of the real pixels P [3,2] and P [3,6] having the B signal. The interpolated pixel position 322 matches the barycentric position [5, 6] of the pixel positions of the actual pixels P [3, 6] and P [7, 6] having the B signal. The interpolated pixel position 323 is the barycentric position [5, 4] of the pixel positions of the real pixels P [3, 2], P [7, 2], P [3, 6] and P [7, 6] having the B signal. Matches.

図13(b)では、補間画素位置321〜323に生成される補間B信号を夫々符号331〜333によって指し示している。補間画素位置321に生成されるB信号331の値は、原画像251における実画素P[3,2]及びP[3,6]の画素値(即ちB信号値)の平均値とされる。つまり、B信号331にとっての参照実画素群の画素信号を等比率で混合することによってB信号331が生成される。B信号332及び333に対しても同様である。即ち、補間画素位置322に生成されるB信号332の値は、原画像251における実画素P[3,6]及びP[7,6]の画素値(即ちB信号値)の平均値とされ、補間画素位置323に生成されるB信号333の値は、原画像251における実画素P[3,2]、P[7,2]、P[3,6]及びP[7,6]の画素値(即ちB信号値)の平均値とされる。   In FIG. 13B, the interpolated B signals generated at the interpolated pixel positions 321 to 323 are indicated by reference numerals 331 to 333, respectively. The value of the B signal 331 generated at the interpolation pixel position 321 is an average value of the pixel values (that is, the B signal value) of the actual pixels P [3, 2] and P [3, 6] in the original image 251. That is, the B signal 331 is generated by mixing the pixel signals of the reference real pixel group for the B signal 331 at an equal ratio. The same applies to the B signals 332 and 333. That is, the value of the B signal 332 generated at the interpolation pixel position 322 is an average value of the pixel values (that is, the B signal value) of the actual pixels P [3, 6] and P [7, 6] in the original image 251. The values of the B signal 333 generated at the interpolation pixel position 323 are the real pixels P [3, 2], P [7, 2], P [3, 6] and P [7, 6] in the original image 251. The average value of the pixel values (that is, the B signal value) is used.

また、原画像251における実画素P[x,y]のB信号は、そのまま、色補間画像261の位置[x,y]におけるB信号とされる。つまり例えば、原画像251における実画素P[3,6]のB信号(即ち、原画像251における位置[3,6]のB信号)は、色補間画像261の位置[3,6]におけるB信号334とされる。他の位置(例えば、位置[3,2])に対しても同様である。   Further, the B signal of the actual pixel P [x, y] in the original image 251 is directly used as the B signal at the position [x, y] of the color interpolation image 261. That is, for example, the B signal of the actual pixel P [3, 6] in the original image 251 (that is, the B signal at the position [3, 6] in the original image 251) is the B signal at the position [3, 6] of the color interpolation image 261. The signal 334 is used. The same applies to other positions (for example, position [3, 2]).

ブロック241に注目した場合は、3つの補間画素位置321〜323が設定されて、それらに対する補間B信号331〜333が生成される。注目するブロックを、ブロック241を起点として、水平方向、垂直方向に4画素ずつずらして、順次、同様の補間B信号の生成処理を行う。これにより、図20(b)に示すような、色補間画像261上のB信号が生成される。   When attention is paid to the block 241, three interpolation pixel positions 321 to 323 are set, and interpolation B signals 331 to 333 are generated for them. The block of interest is shifted by 4 pixels in the horizontal and vertical directions starting from the block 241, and the same interpolation B signal generation processing is sequentially performed. Thereby, a B signal on the color interpolation image 261 as shown in FIG. 20B is generated.

図12(c)及び図13(c)を参照し、原画像251におけるR信号から色補間画像261におけるR信号を生成するための色補間処理を説明する。ブロック241に注目し、ブロック241内に属する実画素のR信号から生成される、色補間画像261の補間画素位置のR信号を考える。   With reference to FIGS. 12C and 13C, a color interpolation process for generating an R signal in the color interpolation image 261 from an R signal in the original image 251 will be described. Focusing on the block 241, consider the R signal at the interpolation pixel position of the color interpolation image 261 generated from the R signal of the real pixel belonging to the block 241.

ブロック241内に属する実画素のR信号から、色補間画像261に設定される3つの補間画素位置341〜343についての補間B信号が生成される。補間画素位置341は、R信号を有する実画素P[2,3]及びP[6,3]の画素位置の重心位置[4,3]と合致する。補間画素位置342は、R信号を有する実画素P[6,3]及びP[6,7]の画素位置の重心位置[6,5]と合致する。補間画素位置343は、R信号を有する実画素P[2,3]、P[2,7]、P[6,3]及びP[6,7]の画素位置の重心位置[4,5]と合致する。   Interpolation B signals for the three interpolation pixel positions 341 to 343 set in the color interpolation image 261 are generated from the R signals of the real pixels belonging to the block 241. The interpolation pixel position 341 coincides with the barycentric position [4, 3] of the pixel positions of the real pixels P [2, 3] and P [6, 3] having the R signal. The interpolated pixel position 342 matches the barycentric position [6, 5] of the pixel positions of the real pixels P [6, 3] and P [6, 7] having the R signal. The interpolated pixel position 343 is the barycentric position [4, 5] of the pixel positions of the real pixels P [2,3], P [2,7], P [6,3] and P [6,7] having the R signal. Matches.

図13(c)では、補間画素位置341〜343に生成される補間R信号を夫々符号351〜353によって指し示している。補間画素位置341に生成されるR信号351の値は、原画像251における実画素P[2,3]及びP[6,3]の画素値(即ちR信号値)の平均値とされる。つまり、R信号351にとっての参照実画素群の画素信号を等比率で混合することによってR信号351が生成される。R信号352及び353に対しても同様である。即ち、補間画素位置342に生成されるR信号352の値は、原画像251における実画素P[6,3]及びP[6,7]の画素値(即ちR信号値)の平均値とされ、補間画素位置343に生成されるR信号353の値は、原画像251における実画素P[2,3]、P[2,7]、P[6,3]及びP[6,7]の画素値(即ちR信号値)の平均値とされる。   In FIG. 13C, interpolation R signals generated at the interpolation pixel positions 341 to 343 are indicated by reference numerals 351 to 353, respectively. The value of the R signal 351 generated at the interpolation pixel position 341 is an average value of the pixel values (that is, R signal values) of the actual pixels P [2,3] and P [6,3] in the original image 251. That is, the R signal 351 is generated by mixing the pixel signals of the reference real pixel group for the R signal 351 at an equal ratio. The same applies to the R signals 352 and 353. That is, the value of the R signal 352 generated at the interpolation pixel position 342 is an average value of the pixel values (that is, the R signal value) of the actual pixels P [6, 3] and P [6, 7] in the original image 251. The values of the R signal 353 generated at the interpolation pixel position 343 are the real pixels P [2,3], P [2,7], P [6,3] and P [6,7] in the original image 251. The average value of pixel values (that is, R signal values) is used.

また、原画像251における実画素P[x,y]のR信号は、そのまま、色補間画像261の位置[x,y]におけるR信号とされる。つまり例えば、原画像251における実画素P[6,3]のR信号(即ち、原画像251における位置[6,3]のR信号)は、色補間画像261の位置[6,3]におけるR信号354とされる。他の位置(例えば、位置[2,3])に対しても同様である。   In addition, the R signal of the actual pixel P [x, y] in the original image 251 is directly used as the R signal at the position [x, y] of the color interpolation image 261. That is, for example, the R signal of the actual pixel P [6, 3] in the original image 251 (that is, the R signal at the position [6, 3] in the original image 251) is the R signal at the position [6, 3] of the color interpolation image 261. The signal 354 is used. The same applies to other positions (for example, position [2, 3]).

ブロック241に注目した場合は、3つの補間画素位置341〜343が設定されて、それらに対する補間R信号351〜353が生成される。注目するブロックを、ブロック241を起点として、水平方向、垂直方向に4画素ずつずらして、順次、同様の補間R信号の生成処理を行う。これにより、図20(c)に示すような、色補間画像261上のR信号が生成される。   When attention is paid to the block 241, three interpolation pixel positions 341 to 343 are set, and interpolation R signals 351 to 353 are generated for them. The block of interest is shifted by 4 pixels in the horizontal and vertical directions starting from the block 241, and the same interpolation R signal generation processing is sequentially performed. Thereby, an R signal on the color interpolation image 261 as shown in FIG. 20C is generated.

第2、第3、第4加算パターンの原画像に対する色補間処理を説明する。第2、第3、第4加算パターンの原画像を、夫々、符号252、253及び254によって参照し、原画像252、253及び254から生成される色補間画像を符号262、263及び264によって参照する。   A color interpolation process for the original images of the second, third, and fourth addition patterns will be described. The original images of the second, third, and fourth addition patterns are referred to by reference numerals 252 253, and 254, respectively, and the color interpolation images generated from the original images 252, 253, and 254 are referred to by reference numerals 262, 263, and 264, respectively. To do.

図14(a)〜(c)は、夫々、色補間画像262における補間画素位置のG、B及びR信号を生成するために、原画像252の実画素のG、B及びR信号が混合される様子を示す図である。図15(a)〜(c)は、夫々、色補間画像262上のG、B及びR信号を示す図である。図16(a)〜(c)は、夫々、色補間画像263における補間画素位置のG、B及びR信号を生成するために、原画像253の実画素のG、B及びR信号が混合される様子を示す図である。図17(a)〜(c)は、夫々、色補間画像263上のG、B及びR信号を示す図である。図18(a)〜(c)は、夫々、色補間画像264における補間画素位置のG、B及びR信号を生成するために、原画像254の実画素のG、B及びR信号が混合される様子を示す図である。図19(a)〜(c)は、夫々、色補間画像264上のG、B及びR信号を示す図である。   14 (a) to 14 (c), the G, B, and R signals of the actual pixels of the original image 252 are mixed to generate the G, B, and R signals of the interpolation pixel position in the color interpolation image 262, respectively. FIG. FIGS. 15A to 15C are diagrams showing the G, B, and R signals on the color interpolation image 262, respectively. In FIGS. 16A to 16C, the G, B, and R signals of the actual pixels of the original image 253 are mixed in order to generate the G, B, and R signals of the interpolation pixel positions in the color interpolation image 263, respectively. FIG. FIGS. 17A to 17C are diagrams showing the G, B, and R signals on the color interpolation image 263, respectively. 18 (a) to 18 (c), the G, B, and R signals of the actual pixels of the original image 254 are mixed to generate the G, B, and R signals of the interpolation pixel position in the color interpolation image 264, respectively. FIG. FIGS. 19A to 19C are diagrams showing the G, B, and R signals on the color interpolation image 264, respectively.

図14(a)〜(c)に示される黒塗りの丸は、夫々、色補間画像262におけるG、B又はR信号が生成されるべき補間画素位置を示し、図16(a)〜(c)に示される黒塗りの丸は、夫々、色補間画像263におけるG、B又はR信号が生成されるべき補間画素位置を示し、図18(a)〜(c)に示される黒塗りの丸は、夫々、色補間画像264におけるG、B又はR信号が生成されるべき補間画素位置を示している。各黒塗りの丸の周囲に示された矢印は、補間画素位置の色信号を生成するために複数の色信号が混合される様子を示している。尚、図示の煩雑化防止のため、色補間画像262におけるG、B及びR信号を別個に示しているが、原画像252から1枚の色補間画像262が生成される。色補間画像263及び264についても同様である。   The black circles shown in FIGS. 14A to 14C indicate the interpolation pixel positions where the G, B, or R signals are to be generated in the color interpolation image 262, respectively, and FIGS. The black circles shown in FIG. 18 indicate the interpolation pixel positions where the G, B, or R signals should be generated in the color interpolation image 263, and the black circles shown in FIGS. Respectively indicate interpolation pixel positions at which G, B, or R signals in the color interpolation image 264 are to be generated. An arrow shown around each black circle indicates a state in which a plurality of color signals are mixed to generate a color signal at the interpolation pixel position. In order to prevent complication of illustration, the G, B, and R signals in the color interpolation image 262 are separately shown, but one color interpolation image 262 is generated from the original image 252. The same applies to the color interpolation images 263 and 264.

第2〜第4の加算パターンの原画像に対する色補間処理の方法は、第1の加算パターンに対するそれと同様である。但し、第1の加算パターンの原画像における実画素の存在位置を基準として、第2の加算パターンの原画像における実画素の存在位置は右方向に2・Wp分且つ下方向に2・Wp分だけずれており、第3の加算パターンの原画像における実画素の存在位置は右方向に2・Wp分だけずれており、第4の加算パターンの原画像における実画素の存在位置は下方向に2・Wp分だけずれている(図4(a)も参照)。従って、色補間画像261上のG、B及びR信号の存在位置を基準として、色補間画像262上のG、B及びR信号の存在位置は右方向に2・Wp分且つ下方向に2・Wp分だけずれており、色補間画像263上のG、B及びR信号の存在位置は右方向に2・Wp分だけずれており、色補間画像264上のG、B及びR信号の存在位置は下方向に2・Wp分だけずれている。よって、これらのずれに相当する分だけ、色補間画像262〜264に対する補間画素位置も、色補間画像261のそれを基準としてずれる。   The color interpolation processing method for the original images of the second to fourth addition patterns is the same as that for the first addition pattern. However, with the actual pixel existing position in the original image of the first addition pattern as a reference, the actual pixel existing position in the second addition pattern original image is 2 · Wp in the right direction and 2 · Wp in the downward direction. The actual pixel existing position in the original image of the third addition pattern is shifted by 2 · Wp in the right direction, and the actual pixel existing position in the original image of the fourth addition pattern is downward. It is shifted by 2 · Wp (see also FIG. 4A). Accordingly, with the G, B, and R signal existing positions on the color interpolation image 261 as a reference, the G, B, and R signal existing positions on the color interpolation image 262 are 2 · Wp in the right direction and 2 · in the downward direction. The position of G, B and R signals on the color interpolation image 263 is shifted by 2 · Wp to the right, and the position of the G, B and R signals on the color interpolation image 264 is shifted by Wp. Is shifted downward by 2 · Wp. Therefore, the interpolation pixel position for the color interpolation images 262 to 264 is also shifted with reference to that of the color interpolation image 261 by an amount corresponding to these deviations.

例えば、図14(a)等に対応する原画像252に関しては、不等式“4≦x≦9”及び“4≦y≦9”を満たす位置[x,y]を内包するブロック242に注目し、そのブロック242内に属する実画素のG信号から、色補間画像261に設定される2つの補間画素位置についての補間G信号を生成する。その2つの補間画素位置の内、一方の補間画素位置は、原画像252におけるG信号を有する実画素P[4,8]、P[5,9]、P[5,5]及びP[8,8]の画素位置の重心位置[5.5,7.5]であり、他方の補間画素位置は、原画像252におけるG信号を有する実画素P[8,4]、P[9,5]、P[5,5]及びP[8,8]の画素位置の重心位置[7.5,5.5]である。   For example, regarding the original image 252 corresponding to FIG. 14A and the like, attention is paid to a block 242 including a position [x, y] that satisfies the inequalities “4 ≦ x ≦ 9” and “4 ≦ y ≦ 9”. Interpolation G signals for two interpolation pixel positions set in the color interpolation image 261 are generated from the G signals of the real pixels belonging to the block 242. Of the two interpolation pixel positions, one of the interpolation pixel positions is an actual pixel P [4,8], P [5,9], P [5,5] and P [8] having a G signal in the original image 252. , 8] is the barycentric position [5.5, 7.5] of the pixel position, and the other interpolation pixel position is the actual pixel P [8, 4], P [9, 5 having the G signal in the original image 252. ], P [5,5] and P [8,8] are the center-of-gravity positions [7.5, 5.5].

そして、位置[5.5,7.5]に設定される補間画素位置の補間G信号は、原画像252における実画素P[4,8]、P[5,9]、P[5,5]及びP[8,8]の画素値の平均値であり、位置[7.5,5.5]に設定される補間画素位置の補間G信号は、原画像252における実画素P[8,4]、P[9,5]、P[5,5]及びP[8,8]の画素値の平均値である。また、原画像252における実画素P[x,y]のG信号は、そのまま、色補間画像262の位置[x,y]におけるG信号とされる。   The interpolated G signal at the interpolated pixel position set at the position [5.5, 7.5] is the actual pixel P [4,8], P [5,9], P [5,5] in the original image 252. ] And P [8,8] are average values, and the interpolation G signal at the interpolation pixel position set at the position [7.5,5.5] is the actual pixel P [8,8 in the original image 252. 4], P [9,5], P [5,5], and P [8,8]. Further, the G signal of the actual pixel P [x, y] in the original image 252 is directly used as the G signal at the position [x, y] of the color interpolation image 262.

注目するブロックを、ブロック242を起点として、水平方向、垂直方向に4画素ずつずらして、順次、同様の補間G信号の生成処理を行えば、図21(a)に示すような、色補間画像262上のG信号が生成される。同様にして補間B及びR信号を生成することにより、図21(b)及び(c)に示すような、色補間画像262上のB及びR信号が生成される。   If the block of interest is shifted by 4 pixels in the horizontal and vertical directions starting from the block 242 and the same interpolation G signal generation process is performed in sequence, a color interpolation image as shown in FIG. A G signal on 262 is generated. By generating the interpolation B and R signals in the same manner, the B and R signals on the color interpolation image 262 as shown in FIGS. 21B and 21C are generated.

図20(a)〜(c)は、夫々、色補間画像261のG、B及びR信号の存在位置を示す図であり、図21(a)〜(c)は、夫々、色補間画像262のG、B及びR信号の存在位置を示す図である。原画像251(又は252)から色補間画像261(又は262)を生成する方法と同様の方法によって、原画像253及び254から色補間画像263及び264も生成されるが、色補間画像263及び264に対応する、図20(a)等のような図面は割愛されている。   FIGS. 20A to 20C are diagrams showing the positions of the G, B, and R signals in the color interpolation image 261, respectively, and FIGS. 21A to 21C are the color interpolation images 262, respectively. It is a figure which shows the existing position of G, B, and R signal of. The color interpolation images 263 and 264 are also generated from the original images 253 and 254 by a method similar to the method of generating the color interpolation image 261 (or 262) from the original image 251 (or 252). Drawings such as FIG. 20A corresponding to FIG. 20 are omitted.

図20(a)〜(c)では、夫々、色補間画像261上のG、B及びR信号が丸によって示されており、丸の中に示された記号は、その丸に対応するG、B及びR信号を表している。図21(a)〜(c)では、夫々、色補間画像262上のG、B及びR信号が丸によって示されており、丸の中に示された記号は、その丸に対応するG、B及びR信号を表している。色補間画像261におけるG、B及びR信号を表す記号として、夫々、G1i,j、B1i,j及びR1i,jを用い、色補間画像262におけるG、B及びR信号を表す記号として、夫々、G2i,j、B2i,j及びR2i,jを用いる。i及びjは、整数である。尚、G1i,j及びG2i,jを、G信号の値を表す記号として用いることもある(B1i,j、B2i,j、R1i,j及びR2i,jに対しても同様)。 20A to 20C, the G, B, and R signals on the color interpolation image 261 are indicated by circles, and the symbols indicated in the circles are G, B and R signals are represented. 21A to 21C, the G, B, and R signals on the color interpolation image 262 are indicated by circles, and the symbols shown in the circles are G, B and R signals are represented. G1 i, j , B1 i, j and R1 i, j are used as symbols representing the G, B and R signals in the color interpolation image 261, respectively, and as symbols representing the G, B and R signals in the color interpolation image 262, respectively. , G2 i, j , B2 i, j and R2 i, j are used, respectively. i and j are integers. G1 i, j and G2 i, j may be used as symbols representing the value of the G signal (the same applies to B1 i, j , B2 i, j , R1 i, j and R2 i, j) . ).

色補間画像261の注目画素の色信号G1i,j、B1i,j及びR1i,jにおけるi及びjは、夫々、色補間画像261の注目画素の水平画素番号及び垂直画素番号を示している(色信号G2i,j、B2i,j及びR2i,jについても同様)。 I and j in the color signals G1 i, j , B1 i, j and R1 i, j of the target pixel of the color interpolation image 261 indicate the horizontal pixel number and the vertical pixel number of the target pixel of the color interpolation image 261, respectively. (The same applies to the color signals G2 i, j , B2 i, j and R2 i, j ).

色補間画像261における色信号G1i,j、B1i,j及びR1i,jの配置を説明する。
図20(a)に示す如く、色補間画像261における位置[2,2]には、原画像251の位置[2,2]の画素信号と一致するG信号が存在するが、この位置[2,2]をG信号基準位置として捉え、G信号基準位置におけるG信号をG11,1とする。
G信号基準位置(位置[2,2])から右方向に向かって色補間画像261上のG信号を走査した時、G信号G11,1、G12,1、G13,1、G14,1、・・・、がこの順番で存在する。但し、この右方向の走査の際、走査ラインは幅Wpを有しているものとする。従って、G信号G12,1が存在すべき位置[3.5,1.5]は、この走査ライン上にのる。
G信号基準位置(位置[2,2])から下方向に向かって色補間画像261上のG信号を走査した時、G信号G11,1、G11,2、G11,3、G11,4、・・・、がこの順番で存在する。但し、この下方向の走査の際、走査ラインは幅Wpを有しているものとする。従って、G信号G11,2が存在すべき位置[1.5,3.5]は、この走査ライン上にのる。
同様に、色補間画像261上のG信号G1i,jが存在する任意の位置を起点とし、その起点から右方向に向かって色補間画像261上のG信号を走査した時、G信号G1i,j、G1i+1,j、G1i+2,j、G1i+3,j、・・・、がこの順番で存在し、その起点から下方向に向かって色補間画像261上のG信号を走査した時、G信号G1i,j、G1i,j+1、G1i,j+2、G1i,j+3、・・・、がこの順番で存在する。但し、この右方向及び下方向の走査の際、走査ラインは幅Wpを有しているものとする。
The arrangement of the color signals G1 i, j , B1 i, j and R1 i, j in the color interpolation image 261 will be described.
As shown in FIG. 20A, a G signal that coincides with the pixel signal at the position [2, 2] of the original image 251 exists at the position [2, 2] in the color interpolation image 261. This position [2 , 2] is taken as the G signal reference position, and the G signal at the G signal reference position is G1 1,1 .
When the G signal on the color interpolation image 261 is scanned in the right direction from the G signal reference position (position [2, 2]), the G signals G1 1,1 , G1 2,1 , G1 3,1 , G1 4 , 1 , ... exist in this order. However, it is assumed that the scanning line has a width Wp during the scanning in the right direction. Therefore, the position should be present G signal G1 2,1 [3.5,1.5] is rests on the scanning line.
When the G signal on the color-interpolated image 261 is scanned downward from the G signal reference position (position [2, 2]), the G signals G1 1,1 , G1 1,2 , G1 1,3 , G1 1 , 4 , ... exist in this order. However, it is assumed that the scanning line has a width Wp during the downward scanning. Accordingly, the position [1.5, 3.5] where the G signal G1 1,2 should be located is on this scan line.
Similarly, when the G signal on the color interpolation image 261 is scanned from the starting point at an arbitrary position where the G signal G1 i, j on the color interpolation image 261 exists, the G signal G1 i , j , G1 i + 1, j , G1 i + 2, j , G1 i + 3, j ,... exist in this order, and G on the color interpolation image 261 from the starting point downward. When the signal is scanned, the G signals G1 i, j , G1 i, j + 1 , G1 i, j + 2 , G1 i, j + 3 ,... Exist in this order. However, it is assumed that the scanning line has a width Wp during the scanning in the right direction and the downward direction.

図20(b)に示す如く、色補間画像261における位置[1,2]には、原画像251上の複数の実画素のB信号から生成されたB信号が存在するが、この位置[1,2]をB信号基準位置として捉え、B信号基準位置におけるB信号をB11,1とする。
B信号基準位置(位置[1,2])から右方向に向かって色補間画像261上のB信号を走査した時、B信号B11,1、B12,1、B13,1、B14,1、・・・、がこの順番で存在し、B信号基準位置から下方向に向かって色補間画像261上のB信号を走査した時、B信号B11,1、B11,2、B11,3、B11,4、・・・、がこの順番で存在する。同様に、色補間画像261上のB信号B1i,jが存在する任意の位置を起点とし、その起点から右方向に向かって色補間画像261上のB信号を走査した時、B信号B1i,j、B1i+1,j、B1i+2,j、B1i+3,j、・・・、がこの順番で存在し、その起点から下方向に向かって色補間画像261上のB信号を走査した時、B信号B1i,j、B1i,j+1、B1i,j+2、B1i,j+3、・・・、がこの順番で存在する。
As shown in FIG. 20B, a B signal generated from B signals of a plurality of real pixels on the original image 251 exists at the position [1, 2] in the color interpolation image 261. , 2] is taken as the B signal reference position, and the B signal at the B signal reference position is B1 1,1 .
When the B signal on the color interpolation image 261 is scanned in the right direction from the B signal reference position (position [1, 2]), the B signal B1 1,1 , B1 2,1 , B1 3,1 , B1 4 is scanned. , 1 ,... Exist in this order, and when the B signal on the color interpolation image 261 is scanned downward from the B signal reference position, the B signal B1 1,1 , B1 1,2 , B1 1,3 , B1 1,4 , ... exist in this order. Similarly, when the B signal on the color interpolated image 261 is scanned from the starting point at an arbitrary position where the B signal B1 i, j on the color interpolated image 261 exists, the B signal B1 i is scanned. , j , B1 i + 1, j , B1 i + 2, j , B1 i + 3, j ,... exist in this order, and B on the color interpolation image 261 from the starting point downward. When the signal is scanned, B signals B1 i, j , B1 i, j + 1 , B1 i, j + 2 , B1 i, j + 3 ,... Exist in this order.

図20(c)に示す如く、色補間画像261における位置[2,1]には、原画像252上の複数の実画素のR信号から生成されたR信号が存在するが、この位置[2,1]をR信号基準位置として捉え、R信号基準位置におけるR信号をR11,1とする。
R信号基準位置(位置[2,1])から右方向に向かって色補間画像261上のR信号を走査した時、R信号R11,1、R12,1、R13,1、R14,1、・・・、がこの順番で存在し、R信号基準位置から下方向に向かって色補間画像261上のR信号を走査した時、R信号R11,1、R11,2、R11,3、R11,4、・・・、がこの順番で存在する。同様に、色補間画像261上のR信号R1i,jが存在する任意の位置を起点とし、その起点から右方向に向かって色補間画像261上のR信号を走査した時、R信号R1i,j、R1i+1,j、R1i+2,j、R1i+3,j、・・・、がこの順番で存在し、その起点から下方向に向かって色補間画像261上のR信号を走査した時、R信号R1i,j、R1i,j+1、R1i,j+2、R1i,j+3、・・・、がこの順番で存在する。
As shown in FIG. 20C, an R signal generated from R signals of a plurality of real pixels on the original image 252 exists at the position [2, 1] in the color interpolation image 261. This position [2 , 1] is regarded as the R signal reference position, and the R signal at the R signal reference position is R1 1,1 .
When the R signal on the color interpolation image 261 is scanned in the right direction from the R signal reference position (position [2, 1]), the R signal R1 1,1 , R1 2,1 , R1 3,1 , R1 4 is scanned. , 1 ,... Exist in this order, and when the R signal on the color interpolation image 261 is scanned downward from the R signal reference position, the R signals R1 1,1 , R1 1,2 , R1 1,3 , R1 1,4 ... Exist in this order. Similarly, when an R signal R1 i, j on the color interpolation image 261 starts from an arbitrary position and the R signal on the color interpolation image 261 is scanned from the starting point to the right, the R signal R1 i , j , R1 i + 1, j , R1 i + 2, j , R1 i + 3, j ,... exist in this order, and R on the color interpolation image 261 from the starting point downward. When the signal is scanned, R signals R1 i, j , R1 i, j + 1 , R1 i, j + 2 , R1 i, j + 3 ,... Exist in this order.

色補間画像261における色信号G1i,j、B1i,j及びR1i,jの配置状態を説明したが、色補間画像262における色信号G2i,j、B2i,j及びR2i,jの配置状態も同様である。上述の説明文中における、原画像251及び色補間画像261を夫々原画像252及び色補間画像262に読み替えると共に、“G1”、“B1”及び“R1”を夫々“G2”、“B2”及び“R2”に読み替えれば、信号G2i,j、B2i,j及びR2i,jの配置状態は定まる。但し、図21(a)〜(c)に示す如く、色補間画像262におけるG、B及びR信号基準位置は、夫々、位置[4,4]、[3,4]及び[4,3]であるため、位置[4,4]におけるG信号、位置[3,4]におけるB信号及び位置[4,3]におけるR信号が、夫々、G21,1、B21,1及びR21,1となる。 The arrangement state of the color signals G1 i, j , B1 i, j and R1 i, j in the color interpolation image 261 has been described, but the color signals G2 i, j , B2 i, j and R2 i, j in the color interpolation image 262 have been described. The same applies to the arrangement state of. In the above description, the original image 251 and the color-interpolated image 261 are replaced with the original image 252 and the color-interpolated image 262, respectively, and “G1”, “B1”, and “R1” are replaced with “G2,” “B2,” and “ When read as R2 ″, the arrangement state of the signals G2 i, j , B2 i, j and R2 i, j is determined. However, as shown in FIGS. 21A to 21C, the G, B, and R signal reference positions in the color interpolation image 262 are positions [4, 4], [3,4], and [4, 3], respectively. Therefore, the G signal at the position [4, 4], the B signal at the position [3, 4] and the R signal at the position [4, 3] are G2 1,1 , B2 1,1 and R2 1, respectively. 1

色補間画像261における色信号の存在位置をより明確に定義する。
図20(a)に示す如く、色補間画像261には、位置[2+4nA,2+4nB]、[3+4nA,3+4nB]、[3.5+4nA,1.5+4nB]及び[1.5+4nA,3.5+4nB]に、G信号が存在する(nA及びnBは整数)。
そして、色補間画像261において、
位置[2+4nA,2+4nB]におけるG信号は、(i,j)=((2+4nA)/2,(2+4nB)/2)である時のG1i,jで表され、
位置[3+4nA,3+4nB]におけるG信号は、(i,j)=((4+4nA)/2,(4+4nB)/2)である時のG1i,jで表され、
位置[3.5+4nA,1.5+4nB]におけるG信号は、(i,j)=((4+4nA)/2,(2+4nB)/2)である時のG1i,jで表され、
位置[1.5+4nA,3.5+4nB]におけるG信号は、(i,j)=((2+4nA)/2,(4+4nB)/2)である時のG1i,jで表される。
また、図20(b)及び(c)に示す如く、色補間画像261には、位置[2nA−1,2nB]にB信号が存在する一方で位置[2nA,2nB−1]にR信号が存在する(nA及びnBは整数)。そして、色補間画像261において、位置[2nA−1,2nB]におけるB信号は(i,j)=(nA,nB)である時のB1i,jで表され、位置[2nA,2nB−1]におけるR信号は(i,j)=(nA,nB)である時のR1i,jで表される。
The position where the color signal exists in the color interpolation image 261 is defined more clearly.
As shown in FIG. 20A, the color interpolation image 261 has positions [2 + 4n A , 2 + 4n B ], [3 + 4n A , 3 + 4n B ], [3.5 + 4n A , 1.5 + 4n B ] and [1.5 + 4n A ]. , 3.5 + 4n B ], there is a G signal (n A and n B are integers).
In the color interpolation image 261,
The G signal at the position [2 + 4n A , 2 + 4n B ] is represented by G1 i, j when (i, j) = ((2 + 4n A ) / 2, (2 + 4n B ) / 2),
The G signal at the position [3 + 4n A , 3 + 4n B ] is represented by G1 i, j when (i, j) = ((4 + 4n A ) / 2, (4 + 4n B ) / 2),
The G signal at the position [3.5 + 4n A , 1.5 + 4n B ] is represented by G1 i, j when (i, j) = ((4 + 4n A ) / 2, (2 + 4n B ) / 2),
The G signal at the position [1.5 + 4n A , 3.5 + 4n B ] is represented by G1 i, j when (i, j) = ((2 + 4n A ) / 2, (4 + 4n B ) / 2). .
As shown in FIGS. 20B and 20C, the color interpolation image 261 has a B signal at the position [2n A -1,2n B ] while the position [2n A , 2n B -1]. There are R signals (n A and n B are integers). In the color interpolation image 261, the B signal at the position [2n A -1,2n B ] is represented by B1 i, j when (i, j) = (n A , n B ), and the position [2n The R signal in A , 2n B −1] is represented by R1 i, j when (i, j) = (n A , n B ).

色補間画像262における色信号の存在位置をより明確に定義する。
図21(a)に示す如く、色補間画像262には、位置[4+4nA,4+4nB]、[5+4nA,5+4nB]、[5.5+4nA,3.5+4nB]及び[3.5+4nA,5.5+4nB]に、G信号が存在する(nA及びnBは整数)。
そして、色補間画像262において、
位置[4+4nA,4+4nB]におけるG信号は、(i,j)=((2+4nA)/2,(2+4nB)/2)である時のG2i,jで表され、
位置[5+4nA,5+4nB]におけるG信号は、(i,j)=((4+4nA)/2,(4+4nB)/2)である時のG2i,jで表され、
位置[5.5+4nA,3.5+4nB]におけるG信号は、(i,j)=((4+4nA)/2,(2+4nB)/2)である時のG2i,jで表され、
位置[3.5+4nA,5.5+4nB]におけるG信号は、(i,j)=((2+4nA)/2,(4+4nB)/2)である時のG2i,jで表される。
また、図21(b)及び(c)に示す如く、色補間画像262には、位置[2nA−1,2nB]にB信号が存在する一方で位置[2nA,2nB−1]にR信号が存在する(nA及びnBは整数)。そして、色補間画像262において、位置[2nA+1,2nB+2]におけるB信号は(i,j)=(nA,nB)である時のB2i,jで表され、位置[2nA+2,2nB+1]におけるR信号は(i,j)=(nA,nB)である時のR2i,jで表される。
The position where the color signal exists in the color interpolation image 262 is defined more clearly.
As shown in FIG. 21A, the color interpolation image 262 has positions [4 + 4n A , 4 + 4n B ], [5 + 4n A , 5 + 4n B ], [5.5 + 4n A , 3.5 + 4n B ] and [3.5 + 4n A ]. , 5.5 + 4n B ], there is a G signal (n A and n B are integers).
And in the color interpolation image 262,
The G signal at the position [4 + 4n A , 4 + 4n B ] is represented by G2 i, j when (i, j) = ((2 + 4n A ) / 2, (2 + 4n B ) / 2),
The G signal at the position [5 + 4n A , 5 + 4n B ] is represented by G2 i, j when (i, j) = ((4 + 4n A ) / 2, (4 + 4n B ) / 2),
The G signal at the position [5.5 + 4n A , 3.5 + 4n B ] is represented by G2 i, j when (i, j) = ((4 + 4n A ) / 2, (2 + 4n B ) / 2),
The G signal at the position [3.5 + 4n A , 5.5 + 4n B ] is represented by G2 i, j when (i, j) = ((2 + 4n A ) / 2, (4 + 4n B ) / 2). .
Further, as shown in FIGS. 21B and 21C, in the color interpolation image 262, the B signal is present at the position [2n A -1,2n B ] while the position [2n A , 2n B -1]. There are R signals (n A and n B are integers). In the color interpolation image 262, the B signal at the position [2n A +1, 2n B +2] is represented by B2 i, j when (i, j) = (n A , n B ), and the position [2n The R signal at A +2, 2n B +1] is represented by R2 i, j when (i, j) = (n A , n B ).

[動き検出部]
図10の動き検出部53の機能について説明する。動き検出部53は、上述したように、第(n−1)及び第n番目の色補間画像の画像データに基づいて、両色補間画像間のオプティカルフローを求める。第1実施例では、用いられる加算パターンがフレームごとに複数の加算パターンの間で順次変更されるため、第(n−1)及び第n番目の色補間画像に対応する加算パターンは互いに異なる。例えば、第(n−1)及び第n番目の色補間画像の内、一方は、第1の加算パターンの原画像から生成された色補間画像であり、他方は、第2の加算パターンの原画像から生成された色補間画像である。
[Motion detector]
The function of the motion detection unit 53 in FIG. 10 will be described. As described above, the motion detection unit 53 obtains the optical flow between the two color interpolation images based on the image data of the (n−1) th and nth color interpolation images. In the first embodiment, since the addition pattern to be used is sequentially changed between a plurality of addition patterns for each frame, the addition patterns corresponding to the (n−1) th and nth color interpolation images are different from each other. For example, one of the (n−1) th and nth color interpolation images is a color interpolation image generated from the original image of the first addition pattern, and the other is the original of the second addition pattern. It is a color interpolation image generated from an image.

例として、図20(a)等に示される色補間画像261と図21(a)等に示される色補間画像262との間のオプティカルフローの導出方法を説明する。図22に示す如く、動き検出部53は、まず、色補間画像261のR、G及びB信号から輝度画像261Yを生成し、色補間画像262のR、G及びB信号から輝度画像262Yを生成する。輝度画像は、輝度信号のみを含む濃淡画像である。輝度画像261Y及び262Yの夫々は、輝度信号を有する画素を水平及び垂直方向に等間隔で配置することによって形成される。尚、図22における“Y”は、輝度信号を表している。   As an example, a method of deriving an optical flow between the color interpolation image 261 shown in FIG. 20A and the color interpolation image 262 shown in FIG. As shown in FIG. 22, the motion detection unit 53 first generates a luminance image 261Y from the R, G, and B signals of the color interpolation image 261, and generates a luminance image 262Y from the R, G, and B signals of the color interpolation image 262. To do. The luminance image is a grayscale image including only luminance signals. Each of the luminance images 261Y and 262Y is formed by arranging pixels having luminance signals at equal intervals in the horizontal and vertical directions. Note that “Y” in FIG. 22 represents a luminance signal.

輝度画像261Y上の注目画素の輝度信号は、該注目画素に位置する或いは該注目画素の近傍に位置する、色補間画像261上の、G、R及びB信号から導出される。例えば、輝度画像261Yの、位置[4,4]における輝度信号を生成する場合は、色補間画像261のG信号G12,2、G13,3、G13,2及びG12,3から位置[4,4]のG信号を線形補間によって算出し、色補間画像261のB信号B12,2及びB13,2から位置[4,4]のB信号を線形補間によって算出し、色補間画像261のR信号R12,2及びR12,3から位置[4,4]のR信号を線形補間によって算出する(図20(a)〜(c)参照)。そして、色補間画像261に基づいて算出した、位置[4,4]のG、B及びR信号から、輝度画像261Yにおける位置[4,4]の輝度信号を算出する。算出された輝度信号は、輝度画像261Y上の、位置[4,4]に存在する画素の輝度信号として取り扱われる。 The luminance signal of the pixel of interest on the luminance image 261Y is derived from the G, R, and B signals on the color interpolation image 261 located at or near the pixel of interest. For example, when the luminance signal at the position [4, 4] of the luminance image 261Y is generated, the position is determined from the G signals G1 2,2 , G1 3,3 , G1 3,2 and G1 2,3 of the color interpolation image 261. the G signal of [4,4] is calculated by linear interpolation, the B signal of the position [4,4] of B signals B1 2, 2 and B1 3,2 color interpolated image 261 is calculated by linear interpolation, color interpolation The R signal at the position [4, 4] is calculated from the R signals R1, 2, 2 and R1, 2, 3 of the image 261 by linear interpolation (see FIGS. 20A to 20C). Then, the luminance signal at the position [4, 4] in the luminance image 261Y is calculated from the G, B, and R signals at the position [4, 4] calculated based on the color interpolation image 261. The calculated luminance signal is handled as the luminance signal of the pixel existing at position [4, 4] on the luminance image 261Y.

輝度画像262Yの、位置[4,4]における輝度信号を生成する場合は、色補間画像262のB信号B21,1及びB22,1から位置[4,4]のB信号を線形補間によって算出し、色補間画像262のR信号R21,1及びR21,2から位置[4,4]のR信号を線形補間によって算出する(図21(b)及び(c)参照)。位置[4,4]のG信号として、色補間画像262のG信号G21,1をそのまま利用可能である(図21(a)参照)。そして、G信号G21,1と、色補間画像262に基づいて算出した、位置[4,4]のB及びR信号とから、輝度画像262Yにおける位置[4,4]の輝度信号を算出する。算出された輝度信号は、輝度画像262Y上の、位置[4,4]に存在する画素の輝度信号として取り扱われる。 When the luminance signal at the position [4, 4] of the luminance image 262Y is generated, the B signal at the position [4, 4] from the B signal B2 1,1 and B2 2,1 of the color interpolation image 262 is linearly interpolated. The R signal at the position [4, 4] is calculated by linear interpolation from the R signals R2 1,1 and R2 1,2 of the color interpolation image 262 (see FIGS. 21B and 21C). As G signal of the position [4,4], which is directly available G signal G2 1, 1 of the color-interpolated image 262 (see FIG. 21 (a)). Then, it calculates the G signal G2 1, 1, was calculated on the basis of the color-interpolated image 262, and a B and R signals of position [4,4], the luminance signal of the position [4,4] of the luminance image 262Y . The calculated luminance signal is handled as the luminance signal of the pixel existing at position [4, 4] on the luminance image 262Y.

輝度画像261Y上の、位置[4,4]に存在する画素と、輝度画像262Y上の、位置[4,4]に存在する画素は、互いに対応する画素である。位置[4,4]における輝度信号の算出方法を説明したが、他の位置に対しても同様の方法に従って輝度信号が算出される。これにより、輝度画像261Y上の任意の画素位置[x,y]の輝度信号と、輝度画像262Y上の任意の画素位置[x,y]の輝度信号が算出される。   The pixel existing at the position [4, 4] on the luminance image 261Y and the pixel existing at the position [4, 4] on the luminance image 262Y are mutually corresponding pixels. Although the calculation method of the luminance signal at the position [4, 4] has been described, the luminance signal is calculated according to the same method for other positions. Thereby, the luminance signal at an arbitrary pixel position [x, y] on the luminance image 261Y and the luminance signal at an arbitrary pixel position [x, y] on the luminance image 262Y are calculated.

動き検出部53は、輝度画像261Y及び262Yを生成した後、輝度画像261Yの輝度信号と輝度画像262Yの輝度信号を対比することによって、輝度画像261Y−262Y間におけるオプティカルフローを求める。オプティカルフローの導出方法として、ブロックマッチング法、代表点マッチング法、勾配法などを利用可能である。求めたオプティカルフローは、輝度画像261Y−262Y間における、画像上の被写体(物体)の動きを表す動きベクトルによって表現される。動きベクトルは、その動きの向き及び大きさを示す二次元量である。動き検出部53は、輝度画像261Y−262Y間に対して求めたオプティカルフローを、色補間画像261−262間におけるオプティカルフローとして取り扱って、それを動き検出結果としてメモリ54に記憶させる。   After generating the luminance images 261Y and 262Y, the motion detection unit 53 compares the luminance signal of the luminance image 261Y and the luminance signal of the luminance image 262Y to obtain an optical flow between the luminance images 261Y-262Y. As a method for deriving the optical flow, a block matching method, a representative point matching method, a gradient method, or the like can be used. The obtained optical flow is expressed by a motion vector representing the motion of the subject (object) on the image between the luminance images 261Y-262Y. The motion vector is a two-dimensional quantity indicating the direction and magnitude of the motion. The motion detection unit 53 treats the optical flow obtained for the luminance images 261Y-262Y as an optical flow between the color interpolation images 261-262, and stores it in the memory 54 as a motion detection result.

隣接フレーム間の動き検出結果は、必要な分だけメモリ54に記憶しておく。例えば、第(n−3)及び第(n−2)番目の色補間画像間の動き検出結果と、第(n−2)及び第(n−1)番目の色補間画像間の動き検出結果と、第(n−1)及び第n番目の色補間画像間の動き検出結果とをメモリ54に記憶させておき、それらをメモリ54から読み出して合成すれば、第(n−3)〜第n番目の色補間画像の内の、任意の2枚の色補間画像間のオプティカルフロー(動きベクトル)を求めることができる。   As many motion detection results as possible between adjacent frames are stored in the memory 54. For example, a motion detection result between the (n-3) th and (n-2) th color interpolation images and a motion detection result between the (n-2) th and (n-1) th color interpolation images. And the motion detection result between the (n-1) -th and n-th color-interpolated images are stored in the memory 54, and read out from the memory 54 and synthesized, the (n-3) -th An optical flow (motion vector) between any two color interpolation images in the nth color interpolation image can be obtained.

尚、“輝度画像261Y−262Y間におけるオプティカルフロー(又は動きベクトル)”とは、“輝度画像261Yと輝度画像262Yとの間におけるオプティカルフロー(又は動きベクトル)”を意味する。輝度画像261Y及び262Y以外の複数画像に対して、オプティカルフロー、動きベクトル若しくは動き又はそれらに関連する事項を述べる際も、同様の記載方法を採用する。従って、例えば、“色補間画像261−262間におけるオプティカルフロー”とは、“色補間画像261と色補間画像262との間におけるオプティカルフロー”を指す。   The “optical flow (or motion vector) between the luminance images 261Y-262Y” means “optical flow (or motion vector) between the luminance image 261Y and the luminance image 262Y”. A similar description method is also used when describing optical flows, motion vectors or motions, or matters related thereto for a plurality of images other than the luminance images 261Y and 262Y. Therefore, for example, “optical flow between the color interpolation images 261 to 262” refers to “optical flow between the color interpolation image 261 and the color interpolation image 262”.

[画像合成部]
図10の画像合成部55の機能について説明する。画像合成部55は、色補間処理部51から出力される色補間画像の色信号と、フレームメモリ52に記憶されている1枚以上の他の色補間画像の色信号と、メモリ54に記憶された動き検出結果とに基づいて、出力合成画像を生成する。
[Image composition part]
The function of the image composition unit 55 in FIG. 10 will be described. The image synthesis unit 55 stores the color signal of the color interpolation image output from the color interpolation processing unit 51, the color signal of one or more other color interpolation images stored in the frame memory 52, and the memory 54. An output composite image is generated based on the motion detection result.

出力合成画像は、対応する加算パターンが互いに異なる複数の色補間画像を参照し、参照した複数の色補間画像の内の1つを合成基準画像と捉えた上で、その複数の色補間画像を合成することにより生成される。この際、合成基準画像として用いられる色補間画像に対応する加算パターンが時間によって変化したならば、被写体が実空間上で静止していたとしても、出力合成画像列において該被写体が動いているように見えてしまう。これを回避すべく、一連の出力合成画像列を生成する際、合成基準画像として用いられる色補間画像に対応する加算パターンが常に同じとなるように、フレームメモリ52から読み出す画像データを制御する。尚、合成基準画像として用いられない色補間画像を非合成基準画像と呼ぶ。   The output combined image refers to a plurality of color interpolated images having different corresponding addition patterns, regards one of the plurality of referred color interpolated images as a combined reference image, and then selects the plurality of color interpolated images. Generated by synthesis. At this time, if the addition pattern corresponding to the color interpolation image used as the composite reference image changes with time, even if the subject is stationary in the real space, the subject seems to move in the output composite image sequence. It looks like. In order to avoid this, when generating a series of output composite image sequences, image data read from the frame memory 52 is controlled so that the addition pattern corresponding to the color interpolation image used as the composite reference image is always the same. Note that a color interpolation image that is not used as a synthesis reference image is referred to as a non-synthesis reference image.

今、第1及び第2の加算パターンの原画像が交互に撮影され、合成基準画像が第1の加算パターンの原画像から生成された色補間画像であって且つ非合成基準画像が第2の加算パターンの原画像から生成された色補間画像である場合を想定する。従って、第(n−3)、第(n−2)、第(n−1)及び第n番目の原画像が、夫々、第1、第2、第1及び第2の加算パターンの原画像であったならば、第(n−3)及び第(n−1)番目の原画像に基づく色補間画像が合成基準画像となり、第(n−2)及び第n番目の原画像に基づく色補間画像が非合成基準画像となる。また、第1実施例では、時間的に隣接して得られた2枚の色補間画像間において、画像上の被写体の動きが一切ない場合を想定する。   Now, the original images of the first and second addition patterns are alternately photographed, the composite reference image is a color interpolation image generated from the original image of the first addition pattern, and the non-composite reference image is the second image. It is assumed that the color interpolation image is generated from the original image of the addition pattern. Therefore, the (n-3) th, (n-2), (n-1), and nth original images are the original images of the first, second, first, and second addition patterns, respectively. If so, the color-interpolated image based on the (n-3) th and (n-1) th original images becomes the synthesis reference image, and the color based on the (n-2) th and nth original images. The interpolated image becomes a non-synthesized reference image. In the first embodiment, it is assumed that there is no movement of the subject on the image between two color-interpolated images obtained adjacent in time.

この想定の下、図23(a)〜(c)、図24(a)及び(b)、図25(a)〜(c)を参照しつつ、図20(a)等に示される色補間画像261と図21(a)等に示される色補間画像262とから1枚の出力合成画像270を生成する処理を説明する。図23(a)〜(c)は、出力合成画像270上のG、B及びR信号を生成するための、色補間画像261及び262上のG、B及びR信号を示す図であり、図25(a)〜(c)は、出力合成画像270のG、B及びR信号の存在位置を示す図である。図24(a)及び(b)は、出力合成画像270上のB及びR信号を生成するための、色補間画像261及び262上のB及びR信号を示す、他の図である。   Under this assumption, color interpolation shown in FIG. 20A and the like with reference to FIGS. 23A to 23C, FIGS. 24A and 24B, and FIGS. 25A to 25C. A process of generating one output composite image 270 from the image 261 and the color interpolation image 262 shown in FIG. 23A to 23C are diagrams showing the G, B, and R signals on the color interpolation images 261 and 262 for generating the G, B, and R signals on the output composite image 270. 25 (a) to 25 (c) are diagrams illustrating the positions where the G, B, and R signals of the output composite image 270 exist. FIGS. 24A and 24B are other diagrams showing the B and R signals on the color interpolation images 261 and 262 for generating the B and R signals on the output composite image 270. FIG.

図25(a)〜(c)に示す如く、出力合成画像270は、水平及び垂直方向に均等な間隔で画素(画素位置)が配列された二次元画像であり、出力合成画像270の各画素が配置される各画素位置にはG、B及びR信号が存在する。つまり、原画像や色補間画像と異なり、出力合成画像270において、1つの画素が配置される1つの画素位置に対して、G、B及びR信号が1つずつ割り当てられる。図25(a)〜(c)に示す如く、画像座標面XY上(図4(b)参照)における位置[2i−0.5,2j−0.5]に、出力合成画像270上の画素の中心位置が配置される(i及びjは整数)。そして、位置[2i−0.5,2j−0.5]における、出力合成画像270のG信号、B信号及びR信号を、夫々、Goi,j、Boi,j及びRoi,jにて表す。尚、Goi,jを、G信号の値を表す記号として用いることもある(Boi,j及びRoi,jに対しても同様)。 As shown in FIGS. 25A to 25C, the output composite image 270 is a two-dimensional image in which pixels (pixel positions) are arranged at equal intervals in the horizontal and vertical directions, and each pixel of the output composite image 270. There are G, B, and R signals at each pixel position where. That is, unlike the original image and the color interpolation image, one G, B, and R signal is assigned to one pixel position where one pixel is arranged in the output composite image 270. As shown in FIGS. 25A to 25C, a pixel on the output composite image 270 is positioned at a position [2i−0.5, 2j−0.5] on the image coordinate plane XY (see FIG. 4B). Are arranged (i and j are integers). Then, the G signal, the B signal, and the R signal of the output composite image 270 at the position [2i-0.5, 2j-0.5] are converted into Go i, j , Bo i, j and Ro i, j , respectively. Represent. Note that Go i, j may be used as a symbol representing the value of the G signal (the same applies to Bo i, j and Ro i, j ).

出力合成画像の注目画素の色信号Goi,j、Boi,j及びRoi,jにおけるi及びjは、出力合成画像の注目画素の水平画素番号及び垂直画素番号を示している。 I and j in the color signals Go i, j , Bo i, j and Ro i, j of the target pixel of the output composite image indicate the horizontal pixel number and the vertical pixel number of the target pixel of the output composite image.

図20(a)及び図21(a)等を参照して説明したように、色補間画像261と色補間画像262との間において、対応する加算パターンが異なることに由来して、G信号の存在位置が相違し、且つ、B信号の存在位置が相違し、且つ、R信号の存在位置が相違する。画像合成部55は、これらの相違に基づいて、色補間画像261のG、B及びR信号と色補間画像262のG、B及びR信号を混合することにより出力合成画像270のG、B及びR信号を生成する。   As described with reference to FIG. 20A, FIG. 21A, etc., the corresponding addition pattern is different between the color interpolation image 261 and the color interpolation image 262. The existence position is different, the existence position of the B signal is different, and the existence position of the R signal is different. Based on these differences, the image composition unit 55 mixes the G, B, and R signals of the color interpolation image 261 and the G, B, and R signals of the color interpolation image 262 to mix the G, B, and R signals of the output composite image 270. An R signal is generated.

具体的には、下記式(B1)〜(B3)に従って、色補間画像261のG、B及びR信号値と色補間画像262のG、B及びR信号値を加重加算することにより、出力合成画像270のG、B及びR信号値Goi,j、Boi,j及びRoi,jを算出する。 Specifically, according to the following formulas (B1) to (B3), output synthesis is performed by weighted addition of the G, B, and R signal values of the color interpolation image 261 and the G, B, and R signal values of the color interpolation image 262. The G, B and R signal values Go i, j , Bo i, j and Ro i, j of the image 270 are calculated.

Figure 2009290344
Figure 2009290344

式(B2)及び(B3)の代わりに、図24(a)及び(b)に対応する式(B4)及び(B5)を用いて、B及びR信号値Boi,j及びRoi,jを算出するようにしてもよい。 Instead of equations (B2) and (B3), using equations (B4) and (B5) corresponding to FIGS. 24 (a) and (b), B and R signal values Bo i, j and Ro i, j May be calculated.

Figure 2009290344
Figure 2009290344

具体例として図23(a)〜(c)及び図24(a)及び(b)に、位置[5.5,5.5]に存在する色信号Go3,3、Bo3,3及びRo3,3が生成される様子を示している。図23(a)〜(c)及び図24(a)及び(b)において、色信号Go3,3、Bo3,3及びRo3,3が存在すべき位置に星印を示している。
G信号Go3,3は、図23(a)に示す如く、位置[6,6]に存在するG信号G13,3と位置[5,5]に存在するG信号G22,2とを混合することによって生成される。
B信号Bo3,3は、図23(b)に示す如く、位置[5,6]に存在するB信号B13,3と位置[7,4]に存在するB信号B23,1とを混合することによって生成される、或いは、図24(a)に示す如く、位置[7,4]に存在するB信号B14,2と位置[5,6]に存在するB信号B22,2とを混合することによって生成される。
R信号Ro3,3は、図23(c)に示す如く、位置[6,5]に存在するR信号R13,3と位置[4,7]に存在するR信号R21,3とを混合することによって生成される、或いは、図24(b)に示す如く、位置[4,7]に存在するR信号R12,4と位置[6,5]に存在するR信号R22,2とを混合することによって生成される。
As a specific example, in FIGS. 23A to 23C and FIGS. 24A and 24B, the color signals Go 3,3 , Bo 3,3 and Ro existing at the position [5.5, 5.5] are shown. 3 and 3 are generated. In FIGS. 23A to 23C and FIGS. 24A and 24B, asterisks are shown at positions where the color signals Go 3,3 , Bo 3,3 and Ro 3,3 should be present.
G signal Go 3,3, as shown in FIG. 23 (a), and a G signal G2 2, 2 at the position [5,5] and the G signal G1 3,3 at the position [6,6] Produced by mixing.
B signal Bo 3,3, as shown in FIG. 23 (b), and a B signal B2 3, 1 at the position [7,4] and the B signal B1 3,3 at the position [5,6] As shown in FIG. 24A, the B signal B1 4,2 existing at the position [7,4] and the B signal B2 2,2 existing at the position [5,6] are generated. And are mixed together.
As shown in FIG. 23 (c), the R signal Ro 3,3 is obtained by combining the R signal R1 3,3 existing at the position [6,5] and the R signal R2 1,3 existing at the position [4,7]. The R signal R1 2,4 generated at the position [4,7] and the R signal R2 2,2 present at the position [6,5] as shown in FIG. And are mixed together.

G13,3とG22,2の混合によってGo3,3を算出する際の混合比率、
B13,3とB23,1の混合によってBo3,3を算出する際の混合比率、
B14,2とB22,2の混合によってBo3,3を算出する際の混合比率、
R13,3とR21,3の混合によってRo3,3を算出する際の混合比率、及び、
R12,4とR22,2の混合によってRo3,3を算出する際の混合比率は、上記式(A1)を参照して説明した、VG1とVG2の混合によってVGTを算出する際の混合比率と同様である(図11(a)も参照)。
Mixing ratio when calculating Go 3,3 by mixing G1 3,3 and G2 2,2
Mixing ratio when calculating Bo 3,3 by mixing B1 3,3 and B2 3,1
Mixing ratio when calculating Bo 3,3 by mixing B1 4,2 and B2 2,2
Mixing ratio when calculating Ro 3,3 by mixing R1 3,3 and R2 1,3 , and
As for the mixing ratio when calculating Ro 3,3 by mixing R1 2,4 and R2 2,2 , V GT is calculated by mixing V G1 and V G2 described with reference to the above formula (A1). This is the same as the mixing ratio at that time (see also FIG. 11A).

例えば、B13,3とB23,1の混合によって位置[5.5,5.5]に存在する信号Bo3,3を生成する場合は、信号B13,3が存在する位置[5,6]と位置[5.5,5.5]との距離d1と、信号B23,1が存在する位置[7,4]と位置[5.5,5.5]との距離d2との比が、d1:d2=1:3であるので、式(B2)に示す如く、3:1の比率にてB13,3とB23,1を混合する。つまり、位置[5.5,5.5]における信号値は、位置[5,6]及び[7,4]における信号値を基礎とする線形補間によって求められる。 For example, when the signal Bo 3,3 existing at the position [5.5, 5.5] is generated by mixing B1 3,3 and B2 3,1, the position [5,5 at which the signal B1 3,3 exists is generated. 6] and position [a distance d 1 between 5.5, 5.5], the distance between the position where the signal B2 3, 1 is present [7,4] and position [5.5, 5.5] d 2 Since d 1 : d 2 = 1: 3, B1 3,3 and B2 3,1 are mixed at a ratio of 3: 1 as shown in the formula (B2). That is, the signal values at the positions [5.5, 5.5] are obtained by linear interpolation based on the signal values at the positions [5, 6] and [7, 4].

色信号Go3,3、Bo3,3及びRo3,3の算出方法と同様にして、他の位置の色信号Goi,j、Boi,j及びRoi,jも求めることにより、図25(a)〜(c)に示すような、出力合成画像270の各画素位置におけるG、B及びR信号が求まる。 Similar to the calculation method of the color signals Go 3,3 , Bo 3,3 and Ro 3,3 , the color signals Go i, j , Bo i, j and Ro i, j at other positions are also obtained. G, B, and R signals at each pixel position of the output composite image 270 as shown in 25 (a) to (c) are obtained.

上述のような出力合成画像の生成手法に基づく効果について考察する。仮に、原画像が全画素読み出し方式によって得られたものであるならば、図6(a)等を参照して説明したように、注目画素の画素信号を補間によって求める際には、注目画素の周辺画素の画素信号を等比率にて(同じ割合にて)混合すればよく、その混合によって、画素信号が本来存在すべき位置に補間画素信号が生成される。ここにおいて“画素信号が本来存在すべき位置”とは、i及びjが整数となる位置[i,j]を指す。   The effect based on the above-described output composite image generation method will be considered. If the original image is obtained by the all-pixel readout method, as described with reference to FIG. 6A and the like, when obtaining the pixel signal of the target pixel by interpolation, The pixel signals of the peripheral pixels may be mixed at an equal ratio (at the same ratio), and the interpolated pixel signal is generated at the position where the pixel signal should originally exist by the mixing. Here, the “position where the pixel signal should originally exist” refers to a position [i, j] where i and j are integers.

但し、第1実施例において、AFE12から色補間処理部51に与えられる原画像は、第1、第2、第3又は第4加算パターンによる原画像である。この場合において、全画素読み出し方式を用いた場合と同様の等比率混合を行えば、画素信号が本来存在すべき位置と異なる位置(例えば、図12(a)の補間画素位置301又は302)に補間画素信号が生成されると共に、混合によって生成される色補間画像上においてG信号が存在する画素の間隔が不均等となる(図20(a)参照)。加えて、1枚の色補間画像上において、色信号の存在位置が、G、B及びR信号間で互いに異なってくる(図20(a)〜(c)参照)。   However, in the first embodiment, the original image given from the AFE 12 to the color interpolation processing unit 51 is an original image based on the first, second, third, or fourth addition pattern. In this case, if the same ratio mixing is performed as in the case of using the all-pixel readout method, the pixel signal is located at a position different from the position where the pixel signal should originally exist (for example, the interpolation pixel position 301 or 302 in FIG. 12A). Interpolation pixel signals are generated, and the intervals of pixels in which G signals are present on the color interpolation image generated by mixing are not uniform (see FIG. 20A). In addition, on one color interpolation image, the existence positions of the color signals are different among the G, B, and R signals (see FIGS. 20A to 20C).

図54に対応する従来手法では、このような不均等を回避すべく、一旦、画素間隔が均等になるように補間処理(図54のブロック902及び903参照)を実行してからデモザイキング処理を実行している。この画素間隔を均等化する補間処理を実行すると、必然的に解像感が劣化する(実質的な解像度が劣化する)。一方において、本発明に係る第1実施例では、この不均等性を積極的に利用し、色信号の存在位置が不均等となっている複数の色補間画像を利用して出力合成画像を生成する。色補間画像では色信号の存在位置が不均等であるものの、出力合成画像における画素間隔は均等であるため、従来手法における出力画像(図54のブロック905参照)と同様、ジャギーや偽色は抑制される。加えて、本発明に係る第1実施例では、画素間隔を均等化する補間処理(図54のブロック902及び903参照)を行わない分、解像感の劣化が抑制される。即ち、図54に対応する従来手法と比べて、解像感の向上が図られる。   In the conventional method corresponding to FIG. 54, in order to avoid such non-uniformity, the interpolation process (see blocks 902 and 903 in FIG. 54) is once performed so that the pixel intervals are equalized, and then the demosaicing process is performed. Running. When the interpolation process for equalizing the pixel intervals is executed, the sense of resolution inevitably deteriorates (substantial resolution deteriorates). On the other hand, in the first embodiment according to the present invention, this non-uniformity is positively used, and an output composite image is generated using a plurality of color-interpolated images where the positions of the color signals are non-uniform. To do. In the color interpolation image, although the position of the color signal is not uniform, the pixel interval in the output composite image is uniform, so that jaggies and false colors are suppressed as in the conventional output image (see block 905 in FIG. 54). Is done. In addition, in the first embodiment according to the present invention, since the interpolation process for equalizing the pixel interval (see blocks 902 and 903 in FIG. 54) is not performed, deterioration in resolution is suppressed. That is, the resolution can be improved as compared with the conventional method corresponding to FIG.

尚、第1及び第2の加算パターンの原画像に基づく2枚の色補間画像を合成することによって出力合成画像を生成する方法を上述したが、1枚の出力合成画像を生成するための色補間画像の枚数は3以上であってもよい(これは、後述する他の実施例についても当てはまる)。例えば、第1〜第4の加算パターンの原画像に基づく4枚の色補間画像から1枚の出力合成画像を生成するようにしてもよい。但し、1枚の出力合成画像を生成するための複数の色補間画像間において、対応する加算パターンは異なる(これは、後述する他の実施例についても当てはまる)。   The method for generating an output composite image by combining two color-interpolated images based on the original images of the first and second addition patterns has been described above. The color for generating one output composite image The number of interpolated images may be 3 or more (this applies to other embodiments described later). For example, one output composite image may be generated from four color interpolation images based on the original images of the first to fourth addition patterns. However, the corresponding addition pattern is different between a plurality of color interpolation images for generating one output composite image (this applies to other embodiments described later).

<<第2実施例>>
次に、第2実施例について説明する。第1実施例では、時間的に隣接して得られた2枚の色補間画像間において、画像上の被写体の動きが一切ない場合を想定したが、第2実施例では、その動きを考慮した画像合成部55の構成及び動作を説明する。図26は、第2実施例に係る、図1の撮像装置1の一部ブロック図であり、図26には、図1の映像信号処理部13として用いられる映像信号処理部13aの内部ブロック図が示されていると共に、画像合成部55の内部ブロック図が示されている。
<< Second Example >>
Next, a second embodiment will be described. In the first embodiment, it is assumed that there is no movement of the subject on the image between two color-interpolated images obtained adjacent in time. In the second embodiment, the movement is taken into consideration. The configuration and operation of the image composition unit 55 will be described. FIG. 26 is a partial block diagram of the imaging apparatus 1 of FIG. 1 according to the second embodiment. FIG. 26 is an internal block diagram of the video signal processing unit 13a used as the video signal processing unit 13 of FIG. And an internal block diagram of the image composition unit 55 is shown.

図26の画像合成部55は、重み係数算出部61及び合成処理部62を備える。重み係数算出部61及び合成処理部62を除く映像信号処理部13a内の構成及び動作は、第1実施例で述べたものと同じであるため、以下、重み係数算出部61及び合成処理部62の動作について説明する。第1実施例で述べた事項は、矛盾無き限り、第2実施例にも適用される。   The image composition unit 55 in FIG. 26 includes a weight coefficient calculation unit 61 and a composition processing unit 62. Since the configuration and operation in the video signal processing unit 13a excluding the weighting factor calculation unit 61 and the synthesis processing unit 62 are the same as those described in the first embodiment, hereinafter, the weighting factor calculation unit 61 and the synthesis processing unit 62 will be described. Will be described. The matters described in the first embodiment are applied to the second embodiment as long as there is no contradiction.

今、第1実施例における想定と同様、第1及び第2の加算パターンの原画像が交互に撮影され、合成基準画像が第1の加算パターンの原画像から生成された色補間画像であって且つ非合成基準画像が第2の加算パターンの原画像から生成された色補間画像である場合を想定する。但し、第2実施例では、時間的に隣接して得られた2枚の色補間画像間において、画像上の被写体の位置は移動しうる。この想定の下、図20(a)等に示される色補間画像261と図21(a)等に示される色補間画像262とから1枚の出力合成画像270を生成する処理を説明する。   As in the assumption in the first embodiment, the original images of the first and second addition patterns are alternately photographed, and the composite reference image is a color interpolation image generated from the original image of the first addition pattern. Further, it is assumed that the non-synthesis reference image is a color interpolation image generated from the original image of the second addition pattern. However, in the second embodiment, the position of the subject on the image can move between two color-interpolated images obtained adjacent in time. Under this assumption, a process of generating one output composite image 270 from the color interpolation image 261 shown in FIG. 20A and the color interpolation image 262 shown in FIG.

重み係数算出部61は、色補間画像261−262間に対して求められた動きベクトルをメモリ54から読み出し、その動きベクトルの大きさ|M|に基づいて、重み係数wを算出する。この際、大きさ|M|が増大するに従って重み係数wが小さくなるように重み係数wを算出する。但し、重み係数w(及び後述のwi,j)の上限値及び下限値は夫々0.5及び0である。 The weighting factor calculation unit 61 reads the motion vector obtained for the color interpolation images 261 to 262 from the memory 54, and calculates the weighting factor w based on the magnitude | M | of the motion vector. At this time, the weighting factor w is calculated so that the weighting factor w decreases as the magnitude | M | increases. However, the upper limit value and the lower limit value of the weight coefficient w (and w i, j described later) are 0.5 and 0, respectively.

図27は、重み係数wと大きさ|M|との関係例を示す図である。この関係例を採用する場合、式“w=−K・|M|+0.5”に従って重み係数wが算出される。但し、|M|>0.5/Kの範囲内では、w=0である。また、Kは、所定の正の値を有する、|M|とwとの関係式における傾きである。   FIG. 27 is a diagram illustrating a relationship example between the weighting coefficient w and the magnitude | M |. When this relationship example is employed, the weighting coefficient w is calculated according to the equation “w = −K · | M | +0.5”. However, w = 0 within the range of | M |> 0.5 / K. K is a slope in a relational expression between | M | and w having a predetermined positive value.

動き検出部53により色補間画像261−262間に対して求められたオプティカルフローは、画像座標面XY上の様々な位置における動きベクトルの束によって形成される。例えば、色補間画像261及び262の夫々の全体画像領域が複数の一部画像領域に分割され、1つの一部画像領域に対して1つの動きベクトルが求められる。今、図28(a)に示す如く、色補間画像261又は262である画像260の全体画像領域が9つの一部画像領域AR1〜AR9に分割され、一部画像領域AR1〜AR9の夫々に対して1つの動きベクトルが求められた場合を想定する。勿論、一部画像領域の個数を9以外にすることも可能である。図28(b)に示す如く、一部画像領域AR1〜AR9に対して求められた、色補間画像261−262間の動きベクトルを、それぞれ符号M1〜M9によって表す。動きベクトルM1〜M9の大きさは、夫々、|M1|〜|M9|によって表される。 The optical flow obtained between the color interpolation images 261 to 262 by the motion detection unit 53 is formed by a bundle of motion vectors at various positions on the image coordinate plane XY. For example, the entire image area of each of the color interpolation images 261 and 262 is divided into a plurality of partial image areas, and one motion vector is obtained for one partial image area. Now, as shown in FIG. 28 (a), the whole image area of the image 260 is a color-interpolated image 261 or 262 is divided into nine partial image regions AR 1 to Ar 9, some image areas AR 1 to Ar 9 Assume that one motion vector is obtained for each of the above. Of course, the number of partial image areas can be other than nine. As shown in FIG. 28 (b), were determined for partial image regions AR 1 to Ar 9, the motion vector between the color interpolated images 261-262, respectively represented by the numeral M 1 ~M 9. The magnitude of the motion vectors M 1 ~M 9, respectively, | M 1 | ~ | represented by | M 9.

重み係数算出部61は、動きベクトルM1〜M9の大きさ|M1|〜|M9|に基づいて、画像座標面XY上の様々な位置における重み係数wを算出する。水平画素番号及び垂直画素番号が夫々i及びjである場合の重み係数wをwi,jにて表す。重み係数wi,jは、色信号Goi,j、Boi,j及びRoi,jを有する画素(画素位置)に対する重み係数であり、その画素の属する一部画像領域についての動きベクトルから算出される。従って例えば、G信号Go1,1が存在する画素位置[1.5,1.5]が一部画像領域AR1に属するのであれば、大きさ|M1|に基づき、式“w1,1=−K・|M1|+0.5”に従って重み係数w1,1が算出され(但し、|M1|>0.5/Kの範囲内では、w1,1=0)、G信号Go1,1が存在する画素位置[1.5,1.5]が一部画像領域AR2に属するのであれば、大きさ|M2|に基づき、式“w1,1=−K・|M2|+0.5”に従って重み係数w1,1が算出される(但し、|M2|>0.5/Kの範囲内では、w1,1=0)。 The weighting factor calculation unit 61 calculates weighting factors w at various positions on the image coordinate plane XY based on the magnitudes | M 1 | to | M 9 | of the motion vectors M 1 to M 9 . The weighting coefficient w when the horizontal pixel number and the vertical pixel number are i and j, respectively, is represented by w i, j . The weight coefficient w i, j is a weight coefficient for a pixel (pixel position) having the color signals Go i, j , Bo i, j and Ro i, j , and is based on a motion vector for a partial image region to which the pixel belongs. Calculated. Therefore, for example, if the pixel position [1.5, 1.5] where the G signal Go 1,1 exists belongs to a part of the image area AR 1 , the expression “w 1,1 is based on the size | M 1 | . 1 = −K · | M 1 | +0.5 ”, the weighting factor w 1,1 is calculated (where w 1,1 = 0 within the range of | M 1 |> 0.5 / K), G If the pixel position [1.5, 1.5] where the signal Go 1,1 exists belongs to the partial image area AR 2 , the expression “w 1,1 = −K based on the size | M 2 |. The weighting factor w 1,1 is calculated according to | M 2 | +0.5 ”(where w 1,1 = 0 within the range of | M 2 |> 0.5 / K).

合成処理部62は、現時点において色補間処理部51から出力されている現フレームについての色補間画像のG、B及びR信号と、フレームメモリ52に記憶されている前フレームについての色補間画像のG、B及びR信号とを、重み係数算出部61にて算出された重み係数wi,jに応じた比率にて混合することにより、現フレームについての出力合成画像270を生成する。 The composition processing unit 62 outputs the G, B, and R signals of the color interpolation image for the current frame currently output from the color interpolation processing unit 51 and the color interpolation image for the previous frame stored in the frame memory 52. The G, B, and R signals are mixed at a ratio corresponding to the weighting factor w i, j calculated by the weighting factor calculation unit 61, thereby generating an output composite image 270 for the current frame.

図29(a)に示す如く、現フレームについての色補間画像が図20(a)等に対応する色補間画像261であって且つ前フレームについての色補間画像が図21(a)等に対応する色補間画像262である場合、合成処理部62は、下記式(C1)〜(C3)に従って、色補間画像261のG、B及びR信号値と色補間画像262のG、B及びR信号値を加重加算することにより、出力合成画像270のG、B及びR信号値Goi,j、Boi,j及びRoi,jを算出する。式(C2)及び(C3)の代わりに、式(C4)及び(C5)を用いて、B及びR信号値Boi,j及びRoi,jを算出するようにしてもよい。 As shown in FIG. 29 (a), the color interpolation image for the current frame is the color interpolation image 261 corresponding to FIG. 20 (a) and the color interpolation image for the previous frame corresponds to FIG. 21 (a) and the like. In the case of the color interpolation image 262 to be processed, the composition processing unit 62 performs the G, B, and R signal values of the color interpolation image 261 and the G, B, and R signals of the color interpolation image 262 according to the following equations (C1) to (C3). The G, B and R signal values Go i, j , Bo i, j and Ro i, j of the output composite image 270 are calculated by weighted addition of the values. B and R signal values Bo i, j and Ro i, j may be calculated using equations (C4) and (C5) instead of equations (C2) and (C3).

Figure 2009290344
Figure 2009290344
Figure 2009290344
Figure 2009290344

一方、図29(b)に示す如く、現フレームについての色補間画像が図21(a)等に対応する色補間画像262であって且つ前フレームについての色補間画像が図20(a)等に対応する色補間画像261である場合、合成処理部62は、下記式(D1)〜(D3)に従って、色補間画像261のG、B及びR信号値と色補間画像262のG、B及びR信号値を加重加算することにより、出力合成画像270のG、B及びR信号値Goi,j、Boi,j及びRoi,jを算出する。式(D2)及び(D3)の代わりに、式(D4)及び(D5)を用いて、B及びR信号値Boi,j及びRoi,jを算出するようにしてもよい。 On the other hand, as shown in FIG. 29B, the color interpolation image for the current frame is the color interpolation image 262 corresponding to FIG. 21A and the color interpolation image for the previous frame is FIG. In the case of the color interpolation image 261 corresponding to the color interpolation image 261, the composition processing unit 62 performs G, B, and R signal values of the color interpolation image 261 and G, B, and By weighting and adding the R signal values, the G and B and R signal values Go i, j , Bo i, j and Ro i, j of the output composite image 270 are calculated. B and R signal values Bo i, j and Ro i, j may be calculated using equations (D4) and (D5) instead of equations (D2) and (D3).

Figure 2009290344
Figure 2009290344
Figure 2009290344
Figure 2009290344

現フレームについての色補間画像と前フレームについての色補間画像との合成によって出力合成画像を生成する際、両色補間画像間における被写体の動きが比較的大きいと、出力合成画像において、輪郭部がぼやけてしまう、或いは、二重像が表れるおそれがある。そこで、上述の如く、両色補間画像間における動きベクトルの大きさが比較的大きいならば、出力合成画像に対する前フレームの寄与率を低下させる。これにより、出力合成画像においる輪郭部のぼけや二重像の発生が抑制される。   When an output composite image is generated by combining the color interpolation image for the current frame and the color interpolation image for the previous frame, if the movement of the subject between the two color interpolation images is relatively large, the contour portion in the output composite image The image may be blurred or a double image may appear. Therefore, as described above, if the magnitude of the motion vector between the two-color interpolated images is relatively large, the contribution ratio of the previous frame to the output composite image is reduced. As a result, blurring of the outline portion and double image generation in the output composite image are suppressed.

尚、上述の例では、画像座標面XY上の様々な位置における重み係数wi,jを設定するようにしているが、2枚の色補間画像を合成する際に設定される重み係数の個数を1つとし、その1つの重み係数を全体画像領域に対して共通使用するようにしてもよい。例えば、動きベクトルM1〜M9を平均化することによって、色補間画像261−262間の、被写体の平均的な動きを表す平均動きベクトルMAVEを求め、平均動きベクトルMAVEの大きさ|MAVE|を用いて、式“w=−K・|MAVE|+0.5”に従って1つの重み係数wを算出する(但し、|MAVE|>0.5/Kの範囲内ではw=0)。そして、|MAVE|を用いて算出した重み係数wを上記式(C1)〜(C5)及び式(D1)〜(D5)の重み係数wi,jに代入して得られる各式に従って、信号値Goi,j、Boi,j及びRoi,jを求めるようにしてもよい。 In the above example, the weighting factors w i, j at various positions on the image coordinate plane XY are set. However, the number of weighting factors set when two color interpolation images are combined. , And one weight coefficient may be commonly used for the entire image area. For example, by averaging the motion vectors M 1 to M 9 , an average motion vector M AVE representing the average motion of the subject between the color interpolation images 261 to 262 is obtained, and the magnitude of the average motion vector M AVE | Using M AVE |, one weighting factor w is calculated according to the equation “w = −K · | M AVE | +0.5” (provided that w = −K · in the range of | M AVE |> 0.5 / K). 0). Then, according to each formula obtained by substituting the weighting factor w calculated using | M AVE | into the weighting factors w i, j of the above formulas (C1) to (C5) and formulas (D1) to (D5), The signal values Go i, j , Bo i, j and Ro i, j may be obtained.

<<第3実施例>>
次に、第3実施例について説明する。第3実施例では、異なる色補間画像間における被写体の動きに加えて画像のコントラストをも考慮する。図30は、第3実施例に係る、図1の撮像装置1の一部ブロック図である。図30には、図1の映像信号処理部13として用いられる映像信号処理部13bの内部ブロック図が示されている。
<< Third Example >>
Next, a third embodiment will be described. In the third embodiment, image contrast is taken into consideration in addition to subject movement between different color-interpolated images. FIG. 30 is a partial block diagram of the image pickup apparatus 1 of FIG. 1 according to the third embodiment. FIG. 30 shows an internal block diagram of the video signal processing unit 13b used as the video signal processing unit 13 of FIG.

映像信号処理部13bは、符号51〜54、55b及び56によって参照される各部位を備え、その内、符号51〜54及び56によって参照される各部位は、図10に示すそれらと同じものである。図30の画像合成部55bは、コントラスト算出部70、重み係数算出部71及び合成処理部72を備える。画像合成部55bを除く映像信号処理部13b内の構成及び動作は、第1又は第2実施例で述べた、映像信号処理部13a内のそれらと同じであるため、以下、画像合成部55bの構成及び動作について説明する。第1及び第2実施例で述べた事項は、矛盾無き限り、第3実施例にも適用される。   The video signal processing unit 13b includes parts referred to by reference numerals 51 to 54, 55b and 56, and among these parts, reference parts 51 to 54 and 56 are the same as those shown in FIG. is there. 30 includes a contrast calculation unit 70, a weight coefficient calculation unit 71, and a synthesis processing unit 72. The configuration and operation in the video signal processing unit 13b excluding the image synthesis unit 55b are the same as those in the video signal processing unit 13a described in the first or second embodiment. The configuration and operation will be described. The matters described in the first and second embodiments also apply to the third embodiment as long as there is no contradiction.

今、第1又は第2実施例における想定と同様、第1及び第2の加算パターンの原画像が交互に撮影され、合成基準画像が第1の加算パターンの原画像から生成された色補間画像であって且つ非合成基準画像が第2の加算パターンの原画像から生成された色補間画像である場合を想定する。但し、第3実施例では、第2実施例と同様、時間的に隣接して得られた2枚の色補間画像間において、画像上の被写体の位置は移動しうる。この想定の下、図20(a)等に示される色補間画像261と図21(a)等に示される色補間画像262とから1枚の出力合成画像270を生成する処理を説明する。   As in the assumption in the first or second embodiment, the color interpolation image in which the original images of the first and second addition patterns are alternately photographed and the synthesized reference image is generated from the original image of the first addition pattern. Further, it is assumed that the non-synthesis reference image is a color interpolation image generated from the original image of the second addition pattern. However, in the third embodiment, as in the second embodiment, the position of the subject on the image can move between two color-interpolated images obtained adjacent in time. Under this assumption, a process of generating one output composite image 270 from the color interpolation image 261 shown in FIG. 20A and the color interpolation image 262 shown in FIG.

コントラスト算出部70は、現時点において色補間処理部51から出力されている現フレームについての色補間画像のG、B及びR信号と、フレームメモリ52に記憶されている前フレームについての色補間画像のG、B及びR信号とを入力信号として受け、その入力信号に基づいて、現フレーム又は前フレームの様々な画像領域におけるコントラスト量を算出する。今、図28(a)に示す如く、色補間画像261又は262である画像260の全体画像領域が9つの一部画像領域AR1〜AR9に分割され、一部画像領域AR1〜AR9の夫々におけるコントラスト量が算出されるものとする。勿論、一部画像領域の個数は9以外であってもよい。一部画像領域AR1〜AR9に対して求められたコントラスト量を、夫々、C1〜C9にて表す。 The contrast calculation unit 70 outputs the G, B, and R signals of the color interpolation image for the current frame currently output from the color interpolation processing unit 51 and the color interpolation image for the previous frame stored in the frame memory 52. G, B, and R signals are received as input signals, and the contrast amounts in various image regions of the current frame or the previous frame are calculated based on the input signals. Now, as shown in FIG. 28A, the entire image area of the image 260 which is the color interpolation image 261 or 262 is divided into nine partial image areas AR 1 to AR 9 , and the partial image areas AR 1 to AR 9. It is assumed that the contrast amount in each of the above is calculated. Of course, the number of partial image areas may be other than nine. The contrast amounts obtained for the partial image areas AR 1 to AR 9 are represented by C 1 to C 9, respectively.

図20(a)等に示される色補間画像261と図21(a)等に示される色補間画像262との合成に用いられるコントラスト量Cmは、以下のように算出される(mは、1≦m≦9を満たす整数)。
例えば、色補間画像261又は262の色信号から生成された輝度画像261Y又は262Y(図22参照)に注目し、輝度画像261Yの一部画像領域ARmにおける最小輝度値と最大輝度値との差、又は、輝度画像262Yの一部画像領域ARmにおける最小輝度値と最大輝度値との差を求め、求めた差をコントラスト量Cmとして取り扱う。或いは、それら差の平均値をコントラスト量Cmとして算出する。
また例えば、輝度画像261Y又は262Yの一部画像領域ARmにおける所定の高域周波数成分をハイパスフィルタによって抽出することによってコントラスト量Cmを求めても良い。より具体的に、例えば、ハイパスフィルタを所定のフィルタサイズを有するラプラシアンフィルタにて形成し、そのラプラシアンフィルタを輝度画像261Y又は262Yの一部画像領域ARmの各画素に作用させる空間フィルタリングを行う。そうすると、ハイパスフィルタからは、そのラプラシアンフィルタのフィルタ特性に応じた出力値が順次得られる。このハイパスフィルタの出力値の絶対値(ハイパスフィルタによって抽出された高域周波数成分の大きさ)を積算し、積算値をコントラスト量Cmとして求めるようにしてもよい。輝度画像261Yの一部画像領域ARmに対して算出した積算値と、輝度画像262Yの一部画像領域ARmに対して算出した積算値との平均値を、コントラスト量Cmとして取り扱うことも可能である。
上述の如くして求められたコントラスト量Cmは、対応する画像領域内の画像のコントラストが大きいほど大きな値をとり、それが小さいほど小さな値をとる。
The contrast amount C m used for the synthesis of the color interpolation image 261 shown in FIG. 20A and the color interpolation image 262 shown in FIG. 21A and the like is calculated as follows (m is Integer satisfying 1 ≦ m ≦ 9).
For example, paying attention to the luminance image 261Y or 262Y (see FIG. 22) generated from the color signal of the color interpolation image 261 or 262, the difference between the minimum luminance value and the maximum luminance value in the partial image area AR m of the luminance image 261Y. Alternatively, the difference between the minimum luminance value and the maximum luminance value in the partial image area AR m of the luminance image 262Y is obtained, and the obtained difference is handled as the contrast amount C m . Alternatively, the average value of these differences is calculated as the contrast amount C m .
Further, for example, the contrast amount C m may be obtained by extracting a predetermined high frequency component in the partial image area AR m of the luminance image 261Y or 262Y using a high pass filter. More specifically, for example, a high-pass filter is formed by a Laplacian filter having a predetermined filter size, and spatial filtering is performed so that the Laplacian filter is applied to each pixel in the partial image area AR m of the luminance image 261Y or 262Y. Then, output values corresponding to the filter characteristics of the Laplacian filter are sequentially obtained from the high pass filter. The absolute value of the output value of this high pass filter (the magnitude of the high frequency component extracted by the high pass filter) may be integrated to obtain the integrated value as the contrast amount C m . An average value of the integrated value calculated for the partial image area AR m of the luminance image 261Y and the integrated value calculated for the partial image area AR m of the luminance image 262Y may be handled as the contrast amount C m. Is possible.
The contrast amount C m obtained as described above takes a larger value as the contrast of the image in the corresponding image region is larger, and takes a smaller value as it is smaller.

コントラスト算出部70は、コントラスト量C1〜C9に基づいて、重み係数の算出に関与する基準動き値MOを一部画像領域ごとに算出する。一部画像領域ARmに対して算出される基準動き値MOを特に、MOmにて表す。基準動き値MOmは、図31(a)に示す如く、コントラスト量Cmがゼロである場合は最小動き値MOMINに設定されると共に、コントラスト量Cmが所定のコントラスト閾値CTH以上である場合は、最大動き値MOMAXに設定される。0<Cm<CTHの範囲内において、コントラスト量Cmがゼロからコントラスト閾値CTHに向かって増加するに従い、基準動き値MOmは最小動き値MOMINから最大動き値MOMAXに向かって増加する。より具体的には例えば、0<Cm<CTHの範囲内では、式“MOm=Θ・Cm+MOMIN”に従って基準動き値MOmが算出される。ここで、CTH>0、0<MOMIN<MOMAX、Θ=(MOMAX−MOMIN)/CTH、である。尚、図31(a)のグラフでは、基準動き値の代表として基準動き値MOが縦軸 The contrast calculation unit 70 calculates a reference motion value M O related to the calculation of the weighting coefficient for each partial image region based on the contrast amounts C 1 to C 9 . In particular, the reference motion value M O calculated for the partial image area AR m is represented by M Om . In reference motion value M Om, as shown in FIG. 31 (a), along with if the contrast amount C m is zero is set to the minimum motion value M OMIN, the contrast amount C m is greater than or equal to a predetermined contrast threshold C TH If there is, the maximum motion value M OMAX is set. Within the range of 0 <C m <C TH , the reference motion value M Om increases from the minimum motion value M OMIN toward the maximum motion value M OMAX as the contrast amount C m increases from zero toward the contrast threshold value C TH. To increase. More specifically, for example, within the range of 0 <C m <C TH , the reference motion value M Om is calculated according to the formula “M Om = Θ · C m + M OMIN ”. Here, C TH > 0, 0 <M OMIN <M OMAX , and Θ = (M OMAX −M OMIN ) / C TH . In the graph of FIG. 31A, the reference motion value M O is a vertical axis as a representative of the reference motion value.

重み係数算出部71は、コントラスト算出部70にて算出された基準動き値MO1〜MO9と、動きベクトルM1〜M9の大きさ|M1|〜|M9|に基づいて、画像座標面XY上の様々な位置における重み係数wi,jを算出する。動きベクトルM1〜M9の大きさ|M1|〜|M9|の意義は、第2実施例で述べた通りである。重み係数wi,jは、色信号Goi,j、Boi,j及びRoi,jを有する画素(画素位置)に対する重み係数であり、その画素の属する一部画像領域についての基準動き値及び動きベクトルから決定される。第2実施例で述べたように、重み係数wi,jの上限値及び下限値は夫々0.5及び0である。重み係数wi,jは、この上下限値の範囲内で、基準動き値及び動きベクトルの大きさに基づき設定される。図31(b)に、重み係数と、基準動き値MOm及び動きベクトルの大きさ|Mm|との関係例を示す。 The weighting factor calculation unit 71 generates an image based on the reference motion values M O1 to M O9 calculated by the contrast calculation unit 70 and the magnitudes | M 1 | to | M 9 | of the motion vectors M 1 to M 9. Weight coefficients w i, j at various positions on the coordinate plane XY are calculated. The significance of the magnitudes | M 1 | to | M 9 | of the motion vectors M 1 to M 9 is as described in the second embodiment. The weight coefficient w i, j is a weight coefficient for a pixel (pixel position) having the color signals Go i, j , Bo i, j and Ro i, j, and a reference motion value for a partial image region to which the pixel belongs. And the motion vector. As described in the second embodiment , the upper limit value and the lower limit value of the weight coefficient w i, j are 0.5 and 0, respectively. The weighting coefficient w i, j is set based on the reference motion value and the magnitude of the motion vector within the range of the upper and lower limit values. FIG. 31B shows a relationship example between the weighting coefficient, the reference motion value M Om, and the motion vector magnitude | M m |.

具体的には例えば、G信号Go1,1が存在する画素位置[1.5,1.5]が一部画像領域AR1に属するのであれば、コントラスト量C1に基づく基準動き量MO1と動きベクトルM1の大きさ|M1|とに基づき、式“w1,1=−K・(|M1|−MO1)+0.5”に従って重み係数w1,1が算出される。但し、|M1|<MO1の範囲内ではw1,1=0.5とされ、且つ(|M1|−MO1)>0.5/Kの範囲内ではw1,1=0とされる。また例えば、G信号Go1,1が存在する画素位置[1.5,1.5]が一部画像領域AR2に属するのであれば、コントラスト量C2に基づく基準動き量MO2と動きベクトルM2の大きさ|M2|とに基づき、式“w1,1=−K・(|M2|−MO2)+0.5”に従って重み係数w1,1が算出される。但し、|M2|<MO2の範囲内ではw1,1=0.5とされ、且つ(|M2|−MO2)>0.5/Kの範囲内ではw1,1=0とされる。 Specifically, for example, if the pixel position [1.5, 1.5] where the G signal Go 1,1 exists belongs to the partial image area AR 1 , the reference motion amount M O1 based on the contrast amount C 1 is used. And the magnitude | M 1 | of the motion vector M 1, the weight coefficient w 1,1 is calculated according to the expression “w 1,1 = −K · (| M 1 | −M O1 ) +0.5”. . However, w 1,1 = 0.5 within the range of | M 1 | <M O1 and w 1,1 = 0 within the range of (| M 1 | −M O1 )> 0.5 / K. It is said. For example, if the pixel position [1.5, 1.5] where the G signal Go 1,1 exists belongs to a part of the image area AR 2 , the reference motion amount M O2 and the motion vector based on the contrast amount C 2 are used. the size of the M 2 | based on the formula | M 2 "w 1,1 = -K · (| M 2 | -M O2) +0.5" weighting factor w 1, 1 according to is calculated. However, w 1,1 = 0.5 within the range of | M 2 | <M O2 and w 1,1 = 0 within the range of (| M 2 | −M O2 )> 0.5 / K. It is said.

合成処理部72は、現時点において色補間処理部51から出力されている現フレームについての色補間画像のG、B及びR信号と、フレームメモリ52に記憶されている前フレームについての色補間画像のG、B及びR信号とを、重み係数算出部71にて設定された重み係数wi,jに応じた比率にて混合することにより、現フレームについての出力合成画像270を生成する。合成処理部72による出力合成画像270のG、B及びR信号値の算出方法は、第2実施例で述べた、合成処理部62によるそれと同じである。 The composition processing unit 72 outputs the G, B, and R signals of the color interpolation image for the current frame currently output from the color interpolation processing unit 51 and the color interpolation image for the previous frame stored in the frame memory 52. The G, B, and R signals are mixed at a ratio according to the weighting factor w i, j set by the weighting factor calculation unit 71, thereby generating an output composite image 270 for the current frame. The calculation method of the G, B, and R signal values of the output combined image 270 by the combining processing unit 72 is the same as that by the combining processing unit 62 described in the second embodiment.

コントラスト量が比較的大きい画像領域はエッジ成分を多く含む画像領域であり、ジャギーが目立ちやすいため、画像合成によるジャギー低減効果が大きい。一方、コントラスト量が比較的小さい画像領域は平坦画像領域であると考えられ、ジャギーが目立ちにくい(即ち、画像合成を行う意義が少ない)。そこで、現フレームについての色補間画像と前フレームについての色補間画像との合成によって出力合成画像を生成する際、コントラスト量が比較的大きい画像領域に対しては、重み係数を比較的大きく設定して出力合成画像に対する前フレームの寄与率を増加させ、コントラスト量が比較的小さい画像領域に対しては、重み係数を比較的小さく設定して出力合成画像に対する前フレームの寄与率を低下させる。これにより、ジャギー低減が必要な画像部分に対してのみ、適切なジャギー低減効果を得ることができるようになる。   An image region having a relatively large contrast amount is an image region containing a lot of edge components, and jaggies are conspicuous, so that the effect of reducing jaggy by image composition is great. On the other hand, an image region having a relatively small contrast amount is considered to be a flat image region, and jaggies are hardly noticeable (that is, there is little significance in performing image composition). Therefore, when generating an output composite image by combining the color-interpolated image for the current frame and the color-interpolated image for the previous frame, a relatively large weighting factor is set for an image region with a relatively large contrast amount. Thus, the contribution ratio of the previous frame to the output composite image is increased, and for an image region having a relatively small contrast amount, the weight coefficient is set to be relatively small to reduce the contribution ratio of the previous frame to the output composite image. As a result, an appropriate jaggy reduction effect can be obtained only for an image portion that requires jaggy reduction.

<<第4実施例>>
次に、第4実施例を説明する。第4実施例では、圧縮処理部16(図1等参照)にて採用可能な、特異な画像圧縮方法を説明する。第4実施例では、圧縮処理部16が、映像信号に対する代表的な圧縮方式である、MPEG(Moving Picture Experts Group)圧縮方式を採用して映像信号の圧縮を行う場合を想定する。MPEGでは、フレーム間差分を利用して、圧縮動画像であるMPEG動画像を生成する。図32に、このMPEG動画像の構成を模式的に示す。MPEG動画像は、3種類のピクチャ、即ち、Iピクチャ、Pピクチャ及びBピクチャから構成される。
<< 4th Example >>
Next, a fourth embodiment will be described. In the fourth embodiment, a specific image compression method that can be adopted by the compression processing unit 16 (see FIG. 1 and the like) will be described. In the fourth embodiment, it is assumed that the compression processing unit 16 employs an MPEG (Moving Picture Experts Group) compression method, which is a typical compression method for a video signal, and compresses the video signal. In MPEG, an MPEG moving image, which is a compressed moving image, is generated using a difference between frames. FIG. 32 schematically shows the structure of this MPEG moving image. An MPEG moving picture is composed of three types of pictures, that is, an I picture, a P picture, and a B picture.

Iピクチャは、フレーム内符号化画像(Intra-Coded Picture)であり、1枚のフレームの映像信号を当該フレーム画像内で符号化した画像である。Iピクチャ単独で1枚のフレームの映像信号を復号することが可能である。   An I picture is an intra-coded picture (Intra-Coded Picture), which is an image obtained by coding a video signal of one frame in the frame picture. It is possible to decode a video signal of one frame with an I picture alone.

Pピクチャは、フレーム間予測符号化画像(Predictive-Coded Picture)であり、時間的に先のIピクチャまたはPピクチャから予測される画像である。Pピクチャの対象となる元の画像と当該Pピクチャから見て時間的に先のIピクチャまたはPピクチャとの差分を圧縮符号化したデータにより、Pピクチャが形成される。Bピクチャは、フレーム内挿双方向予測符号化画像(Bidirectionally Predictive-Coded Picture)であり、時間的に後及び先のIピクチャまたはPピクチャから双方向予測される画像である。Bピクチャの対象となる元の画像と、当該Bピクチャから見て時間的に後のIピクチャまたはPピクチャとの差分及び当該Bピクチャから見て時間的に前のIピクチャまたはPピクチャとの差分を圧縮符号化したデータにより、Bピクチャが形成される。   The P picture is an inter-frame predictive coded image (Predictive-Coded Picture), and is an image predicted from a temporally preceding I picture or P picture. A P picture is formed by data obtained by compressing and encoding a difference between an original image that is a target of a P picture and a temporally preceding I picture or P picture as viewed from the P picture. The B picture is a bi-directionally predictive-coded picture (Bidirectionally Predictive-Coded Picture), and is an image that is bi-directionally predicted from the later and previous I pictures or P pictures. The difference between the original picture that is the target of the B picture and the I picture or P picture that is temporally later as seen from the B picture, and the difference between the I picture or P picture that is temporally seen from the B picture A B picture is formed by the data obtained by compression encoding the.

MPEG動画像は、GOP(Group Of Pictures)を単位として構成されている。GOPは、圧縮及び伸張が行われる単位であり、1つのGOPは、或るIピクチャから次のIピクチャまでのピクチャで構成される。1又は2以上のGOPにてMPEG動画像は構成される。或るIピクチャから次のIピクチャまでのピクチャ枚数は、固定されることもあるが、ある程度の範囲内で変動させることも可能である。   MPEG moving images are configured in units of GOP (Group Of Pictures). A GOP is a unit in which compression and expansion are performed, and one GOP is composed of pictures from a certain I picture to the next I picture. An MPEG video is composed of one or more GOPs. The number of pictures from one I picture to the next I picture may be fixed, but may be varied within a certain range.

MPEGに代表される、フレーム間差分を利用した画像圧縮方式を用いる場合、IピクチャはB及びPピクチャの何れにも差分データを提供するため、Iピクチャの画質はMPEG動画像の全体画質に大きな影響を与える。これを考慮し、画像合成部において設定された重み係数が比較的大きく、その結果としてジャギーが効果的に低減されていると判断される画像番号を映像信号処理部13又は圧縮処理部16にて記録しておき、画像圧縮の際、記録している画像番号に対応する出力合成画像を優先的にIピクチャの対象として利用する。これにより、圧縮によって得られたMPEG動画像の全体的な画質を向上させることができる。   When an image compression method using inter-frame differences, represented by MPEG, is used, I picture provides difference data to both B and P pictures, so the picture quality of I picture is large compared to the overall picture quality of MPEG moving pictures. Influence. In consideration of this, the video signal processing unit 13 or the compression processing unit 16 selects an image number for which the weighting coefficient set in the image composition unit is relatively large and as a result it is determined that jaggies are effectively reduced. When the image is compressed, the output composite image corresponding to the recorded image number is preferentially used as an I picture target. Thereby, the overall image quality of the MPEG moving image obtained by the compression can be improved.

図33を参照して、より具体的な例を説明する。第4実施例に係る映像信号処理部13として、図26又は図30に示される映像信号処理部13a又は13bが用いられる。今、色補間処理部51によって、第n、第(n+1)、第(n+2)、第(n+3)、第(n+4)・・・番目の原画像から第n、第(n+1)、第(n+2)、第(n+3)、第(n+4)・・・番目の色補間画像350、351、352、353及び354・・・、が生成され、画像合成部55又は55bにおいて、色補間画像350及び351から出力合成画像361、色補間画像351及び352から出力合成画像362、色補間画像352及び353から出力合成画像363、色補間画像353及び354から出力合成画像364、・・・が生成された場合を考える。例えば、第n、第(n+1)、第(n+2)、第(n+3)、第(n+4)番目の原画像は、夫々、第1、第2、第1、第2、第1の加算パターンの原画像である。出力合成画像361〜364は、出力合成画像361、362、363、364の順番で時系列上に並ぶ出力合成画像列を形成する。   A more specific example will be described with reference to FIG. As the video signal processing unit 13 according to the fourth embodiment, the video signal processing unit 13a or 13b shown in FIG. 26 or FIG. 30 is used. Now, by the color interpolation processing unit 51, the nth, (n + 1) th, (n + 2) th, nth, (n + 1) th, (n + 2), (n + 3), (n + 4),... ), (N + 3) th, (n + 4)... Color interpolation images 350, 351, 352, 353, 354... Are generated, and the color interpolation images 350 and 351 are generated in the image composition unit 55 or 55b. Output composite image 361, color interpolation images 351 and 352 generate output composite image 362, color interpolation images 352 and 353 generate output composite image 363, color interpolation images 353 and 354 generate output composite image 364,. think of. For example, the n-th, (n + 1) -th, (n + 2) -th, (n + 3) -th, and (n + 4) -th original images have the first, second, first, second, and first addition patterns, respectively. This is the original image. The output composite images 361 to 364 form an output composite image sequence arranged in time series in the order of the output composite images 361, 362, 363, and 364.

注目した2枚の色補間画像から1枚の出力合成画像を生成する手法は、第2又は第3実施例で述べた手法と同じであり、注目した2枚の色補間画像に対して算出された重み係数wi,jに従う色信号混合によって1枚の出力合成画像が生成される。その1枚の出力合成画像を生成する際に使用した重み係数wi,jは、水平画素番号i及び垂直画素番号jに応じて様々な値を取りうるが、その様々な値を取りうる重み係数wi,jの平均値を総合重み係数として算出する。総合重み係数は、例えば、重み係数算出部61又は71によって算出される(図26又は図30参照)。出力合成画像361〜364に対して算出された総合重み係数を、夫々、wT1〜wT4にて表す。尚、注目した2枚の色補間画像に対して設定される重み係数の個数を1つにすることが可能であることを第2実施例にて述べたが、注目した2枚の色補間画像に対して設定される重み係数の個数が1つである場合は、その1つの重み係数を総合重み係数として機能させるとよい。 The method for generating one output composite image from the two color interpolation images of interest is the same as the method described in the second or third embodiment, and is calculated for the two color interpolation images of interest. One output composite image is generated by color signal mixing according to the weighting factors w i, j . The weighting coefficient w i, j used when generating the one output composite image can take various values depending on the horizontal pixel number i and the vertical pixel number j. The average value of the coefficients w i, j is calculated as the total weight coefficient. The total weight coefficient is calculated by, for example, the weight coefficient calculation unit 61 or 71 (see FIG. 26 or FIG. 30). The total weight coefficients calculated for the output composite images 361 to 364 are represented by w T1 to w T4, respectively. Although it has been described in the second embodiment that the number of weighting factors set for the two color interpolation images of interest can be one, the two color interpolation images of interest have been described. When the number of weighting factors set for one is one, the one weighting factor may function as an overall weighting factor.

出力合成画像361〜364を指し示す符号361〜364は、対応する出力合成画像の画像番号を表している。出力合成画像の画像番号361〜364と総合重み係数wT1〜wT4は、互いに関連付けられて、圧縮処理部16が参照可能なように映像信号処理部13a又は13b内に記録される(図26又は図30を参照)。 Reference numerals 361 to 364 indicating the output composite images 361 to 364 represent image numbers of the corresponding output composite images. The image numbers 361 to 364 of the output composite image and the total weight coefficients w T1 to w T4 are associated with each other and recorded in the video signal processing unit 13a or 13b so that the compression processing unit 16 can refer to them (FIG. 26). Or see FIG.

比較的大きな総合重み係数に対応する出力合成画像は、色信号の混合の程度が比較的大きく、ジャギーが比較的大きく低減されている画像であると推測される。そこで、圧縮処理部16は、比較的大きな総合重み係数に対応する出力合成画像を優先的にIピクチャの対象として利用する。従って、出力合成画像361〜364の中から1枚の出力合成画像をIピクチャの対象として選択する場合、総合重み係数wT1〜wT4の内の最大値に対応する出力合成画像をIピクチャの対象として選択する。例えば、総合重み係数wT1〜wT4の内、総合重み係数wT2が最大であるのなら、出力合成画像362がIピクチャの対象として選択され、出力合成画像362と出力合成画像361、363及び364とに基づいて、P及びBピクチャが生成される。出力合成画像364以降に得られる複数の出力合成画像の中からIピクチャの対象を選択する場合も同様である。 An output composite image corresponding to a relatively large total weight coefficient is estimated to be an image in which the degree of color signal mixing is relatively large and jaggy is relatively greatly reduced. Therefore, the compression processing unit 16 preferentially uses an output composite image corresponding to a relatively large total weight coefficient as an I picture target. Therefore, when one output composite image is selected from the output composite images 361 to 364 as the target of the I picture, the output composite image corresponding to the maximum value among the total weight coefficients w T1 to w T4 is selected as the I picture. Select as target. For example, if the total weight coefficient w T2 is the maximum among the total weight coefficients w T1 to w T4 , the output composite image 362 is selected as the target of the I picture, and the output composite image 362 and the output composite images 361, 363 and P and B pictures are generated based on 364. The same applies when an I picture target is selected from a plurality of output composite images obtained after the output composite image 364.

圧縮処理部16は、Iピクチャの対象として選択された出力合成画像を、MPEG圧縮方式に従って符号化することによりIピクチャを生成すると共に、Iピクチャの対象として選択された出力合成画像とIピクチャの対象として選択されなかった出力合成画像とに基づいてP及びBピクチャを生成する。   The compression processing unit 16 generates an I picture by encoding the output composite image selected as the target of the I picture according to the MPEG compression method, and also generates the I composite of the output composite image selected as the target of the I picture and the I picture. P and B pictures are generated based on the output composite image not selected as a target.

<<第5実施例>>
次に、第5実施例について説明する。第1〜第4実施例では、図7(a)、(b)、図8(a)及び(b)に対応する加算パターンPA1〜PA4を、原画像を取得するための第1〜第4の加算パターンとして用いることを想定しているが、原画像を取得するための加算パターンとして、加算パターンPA1〜PA4と異なる加算パターンを用いることも可能である。利用可能な加算パターンには、加算パターンPB1〜PB4、加算パターンPC1〜PC4及び加算パターンPD1〜PD4が含まれる。
<< 5th Example >>
Next, a fifth embodiment will be described. In the first to fourth embodiments, the addition patterns P A1 to P A4 corresponding to FIGS. 7A, 7B, 8A, and 8B are used as the first to first patterns for acquiring the original image. Although it is assumed to be used as the fourth addition pattern, an addition pattern different from the addition patterns P A1 to P A4 can be used as the addition pattern for acquiring the original image. Available addition patterns include addition patterns P B1 to P B4 , addition patterns P C1 to P C4, and addition patterns P D1 to P D4 .

加算パターンPB1〜PB4を利用する場合、加算パターンPB1〜PB4は、夫々、第1〜第4実施例における第1、第2、第3及び第4の加算パターンとして機能する。
加算パターンPC1〜PC4を利用する場合、加算パターンPC1〜PC4は、夫々、第1〜第4実施例における第1、第2、第3及び第4の加算パターンとして機能する。
加算パターンPD1〜PD4を利用する場合、加算パターンPD1〜PD4は、夫々、第1〜第4実施例における第1、第2、第3及び第4の加算パターンとして機能する。
そして、第1〜第4実施例にて述べたように、第1〜第4の加算パターンの内の、2以上の加算パターンを選択し、選択した2以上の加算パターンの間で加算読み出しに用いる加算パターンを順次変更させながら原画像列の取得を行う。例えば、加算パターンPB1〜PB4を第1、第2、第3及び第4の加算パターンとして機能させる場合、加算パターンPB1を用いた加算読み出しと加算パターンPB2を用いた加算読み出しを交互に実行することで、順次、加算パターンPB1、PB2、PB1、PB2、・・・の原画像を取得する。
When the addition patterns P B1 to P B4 are used, the addition patterns P B1 to P B4 function as the first, second, third, and fourth addition patterns in the first to fourth embodiments, respectively.
When the addition patterns P C1 to P C4 are used, the addition patterns P C1 to P C4 function as the first, second, third, and fourth addition patterns in the first to fourth embodiments, respectively.
When the addition patterns P D1 to P D4 are used, the addition patterns P D1 to P D4 function as the first, second, third, and fourth addition patterns in the first to fourth embodiments, respectively.
Then, as described in the first to fourth embodiments, two or more addition patterns are selected from the first to fourth addition patterns, and addition reading is performed between the selected two or more addition patterns. The original image sequence is acquired while sequentially changing the addition pattern to be used. For example, when the addition patterns P B1 to P B4 are caused to function as the first, second, third and fourth addition patterns, the addition reading using the addition pattern P B1 and the addition reading using the addition pattern P B2 are alternately performed. , The original images of the addition patterns P B1 , P B2 , P B1 , P B2,.

図34(a)〜(d)は、夫々、加算パターンPB1〜PB4を用いた場合の信号加算の様子を示し、図35(a)〜(d)は、夫々、加算パターンPB1〜PB4を用いて加算読み出しを行った場合における、原画像の画素信号の様子を示す。
図36(a)〜(d)は、夫々、加算パターンPC1〜PC4を用いた場合の信号加算の様子を示し、図37(a)〜(d)は、夫々、加算パターンPC1〜PC4を用いて加算読み出しを行った場合における、原画像の画素信号の様子を示す。
図38(a)〜(d)は、夫々、加算パターンPD1〜PD4を用いた場合の信号加算の様子を示し、図39(a)〜(d)は、夫々、加算パターンPD1〜PD4を用いて加算読み出しを行った場合における、原画像の画素信号の様子を示す。
34 (a) to (d) show how signals are added when the addition patterns P B1 to P B4 are used, respectively, and FIGS. 35 (a) to 35 (d) respectively show the addition patterns P B1 to P B1 to P B1 . The state of the pixel signal of the original image when addition reading is performed using P B4 is shown.
FIGS. 36A to 36D show how signals are added when the addition patterns P C1 to P C4 are used, respectively, and FIGS. 37A to 37D show the addition patterns P C1 to P C1 to P, respectively. in the case of performing the addition reading using a P C4, showing the state of the pixel signals of the original image.
FIGS. 38A to 38D show the state of signal addition when the addition patterns P D1 to P D4 are used, respectively, and FIGS. 39A to 39D show the addition patterns P D1 to P D1 to P, respectively. in the case of performing the addition reading using a P D4, showing the state of the pixel signals of the original image.

図34(a)〜(d)において、黒塗りの丸は、夫々、加算パターンPB1〜PB4を第1〜第4の加算パターンとして用いた場合に想定される仮想的な受光画素の配置位置を示している。但し、図34(a)〜(d)では、想定される仮想的な受光画素の内、R信号に対応する、仮想的な受光画素の配置位置のみを明示している。
図36(a)〜(d)において、黒塗りの丸は、夫々、加算パターンPC1〜PC4を第1〜第4の加算パターンとして用いた場合に想定される仮想的な受光画素の配置位置を示している。但し、図36(a)〜(d)では、想定される仮想的な受光画素の内、B信号に対応する、仮想的な受光画素の配置位置のみを明示している。
図38(a)〜(d)において、黒塗りの丸は、夫々、加算パターンPD1〜PD4を第1〜第4の加算パターンとして用いた場合に想定される仮想的な受光画素の配置位置を示している。但し、図38(a)〜(d)では、想定される仮想的な受光画素の内、G信号に対応する、仮想的な受光画素の配置位置の一部のみを明示している。
In FIGS. 34A to 34D, the black circles indicate the arrangement of virtual light receiving pixels that are assumed when the addition patterns P B1 to P B4 are used as the first to fourth addition patterns, respectively. Indicates the position. However, in FIGS. 34A to 34D, only the arrangement positions of the virtual light receiving pixels corresponding to the R signal among the assumed virtual light receiving pixels are clearly shown.
In FIGS. 36A to 36D, black circles indicate the arrangement of virtual light receiving pixels that are assumed when the addition patterns P C1 to P C4 are used as the first to fourth addition patterns, respectively. Indicates the position. However, in FIGS. 36A to 36D, only the arrangement positions of the virtual light receiving pixels corresponding to the B signal among the assumed virtual light receiving pixels are clearly shown.
In FIGS. 38A to 38D, black circles indicate the arrangement of virtual light receiving pixels that are assumed when the addition patterns P D1 to P D4 are used as the first to fourth addition patterns, respectively. Indicates the position. However, in FIGS. 38A to 38D, only a part of the arrangement positions of the virtual light receiving pixels corresponding to the G signal among the assumed virtual light receiving pixels is clearly shown.

図34(a)〜(d)、図36(a)〜(d)及び図38(a)〜(d)において、黒塗りの丸の周囲に示された矢印は、その丸に対応する仮想的な受光画素の画素信号を生成するために、該仮想的な受光画素の周辺受光画素の画素信号が加算される様子を示している。   In FIGS. 34 (a) to (d), FIGS. 36 (a) to (d) and FIGS. 38 (a) to (d), an arrow shown around a black circle represents a virtual corresponding to the circle. In order to generate a pixel signal of a typical light receiving pixel, the pixel signals of the peripheral light receiving pixels of the virtual light receiving pixel are added.

任意の加算パターンを用いて加算読み出しを行う場合、
撮像素子33の画素位置[pG1+4nA,pG2+4nB]及び[pG3+4nA,pG4+4nB]に仮想的な緑受光画素が配置され、撮像素子33の画素位置[pB1+4nA,pB2+4nB]に仮想的な青受光画素が配置され、撮像素子33の画素位置[pR1+4nA,pR2+4nB]に仮想的な赤受光画素が配置される、と想定する(nA及びnBは整数)。但し、
加算パターンPB1、PB2、PB3及びPB4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(4,2,3,3,3,2,4,3)、(6,4,5,5,5,4,6,5)、
(6,2,5,3,5,2,6,3)及び(4,4,3,5,3,4,4,5)であり、
加算パターンPC1、PC2、PC3及びPC4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(3,3,2,4,3,4,2,3)、(5,5,4,6,5,6,4,5)、
(5,3,4,4,5,4,4,3)及び(3,5,2,6,3,6,2,5)であり、
加算パターンPD1、PD2、PD3及びPD4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(3,3,4,4,3,4,4,3)、(5,5,6,6,5,6,6,5)、
(5,3,6,4,5,4,6,3)及び(3,5,4,6,3,6,4,5)である。
尚、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)が(pG1’,pG2’,pG3’,pG4’,pB1’,pB2’,pR1’,pR2’)であるとは、pG1=pG1’、pG2=pG2’、pG3=pG3’、pG4=pG4’、pB1=pB1’、pB2=pB2’、pR1=pR1’且つpR2=pR2’、であることを意味する。
When performing addition reading using an arbitrary addition pattern,
Virtual green light receiving pixels are arranged at pixel positions [p G1 + 4n A , p G2 + 4n B ] and [p G3 + 4n A , p G4 + 4n B ] of the image sensor 33, and pixel positions [p B1 + 4n of the image sensor 33 are set. It is assumed that a virtual blue light receiving pixel is disposed at A , p B2 + 4n B ], and a virtual red light receiving pixel is disposed at the pixel position [p R1 + 4n A , p R2 + 4n B ] of the image sensor 33. (N A and n B are integers). However,
When the addition patterns P B1 , P B2 , P B3, and P B4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(4,2,3,3,3,2,4,3), (6,4,5,5,5,4,6,5),
(6, 2, 5, 3, 5, 2, 6, 3) and (4, 4, 3, 5, 3, 4, 4, 5),
When the addition patterns P C1 , P C2 , P C3 and P C4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(3, 3, 2, 4, 3, 4, 2, 3), (5, 5, 4, 6, 5, 6, 4, 5),
(5, 3, 4, 4, 5, 4, 4, 3) and (3, 5, 2, 6, 3, 6, 2, 5),
When the addition patterns P D1 , P D2 , P D3, and P D4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(3, 3, 4, 4, 3, 4, 4, 3), (5, 5, 6, 6, 5, 6, 6, 5),
(5, 3, 6, 4, 5, 4, 6, 3) and (3, 5, 4, 6, 3, 6, 4, 5).
( PG1 , pG2 , pG3 , pG4 , pB1 , pB2 , pR1 , pR2 ) are ( pG1 ', pG2 ', pG3 ', pG4 ', pB1 ', p B2 ', p R1', 'is to be), p G1 = p G1' p R2, p G2 = p G2 ', p G3 = p G3', p G4 = p G4 ', p B1 = p B1' , P B2 = p B2 ′, p R1 = p R1 ′ and p R2 = p R2 ′.

第1実施例で述べたように、1つの仮想的な受光画素の画素信号は、その仮想的な受光画素の左斜め上、右斜め上、左斜め下及び右斜め下に隣接する実際の受光画素の画素信号の加算信号とされる。そして、位置[x,y]に配置された仮想的な受光画素の画素信号が、画像上の位置[x,y]の画素信号として取り扱われるように原画像が取得される。   As described in the first embodiment, the pixel signal of one virtual light receiving pixel is the actual light reception adjacent to the upper left, upper right, lower left and lower right of the virtual light receiving pixel. This is an addition signal of pixel signals of pixels. Then, the original image is acquired so that the pixel signal of the virtual light receiving pixel arranged at the position [x, y] is handled as the pixel signal at the position [x, y] on the image.

従って、任意の加算パターンを用いた加算読み出しによって得られる原画像は、図35(a)〜(d)、図37(a)〜(d)及び図39(a)〜(d)に示す如く、画素位置[pG1+4nA,pG2+4nB]及び[pG3+4nA,pG4+4nB]に配置された、G信号のみを有する画素と、画素位置[pB1+4nA,pB2+4nB]に配置された、B信号のみを有する画素と、画素位置[pR1+4nA,pR2+4nB]に配置された、R信号のみを有する画素と、を備えた画像となる。 Therefore, the original images obtained by addition reading using an arbitrary addition pattern are as shown in FIGS. 35 (a) to (d), FIGS. 37 (a) to (d) and FIGS. 39 (a) to (d). , Pixels having only a G signal and pixel positions [p B1 + 4n A , p B2 + 4n, which are arranged at pixel positions [p G1 + 4n A , p G2 + 4n B ] and [p G3 + 4n A , p G4 + 4n B ]. B ] is an image including a pixel having only the B signal and a pixel having only the R signal, which is disposed at the pixel position [p R1 + 4n A , p R2 + 4n B ].

尚、加算パターンPA1〜PA4から成る加算パターン群、加算パターンPB1〜PB4から成る加算パターン群、加算パターンPC1〜PC4から成る加算パターン群及び加算パターンPD1〜PD4から成る加算パターン群を、夫々、PA、PB、PC及びPDによって表す。 Incidentally, an addition pattern group consisting of addition patterns P A1 to P A4 , an addition pattern group consisting of addition patterns P B1 to P B4 , an addition pattern group consisting of addition patterns P C1 to P C4, and an addition pattern P D1 to P D4. The addition pattern group is represented by P A , P B , P C and P D , respectively.

<<第6実施例>>
次に、第6実施例について説明する。第6実施例では、動き検出部の検出結果に基づいて、原画像を取得するために用いる加算パターン群を切り換えて使用する。
<< Sixth Example >>
Next, a sixth embodiment will be described. In the sixth embodiment, the addition pattern group used for acquiring the original image is switched and used based on the detection result of the motion detection unit.

まず、この切り換えを行う意義を説明する。原画像から色補間画像を生成する際、画素位置によっては、信号補間が行われる。例えば、図13(a)に示される色補間画像261上のG信号311を生成する際には、図12(a)を参照して説明したように、原画像251上の4つの実画素のG信号を用いた信号補間が行われる。一方、図13(a)のG信号313は、原画像251上の1つの実画素のG信号そのものである。つまり、G信号313の生成時には信号補間は行われない。信号補間を行うと必然的に解像感(実質的な解像度)の低下が生じる。   First, the significance of this switching will be described. When a color interpolation image is generated from an original image, signal interpolation is performed depending on the pixel position. For example, when generating the G signal 311 on the color-interpolated image 261 shown in FIG. 13A, as described with reference to FIG. Signal interpolation using the G signal is performed. On the other hand, the G signal 313 in FIG. 13A is the G signal itself of one real pixel on the original image 251. That is, signal interpolation is not performed when the G signal 313 is generated. When signal interpolation is performed, the resolution (substantial resolution) is inevitably lowered.

従って、G信号311のような信号補間を行って得た色信号から成る画像と、G信号313のような信号補間を行うことなく得た色信号から成る画像とを対比した場合、後者の方が前者よりも解像感(実質的な解像度)が高いと言える。故に、図13(a)及び図20(a)等に示される色補間画像261において、左上から右下に向かう方向における解像感は他の方向(特に左下から右上に向かう方向)におけるそれと比べて高い。左上から右下に向かう方向に並ぶG信号G11,1、G12,2、G13,3及びG14,4は信号補間を行うことなく得られるからである(図20(a)参照)。逆に例えば、加算パターン群PBを用いて得られる色補間画像(図34(a)及び図35(a)等参照)においては、左下から右上に向かう方向における解像感が他の方向(特に左上から右下に向かう方向)におけるそれと比べて高い。 Therefore, when comparing an image composed of color signals obtained by performing signal interpolation such as the G signal 311 and an image composed of color signals obtained without performing signal interpolation such as the G signal 313, the latter is preferred. However, it can be said that the resolution (substantial resolution) is higher than the former. Therefore, in the color interpolation image 261 shown in FIGS. 13A and 20A, the resolution in the direction from the upper left to the lower right is compared with that in other directions (particularly the direction from the lower left to the upper right). Is expensive. This is because the G signals G1 1,1 , G1 2,2 , G1 3,3 and G1 4,4 arranged in the direction from the upper left to the lower right can be obtained without performing signal interpolation (see FIG. 20A). . Conversely, for example, in a color interpolation image (see FIG. 34A, FIG. 35A, etc.) obtained using the addition pattern group P B , the resolution in the direction from the lower left to the upper right is in other directions ( Especially in the direction from the upper left to the lower right).

他方、画像列において画像中の被写体に動きがある場合、動きのある方向と垂直に交わる輪郭部分はぼけが生じやすい。これらの事情を考慮し、第6実施例では、そのぼけが極力解消されるように、過去フレームに対して求められた動き検出結果に基づき、現フレームに対して用いるべき加算パターン群を複数の加算パターン群の中から動的に選択する。   On the other hand, when the subject in the image has a motion in the image sequence, the contour portion that intersects the direction of the motion perpendicularly tends to be blurred. Considering these circumstances, in the sixth embodiment, a plurality of addition pattern groups to be used for the current frame are determined based on the motion detection result obtained for the past frame so that the blur is eliminated as much as possible. Dynamically select from the addition pattern group.

尚、色補間画像又は動きベクトルに関し、左上から右下に向かう方向とは、画像座標面XY上の位置[1,1]から位置[10,10]に向かう方向を指し、左下から右上に向かう方向とは、画像座標面XY上の位置[1,10]から位置[10,1]に向かう方向を指す。左上から右下に向かう方向に沿った直線又はその方向と略同じ方向に沿った直線を右下がり直線と呼び、左下から右上に向かう方向に沿った直線又はその方向と略同じ方向に沿った直線を右上がり直線と呼ぶ(図40参照)。   Regarding the color interpolation image or motion vector, the direction from the upper left to the lower right indicates the direction from the position [1, 1] to the position [10, 10] on the image coordinate plane XY, and from the lower left to the upper right. The direction refers to a direction from the position [1, 10] on the image coordinate plane XY toward the position [10, 1]. A straight line along the direction from the upper left to the lower right or a line along the same direction as that direction is called a right-down straight line, a straight line along the direction from the lower left to the upper right or a straight line along the same direction as that direction. Is called a straight line going up to the right (see FIG. 40).

図41を参照し、加算パターン群PAと加算パターン群PBとの間で用いる加算パターン群を切り換えることを想定して、第6実施例に係る切り換え手法を具体的に説明する。第6実施例では、図1の映像信号処理部13として、図10若しくは図26の映像信号処理部13a又は図30の映像信号処理部13bが用いられる。 With reference to FIG. 41, the switching method according to the sixth embodiment will be specifically described on the assumption that the addition pattern group used between the addition pattern group P A and the addition pattern group P B is switched. In the sixth embodiment, the video signal processing unit 13a of FIG. 10 or FIG. 26 or the video signal processing unit 13b of FIG. 30 is used as the video signal processing unit 13 of FIG.

加算パターン群PAを用いて原画像を取得する期間では、加算パターンPA1を用いた加算読み出しと加算パターンPA2を用いた加算読み出しを交互に実行することで、順次、加算パターンPA1、PA2、PA1、PA2、・・・の原画像が取得され、時間的に隣接する2枚の原画像に基づく2枚の色補間画像から1枚の出力合成画像が生成される。同様に、加算パターン群PBを用いて原画像を取得する期間では、加算パターンPB1を用いた加算読み出しと加算パターンPB2を用いた加算読み出しを交互に実行することで、順次、加算パターンPB1、PB2、PB1、PB2、・・・の原画像が取得され、時間的に隣接する2枚の原画像に基づく2枚の色補間画像から1枚の出力合成画像が生成される。 In the period of acquiring an original image by using the sum pattern group P A, by performing the addition reading using an addition read with addition pattern P A1 the addition pattern P A2 alternately, sequentially adding pattern P A1, Original images of P A2 , P A1 , P A2 ,... Are acquired, and one output composite image is generated from two color interpolation images based on two original images that are temporally adjacent. Similarly, during the period in which the original image is acquired using the addition pattern group P B , the addition pattern using the addition pattern P B1 and the addition reading using the addition pattern P B2 are alternately executed, thereby sequentially adding the addition patterns. Original images of P B1 , P B2 , P B1 , P B2 ,... Are acquired, and one output composite image is generated from two color interpolated images based on two temporally adjacent original images. The

今、図41に示す如く、色補間処理部51によって、第n、第(n+1)、第(n+2)、第(n+3)、第(n+4)・・・番目の原画像400、401、402、403及び404・・・から第n、第(n+1)、第(n+2)、第(n+3)、第(n+4)・・・番目の色補間画像410、411、412、413及び414・・・、が生成された場合を考える。   Now, as shown in FIG. 41, the color interpolation processing unit 51 performs the n-th, (n + 1) -th, (n + 2) -th, (n + 3) -th, (n + 4)... Original images 400, 401, 402, 403 and 404... To nth, (n + 1) th, (n + 2), (n + 3), (n + 4)... Color interpolation images 410, 411, 412, 413 and 414. Suppose that is generated.

動き検出部53は、第1実施例で述べたように、隣接フレーム間の動きベクトルを求める。色補間画像410−411間の動きベクトル、色補間画像411−412間の動きベクトル及び色補間画像412−413間の動きベクトルを、夫々、M01、M12及びM23にて表す。動きベクトルM01は、色補間画像410−411間の、被写体の平均的な動きを表す、第2実施例にて述べたような平均動きベクトルであるとする(動きベクトルM12及びM23についても同様)。 The motion detection unit 53 obtains a motion vector between adjacent frames as described in the first embodiment. A motion vector between the color interpolation images 410-411, a motion vector between the color interpolation images 411-412, and a motion vector between the color interpolation images 412-413 are represented by M 01 , M 12, and M 23, respectively. The motion vector M 01 is assumed to be an average motion vector as described in the second embodiment, which represents the average motion of the subject between the color-interpolated images 410-411 (for motion vectors M 12 and M 23) . The same).

原画像の取得に用いられる初期の加算パターン群が加算パターン群PAであり、原画像400〜403の取得時に用いた加算パターン群が加算パターン群PAであったとする。この際、映像信号処理部13又はCPU23に内在するパターン切換制御部(不図示)は、選択用動きベクトルに基づいて、原画像404の取得時に用いる加算パターン群を加算パターン群PA及びPBの中から選択する。選択用動きベクトルは、原画像404の取得前に得られている1又は複数の動きベクトルから形成される。選択用動きベクトルには、例えば、動きベクトルM23が含まれ、更に動きベクトルM12、又は、動きベクトルM12及びM01が含まれうる。動きベクトルM01よりも過去に得られた動きベクトルを、更に、選択用動きベクトルに含めても良い。通常、選択用動きベクトルは、複数の動きベクトルから形成される。 Early addition pattern groups used to acquire the original image is added pattern group P A, the addition pattern group used at the time of acquisition of the original image 400 to 403 is assumed to be an addition pattern group P A. At this time, the video signal processing unit 13 or the pattern switching control unit (not shown) included in the CPU 23 selects the addition pattern groups used when acquiring the original image 404 based on the selection motion vector as the addition pattern groups P A and P B. Choose from. The selection motion vector is formed from one or a plurality of motion vectors obtained before acquisition of the original image 404. The motion vector for selection includes, for example, a motion vector M 23 and may further include a motion vector M 12 or motion vectors M 12 and M 01 . A motion vector obtained in the past than the motion vector M 01 may be further included in the selection motion vector. Usually, the motion vector for selection is formed from a plurality of motion vectors.

選択用動きベクトルが複数の動きベクトル(例えばM23及びM12)から成る場合、パターン切換制御部は、その複数の動きベクトルに注目し、その複数の動きベクトルの向きが全て右上がり直線と平行な場合は、原画像404の取得時に用いる加算パターン群を加算パターン群PAから加算パターン群PBへと切り換え、そうでない場合は、その切り換えを行わず、原画像404の取得時に用いる加算パターン群を加算パターン群PAのままとする。 When the selection motion vector is composed of a plurality of motion vectors (for example, M 23 and M 12 ), the pattern switching control unit pays attention to the plurality of motion vectors, and the directions of the plurality of motion vectors are all parallel to the right-up straight line. addition pattern case, the addition pattern group used at the time of acquisition of the original image 404 is switched to the addition pattern group P B from the addition pattern group P a, otherwise, that without the switching, used at the time of acquisition of the original image 404 the group that remains addition pattern groups P a.

上記の想定とは異なるが、原画像400〜403の取得時に用いた加算パターン群が加算パターン群PBであって且つ選択用動きベクトルが複数の動きベクトル(例えばM23及びM12)から成る場合、パターン切換制御部は、その複数の動きベクトルに注目し、その複数の動きベクトルの向きが全て右下がり直線と平行な場合は、原画像404の取得時に用いる加算パターン群を加算パターン群PBから加算パターン群PAへと切り換え、そうでない場合は、その切り換えを行わず、原画像404の取得時に用いる加算パターン群を加算パターン群PBのままとする。 Although different from the above assumption, the addition pattern group used when acquiring the original images 400 to 403 is the addition pattern group P B and the selection motion vector is composed of a plurality of motion vectors (for example, M 23 and M 12 ). In this case, the pattern switching control unit pays attention to the plurality of motion vectors, and when the directions of the plurality of motion vectors are all parallel to the right-downward straight line, the addition pattern group used when acquiring the original image 404 is selected as the addition pattern group P. Switching from B to the addition pattern group P A , otherwise, the switching is not performed and the addition pattern group used when acquiring the original image 404 remains the addition pattern group P B.

選択用動きベクトルが動きベクトルM23のみから成る場合、パターン切換制御部は、動きベクトルM23に注目し、動きベクトルM23の向きが右上がり直線と平行な場合は、原画像404の取得時に用いる加算パターン群として加算パターン群PBを選択し、動きベクトルM23の向きが右下がり直線と平行な場合は、原画像404の取得時に用いる加算パターン群として加算パターン群PAを選択すればよい。 If the selected motion vector consists only of the vector M 23 motion, pattern switching control unit is focused on the motion vector M 23, if the direction of the motion vector M 23 is upward sloping straight line and parallel, at the time of acquisition of the original image 404 used to select the sum pattern group P B as an addition pattern group, if parallel to the linear direction of motion vector M 23 is lowered right, by selecting the sum pattern group P a as an addition pattern group used at the time of acquisition of the original image 404 Good.

上述の如く、用いる加算パターン群を可変設定することにより、画像中の被写体の動きに応じて最適な加算パターン群を用いることができ、出力合成画像列の画質最適化が図られる。   As described above, by variably setting the addition pattern group to be used, the optimum addition pattern group can be used according to the movement of the subject in the image, and the image quality of the output composite image sequence can be optimized.

尚、原画像の取得に用いる加算パターン群が頻繁に変更されることを禁止する処理を付加するようにしてもよい。例えば、図41に示す如く、原画像403の取得に用いた加算パターン群が加算パターン群PAであって且つ原画像404の取得に用いる加算パターン群が加算パターン群PAから加算パターン群PBに変更された場合、原画像404以降に取得される規定枚数の原画像の取得の際には、必ず、加算パターン群PBを用いるようにしてもよい。 A process for prohibiting frequent changes in the addition pattern group used for acquiring the original image may be added. For example, as shown in FIG. 41, the addition pattern group P sum pattern group from the addition pattern group P A to be used for obtaining the sum pattern group adds pattern group P A in a by and the original image 404 using the acquired original image 403 When changed to B , the addition pattern group P B may be used without fail when acquiring a specified number of original images acquired after the original image 404.

また、原画像の取得に用いる加算パターン群を加算パターン群PAと加算パターン群PBとの間で切り換える例を上述したが、原画像の取得に用いる加算パターン群を、加算パターン群PAと加算パターン群PCとの間で、又は、加算パターン群PBと加算パターン群PDとの間で切り換えるようにしてもよい。 Further, although the above-described example of switching between the sum pattern group to be used for obtaining the original image and addition pattern group P A and the addition pattern group P B, the addition pattern group to be used for obtaining the original image, adding pattern group P A and between the addition pattern group P C, or may be switched between a sum pattern group P B and the addition pattern group P D.

<<第7実施例>>
第1〜第6実施例では、加算読み出しによって原画像の画素信号を取得しているが、間引き読み出しによって原画像の画素信号を取得することも可能である。間引き読み出しを行うことによって原画像の画素信号を取得する実施例を、第7実施例として説明する。間引き読み出しによって原画像の画素信号を取得した場合においても、矛盾無き限り、第1〜第6実施例で述べた事項は適用可能である。
<< Seventh Embodiment >>
In the first to sixth embodiments, the pixel signal of the original image is acquired by addition reading, but it is also possible to acquire the pixel signal of the original image by thinning-out reading. An embodiment in which pixel signals of the original image are acquired by performing thinning readout will be described as a seventh embodiment. Even when the pixel signal of the original image is acquired by thinning-out reading, the matters described in the first to sixth embodiments are applicable as long as there is no contradiction.

周知の如く、間引き読み出しでは、撮像素子33の受光画素信号が間引いて読み出される。第7実施例では、原画像の取得に用いる間引きパターンを複数の間引きパターンの間で順次変更させながら間引き読み出しを行い、間引きパターンの異なる複数の色補間画像を合成することによって1枚の出力合成画像を生成する。間引きパターンとは、間引きの対象となる受光画素の組み合わせパターンを意味する。用いられる複数の間引きパターンは、互いに異なる第1、第2、第3及び第4の間引きパターンの内の、2以上の間引きパターンを含む。第1〜第4の間引きパターン間で、間引きの位置は互いに異なる。   As is well known, in thinning readout, the light receiving pixel signals of the image sensor 33 are thinned out and read out. In the seventh embodiment, thinning-out reading is performed while sequentially changing a thinning pattern used for acquiring an original image between a plurality of thinning patterns, and a plurality of color-interpolated images having different thinning patterns are synthesized to produce one output composition. Generate an image. The thinning pattern means a combination pattern of light receiving pixels to be thinned. The plurality of thinning patterns used include two or more thinning patterns among first, second, third and fourth thinning patterns which are different from each other. The positions of thinning differ between the first to fourth thinning patterns.

第1〜第4の間引きパターンから成る間引きパターン群として、間引きパターンQA1〜QA4から成る間引きパターン群QA、間引きパターンQB1〜QB4から成る間引きパターン群QB、間引きパターンQC1〜QC4から成る間引きパターン群QC、又は、間引きパターンQD1〜QD4から成る間引きパターン群QDを利用可能である。 As a thinning pattern group consisting of the first to fourth thinning patterns, a thinning pattern group Q A consisting of thinning patterns Q A1 to Q A4, a thinning pattern group Q B consisting of thinning patterns Q B1 to Q B4 , and a thinning pattern Q C1 to A thinning pattern group Q C composed of Q C4 or a thinning pattern group Q D composed of thinning patterns Q D1 to Q D4 can be used.

図42(a)〜(d)は、夫々、間引きパターンQA1〜QA4を示しており、図43(a)〜(d)は、夫々、間引きパターンQA1〜QA4を用いて間引き読み出しを行った場合における、原画像の画素信号の様子を示している。
図44(a)〜(d)は、夫々、間引きパターンQB1〜QB4を示しており、図45(a)〜(d)は、夫々、間引きパターンQB1〜QB4を用いて間引き読み出しを行った場合における、原画像の画素信号の様子を示している。
図46(a)〜(d)は、夫々、間引きパターンQC1〜QC4を示しており、図47(a)〜(d)は、夫々、間引きパターンQC1〜QC4を用いて間引き読み出しを行った場合における、原画像の画素信号の様子を示している。
図48(a)〜(d)は、夫々、間引きパターンQD1〜QD4を示しており、図49(a)〜(d)は、夫々、間引きパターンQD1〜QD4を用いて間引き読み出しを行った場合における、原画像の画素信号の様子を示している。
42A to 42D show thinning patterns Q A1 to Q A4 , respectively. FIGS. 43A to 43D show thinning-out readings using thinning patterns Q A1 to Q A4 , respectively. This shows the state of the pixel signal of the original image when
44A to 44D show thinning patterns Q B1 to Q B4 , respectively, and FIGS. 45A to 45D show thinning readout using the thinning patterns Q B1 to Q B4 , respectively. This shows the state of the pixel signal of the original image when
46A to 46D show thinning patterns Q C1 to Q C4 , respectively. FIGS. 47A to 47D show thinning-out readings using thinning patterns Q C1 to Q C4 , respectively. This shows the state of the pixel signal of the original image when
48A to 48D show thinning patterns Q D1 to Q D4 , respectively. FIGS. 49A to 49D show thinning-out readings using thinning patterns Q D1 to Q D4 , respectively. This shows the state of the pixel signal of the original image when

図42(a)〜(d)、図44(a)〜(d)、図46(a)〜(d)及び図48(a)〜(d)において、丸枠内の受光画素の画素信号が原画像の実画素の画素信号として読み出され、水平又は垂直方向に隣接する丸枠間に位置する受光画素の画素信号は間引かれる。   42 (a) to (d), FIGS. 44 (a) to (d), FIGS. 46 (a) to (d), and FIGS. 48 (a) to 48 (d), the pixel signals of the light receiving pixels within the round frame. Are read out as pixel signals of actual pixels of the original image, and the pixel signals of the light receiving pixels located between the round frames adjacent in the horizontal or vertical direction are thinned out.

任意の間引きパターンを用いて間引き読み出しを行う場合、
撮像素子33の画素位置[pG1+4nA,pG2+4nB]及び[pG3+4nA,pG4+4nB]に配置される緑受光画素の画素信号が原画像の画素位置[pG1+4nA,pG2+4nB]及び[pG3+4nA,pG4+4nB]におけるG信号として読み出され、撮像素子33の画素位置[pB1+4nA,pB2+4nB]に配置される青受光画素の画素信号が原画像の画素位置[pB1+4nA,pB2+4nB]におけるB信号として読み出され、撮像素子33の画素位置[pR1+4nA,pR2+4nB]に配置される青受光画素の画素信号が原画像の画素位置[pR1+4nA,pR2+4nB]におけるR信号として読み出される(nA及びnBは整数)。但し、
間引きパターンQA1、QA2、QA3及びQA4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(1,1,2,2,2,1,1,2)、(3,3,4,4,4,3,3,4)、
(3,1,4,2,4,1,3,2)及び(1,3,2,4,2,3,1,4)であり、
間引きパターンQB1、QB2、QB3及びQB4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(3,1,2,2,2,1,3,2)、(5,3,4,4,4,3,5,4)、
(5,1,4,2,4,1,5,2)及び(3,3,2,4,2,3,3,4)であり、
間引きパターンQC1、QC2、QC3及びQC4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(2,2,1,3,2,3,1,2)、(4,4,3,5,4,5,3,4)、
(4,2,3,3,4,3,3,2)及び(2,4,1,5,2,5,1,4)であり、
間引きパターンQD1、QD2、QD3及びQD4を用いる場合、(pG1,pG2,pG3,pG4,pB1,pB2,pR1,pR2)は、それぞれ、
(2,2,3,3,2,3,3,2)、(4,4,5,5,4,5,5,4)、
(4,2,5,3,4,3,5,2)及び(2,4,3,5,2,5,3,4)である。
When performing thinning readout using an arbitrary thinning pattern,
Pixel position of the image sensor 33 [p G1 + 4n A, p G2 + 4n B] and [p G3 + 4n A, p G4 + 4n B] pixel position of the pixel signal is the original image of the green light receiving pixels arranged in a [p G1 + 4n A , P G2 + 4n B ] and [p G3 + 4n A , p G4 + 4n B ] are read as G signals and arranged at the pixel position [p B1 + 4n A , p B2 + 4n B ] of the image sensor 33. Is read out as a B signal at the pixel position [p B1 + 4n A , p B2 + 4n B ] of the original image, and is arranged at the pixel position [p R1 + 4n A , p R2 + 4n B ] of the image sensor 33. The pixel signal of the light receiving pixel is read out as an R signal at the pixel position [p R1 + 4n A , p R2 + 4n B ] of the original image (n A and n B are integers). However,
When the thinning patterns Q A1 , Q A2 , Q A3 and Q A4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(1,1,2,2,2,1,1,2), (3,3,4,4,4,3,3,4),
(3, 1, 4, 2, 4, 1, 3, 2) and (1, 3, 2, 4, 2, 3, 1, 4),
When the thinning patterns Q B1 , Q B2 , Q B3, and Q B4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(3, 1, 2, 2, 2, 1, 3, 2), (5, 3, 4, 4, 4, 3, 5, 4),
(5, 1, 4, 2, 4, 1, 5, 2) and (3, 3, 2, 4, 2, 3, 3, 4),
When the thinning patterns Q C1 , Q C2 , Q C3 and Q C4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(2,2,1,3,2,3,1,2), (4,4,3,5,4,5,3,4),
(4, 2, 3, 3, 4, 3, 3, 2) and (2, 4, 1, 5, 2, 5, 1, 4),
When the thinning patterns Q D1 , Q D2 , Q D3, and Q D4 are used, (p G1 , p G2 , p G3 , p G4 , p B1 , p B2 , p R1 , p R2 ) are respectively
(2,2,3,3,2,3,3,2), (4,4,5,5,4,5,5,4),
(4, 2, 5, 3, 4, 3, 5, 2) and (2, 4, 3, 5, 2, 5, 3, 4).

G、B又はR信号が読み出された画素位置に対応する、原画像上の画素は、G、B又はR信号が存在する実画素であるが、G、B及びR信号の何れもが読み出されなかった画素位置に対応する、原画像上の画素は、G、B及びR信号の何れもが存在しない空白画素である。   The pixel on the original image corresponding to the pixel position from which the G, B, or R signal is read is an actual pixel in which the G, B, or R signal exists, but all of the G, B, and R signals are read. The pixel on the original image corresponding to the pixel position that has not been output is a blank pixel in which none of the G, B, and R signals exist.

例として、間引きパターンQA1〜QA4から成る間引きパターン群QAを用いて出力合成画像を生成する処理を説明する。第7実施例に係る映像信号処理部13として、図10若しくは図26の映像信号処理部13a又は図30の映像信号処理部13bを用いることができる。 As an example, a process for generating an output composite image using a thinning pattern group Q A composed of thinning patterns Q A1 to Q A4 will be described. As the video signal processing unit 13 according to the seventh embodiment, the video signal processing unit 13a of FIG. 10 or FIG. 26 or the video signal processing unit 13b of FIG. 30 can be used.

図43(a)〜(d)及び図9(a)〜(d)から分かるように、間引きパターンQA1〜QA4を用いた間引き読み出しによって取得される原画像と、加算パターンPA1〜PA4を用いた加算読み出しによって取得される原画像とを対比した場合、両原画像間で、G、B及びR信号の存在位置の関係は同じである。但し、後者の原画像を基準として、前者の原画像におけるG、B及びR信号の存在位置は、右方向にWp分且つ下方向にWp分だけずれている(図4(a)参照)。従って、加算読み出しを行うことを前提として上述してきた事項を間引き読み出しを行う撮像装置に適用する場合、このずれに対応する分だけ、上述してきた事項を修正して考えればよい。 As can be seen from FIGS. 43 (a) to 43 (d) and FIGS. 9 (a) to 9 (d), the original image obtained by the thinning readout using the thinning patterns Q A1 to Q A4 and the addition patterns P A1 to P When comparing with the original image acquired by addition reading using A4 , the relationship of the existence positions of the G, B, and R signals is the same between the two original images. However, with the latter original image as a reference, the positions of the G, B, and R signals in the former original image are shifted by Wp in the right direction and by Wp in the downward direction (see FIG. 4A). Therefore, when applying the above-described items on the premise of performing addition reading to an imaging apparatus that performs thinning-out reading, the above-described items may be corrected by an amount corresponding to this shift.

このずれが存在する以外、両原画像(図43(a)〜(d)に対応する原画像と図9(a)〜(d)に対応する原画像)を等価なものとして取り扱うことができるため、第1〜第4実施例にて述べた事項を、そのまま第7実施例にも適用可能である。基本的には、第1〜第4実施例における加算パターン及び加算読み出しを間引きパターン及び間引き読み出しに置き換えて考えればよい。   Except for this deviation, both original images (the original image corresponding to FIGS. 43A to 43D and the original image corresponding to FIGS. 9A to 9D) can be treated as equivalent. Therefore, the matters described in the first to fourth embodiments can be applied to the seventh embodiment as they are. Basically, the addition pattern and addition reading in the first to fourth embodiments may be replaced with a thinning pattern and thinning reading.

即ち例えば、間引きパターンQA1及びQA2を夫々第1及び第2の間引きパターンとして用いることを想定し、第1及び第2の間引きパターンを交互に用いることによって、第1及び第2の間引きパターンによる原画像を交互に取得する。そして、間引きパターンによる各原画像に対して第1実施例にて述べた色補間処理を実行することにより、色補間処理部51にて色補間画像を生成する一方で、第1実施例にて述べた動き検出処理を実行することにより、動き検出部53にて隣接フレーム間の動きベクトルを検出する。そして、その検出された動きベクトルに基づきつつ、第1〜第3実施例の何れかにて述べた手法に従って、画像合成部55又は55bにて複数の色補間画像から1枚の出力合成画像を生成する。間引き読み出しによって得られた原画像列に基づく出力合成画像列に対して、第4実施例にて述べた画像圧縮技術を適用することも可能である。 That is, for example, assuming that the thinning patterns Q A1 and Q A2 are respectively used as the first and second thinning patterns, the first and second thinning patterns are used alternately. Acquire original images alternately. Then, by executing the color interpolation processing described in the first embodiment for each original image based on the thinning pattern, the color interpolation processing unit 51 generates a color interpolation image, while in the first embodiment. By executing the motion detection process described above, the motion detection unit 53 detects a motion vector between adjacent frames. Then, based on the detected motion vector, according to the method described in any of the first to third embodiments, the image composition unit 55 or 55b generates one output composite image from a plurality of color interpolation images. Generate. It is also possible to apply the image compression technique described in the fourth embodiment to the output composite image sequence based on the original image sequence obtained by the thinning readout.

また更に、間引き読み出しを利用する場合においても、第6実施例にて述べた技術は有効に機能する。間引き読み出しを利用する第7実施例に第6実施例にて述べた技術を適用する場合、第6実施例の説明文中に現れる加算パターン及び加算パターン群という用語を間引きパターン及び間引きパターンという用語に読み替え、その読み替えに伴って、加算パターン又は加算パターン群に対応する符号を間引きパターン又は間引きパターン群に対応する符号に読み替えればよい。具体的には、第6実施例における加算パターン群PA、PB、PC及びPDを夫々間引きパターン群QA、QB、QC及びQDに読み替えると共に、第6実施例における加算パターンPA1、PA2、PB1及びPB2を、夫々、間引きパターンQA1、QA2、QB1及びQB2に読み替えればよい。 Furthermore, even when thinning readout is used, the technique described in the sixth embodiment functions effectively. When the technique described in the sixth embodiment is applied to the seventh embodiment using thinning readout, the term “addition pattern” and “addition pattern group” appearing in the description of the sixth embodiment is referred to as the term “thinning pattern and thinning pattern”. Along with the replacement, the code corresponding to the addition pattern or the addition pattern group may be replaced with the code corresponding to the thinning pattern or the reduction pattern group. Specifically, the addition pattern groups P A , P B , P C and P D in the sixth embodiment are replaced with thinning pattern groups Q A , Q B , Q C and Q D , respectively, and addition in the sixth embodiment is performed. The patterns P A1 , P A2 , P B1 and P B2 may be read as thinning patterns Q A1 , Q A2 , Q B1 and Q B2 , respectively.

尚、上述してきた加算読み出し方式と間引き読み出し方式を組み合わせた読み出し方式(以下、加算/間引き方式という)を用いて、撮像素子33の受光画素信号を読み出してもよい。加算/間引き方式を用いた時の読み出しパターンを、加算/間引きパターンという。例として、図50及び図51に対応するような加算/間引きパターンを採用することができる。この加算/間引きパターンは、第1の加算/間引きパターンとして機能する。図50は、第1の加算/間引きパターンを用いた時の、信号加算の様子及び信号間引きの様子を示しており、図51は、第1の加算/間引きパターンに従って受光画素信号を読み出した時の、原画像の画素信号の様子を示す。   Note that the light receiving pixel signal of the image sensor 33 may be read using a reading method (hereinafter referred to as an addition / decimation method) that combines the above-described addition reading method and the thinning reading method. A read pattern when the addition / decimation method is used is called an addition / decimation pattern. As an example, an addition / decimation pattern corresponding to FIGS. 50 and 51 can be adopted. This addition / decimation pattern functions as a first addition / decimation pattern. FIG. 50 shows a state of signal addition and a state of signal thinning when the first addition / decimation pattern is used, and FIG. 51 shows a case where a light receiving pixel signal is read according to the first addition / decimation pattern. The state of the pixel signal of the original image is shown.

この第1の加算/間引きパターンを用いた場合、
撮像素子33の画素位置[2+6nA,2+6nB]及び[3+6nA,3+6nB]に仮想的な緑受光画素が配置され、撮像素子33の画素位置[3+6nA,2+6nB]に仮想的な青受光画素が配置され、撮像素子33の画素位置[2+6nA,3+6nB]に仮想的な赤受光画素が配置される、と想定する(nA及びnBは整数)。
When using this first addition / decimation pattern:
Pixel position of the image sensor 33 [2 + 6n A, 2 + 6n B] and virtual green light receiving pixels are arranged in a [3 + 6n A, 3 + 6n B], virtual blue pixel positions of the image sensor 33 [3 + 6n A, 2 + 6n B] It is assumed that light receiving pixels are arranged and virtual red light receiving pixels are arranged at pixel positions [2 + 6n A , 3 + 6n B ] of the image sensor 33 (n A and n B are integers).

第1実施例で述べたように、1つの仮想的な受光画素の画素信号は、その仮想的な受光画素の左斜め上、右斜め上、左斜め下及び右斜め下に隣接する実際の受光画素の画素信号の加算信号とされる。そして、位置[x,y]に配置された仮想的な受光画素の画素信号が、画像上の位置[x,y]の画素信号として取り扱われるように原画像が取得される。従って、第1の加算/間引きパターンを用いた読み出しによって得られる原画像は、図51に示す如く、画素位置[2+6nA,2+6nB]及び[3+6nA,3+6nB]に配置された、G信号のみを有する画素と、画素位置[3+6nA,2+6nB]に配置された、B信号のみを有する画素と、画素位置[2+6nA,3+6nB]に配置された、R信号のみを有する画素と、を備えた画像となる。 As described in the first embodiment, the pixel signal of one virtual light receiving pixel is the actual light reception adjacent to the upper left, upper right, lower left and lower right of the virtual light receiving pixel. This is an addition signal of pixel signals of pixels. Then, the original image is acquired so that the pixel signal of the virtual light receiving pixel arranged at the position [x, y] is handled as the pixel signal at the position [x, y] on the image. Therefore, an original image obtained by reading using the first addition / decimation pattern is a G signal arranged at pixel positions [2 + 6n A , 2 + 6n B ] and [3 + 6n A , 3 + 6n B ] as shown in FIG. A pixel having only the B signal, a pixel having only the B signal arranged at the pixel position [3 + 6n A , 2 + 6n B ], and a pixel having only the R signal arranged at the pixel position [2 + 6n A , 3 + 6n B ], It becomes an image with

このように、複数の受光画素信号を加算することによって原画像の画素信号が形成されるため、加算/間引き方式は、加算読み出し方式の一種である。同時に、位置[5,nB]、[6,nB]、[nA,5]及び[nA,6]における受光画素信号は、原画像の画素信号の生成に寄与しない。つまり、原画像の生成に際して、位置[5,nB]、[6,nB]、[nA,5]及び[nA,6]における受光画素信号は間引かれる。故に、加算/間引き方式は、間引き読み出し方式の一種であるとも言える。 Thus, since the pixel signal of the original image is formed by adding a plurality of light receiving pixel signals, the addition / decimation method is a kind of addition reading method. At the same time, the light receiving pixel signals at the positions [5, n B ], [6, n B ], [n A , 5] and [n A , 6] do not contribute to the generation of the pixel signal of the original image. That is, when the original image is generated, the light receiving pixel signals at the positions [5, n B ], [6, n B ], [n A , 5] and [n A , 6] are thinned out. Therefore, it can be said that the addition / decimation method is a kind of decimation readout method.

上述したように、加算パターンは、加算の対象となる受光画素の組み合わせパターンを意味し、間引きパターンは、間引きの対象となる受光画素の組み合わせパターンを意味する。これに対し、加算/間引きパターンは、加算及び間引きの対象となる受光画素の組み合わせパターンを意味する。加算/間引き方式を用いる場合も、互いに異なる複数の加算/間引きパターンを設定し、原画像の取得に用いる加算/間引きパターンを該複数の加算/間引きパターンの間で順次変更させながら受光画素信号の読み出しを行い、対応する加算/間引きパターンが互いに異なる複数の色補間画像を合成することによって1枚の出力合成画像を生成すればよい。   As described above, the addition pattern means a combination pattern of light receiving pixels to be added, and the thinning pattern means a combination pattern of light receiving pixels to be thinned. On the other hand, the addition / decimation pattern means a combination pattern of light receiving pixels to be added and thinned. Even when the addition / decimation method is used, a plurality of different addition / decimation patterns are set, and the addition / decimation pattern used to acquire the original image is sequentially changed between the plurality of addition / decimation patterns. One output composite image may be generated by performing readout and synthesizing a plurality of color interpolation images having different corresponding addition / decimation patterns.

<<第8実施例>>
上述の各実施例では、複数の色補間画像を合成し、合成によって得た出力合成画像を信号処理部56に与えているが、この合成を行うことなく、1枚の色補間画像のR、G及びB信号を、1枚の出力画像のR、G及びB信号として信号処理部56に与えることも可能である。この合成を行わない実施例を、第8実施例として説明する。上述の各実施例に記載した事項を、矛盾なき限り、第8実施例に適用することができる。但し、合成処理が行われないため、合成に関与する技術は第8実施例には適用されない。
<< Eighth Example >>
In each of the above-described embodiments, a plurality of color-interpolated images are synthesized, and an output synthesized image obtained by the synthesis is given to the signal processing unit 56. However, without performing this synthesis, R, The G and B signals can be given to the signal processing unit 56 as R, G, and B signals of one output image. An embodiment in which this synthesis is not performed will be described as an eighth embodiment. The matters described in the above embodiments can be applied to the eighth embodiment as long as there is no contradiction. However, since the synthesis process is not performed, the technique related to the synthesis is not applied to the eighth embodiment.

第8実施例に係る映像信号処理部13として、図52の映像信号処理部13cを用いることができる。映像信号処理部13cは、色補間処理部51、信号処理部56及び画像変換部57を備える。色補間処理部51及び信号処理部56の機能は、上述してきたものと同じである。   The video signal processing unit 13c shown in FIG. 52 can be used as the video signal processing unit 13 according to the eighth embodiment. The video signal processing unit 13 c includes a color interpolation processing unit 51, a signal processing unit 56, and an image conversion unit 57. The functions of the color interpolation processing unit 51 and the signal processing unit 56 are the same as those described above.

色補間処理部51は、AFE12の出力信号によって表される原画像に対して上述の色補間処理を実行して色補間画像を生成する。色補間処理部51にて生成された色補間画像のR、G及びB信号は、画像変換部57に与えられる。画像変換部57は、与えられた色補間画像のR、G及びB信号から出力画像のR、G及びB信号を生成する。信号処理部56は、画像変換部57にて生成された出力画像のR、G及びB信号を、輝度信号Y及び色差信号U及びVから成る映像信号に変換する。この変換によって得られた映像信号(Y、U及びV)は、圧縮処理部16に送られ、所定の画像圧縮方式に従って圧縮符号化される。画像変換部57からの出力画像列の映像信号を、図1の表示部27又は図示されない表示装置に供給することにより、その出力画像列を動画像として表示することができる。   The color interpolation processing unit 51 performs the above-described color interpolation processing on the original image represented by the output signal of the AFE 12 to generate a color interpolation image. The R, G, and B signals of the color interpolation image generated by the color interpolation processing unit 51 are given to the image conversion unit 57. The image conversion unit 57 generates R, G, and B signals of the output image from the R, G, and B signals of the given color interpolation image. The signal processing unit 56 converts the R, G, and B signals of the output image generated by the image conversion unit 57 into a video signal composed of the luminance signal Y and the color difference signals U and V. The video signals (Y, U, and V) obtained by this conversion are sent to the compression processing unit 16 and are compressed and encoded according to a predetermined image compression method. By supplying the video signal of the output image sequence from the image conversion unit 57 to the display unit 27 in FIG. 1 or a display device (not shown), the output image sequence can be displayed as a moving image.

上述の各実施例では、位置[2i−0.5,2j−0.5]における、出力合成画像270のG信号、B信号及びR信号を、夫々、Goi,j、Boi,j及びRoi,jにて表したが(図25(a)〜(c)参照)、第8実施例では、位置[2i−0.5,2j−0.5]における、画像変換部57の出力画像のG信号、B信号及びR信号を、夫々、Goi,j、Boi,j及びRoi,jにて表す。 In each of the above-described embodiments, the G signal, the B signal, and the R signal of the output composite image 270 at the position [2i−0.5, 2j−0.5] are respectively represented as Go i, j , Bo i, j and Although represented by Ro i, j (see FIGS. 25A to 25C), in the eighth embodiment, the output of the image conversion unit 57 at the position [2i−0.5, 2j−0.5]. The G signal, B signal, and R signal of the image are represented by Go i, j , Bo i, j and Ro i, j, respectively.

図53を参照し、具体例を挙げて映像信号処理部13cの動作を説明する。今、第1及び第2の加算パターンとして夫々加算パターンPA1及びPA2を用い(図7(a)及び(b)参照)、第1及び第2の加算パターンの原画像が交互に撮影される場合を考える。順次、第n、第(n+1)、第(n+2)及び第(n+3)番目の原画像が取得される。第n、第(n+1)、第(n+2)及び第(n+3)番目の原画像が、夫々、第1、第2、第1及び第2の加算パターンの原画像であり、且つ、第n及び第(n+1)番目の原画像から生成された色補間画像が、夫々、色補間画像261及び262である場合を想定する(図20(a)及び図21(a)等参照)。また、色補間画像261及び262から生成される、画像変換部57の出力画像が、それぞれ出力画像501及び502であるとする。 With reference to FIG. 53, the operation of the video signal processing unit 13c will be described with a specific example. Now, using the addition patterns P A1 and P A2 as the first and second addition patterns (see FIGS. 7A and 7B), the original images of the first and second addition patterns are alternately photographed. Consider the case. The nth, (n + 1) th, (n + 2) th, and (n + 3) th original images are acquired sequentially. The nth, (n + 1) th, (n + 2) and (n + 3) th original images are the original images of the first, second, first and second addition patterns, respectively, and the nth and nth Assume that the color interpolation images generated from the (n + 1) th original image are color interpolation images 261 and 262, respectively (see FIG. 20A, FIG. 21A, etc.). Also, output images of the image conversion unit 57 generated from the color interpolation images 261 and 262 are output images 501 and 502, respectively.

第1実施例では、色補間画像261と色補間画像262との間において、G信号の存在位置が相違し、且つ、B信号の存在位置が相違し、且つ、R信号の存在位置が相違することを考慮して、色補間画像261のG、B及びR信号と色補間画像262のG、B及びR信号を混合した(式(B1)等参照)。   In the first embodiment, the position where the G signal is present, the position where the B signal is present, and the position where the R signal is present are different between the color interpolation image 261 and the color interpolation image 262. In consideration thereof, the G, B, and R signals of the color interpolation image 261 and the G, B, and R signals of the color interpolation image 262 are mixed (see equation (B1) and the like).

第8実施例に係る画像変換部57は、これらの相違に基づき、Goi,j=G1i,j、Boi,j=B1i,j及びRoi,j=R1i,jに従って出力画像501のG、B及びR信号値を求め、Goi,j=G2i-1,j-1、Boi,j=B2i-1,j-1及びRoi,j=R2i-1,j-1に従って出力画像502のG、B及びR信号値を求める。第(n+2)番目の原画像に基づく色補間画像も色補間画像261であるとするならば、第(n+2)番目の原画像に基づく出力画像のG、B及びR信号値も、Boi,j=B1i,j及びRoi,j=R1i,jに従って求められる。同様に、第(n+3)番目の原画像に基づく色補間画像も色補間画像262であるとするならば、第(n+3)番目の原画像に基づく出力画像のG、B及びR信号値も、Goi,j=G2i-1,j-1、Boi,j=B2i-1,j-1及びRoi,j=R2i-1,j-1に従って求められる。 Based on these differences, the image conversion unit 57 according to the eighth embodiment outputs an output image according to Go i, j = G1 i, j , Bo i, j = B1 i, j and Ro i, j = R1 i, j. 501 G, B, and R signal values are obtained, and Go i, j = G2 i−1, j−1 , Bo i, j = B2 i−1, j−1 and Ro i, j = R2 i−1. The G, B, and R signal values of the output image 502 are obtained according to j-1 . If the color-interpolated image based on the (n + 2) -th original image is also the color-interpolated image 261, the G, B, and R signal values of the output image based on the (n + 2) -th original image are also Bo i, j = B1 i, j and Ro i, j = R1 i, j . Similarly, if the color interpolation image based on the (n + 3) th original image is also the color interpolation image 262, the G, B, and R signal values of the output image based on the (n + 3) th original image are Go i, j = G2 i-1, j-1 , Bo i, j = B2 i-1, j-1 and Ro i, j = R2 i-1, j-1 .

出力画像における信号Goi,j、Boi,j及びRoi,jの位置[2i−0.5,2j−0.5]から見て、色補間画像261における信号G1i,j、B1i,j及びR1i,jの位置は若干ずれており、色補間画像262における信号G2i-1,j-1、B2i-1,j-1及びR2i-1,j-1の位置も若干ずれている。 Seen from the positions [2i-0.5, 2j-0.5] of the signals Go i, j , Bo i, j and Ro i, j in the output image, the signals G1 i, j , B1 i in the color interpolation image 261 , j and R1 i, j are slightly shifted, and the positions of the signals G2 i−1, j−1 , B2 i−1, j−1 and R2 i−1, j−1 in the color interpolation image 262 are also different. Some deviation.

これらのずれに起因して、1枚1枚の出力画像を静止画像として見たならばジャギー等の画質劣化が観察される。しかしながら、画像変換部57からはフレーム周期にて出力画像が順次生成されており、出力画像列を動画像として見た場合、フレーム周期にもよるが、ユーザはこのような画質劣化を殆ど感じない。この理由は、インターレースによる動画像において、映像のちらつきを殆ど感知できない理由と同様であり、ユーザの目の残像効果が利用されている。   Due to these deviations, image quality degradation such as jaggy is observed if each output image is viewed as a still image. However, output images are sequentially generated from the image conversion unit 57 in a frame cycle, and when the output image sequence is viewed as a moving image, the user hardly feels such image quality deterioration depending on the frame cycle. . The reason for this is the same as the reason why almost no video flicker can be detected in interlaced moving images, and the afterimage effect of the user's eyes is used.

一方、出力画像501と出力画像502との間において、同一位置[2i−0.5,2j−0.5]の色信号のサンプリング点は異なっている。例えば、出力画像501の位置[5.5,5.5]におけるG信号Go3,3として利用される、色補間画像261のG信号G13,3のサンプリング点(位置[6,6])と、出力画像502の位置[5.5,5.5]におけるG信号Go3,3として利用される、色補間画像262のG信号G12,2のサンプリング点(位置[5,5])とは異なる。このような出力画像501及び502を含む出力画像列を動画像として表示した場合、目の残像効果が働いて、ユーザは、両方のサンプリング点における画像情報を一度に認識することとなる。つまり、受光画素信号の加算読み出しによる画質低下(間引き読み出しを行う場合にあっては、間引き読み出しによる画質低下)を補償することができる。加えて、画素間隔を均等化する補間処理(図54のブロック902及び903参照)を行わない分、解像感の劣化が抑制される。即ち、図54に対応する従来手法と比べて、解像感の向上が図られる。 On the other hand, the sampling point of the color signal at the same position [2i−0.5, 2j−0.5] is different between the output image 501 and the output image 502. For example, the sampling point (position [6, 6]) of the G signal G1 3,3 of the color interpolation image 261 used as the G signal Go 3,3 at the position [5.5, 5.5] of the output image 501 And the sampling point (position [5, 5]) of the G signal G12, 2 of the color interpolation image 262, which is used as the G signal Go 3,3 at the position [5.5, 5.5] of the output image 502 Is different. When such an output image sequence including the output images 501 and 502 is displayed as a moving image, the afterimage effect of the eyes works, and the user recognizes image information at both sampling points at once. That is, it is possible to compensate for image quality deterioration due to addition reading of the light-receiving pixel signals (image quality deterioration due to thinning readout when thinning readout is performed). In addition, since the interpolation process for equalizing the pixel intervals (see blocks 902 and 903 in FIG. 54) is not performed, deterioration in resolution is suppressed. That is, the resolution can be improved as compared with the conventional method corresponding to FIG.

出力画像501及び502を含む出力画像列を生成する処理は、フレーム周期が比較的高い場合(例えば、フレーム周期が1/60秒である場合)に有益である。フレーム周期が比較的低い場合(例えば、フレーム周期が1/30秒である場合)は、目の残像効果が弱まるため、第1〜第7実施例で述べたような、複数の色補間画像に基づく出力合成画像の生成を行った方がよい。   The process of generating the output image sequence including the output images 501 and 502 is useful when the frame period is relatively high (for example, when the frame period is 1/60 second). When the frame period is relatively low (for example, when the frame period is 1/30 second), the afterimage effect of the eyes is weakened. Therefore, a plurality of color-interpolated images as described in the first to seventh embodiments are used. It is better to generate an output composite image based on it.

図52に示される映像信号処理部13cの機能を実現するブロックと、図10、図26又は図30に示される映像信号処理部13a又は13bの機能を実現するブロックとを図1の映像信号処理部13に搭載し、フレーム周期に応じて、それらのブロックを使い分けるようにしてもよい。即ち、フレーム周期が所定の基準周期(例えば、1/30秒)よりも大きい場合は、前者のブロックを作動させて画像変換部57から出力画像列を出力させ、フレーム周期が基準周期以下である場合は、後者のブロックを作動させて画像合成部55又は55bから出力合成画像列を出力させるようにしてもよい。   The block for realizing the function of the video signal processing unit 13c shown in FIG. 52 and the block for realizing the function of the video signal processing unit 13a or 13b shown in FIG. 10, FIG. 26 or FIG. It may be mounted on the unit 13 and used properly depending on the frame period. That is, when the frame period is larger than a predetermined reference period (for example, 1/30 second), the former block is operated to output the output image sequence from the image conversion unit 57, and the frame period is equal to or less than the reference period. In this case, the latter block may be operated to output the output composite image sequence from the image compositing unit 55 or 55b.

また、第1及び第2の加算パターンとしての加算パターンPA1及びPA2を用い、加算パターンPA1及びPA2の原画像を交互に取得する例を上述したが、第1〜第4の加算パターンとしての加算パターンPA1〜PA4を用い、加算パターンPA1〜PA4の原画像を順次繰り返し取得するようにしてもよい。この場合、加算パターンPA1、PA2、PA3、PA4、PA1、PA2・・・、を順次用いて原画像が取得され、画像変換部57から、加算パターンPA1、PA2、PA3、PA4、PA1、PA2・・・、の原画像に基づく出力画像が順次出力される。また、第1〜第4の加算パターンから成る加算パターン群として、加算パターンPA1〜PA4から成る加算パターン群PAの代わりに、加算パターンPB1〜PB4から成る加算パターン群PB、加算パターンPC1〜PC4から成る加算パターン群PC又は加算パターンPD1〜PD4から成る加算パターン群PDを用いるようにしてもよい(図34(a)等参照)。 Further, using the sum pattern P A1 and P A2 of the first and second summing pattern has been described above an example of obtaining the original image of the addition pattern P A1 and P A2 are alternately first to fourth addition of with addition pattern P A1 to P A4 as pattern, it may be sequentially repeated to obtain the original image of the addition pattern P A1 to P A4. In this case, the original image is obtained by sequentially using the addition patterns P A1 , P A2 , P A3 , P A4 , P A1 , P A2 , and the like, and the image conversion unit 57 adds the addition patterns P A1 , P A2 , Output images based on the original images P A3 , P A4 , P A1 , P A2 ... Are sequentially output. Also, as an addition pattern group consisting of the first to fourth summing patterns, instead of adding pattern group P A consisting addition pattern P A1 to P A4, the addition pattern group P B consisting addition pattern P B1 to P B4, An addition pattern group P C composed of the addition patterns P C1 to P C4 or an addition pattern group P D composed of the addition patterns P D1 to P D4 may be used (see FIG. 34A, etc.).

また、映像信号処理部13cに、図10に示されるフレームメモリ52、動き検出部53及びメモリ54を追加し、第6実施例で述べたように、動き検出部53の動き検出結果に基づいて、原画像を取得するために用いる加算パターン群を切り換えて使用するようにしてもよい。例えば、第6実施例で述べたように(図41参照)、加算パターン群PAと加算パターン群PBとの間で用いる加算パターン群を切り換え可能なように撮像装置1を形成しておく。そして、原画像400〜404から色補間画像410〜414が得られるとした場合、動きベクトルM23を含む選択用動きベクトルに基づき、第6実施例で述べた方法に従って、原画像404の取得時に用いる加算パターン群を加算パターン群PA及びPBの中から選択するようにしてもよい。 Further, the frame memory 52, the motion detection unit 53, and the memory 54 shown in FIG. 10 are added to the video signal processing unit 13c. The addition pattern group used for acquiring the original image may be switched and used. For example, as described in the sixth embodiment (see FIG. 41), the imaging device 1 is formed so that the addition pattern group used between the addition pattern group P A and the addition pattern group P B can be switched. . When it is from the original image 400 to 404 and the color interpolated images 410-414 is obtained, based on the selection for the motion vectors comprising motion vectors M 23, according to the method described in the sixth embodiment, at the time of acquisition of the original image 404 it may be selected from among the sum pattern group P a and P B addition pattern group is used.

また、第1〜第6実施例を第7実施例のように変形可能なように、第8実施例にて上述した事項を間引き読み出しにも適用することができる。この場合、第8実施例にて上述した説明文中に現れる、加算パターン及び加算パターン群という用語を間引きパターン及び間引きパターンという用語に読み替えればよい。その読み替えに伴って、加算パターン又は加算パターン群に対応する符号も間引きパターン又は間引きパターン群に対応する符号に読み替えればよい(具体的には、PA、PB、PC及びPDを夫々QA、QB、QC及びQDに読み替えると共に、PA1〜PA4、PB1〜PB4、PC1〜PC4及びPD1〜PD4を、夫々、QA1〜QA4、QB1〜QB4、QC1〜QC4及びQD1〜QD4に読み替えればよい)。 Further, the items described in the eighth embodiment can be applied to thinning-out reading so that the first to sixth embodiments can be modified as in the seventh embodiment. In this case, the terms “addition pattern” and “addition pattern group” appearing in the above description in the eighth embodiment may be replaced with the terms “decimation pattern” and “decimation pattern”. Along with the replacement, the code corresponding to the addition pattern or the addition pattern group may be replaced with the code corresponding to the thinning pattern or the thinning pattern group (specifically, P A , P B , P C and P D are replaced with Each of them is read as Q A , Q B , Q C and Q D , and P A1 to P A4 , P B1 to P B4 , P C1 to P C4 and P D1 to P D4 are changed to Q A1 to Q A4 , Q respectively. B1 to Q B4, may be read as the Q C1 to Q C4 and Q D1 ~Q D4).

但し、第7実施例にても述べたように、間引きパターンQA1〜QA4を用いた間引き読み出しによって取得された原画像と、加算パターンPA1〜PA4を用いた加算読み出しによって取得された原画像とを対比した場合、両原画像間で、G、B及びR信号の存在位置の関係は同じであるものの、後者の原画像を基準として、前者の原画像におけるG、B及びR信号の存在位置は、右方向にWp分且つ下方向にWp分だけずれている(図4(a)、図9(a)、図43(a)等参照)。同様のずれが、加算パターン群PB−間引きパターン群QB間などにも存在する。従って、間引き読み出しを行う場合は、このずれに対応する分だけ、第8実施例にて上述してきた事項を修正して考えればよい。 However, as described in the seventh embodiment, the original image obtained by the thinning readout using the thinning patterns Q A1 to Q A4 and the addition reading using the addition patterns P A1 to P A4 are obtained. When the original image is compared, the relationship between the positions of the G, B, and R signals is the same between the two original images, but the G, B, and R signals in the former original image are based on the latter original image. Is shifted by Wp in the right direction and by Wp in the downward direction (see FIG. 4A, FIG. 9A, FIG. 43A, etc.). A similar deviation also exists between the addition pattern group P B and the thinning pattern group Q B. Therefore, when thinning-out reading is performed, the matter described above in the eighth embodiment may be corrected by an amount corresponding to this shift.

<<変形等>>
上述した説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。上述の実施形態の変形例または注釈事項として、以下に、注釈1〜注釈3を記す。各注釈に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。
<< Deformation, etc. >>
The specific numerical values shown in the above description are merely examples, and as a matter of course, they can be changed to various numerical values. As modifications or annotations of the above-described embodiment, notes 1 to 3 are described below. The contents described in each comment can be arbitrarily combined as long as there is no contradiction.

[注釈1]
上述してきた加算パターンは様々に変形可能である。上述の加算読み出し方式では、4個の受光画素信号を加算することによって原画像上の1つの画素信号を形成しているが、4個以外の複数の受光画素信号(例えば、9個又は16個の受光画素信号)を加算することによって原画像上の1つの画素信号を形成するようにしてもよい。
[Note 1]
The addition pattern described above can be variously modified. In the above addition readout method, one pixel signal on the original image is formed by adding four light receiving pixel signals. However, a plurality of light receiving pixel signals other than four (for example, nine or sixteen light receiving pixels). (One light receiving pixel signal) may be added to form one pixel signal on the original image.

同様に、上述してきた間引きパターンも様々に変形可能である。上述の間引き読み出し方式では、水平及び垂直方向に2画素ずつ受光画素信号が間引かれるが、間引かれる受光画素信号の個数は2以外であってもよい。例えば、水平及び垂直方向に4画素ずつ受光画素信号を間引くようにしてもよい。   Similarly, the thinning pattern described above can be variously modified. In the thinning readout method described above, the light receiving pixel signals are thinned out by two pixels in the horizontal and vertical directions, but the number of light receiving pixel signals to be thinned may be other than two. For example, the light receiving pixel signal may be thinned out by four pixels in the horizontal and vertical directions.

[注釈2]
図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、映像信号処理部(13、13a、13b又は13c)内で実行される処理の全部又は一部を、ソフトウェアを用いて実現することも可能である。勿論、映像信号処理部をハードウェアのみで形成することも可能である。ソフトウェアを用いて撮像装置1を構成する場合、ソフトウェアにて実現される部位についてのブロック図は、その部位の機能ブロック図を表すことになる。
[Note 2]
The imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, all or part of the processing executed in the video signal processing unit (13, 13a, 13b, or 13c) can be realized using software. Of course, it is also possible to form the video signal processing unit only by hardware. When the imaging apparatus 1 is configured using software, a block diagram of a part realized by software represents a functional block diagram of the part.

[注釈3]
例えば、以下のように考えることができる。図1のCPU23は、原画像の取得の際に、どのような加算パターン又は間引きパターンを用いるかを制御し、この制御の下、撮像素子33から原画像の画素信号となるべき信号が読み出される。従って、原画像を取得する原画像取得手段は、主としてCPU23と映像信号処理部13によって実現されると考えることもでき、この原画像取得手段に、加算読み出し又は間引き読み出しを行う読出手段が内包されていると考えることもできる。尚、加算読み出し方式と間引き読み出し方式を組み合わせた加算/間引き方式は、上述したように、加算読み出し方式又は間引き読み出し方式の一種であるので、加算読み出し方式による加算/間引きパターンは加算パターン又は間引きパターンの一種であると考えることができると共に、加算読み出し方式による受光画素信号の読み出しは加算読み出し又は間引き読み出しの一種であると考えることができる。
[Note 3]
For example, it can be considered as follows. The CPU 23 in FIG. 1 controls what addition pattern or thinning pattern is used when acquiring the original image, and under this control, a signal to be a pixel signal of the original image is read from the image sensor 33. . Therefore, it can be considered that the original image acquisition means for acquiring the original image is mainly realized by the CPU 23 and the video signal processing unit 13, and the original image acquisition means includes a reading means for performing addition reading or thinning reading. You can also think that Note that, as described above, the addition / decimation method that combines the addition readout method and the thinning-out readout method is a kind of the addition readout method or the thinning-out readout method. In addition, the readout of the light-receiving pixel signal by the addition readout method can be considered as a kind of addition readout or thinning readout.

本発明の実施形態に係る撮像装置の全体ブロック図である。1 is an overall block diagram of an imaging apparatus according to an embodiment of the present invention. 図1の撮像素子の有効領域内における受光画素配列を示す図である。It is a figure which shows the light receiving pixel arrangement | sequence in the effective area | region of the image pick-up element of FIG. 図1の撮像素子に対するカラーフィルタ配列を示す図である。It is a figure which shows the color filter arrangement | sequence with respect to the image pick-up element of FIG. 図1の撮像装置によって撮影された原画像の画素配列を示す図(a)と、原画像を含む任意の画像にとっての画像座標面を示す図(b)である。FIG. 2A is a diagram showing a pixel arrangement of an original image photographed by the imaging apparatus of FIG. 1 and FIG. 2B is a diagram showing an image coordinate plane for an arbitrary image including the original image. 全画素読み出し方式を用いて得た原画像における画素信号のイメージ図である。It is an image figure of the pixel signal in the original picture obtained using all the pixel readout methods. 図5の原画像に対して施される色補間処理の概念図(a)〜(c)と、図5の原画像に色補間処理を施すことによって得られた色補間画像のイメージ図(d)〜(e)である。Conceptual diagrams (a) to (c) of color interpolation processing performed on the original image of FIG. 5, and an image diagram (d) of a color interpolation image obtained by performing color interpolation processing on the original image of FIG. To (e). 本発明の第1実施例に係り、第1及び第2の加算パターンを用いた場合における信号加算の様子を示す図である。It is a figure which concerns on 1st Example of this invention and shows the mode of the signal addition in the case of using the 1st and 2nd addition pattern. 本発明の第1実施例に係り、第3及び第4の加算パターンを用いた場合における信号加算の様子を示す図である。It is a figure which concerns on 1st Example of this invention and shows the mode of the signal addition in the case of using the 3rd and 4th addition pattern. 本発明の第1実施例に係り、第1〜第4の加算パターンを用いて加算読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 6 is a diagram illustrating a state of a pixel signal of an original image obtained when addition reading is performed using the first to fourth addition patterns according to the first embodiment of the present invention. 本発明の第1実施例に係り、図1の映像信号処理部の内部ブロック図を含む、撮像装置の一部ブロック図である。FIG. 2 is a partial block diagram of the imaging apparatus according to the first embodiment of the present invention, including an internal block diagram of the video signal processing unit of FIG. 1. 本発明の第1実施例に係り、複数の画素信号から補間画素位置の画素信号を算出する手法を説明するための図である。FIG. 6 is a diagram for describing a method of calculating a pixel signal at an interpolation pixel position from a plurality of pixel signals according to the first embodiment of the present invention. 本発明の第1実施例に係り、第1の加算パターンを用いて取得された原画像におけるG、B及びR信号が混合される様子を示す図である。It is a figure which shows a mode that G, B, and R signal in the original image acquired using the 1st addition pattern are mixed according to 1st Example of this invention. 本発明の第1実施例に係り、図12(a)〜(c)に対応する原画像から生成された色補間画像上のG、B及びR信号を示す図である。FIG. 13 is a diagram illustrating G, B, and R signals on a color interpolation image generated from an original image corresponding to FIGS. 12A to 12C according to the first embodiment of the present invention. 本発明の第1実施例に係り、第2の加算パターンを用いて取得された原画像におけるG、B及びR信号が混合される様子を示す図である。It is a figure which shows a mode that G, B, and R signal in the original image acquired using the 2nd addition pattern are mixed according to 1st Example of this invention. 本発明の第1実施例に係り、図14(a)〜(c)に対応する原画像から生成された色補間画像上のG、B及びR信号を示す図である。It is a figure which concerns on 1st Example of this invention and shows G, B, and R signal on the color interpolation image produced | generated from the original image corresponding to Fig.14 (a)-(c). 本発明の第1実施例に係り、第3の加算パターンを用いて取得された原画像におけるG、B及びR信号が混合される様子を示す図である。It is a figure which shows a mode that G, B, and R signal in the original image acquired using the 3rd addition pattern are mixed according to 1st Example of this invention. 本発明の第1実施例に係り、図16(a)〜(c)に対応する原画像から生成された色補間画像上のG、B及びR信号を示す図である。It is a figure which concerns on 1st Example of this invention and shows G, B, and R signal on the color interpolation image produced | generated from the original image corresponding to Fig.16 (a)-(c). 本発明の第1実施例に係り、第4の加算パターンを用いて取得された原画像におけるG、B及びR信号が混合される様子を示す図である。It is a figure which concerns on 1st Example of this invention and shows a mode that G, B, and R signal in the original image acquired using the 4th addition pattern are mixed. 本発明の第1実施例に係り、図18(a)〜(c)に対応する原画像から生成された色補間画像上のG、B及びR信号を示す図である。It is a figure which concerns on 1st Example of this invention and shows G, B, and R signal on the color interpolation image produced | generated from the original image corresponding to Fig.18 (a)-(c). 本発明の第1実施例に係り、図12(a)〜(c)に対応する原画像から生成された色補間画像上のG、B及びR信号を示す図である。FIG. 13 is a diagram illustrating G, B, and R signals on a color interpolation image generated from an original image corresponding to FIGS. 12A to 12C according to the first embodiment of the present invention. 本発明の第1実施例に係り、図14(a)〜(c)に対応する原画像から生成された色補間画像上のG、B及びR信号を示す図である。It is a figure which concerns on 1st Example of this invention and shows G, B, and R signal on the color interpolation image produced | generated from the original image corresponding to Fig.14 (a)-(c). 本発明の第1実施例に係り、色補間画像とそれに対応する輝度画像を示す図である。FIG. 6 is a diagram illustrating a color interpolation image and a corresponding luminance image according to the first embodiment of the present invention. 本発明の第1実施例に係り、出力合成画像上のG、B及びR信号を生成するための、色補間画像上のG、B及びR信号を示す図である。FIG. 6 is a diagram illustrating G, B, and R signals on a color interpolation image for generating G, B, and R signals on an output composite image according to the first embodiment of the present invention. 本発明の第1実施例に係り、出力合成画像上のB及びR信号を生成するための、色補間画像上のB及びR信号を示す図である。FIG. 6 is a diagram illustrating B and R signals on a color interpolation image for generating B and R signals on an output composite image according to the first embodiment of the present invention. 本発明の第1実施例に係り、出力合成画像のG、B及びR信号の存在位置を示す図である。It is a figure which concerns on 1st Example of this invention and shows the presence position of G, B, and R signal of an output synthetic | combination image. 本発明の第2実施例に係り、図1の映像信号処理部の内部ブロック図を含む、撮像装置の一部ブロック図である。FIG. 5 is a partial block diagram of an imaging apparatus according to a second embodiment of the present invention, including an internal block diagram of a video signal processing unit in FIG. 1. 本発明の第2実施例に係り、動きベクトルの大きさと、複数の色補間画像の色信号混合に利用される重み係数との関係例を示す図である。It is a figure which shows the example of a relationship between the magnitude | size of a motion vector and the weighting coefficient utilized for the color signal mixing of several color interpolation image concerning 2nd Example of this invention. 1枚の画像の全体画像領域が9つの一部画像領域に分割されている様子を示す図(a)と、2枚の画像間における動きベクトル群を示す図(b)である。FIG. 5A is a diagram illustrating a state in which an entire image region of one image is divided into nine partial image regions, and FIG. 5B is a diagram illustrating a motion vector group between two images. 2枚の色補間画像と1枚の出力合成画像との関係を示す図である。It is a figure which shows the relationship between two color interpolation images and one output synthetic | combination image. 本発明の第3実施例に係り、図1の映像信号処理部の内部ブロック図を含む、撮像装置の一部ブロック図である。FIG. 7 is a partial block diagram of an imaging apparatus according to a third embodiment of the present invention, including an internal block diagram of a video signal processing unit in FIG. 1. 本発明の第3実施例に係り、画像のコントラスト量と複数の色補間画像の色信号混合に利用される基準重み値との関係例を示す図(a)、及び、動きベクトルの大きさと複数の色補間画像の色信号混合に利用される重み係数との関係例を示す図(b)である。FIG. 11A is a diagram illustrating an example of a relationship between a contrast amount of an image and a reference weight value used for mixing color signals of a plurality of color-interpolated images according to the third embodiment of the present invention; It is a figure (b) which shows the example of a relationship with the weighting coefficient utilized for the color signal mixing of the color interpolation image of. 本発明の第4実施例に係るMPEG動画像の構成を示す図である。It is a figure which shows the structure of the MPEG moving image which concerns on 4th Example of this invention. 本発明の第4実施例に係り、色補間画像列と、出力合成画像列と、総合重み係数列と、の関係を示す図である。It is a figure which concerns on 4th Example of this invention and shows the relationship between a color interpolation image sequence, an output synthetic | combination image sequence, and a total weight coefficient sequence. 本発明の第5実施例に係り、加算パターン群(PB1〜PB4)を用いた場合における信号加算の様子を示す図である。It is a figure which shows the mode of the signal addition in the case of using the addition pattern group (P B1 -P B4 ) according to the fifth embodiment of the present invention. 本発明の第5実施例に係り、図34(a)〜(d)の加算パターン群を用いて加算読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 35 is a diagram illustrating a state of a pixel signal of an original image obtained when addition reading is performed using the addition pattern group of FIGS. 34A to 34D according to the fifth embodiment of the present invention. 本発明の第5実施例に係り、加算パターン群(PC1〜PC4)を用いた場合における信号加算の様子を示す図である。It is a figure which shows the mode of the signal addition in the case of using the addition pattern group (P C1 to P C4 ) according to the fifth embodiment of the present invention. 本発明の第5実施例に係り、図36(a)〜(d)の加算パターン群を用いて加算読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 37 is a diagram illustrating a state of a pixel signal of an original image obtained when addition reading is performed using the addition pattern group of FIGS. 36A to 36D according to the fifth embodiment of the present invention. 本発明の第5実施例に係り、加算パターン群(PD1〜PD4)を用いた場合における信号加算の様子を示す図である。It relates to the fifth embodiment of the present invention, showing the state of signal addition in the case of using the sum pattern group (P D1 ~P D4). 本発明の第5実施例に係り、図38(a)〜(d)の加算パターン群を用いて加算読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 39 is a diagram illustrating a state of a pixel signal of an original image obtained when addition reading is performed using the addition pattern group of FIGS. 38A to 38D according to the fifth example of the present invention. 本発明の第6実施例にて定義される右下がり直線と右上がり直線とを示す図である。It is a figure which shows the downward slope straight line and the upward slope straight line which are defined in 6th Example of this invention. 本発明の第6実施例に係り、原画像列と、色補間画像列と、動きベクトル列と、各原画像に適用される加算パターン群と、の関係を示す図である。It is a figure which concerns on 6th Example of this invention and shows the relationship between an original image sequence, a color interpolation image sequence, a motion vector sequence, and the addition pattern group applied to each original image. 本発明の第7実施例に係り、間引きパターン群(QA1〜QA4)を示す図である。It relates to a seventh embodiment of the present invention, showing a thinning pattern group (Q A1 ~Q A4). 本発明の第7実施例に係り、図42(a)〜(d)の間引きパターン群を用いて間引き読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 45 is a diagram illustrating a state of a pixel signal of an original image obtained when thinning readout is performed using the thinning pattern group in FIGS. 42A to 42D according to the seventh embodiment of the present invention. 本発明の第7実施例に係り、間引きパターン群(QB1〜QB4)を示す図である。It relates to a seventh embodiment of the present invention, showing a thinning pattern group (Q B1 ~Q B4). 本発明の第7実施例に係り、図44(a)〜(d)の間引きパターン群を用いて間引き読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 45 is a diagram illustrating a state of a pixel signal of an original image obtained when thinning readout is performed using the thinning pattern group in FIGS. 44A to 44D according to the seventh embodiment of the present invention. 本発明の第7実施例に係り、間引きパターン群(QC1〜QC4)を示す図である。It relates to a seventh embodiment of the present invention, showing a thinning pattern group (Q C1 ~Q C4). 本発明の第7実施例に係り、図46(a)〜(d)の間引きパターン群を用いて間引き読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 49 is a diagram illustrating a state of a pixel signal of an original image obtained when thinning readout is performed using the thinning pattern group in FIGS. 46A to 46D according to the seventh embodiment of the present invention. 本発明の第7実施例に係り、間引きパターン群(QD1〜QD4)を示す図である。It relates to a seventh embodiment of the present invention, showing a thinning pattern group (Q D1 ~Q D4). 本発明の第7実施例に係り、図48(a)〜(d)の間引きパターン群を用いて間引き読み出しを行った場合に得られる原画像の画素信号の様子を示す図である。FIG. 49 is a diagram illustrating a state of a pixel signal of an original image obtained when thinning readout is performed using the thinning pattern group in FIGS. 48A to 48D according to the seventh embodiment of the present invention. 本発明の第7実施例に係り、加算/間引きパターンを用いた時の、信号加算の様子及び信号間引きの様子を示す図である。It is a figure which shows the mode of signal addition and the state of signal decimation when an addition / thinning pattern is used according to the seventh embodiment of the present invention. 本発明の第7実施例に係り、図50の加算/間引きパターンに従って受光画素信号を読み出した時の、原画像の画素信号の様子を示す図である。FIG. 50 is a diagram illustrating a state of a pixel signal of an original image when a light receiving pixel signal is read according to the addition / thinning pattern of FIG. 50 according to the seventh embodiment of the present invention. 本発明の第8実施例に係り、図1の映像信号処理部の内部ブロック図を含む、撮像装置の一部ブロック図である。FIG. 10 is a partial block diagram of an imaging apparatus according to an eighth embodiment of the present invention, including an internal block diagram of a video signal processing unit in FIG. 1. 本発明の第8実施例に係り、原画像列と、色補間画像列と、出力画像列と、の関係を示す図である。FIG. 20 is a diagram illustrating a relationship among an original image sequence, a color interpolation image sequence, and an output image sequence according to the eighth embodiment of the present invention. 従来技術に係り、撮像素子の受光画素信号の加算読み出しを行って得た原画像から出力画像を生成する処理を説明するための図である。FIG. 10 is a diagram for describing processing for generating an output image from an original image obtained by performing addition reading of light receiving pixel signals of an image sensor according to a conventional technique.

符号の説明Explanation of symbols

1 撮像装置
11 撮像部
12 AFE
13、13a、13b、13c 映像信号処理部
16 圧縮処理部
33 撮像素子
51 色補間処理部
52 フレームメモリ
53 動き検出部
54 メモリ
55、55b 画像合成部
56 信号処理部
57 画像変換部
61、71 重み係数算出部
62、72 合成処理部
70 コントラスト算出部
DESCRIPTION OF SYMBOLS 1 Imaging device 11 Imaging part 12 AFE
13, 13a, 13b, 13c Video signal processing unit 16 Compression processing unit 33 Image sensor 51 Color interpolation processing unit 52 Frame memory 53 Motion detection unit 54 Memory 55, 55b Image composition unit 56 Signal processing unit 57 Image conversion unit 61, 71 Weight Coefficient calculation unit 62, 72 Composition processing unit 70 Contrast calculation unit

Claims (11)

単板方式の撮像素子に二次元配列された受光画素群の画素信号の加算読み出し又は間引き読み出しを行う読出手段を有し、加算又は間引きの対象となる受光画素の組み合わせが異なる複数の読み出しパターンを用いることにより、画素信号を有する画素位置が互いに異なる複数の原画像を取得する原画像取得手段と、
前記原画像ごとに、前記原画像の画素信号群に含まれる同一色の画素信号同士を混合し、その混合によって得られた画素信号を有する補間画像を生成する補間処理手段と、を備えた
ことを特徴とする画像処理装置。
A reading means for performing addition reading or thinning readout of pixel signals of a light receiving pixel group arranged two-dimensionally on a single-plate image sensor, and having a plurality of readout patterns with different combinations of light receiving pixels to be added or thinned out By using the original image acquisition means for acquiring a plurality of original images having different pixel positions having pixel signals,
Interpolation processing means for mixing pixel signals of the same color included in the pixel signal group of the original image for each original image, and generating an interpolated image having pixel signals obtained by the mixing, An image processing apparatus.
各補間画像の画素信号群は、第1の色を含む複数色の画素信号から成り、
各補間画像において、前記第1の色の画素信号が存在する画素位置の間隔は不均等である
ことを特徴とする請求項1に記載の画像処理装置。
The pixel signal group of each interpolation image is composed of pixel signals of a plurality of colors including the first color,
2. The image processing apparatus according to claim 1, wherein in each interpolated image, intervals between pixel positions where the pixel signals of the first color are present are unequal.
前記複数の原画像に含まれる着目した1枚の原画像を着目原画像と呼ぶとともに、前記着目原画像から生成される補間画像を着目補間画像と呼び、且つ、前記複数色に含まれる着目色の画素信号を着目色画素信号と呼んだ場合、
前記補間処理手段は、前記着目原画像の着目色画素信号が存在する画素位置と異なる位置に補間画素位置を設定して、前記補間画素位置に着目色の画素信号を有する画像を前記着目補間画像として生成し、
前記着目補間画像を生成する際、着目色画素信号が存在する、前記着目原画像上の複数の画素位置に注目して、前記複数の画素位置おける複数の着目色画素信号を混合することにより前記補間画素位置に対する画素信号を生成し、
前記補間画素位置は、前記複数の画素位置の重心位置に設定される
ことを特徴とする請求項2に記載の画像処理装置。
A focused original image included in the plurality of original images is referred to as a focused original image, an interpolation image generated from the focused original image is referred to as a focused interpolation image, and a focused color included in the plurality of colors When the pixel signal is called the target color pixel signal,
The interpolation processing unit sets an interpolation pixel position at a position different from a pixel position where the target color pixel signal of the target original image exists, and an image having a pixel signal of the target color at the interpolation pixel position is set as the target interpolation image. Produces as
When generating the target interpolation image, paying attention to a plurality of pixel positions on the target original image where a target color pixel signal exists, and mixing a plurality of target color pixel signals at the plurality of pixel positions Generate a pixel signal for the interpolated pixel position,
The image processing apparatus according to claim 2, wherein the interpolation pixel position is set to a gravity center position of the plurality of pixel positions.
前記補間処理手段は、前記複数の着目色画素信号を等比率で混合することによって前記補間画素位置に対する画素信号を生成する
ことを特徴とする請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the interpolation processing unit generates a pixel signal for the interpolation pixel position by mixing the plurality of target color pixel signals at an equal ratio.
前記補間処理手段により前記複数の原画像から生成された複数の補間画像に基づいて1枚の出力画像を生成する出力画像生成手段を更に備え、
前記出力画像は、均等配列された画素位置の夫々に複数色分の画素信号を有し、
前記出力画像生成手段は、前記複数の補間画像間で対応する読み出しパターンが異なることに由来する、前記複数の補間画像間における画素位置の相違に基づいて、前記出力画像の生成を行う
ことを特徴とする請求項1〜4の何れかに記載の画像処理装置。
Further comprising output image generation means for generating one output image based on a plurality of interpolation images generated from the plurality of original images by the interpolation processing means;
The output image has pixel signals for a plurality of colors at each of the equally arranged pixel positions,
The output image generation means generates the output image based on a difference in pixel position between the plurality of interpolation images, which is derived from a difference in a corresponding read pattern between the plurality of interpolation images. The image processing apparatus according to claim 1.
前記複数の補間画像間における物体の動きを検出する動き検出手段を更に備え、
前記出力画像生成手段は、前記画素位置の相違だけでなく前記動きの大きさにも基づいて、前記出力画像の生成を行う
ことを特徴とする請求項5に記載の画像処理装置。
A motion detecting means for detecting a motion of an object between the plurality of interpolation images;
The image processing apparatus according to claim 5, wherein the output image generation unit generates the output image based on not only the difference in the pixel position but also the magnitude of the movement.
前記複数の補間画像は少なくとも第1及び第2の補間画像を含み、
前記出力画像生成手段は、前記動き検出手段によって検出された、前記第1の補間画像と前記第2の補間画像との間における物体の動きの大きさに基づいて重み係数を設定する重み係数設定手段を有し、前記重み係数に従って前記第1及び第2の補間画像の画素信号を混合することにより前記出力画像を生成する
ことを特徴とする請求項6に記載の画像処理装置。
The plurality of interpolated images include at least first and second interpolated images;
The output image generation means sets a weight coefficient that sets a weight coefficient based on the magnitude of motion of the object between the first interpolation image and the second interpolation image detected by the motion detection means. 7. The image processing apparatus according to claim 6, further comprising: means for generating the output image by mixing pixel signals of the first and second interpolation images according to the weighting factor.
前記複数の読み出しパターンを用いて前記複数の原画像を取得する動作を繰り返し実行することにより、前記出力画像生成手段にて時系列上に並ぶ出力画像列が生成され、
当該画像処理装置は、
前記出力画像列に対して画像圧縮処理を施すことにより、フレーム内符号化画像及びフレーム間予測符号化画像を含む圧縮動画像を生成する画像圧縮手段を更に備え、
前記画像圧縮手段は、前記出力画像列を形成する各出力画像に対応して設定された重み係数に基づいて、前記出力画像列の中から前記フレーム内符号化画像の対象となる出力画像を選択する
ことを特徴とする請求項7に記載の画像処理装置。
By repeatedly executing the operation of acquiring the plurality of original images using the plurality of read patterns, an output image sequence arranged in a time series is generated by the output image generation unit,
The image processing apparatus
Image compression means for generating a compressed moving image including an intra-frame encoded image and an inter-frame predictive encoded image by performing an image compression process on the output image sequence;
The image compression means selects an output image to be a target of the intra-frame encoded image from the output image sequence based on a weighting factor set corresponding to each output image forming the output image sequence The image processing apparatus according to claim 7, wherein:
前記補間処理手段により前記複数の原画像から生成された複数の補間画像を動画像として出力する
ことを特徴とする請求項1〜4の何れかに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein a plurality of interpolation images generated from the plurality of original images by the interpolation processing unit are output as moving images.
加算又は間引きの対象となる受光画素の組み合わせが異なる複数の読み出しパターンは複数組存在し、
当該画像処理装置は、
前記複数の補間画像間における物体の動きを検出する動き検出手段を更に備え、
検出された動きの向きに基づいて、前記原画像を取得するために用いる読み出しパターンの組を可変設定する
ことを特徴とする請求項1、2、3、4、5又は9に記載の画像処理装置。
There are multiple sets of multiple readout patterns with different combinations of light receiving pixels to be added or thinned,
The image processing apparatus
A motion detecting means for detecting a motion of an object between the plurality of interpolation images;
The image processing according to claim 1, 2, 3, 4, 5, or 9, wherein a set of readout patterns used for acquiring the original image is variably set based on a detected direction of motion. apparatus.
単板方式の撮像素子と、
請求項1〜10の何れかに記載の画像処理装置と、を備えた
ことを特徴とする撮像装置。
A single-plate image sensor;
An image processing apparatus comprising: the image processing apparatus according to claim 1.
JP2008138509A 2008-05-27 2008-05-27 Image processing apparatus and imaging apparatus Expired - Fee Related JP5202106B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008138509A JP5202106B2 (en) 2008-05-27 2008-05-27 Image processing apparatus and imaging apparatus
PCT/JP2009/059627 WO2009145201A1 (en) 2008-05-27 2009-05-26 Image processing device, image processing method, and imaging device
US12/994,843 US20110063473A1 (en) 2008-05-27 2009-10-06 Image processing device, image processing method, and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008138509A JP5202106B2 (en) 2008-05-27 2008-05-27 Image processing apparatus and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2009290344A true JP2009290344A (en) 2009-12-10
JP5202106B2 JP5202106B2 (en) 2013-06-05

Family

ID=41459161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008138509A Expired - Fee Related JP5202106B2 (en) 2008-05-27 2008-05-27 Image processing apparatus and imaging apparatus

Country Status (1)

Country Link
JP (1) JP5202106B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010170A (en) * 2010-06-25 2012-01-12 Nec Casio Mobile Communications Ltd Imaging apparatus, image processing device, and, image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338988A (en) * 2002-05-22 2003-11-28 Olympus Optical Co Ltd Imaging device
WO2008053791A1 (en) * 2006-10-31 2008-05-08 Sanyo Electric Co., Ltd. Imaging device and video signal generating method employed in imaging device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003338988A (en) * 2002-05-22 2003-11-28 Olympus Optical Co Ltd Imaging device
WO2008053791A1 (en) * 2006-10-31 2008-05-08 Sanyo Electric Co., Ltd. Imaging device and video signal generating method employed in imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012010170A (en) * 2010-06-25 2012-01-12 Nec Casio Mobile Communications Ltd Imaging apparatus, image processing device, and, image processing method

Also Published As

Publication number Publication date
JP5202106B2 (en) 2013-06-05

Similar Documents

Publication Publication Date Title
WO2009145201A1 (en) Image processing device, image processing method, and imaging device
JP4142340B2 (en) Imaging device
JP4284628B2 (en) IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM FOR IMAGE PROCESSING METHOD, AND RECORDING MEDIUM CONTAINING PROGRAM FOR IMAGE PROCESSING METHOD
JP5451782B2 (en) Image processing apparatus and image processing method
US8139123B2 (en) Imaging device and video signal generating method employed in imaging device
JP2010028722A (en) Imaging apparatus and image processing apparatus
JP4555775B2 (en) Imaging device
KR100745386B1 (en) Image signal processor, image signal processing method, learning device, learning method, and recorded medium
WO2012169140A1 (en) Image processing device, image processing method and digital camera
EP2579206A1 (en) Image processing device, image capturing device, program and image processing method
JP2011097568A (en) Image sensing apparatus
JP2009206654A (en) Imaging apparatus
WO2009125673A1 (en) Dynamic image processing device, dynamic image processing method, and dynamic image processing program
JP2013017142A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5683858B2 (en) Imaging device
JP4810807B2 (en) Moving picture conversion apparatus, moving picture restoration apparatus and method, and computer program
JP5159461B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP5202106B2 (en) Image processing apparatus and imaging apparatus
JP2008252767A (en) Noise reducer, noise reducing method and electronic apparatus
JP4246244B2 (en) Imaging device
JP6152642B2 (en) Moving picture compression apparatus, moving picture decoding apparatus, and program
JPH06315154A (en) Color image pickup device
JP4478981B2 (en) Color noise reduction method and color imaging apparatus
WO2011061891A1 (en) Imaging device
JP2017200199A (en) Video compression device, video decoding device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130212

R151 Written notification of patent or utility model registration

Ref document number: 5202106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees