JP2009253760A - Image processing apparatus, image processing method and electronic device - Google Patents

Image processing apparatus, image processing method and electronic device Download PDF

Info

Publication number
JP2009253760A
JP2009253760A JP2008100708A JP2008100708A JP2009253760A JP 2009253760 A JP2009253760 A JP 2009253760A JP 2008100708 A JP2008100708 A JP 2008100708A JP 2008100708 A JP2008100708 A JP 2008100708A JP 2009253760 A JP2009253760 A JP 2009253760A
Authority
JP
Japan
Prior art keywords
image
low
circuit
frequency
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008100708A
Other languages
Japanese (ja)
Inventor
Taketo Tsukioka
健人 月岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2008100708A priority Critical patent/JP2009253760A/en
Publication of JP2009253760A publication Critical patent/JP2009253760A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To output color image data at a higher processing speed without increasing circuit scale or power consumption in an image processing apparatus that applies processing to an input color image signal and outputs the signal. <P>SOLUTION: An image processing apparatus according to one embodiment comprises: an input section (103) for inputting an image; a plurality of high frequency generation sections (104A, 104B) for generating high frequency components at pixel positions different from each other in the input image, respectively; a low frequency generation section (105) for generating a low frequency component image whose number of pixels is less than the number of pixels in the input image; a synthesis section (106) for obtaining a synthesis image by synthesizing the generated high frequency components and the generated low frequency component image; and a control section (111) for operating the plurality of high frequency generation sections (104A, 104B) in parallel. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えばデジタルスチルカメラに好適な画像処理装置、画像処理方法及び電子機器に関する。   The present invention relates to an image processing apparatus, an image processing method, and an electronic apparatus suitable for a digital still camera, for example.

デジタルカメラなどの撮像装置には、撮像素子からの信号をカラー画像に変換する画像処理回路が備わっている。撮像素子の構成画素数は年々増加しており、それに応じて画像処理回路の処理速度の向上が求められている。しかし、画像処理回路を構成する集積回路を微細化することによる処理速度の向上はもはや限界に近づいているため、信号処理や画像処理のアルゴリズムそのものを工夫することが求められている。   An imaging apparatus such as a digital camera is provided with an image processing circuit that converts a signal from the imaging element into a color image. The number of constituent pixels of the image sensor is increasing year by year, and accordingly, the processing speed of the image processing circuit is required to be improved. However, improvement in processing speed by miniaturizing an integrated circuit constituting an image processing circuit is already approaching its limit, and it is required to devise signal processing and image processing algorithms themselves.

処理速度を向上させる方法の一例として、特許文献1には補間処理を行なう回路部分で一度に複数画素の結果を出力させ、その後処理を2倍の動作クロックで動作させる方法が開示されている(特許文献1)。   As an example of a method for improving the processing speed, Patent Document 1 discloses a method of outputting a result of a plurality of pixels at a time in a circuit portion that performs an interpolation process, and thereafter operating the process with a double operation clock ( Patent Document 1).

さらに他の方法として、特許文献2には処理対象のデータ量を減らすべく、ベイヤー配列のカラーフィルタを有する単板撮像素子からの出力データを補間処理する際に、色差成分をR(赤)またはB(青)の画素位置にしか作らないことでデータ量を1/4に減らし、全画素で作られた輝度信号と合成する際に色差信号の補間を再度行なうことで、全画素のRGBデータを得る方法が開示されている(特許文献2)。
特開2000−341561号公報 特開平02−122785号公報
As another method, Japanese Patent Application Laid-Open No. H10-228667 describes a color difference component as R (red) or R, when performing interpolation processing on output data from a single-plate image sensor having a Bayer array color filter in order to reduce the amount of data to be processed. The data amount is reduced to ¼ by making it only at the pixel position of B (blue), and the color difference signal interpolation is performed again when combining with the luminance signal made by all pixels, so that the RGB data of all the pixels is obtained. Is disclosed (Patent Document 2).
JP 2000-341561 A Japanese Patent Laid-Open No. 02-122785

しかしながら、前記特許文献1に示した方法では、動作クロックを部分的に2倍にするため、後処理として特にノイズ低減処理などの複雑なものを設ける場合、回路規模及び消費電力が共に増大してしまう。   However, in the method shown in Patent Document 1, since the operation clock is partially doubled, both circuit scale and power consumption increase when a complicated process such as noise reduction processing is provided as post-processing. End up.

また、前記特許文献2に示した方法では、処理データ量は削減されるものの、全画素の輝度成分を生成する時間が処理速度に影響するため、結果的に処理速度は向上しない。   In the method disclosed in Patent Document 2, although the amount of processing data is reduced, the time for generating the luminance components of all the pixels affects the processing speed, and as a result, the processing speed is not improved.

本発明は前記のような実情に鑑みてなされたもので、その目的とするところは、回路規模や消費電力を著しく増大させることなく、撮像素子の出力からカラー画像データを迅速に生成することが可能な画像処理装置、画像処理方法及び電子機器を提供することにある。   The present invention has been made in view of the above circumstances, and its object is to quickly generate color image data from the output of the image sensor without significantly increasing the circuit scale or power consumption. An image processing apparatus, an image processing method, and an electronic apparatus are provided.

本発明の一態様は、画像を入力する入力部と、それぞれが前記入力された画像中の互いに異なる画素位置における高周波成分を生成する複数の高域生成部と、前記入力された画像の画素数よりも少ない画素数の低周波成分画像を生成する低域生成部と、前記生成された高周波成分と前記生成された低周波成分画像とを合成して合成画像を得る合成部と、前記複数の高域生成部を並列に動作させる制御部とを具備したことを特徴とする。   One embodiment of the present invention includes an input unit that inputs an image, a plurality of high-frequency generation units that each generate high-frequency components at different pixel positions in the input image, and the number of pixels of the input image A low-frequency generating unit that generates a low-frequency component image having a smaller number of pixels, a combining unit that combines the generated high-frequency component and the generated low-frequency component image to obtain a combined image, and And a control unit that operates the high-frequency generation unit in parallel.

本発明によれば、回路規模や消費電力を著しく増大させることなく、撮像素子の出力からカラー画像を迅速に生成することが可能となる。   According to the present invention, it is possible to quickly generate a color image from the output of the image sensor without significantly increasing the circuit scale and power consumption.

(第1の実施形態)
以下本発明をデジタルカメラに適用した場合の第1の実施形態について説明する。
図1は、本実施形態に係るデジタルカメラ100の主として撮影系の画像処理の回路構成を示すブロック図である。同図で、レンズ光学系101を介して入射した被写体の光像が固体撮像素子である単板CCD(Charge Coupled Device:電荷結合素子)102上で結像される。
(First embodiment)
A first embodiment when the present invention is applied to a digital camera will be described below.
FIG. 1 is a block diagram showing a circuit configuration of image processing mainly for a photographing system of the digital camera 100 according to the present embodiment. In the figure, a light image of a subject incident through the lens optical system 101 is formed on a single-plate CCD (Charge Coupled Device) 102 which is a solid-state image sensor.

この単板CCD102は、例えばベイヤー配列の原色系カラーフィルタを有し、その出力は、図示しないAGC増幅器でその時点で設定されている感度に応じた増幅率で増幅され、同じく図示しないA/D変換器でデジタル化された後に画像バッファ103に保持される。   The single-chip CCD 102 has, for example, a primary color filter in a Bayer array, and its output is amplified by an AGC amplifier (not shown) at an amplification factor corresponding to the sensitivity set at that time, and also an A / D (not shown) After being digitized by the converter, it is held in the image buffer 103.

この画像バッファ103の保持する画像データが、記録用の画像データを生成する画像処理回路としてのプロセッサ110に入力される。このプロセッサ110内には、高域処理回路104、低域生成回路105、合成回路106、圧縮回路107、及び制御回路111が設けられる。   The image data held in the image buffer 103 is input to a processor 110 as an image processing circuit that generates image data for recording. In the processor 110, a high frequency processing circuit 104, a low frequency generation circuit 105, a synthesis circuit 106, a compression circuit 107, and a control circuit 111 are provided.

高域処理回路104は、画像バッファ103からの画像データ中の高周波成分の画像データを抽出し、抽出した画像データを合成回路106へ出力する。   The high frequency processing circuit 104 extracts high-frequency component image data in the image data from the image buffer 103 and outputs the extracted image data to the synthesis circuit 106.

低域生成回路105は、画像バッファ103からの画像データ中の画素数を減じて情報量を減らした上で、さらに低周波成分の画像データを抽出し、抽出した画像データを合成回路106へ出力する。   The low frequency generation circuit 105 reduces the amount of information by reducing the number of pixels in the image data from the image buffer 103, further extracts low-frequency component image data, and outputs the extracted image data to the synthesis circuit 106. To do.

合成回路106は、高域処理回路104からの高周波成分の画像データと低域生成回路105からの低周波成分の画像データとを合成して空間周波数帯域が全域に及ぶ画像データを生成し、圧縮回路107へ出力する。   The synthesizing circuit 106 synthesizes the high-frequency component image data from the high-frequency processing circuit 104 and the low-frequency component image data from the low-frequency generation circuit 105 to generate image data that covers the entire spatial frequency band, and compresses it. Output to the circuit 107.

圧縮回路107は、所定のデータ圧縮方式、例えばJPEG(Joint Photographic Experts Group)に従って画像データの圧縮を実行し、圧縮後の画像データをこのプロセッサ110外部に位置する記録部108へ出力する。   The compression circuit 107 performs compression of the image data according to a predetermined data compression method, for example, JPEG (Joint Photographic Experts Group), and outputs the compressed image data to the recording unit 108 located outside the processor 110.

この記録部108は、デジタルカメラ100の記録媒体であるメモリカードとその入出力インタフェースで構成され、プロセッサ110の圧縮回路107から送られてきた画像データを記録する。   The recording unit 108 includes a memory card that is a recording medium of the digital camera 100 and its input / output interface, and records image data sent from the compression circuit 107 of the processor 110.

制御回路111は、このプロセッサ110内の制御動作を実行するものであり、加えて後述する高域処理回路104内の2系統の処理を時間的に並列に動作させる。   The control circuit 111 executes a control operation in the processor 110, and additionally operates two systems in the high-frequency processing circuit 104 described later in parallel in time.

次に、図2、図6及び図17により、高域処理回路104の構成と作用を示す。
図2は高域処理回路104の構成図である。高域処理回路104は、エッジ抽出回路104a、方向判定回路104b、エッジ抽出回路104c、ノイズ低減回路104d、及びノイズ低減回路104eを有する。
Next, the configuration and operation of the high frequency processing circuit 104 will be described with reference to FIGS.
FIG. 2 is a configuration diagram of the high frequency processing circuit 104. The high frequency processing circuit 104 includes an edge extraction circuit 104a, a direction determination circuit 104b, an edge extraction circuit 104c, a noise reduction circuit 104d, and a noise reduction circuit 104e.

方向判定回路104bは画像バッファ103から画像データを入力し、その画像データに含まれるエッジの方向の判定に供する指標である方向判定指標をエッジ抽出回路104a及びエッジ抽出回路104cに出力する。   The direction determination circuit 104b receives the image data from the image buffer 103, and outputs a direction determination index, which is an index for determining the direction of the edge included in the image data, to the edge extraction circuit 104a and the edge extraction circuit 104c.

エッジ抽出回路104a及びエッジ抽出回路104cは、画像データを同じく画像バッファ103から入力し、方向判定回路104bからの方向判定指標に基づいて輝度高域信号を生成し、結果をそれぞれノイズ低減回路104d及びノイズ低減回路104eに出力する。
ノイズ低減回路104d及びノイズ低減回路104eは、入力された輝度高域信号に対してノイズ低減処理を行ない、結果をそれぞれ中間出力O1及びO2として合成回路106に出力する。
The edge extraction circuit 104a and the edge extraction circuit 104c similarly input image data from the image buffer 103, generate a high luminance signal based on the direction determination index from the direction determination circuit 104b, and output the result as a noise reduction circuit 104d and Output to the noise reduction circuit 104e.
The noise reduction circuit 104d and the noise reduction circuit 104e perform noise reduction processing on the input high luminance signal, and output the results to the synthesis circuit 106 as intermediate outputs O1 and O2, respectively.

前記エッジ抽出回路104a、方向判定回路104b、及びノイズ低減回路104dにより第1の高域生成回路104Aを形成する。また、前記エッジ抽出回路104c、方向判定回路104b、及びノイズ低減回路104eにより第2の高域生成回路104Bを形成する。   The edge extraction circuit 104a, the direction determination circuit 104b, and the noise reduction circuit 104d form a first high-frequency generation circuit 104A. The edge extraction circuit 104c, the direction determination circuit 104b, and the noise reduction circuit 104e form a second high frequency generation circuit 104B.

これら2つの高域生成回路104A,104Bはそれぞれ、画像バッファ103からの画像データ中の互いに異なる画素位置における高周波成分を生成して出力するもので、前述した如く制御回路111による制御の下に時間的に並列に動作する。   These two high-frequency generation circuits 104A and 104B generate and output high-frequency components at different pixel positions in the image data from the image buffer 103, respectively. As described above, time is controlled under the control of the control circuit 111. In parallel.

なお、エッジ抽出回路104aは、図6中に示す列方向の黒丸画素の位置でP1,P3,P5の順に処理を行なっていく。エッジ抽出回路104cはこれと並列に動作し、エッジ抽出回路104aの処理している黒丸画素の直下の白丸画素P2,P4,P6での処理を順次行なう。   Note that the edge extraction circuit 104a performs processing in the order of P1, P3, and P5 at the positions of the black circle pixels in the column direction shown in FIG. The edge extraction circuit 104c operates in parallel with this, and sequentially performs processing on the white circle pixels P2, P4, and P6 immediately below the black circle pixels processed by the edge extraction circuit 104a.

以下に、各回路での処理をさらに詳細に述べる。   Hereinafter, processing in each circuit will be described in more detail.

方向判定回路104bは、エッジ抽出回路104aが処理する図6中の黒丸位置と、エッジ抽出回路104cが処理する図6中の白丸位置のペアの中間の位置(図6中に×印で例示する)に対し、エッジ方向の判定指標Dを算出する。   The direction determination circuit 104b is an intermediate position between a black circle position in FIG. 6 processed by the edge extraction circuit 104a and a white circle position in FIG. 6 processed by the edge extraction circuit 104c (illustrated by a cross in FIG. 6). ), An edge direction determination index D is calculated.

なお、方向判定回路104bは、互いに隣接する2つの画素位置であって、時間的に並列処理されることを目的とした画素位置をペアとして決定すればよい。ここで、×印を中心に近傍の5×6(横×縦)画素データ(図6中に破線の枠で示す)を画像バッファ103から読出し、図17に示すように、5×6近傍内のG画素の水平及び垂直方向の差分Dh及びDvを
Dh=(|G1-G2|+|G3-G4|+|G4-G5|+|G6-G7|+
|G8-G9|+|G9-G10|+|G11-G12|+
|G13-G14|+|G14-G15|)/9
Dv=(|G1-G6|+|G2-G7|+|G3-G8|+|G4-G9|+
|G5-G10|+|G6-G11|+|G7-G12|+|G8-G13|+
|G9-G14|+|G10-G15|)/10
と計算し、これらに基づいて、Dを
D=(Dh-Dv)/(Dh+Dv+T)
(但し、|x|:xの絶対値、
T:定数、
D:-1から1の値をとる。
Note that the direction determination circuit 104b may determine, as a pair, two pixel positions that are adjacent to each other and that are intended to be processed in parallel in time. Here, 5 × 6 (horizontal × vertical) pixel data (indicated by a broken line frame in FIG. 6) near the x mark is read from the image buffer 103, and as shown in FIG. The horizontal and vertical differences Dh and Dv of G pixels of
Dh = (| G1-G2 | + | G3-G4 | + | G4-G5 | + | G6-G7 | +
| G8-G9 | + | G9-G10 | + | G11-G12 | +
| G13-G14 | + | G14-G15 |) / 9
Dv = (| G1-G6 | + | G2-G7 | + | G3-G8 | + | G4-G9 | +
| G5-G10 | + | G6-G11 | + | G7-G12 | + | G8-G13 | +
| G9-G14 | + | G10-G15 |) / 10
And based on these, D
D = (Dh-Dv) / (Dh + Dv + T)
(However, | x |: absolute value of x,
T: constant,
D: takes a value from -1 to 1.

-1のとき近傍内エッジ方向が水平、
1のとき垂直を表す。)
と計算する。
When -1, the inner edge direction is horizontal,
1 means vertical. )
And calculate.

エッジ抽出回路104a及びエッジ抽出回路104cでは、この指標Dに基づいてバンドパスフィルタを決定し、輝度高域信号の生成を行なう。例えば図6中のP1の画素位置では、エッジ抽出回路104aがその周囲の5×5領域のデータを画像バッファ103から読出し、5×5のサイズのバンドパスフィルタを適用する。
図6中のP2の画素位置では、エッジ抽出回路104cがその周囲の5×5領域のデータを画像バッファ103から読み出し、5×5のサイズのバンドパスフィルタを適用する。
The edge extraction circuit 104a and the edge extraction circuit 104c determine a band-pass filter based on the index D and generate a luminance high-frequency signal. For example, at the pixel position of P1 in FIG. 6, the edge extraction circuit 104a reads out the surrounding 5 × 5 area data from the image buffer 103 and applies a 5 × 5 size band-pass filter.
At the pixel position P2 in FIG. 6, the edge extraction circuit 104c reads the surrounding 5 × 5 area data from the image buffer 103 and applies a 5 × 5 size band-pass filter.

バンドパスフィルタの係数B(i,j)は、予め定められた、水平エッジを強調するバンドパスフィルタの係数Bh(i,j)及び垂直エッジを強調するバンドパスフィルタの係数Bv(i,j)と、前記指標Dから、
B(i,j) = ((D+1)*Bv(i,j)+(D-1)*Bh(i,j))/2
(1<=i,j<=5)
により算出される。
The bandpass filter coefficient B (i, j) is determined in advance by a bandpass filter coefficient Bh (i, j) that emphasizes the horizontal edge and a bandpass filter coefficient Bv (i, j) that emphasizes the vertical edge. ) And the index D,
B (i, j) = ((D + 1) * Bv (i, j) + (D-1) * Bh (i, j)) / 2
(1 <= i, j <= 5)
Is calculated by

ノイズ低減回路104e及び104fは、各々エッジ抽出回路104a及び104cの出力eに対し、コアリング処理を行なった結果であるc(e)を出力する。すなわち、
c(e) = e-T (e >= Tのとき)
0 (-T < e < Tのとき)
e+T (e <= -Tのとき)
となる。
The noise reduction circuits 104e and 104f output c (e) that is the result of performing coring processing on the outputs e of the edge extraction circuits 104a and 104c, respectively. That is,
c (e) = eT (when e> = T)
0 (when -T <e <T)
e + T (when e <= -T)
It becomes.

コアリングの閾値Tは、方向判定回路104bから得られる水平方向の差分Dh及び垂直方向の差分Dvから、以下のように算出する。
T = min(|Dh-Dv|,Dh,Dv, T0)
(但し、min(a,b,c,d):a,b,c,dのうち最小の値を返す関数、
T0:定数。)
次いで図3により前記低域生成回路105内の詳細な構成を示す。前段の画像バッファ103からの画像データは、RGB生成回路105aへ与えられる。RGB生成回路105aは、画像バッファ103からの画像データに補間処理を施してRGBのすべての成分が各画素で揃ったRGBデータを生成し、色変換回路105bに出力する。
The coring threshold T is calculated from the horizontal difference Dh and the vertical difference Dv obtained from the direction determination circuit 104b as follows.
T = min (| Dh-Dv |, Dh, Dv, T0)
(However, min (a, b, c, d): a function that returns the minimum value of a, b, c, d,
T0: Constant. )
Next, FIG. 3 shows a detailed configuration in the low-frequency generation circuit 105. Image data from the previous image buffer 103 is supplied to the RGB generation circuit 105a. The RGB generation circuit 105a performs interpolation processing on the image data from the image buffer 103 to generate RGB data in which all RGB components are aligned in each pixel, and outputs the RGB data to the color conversion circuit 105b.

なお、RGB生成回路105aは、図6中の黒丸で示した画素位置でのRGB成分を列方向に、次に行方向に順次出力する。また、1画素の処理に際し、その近傍の5×5の周囲画素を必要とする。
色変換回路105bは、原色信号系のRGBデータに対して、その時点で設定されているホワイトバランス値に応じた加減変換を行ない、変換後のRGBデータを階調変換回路105cに出力する。
The RGB generation circuit 105a sequentially outputs the RGB components at the pixel positions indicated by black circles in FIG. 6 in the column direction and then in the row direction. Further, when processing one pixel, 5 × 5 surrounding pixels in the vicinity thereof are required.
The color conversion circuit 105b performs addition / subtraction conversion on the RGB data of the primary color signal system according to the white balance value set at that time, and outputs the converted RGB data to the gradation conversion circuit 105c.

階調変換回路105cは、RGBデータをそれぞれガンマ補正処理により中間階調値を所定の値に変換してYC変換回路105dへ出力する。   The gradation conversion circuit 105c converts the intermediate gradation value into a predetermined value by performing gamma correction processing on each of the RGB data, and outputs it to the YC conversion circuit 105d.

YC変換回路105dは、原色信号系のRGBデータをマトリックス演算により輝度色差信号系のYCrCbデータに変換し、得たYデータ、Crデータ、Cbデータを分離してそれぞれノイズ低減回路105e〜105gへ出力する。   The YC conversion circuit 105d converts the RGB data of the primary color signal system into YCrCb data of the luminance / color difference signal system by matrix calculation, separates the obtained Y data, Cr data, and Cb data and outputs them to the noise reduction circuits 105e to 105g, respectively. To do.

これらノイズ低減回路105e〜105gは、それぞれYデータ、Crデータ、Cbデータに対するローパスフィルタ処理を施して高周波成分のノイズを低減することで中間出力O3〜O5を取得し、前記合成回路106へ出力する。   These noise reduction circuits 105e to 105g obtain low-frequency noise by performing low-pass filter processing on Y data, Cr data, and Cb data, respectively, to obtain intermediate outputs O3 to O5, and output them to the synthesis circuit 106. .

次に、図4に合成回路106の構成を示す。合成回路106では、高域処理回路104からの高域成分と低域生成回路105からの低域成分が合成され、最終的な信号が圧縮回路107へ出力される。入力信号は、図6中の黒丸の位置における輝度高域信号YH1(中間出力O1)、輝度低域信号YL1(中間出力O3)、色差低域信号Cr1(中間出力O4)とCr2(中間出力O5)、及び図6中の白丸の位置における輝度高域信号YH2(中間出力O5)である。出力信号は、図6中の黒丸の位置における輝度信号Y3(中間出力O6)、色差信号Cr3(中間出力O8)とCb3(中間出力O10)、及び図6中の白丸の位置における輝度信号Y4(中間出力O7)、色差信号Cr4(中間出力O9)とCb4(中間出力O11)である。   Next, FIG. 4 shows the configuration of the synthesis circuit 106. In the synthesis circuit 106, the high frequency component from the high frequency processing circuit 104 and the low frequency component from the low frequency generation circuit 105 are synthesized, and the final signal is output to the compression circuit 107. The input signals are the luminance high-frequency signal YH1 (intermediate output O1), the luminance low-frequency signal YL1 (intermediate output O3), and the color difference low-frequency signals Cr1 (intermediate output O4) and Cr2 (intermediate output O5) at the position of the black circle in FIG. ) And the high luminance signal YH2 (intermediate output O5) at the position of the white circle in FIG. The output signals are the luminance signal Y3 (intermediate output O6) at the position of the black circle in FIG. 6, the color difference signals Cr3 (intermediate output O8) and Cb3 (intermediate output O10), and the luminance signal Y4 at the position of the white circle in FIG. Intermediate output O7), color difference signals Cr4 (intermediate output O9) and Cb4 (intermediate output O11).

合成回路106内の強調回路106aは、自身に入力された輝度高域信号YH1(中間出力O1)及び輝度低域信号YL1(中間出力O3)から、輝度信号Y3(中間出力O6)を、式
Y3 = YL1+α*YH1
(但し、α:高域強調のためのゲイン。)
により生成する。
The emphasis circuit 106a in the synthesis circuit 106 generates a luminance signal Y3 (intermediate output O6) from the luminance high-frequency signal YH1 (intermediate output O1) and the luminance low-frequency signal YL1 (intermediate output O3) input to itself.
Y3 = YL1 + α * YH1
(However, α: Gain for emphasizing high frequencies.)
Generate by.

また、補間回路106cでは、図6中の黒丸位置に存する、例えば図6中のP3の輝度低域信号YL1(中間出力O3)が入力されると、その直前に入力された、2画素上の画素位置(図6中のP1)における輝度低域信号YL1’から、1画素上の画素位置(図6中のP2)の輝度低域信号YL2を、次式
YL2=(YL1+YL1')/2
により生成する。直前の入力YL’は、補間回路106cの内部メモリに保持されている。算出された輝度低域信号YL2は、強調回路106bに出力される
強調回路106bでは、輝度高域信号YH2(中間出力O2)及び前記輝度低域信号YL2から、輝度信号Y4(中間出力O7)を、強調回路106aと同様に、次式
Y4 = YL2+α*YH2
により生成する。YL2が計算されるまでの間、強調回路106bはYH2の値を内部メモリに保持している。
In addition, in the interpolation circuit 106c, for example, when the luminance low-frequency signal YL1 (intermediate output O3) of P3 in FIG. 6 existing at the black circle position in FIG. From the luminance low-frequency signal YL1 ′ at the pixel position (P1 in FIG. 6), the luminance low-frequency signal YL2 at the pixel position (P2 in FIG. 6) one pixel above is expressed by the following equation:
YL2 = (YL1 + YL1 ') / 2
Generate by. The immediately preceding input YL ′ is held in the internal memory of the interpolation circuit 106c. The calculated luminance low-frequency signal YL2 is output to the enhancement circuit 106b. The enhancement circuit 106b generates the luminance signal Y4 (intermediate output O7) from the luminance high-frequency signal YH2 (intermediate output O2) and the luminance low-frequency signal YL2. Similar to the emphasis circuit 106a,
Y4 = YL2 + α * YH2
Generate by. The enhancement circuit 106b holds the value of YH2 in the internal memory until YL2 is calculated.

また、色差低域信号Cr1(中間出力O4)及びCr2(中間出力O5)については、そのまま色差信号Cr3(中間出力O9)及びCb3(中間出力O11)として出力されるとともに、Cr1は補間回路106d、Cr2は補間回路106eにそれぞれ入力され、図6中の白丸位置の色差信号であるCr4及びCb4が補間されて出力される。   The color difference low-frequency signals Cr1 (intermediate output O4) and Cr2 (intermediate output O5) are output as they are as the color difference signals Cr3 (intermediate output O9) and Cb3 (intermediate output O11), and Cr1 is interpolated by the interpolation circuit 106d, Cr2 is input to the interpolation circuit 106e, and the color difference signals Cr4 and Cb4 at the white circle positions in FIG. 6 are interpolated and output.

補間回路106d及び106eでの処理は補間回路106cに類似しており、例えば補間回路106dは、図6中の黒丸に該当する画素(例えば図6中のP3)の色差信号Cr1と、直前に入力された、2画素上の画素位置(図6中のP1)における色差信号Cr1’から、1画素上の画素位置(図6中のP2)の色差信号Cr4を、次式
Cr4=(Cr1+Cr1')/2
により生成する。直前の入力Cr1’は、補間回路106dの内部メモリに保持されている。
The processing in the interpolation circuits 106d and 106e is similar to the interpolation circuit 106c. For example, the interpolation circuit 106d inputs the color difference signal Cr1 of the pixel corresponding to the black circle in FIG. 6 (for example, P3 in FIG. 6) and immediately before. From the color difference signal Cr1 ′ at the pixel position (P1 in FIG. 6) on the two pixels, the color difference signal Cr4 at the pixel position (P2 in FIG. 6) on the one pixel is expressed by the following equation:
Cr4 = (Cr1 + Cr1 ') / 2
Generate by. The immediately preceding input Cr1 ′ is held in the internal memory of the interpolation circuit 106d.

図5は、これまで述べてきた回路の動作の結果得られる各中間出力の、時系列の内容をまとめたものである。括弧内は列、行の順に書いた各信号が得られる座標であり、図6中に括弧で示した座標に対応している。   FIG. 5 summarizes the time-series contents of each intermediate output obtained as a result of the operation of the circuit described so far. In the parentheses are coordinates for obtaining signals written in the order of columns and rows, and correspond to the coordinates indicated in parentheses in FIG.

前述のように、高域処理回路104及び低域生成回路105は1画素を処理するのにそれぞれ5×5の領域を必要とするため、有効データが得られるのは、図6中のP1の位置からである。処理が図6中のP1の位置から開始されると、まず、高域処理回路104により、中間出力O1として図6中のP1での輝度高域信号YH(1,1)、中間出力O2としてP2での輝度高域信号YH(1,2)が生成される。   As described above, since the high-frequency processing circuit 104 and the low-frequency generation circuit 105 each require a 5 × 5 area to process one pixel, effective data can be obtained from P1 in FIG. From the position. When the processing is started from the position P1 in FIG. 6, first, the high frequency processing circuit 104 sets the luminance high frequency signal YH (1, 1) and the intermediate output O2 at P1 in FIG. 6 as the intermediate output O1. A high luminance signal YH (1,2) at P2 is generated.

同時に、低域生成回路105では、図6中のP1での輝度低域信号YL(1,1)、色差信号Cr(1,1)及びCb(1,1)がそれぞれ中間出力O3,O4及びO5として生成される。合成回路106では、中間出力O1及びO3から、P1での輝度信号Y(1,1)が最終出力O6として生成される。   At the same time, in the low-frequency generation circuit 105, the luminance low-frequency signal YL (1,1), the color difference signals Cr (1,1) and Cb (1,1) at P1 in FIG. Generated as O5. In the synthesis circuit 106, the luminance signal Y (1, 1) at P1 is generated as the final output O6 from the intermediate outputs O1 and O3.

また、P1での色差信号Cr(1,1)及びCb(1,1)がそのまま最終出力O8及びO10として出力される。   Further, the color difference signals Cr (1,1) and Cb (1,1) at P1 are output as final outputs O8 and O10 as they are.

次のタイミングでは、高域処理回路104の処理対象位置が図6中のP3及びP4に移り、P3での輝度高域信号YH(1,3)とP4での輝度高域信号YH(1,4)が中間出力O1及びO2として生成される。   At the next timing, the processing target position of the high frequency processing circuit 104 moves to P3 and P4 in FIG. 6, and the luminance high frequency signal YH (1,3) at P3 and the luminance high frequency signal YH (1,3) at P4. 4) is generated as intermediate outputs O1 and O2.

低域生成回路105の処理対象位置も図6中のP3に移り、P3での輝度低域信号YL(1,1)、色差信号Cr(1,1)及びCb(1,1)がそれぞれ中間出力O3,O4及びO5として生成される。   The processing target position of the low-frequency generation circuit 105 also moves to P3 in FIG. 6, and the luminance low-frequency signal YL (1, 1), the color difference signals Cr (1, 1), and Cb (1, 1) at P3 are respectively intermediate. Generated as outputs O3, O4 and O5.

また、P2の両隣の画素P1及びP3での出力から、P2での輝度低域信号YL(1,2)が補間され、輝度高域信号YH(1,2)と合成されてP2での輝度信号Y2が最終出力O7として生成される。同様に、P2での色差信号Cr(1,2)とCb(1,2)が補間され、それぞれ最終出力O9及びO11として出力される。   Further, the luminance low-frequency signal YL (1,2) at P2 is interpolated from the outputs at the pixels P1 and P3 adjacent to P2, and is synthesized with the luminance high-frequency signal YH (1,2) to obtain the luminance at P2. Signal Y2 is generated as final output O7. Similarly, the color difference signals Cr (1,2) and Cb (1,2) at P2 are interpolated and output as final outputs O9 and O11, respectively.

この動作が繰り返されることにより、1クロック内に2画素分の輝度信号と色差信号が得られる。   By repeating this operation, a luminance signal and a color difference signal for two pixels are obtained within one clock.

前述した如く第1及び第2の処理手段である高域処理回路104内の2系列の高域生成回路104A,104Bが時間的に並列動作すると共に、低域処理手段である低域生成回路105も同じタイミングで動作する。   As described above, the two series of high-frequency generation circuits 104A and 104B in the high-frequency processing circuit 104 as the first and second processing means operate in parallel in time, and the low-frequency generation circuit 105 as the low-frequency processing means. Operates at the same timing.

そして、それらの後段に位置する合成回路406が、低域成分を補間しつつ高周波成分を合成することで、出力O6〜O11からなるカラー画像を生成する。   Then, the synthesis circuit 406 located in the subsequent stage generates a color image composed of the outputs O6 to O11 by synthesizing the high frequency components while interpolating the low frequency components.

このように画像のエッジ(輪郭)を構成する高域成分を一度に複数画素分出力することが可能になるとともに、低域成分を間引いて処理する。そのため、低域成分を処理する回路規模の増大を抑えながら、且つ動作クロックを同じに保ったままで処理全体として一度に複数画素分の処理結果を出力できるようになり、処理速度を2倍以上に向上させることができる。   In this way, it is possible to output a plurality of high-frequency components constituting an edge (contour) of an image at a time, and process by thinning out the low-frequency components. Therefore, it is possible to output processing results for a plurality of pixels at a time as a whole while keeping the operation clock the same while suppressing an increase in circuit scale for processing low frequency components, and the processing speed is more than doubled. Can be improved.

また、具体的な画素の高周波成分を、図2でも説明した如く輝度エッジ成分としたことで、画素の低域成分と高域成分を完全に分離して処理するため、画像処理効率を高めることができる。   Further, as described in FIG. 2, the specific high-frequency component of the pixel is the luminance edge component, so that the low-frequency component and high-frequency component of the pixel are completely separated and processed, thereby improving the image processing efficiency. Can do.

同じく、前記図6中に画素位置P1を含む黒点位置で示したように、前記一部の画素位置は、垂直(または水平)に間に1画素を空けた2画素間隔で、且つその配列方向と直交する水平(または垂直)方向に間を空けない一画素間隔の格子点に対応する画素位置での低域成分を生成するものとした。これにより、処理遅延が小さく、回路規模を複雑にせずに高速化できる。   Similarly, as shown by the black spot position including the pixel position P1 in FIG. 6, the part of the pixel positions is at an interval of two pixels with one pixel vertically (or horizontally) and the arrangement direction thereof. It is assumed that a low-frequency component is generated at a pixel position corresponding to a lattice point having a one-pixel interval that is not spaced in the horizontal (or vertical) direction orthogonal to the horizontal axis. As a result, the processing delay is small, and the processing speed can be increased without complicating the circuit scale.

また、前記図2に示した如く、高域処理回路104内の第1及び第2の処理手段、すなわちエッジ抽出回路104a、方向判定回路104b及びノイズ低減回路104dと、エッジ抽出回路104c、方向判定回路104b及びノイズ低減回路104eは、前記高周波成分を生成するために画像の輝度エッジ方向を判定する方向判定回路104bを共有するものとしたため、回路規模の縮小を図ることができる。   Further, as shown in FIG. 2, the first and second processing means in the high frequency processing circuit 104, that is, the edge extraction circuit 104a, the direction determination circuit 104b and the noise reduction circuit 104d, the edge extraction circuit 104c, and the direction determination Since the circuit 104b and the noise reduction circuit 104e share the direction determination circuit 104b that determines the luminance edge direction of the image in order to generate the high-frequency component, the circuit scale can be reduced.

なお、本実施形態例ではいくつかの変形が可能である。
例えば、方向判定回路104bが出力する方向判定指標は前述のものに限る必要はなく、エッジの水平となす角度など、公知のエッジ方向を表す指標であれば何でもよい。また、ノイズ低減回路104d及び104fの処理も前述のものに限らず、方向判定回路104bの方向判定指標で示されたエッジの方向に沿って平滑化を行なうなど、より複雑なものでもよい。
In the present embodiment example, several modifications are possible.
For example, the direction determination index output by the direction determination circuit 104b is not limited to the above-described index, and any index indicating a known edge direction, such as an angle between the edge and the horizontal, may be used. Further, the processing of the noise reduction circuits 104d and 104f is not limited to that described above, and may be more complicated such as smoothing along the edge direction indicated by the direction determination index of the direction determination circuit 104b.

また、エッジ抽出回路104a及び104cの処理も5×5ブロックに対するバンドパスフィルタである必要はなく、モルフォロジー演算に基づいた非線形な構造抽出手法を用いることもできる。   Further, the processing of the edge extraction circuits 104a and 104c need not be a band pass filter for a 5 × 5 block, and a non-linear structure extraction method based on a morphological operation can be used.

さらに、本実施形態の例ではバンドパスフィルタを5×5ブロック全データに適用しているが、輝度G成分にバンドパスフィルタを適用して疑似輝度高域信号を得るようにしてもよい。特にベイヤー配列の撮像素子の場合、図18に示すように、フィルタを適用する画素位置が近傍中心で得られている色成分により反転するので、図6のP1とP2を1画素ずつ処理をしていく場合でも別々の処理回路が必要となる。そのため、P1とP2を並列に処理していっても回路規模が増大しないという利点がある。   Furthermore, in the example of this embodiment, the bandpass filter is applied to all 5 × 5 block data, but a pseudo-luminance high-frequency signal may be obtained by applying a bandpass filter to the luminance G component. In particular, in the case of an image sensor with a Bayer array, as shown in FIG. 18, since the pixel position to which the filter is applied is inverted by the color component obtained at the center of the neighborhood, P1 and P2 in FIG. Even when going on, separate processing circuits are required. Therefore, there is an advantage that the circuit scale does not increase even if P1 and P2 are processed in parallel.

さらには、エッジ抽出回路104a及び104cと、ノイズ低減回路104d及び104fは、必ずしも方向判定回路104bを共有せず各々の回路内で方向判定を行なってもよい。また、方向判定自体を行わず、単一のバンドパスフィルタによりエッジ抽出を行なってもよい。   Furthermore, the edge extraction circuits 104a and 104c and the noise reduction circuits 104d and 104f do not necessarily share the direction determination circuit 104b, and may perform the direction determination in each circuit. Further, edge extraction may be performed by a single bandpass filter without performing direction determination itself.

ノイズ低減についても、エッジ抽出回路104a及び104cの出力にノイズ低減を施すのではなく、最終的な輝度信号の出力であるO6及びO7各々に対してノイズ低減を行なうようにしてもよい。これは、例えばエッジ成分に適用するのに向かないランクフィルタに基づくノイズ低減手法等を適用したい場合に有効である。この場合、ノイズ低減回路104d及び104fはそれぞれ合成回路106の出力O6及びO7の後に配置される。   As for noise reduction, instead of performing noise reduction on the outputs of the edge extraction circuits 104a and 104c, noise reduction may be performed on each of O6 and O7 which are final luminance signal outputs. This is effective, for example, when it is desired to apply a noise reduction method based on a rank filter that is not suitable for application to edge components. In this case, the noise reduction circuits 104d and 104f are arranged after the outputs O6 and O7 of the synthesis circuit 106, respectively.

また、高域処理回路104が一度に処理する画素位置は図6のP1及びP2に示すように、垂直方向に並んでいる必要はなく、図6中のP1及びQ1に示すように、水平方向に隣接していてもよい。その場合、低域生成回路105では水平方向に1列ずつとばした位置で処理を行い、とばした列の低域信号は合成回路106内で水平方向の補間を行なって生成する。   Further, the pixel positions processed by the high-frequency processing circuit 104 at a time do not have to be aligned in the vertical direction as shown by P1 and P2 in FIG. 6, but in the horizontal direction as shown by P1 and Q1 in FIG. May be adjacent to In this case, the low-frequency generation circuit 105 performs processing at a position where one column is skipped in the horizontal direction, and the low-frequency signal of the skipped column is generated by performing horizontal interpolation within the synthesis circuit 106.

低域の処理として間引く率も1/2に限る必要はなく、2行ずつ以上とばして処理し、とばした行の間を補間するようにしてもよい。その場合、高域処理回路104はとばした位置の高域信号を、並列に動作する回路で1クロック内に生成する。その際、並列に動作する回路間で共通する回路、例えば方向判定回路などの共有化を行なうのが望ましいのは勿論である。   The thinning-out rate need not be limited to ½ as low-frequency processing, and processing may be performed by skipping two or more rows and interpolating between skipped rows. In that case, the high frequency processing circuit 104 generates a high frequency signal at a skipped position within one clock by a circuit operating in parallel. In this case, it is of course desirable to share a common circuit among circuits operating in parallel, such as a direction determination circuit.

また、本実施形態は原色ベイヤー配列の単板CCD102の出力を処理するものとして説明したが、RGB生成回路105及び高域処理回路104のアルゴリズムを変えることで、ベイヤー配列以外の色フィルタ配列や、補色フィルタの出力を処理するようにもできる。   Further, although the present embodiment has been described as processing the output of the single-color CCD 102 of the primary color Bayer array, by changing the algorithm of the RGB generation circuit 105 and the high frequency processing circuit 104, a color filter array other than the Bayer array, It is also possible to process the output of the complementary color filter.

さらに撮像素子が単板CCD102ではなく、三板撮像素子であっても同様の高速化が可能である。   Further, even if the image pickup device is not a single-plate CCD 102 but a three-plate image pickup device, the same increase in speed is possible.

この場合、RGB生成回路105aが不要となる。また、エッジ抽出回路104a及び104cでは、処理対象の5×5領域の各画素において、まず3色成分から公知のマトリックス演算式で輝度成分を算出し、その後に5×5領域で得られた輝度成分にエッジ抽出用のバンドパスフィルタを施す。   In this case, the RGB generation circuit 105a is not necessary. In the edge extraction circuits 104a and 104c, for each pixel in the 5 × 5 region to be processed, first, a luminance component is calculated from the three color components by a known matrix arithmetic expression, and then the luminance obtained in the 5 × 5 region is obtained. A band pass filter for edge extraction is applied to the component.

同様に、撮像素子がカラーフィルタを有する単板CCD102ではなく、カラーフィルタを有しないモノクロの撮像素子の場合であっても同様の高速化が可能である。この場合、RGB生成回路105a及び色変換回路105bが不要となり、階調変換回路105cでは撮像素子の出力に対して直接階調変換を施す。YC変換回路105dは階調変換回路105cからの入力をノイズ低減回路105eに直接出力し、ノイズ低減回路105f,105g、補間回路106d及び補間回路106eは不要となる。   Similarly, even when the image pickup device is not a single CCD 102 having a color filter but a monochrome image pickup device without a color filter, the same speeding up can be achieved. In this case, the RGB generation circuit 105a and the color conversion circuit 105b are unnecessary, and the gradation conversion circuit 105c directly performs gradation conversion on the output of the image sensor. The YC conversion circuit 105d directly outputs the input from the gradation conversion circuit 105c to the noise reduction circuit 105e, and the noise reduction circuits 105f and 105g, the interpolation circuit 106d, and the interpolation circuit 106e become unnecessary.

(第2の実施形態)
以下本発明をデジタルカメラに適用した場合の第2の実施形態について説明する。
なお、本実施形態に係るデジタルカメラ100′の主として撮影系の画像処理の回路構成については、前記図1に示したものと基本的に同様であるものとし、同一部分には同一符号を用いてその図示と説明とを省略する。
(Second Embodiment)
A second embodiment when the present invention is applied to a digital camera will be described below.
Note that the image processing circuit configuration of the digital camera 100 ′ according to the present embodiment is basically the same as that shown in FIG. 1, and the same reference numerals are used for the same parts. The illustration and description thereof are omitted.

本実施形態では、前記図1の低域生成回路105に代えて後述の低域生成回路205を、合成回路106に代えて後述の合成回路206を用いる。
図7は、低域生成回路205内の詳細な構成を示す。前段の画像バッファ103からの画像データは、RGB生成回路205aに与えられる。RGB生成回路205aは、画像バッファ103からの画像データに補間処理を施してRGBの各成分が各画素で揃ったRGBデータを生成し、色変換回路205bに出力する。
In this embodiment, a low-frequency generation circuit 205 described later is used instead of the low-frequency generation circuit 105 of FIG. 1, and a synthesis circuit 206 described later is used instead of the synthesis circuit 106.
FIG. 7 shows a detailed configuration in the low-frequency generation circuit 205. Image data from the previous image buffer 103 is given to the RGB generation circuit 205a. The RGB generation circuit 205a performs interpolation processing on the image data from the image buffer 103 to generate RGB data in which RGB components are aligned in each pixel, and outputs the RGB data to the color conversion circuit 205b.

なお、RGB生成回路205aは、図10中に「◇」印で示した画素位置でのRGB成分を順次出力する。また、1画素の処理に際し、前記第1の実施の形態例と同じく、近傍5×5の周囲画素データを必要とする。   Note that the RGB generation circuit 205a sequentially outputs RGB components at the pixel positions indicated by “◇” in FIG. Further, when processing one pixel, similar to the first embodiment, surrounding pixel data of 5 × 5 in the vicinity is required.

色変換回路205bは、原色信号系のRGBデータに対して、その時点で設定されているホワイトバランス値に応じた加減変換を行ない、変換後のRGBデータを階調変換回路205cに出力する。   The color conversion circuit 205b performs addition / subtraction conversion on the RGB data of the primary color signal system according to the white balance value set at that time, and outputs the converted RGB data to the gradation conversion circuit 205c.

階調変換回路205cは、RGBデータをそれぞれガンマ補正処理により中間階調値を所定の値に変換してYC変換回路205dへ出力する。   The gradation conversion circuit 205c converts the intermediate gradation value into a predetermined value by performing gamma correction processing on each of the RGB data, and outputs the converted value to the YC conversion circuit 205d.

YC変換回路205dは、原色信号系のRGBデータをマトリックス演算により輝度色差信号系のYCrCbデータに変換し、得たY(YL)データ、Crデータ、Cbデータを分離してそれぞれバッファ205h,205i、及び205jへ出力する。   The YC conversion circuit 205d converts the RGB data of the primary color signal system into YCrCb data of the luminance / color difference signal system by matrix calculation, and separates the obtained Y (YL) data, Cr data, and Cb data, and buffers 205h, 205i, And 205j.

ノイズ低減回路205eは、Y(YL)データに対するローパスフィルタ処理を施して高周波成分のノイズを低減するもので、その出力O3′をバッファ205hを介して再度帰還して再処理する、という過程を繰返すことで、複数回の処理を経た中間出力O3を取得し、合成回路206へ出力する。   The noise reduction circuit 205e performs low-pass filter processing on Y (YL) data to reduce high-frequency component noise, and repeats the process of returning the output O3 'again through the buffer 205h and reprocessing. Thus, the intermediate output O3 that has undergone a plurality of processes is acquired and output to the synthesis circuit 206.

同様に、ノイズ低減回路205f,205gも、Crデータ,Cbデータに対するローパスフィルタ処理を施して高周波成分のノイズを低減するもので、その出力O4′,O5′をバッファ205i,205jを介して再度帰還して再処理する、という過程を繰返すことで、複数回の処理を経た中間出力O4,O5を取得し、共に合成回路206へ出力する。   Similarly, the noise reduction circuits 205f and 205g also perform low-pass filter processing on the Cr data and Cb data to reduce high-frequency component noise. The outputs O4 'and O5' are fed back again through the buffers 205i and 205j. Then, by repeating the process of reprocessing, the intermediate outputs O4 and O5 that have undergone a plurality of processes are acquired and output together to the synthesis circuit 206.

なお、本実施形態の例では、ノイズ低減回路205e〜205gにおいて公知のノイズ低減手法を用いるが、1画素を処理する際、近傍3×3の周囲画素データを必要とする。そのため、バッファ205h、205i及び205jでは、1回目の処理用と2回目の処理用に各々3列分のラインメモリを有しており、処理可能なデータが蓄積された時点で処理を行なう。   In the example of the present embodiment, a known noise reduction method is used in the noise reduction circuits 205e to 205g. However, when processing one pixel, neighboring pixel data of 3 × 3 is necessary. Therefore, the buffers 205h, 205i, and 205j have line memories for three columns each for the first processing and the second processing, and perform processing when processable data is accumulated.

次に、合成回路206の構成と作用を、高域処理回路104と低域生成回路205の動作タイミングとあわせて、図8乃至図10を用いて説明する。   Next, the configuration and operation of the synthesis circuit 206 will be described using FIGS. 8 to 10 together with the operation timings of the high frequency processing circuit 104 and the low frequency generation circuit 205. FIG.

図8は合成回路206の構成図である。図9は合成回路の入出力O1〜O11及び低域生成回路205内の中間出力O3’,O4’,O5’の信号内容を時系列に表したもので、一列分の処理を1単位期間として信号の内容を記してある。なお、一列分の処理に要する時間は、高域処理回路104では図10の上下に隣接する黒丸と白丸の位置で並列に処理を行ない、低域生成回路205では◇印の位置でのみ処理を行なうため、垂直画素数の半分となっている。   FIG. 8 is a configuration diagram of the synthesis circuit 206. FIG. 9 shows the signal contents of the inputs / outputs O1 to O11 of the synthesis circuit and the intermediate outputs O3 ′, O4 ′, and O5 ′ in the low-frequency generation circuit 205 in time series, and processing for one column is defined as one unit period. The contents of the signal are noted. Note that the time required for processing for one column is processed in parallel at the positions of the black and white circles adjacent to the upper and lower sides in FIG. 10 in the high-frequency processing circuit 104, and the processing is performed only at the position marked with ◇ in the low-frequency generation circuit 205. This is half the number of vertical pixels.

前述のように、低域回路205内のノイズ低減回路は各画素の処理に3×3の近傍データを必要とするため、低域生成回路205では、まず最初に図10の3,5,7列目に対する1回目のノイズ低減処理を行ない、その後、5列目に対する2回目のノイズ低減処理を行なう。処理が3列目から開始されているのは、1回目のノイズ低減処理自体に3×3の近傍データが必要となるためである。そして、5列目以降は、5列目の2回ノイズ低減済みの低域信号が得られる期間を基準期間tとして、
・期間(t+2n+1):
(2n+9)列目の1回目のノイズ低減処理
・期間(t+2n+2):
(2n+7)列目の2回目のノイズ低減処理
(nは整数)
を行なうことで、2期間に1回の割合でノイズ低減済みの低域信号O3〜O5を出力する。
As described above, since the noise reduction circuit in the low-frequency circuit 205 requires 3 × 3 neighborhood data to process each pixel, the low-frequency generation circuit 205 first starts with 3, 5, and 7 in FIG. A first noise reduction process is performed on the column, and then a second noise reduction process is performed on the fifth column. The processing is started from the third column because 3 × 3 neighborhood data is required for the first noise reduction processing itself. In the fifth and subsequent columns, a period in which the low-frequency signal in which noise has been reduced twice in the fifth column is obtained is defined as a reference period t.
・ Period (t + 2n + 1):
(2n + 9) row 1st noise reduction processing
・ Period (t + 2n + 2):
(2n + 7) row 2nd noise reduction processing
(n is an integer)
As a result, the low-frequency signals O3 to O5 whose noise has been reduced are output once every two periods.

すなわち、期間tにおけるj番目のでの中間出力Oiの値をOi(j;t)と記載すると、図10に示す如く、nが偶数のとき、
O3(j;t+n) =
座標(n+5,2j+1)の2回ノイズ低減済み輝度低域信号
O4(j;t+n) =
座標(n+5,2j+1)の2回ノイズ低減済みCr色差信号
O5(j;t+n) =
座標(n+5,2j+1)の2回ノイズ低減済みCb色差信号
であり、一方、
nが奇数のとき、O3(j;t+n)〜O5(j;t+n)は出力無し
となる。
That is, when the value of the j-th intermediate output Oi in the period t is described as Oi (j; t), as shown in FIG. 10, when n is an even number,
O3 (j; t + n) =
Brightness low-frequency signal with reduced noise twice at coordinates (n + 5,2j + 1)
O4 (j; t + n) =
Cr color difference signal with reduced noise twice at coordinates (n + 5,2j + 1)
O5 (j; t + n) =
Cb color difference signal with reduced noise twice at coordinates (n + 5,2j + 1)
On the other hand,
When n is odd, O3 (j; t + n) to O5 (j; t + n) have no output
It becomes.

合成回路206は、低域生成回路205の出力O3〜O5と、高域処理回路104の出力O1及びO2から、期間(t+n)において、列(n+4)における輝度及び色差の最終出力O8〜O11を生成する。出力O3〜O5で得られているのは図10中の◇の位置の低域信号のみなので、その他の位置の低域信号は、図10の座標(x,y)における低域信号Sの値をS(x,y)として、図10中、
黒丸位置で、
S(2i+1,2j+1) = 補間必要なし(◇位置)
S(2i,2j+1) = (S(2i-1,2j+1)+S(2i+1,2j+1))/2
白丸位置で、
S(2i+1,2j) = (S(2i+1,2j-1)+S(2i+1,2j+1))/2
S(2i,2j) = (S(2i-1,2j-1)+S(2i-1,2j+1)
+S(2i+1,2j-1)+S(2i+1,2j+1))/4
(但し、i,jは整数。)
という補間式で生成する。
The synthesizing circuit 206 outputs final outputs O8 to O11 of luminance and color differences in the column (n + 4) in the period (t + n) from the outputs O3 to O5 of the low frequency generation circuit 205 and the outputs O1 and O2 of the high frequency processing circuit 104. Generate. Since only the low frequency signal at the position ◇ in FIG. 10 is obtained from the outputs O3 to O5, the low frequency signals at other positions are the values of the low frequency signal S at the coordinates (x, y) in FIG. And S (x, y) in FIG.
In the black circle position,
S (2i + 1,2j + 1) = no interpolation required (◇ position)
S (2i, 2j + 1) = (S (2i-1,2j + 1) + S (2i + 1,2j + 1)) / 2
In the white circle position,
S (2i + 1,2j) = (S (2i + 1,2j-1) + S (2i + 1,2j + 1)) / 2
S (2i, 2j) = (S (2i-1,2j-1) + S (2i-1,2j + 1)
+ S (2i + 1,2j-1) + S (2i + 1,2j + 1)) / 4
(However, i and j are integers.)
It generates with the interpolation formula.

この補間計算は補間回路206e〜206iで行なわれ、補間回路206d,206f、及び206hではそれぞれ図10中の黒丸位置における低域輝度信号、Cr色差信号、Cb色差信号が、補間回路206e,206g、及び206iではそれぞれ図10中の白丸位置における低域輝度信号、Cr色差信号、Cb色差信号が出力される。各回路での計算は前記補間式を時系列信号に置き直したもので、以下の通りである。(以下、j,nは整数)
補間回路206f:
図10中の黒丸位置(2j+1,n+4)での輝度低域信号O1'を
O1'(j;t+n) = O3(j;t+n-1) (nが奇数の時)
O1'(j;t+n) =
(O3(j;t+n-2)+O3(j;t+n))/2 (nが偶数の時)
と生成する。
This interpolation calculation is performed by the interpolation circuits 206e to 206i. In the interpolation circuits 206d, 206f, and 206h, the low-frequency luminance signal, the Cr color difference signal, and the Cb color difference signal at the black circle positions in FIG. And 206i output a low-frequency luminance signal, a Cr color difference signal, and a Cb color difference signal at the positions of white circles in FIG. The calculation in each circuit is the following, in which the interpolation formula is replaced with a time series signal. (Hereinafter, j and n are integers.)
Interpolator 206f:
The luminance low-pass signal O1 'at the black circle position (2j + 1, n + 4) in FIG.
O1 '(j; t + n) = O3 (j; t + n-1) (when n is an odd number)
O1 '(j; t + n) =
(O3 (j; t + n-2) + O3 (j; t + n)) / 2 (when n is an even number)
And generate.

補間回路206f:
図10黒丸位置(2j+1,n+4)でのCr色差信号O8を
O8(j;t+n) = O4(j;t+n-1) (nが奇数の時)
O8(j;t+n) =
(O4(j;t+n-2)+O4(j;t+n))/2 (nが偶数の時)
と生成する。
Interpolator 206f:
Figure 10 Cr color difference signal O8 at black circle position (2j + 1, n + 4)
O8 (j; t + n) = O4 (j; t + n-1) (when n is an odd number)
O8 (j; t + n) =
(O4 (j; t + n-2) + O4 (j; t + n)) / 2 (when n is an even number)
And generate.

補間回路206h:
図10黒丸位置(2j+1,n+4)でのCb色差信号O10を
O10(j;t+n) = O5(j;t+n-1) (nが奇数の時)
O10(j;t+n) =
(O5(j;t+n-2)+O4(j;t+n))/2 (nが偶数の時)
と生成する。
Interpolator 206h:
Figure 10 Cb color difference signal O10 at black circle position (2j + 1, n + 4)
O10 (j; t + n) = O5 (j; t + n-1) (when n is an odd number)
O10 (j; t + n) =
(O5 (j; t + n-2) + O4 (j; t + n)) / 2 (when n is an even number)
And generate.

補間回路206e:
図10白丸位置(2j+2,n+4)での輝度低域信号O2'を
O2'(j;t+n) =
(O3(j;t+n-1)+O3(j+1;t+n-1))/2 (nが奇数の時)
O2'(j;t+n) =
(O3(j;t+n-2)+O3(j+1;t+n-2)
+O3(j;t+n)+O3(j+1;t+n))/4 (nが偶数の時)
と生成する。
Interpolator 206e:
Fig. 10 Luminance low-frequency signal O2 'at white circle position (2j + 2, n + 4)
O2 '(j; t + n) =
(O3 (j; t + n-1) + O3 (j + 1; t + n-1)) / 2 (when n is an odd number)
O2 '(j; t + n) =
(O3 (j; t + n-2) + O3 (j + 1; t + n-2)
+ O3 (j; t + n) + O3 (j + 1; t + n)) / 4 (when n is an even number)
And generate.

補間回路206g:
図10白丸位置(2j+2,n+4)でのCr色差信号O9を
O9(j;t+n) =
(O3(j;t+n-1)+O3(j+1;t+n-1))/2 (nが奇数の時)
O9(j;t+n) =
(O3(j;t+n-2)+O3(j+1;t+n-2)
+O3(j;t+n)+O3(j+1;t+n))/4 (nが偶数の時)
と生成する。
Interpolator 206g:
Fig. 10 Cr color difference signal O9 at white circle position (2j + 2, n + 4)
O9 (j; t + n) =
(O3 (j; t + n-1) + O3 (j + 1; t + n-1)) / 2 (when n is an odd number)
O9 (j; t + n) =
(O3 (j; t + n-2) + O3 (j + 1; t + n-2)
+ O3 (j; t + n) + O3 (j + 1; t + n)) / 4 (when n is an even number)
And generate.

補間回路206i:
図10白丸位置(2j+2,n+4)でのCb色差信号O11を
O11(j;t+n) =
(O3(j;t+n-1)+O3(j+1;t+n-1))/2 (nが奇数の時)
O11(j;t+n) =
(O3(j;t+n-2)+O3(j+1;t+n-2)
+O3(j;t+n)+O3(j+1;t+n))/4 (nが偶数の時)
と生成する。
Interpolator 206i:
Figure 10 Cb color difference signal O11 at white circle position (2j + 2, n + 4)
O11 (j; t + n) =
(O3 (j; t + n-1) + O3 (j + 1; t + n-1)) / 2 (when n is an odd number)
O11 (j; t + n) =
(O3 (j; t + n-2) + O3 (j + 1; t + n-2)
+ O3 (j; t + n) + O3 (j + 1; t + n)) / 4 (when n is an even number)
And generate.

強調回路206jでは、補間回路206dの出力である輝度低域信号O1’と高域生成回路の出力である輝度高域信号O1から、期間(t+n)に、図10中の黒丸位置における(n+4)列目の輝度信号O6を以下の式で計算する。すなわち、
O6(j;t+n) = α*O1(j;t+n)+O1'(j;t+n)
(jは整数、αは定数)
同様に、強調回路206kでは、補間回路206eの出力である輝度低域信号O2’と高域処理回路104の出力である輝度高域信号O2から、期間(t+n)に、図10中の白丸位置における(n+4)列目の輝度信号O7を以下の式で計算する。すなわち、
O7(j;t+n) = α*O2(j;t+n)+O2'(j;t+n)
(jは整数、αは定数)
なお、高域処理回路104の処理開始位置と処理開始のタイミングは、期間(t+n)で(n+4)列目の輝度高域信号が得られるように調整されており、強調回路206jにおいて低域信号と高域信号にずれがないようになっている。
In the enhancement circuit 206j, from the luminance low-frequency signal O1 ′ that is the output of the interpolation circuit 206d and the luminance high-frequency signal O1 that is the output of the high-frequency generation circuit, during the period (t + n), (n + 4) at the black circle position in FIG. The luminance signal O6 of the column is calculated by the following formula. That is,
O6 (j; t + n) = α * O1 (j; t + n) + O1 '(j; t + n)
(j is an integer, α is a constant)
Similarly, in the enhancement circuit 206k, from the luminance low-frequency signal O2 ′ that is the output of the interpolation circuit 206e and the luminance high-frequency signal O2 that is the output of the high-frequency processing circuit 104, the position of the white circle in FIG. The luminance signal O7 in the (n + 4) th column is calculated by the following formula. That is,
O7 (j; t + n) = α * O2 (j; t + n) + O2 '(j; t + n)
(j is an integer, α is a constant)
Note that the processing start position and processing start timing of the high frequency processing circuit 104 are adjusted so that the luminance high frequency signal of the (n + 4) th column is obtained in the period (t + n), and the low frequency signal is output in the enhancement circuit 206j. And there is no shift in the high frequency signal.

前述する如く本実施形態では、低域画像を水平及び垂直各方向に1/2間引きで生成しており、各色成分毎の残った同一画素データに対してノイズ低減回路205e〜205gを用いて複数回、例えば2回繰返しノイズ除去処理を施した後に出力するものとしている。   As described above, in the present embodiment, the low-frequency image is generated by half-decimation in each of the horizontal and vertical directions, and a plurality of noise reduction circuits 205e to 205g are used for the same pixel data remaining for each color component. It is assumed that the output is performed after performing noise removal processing repeatedly, for example, twice.

このように画質の劣化に大きな影響を与えることない低域成分を間引いて処理することで、低域成分のノイズ低減処理を循環的に複数回繰返したとしても処理速度が低下してしまうのを回避できる。   By thinning out low frequency components that do not significantly affect image quality degradation in this way, processing speed decreases even if low frequency component noise reduction processing is repeated multiple times in a cyclic manner. Can be avoided.

また、前記図10中の「◇」印位置で、例えばデータ量を1/4に間引くパターンのバリエーションを提示した如く、低域生成回路205で一部の画素位置において低域成分を算出することで前記低域画像を生成するものとしたので、低域成分をより高画質に生成できる。   In addition, the low-frequency generation circuit 205 calculates low-frequency components at some pixel positions, for example, as shown in the variation of the pattern in which the data amount is thinned to ¼ at the position marked with “◇” in FIG. Since the low-frequency image is generated, the low-frequency component can be generated with higher image quality.

この場合、図10で示した間引きパターンでは、前記一部の画素位置は、水平及び垂直共に間に1画素を空けた2画素間隔の格子点であることとしたので、低域成分の処理時間に余裕を持たせることができ、ノイズ低減処理の構成を多様なバリエーションで実現できる。   In this case, in the thinning pattern shown in FIG. 10, the part of the pixel positions are grid points with a spacing of two pixels with one pixel in between both horizontally and vertically. Can be provided, and the noise reduction processing configuration can be realized in various variations.

また、本実施形態の例では、低域生成回路205が図10中の◇印で示した位置で飛び飛びに低域成分の生成処理を行っていたが、低域生成回路205に入力する前に予め間引いた単板画像を生成し、その画像の全ての画素に対して低域生成回路205が処理を行なうようにしてもよい。   In the example of the present embodiment, the low-frequency generation circuit 205 performs the low-frequency component generation processing at the positions indicated by ◇ in FIG. 10, but before input to the low-frequency generation circuit 205. A single-plate image thinned out in advance may be generated, and the low-frequency generation circuit 205 may perform processing on all the pixels of the image.

図11はそのような変形例における間引きパターンを例示したものである。この変形例では、まず、バッファ103内の単板画像Uに対し、垂直及び垂直方向に各2画素ずつ飛ばして読出しを行ない、図11(a)中に網掛けで例示した部分のデータのみを読出し、図11(B)の間引き単板画像Vを生成する。そして、この間引き単板画像Vの各画素の近傍で4×4のローパスフィルタを適用し、図11(b)中の◇位置でのRGB信号を生成する。これは、図11(a)内の◇位置でのRGB信号を求めたことに相当する。   FIG. 11 illustrates a thinning pattern in such a modification. In this modified example, first, the single-plate image U in the buffer 103 is read by skipping two pixels in the vertical and vertical directions, and only the data of the portion illustrated by shading in FIG. Reading is performed to generate a thinned single-plate image V in FIG. Then, a 4 × 4 low-pass filter is applied in the vicinity of each pixel of the thinned veneer image V to generate an RGB signal at the position ◇ in FIG. This corresponds to obtaining the RGB signal at the ◇ position in FIG.

このように、予め間引いた単板画像から低域生成を行なうことで、回路が簡単化され、回路規模が削減できる。   Thus, by performing low-frequency generation from a single plate image thinned out in advance, the circuit is simplified and the circuit scale can be reduced.

なお、この変形例ではRGB信号が生成される位置が元々の単板画像の画素位置から半画素ずれるため、高域処理回路104で用いるバンドパスフィルタを4×4とし、方向判定回路103bで方向を判定する位置も合わせて変更する。   In this modification, the position where the RGB signal is generated is shifted by a half pixel from the pixel position of the original single-plate image. Therefore, the bandpass filter used in the high-frequency processing circuit 104 is 4 × 4, and the direction determination circuit 103b The position for determining whether or not to change is also changed.

例えば、図11(a)中の○印の位置の高域信号の生成には丸印の近傍の4×4の領域を用い、方向判定は、図11(a)中の破線部内の画素を用いて×印の位置で行なう。判定結果は○印の直上に位置する◇印における高域信号の生成と共用する。   For example, a high-frequency signal at the position indicated by a circle in FIG. 11A is generated using a 4 × 4 region in the vicinity of the circle, and the direction determination is performed using pixels in the broken line portion in FIG. Use at the position of x mark. The judgment result is shared with the generation of the high frequency signal at the ◇ mark located immediately above the ○ mark.

本実施形態の例にはこのほかにも様々な変形例が考えられる。例えば、ノイズ低減回路205e,205f,205gで用いるノイズ低減処理で使用する近傍データのサイズは、3×3に限らず、任意のサイズでよい。その場合でも、遅延時間が長くなるものの、図9と同様のタイミングで処理が可能である。   Various other modifications can be considered in the example of the present embodiment. For example, the size of the neighborhood data used in the noise reduction processing used in the noise reduction circuits 205e, 205f, and 205g is not limited to 3 × 3, and may be any size. Even in this case, the processing can be performed at the same timing as in FIG. 9 although the delay time becomes long.

また、第1の実施形態の例と同様に、撮像素子が単板CCD102ではなく三板撮像素子であっても同様の高速化が可能である。この場合、RGB生成回路205aが不要となる。   Similar to the example of the first embodiment, even if the image pickup device is not a single-chip CCD 102 but a three-plate image pickup device, the same increase in speed is possible. In this case, the RGB generation circuit 205a is not necessary.

また、撮像素子がカラーフィルタを有する単板CCD102ではなく、モノクロの撮像素子の場合も同様の高速化が可能である。この場合、RGB生成回路205a及び色変換回路205bが不要となり、階調変換回路205cでは撮像素子の出力に対して直接階調変換を施す。YC変換回路205dは階調変換回路105cからの入力をノイズ低減回路105eに直接出力し、ノイズ低減回路205f,205g、バッファ205i、バッファ205j,206b,206c、補間回路206f、補間回路206g、補間回路206h及び補間回路206iは不要となる。   Further, when the image pickup device is not a single CCD 102 having a color filter but a monochrome image pickup device, the same increase in speed is possible. In this case, the RGB generation circuit 205a and the color conversion circuit 205b are not necessary, and the gradation conversion circuit 205c directly performs gradation conversion on the output of the image sensor. The YC conversion circuit 205d directly outputs the input from the gradation conversion circuit 105c to the noise reduction circuit 105e, and the noise reduction circuits 205f and 205g, the buffer 205i, the buffers 205j, 206b and 206c, the interpolation circuit 206f, the interpolation circuit 206g, and the interpolation circuit. 206h and the interpolation circuit 206i are unnecessary.

(第3の実施形態)
以下本発明をデジタルカメラに適用した場合の第3の実施形態について説明する。
なお、本実施形態に係るデジタルカメラ100″の主として撮影系の画像処理の回路構成については、前記図1に示したものと基本的に同様であるものとし、同一部分には同一符号を用いてその図示と説明とを省略する。
(Third embodiment)
A third embodiment when the present invention is applied to a digital camera will be described below.
Note that the circuit configuration of the image processing mainly for photographing system of the digital camera 100 ″ according to the present embodiment is basically the same as that shown in FIG. 1, and the same reference numerals are used for the same parts. The illustration and description thereof are omitted.

しかして本実施形態では、前記図1の低域生成回路105に代えて後述の低域生成回路305を、合成回路106に代えて後述の合成回路306を用いる。
図12は、低域生成回路305内の詳細な構成を示す。前段の画像バッファ103からの画像データは、RGB生成回路305aに与えられる。RGB生成回路305aは、画像バッファ103からの画像データに補間処理を施してRGBの各成分が各画素で揃ったRGBデータを生成し、色変換回路305bに出力する。
Therefore, in the present embodiment, a low-frequency generation circuit 305 described later is used instead of the low-frequency generation circuit 105 of FIG. 1, and a synthesis circuit 306 described later is used instead of the synthesis circuit 106.
FIG. 12 shows a detailed configuration within the low frequency generation circuit 305. The image data from the preceding image buffer 103 is given to the RGB generation circuit 305a. The RGB generation circuit 305a performs interpolation processing on the image data from the image buffer 103 to generate RGB data in which RGB components are aligned in each pixel, and outputs the RGB data to the color conversion circuit 305b.

なお、RGB生成回路305aは、図6中の黒丸で示した画素位置でのRGB成分を順次出力する。また、1画素の処理に際し、第1の実施形態の例と同じく、近傍5×5の周囲画素データを必要とする。   The RGB generation circuit 305a sequentially outputs RGB components at pixel positions indicated by black circles in FIG. In the case of processing one pixel, the surrounding pixel data of the neighborhood 5 × 5 is required as in the example of the first embodiment.

色変換回路305bは、原色信号系のRGBデータに対して,その時点で設定されているホワイトバランス値に応じた加減変換を行ない、変換後のRGBデータを階調変換回路305cに出力する。   The color conversion circuit 305b performs addition / subtraction conversion on the RGB data of the primary color signal system according to the white balance value set at that time, and outputs the converted RGB data to the gradation conversion circuit 305c.

階調変換回路305cは、RGBデータをそれぞれガンマ補正処理により中間階調値を所定の値に変換してYC変換回路305dへ出力する。   The gradation conversion circuit 305c converts the intermediate gradation value into a predetermined value by performing a gamma correction process on each of the RGB data, and outputs the converted value to the YC conversion circuit 305d.

YC変換回路305dは、原色信号系のRGBデータをマトリックス演算により輝度色差信号系のYCrCbデータに変換し、得たY(YL)データ、Crデータ、Cbデータを分離して、Y(YL)データをノイズ低減回路305eに、Crデータ、Cbデータを選択回路305fに出力する。   The YC conversion circuit 305d converts the RGB data of the primary color signal system into YCrCb data of the luminance / chrominance signal system by matrix calculation, separates the obtained Y (YL) data, Cr data, and Cb data, and generates Y (YL) data. Are output to the noise reduction circuit 305e, and Cr data and Cb data are output to the selection circuit 305f.

ノイズ低減回路305eは、Y(YL)データに対するローパスフィルタ処理を施して高周波成分のノイズを低減するもので、中間出力O3として次段の合成回路206へ出力する。   The noise reduction circuit 305e performs low-pass filter processing on Y (YL) data to reduce high-frequency component noise, and outputs it as an intermediate output O3 to the next stage synthesis circuit 206.

一方、YC変換回路305dからCrデータ、Cbデータを入力した選択回路305fは、図6の奇数列目の黒丸位置を処理している際はCrデータを、偶数列目の黒丸位置を処理している際はCbデータを選択的に出力する。   On the other hand, the selection circuit 305f that receives Cr data and Cb data from the YC conversion circuit 305d processes the Cr data and processes the black circle positions of the even columns when the black circle positions of the odd columns of FIG. 6 are processed. Cb data is selectively outputted when

この選択回路305fの出力するCrデータ及びCbデータは、ノイズ低減回路305gでローパスフィルタ処理が施され、高周波成分のノイズが低減された後に中間出力O4として次段の合成回路206へ出力される。   The Cr data and Cb data output from the selection circuit 305f are low-pass filtered by the noise reduction circuit 305g, and after high-frequency component noise is reduced, are output to the next stage synthesis circuit 206 as an intermediate output O4.

次に、前記高域処理回路104と低域生成回路305の出力を合成する合成回路306の構成と作用を、図13及び図14を用いて説明する。   Next, the configuration and operation of the synthesis circuit 306 that synthesizes the outputs of the high frequency processing circuit 104 and the low frequency generation circuit 305 will be described with reference to FIGS. 13 and 14. FIG.

図13は合成回路306の構成図である。図14は合成回路の入出力O1〜O11の信号内容を時系列に表したもので、一列分の処理を1単位期間として信号の内容を記してある。なお、一列分の処理に要する時間は、高域処理回路104では図6の上下に隣接する黒丸と白丸の位置で並列に処理を行ない、低域生成回路305では黒丸位置でのみ処理を行なうため、垂直画素数の半分となっている。   FIG. 13 is a configuration diagram of the synthesis circuit 306. FIG. 14 shows the signal contents of the inputs / outputs O1 to O11 of the synthesis circuit in time series, and the contents of the signals are described with processing for one column as one unit period. Note that the time required for processing for one column is that the high frequency processing circuit 104 performs processing in parallel at the positions of the black and white circles adjacent in the upper and lower directions in FIG. 6, and the low frequency generation circuit 305 performs processing only at the black circle position. This is half the number of vertical pixels.

図14において、低域生成回路305では、各単位期間において、図6中の各列の黒丸位置における輝度低域信号をO3に、色差信号をO4に出力する。すなわち、1列目の輝度低域信号O3が得られる期間を基準期間tとすると、O3,O4は
O3(j;t+n) = YL(n+1,2j+1)
O4(j;t+n) = Cr(n+1,2j+1) (nが偶数のとき)
O4(j;t+n) = Cb(n+1,2j+1) (nが奇数のとき)
(但し、n,j:整数、
Oi(j;t):期間tにおけるj番目の中間出力Oiの値、
S(x,y):x列y行における信号Sの値。)
出力O4として得られる信号の種類は、選択回路305fでの選択結果による。出力O3及びO4は、各々バッファ306a及び306bに蓄積される。
In FIG. 14, the low frequency generation circuit 305 outputs the luminance low frequency signal at the black circle position of each column in FIG. 6 to O3 and the color difference signal to O4 in each unit period. That is, if the period during which the luminance low-frequency signal O3 in the first column is obtained is the reference period t, O3 and O4 are
O3 (j; t + n) = YL (n + 1,2j + 1)
O4 (j; t + n) = Cr (n + 1,2j + 1) (when n is an even number)
O4 (j; t + n) = Cb (n + 1,2j + 1) (when n is an odd number)
(Where n, j are integers,
Oi (j; t): value of j-th intermediate output Oi in period t,
S (x, y): the value of the signal S in x columns and y rows. )
The type of signal obtained as the output O4 depends on the selection result in the selection circuit 305f. Outputs O3 and O4 are stored in buffers 306a and 306b, respectively.

高域処理回路104では、図6中の列の黒丸位置における輝度高域信号がO1として、白丸位置における輝度高域信号がO2として得られる。出力タイミングは、期間(t+n)においてn列目の輝度高域信号が出力されるよう調整されており、その結果、最終的な出力O7〜O11において低域信号と高域信号の処理位置が揃うようになっている。すなわち、
O1(j;t+n) = YH(n,2j+1)
O2(j;t+n) = YH(n,2j+2)
合成回路306は、低域生成回路305の出力O3及びO4と、高域処理回路104の出力O1及びO2から、期間(t+n)において、n列目の輝度及び色差の最終出力O8〜O11を生成する。出力O3及びO4では特定画素でしか低域信号が得られていないため、その他の位置の低域信号は、図6の座標(x,y)における低域信号Sの値をS(x,y)として、
図6中の黒丸位置で、
YL(2i+1,2j+1) = 補間必要なし
YL(2i,2j+1) = 補間必要なし
Cr(2i+1,2j+1) = 補間必要なし
Cr(2i,2j+1) =
(Cr(2i-1,2j+1)+Cr(2i+1,2j+1))/2
Cb(2i+1,2j+1) =
(Cb(2i,2j+1)+Cr(2i+2,2j+1))/2
Cb(2i,2j+1) = 補間必要なし
図6中の白丸位置で、
YL(2i+1,2j) = (YL(2i+1,2j-1)+YL(2i+1,2j+1))/2
YL(2i,2j) = (YL(2i,2j-1)+YL(2i,2j+1))/2
Cr(2i+1,2j) = (Cr(2i+1,2j-1)+Cr(2i+1,2j+1))/2
Cr(2i,2j) =
(Cr(2i+1,2j-1)+Cr(2i+1,2j+1)+
Cr(2i-1,2j-1)+Cr(2i-1,2j+1))/4Cb(2i+1,2j)
=(Cb(2i+2,2j-1)+Cb(2i+2,2j+1)+Cb(2i,2j-1)+
Cb(2i,2j+1))/4
Cb(2i,2j) = (Cb(2i,2j-1)+Cb(2i,2j+1))/2
(i,jは整数)
という補間式で生成する。
In the high frequency processing circuit 104, the luminance high frequency signal at the black circle position in the column in FIG. 6 is obtained as O1, and the luminance high frequency signal at the white circle position is obtained as O2. The output timing is adjusted so that the luminance high-frequency signal in the n-th column is output in the period (t + n). As a result, the processing positions of the low-frequency signal and the high-frequency signal are aligned in the final outputs O7 to O11. It is like that. That is,
O1 (j; t + n) = YH (n, 2j + 1)
O2 (j; t + n) = YH (n, 2j + 2)
The synthesis circuit 306 generates final outputs O8 to O11 of luminance and color differences in the n-th column in the period (t + n) from the outputs O3 and O4 of the low-frequency generation circuit 305 and the outputs O1 and O2 of the high-frequency processing circuit 104. To do. Since the low-frequency signals are obtained only at specific pixels at the outputs O3 and O4, the low-frequency signals at other positions are the values of the low-frequency signal S at the coordinates (x, y) in FIG. As
In the black circle position in FIG.
YL (2i + 1,2j + 1) = no interpolation required
YL (2i, 2j + 1) = no interpolation required
Cr (2i + 1,2j + 1) = no interpolation required
Cr (2i, 2j + 1) =
(Cr (2i-1,2j + 1) + Cr (2i + 1,2j + 1)) / 2
Cb (2i + 1,2j + 1) =
(Cb (2i, 2j + 1) + Cr (2i + 2,2j + 1)) / 2
Cb (2i, 2j + 1) = no interpolation required
In the white circle position in FIG.
YL (2i + 1,2j) = (YL (2i + 1,2j-1) + YL (2i + 1,2j + 1)) / 2
YL (2i, 2j) = (YL (2i, 2j-1) + YL (2i, 2j + 1)) / 2
Cr (2i + 1,2j) = (Cr (2i + 1,2j-1) + Cr (2i + 1,2j + 1)) / 2
Cr (2i, 2j) =
(Cr (2i + 1,2j-1) + Cr (2i + 1,2j + 1) +
Cr (2i-1,2j-1) + Cr (2i-1,2j + 1)) / 4Cb (2i + 1,2j)
= (Cb (2i + 2,2j-1) + Cb (2i + 2,2j + 1) + Cb (2i, 2j-1) +
Cb (2i, 2j + 1)) / 4
Cb (2i, 2j) = (Cb (2i, 2j-1) + Cb (2i, 2j + 1)) / 2
(i and j are integers)
It generates with the interpolation formula.

この補間計算は補間回路306c〜306gで行なわれ、補間回路306d及び306fではそれぞれ図6中の黒丸位置におけるCr色差信号、Cb色差信号が得られる。また、補間回路306c,306e、及び306gではそれぞれ図6中の白丸位置における低域輝度信号、Cr色差信号、Cb色差信号が出力される。   This interpolation calculation is performed by the interpolation circuits 306c to 306g. The interpolation circuits 306d and 306f respectively obtain the Cr color difference signal and the Cb color difference signal at the black circle positions in FIG. The interpolation circuits 306c, 306e, and 306g output a low-frequency luminance signal, a Cr color difference signal, and a Cb color difference signal at the white circle positions in FIG. 6, respectively.

各回路での計算は前記補間式を時系列信号に置き直したもので、以下の通りである。(以下、j,nは整数)
補間回路306d:
図6中の黒丸位置(2j+1,n)でのCr色差信号O8を
O8(j;t+n) = O4(j;t+n-1) (nが奇数の時)
O8(j;t+n) =
(O4(j;t+n-2)+O4(j;t+n))/2 (nが偶数の時)
と生成する。
The calculation in each circuit is the following, in which the interpolation formula is replaced with a time series signal. (Here, j and n are integers.)
Interpolator 306d:
Cr color difference signal O8 at the black circle position (2j + 1, n) in FIG.
O8 (j; t + n) = O4 (j; t + n-1) (when n is an odd number)
O8 (j; t + n) =
(O4 (j; t + n-2) + O4 (j; t + n)) / 2 (when n is an even number)
And generate.

補間回路306f:
図6中の黒丸位置(2j+1,n)でのCb色差信号O10を
O10(j;t+n) =
(O4(j;t+n-2)+O4(j;t+n))/2 (nが奇数の時)
O10(j;t+n) = O4(j;t+n-1) (nが偶数の時)
と生成する。
Interpolator 306f:
The Cb color difference signal O10 at the black circle position (2j + 1, n) in FIG.
O10 (j; t + n) =
(O4 (j; t + n-2) + O4 (j; t + n)) / 2 (when n is an odd number)
O10 (j; t + n) = O4 (j; t + n-1) (when n is an even number)
And generate.

補間回路306c:
図6中の白丸位置(2j+2,n)での輝度低域信号O2'を
O2'(j;t+n) =
(O3(j;t+n-1)+O3(j+1;t+n-1))/2 (nは整数)
と生成する。
Interpolator 306c:
The low luminance signal O2 'at the white circle position (2j + 2, n) in FIG.
O2 '(j; t + n) =
(O3 (j; t + n-1) + O3 (j + 1; t + n-1)) / 2 (n is an integer)
And generate.

補間回路306e:
図6中の白丸位置(2j+2,n)でのCr色差信号O9を
O9(j;t+n) =
(O4(j;t+n-1)+O4(j+1;t+n-1))/2 (nが奇数の時)
O9(j;t+n) =
(O4(j;t+n-2)+O4(j+1;t+n-2)
+O4(j;t+n)+O4(j+1;t+n))/4 (nが偶数の時)
と生成する。
Interpolator 306e:
The Cr color difference signal O9 at the white circle position (2j + 2, n) in FIG.
O9 (j; t + n) =
(O4 (j; t + n-1) + O4 (j + 1; t + n-1)) / 2 (when n is an odd number)
O9 (j; t + n) =
(O4 (j; t + n-2) + O4 (j + 1; t + n-2)
+ O4 (j; t + n) + O4 (j + 1; t + n)) / 4 (when n is an even number)
And generate.

補間回路306f:
図6中の白丸位置(2j+2,n)でのCb色差信号O11を
O11(j;t+n) =
(O4(j;t+n-2)+O4(j+1;t+n-2)
+O4(j;t+n)+O4(j+1;t+n))/4 (nが奇数の時)
O11(j;t+n) =
(O4(j;t+n-1)+O4(j+1;t+n-1))/2 (nが偶数の時)
と生成する。
Interpolator 306f:
The Cb color difference signal O11 at the white circle position (2j + 2, n) in FIG.
O11 (j; t + n) =
(O4 (j; t + n-2) + O4 (j + 1; t + n-2)
+ O4 (j; t + n) + O4 (j + 1; t + n)) / 4 (when n is an odd number)
O11 (j; t + n) =
(O4 (j; t + n-1) + O4 (j + 1; t + n-1)) / 2 (when n is an even number)
And generate.

強調回路306hでは、バッファ306a内の、1単位期間前の輝度低域信号O3と、高域生成回路の出力である輝度高域信号O1から、期間(t+n)に、図6中の黒丸位置におけるn列目の最終的な輝度信号O6を以下の式で計算する。すなわち、
O6(j;t+n) = α*O1(j;t+n)+O3(j;t+n-1)
(但し、jは整数、αは定数。)
同様に、強調回路206kでは、補間回路306cの出力である輝度低域信号O2’と高域生成回路の出力である輝度高域信号O2から、期間(t+n)に、図6中の白丸位置におけるn列目の最終的な輝度信号O7を以下の式で計算する。すなわち、
O7(j;t+n) = α*O2(j;t+n)+O2'(j;t+n)
(但し、jは整数、αは定数)
図14でも示すように、低域生成回路305では色差信号であるCrデータとCbデータとを1つのノイズ低減回路305gを共用して時分割で処理することで中間出力O4を生成する。
In the enhancement circuit 306h, from the luminance low-frequency signal O3 one unit period before in the buffer 306a and the luminance high-frequency signal O1 that is the output of the high frequency generation circuit, in the period (t + n), the black circle position in FIG. The final luminance signal O6 of the nth column is calculated by the following formula. That is,
O6 (j; t + n) = α * O1 (j; t + n) + O3 (j; t + n-1)
(Where j is an integer and α is a constant)
Similarly, in the enhancement circuit 206k, from the luminance low-frequency signal O2 ′ that is the output of the interpolation circuit 306c and the luminance high-frequency signal O2 that is the output of the high frequency generation circuit, in the period (t + n), the white circle position in FIG. The final luminance signal O7 of the nth column is calculated by the following formula. That is,
O7 (j; t + n) = α * O2 (j; t + n) + O2 '(j; t + n)
(Where j is an integer, α is a constant)
As shown in FIG. 14, the low-frequency generation circuit 305 generates the intermediate output O4 by processing the color difference signals Cr data and Cb data in a time-sharing manner using a single noise reduction circuit 305g.

こうしてノイズ低減回路305gを共用化することで、回路規模を減少させることが可能となることに加え、該共用化を共に色差信号であるCrデータとCbデータ用の回路で行なうものとしたので、他の色成分間でノイズ低減回路を共用するよりも無理なく共用化できる。   Since the noise reduction circuit 305g can be shared in this way, the circuit scale can be reduced. In addition, the sharing is performed by the circuit for Cr data and Cb data that are color difference signals. It can be shared more easily than sharing a noise reduction circuit between other color components.

また、図15,図16は、共に前記低域生成回路305で前記図10と同じくデータ量を1/4に間引く場合の画素位置パターンを例示するもので、図中の「X」が間引いた画素位置を示す。   15 and 16 both illustrate pixel position patterns when the data amount is thinned to ¼ in the low frequency generation circuit 305 as in FIG. 10, and “X” in the figure is thinned out. Indicates the pixel position.

図15(A)は、垂直方向に2画素間隔となる間隔で画素を間引くパターンの一例で、水平方向の同一行内では色差情報のCrデータとCbデータとが交互に配列されると共に、垂直方向では間引いた画素位置を挟んでCrデータはCrデータどうし、CbデータはCbデータ同士が同一列に揃って配列されるようになる。   FIG. 15A is an example of a pattern in which pixels are thinned out at intervals of 2 pixels in the vertical direction. In the same row in the horizontal direction, the color difference information Cr data and Cb data are alternately arranged, and the vertical direction Then, the Cr data is arranged between the Cr data and the Cb data is arranged in the same column with the thinned pixel positions interposed therebetween.

図15(B)は、同じく垂直方向に2画素間隔となる間隔で画素を間引くパターンの一例で、水平方向の同一行内で色差情報のCrデータとCbデータとが交互に配列されると共に、垂直方向でも間引いた画素位置を挟んでCrデータとCbデータとが同一行で交互に配列されるようになる。   FIG. 15B is an example of a pattern in which pixels are thinned out at intervals of two pixels in the vertical direction, and Cr data and Cb data of color difference information are alternately arranged in the same row in the horizontal direction and are also vertically Even in the direction, Cr data and Cb data are alternately arranged in the same row with the pixel positions thinned out.

図16(A)は、Crデータ及びCbデータと間引く画素位置(X)との関係、及びCrデータとCbデータとの関係を共に市松状に配置することで、水平方向及び垂直方向に各要素が直接隣接しないように配列した例を示すものである。   In FIG. 16A, the relationship between the Cr data and Cb data and the pixel position (X) to be thinned out, and the relationship between the Cr data and Cb data are arranged in a checkered pattern so that each element in the horizontal and vertical directions. Shows an example of arrangement so that are not directly adjacent to each other.

図16(B)は、輝度情報であるY(YL)データと間引く画素位置(X)とを市松状に配置することで、水平方向及び垂直方向に間引く画素位置が直接隣接しないように配列した例を示すものである。   In FIG. 16B, the Y (YL) data as luminance information and the pixel position (X) to be thinned are arranged in a checkered pattern so that the pixel positions to be thinned in the horizontal direction and the vertical direction are not directly adjacent to each other. An example is given.

なお、本実施形態の例には、様々な変形例が可能である。図15(B)に示した一例は、選択回路305fの色差データの選択パターンを変えたものである。図15中、X印は信号が得られないことを表す。図15(A)に示した本実施形態の例内での選択パターンに対し、各列でCr信号とCb信号が得られていることが特徴である。   Various modifications can be made to the example of the present embodiment. In the example shown in FIG. 15B, the selection pattern of the color difference data of the selection circuit 305f is changed. In FIG. 15, X indicates that no signal can be obtained. In contrast to the selection pattern in the example of the present embodiment shown in FIG. 15A, a feature is that a Cr signal and a Cb signal are obtained in each column.

また、図16(A)及び図16(B)は、低域生成回路305の処理対象行を列によって変えた例で、本実施形態の例では図6中黒丸の位置(奇数行)でのみ低域信号が得られたのに対し、低域信号が市松状のパターンで得られる点が特徴である。   FIGS. 16A and 16B are examples in which the processing target rows of the low-frequency generation circuit 305 are changed depending on the columns. In the example of this embodiment, only at the positions of the black circles (odd rows) in FIG. The low-frequency signal is obtained, whereas the low-frequency signal is obtained in a checkered pattern.

これらいずれのパターンにおいても、本実施形態の例と同様に、欠落している低域信号をその近傍で得られている低域信号から補間すればよい。補間方式も、より複雑なものを用いても良く、補間に用いる近傍の大きさも、本実施の形態例の3×3のサイズに限らず、さらに大きなサイズのものでもよい。その際は、時系列的により過去のデータを蓄積しておけるよう、低域生成回路305内のバッファを増大させればよい。   In any of these patterns, as in the example of the present embodiment, the missing low frequency signal may be interpolated from the low frequency signal obtained in the vicinity thereof. A more complicated interpolation method may be used, and the size of the neighborhood used for the interpolation is not limited to the 3 × 3 size of the present embodiment, but may be a larger size. In that case, the buffer in the low-frequency generation circuit 305 may be increased so that past data can be accumulated in time series.

また、撮像素子が単板CCD102ではなく三板撮像素子であっても、同様の高速化が可能である。この場合RGB生成回路305aが不要となる。   Further, even when the image pickup device is not a single-chip CCD 102 but a three-plate image pickup device, the same increase in speed is possible. In this case, the RGB generation circuit 305a becomes unnecessary.

このように、前記低域生成回路305では、前記図15及び図16に示した如く、生成する低域成分画像が複数の色成分からなり、各画素位置で特定の色成分が欠落しているものとしたことにより、ベイヤー配列の特性に対してより適した処理を行なうことができ、各色成分を得ている画素位置がずれているため、空間情報としてより多くの情報が得られる。   In this way, in the low frequency generation circuit 305, as shown in FIGS. 15 and 16, the generated low frequency component image is composed of a plurality of color components, and a specific color component is missing at each pixel position. As a result, processing more suitable for the characteristics of the Bayer arrangement can be performed, and the pixel position from which each color component is obtained is shifted, so that more information can be obtained as spatial information.

さらに、前記図16(A)で示した如く、生成する低域成分画像を構成する複数の色成分は、色差成分であるCrデータ及びCbデータであり、Crデータが欠落する画素位置とCbデータが欠落する画素位置とを市松状に配列したことにより、得られる空間情報の量が最大となる。   Further, as shown in FIG. 16A, the plurality of color components constituting the generated low-frequency component image are Cr data and Cb data which are color difference components, and pixel positions and Cb data where Cr data is missing. The amount of spatial information obtained is maximized by arranging the pixel positions at which the missing is in a checkered pattern.

なお、前記第1乃至第3の実施形態はいずれも静止画像を撮影するためのデジタルカメラに適用した場合について説明したものであるが、本発明はこれに限ることなく、例えば動画を撮影するためのビデオムービーカメラや、カメラ機能付きの携帯電話端末等の電子機器にも同様に適用可能である。なお、この電子機器とは、正しく作動するために電流または電磁界に依存する装置である。   The first to third embodiments have been described with reference to a case where the present invention is applied to a digital camera for taking a still image. However, the present invention is not limited to this, for example, for taking a moving image. The present invention is also applicable to electronic devices such as video movie cameras and mobile phone terminals with camera functions. This electronic device is a device that relies on current or electromagnetic field to operate correctly.

また上記各実施形態では、高域処理回路104を形成するべく、2つの高域生成回路104A,104Bを用いる例を示したが、変形例として、3つ以上の高域生成回路を用いてもよい。この場合、第1〜第n(nは3以上の自然数)の高域生成回路が一度に並列処理する画素位置は、互いに隣り合って並んでいるn個の画素位置となる。例えば、3つの高域生成回路を用いて前記図6で示した画素位置での処理を行なうものとすると、第1の高域生成回路はある黒丸位置を、第2の高域生成回路はその黒丸位置の隣の白丸位置を、第3の高域生成回路はその白丸位置の隣の、図示しない星印位置を、それぞれ高周波成分の生成処理の対象とする。なお、この変形例においても、すべての高域生成回路が1つの方向判定回路104bを共有することとしてもよい。   In each of the above-described embodiments, an example is shown in which two high-frequency generation circuits 104A and 104B are used to form the high-frequency processing circuit 104. However, as a modification, three or more high-frequency generation circuits may be used. Good. In this case, the pixel positions that the first to n-th (n is a natural number of 3 or more) high-frequency generation circuits perform parallel processing at a time are n pixel positions arranged next to each other. For example, if the processing at the pixel position shown in FIG. 6 is performed using three high-frequency generation circuits, the first high-frequency generation circuit has a black circle position, and the second high-frequency generation circuit has the black circle position. The white circle position next to the black circle position, and the star position (not shown) next to the white circle position are the targets of the high frequency component generation processing. In this modification as well, all the high-frequency generation circuits may share one direction determination circuit 104b.

さらに上記各実施形態では、複数の高域生成回路のそれぞれは、少なくともエッジ抽出回路とノイズ低減回路を有していたが、変形例として、ノイズ低減回路を除外し、少なくともエッジ抽出回路を有していてもよい。   Further, in each of the above embodiments, each of the plurality of high-frequency generation circuits has at least an edge extraction circuit and a noise reduction circuit. However, as a modification, the noise reduction circuit is excluded and at least an edge extraction circuit is included. It may be.

その他、本発明は前述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、前述した実施形態で実行される機能は可能な限り適宜組合わせて実施してもよい。前述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the implementation stage. In addition, the functions executed in the above-described embodiments may be combined as appropriate as possible. The embodiments described above include various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

本発明の第1の実施形態に係るデジタルカメラの主として撮影系の回路構成を示すブロック図である。1 is a block diagram mainly showing a circuit configuration of a photographing system of a digital camera according to a first embodiment of the present invention. 同実施形態に係る図である。図1の高域生成回路内の詳細な構成を示すブロック図である。It is a figure which concerns on the same embodiment. FIG. 2 is a block diagram showing a detailed configuration in a high frequency generation circuit of FIG. 1. 同実施形態に係る図である。図1の低域生成回路内の詳細な構成を示すブロック図である。It is a figure which concerns on the same embodiment. FIG. 2 is a block diagram showing a detailed configuration in a low frequency generation circuit of FIG. 1. 同実施形態に係る図である。図1の合成回路内の詳細な構成を示すブロック図である。It is a figure which concerns on the same embodiment. FIG. 2 is a block diagram illustrating a detailed configuration in a synthesis circuit in FIG. 1. 同実施形態に係る各回路の出力信号を動作クロックと共に示すタイミングチャートである。4 is a timing chart showing an output signal of each circuit according to the embodiment together with an operation clock. 同実施形態に係る画像処理過程での間引き処理を行なう画素位置を例示する図である。It is a figure which illustrates the pixel position which performs the thinning process in the image processing process which concerns on the embodiment. 本発明の第2の実施形態に係る低域生成回路内の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure in the low-pass production | generation circuit based on the 2nd Embodiment of this invention. 同実施形態に係る合成回路内の詳細な構成を示すブロック図である。FIG. 3 is a block diagram showing a detailed configuration in a synthesis circuit according to the same embodiment. 同実施形態に係る各回路の出力信号を動作クロックと共に示すタイミングチャートである。4 is a timing chart showing an output signal of each circuit according to the embodiment together with an operation clock. 同実施形態に係る画像処理過程での間引き処理を行なう画素位置を例示する図である。It is a figure which illustrates the pixel position which performs the thinning process in the image processing process which concerns on the embodiment. 同実施形態に係る画像処理過程での間引き処理を行なう他の画素位置を例示する図である。It is a figure which illustrates the other pixel position which performs the thinning process in the image processing process which concerns on the embodiment. 本発明の第3の実施形態に係る低域生成回路内の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure in the low-pass production | generation circuit based on the 3rd Embodiment of this invention. 同実施形態に係る合成回路内の詳細な構成を示すブロック図である。FIG. 3 is a block diagram showing a detailed configuration in a synthesis circuit according to the same embodiment. 同実施形態に係る各回路の出力信号を動作クロックと共に示すタイミングチャートである。4 is a timing chart showing an output signal of each circuit according to the embodiment together with an operation clock. 同実施形態に係る画像処理過程での間引き処理を行なう画素位置を例示する図である。It is a figure which illustrates the pixel position which performs the thinning process in the image processing process which concerns on the embodiment. 同実施形態に係る画像処理過程での間引き処理を行なう他の画素位置を例示する図である。It is a figure which illustrates the other pixel position which performs the thinning process in the image processing process which concerns on the embodiment. 本発明の第1の実施形態に係る高域生成回路の作用について説明する図である。It is a figure explaining the effect | action of the high region production | generation circuit which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る変形例を説明する図である。It is a figure explaining the modification which concerns on the 1st Embodiment of this invention.

符号の説明Explanation of symbols

100,100′,100″…デジタルカメラ、101…レンズ光学系、102…単板CCD、103…画像バッファ、104…高域処理回路、104A,104B…高域生成回路、105…低域生成回路、106…合成回路、107…圧縮回路、108…記録部、110…プロセッサ、111…制御回路、205…低域生成回路、206…合成回路、305…低域生成回路、306…合成回路、400…デジタルカメラ、401…レンズ光学系、402…単板CCD、403…画像バッファ、404…Y生成回路、405…低域生成回路、406…合成回路、407…圧縮回路、408…記録部。   DESCRIPTION OF SYMBOLS 100,100 ', 100 "... Digital camera, 101 ... Lens optical system, 102 ... Single-plate CCD, 103 ... Image buffer, 104 ... High frequency processing circuit, 104A, 104B ... High frequency generation circuit, 105 ... Low frequency generation circuit , 106 ... synthesis circuit, 107 ... compression circuit, 108 ... recording unit, 110 ... processor, 111 ... control circuit, 205 ... low frequency generation circuit, 206 ... synthesis circuit, 305 ... low frequency generation circuit, 306 ... synthesis circuit, 400 DESCRIPTION OF SYMBOLS ... Digital camera 401 ... Lens optical system 402 ... Single plate CCD, 403 ... Image buffer, 404 ... Y generation circuit, 405 ... Low frequency generation circuit, 406 ... Synthesis circuit, 407 ... Compression circuit, 408 ... Recording part.

Claims (14)

画像を入力する入力部と、
それぞれが前記入力された画像中の互いに異なる画素位置における高周波成分を生成する複数の高域生成部と、
前記入力された画像の画素数よりも少ない画素数の低周波成分画像を生成する低域生成部と、
前記生成された高周波成分と前記生成された低周波成分画像とを合成して合成画像を得る合成部と、
前記複数の高域生成部を並列に動作させる制御部と
を具備したことを特徴とする画像処理装置。
An input unit for inputting an image;
A plurality of high-frequency generators each generating high-frequency components at different pixel positions in the input image;
A low-frequency generation unit that generates a low-frequency component image having a smaller number of pixels than the number of pixels of the input image;
A combining unit that combines the generated high-frequency component and the generated low-frequency component image to obtain a combined image;
An image processing apparatus comprising: a control unit that operates the plurality of high frequency generation units in parallel.
前記低周波成分画像は複数の色成分を含むカラー画像であり、
前記低域生成部は、前記カラー画像の各色成分のノイズを低減するノイズ低減部を有し、
前記ノイズ低減部は、複数の色成分に対するノイズ低減処理を、共通の回路を使用して時分割で実行することを特徴とする請求項1に記載の画像処理装置。
The low frequency component image is a color image including a plurality of color components;
The low-frequency generation unit includes a noise reduction unit that reduces noise of each color component of the color image,
The image processing apparatus according to claim 1, wherein the noise reduction unit performs noise reduction processing for a plurality of color components in a time division manner using a common circuit.
前記低域生成部は、前記低周波成分画像のノイズを低減するノイズ低減部を有し、
前記低域生成部は、前記ノイズ低減部を循環的に複数回利用してノイズを低減する
ことを特徴とする請求項1に記載の画像処理装置。
The low frequency generation unit includes a noise reduction unit that reduces noise of the low frequency component image,
The image processing apparatus according to claim 1, wherein the low-frequency generation unit reduces noise by using the noise reduction unit a plurality of times cyclically.
前記入力された画像は複数の色成分を含むカラー画像であり、
前記高域生成部は、前記カラー画像から輝度高周波成分を生成し、
前記合成部は、前記生成された輝度高周波成分と前記低周波成分画像とを合成した結果、前記合成画像として複数の色成分を含むカラー画像を得る
ことを特徴とする請求項1に記載の画像処理装置。
The input image is a color image including a plurality of color components,
The high frequency generation unit generates a high frequency luminance component from the color image,
The image according to claim 1, wherein the synthesis unit obtains a color image including a plurality of color components as the synthesized image as a result of synthesizing the generated high-frequency luminance component and the low-frequency component image. Processing equipment.
前記低域生成部は、前記入力画像を間引き処理した後に前記低域成分画像を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the low-frequency generation unit generates the low-frequency component image after thinning the input image. 前記低域生成部は、前記入力画像に対し、水平または垂直の方向に間に1画素を空けた2画素間隔で、且つ前記方向に対応して垂直または水平の方向に隣接した1画素間隔の格子点に対応する画素位置での低域成分を抽出することで前記低周波成分画像を生成することを特徴とする請求項1に記載の画像処理装置。   The low-frequency generation unit has a two-pixel interval with one pixel in the horizontal or vertical direction with respect to the input image, and a one-pixel interval adjacent in the vertical or horizontal direction corresponding to the direction. The image processing apparatus according to claim 1, wherein the low frequency component image is generated by extracting a low frequency component at a pixel position corresponding to a lattice point. 前記低域生成部は、前記入力画像に対し、水平及び垂直の方向にそれぞれ間に1画素を空けた2画素間隔の格子点に対応する画素位置での低域成分を抽出することで前記低周波成分画像を生成することを特徴とする請求項1に記載の画像処理装置。   The low-frequency generation unit extracts the low-frequency component at a pixel position corresponding to a lattice point having a two-pixel interval with one pixel between the input image in the horizontal and vertical directions. The image processing apparatus according to claim 1, wherein a frequency component image is generated. 前記ノイズ低減部がノイズを低減する複数の色成分は、色差成分Cr及びCbのうち少なくとも一方を含むことを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the plurality of color components whose noise is reduced by the noise reduction unit includes at least one of color difference components Cr and Cb. 前記低周波成分画像は複数の色成分を含むカラー画像であり、前記カラー画像において、前記複数の色成分のうち少なくとも1つが欠落する画素位置と、前記複数の色成分中の特定の色成分が欠落する画素位置とが所定の規則に沿った配置関係となることを特徴とする請求項1に記載の画像処理装置。   The low-frequency component image is a color image including a plurality of color components, and in the color image, pixel positions where at least one of the plurality of color components is missing, and specific color components in the plurality of color components are The image processing apparatus according to claim 1, wherein the missing pixel position has an arrangement relationship according to a predetermined rule. 前記複数の色成分は色差成分Cr及びCbであり、色差成分Crが欠落する画素位置と色差成分Cbが欠落する画素位置とが市松状となることを特徴とする請求項9に記載の画像処理装置。   The image processing according to claim 9, wherein the plurality of color components are color difference components Cr and Cb, and a pixel position where the color difference component Cr is missing and a pixel position where the color difference component Cb is missing are in a checkered pattern. apparatus. 前記入力画像における高周波成分のエッジ方向を判定するエッジ方向判定部をさらに具備し、
前記複数の高域生成部のそれぞれは、前記エッジ方向判定部を共用し、前記エッジ方向判定部による判定結果に基づいてエッジとなる高域成分をそれぞれ抽出する
ことを特徴とする請求項1に記載の画像処理装置。
An edge direction determination unit that determines an edge direction of a high-frequency component in the input image;
The plurality of high frequency generation units share the edge direction determination unit, respectively, and each extract a high frequency component that becomes an edge based on a determination result by the edge direction determination unit. The image processing apparatus described.
前記複数の高域生成部のそれぞれは、前記入力画像における高周波成分のエッジを抽出するエッジ抽出部、及び該エッジ抽出部により抽出されたエッジを含む信号中のノイズを低減するノイズ低減部を備え、
前記複数の高域生成部のそれぞれが備える各エッジ抽出部及びノイズ低減部は、前記エッジ方向判定部を共用する
ことを特徴とする請求項11に記載の画像処理装置。
Each of the plurality of high frequency generation units includes an edge extraction unit that extracts an edge of a high-frequency component in the input image, and a noise reduction unit that reduces noise in the signal including the edge extracted by the edge extraction unit. ,
The image processing apparatus according to claim 11, wherein each of the edge extraction units and the noise reduction unit included in each of the plurality of high frequency generation units shares the edge direction determination unit.
画像を入力する入力ステップと、
それぞれが前記入力された画像中の互いに異なる画素位置における高周波成分を生成する複数の高域生成ステップと、
前記入力された画像の画素数よりも少ない画素数の低周波成分画像を生成する低域生成ステップと、
前記生成された高周波成分と前記生成された低周波成分画像とを合成して合成画像を得る合成ステップと、
前記複数の高域生成ステップを並列に動作させる制御ステップと
を有したことを特徴とする画像処理方法。
An input step for inputting an image;
A plurality of high-frequency generation steps each generating high-frequency components at different pixel positions in the input image;
A low frequency generation step of generating a low frequency component image having a number of pixels smaller than the number of pixels of the input image;
A synthesis step of synthesizing the generated high frequency component and the generated low frequency component image to obtain a composite image;
An image processing method comprising: a control step for operating the plurality of high frequency generation steps in parallel.
請求項1に記載の画像処理装置を有することを特徴とする電子機器。   An electronic apparatus comprising the image processing apparatus according to claim 1.
JP2008100708A 2008-04-08 2008-04-08 Image processing apparatus, image processing method and electronic device Withdrawn JP2009253760A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008100708A JP2009253760A (en) 2008-04-08 2008-04-08 Image processing apparatus, image processing method and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008100708A JP2009253760A (en) 2008-04-08 2008-04-08 Image processing apparatus, image processing method and electronic device

Publications (1)

Publication Number Publication Date
JP2009253760A true JP2009253760A (en) 2009-10-29

Family

ID=41313975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008100708A Withdrawn JP2009253760A (en) 2008-04-08 2008-04-08 Image processing apparatus, image processing method and electronic device

Country Status (1)

Country Link
JP (1) JP2009253760A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011172047A (en) * 2010-02-19 2011-09-01 Panasonic Corp Imaging apparatus
JP2017000839A (en) * 2014-11-25 2017-01-05 ソニー株式会社 Medical image processing device and operation method of medical image processing device
CN113711592A (en) * 2019-04-01 2021-11-26 北京字节跳动网络技术有限公司 One-half pixel interpolation filter in intra block copy coding mode

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011172047A (en) * 2010-02-19 2011-09-01 Panasonic Corp Imaging apparatus
JP2017000839A (en) * 2014-11-25 2017-01-05 ソニー株式会社 Medical image processing device and operation method of medical image processing device
US10799087B2 (en) 2014-11-25 2020-10-13 Sony Corporation Endoscope system, operation method for endoscope system, and program for balancing conflicting effects in endoscopic imaging
CN113711592A (en) * 2019-04-01 2021-11-26 北京字节跳动网络技术有限公司 One-half pixel interpolation filter in intra block copy coding mode

Similar Documents

Publication Publication Date Title
JP5451782B2 (en) Image processing apparatus and image processing method
KR102224851B1 (en) Image Processing Device and Image Processing System performing sub-pixel interpolation
US20130242199A1 (en) Image processing device and image processing method
JPWO2013046828A1 (en) Image processing apparatus, method, program, and imaging apparatus
WO2014017153A1 (en) Image processing device, image processing method, and program
JP5092536B2 (en) Image processing apparatus and program thereof
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
JP2009253760A (en) Image processing apparatus, image processing method and electronic device
JP5268321B2 (en) Image processing apparatus, image processing method, and image processing program
JP2014090359A (en) Image processing apparatus, image processing method and program
JP5919086B2 (en) Image processing apparatus, control method therefor, and program
JP2014011722A (en) Imaging device
JP3863808B2 (en) Outline enhancement circuit
JP4633525B2 (en) Focus detection device
JP5159461B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP7183015B2 (en) Image processing device, image processing method, and program
JP4962293B2 (en) Image processing apparatus, image processing method, and program
JP6467455B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND RECORDING MEDIUM
JP2013093745A (en) Image compression apparatus, imaging apparatus and image compression method
JP2010004472A (en) Image conversion device, and electronic apparatus including the same
US8154627B2 (en) Imaging device
JP4197821B2 (en) Image processing device
JP2009017583A (en) Image processing device
JP5454820B2 (en) Image processing apparatus, image processing method, and image processing program
JP2010212979A (en) Image processing unit and method of processing image

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20091106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20091109

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110705