JP2001036809A - Solid-state image pickup device and image processing method - Google Patents

Solid-state image pickup device and image processing method

Info

Publication number
JP2001036809A
JP2001036809A JP11202453A JP20245399A JP2001036809A JP 2001036809 A JP2001036809 A JP 2001036809A JP 11202453 A JP11202453 A JP 11202453A JP 20245399 A JP20245399 A JP 20245399A JP 2001036809 A JP2001036809 A JP 2001036809A
Authority
JP
Japan
Prior art keywords
image
data
color
interpolation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11202453A
Other languages
Japanese (ja)
Inventor
Masaru Osada
勝 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11202453A priority Critical patent/JP2001036809A/en
Publication of JP2001036809A publication Critical patent/JP2001036809A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a solid-state image pickup device capable of providing an image suitable to user's request without increasing capacity of a storage medium and an image processing method. SOLUTION: All primary colors are interpolated, generated in parallel based on a data correcting part 36a of a signal processing part 36 by RGB synchronizing parts 36A to 36N of an image generating part 36b, one of the pieces of obtained image data is selected via a selector 36c and supplied to a matrix processing part 36d by a digital camera 10. Luminance data and color difference data generated from the image data are transmitted to a monitor 42 by the matrix processing part 36d. Thus, a chance for an image processing which is not found in the conventional digital camera how to easy out composition at an optimal image composition part 36e is performed from the image to be displayed on the monitor 42 is provided to a user. An optimal image is provided by controlling replacement and synthesis with each image area selected according to an instruction from an operation part 14 by a system control part 18.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、固体撮像装置およ
び画像処理方法に係り、得られる画素データを基に複数
の特定画像に応じた画像処理を行う、たとえば、ディジ
タルカメラや画像入力装置および画像処理装置等に用い
て好適なものである。
[0001] 1. Field of the Invention [0002] The present invention relates to a solid-state imaging device and an image processing method, and performs image processing according to a plurality of specific images based on obtained pixel data. It is suitable for use in processing equipment and the like.

【0002】[0002]

【従来の技術】撮像素子で光電変換された信号電荷に基
づいて得られた電気信号を、いわゆる生データとしてそ
のまま記録する方式やこの生データの記録方式およびに
信号処理を施し圧縮記録、たとえばJPEG(Joint Photog
raphic Experts Group)規格で記録する方式のいずれか
を用いる方式等がある。後者の方式のうち、一般的に、
たとえばディジタルカメラにおいて画像作成する上での
搭載する一つの信号処理(ソフトウェア処理も含む)に
より画像作成が行われる。これらの方式についての具体
例を以下に挙げる。
2. Description of the Related Art A method of directly recording an electric signal obtained based on signal charges photoelectrically converted by an image pickup device as so-called raw data, a recording method of the raw data and compression processing by performing signal processing on the raw data, for example, JPEG (Joint Photog
raphic Experts Group) standard. Of the latter, in general,
For example, image creation is performed by one signal processing (including software processing) mounted on an image creation in a digital camera. Specific examples of these methods are given below.

【0003】たとえば、生データ画像と生成した画像と
の表示を効率的に行う要求から、特開平10-145719 号の
公報に記載のデジタル電子カメラの表示方法及び表示装
置は、デジタル画像信号の信号処理後の画像データのサ
ムネイルと、信号処理前の画像データのサムネイルとを
異なる態様で容易に区別して、表示することにより、表
示の誤操作を軽減するとともに、信号処理前の画像デー
タに対して信号処理を施すことでサムネイル画像の高速
切替表示を行っている。
For example, a display method and a display device of a digital electronic camera described in Japanese Patent Application Laid-Open No. H10-145719 are required to efficiently display a raw data image and a generated image. By easily distinguishing and displaying the thumbnails of the image data after the processing and the thumbnails of the image data before the signal processing in different modes, erroneous display operations can be reduced, and the image data before the signal processing can be compared with the image data before the signal processing. By performing the processing, high-speed switching display of thumbnail images is performed.

【0004】また、画像を得るため撮像信号の画素デー
タを用いて補間処理を行って同時に三原色RGB のプレー
ンな画素データを求める構成および処理に関して、「森
本他、『3-CCD デジタルスチルカメラ』、創立70周年記
念ファインイメージングシンポジウム論文集、D-5 、第
73〜76頁、日本写真学会、(1995年10月)」によれば、
このディジタルカメラは、3板方式において色G を互い
の画素位置の関係が画素ずらしされた2枚のCCD と、色
R, Bを交互に縦ストライプの位置の関係にされたCCD と
に割り振って得られた信号に信号処理を施して高解像度
化を図っている。
In addition, regarding the configuration and processing of obtaining interpolation by using pixel data of an image pickup signal to obtain an image and simultaneously obtaining plane pixel data of three primary colors RGB, see Morimoto et al., “3-CCD Digital Still Camera”, 70th Anniversary Fine Imaging Symposium Proceedings, D-5, No.
73-76, Photographic Society of Japan, (October 1995)
This digital camera is composed of two CCDs in which the relationship of the pixel positions of the color G is shifted by a pixel in the three-chip system,
Signal processing is performed on a signal obtained by alternately allocating R and B to a CCD having the relationship of the position of the vertical stripe, thereby achieving high resolution.

【0005】このようなディジタルな画像入力装置で
は、入力したディジタル信号に、たとえばソフトウェア
による信号処理を施して画像が作成される。作成した画
像は、標準フォーマットに従って記録媒体に記録され
る。ユーザは、撮像した被写界の画像を直接的に信号処
理後または記録媒体からの再生後にモニタ等に表示させ
て鑑賞をする。さらに、ユーザには、記録媒体からの再
生画像に、たとえば、パーソナルコンピュータを用いて
所望の効果をこの再生画像もたらすように画像処理を施
す場合もある。
[0005] In such a digital image input device, an image is created by subjecting an input digital signal to signal processing by software, for example. The created image is recorded on a recording medium according to a standard format. The user views the captured image of the object scene on a monitor or the like after the signal processing directly or after the reproduction from the recording medium, for viewing. Further, the user may perform image processing on the reproduced image from the recording medium using a personal computer, for example, so as to bring a desired effect to the reproduced image.

【0006】[0006]

【発明が解決しようとする課題】ところで、単板式ディ
ジタルカメラは、上述した3板式ディジタルカメラに比
べて色境界に偽信号が発生し、同じ被写界を撮像しても
偽色の目立つ画像の得られることが多い。
In the single-panel digital camera, a false signal is generated at a color boundary as compared with the above-described three-panel digital camera. Often obtained.

【0007】上述したように単板式ディジタルカメラに
おいて、信号処理または画像処理によって生成した画像
がユーザの満足する画像でなかった場合、生成した画像
の構造を考慮して生データを復元することは難しい。し
たがって、一旦信号処理または画像処理を経てしまう
と、新たに適切な画像処理による変更を行いたくてもで
きないことになる。このような後者の方式の問題は、前
述したようにいずれか一方の方式で処理を行うことに起
因している。この問題の解消には、生データと信号処理
後の画像データの両方を記録すればよい。
As described above, in a single-chip digital camera, if an image generated by signal processing or image processing is not an image satisfactory to the user, it is difficult to restore raw data in consideration of the structure of the generated image. . Therefore, once the signal processing or the image processing has been performed, it is impossible to make a new change by appropriate image processing. Such a problem of the latter method is caused by performing the processing in one of the methods as described above. To solve this problem, it is only necessary to record both the raw data and the image data after the signal processing.

【0008】しかしながら、カメラに装着する記録媒体
に両方のデータを記録することは撮像枚数に影響を与え
て非常に不経済な記録になってしまう。また、上述した
生データの復元には、パーソナルコンピュータの処理能
力の飛躍的な向上が望まれる。
However, recording both data on a recording medium mounted on a camera affects the number of images to be captured, resulting in extremely uneconomical recording. Further, for the restoration of the raw data described above, a dramatic improvement in the processing capability of a personal computer is desired.

【0009】本発明はこのような従来技術の欠点を解消
し、記録媒体の容量を増加させず、ユーザの要求に合っ
た画像提供を行うことのできる固体撮像装置および画像
処理方法を提供することを目的とする。
An object of the present invention is to provide a solid-state imaging device and an image processing method capable of solving the above-mentioned drawbacks of the prior art and providing an image according to a user's request without increasing the capacity of a recording medium. With the goal.

【0010】[0010]

【課題を解決するための手段】本発明は上述の課題を解
決するために、光学系を介して被写界からの入射光を光
電変換する受光素子の位置に対応させて色分解する色分
解手段で色分解された光を受光素子の2次元配置した撮
像手段によりカラー撮像し、得られたカラー撮像信号を
ディジタル変換手段でディジタルの画像データにし、こ
の画像データを記録する記録手段および/またはこの画
像データに信号処理を施す信号処理手段を介して記録手
段にこの画像データを出力する固体撮像装置において、
ディジタルの画像データに画像の色調整および階調を補
正するデータ補正手段、このデータ補正手段からの画像
データに基づいて少なくとも、受光素子の位置における
三原色R, G, B すべて並列的に補間生成する複数の補間
生成手段、この複数の補間生成手段の一つを選択する選
択手段、この選択手段を介して供給される画像データを
基に輝度データおよび色差データを生成し、これらのデ
ータに折返し歪の発生を防ぐ処理を施すとともに、この
処理した輝度データに輪郭強調処理を施す表示画像生成
手段、およびこの表示画像生成手段からの一つの画像デ
ータに対して、複数の補間生成手段のそれぞれが出力す
る画像データの最適な画像領域との挿げ替えを行って、
画像を合成する合成手段を含む信号処理手段と、表示画
像生成手段で得られた画像データを表示する表示手段
と、この表示手段に表示される画像で確認および評価し
ながら、該評価の結果に応じた指示を提供する操作手段
からの指示に応じて合成手段における最適な画像領域の
切出しおよび挿替えを制御する制御手段とを含むことを
特徴とする。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a color separation for color-separating incident light from an object field via an optical system in accordance with the position of a light receiving element for photoelectrically converting the light. The color-separated light is imaged in color by imaging means in which light receiving elements are two-dimensionally arranged, and the obtained color imaging signal is converted into digital image data by digital conversion means, and recording means for recording the image data and / or In a solid-state imaging device that outputs the image data to a recording unit via a signal processing unit that performs signal processing on the image data,
Data correction means for correcting image color adjustment and gradation to digital image data, based on image data from this data correction means, at least interpolating and generating at least three primary colors R, G, B at the position of the light receiving element in parallel A plurality of interpolation generating means; a selecting means for selecting one of the plurality of interpolation generating means; generating luminance data and chrominance data based on image data supplied via the selecting means; Display image generation means for performing processing for preventing the occurrence of the image and performing contour enhancement processing on the processed luminance data, and outputting each of a plurality of interpolation generation means to one image data from the display image generation means. By replacing the image data with the optimal image area
A signal processing means including a synthesizing means for synthesizing an image, a display means for displaying the image data obtained by the display image generating means, and checking and evaluating the image displayed on the display means to obtain a result of the evaluation. And control means for controlling cut-out and replacement of an optimal image area in the synthesizing means in response to an instruction from the operating means for providing a corresponding instruction.

【0011】ここで、色分解手段は、三原色R, G, B に
入射光を色分解する色フィルタを撮像手段の受光素子に
一致させ、撮像手段は、受光素子とこの受光素子に隣接
した受光素子とを垂直方向および水平方向に互いに半ピ
ッチずつずらして2次元配置されることが好ましい。
Here, the color separating means matches a color filter for separating the incident light into the three primary colors R, G, and B to the light receiving element of the imaging means, and the imaging means comprises a light receiving element and a light receiving element adjacent to the light receiving element. It is preferable that the elements are two-dimensionally arranged so as to be shifted from each other by a half pitch in the vertical and horizontal directions.

【0012】色分解手段は、三原色R, G, B のうち、色
G を正方格子状に配し、色G に対して色R, Bが完全市松
に配した色フィルタパターンであることが望ましい。
[0012] The color separation means is a color separation device for the three primary colors R, G, and B.
It is preferable that G is arranged in a square lattice pattern, and that the colors R and B are completely a checkered color filter pattern with respect to the color G.

【0013】複数の補間生成手段は、少なくとも三原色
R, G, B のうち、色G の画素データを高域の画素データ
とし、この高域の画素データに基づき前記色G と異なる
色R,Bにおける受光素子での色G の補間を行うG 補間手
段、このG 補間手段の相関関係にある色R の画素データ
を用いて色R の補間を行うR 補間手段、このG 補間手段
の相関関係にある色B の画素データを用いて色B の補間
を行うB 補間手段、ならびにG 補間手段、R 補間手段お
よびB 補間手段でそれぞれ得た画素データを用いた平均
補間で各色のプレーンな画素データを補間生成する平均
補間手段を含む第1の補間生成手段と、色分解手段によ
って得た三原色R, G, B の画素データから受光素子の位
置における輝度データを求める輝度データ生成手段、こ
の輝度データ生成手段で得た輝度データに基づいて受光
素子の空隙位置における輝度データを求める輝度データ
補間手段、この輝度データ補間手段と色R 画素データを
用いて色R の補間を行うR 補間展開手段、輝度データ補
間手段と色G 画素データを用いて色G の補間を行うG 補
間展開手段、および輝度データ補間手段と色B 画素デー
タを用いて色B の補間を行うB 補間展開手段を含む第2
の補間生成手段とを含むことが望ましい。
[0013] The plurality of interpolation generating means may include at least three primary colors.
Among the R, G, and B, the pixel data of the color G is defined as high-range pixel data, and the color G interpolating at the light receiving element in the colors R and B different from the color G based on the high-range pixel data is performed. Interpolating means, R interpolating means for interpolating the color R using the pixel data of the color R which is correlated with the G interpolating means, and color interpolation of the color B using the pixel data of the color B which is correlated with the G interpolating means. First interpolation including B interpolation means for performing interpolation, and average interpolation means for interpolating and generating plane pixel data of each color by average interpolation using pixel data obtained by the G interpolation means, the R interpolation means and the B interpolation means, respectively. Generating means, luminance data generating means for obtaining luminance data at the position of the light receiving element from the pixel data of the three primary colors R, G, B obtained by the color separating means, and a light receiving element based on the luminance data obtained by the luminance data generating means. Brightness data at the gap position The required luminance data interpolation means, the R interpolation developing means for interpolating the color R using the luminance data interpolation means and the color R pixel data, the G interpolation for interpolating the color G using the luminance data interpolation means and the color G pixel data A second means including a developing means and a B interpolation developing means for interpolating the color B using the luminance data interpolating means and the color B pixel data;
It is desirable to include interpolation generating means.

【0014】制御手段は、データ補正手段の補正制御、
表示画像生成手段の画像生成制御、および選択手段の選
択切換制御も行うとともに、この装置で用いる信号の生
成を制御するとよい。
The control means includes a correction control of the data correction means,
The image generation control of the display image generation unit and the selection switching control of the selection unit may be performed, and the generation of signals used in this device may be controlled.

【0015】本発明に係る固体撮像装置は、信号処理手
段においてデータ補正手段で補正した画像データに基づ
いて複数の補間生成手段でそれぞれ並列的に三原色R,
G, Bすべて並列的に補間生成する。これにより、選択手
段はすでに補間生成した画像データの一つを選択した際
に補間生成の済んだ画像データをただちに表示画像生成
手段に供給することができる。表示画像生成手段は、こ
の画像データを基に生成した輝度データおよび色差デー
タを表示手段に送る。表示手段は、選択により供給され
る画像を表示する。合成手段は、操作手段からの指示に
応じて制御手段の制御により選んだ各画像領域との挿げ
替えて合成して、一枚の高画質な画像を生成する。
In the solid-state image pickup device according to the present invention, the three primary colors R, R and R are respectively processed in parallel by a plurality of interpolation generating means based on the image data corrected by the data correcting means in the signal processing means.
G and B are interpolated and generated in parallel. Thus, the selecting means can immediately supply the image data subjected to the interpolation generation to the display image generating means when one of the image data already generated by the interpolation is selected. The display image generating means sends the luminance data and the color difference data generated based on the image data to the display means. The display means displays an image supplied by the selection. The combining means replaces each image area selected under the control of the control means in accordance with an instruction from the operating means and combines them to generate one high-quality image.

【0016】また、本発明は上述の課題を解決するため
に、光学系を介して被写界からの入射光をカラー撮像
し、このカラー撮像して得られた撮像信号をディジタル
の画像データにし、この画像データの記録および/また
はこの画像データへの信号処理を経た記録を行う画像処
理方法において、ディジタルの画像信号に画像の色調整
および階調を補正するデータ補正工程、このデータ補正
工程よって得られた画像データに基づいておよび/また
は受光素子に隣接する受光素子の空隙の位置における三
原色R, G, B すべて並列的に補間生成する複数のプレー
ン補間生成を含む補間生成工程、この補間生成工程で得
られた複数種類の画像データのうち、補間生成した一画
像を選択する画像選択工程、およびこの画像選択工程で
得た画像データを基に輝度データおよび色差データを生
成し、これらのデータに折返し歪の発生を防ぐ処理を施
すとともに、この処理した輝度データに輪郭強調処理を
施す表示画像生成工程を前記信号処理工程に含み、さら
に、表示画像生成工程により得られた画像データを用意
した表示手段に表示する画像表示工程と、この画像表示
工程に表示した画像により画像評価をするとともに、一
つの画像に対して他の補間生成による画像領域との挿替
えを行う判断を行う第1の判断工程と、第1の判断工程
に応じて最適な画像生成処理を行う最適合成工程と、こ
の最適合成工程の後、他の領域に対して選択した補間生
成による画像を用いて処理を繰り返すか判断する第2の
判断工程と、第2の判断工程で該処理を終了させる場
合、他の補間生成を用いるかを判断する第3の判断工程
とを信号処理工程に含み、第2および第3の判定工程で
処理を繰り返すとき、新たな画像の選択と選択した画像
の切出しと挿替えの一連の処理をそれぞれ行うことを特
徴とする。
Further, in order to solve the above-mentioned problems, the present invention captures a color image of incident light from an object field via an optical system, and converts an image signal obtained by the color image into digital image data. In an image processing method for recording this image data and / or recording the image data through signal processing, a data correction step for correcting color and gradation of an image to a digital image signal, An interpolation generation step including a plurality of plane interpolation generations in which all three primary colors R, G, and B are interpolated and generated in parallel based on the obtained image data and / or at the position of the gap of the light receiving element adjacent to the light receiving element; An image selecting step of selecting one image interpolated and generated from a plurality of types of image data obtained in the step, and based on the image data obtained in the image selecting step. The signal processing step includes generating a degree data and a color difference data, performing a process for preventing the occurrence of aliasing distortion on these data, and performing a contour enhancement process on the processed luminance data in the signal processing step. An image display step of displaying image data obtained in the image generation step on a prepared display means; and an image area evaluated by the image displayed in the image display step and an image area of another image generated by another interpolation. A first determining step of making a determination to replace the image, an optimal combining step of performing an optimal image generation process in accordance with the first determining step, and selecting the other area after the optimal combining step. A second determining step of determining whether to repeat the processing using the image generated by the interpolation generation, and a third determining step of determining whether to use another interpolation generation when the processing is terminated in the second determining step. The signal processing step, and when repeating the processing in the second and third determination steps, performs a series of processing of selecting a new image and cutting out and replacing the selected image, respectively. I do.

【0017】ここで、最適合成工程は、生成した画像か
ら基準とする画像を選択する基準画像選択工程と、この
基準画像選択工程の画像と異なる処理で生成した画像を
選択する切出し選択工程と、この切出し選択工程で選択
した画像から切り出す領域を指示する領域指示工程と、
この領域指示工程で指示された領域と基準とする画像の
該当領域とを挿替えする挿替え工程とを含むことが好ま
しい。
Here, the optimal synthesizing step includes a reference image selecting step of selecting a reference image from the generated images, a cutout selecting step of selecting an image generated by a process different from the image of the reference image selecting step, An area specifying step of specifying an area to be cut out from the image selected in the cutout selecting step,
It is preferable to include a replacement step of replacing the area specified in the area specifying step with the corresponding area of the reference image.

【0018】また、最適合成工程は、評価した画像の指
摘された切出し領域および画像の挿替え領域をマッチン
グさせる領域一致工程を含むことが好ましい。
Preferably, the optimum combining step includes an area matching step of matching the indicated cut-out area of the evaluated image and the replacement area of the image.

【0019】この画像処理方法は、撮像信号をそのまま
記録した場合、この記録したディジタルの画像データを
再生する再生工程を前記信号処理工程の前に行うことが
望ましい。
In this image processing method, when the image pickup signal is recorded as it is, it is desirable that a reproducing step of reproducing the recorded digital image data be performed before the signal processing step.

【0020】また、カラー撮像は、三原色R, G, B のう
ち、色G を正方格子状に配し、色Gに対して色R, Bが完
全市松に配した色フィルタパターンで撮影した撮像信号
を用いることが好ましい。
In the color imaging, the color G among the three primary colors R, G, and B is arranged in a square lattice, and the color R and the color G are photographed with a color filter pattern that is completely arranged in a checkered pattern. Preferably, a signal is used.

【0021】本発明に係る画像処理方法は、データ補正
した画像データに基づいて受光素子および/または受光
素子に隣接する受光素子の空隙の位置における三原色R,
G,B すべて並列的にプレーン補間生成を複数で行うこ
とから、画像選択時におけるプレーン画像を瞬時に出力
できる。この画像選択により供給される画像データを基
に得た輝度データおよび色差データを表示手段に表示す
る。この際、表示した画像により画像評価をするととも
に、一つの画像に対して他の補間生成による画像領域と
の挿替えを行う判断を行って、最適な画像生成処理を行
う。さらに、この後、他の領域に対して選択した補間生
成による画像を用いて処理を繰り返すか判断し、この処
理を終了させる場合には、他の補間生成を用いるかを判
断してさらに処理を行ってそれぞれの画像領域を合わせ
一枚の画像を生成する。
According to the image processing method of the present invention, the three primary colors R, at the position of the gap of the light receiving element and / or the light receiving element adjacent to the light receiving element are determined based on the image data corrected.
Since a plurality of plane interpolation generations are performed in parallel for all G and B, a plane image at the time of image selection can be output instantaneously. The luminance data and the color difference data obtained based on the image data supplied by the image selection are displayed on the display means. At this time, image evaluation is performed based on the displayed image, and a determination is made to replace one image with an image area by another interpolation generation, thereby performing an optimal image generation process. Further, thereafter, it is determined whether or not to repeat the process using the image generated by the interpolation generation selected for another region, and when ending this process, it is determined whether to use another interpolation generation, and further processing is performed. Then, each image area is combined to generate one image.

【0022】[0022]

【発明の実施の形態】次に添付図面を参照して本発明に
よる固体撮像装置の一実施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of the solid-state imaging device according to the present invention will be described in detail with reference to the accompanying drawings.

【0023】本発明を適用した実施例のディジタルスチ
ルカメラ10の構成を図1に示す。図1のディジタルスチ
ルカメラ10には、光学レンズ系12、操作部14、システム
制御部18、信号発生部20、タイミング信号発生部22、ド
ライバ部24、絞り調節機構26、光学ローパスフィルタ2
8、色分解部CF、撮像部30、前処理部32、A/D 変換部3
4、信号処理部36、圧縮/伸張部38、記録再生部40、お
よびモニタ42が備えられている。これら各部を順次説明
する。光学レンズ系12は、たとえば、複数枚の光学レン
ズを組み合わせて構成されている。光学レンズ系12に
は、図示しないが、これら光学レンズの配置する位置を
調節して画面の画角を操作部14からの操作信号に応じて
調節するズーム機構や被写体とカメラ10との距離に応じ
てピント調節する、AF(Automatic Focus:自動焦点) 調
節機構が含まれている。操作信号は、システムバス16を
介してシステム制御部18に供給される。光学レンズ系12
には、後述する信号発生部20、タイミング信号発生部2
2、ドライバ部24を介して駆動信号が供給される。
FIG. 1 shows the configuration of a digital still camera 10 according to an embodiment to which the present invention is applied. The digital still camera 10 of FIG. 1 includes an optical lens system 12, an operation unit 14, a system control unit 18, a signal generation unit 20, a timing signal generation unit 22, a driver unit 24, an aperture adjustment mechanism 26, an optical low-pass filter 2
8, color separation unit CF, imaging unit 30, preprocessing unit 32, A / D conversion unit 3
4. A signal processing unit 36, a compression / expansion unit 38, a recording / reproducing unit 40, and a monitor 42 are provided. These components will be described sequentially. The optical lens system 12 is configured by combining a plurality of optical lenses, for example. Although not shown, the optical lens system 12 has a zoom mechanism that adjusts the positions at which these optical lenses are arranged and adjusts the angle of view of the screen according to an operation signal from the operation unit 14, and the distance between the subject and the camera 10 It includes an AF (Automatic Focus) adjustment mechanism that adjusts the focus accordingly. The operation signal is supplied to the system control unit 18 via the system bus 16. Optical lens system 12
The signal generator 20 and the timing signal generator 2 described later
2. A drive signal is supplied via the driver unit 24.

【0024】操作部14には、図示しないシャッタスイッ
チやたとえばモニタ画面に表示される項目を選択する機
能が備えられている。特に、シャッタスイッチは、複数
の段階のそれぞれでカメラ10の操作を行うようにシステ
ムバス16を介して操作信号をシステム制御部18に出力す
る。また、本実施例において操作部14は、最適画像生成
モードの選択や画像の部分的な領域指定を行えるよう
に、モニタに表示されるポインティングデバイスの操作
も行う。この場合の操作部14の操作もシステム制御部18
に操作信号として供給される。
The operation unit 14 has a shutter switch (not shown) and a function of selecting an item displayed on a monitor screen, for example. In particular, the shutter switch outputs an operation signal to the system controller 18 via the system bus 16 so as to operate the camera 10 in each of a plurality of stages. Further, in the present embodiment, the operation unit 14 also operates a pointing device displayed on a monitor so that an optimum image generation mode can be selected and a partial area of an image can be specified. In this case, the operation of the operation unit 14 is also performed by the system control unit 18.
Is supplied as an operation signal.

【0025】システム制御部18は、たとえば CPU(Cent
ral Processing Unit:中央演算処理装置)を有する。シ
ステム制御部18には、ディジタルスチルカメラ10の動作
手順が書き込まれた ROM(Read Only Memory:読み出し
専用メモリ)がある。システム制御部18は、たとえば、
ユーザの操作に伴って操作部14から供給される情報とこ
の ROMの情報を用いて各部の動作を制御する制御信号を
生成する。システム制御部18は、生成した制御信号を信
号発生部20、あらわに制御信号の供給を示していないが
タイミング信号発生部22、前処理部32、A/D 変換部34の
他に、システムバス16を介して信号処理部36、圧縮/伸
張部38、記録再生部40およびモニタ42にも供給する。特
に、システム制御部18は、後述する信号処理部36に対し
て各種の制御を行っている。
The system control unit 18 includes, for example, a CPU (Cent
ral Processing Unit). The system control unit 18 has a ROM (Read Only Memory) in which the operation procedure of the digital still camera 10 is written. The system control unit 18, for example,
A control signal for controlling the operation of each unit is generated using the information supplied from the operation unit 14 in accordance with the operation of the user and the information of the ROM. The system control unit 18 transmits the generated control signal to the signal generation unit 20, although not explicitly showing the supply of the control signal, in addition to the timing signal generation unit 22, the preprocessing unit 32, and the A / D conversion unit 34, the system bus The signal is also supplied to a signal processing unit 36, a compression / expansion unit 38, a recording / reproducing unit 40, and a monitor 42 via 16. In particular, the system control unit 18 performs various controls on a signal processing unit 36 described later.

【0026】信号発生部20は、システム制御部18からの
制御に応じてシステムクロックを発振器により発生す
る。信号発生部20は、このシステムクロックをタイミン
グ信号発生部22および信号処理部36に供給する。また、
システムクロックは、たとえばシステムバス16を介して
システム制御部18の動作タイミングの基準としても供給
される。
The signal generator 20 generates a system clock by an oscillator under the control of the system controller 18. The signal generator 20 supplies this system clock to the timing signal generator 22 and the signal processor 36. Also,
The system clock is also supplied via the system bus 16 as a reference for the operation timing of the system control unit 18, for example.

【0027】タイミング信号発生部22は、供給されるシ
ステムクロックを制御信号に基づいて各部を動作させる
タイミング信号を生成する回路を含む。タイミング信号
発生部22は、生成したタイミング信号を図1に示すよう
に各部に出力するとともに、ドライバ部24にも供給す
る。ドライバ部24は、前述した光学レンズ系12のズーム
調節機構およびAF調節機構の他、絞り調節機構26および
撮像部30にも駆動信号をそれぞれ供給する。
The timing signal generating section 22 includes a circuit for generating a timing signal for operating each section based on the supplied system clock based on a control signal. The timing signal generator 22 outputs the generated timing signal to each unit as shown in FIG. The driver unit 24 also supplies drive signals to the aperture adjustment mechanism 26 and the imaging unit 30 in addition to the zoom adjustment mechanism and the AF adjustment mechanism of the optical lens system 12 described above.

【0028】絞り調節機構26は、被写体の撮影において
最適な入射光の光束を撮像部30に供給するように入射光
束断面積(すなわち、絞り開口面積)を調節する機構で
ある。絞り調節機構26にもドライバ部24から駆動信号が
供給される。この駆動信号は、前述したシステム制御部
18からの制御に応じて動作させるための信号である。こ
の場合、システム制御部18は、図示しないが、撮像部30
で光電変換した信号電荷を基にAE(Automatic Exposure
:自動露出)処理として絞り・露光時間を算出してい
る。絞り調節機構26には、この算出した値に対応する制
御信号が供給されたタイミング信号発生部22からの信号
に応じた駆動信号がドライバ部24から供給される。
The aperture adjusting mechanism 26 is a mechanism for adjusting the cross-sectional area of the incident light beam (that is, the aperture opening area) so as to supply the optimum light beam of the incident light to the imaging section 30 in photographing the subject. A drive signal is also supplied from the driver unit 24 to the aperture adjustment mechanism 26. This drive signal is supplied to the system control unit described above.
This is a signal for operating according to the control from 18. In this case, although not shown, the system control unit 18
AE (Automatic Exposure)
: Automatic exposure) The aperture and exposure time are calculated as processing. A drive signal corresponding to the signal from the timing signal generation unit 22 to which the control signal corresponding to the calculated value is supplied is supplied from the driver unit 24 to the aperture adjustment mechanism 26.

【0029】撮像部30は光電変換する撮像素子を光学レ
ンズ系12の光軸と直交する平面が形成されるように配置
する。また、撮像素子の入射光側には、個々の撮像素子
に対応して光学像の空間周波数をナイキスト周波数以下
に制限する光学ローパスフィルタ28と一体的に色分解す
る色フィルタCFが一体的に配設される。本実施例では単
板方式の色フィルタを用いて撮像する。色フィルタCFの
種類等については後段でさらに詳述する。撮像素子に
は、 CCD(Charge Coupled Device:電荷結合素子)や M
OS(Metal Oxide Semiconductor:金属酸化型半導体)タ
イプがある。撮像部30は、供給される駆動信号に応じて
光電変換によって得られた信号電荷を全画素読出しす
る。また、撮像部30はこの撮像信号の読出しに限定され
るものでなく、インターレースまたはX,Y アドレス方式
で読み出すようにしてもよい。
The image pickup section 30 arranges the image pickup element for photoelectric conversion so that a plane perpendicular to the optical axis of the optical lens system 12 is formed. Also, on the incident light side of the image sensor, a color filter CF that performs color separation integrally with an optical low-pass filter 28 that limits the spatial frequency of an optical image to a Nyquist frequency or lower corresponding to each image sensor is arranged integrally. Is established. In this embodiment, imaging is performed using a single-plate type color filter. The type of the color filter CF will be described in more detail later. CCD (Charge Coupled Device) and M
There is an OS (Metal Oxide Semiconductor) type. The imaging unit 30 reads out all the pixels of the signal charges obtained by the photoelectric conversion according to the supplied drive signal. Further, the image pickup section 30 is not limited to reading out the image pickup signal, but may read out the image signal by interlace or X, Y address method.

【0030】前処理部32には、図示しないがCDS (Corr
elated Double Sampling: 相関二重サンプリング;以下
CDS という)部が備えられている。CDS 部は、たとえ
ば、CCD 型の撮像素子を用いて、基本的にその素子によ
り生じる各種のノイズをタイミング信号発生部22からの
タイミング信号によりクランプするクランプ回路と、タ
イミング信号により信号電荷をホールドするサンプルホ
ールド回路を有する。CDS 部は、ノイズ成分を除去して
A/D 変換部34に送る。A/D 変換部34は、供給される信号
電荷というアナログ信号の信号レベルを所定の量子化レ
ベルにより量子化してディジタル信号に変換するA/D 変
換器を有する。A/D 変換部34は、タイミング信号発生部
22から供給される変換クロック等のタイミング信号によ
り変換したディジタル信号を信号処理部36に出力する。
Although not shown, the pre-processing unit 32 includes a CDS (Corr
elated Double Sampling: Correlated double sampling; below
CDS) section. The CDS unit uses, for example, a CCD type imaging device, and basically clamps various noises generated by the device by a timing signal from the timing signal generation unit 22, and holds a signal charge by the timing signal. It has a sample and hold circuit. The CDS section removes noise components
The signal is sent to the A / D converter 34. The A / D converter 34 has an A / D converter that quantizes a signal level of an analog signal, which is a supplied signal charge, with a predetermined quantization level and converts the signal level into a digital signal. The A / D converter 34 is a timing signal generator
A digital signal converted by a timing signal such as a conversion clock supplied from 22 is output to the signal processing unit 36.

【0031】信号処理部36には、データ補正部36a 、画
像生成部36b 、セレクタ36c 、マトリクス処理部36d お
よび最適画像合成部36e が含まれる。データ補正部36a
には、図示しないが色の補正を行うガンマ補正回路や自
動的にホワイトバランスの調整を行うAWB (Automatic W
hite Balance)回路等がある。特に、ガンマ補正回路
は、 ROM(Read Only Memory)に供給されるディジタル
信号とこのディジタル信号に対応して出力する補正デー
タとを組にした複数のデータセットの集まりであるルッ
クアップテーブルを用いる。データ補正部36a は、この
配置に限定されるものでなく、後段に設けてもよいが、
この位置に配することにより、ルックアップテーブルの
個数が最小で済む。これら一連のデータ補正においても
タイミング信号発生部22からのタイミング信号に応じて
供給される。データ補正部36a は、この処理した補正デ
ータを画像生成部36b に出力する。
The signal processing section 36 includes a data correction section 36a, an image generation section 36b, a selector 36c, a matrix processing section 36d, and an optimum image synthesis section 36e. Data correction unit 36a
A gamma correction circuit (not shown) for color correction and AWB (Automatic W
hite Balance) circuit. In particular, the gamma correction circuit uses a look-up table, which is a set of a plurality of data sets in which a digital signal supplied to a ROM (Read Only Memory) and correction data output corresponding to the digital signal are combined. The data correction unit 36a is not limited to this arrangement, and may be provided at a subsequent stage.
By arranging at this position, the number of lookup tables can be minimized. Also in these series of data correction, the data is supplied according to the timing signal from the timing signal generation unit 22. The data correction unit 36a outputs the processed correction data to the image generation unit 36b.

【0032】画像生成部36b は、基本的に、供給される
受光素子から得られる画素データに対して受光素子のな
い空隙位置、すなわち仮想受光素子または仮想画素での
画素データを周囲の画素データから三原色R, G, B のい
ずれかを補間生成する。この補間生成により三原色R,
G, B のそれぞれプレーンな画像のデータが同時に得ら
れる。画像生成部36b には、この三原色R, G, B 同時生
成を行うRGB 同時化部36A 〜36N が複数個備えられてい
る。本実施例では、画像生成部36b に2個RGB 同時化部
36A, 36Bを設けた場合について説明する。
The image generating section 36b basically determines the position of a gap without a light receiving element, that is, the pixel data at the virtual light receiving element or virtual pixel from the surrounding pixel data with respect to the pixel data obtained from the supplied light receiving element. Interpolate and generate one of the three primary colors R, G, and B. The three primary colors R,
G and B plane image data can be obtained simultaneously. The image generating unit 36b includes a plurality of RGB synchronizing units 36A to 36N for simultaneously generating the three primary colors R, G, and B. In the present embodiment, two RGB synchronizing units are added to the image generating unit 36b.
The case where 36A and 36B are provided will be described.

【0033】RGB 同時化部36A には、図2に示すよう
に、高域G データ生成部360A、補間機能部362Aおよび平
均プレーン補間機能部364Aが備えられている。高域G デ
ータ生成部360Aは、色フィルタの配置を45°回転させた
位置で色G の画素データを生成する演算機能部である。
上述した配置を45°回転させるデータ配置変換機能も有
することは言うまでもない。高域G データ生成部360A
は、生成した色G の画素データを補間機能部362Aに出力
する。
As shown in FIG. 2, the RGB synchronization unit 36A includes a high-frequency G data generation unit 360A, an interpolation function unit 362A, and an average plane interpolation function unit 364A. The high-frequency G data generation unit 360A is an arithmetic function unit that generates pixel data of the color G at a position obtained by rotating the arrangement of the color filters by 45 °.
Needless to say, it also has a data arrangement conversion function of rotating the above arrangement by 45 °. High-frequency G data generator 360A
Outputs the generated pixel data of the color G to the interpolation function unit 362A.

【0034】補間機能部362Aには、R 補間機能部3620A
およびB 補間機能部3622A が備えられている。R 補間機
能部3620A およびB 補間機能部3622A には、それぞれに
色Gの画素データが供給される。R 補間機能部3620A お
よびB 補間機能部3622A にはそれぞれ、色R データと色
B データが供給される。 R補間機能部3620A およびB補
間機能部3622A では、処理の迅速化を図れるデータ配置
変換機能をそれぞれが有するとともに、受光素子の存在
する位置すべてにおける色R の画素データと色B の画素
データを色G の画素データの相関に基づき生成する演算
機能を備えている。これらの各色の補間機能部との対応
関係を考慮するとき、前述した高域G データ生成部360A
をG 補間機能部としてもよい。このように補間機能部36
2Aは、生成したR, (G), B の画素データを平均プレーン
補間機能部364Aに出力する。平均プレーン補間機能部36
4Aには、補間機能部362Aをスルーさせた色G の画素デー
タも供給されるとともに、これらの得られた画素データ
の回転を戻す(-45 °)。これにより再びG 正方RB完全
市松パターンになる。平均プレーン補間機能部364Aは、
受光素子の位置に対応した周辺に位置する画素データに
基づき受光素子のない仮想画素の位置における画素デー
タを補間生成する演算機能部である。平均プレーン補間
機能部364Aは、生成した三原色RGB のプレーンデータを
セレクタ36cに供給する。
The interpolation function unit 362A includes an R interpolation function unit 3620A
And B interpolation function unit 3622A. Pixel data of the color G is supplied to the R interpolation function unit 3620A and the B interpolation function unit 3622A, respectively. The R interpolation function unit 3620A and the B interpolation function unit 3622A have color R data and color
B Data is supplied. Each of the R interpolation function unit 3620A and the B interpolation function unit 3622A has a data arrangement conversion function for speeding up processing, and also converts the pixel data of the color R and the pixel data of the color B at all the positions where the light receiving elements exist. It has a calculation function to generate based on the correlation of G pixel data. When considering the correspondence between each color and the interpolation function unit, the high-frequency G data generation unit 360A described above is used.
May be used as the G interpolation function unit. Thus, the interpolation function unit 36
2A outputs the generated pixel data of R, (G), and B to the average plane interpolation function unit 364A. Average plane interpolation function unit 36
4A is supplied with the pixel data of the color G that has passed through the interpolation function unit 362A, and the rotation of the obtained pixel data is returned (−45 °). This makes the G square RB perfect checker pattern again. The average plane interpolation function unit 364A
An arithmetic function unit that interpolates and generates pixel data at a position of a virtual pixel having no light receiving element based on pixel data located in the periphery corresponding to the position of the light receiving element. The average plane interpolation function unit 364A supplies the generated three primary color RGB plane data to the selector 36c.

【0035】また、RGB 同時化部36B には、図3に示す
ように、輝度データ生成機能部360B、輝度データ補間機
能部362Bおよび高解像度プレーン補間機能部364Bが備え
られている。輝度データ生成機能部360Bは、受光素子か
ら得られる画素データに基づいて受光素子の位置での輝
度データを生成する機能を有する演算機能部である。輝
度データ生成機能部360Bは、演算処理により受光素子の
位置する画素での輝度データY (または高域輝度データ
Yhで表す)を生成し、輝度データ補間機能部362Bに出力
する。輝度データ補間機能部362Bは、供給される輝度デ
ータY の間にある仮想画素の位置における輝度データの
補間生成を行う演算機能部である。この演算機能部は、
輝度データY の補間生成を演算処理する演算回路の構成
または所定の係数の積和でLPF (Low Pass Filter )効
果をもたらすLPF でもよい。LPFは図4に示すディジタ
ルで構成することができる。この補間生成の関係につい
ても後段で説明する。輝度データ補間機能部362Bは、プ
レーンの輝度データYhを生成し、高解像度プレーン補間
機能部364Bに供給される。
As shown in FIG. 3, the RGB synchronizing unit 36B includes a luminance data generation function unit 360B, a luminance data interpolation function unit 362B, and a high resolution plane interpolation function unit 364B. The luminance data generation function unit 360B is an arithmetic function unit having a function of generating luminance data at the position of the light receiving element based on pixel data obtained from the light receiving element. The luminance data generation function unit 360B calculates the luminance data Y (or the high-frequency luminance data) at the pixel where the light receiving element is located by arithmetic processing.
It generates a representative) with Y h, and outputs the luminance data interpolation function unit 362B. The luminance data interpolation function unit 362B is an arithmetic function unit that performs interpolation generation of luminance data at the position of a virtual pixel located between the supplied luminance data Y 1. This arithmetic function part is
An LPF that provides an LPF (Low Pass Filter) effect by using a configuration of an arithmetic circuit that performs arithmetic processing for interpolation generation of the luminance data Y or a product sum of predetermined coefficients may be used. The LPF can be configured digitally as shown in FIG. The relationship of this interpolation generation will be described later. Luminance data interpolation function unit 362B generates the luminance data Y h plane is supplied to the high-resolution plane interpolation function unit 364B.

【0036】高解像度プレーン補間機能部364Bは、プレ
ーンの輝度データYhとデータ補正した三原色R, G, B の
画素データを入力し、これらのデータを用いてR プレー
ンデータ、G プレーンデータおよびB プレーンデータを
生成する演算機能部である。高解像度プレーン補間機能
部364Bには、図5に示すように、各色に対応させてR補
間展開部3640B 、G 補間展開部3642B およびB 補間展開
部3644B が備えられている。R 補間展開部3640B 、G 補
間展開部3642B およびB 補間展開部3644B には、高域輝
度データYhが供給される。各色の補間展開部3640B, 364
2B, 3644B は、高域輝度データYhおよびそれぞれの補間
する色の画素データから各色のプレーンデータを生成す
る。高解像度プレーン補間機能部364Bは、生成した三原
色RGB のプレーンデータをセレクタ36c に出力する。こ
れらのRGB 同時化部36A, 36Bの演算機能は、システム制
御部18の制御により行われる。RGB 同時化部36A, 36Bに
は、あらわに図示しないがこれらの信号処理して得られ
た画像データを格納するとともに、非破壊読出し可能な
メモリをそれぞれ備えている。RGB 同時化部36A, 36Bの
演算機能については後段で詳述する。
[0036] High-resolution plane interpolation function unit 364B inputs the luminance data Y h and data corrected three primary colors R plane, G, and pixel data of B, R plane data using these data, G plane data and B An arithmetic function unit that generates plane data. As shown in FIG. 5, the high-resolution plane interpolation function unit 364B includes an R interpolation development unit 3640B, a G interpolation development unit 3642B, and a B interpolation development unit 3644B corresponding to each color. R interpolation expansion unit 3640B, the G interpolation expansion unit 3642B and B interpolation expansion unit 3644B, a high frequency luminance data Y h are supplied. Interpolation and development section for each color 3640B, 364
2B, 3644B generates plane data of each color from the high-frequency luminance data Y h and the color of the pixel data of each interpolation. The high-resolution plane interpolation function unit 364B outputs the generated three-primary-color RGB plane data to the selector 36c. The arithmetic functions of these RGB synchronizing units 36A and 36B are performed under the control of the system control unit 18. Although not shown, the RGB synchronizing units 36A and 36B store image data obtained by performing the signal processing and have nondestructive readable memories. The arithmetic functions of the RGB synchronizing units 36A and 36B will be described later in detail.

【0037】図1に戻って、セレクタ36c は、画像生成
部36b のRGB 同時化部毎に供給される3つのデータ、す
なわちR, G, B データを単位に出力先を切り換えるスイ
ッチ機能を有する。スイッチの切換えは、システム制御
部18からの制御により行われる。たとえば、システム制
御部18が自動選択表示の場合、所定の時間経過毎に切換
えを行う。また、ユーザが操作部14から出力元を選択し
ている場合、システム制御部18は、この操作部14からの
指示である操作信号に応じた制御を行う。セレクタ36c
は、制御に応じた三原色R, G, B のデータをマトリクス
処理部36d に出力する。
Returning to FIG. 1, the selector 36c has a switch function for switching the output destination in units of three data supplied to each of the RGB synchronizing units of the image generating unit 36b, ie, R, G, B data. Switching of the switch is performed under the control of the system control unit 18. For example, when the system control unit 18 performs the automatic selection display, the switching is performed every elapse of a predetermined time. When the user selects an output source from the operation unit 14, the system control unit 18 performs control according to an operation signal that is an instruction from the operation unit 14. Selector 36c
Outputs the data of the three primary colors R, G, and B according to the control to the matrix processing unit 36d.

【0038】マトリクス処理部36d には、図6に示すよ
うに、色差マトリクス部360d、アンチエリアシングフィ
ルタ部362dおよびアパーチャ調整部364dが備えられてい
る。色差マトリクス部360dは、供給されるR プレーンデ
ータ、G プレーンデータおよびB プレーンデータを用い
て、画像表示に用いる形式、すなわち輝度データY 、色
差データ(R-Y), (B-Y)に変換する。これらの出力形式の
データは、各色に定めた混合割合を乗算し演算すること
から得られる。混合割合を決める係数は、従来からの値
を用いる。この変換した3つのデータがアンチエリアシ
ングフィルタ部362dに出力される。アンチエリアシング
フィルタ部362dには、これら3つのデータに対応してそ
れぞれローパスフィルタがある。各データの帯域は異な
るが、ローパスフィルタ(LPF )3620d, 3622dおよび36
24d は、この帯域を含み折返し歪が生じないカットオフ
周波数が選ばれている。アンチエリアシングフィルタ部
362dは、歪のないデータを出力する。このうち、輝度デ
ータY がアパーチャ調整部364dに送られる。アパーチャ
調整部364dは、輝度データY の周波数の高域を持ち上げ
る機能を有する輪郭補償器である。輪郭補償器は高域で
のレスポンスの低下を補うように、たとえばトランスバ
ーサルフィルタ等を用いて構成されている。このデータ
の高周波域のレベルを持ち上げることにより画像の輪郭
強調等の効果をもたらす。また、LPF 3622d, 3624dに
は、アパーチャ調整部364dの処理時間を考慮して遅延素
子を設けてもよい。このようにしてマトリクス処理部36
d は、輝度データY 、色差データ(R-Y), (B-Y)を最適画
像合成部36e およびモニタ42に出力する。
As shown in FIG. 6, the matrix processing section 36d includes a color difference matrix section 360d, an anti-aliasing filter section 362d, and an aperture adjusting section 364d. The color difference matrix unit 360d converts the supplied R plane data, G plane data, and B plane data into a format used for image display, that is, luminance data Y, color difference data (RY), (BY). The data in these output formats is obtained by multiplying each color by a determined mixing ratio and calculating. As a coefficient for determining the mixing ratio, a conventional value is used. The converted three data are output to the anti-aliasing filter unit 362d. The anti-aliasing filter unit 362d has a low-pass filter corresponding to each of these three data. Each data band is different, but low pass filter (LPF) 3620d, 3622d and 36
For 24d, a cutoff frequency that includes this band and does not cause aliasing is selected. Anti-aliasing filter section
362d outputs data without distortion. Among them, the luminance data Y is sent to the aperture adjustment unit 364d. The aperture adjustment unit 364d is a contour compensator having a function of raising the high frequency range of the luminance data Y. The contour compensator is configured using, for example, a transversal filter or the like so as to compensate for a decrease in response in a high frequency band. By raising the level of this data in the high-frequency range, effects such as contour enhancement of the image are obtained. The LPFs 3622d and 3624d may be provided with a delay element in consideration of the processing time of the aperture adjustment unit 364d. Thus, the matrix processing unit 36
d outputs the luminance data Y and the color difference data (RY), (BY) to the optimum image synthesizing unit 36e and the monitor 42.

【0039】最適画像合成部36e は、システム制御部18
の制御に応じて一つの画像を合成する機能を有する。こ
の合成は、メモリのアドレスを有効に用いて指示された
アドレスのデータの入換えにより行う。このため、入換
えの基準にする画像を格納するメモリとこの基準の画像
と異なるRGB 同時化処理した画像を格納するメモリを含
む。メモリ領域は一致させておくと都合がよい。画像の
切出しを行う場合、たとえばエッジ検出する機能を備
え、検出したデータをモニタ42に供給し、領域を操作部
14で確定させる。この確定した領域に含まれるアドレス
のデータを基準にする画像を格納するメモリに供給して
データの入換えを行う。また、システム制御部18が画像
表示モードにある場合、最適画像合成部36e を非イネー
ブル状態にしておくと、この状態の間、最適画像合成部
36e は動作停止させることから電力の無駄を省くことが
できる。最適画像合成部36e は、システム制御部18によ
りイネーブル状態にされたとき、前述した処理が行われ
る。より詳細な手順については後段で説明する。
The optimal image synthesizing unit 36e is
Has the function of synthesizing one image in accordance with the control of. This synthesis is performed by exchanging data at the designated address by effectively using the address of the memory. For this reason, it includes a memory for storing an image to be used as a reference for replacement and a memory for storing an image subjected to RGB synchronization processing different from the image of this reference. It is convenient to match the memory areas. When cutting out an image, for example, a function for detecting an edge is provided.
Confirm with 14. The data is supplied to a memory for storing an image based on the data at the address included in the determined area, and the data is replaced. When the system control unit 18 is in the image display mode, the optimum image combining unit 36e is set to the non-enabled state.
The 36e can be shut down to save power. When the optimum image combining unit 36e is enabled by the system control unit 18, the above-described processing is performed. A more detailed procedure will be described later.

【0040】マトリクス処理部36d からモニタ42に選択
した画像がシステムバス16を介して供給される。この場
合、ユーザは、モニタ42で画像生成部36b の各RGB 同時
化処理による画像が被写界の画像に対してどのような効
果をもたらすのか、また、その部分は画像のどの領域で
影響が大きいか等を知ることができる。
The selected image is supplied from the matrix processing section 36d to the monitor 42 via the system bus 16. In this case, on the monitor 42, the user can determine on the monitor 42 what effect the image generated by the respective RGB synchronizing processes of the image generating unit 36b has on the image of the object scene, and which part of the image is affected. You can know if it is big.

【0041】このように構成して信号処理部36は、最終
的に最適画像合成を行って最適な画像データ、すなわち
輝度データY および色差データにして圧縮/伸張部38に
出力する。
With such a configuration, the signal processing unit 36 finally performs optimal image synthesis to output optimal image data, that is, luminance data Y and color difference data, to the compression / expansion unit 38.

【0042】再び図1に戻って、圧縮/伸張部38は、た
とえば、直交変換を用いたJPEG(Joint Photographic E
xperts Group)規格での圧縮を施す回路と、この圧縮し
た画像を再び元のデータに伸張する回路とを有する。圧
縮/伸張部38は、システム制御部18の制御により記録時
には圧縮したデータをシステムバス16を介して記録再生
部40に供給する。また、圧縮/伸張部38は、前述と同様
にシステム制御部18の制御により信号処理部36からのデ
ータをスルーさせ、システムバス16を介してモニタ42に
供給させてもよい。圧縮/伸張部38が伸張処理を行う場
合、逆に記録再生部40から読み出したデータをシステム
バス16を介して圧縮/伸張部38に取り込んで処理する。
ここで、処理されたデータもモニタ42に供給して表示さ
せる。
Returning to FIG. 1, the compression / decompression unit 38 is, for example, a JPEG (Joint Photographic E) using orthogonal transform.
(xperts Group) standard, and a circuit for expanding the compressed image to original data again. The compression / decompression unit 38 supplies the compressed data to the recording / reproduction unit 40 via the system bus 16 during recording under the control of the system control unit 18. Further, the compression / decompression unit 38 may pass data from the signal processing unit 36 under the control of the system control unit 18 and supply the data to the monitor 42 via the system bus 16 as described above. When the compression / decompression unit 38 performs the decompression process, the data read from the recording / reproduction unit 40 is taken into the compression / decompression unit 38 via the system bus 16 and processed.
Here, the processed data is also supplied to the monitor 42 for display.

【0043】記録再生部40は、記録媒体に記録する記録
処理部と、記録媒体から記録した画像データを読み出す
再生処理部とを含む(ともに図示せず)。記録媒体に
は、たとえば、いわゆる、スマートメディアのような半
導体メモリや磁気ディスク、光ディスク等がある。磁気
ディスク、光ディスクを用いる場合、画像データを変調
する変調部とともに、この画像データを書き込むヘッド
がある。モニタ42は、システム制御部18の制御に応じて
システムバス16を介して供給される輝度データおよび色
差データまたは三原色RGB のデータを画面の大きさを考
慮するとともに、タイミング調整して表示する機能を有
する。
The recording / reproducing section 40 includes a recording processing section for recording on a recording medium, and a reproducing processing section for reading image data recorded from the recording medium (both not shown). The recording medium includes, for example, a semiconductor memory such as a so-called smart media, a magnetic disk, and an optical disk. When a magnetic disk or an optical disk is used, there is a head for writing the image data together with a modulator for modulating the image data. The monitor 42 has a function of considering the size of the screen and displaying the luminance data and the color difference data or the data of the three primary colors RGB supplied via the system bus 16 under the control of the system control unit 18 while adjusting the timing. Have.

【0044】図1に示すディジタルカメラ10は、このよ
うに構成して最適な画像を記録するようにしている。と
ころで、ディジタルカメラ10の動作を説明する前に、さ
らに、カメラの特徴の一つである撮像部30と色フィルタ
CFについてさらに説明する。図7は、撮像部30の撮像面
を示している。撮像部30は、図7に示すように、入射す
る光を光電変換する受光素子PDに隣接した受光素子PDが
垂直方向および水平方向にずらされて2次元配置された
受光部30a と、この受光部30a の前面に形成された開口
部APを迂回するように配置され、かつ受光素子PDからの
信号を取り出す電極ELと、この電極ELを介して供給され
る信号を受光部30a の垂直方向に順次転送する垂直転送
レジスタVR1 〜VR4 とを備えている。
The digital camera 10 shown in FIG. 1 is configured as described above to record an optimum image. By the way, before explaining the operation of the digital camera 10, the image pickup unit 30 and the color filter, which are one of the camera features, are further described.
The CF will be further described. FIG. 7 illustrates an imaging surface of the imaging unit 30. As shown in FIG. 7, the imaging unit 30 includes a light receiving unit 30a in which light receiving elements PD adjacent to a light receiving element PD for photoelectrically converting incident light are vertically and horizontally shifted and two-dimensionally arranged. An electrode EL arranged so as to bypass the opening AP formed on the front surface of the portion 30a, and for extracting a signal from the light receiving element PD, and a signal supplied via this electrode EL is provided in a direction perpendicular to the light receiving portion 30a. Vertical transfer registers VR1 to VR4 for sequentially transferring are provided.

【0045】垂直転送レジスタVR1 〜VR4 は、供給され
る垂直転送駆動信号V1〜V4に応じて信号を転送してい
る。すなわち、垂直転送レジスタは1受光部あたり4電
極構造になっている。また、1受光部領域の水平隣接領
域が2電極構造で前述した画素ずれしている。本実施例
の撮像部30に形成された開口部APは、六角形のハニカム
形状に形成する。開口形状は、一般的に正方格子である
がこの形状は、感度を向上させるとともに、垂直転送レ
ジスタの幅を同じにして転送効率を低下させないように
する条件を満たせばよい。このことから判るように形状
は、多角形でもよく、この他の例としては、正方格子を
45°回転させた開口形状として、たとえば、菱形等があ
り、さらに八角形等にしてもよい。
The vertical transfer registers VR1 to VR4 transfer signals in accordance with the supplied vertical transfer drive signals V1 to V4. That is, the vertical transfer register has a four-electrode structure per light receiving portion. In addition, a horizontally adjacent region of one light receiving portion region has a two-electrode structure and has a pixel shift as described above. The opening AP formed in the imaging unit 30 of the present embodiment is formed in a hexagonal honeycomb shape. The opening shape is generally a square lattice, but this shape may satisfy the conditions for improving the sensitivity and keeping the width of the vertical transfer register the same so as not to lower the transfer efficiency. As can be seen from the above, the shape may be a polygon, and as another example, a square lattice may be used.
As the opening shape rotated by 45 °, there is, for example, a rhombus or the like, and may be an octagon or the like.

【0046】開口部APは、図7に示すように各開口部AP
を覆う色フィルタCFの直下にそれぞれ対応して配置され
る受光素子PDの間隔を各方向毎の画素ピッチPPとすると
き、開口部APの配列は、一列毎に垂直方向にあるいは一
行毎に水平方向に画素ピッチPP分だけ移動させた2次元
配置になっている。四角形以上の多角形を用いる場合、
開口形状に合わせて開口部APを隙間なく、隣接する開口
部APが稠密な配置に配置にさせてもよい。このような場
合、配置する上での画素ピッチPPは半ピッチのずらしで
もよい。図7のように六角形の場合、稠密な配置は、水
平・垂直方向とも上述した画素ピッチPPの半分だけずら
した配置により形成できる。このように稠密な配置を得
るには開口部APの形状に依存する。
As shown in FIG. 7, each of the openings AP
When the interval between the light receiving elements PD arranged directly below the color filters CF covering the pixels is a pixel pitch PP in each direction, the arrangement of the apertures AP is vertical in each column or horizontal in each row. The two-dimensional arrangement is shifted in the direction by the pixel pitch PP. When using a polygon that is more than a rectangle,
The openings AP may be arranged in a dense arrangement with no gap between the openings AP in accordance with the shape of the openings. In such a case, the pixel pitch PP for arrangement may be shifted by a half pitch. In the case of a hexagon as shown in FIG. 7, a dense arrangement can be formed by displacing the pixel pitch PP by a half in the horizontal and vertical directions. Obtaining such a dense arrangement depends on the shape of the opening AP.

【0047】ここで、撮像部30が一般的に用いられる正
方格子状の配置の場合と上述した画素ずらし、いわゆる
ハニカム配置の場合の配置関係を比較する。ハニカムの
配置は、図8(a) に示すように画素ピッチPPがそれぞれ
N(μm)の正方格子状の配置をそれぞれ45°回転させた図
8(b) に示す配置と等価である。また、ハニカム配置と
等価な色フィルタCFは、図9に示すように模式的に表す
と、受光素子のずらし配置に対応して三原色R, G, B の
原色フィルタがそれぞれずれを有するG ストライプRB完
全市松のパターンになる。このパターンをG 正方格子RB
完全市松パターンと呼ぶ。破線の正方形は受光素子のな
い仮想画素を示している。このパターンはR, Bが入れ替
わっても構わない。なお、色フィルタCFは三原色RGB の
原色フィルタに限定されるものでなく、補色フィルタで
もよい。ただし、この場合、補色から原色を求める構成
を追加する。
Here, the arrangement relationship between the case where the image pickup section 30 is arranged in a square lattice shape, which is generally used, and the above-described pixel shift, that is, the so-called honeycomb arrangement, will be compared. As shown in FIG. 8A, the arrangement of the honeycombs is such that the pixel pitch PP is
This is equivalent to the arrangement shown in FIG. 8B in which the square lattice arrangement of N (μm) is rotated by 45 °. Further, a color filter CF equivalent to the honeycomb arrangement is schematically represented as shown in FIG. 9, and the three primary colors R, G, and B primary color filters correspond to the shifted arrangement of the light receiving elements. It becomes a complete checkered pattern. This pattern is called G square lattice RB
Call it a complete checkered pattern. A dashed square indicates a virtual pixel without a light receiving element. In this pattern, R and B may be switched. The color filter CF is not limited to the three primary color RGB primary color filters, but may be a complementary color filter. However, in this case, a configuration for obtaining a primary color from a complementary color is added.

【0048】また、ここで、ハニカム配置は、正方格子
状の配置における水平/垂直方向の隣接画素間距離|PP
|= N(μm)を基準にしてN*(2)-1/2 と隣接画素間距離|
PP|より短くなる(図8(b) を参照)。したがって、ハ
ニカム配置は、正方格子状の配置よりも画素が稠密に配
置されるので、原理的に水平・垂直方向の解像度を(2)
1/2倍に向上させることができる。また、ハニカム形状
の配置から出力形態に見合う正方格子状の配置に展開す
る場合、仮想画素のデータは、隣接する画素データに基
づいて前述した画像生成部36b で補間処理が行われる。
この補間処理を行いながら正方格子状に展開すると、解
像度は、単に正方格子状に受光素子PDを配置したときよ
り高くできることがわかる。
Here, the honeycomb arrangement is a distance | PP between adjacent pixels in the horizontal / vertical direction in a square lattice arrangement.
| = N * (2) -1/2 based on N (μm) and distance between adjacent pixels |
PP | (see Fig. 8 (b)). Therefore, in the honeycomb arrangement, the pixels are arranged more densely than in the square lattice arrangement, and in principle, the resolution in the horizontal and vertical directions is (2)
It can be improved by half . Further, in the case of expanding from a honeycomb-shaped arrangement to a square lattice-shaped arrangement suitable for the output form, the data of the virtual pixel is subjected to the interpolation processing in the above-described image generation unit 36b based on the adjacent pixel data.
It can be seen that if the image is developed in a square lattice while performing this interpolation processing, the resolution can be higher than when the light receiving elements PD are simply arranged in a square lattice.

【0049】このような特徴を有する撮像部30を適用し
たディジタルカメラ10による最適画像作成の動作手順を
説明する。ディジタルカメラ10は、図10に示すメインル
ーチンの手順に従って一枚の画像を撮影する場合、操作
部14のシャッタボタン操作によりAE, AFで得られた露光
条件を考慮したタイミングで最初に撮像を行う(ステッ
プS10 )。ディジタルカメラ10には、異なる分光感度特
性を有する、図7に示したような2次元配列された色フ
ィルタCF、開口部APを介して撮像部30の受光素子PDに入
射光が射し込む。受光素子PDでは、入射光を光電変換し
て得られた信号が電極EL、垂直転送レジスタVRを介し複
数の水平転送レジスタHR(図示しない)から読み出して
前処理部32に出力する。
An operation procedure for creating an optimum image by the digital camera 10 to which the imaging unit 30 having such features is applied will be described. When taking a single image according to the procedure of the main routine shown in FIG. 10, the digital camera 10 first takes an image at a timing considering the exposure conditions obtained by AE and AF by operating the shutter button of the operation unit 14 (Step S10). Into the digital camera 10, incident light impinges on the light receiving element PD of the imaging unit 30 via the two-dimensionally arranged color filters CF and the openings AP having different spectral sensitivity characteristics as shown in FIG. In the light receiving element PD, a signal obtained by photoelectrically converting incident light is read out from a plurality of horizontal transfer registers HR (not shown) via the electrode EL and the vertical transfer register VR, and output to the preprocessing unit 32.

【0050】次にこの読み出された信号に対して、信号
処理における前処理を行う(ステップS12 )。前処理と
しては、前処理部32でたとえば、CDS (相関二重サンプ
リング)処理を行って撮像部30からの信号に含まれるノ
イズ成分を除去している。
Next, preprocessing in signal processing is performed on the read signal (step S12). As the pre-processing, the pre-processing unit 32 performs, for example, CDS (correlated double sampling) processing to remove noise components included in the signal from the imaging unit 30.

【0051】次に、ノイズ除去等が施された信号をA/D
変換部34でディジタル信号に変換する(ステップS14
)。この変換により各受光素子PDから供給される信号
電荷を画素データに変換する。この変換より以後の信号
処理をディジタル処理で行う。図1に図示していない
が、特に、CCD イメージセンサを用いた際に非破壊タイ
プのバッファメモリを用いるとよい。この場合、バッフ
ァメモリはシステム制御部18から供給される書込み/読
出しイネーブル信号やアドレス信号等の制御信号に応じ
て各色の画素データを信号処理部36に供給する。
Next, the signal from which noise has been removed is converted to an A / D signal.
The conversion unit 34 converts the digital signal (step S14).
). By this conversion, the signal charge supplied from each light receiving element PD is converted into pixel data. Signal processing after this conversion is performed by digital processing. Although not shown in FIG. 1, a non-destructive buffer memory is preferably used particularly when a CCD image sensor is used. In this case, the buffer memory supplies pixel data of each color to the signal processing unit 36 according to control signals such as a write / read enable signal and an address signal supplied from the system control unit 18.

【0052】このディジタル化した画素データに信号処
理を施すかの判断を行う(ステップS16 )。この判断
は、あらかじめユーザがディジタルカメラ10の操作部14
により設定しておいてもよいし、または使用直前に操作
部14を介して設定してもよい。この設定は、信号処理し
た画素データを記録するか、A/D 変換後の生の画素デー
タを記録するかの選択に相当する。信号処理を行うと判
断した場合(YES )、ステップS18 に進む。また、ただ
ちに画素データを記録すると判断した場合(NO)、ステ
ップS28 に進む。
It is determined whether signal processing is performed on the digitized pixel data (step S16). This determination is made in advance by the user by operating the operation unit 14 of the digital camera 10.
May be set, or may be set via the operation unit 14 immediately before use. This setting is equivalent to selecting whether to record pixel data subjected to signal processing or to record raw pixel data after A / D conversion. If it is determined that the signal processing is to be performed (YES), the process proceeds to step S18. If it is determined that the pixel data is to be recorded immediately (NO), the process proceeds to step S28.

【0053】ステップS18 では、たとえば、白バランス
やガンマ補正を施す。この処理は、信号処理部36のデー
タ補正部36a で行う。このように補正した画素データが
画像生成部36b のRGB 同時化部36A 〜36N のそれぞれに
供給される。
In step S18, for example, white balance and gamma correction are performed. This processing is performed by the data correction unit 36a of the signal processing unit 36. The pixel data corrected in this way is supplied to each of the RGB synchronizing units 36A to 36N of the image generating unit 36b.

【0054】画素データの供給を受けて、システム制御
部18では、最適画像の生成を行うかどうかの判断を行う
(ステップS20 )。この場合の判断も前述した判断と同
様にあらかじめ設定しておくか、またはその都度の設定
によって行う。この設定を基に処理の進む方向を判断す
る。すなわち、最適画像の生成を行う場合(YES )、サ
ブルーチンSUB1に進む。また、信号処理は行うが最適画
像の生成は行わない場合(NO)、ステップS22 に進む。
Upon receiving the supply of the pixel data, the system control unit 18 determines whether or not to generate an optimal image (step S20). The determination in this case is set in advance similarly to the above-described determination, or is performed by setting each time. The direction in which the process proceeds is determined based on this setting. That is, when the optimum image is to be generated (YES), the process proceeds to the subroutine SUB1. If the signal processing is performed but the generation of the optimum image is not performed (NO), the process proceeds to step S22.

【0055】最適画像の生成を行う場合、画像生成部36
b のRGB 同時化部36A 〜36N のそれぞれで画像生成を行
う(サブルーチンSUB1)。この生成手順は後段で詳述す
るとして、得られた最適画像の輝度データ、色差データ
を圧縮/伸張部38に送る(ステップS26 )。一方、最適
画像の生成を行わない場合、システム制御部18からあら
かじめ設定しておいた仕様に応じた所定の画像生成を行
うように制御する。これにより、所定の画像生成に対応
するRGB 同時化部だけを動作させて一つの画像データを
生成する(ステップS22 )。
To generate an optimum image, the image generation unit 36
An image is generated in each of the RGB synchronization units 36A to 36N of b (subroutine SUB1). This generation procedure will be described later in detail, and the luminance data and color difference data of the obtained optimal image are sent to the compression / decompression unit 38 (step S26). On the other hand, when the generation of the optimum image is not performed, the system control unit 18 controls so as to generate a predetermined image according to the specification set in advance. Thereby, only one RGB synchronizing unit corresponding to the predetermined image generation is operated to generate one image data (step S22).

【0056】この生成した画像データは、セレクタ36c
を介してマトリクス処理部36d に供給される。マトリク
ス処理部36d では、基本的に画像データ(プレーン画素
データ)を輝度データと色差データにマトリクス変換し
てモニタ42に出力するとともに、圧縮/伸張部38にも出
力する(サブルーチンSUB2)。
The generated image data is supplied to the selector 36c.
Is supplied to the matrix processing unit 36d via the. The matrix processing unit 36d basically converts the image data (plane pixel data) into a matrix of luminance data and color difference data and outputs the matrix data to the monitor 42, and also outputs it to the compression / expansion unit 38 (subroutine SUB2).

【0057】このマトリクス処理後または、最適画像の
生成後では、生成した一枚の画像に対して圧縮/伸張部
38で圧縮処理を施す(ステップS26 )。ここでの圧縮処
理は、本実施例で前述したように直交変換を用いたJPEG
規格の圧縮を施す。
After the matrix processing or the generation of the optimum image, the compression / expansion unit is applied to the generated single image.
At 38, compression processing is performed (step S26). The compression processing here is performed by JPEG using orthogonal transform as described above in this embodiment.
Apply standard compression.

【0058】この圧縮後、圧縮した画像データを記録再
生部40にシステムバス16を介して供給する。また、信号
処理の施していない撮像データ、いわゆる生データを記
録する場合も図1にあらわに図示していないが、ステッ
プS16 の判断(切換スイッチ)により、記録再生部40に
A/D 変換後のデータがシステムバス16を介して供給され
る。記録再生部40では、供給された画像データを記録/
再生デバイスに応じて記録を行う。半導体メモリの場
合、ディジタルデータそのものを記録し、データを変調
させて記録する、たとえば、磁気変調、光変調等の場
合、アナログ記録となる。記録時における処理を以上の
ように行って一枚の画像記録処理を終了する。
After the compression, the compressed image data is supplied to the recording / reproducing unit 40 via the system bus 16. Also, in a case where image data that has not been subjected to signal processing, that is, so-called raw data is recorded, although not shown in FIG.
The data after the A / D conversion is supplied via the system bus 16. The recording / reproducing unit 40 records / supplies the supplied image data.
Recording is performed according to the playback device. In the case of a semiconductor memory, digital data itself is recorded, and data is modulated and recorded. For example, in the case of magnetic modulation, optical modulation, or the like, analog recording is performed. The processing at the time of recording is performed as described above, and the processing for recording one image is completed.

【0059】このように動作させることにより、それぞ
れ生成した画像のなかで、基準とした画像の領域よりも
高い画質を有する領域を切り出して基準の画像に合成す
るので、単に画像を一つの画像処理で生成した場合に比
べて高画質化することができる。
By operating as described above, an area having a higher image quality than the area of the reference image is cut out of each generated image and synthesized with the reference image. It is possible to improve the image quality as compared with the case where the image is generated by using.

【0060】次に、最適画像の生成処理を行うサブルー
チンSUB1について図11を用いて説明する。最適画像の生
成処理を行うことが選択されていると、データ補正部36
a からの補正したデータが各RGB 同時化部36A 〜36N に
供給される。この三原色R, G, B の画素データの供給を
基にそれぞれのプレーンな画素データからなる画像を生
成する(サブルーチンSUB3)。個々の画像生成の手順に
ついては後段で説明する。このように一つの被写界から
撮像したデータに対して複数種類の画像が生成される。
Next, a subroutine SUB1 for generating an optimum image will be described with reference to FIG. If the generation of the optimum image is selected, the data correction unit 36
The corrected data from a is supplied to each of the RGB synchronizing units 36A to 36N. Based on the supply of the pixel data of the three primary colors R, G, and B, an image composed of respective plane pixel data is generated (subroutine SUB3). The procedure for generating each image will be described later. In this manner, a plurality of types of images are generated for data captured from one field.

【0061】複数の画像が生成されるが各画像の特徴を
把握するため、一つひとつ画像をモニタ42に表示させ
る。この表示を行うため、まず、作成した画像データの
選択を行う(サブステップSS100 )。
Although a plurality of images are generated, the images are displayed one by one on the monitor 42 in order to grasp the characteristics of each image. To perform this display, first, the created image data is selected (sub-step SS100).

【0062】選択した画像データ(プレーンの画素デー
タ)を基にマトリクス処理部36d でマトリクス処理して
画素に対する輝度データ、色差データの生成を行う(サ
ブルーチンSUB2)。そして、これらの生成した輝度デー
タ、色差データがシステム制御部18の制御によりシステ
ムバス16を介してモニタ42に供給される。モニタ42で
は、輝度データ、色差データを用いて画像を表示する
(サブステップSS102 )。
Based on the selected image data (plane pixel data), the matrix processing unit 36d performs matrix processing to generate luminance data and color difference data for the pixels (subroutine SUB2). The generated luminance data and color difference data are supplied to the monitor 42 via the system bus 16 under the control of the system control unit 18. The monitor 42 displays an image using the luminance data and the color difference data (substep SS102).

【0063】この手順により、選択した画像が表示され
る。生成した複数の画像のすべてが選択されたかの判断
を行う(サブステップSS104 )。画像すべてが選択され
たとして終了するとき(YES )サブステップSS106 に進
む。また、まだ画像すべての選択が終了していないとき
(NO)、サブステップSS100 に戻る。この一連の処理に
より、それぞれ異なる画像生成処理を行った特徴を有す
る画像をユーザに示すことができる。ユーザは、この表
示された画像を基に最適画像の基準とする画像をどれに
するか選択する( サブステップSS106 )。
According to this procedure, the selected image is displayed. It is determined whether all of the plurality of generated images have been selected (sub-step SS104). When it is determined that all images have been selected (YES), the flow proceeds to sub-step SS106. If all the images have not yet been selected (NO), the flow returns to sub-step SS100. By this series of processing, images having characteristics obtained by performing different image generation processing can be shown to the user. The user selects an image to be a reference of the optimum image based on the displayed image (sub-step SS106).

【0064】この選択を受けて、切出しを行う画像の選
択を行う(サブステップSS108 )。切出しを行う画像
は、当然基準とする画像と異なる画像生成処理の施され
た画像である。このとき、フローチャートにあらわにな
っていないがモニタ42には、基準とする画像と選択した
画像が両方または交互に表示されている。交互に表示す
る場合、所定の時間毎に自動切換したり、ユーザの操作
部14からの指示に応じて切り換える等の処理がモニタ42
に対して行われている。
In response to the selection, an image to be cut out is selected (substep SS108). The image to be cut out is an image that has been subjected to image generation processing different from the reference image. At this time, although not shown in the flowchart, the monitor 42 displays both or alternately the reference image and the selected image. In the case of alternate display, the monitor 42 performs processing such as automatic switching at predetermined time intervals or switching in response to an instruction from the operation unit 14 of the user.
Has been done against.

【0065】このように各画像が表示されるなかで、切
出し画像を表示させて基準の画像に比べて、たとえば、
画質の高い領域を切り出す指示を操作部14により行う
(サブステップSS110 )。この切り出す領域の指示は、
画像の領域を指定しするだけでなく、この指定とエッジ
境界の抽出結果とを合わせて用いてより細かな領域の指
定を行う。この領域指定を行って切り出した領域を基準
とする画像の該当領域と挿げ替える(サブステップSS11
2 )。すなわち、画像の部分挿替えである。この挿替え
にあたり基準とする画像を格納するメモリと選択した他
の画像を格納するメモリの大きさを一致させておくと、
対応関係が明瞭なので、挿替えの手続きが容易になる。
挿替えの領域が一つの領域に限られるわけではないの
で、さらに挿替えの領域がまだあるかの判断を行う(サ
ブステップSS114 )。判断はユーザにより操作部14を介
して行う。挿替え処理を終了して構わなければ(YES
)、サブステップSS116 に進む。また、挿替え処理を
継続する場合(NO)、サブステップSS110 に戻って前述
した一連の処理を繰り返す。
While each image is displayed as described above, the cut-out image is displayed and compared with the reference image, for example,
An instruction to cut out an area with high image quality is issued by the operation unit 14 (substep SS110). The indication of the area to be cut out is
In addition to designating the image area, a finer area is designated by using this designation and the result of extracting the edge boundary. The region specified by this region specification is replaced with the corresponding region of the image based on the cut-out region (substep SS11
2). That is, partial replacement of an image. When the size of the memory for storing the reference image and the size of the memory for storing the selected other image are set to be the same in this replacement,
Since the correspondence is clear, the replacement procedure becomes easy.
Since the replacement area is not limited to one area, it is further determined whether or not there is a replacement area (sub-step SS114). The determination is made by the user via the operation unit 14. If it is OK to end the replacement process (YES
), And proceed to sub-step SS116. If the replacement process is to be continued (NO), the process returns to sub-step SS110 to repeat the above-described series of processes.

【0066】サブステップSS116 では、いま切り出した
画像以外の生成済みの画像があるかどうかおよび/また
は画像があってもユーザは不要なのかを判断する。画像
がない場合または画像があっても、かつこれ以上の処理
が不要の場合(YES )、サブルーチンSUB2に進む。ま
た、画像があり、かつ処理の要求がある場合(NO)、サ
ブステップSS108 に戻る。
In sub-step SS116, it is determined whether there is a generated image other than the image just cut out and / or if the image is present, it is unnecessary for the user. If there is no image, or if there is an image, and no further processing is required (YES), the flow proceeds to subroutine SUB2. If there is an image and there is a request for processing (NO), the process returns to sub-step SS108.

【0067】このようにして合成した画像をマトリクス
処理によりモニタ42に表示可能なデータにする(サブル
ーチンSUB2)。この画像データがモニタ42に表示され
る。この画像は、部分部分が高画質化した領域を合成し
ていることから、一つの画像処理で得られた画像に比べ
て高画質である。この画像を所定の時間、表示した後、
リターンに移行する。これにより、最適画像の生成処理
を終了する。
The image synthesized in this way is converted into data that can be displayed on the monitor 42 by matrix processing (subroutine SUB2). This image data is displayed on the monitor 42. This image has a higher image quality than an image obtained by one image processing because the image is composed of a region whose partial portion has a higher image quality. After displaying this image for a predetermined time,
Move to return. Thus, the process of generating the optimum image ends.

【0068】次に画像データをマトリクス化するサブル
ーチンSUB2について図12を用いて説明する。マトリクス
化は、まず、セレクタ36c を介して出力されたRGB デー
タを用いてマトリクス処理がマトリクス処理部36d の色
差マトリクス部360dで行われる(サブステップSS200
)。このマトリクス処理により輝度データY 、色差デ
ータ(R-Y), (B-Y)が生成される。この処理後、得られた
輝度データY 、色差データ(R-Y), (B-Y)に対して広帯域
にわたるLPF 処理を施す(サブステップSS202 )。この
処理によって折り返し歪みの発生を抑制している。この
処理は、アンチエリアシングフィルタ部362dで行う。こ
の処理を経て帯域の広い色差データ(R-Y)=Cr, (B-Y)=Cb
が得られる。また、輝度データY には、さらにアパーチ
ャ調整が施される(サブステップSS204 )。アパーチャ
調整は、図6のアパーチャ調整部364dで行われる。この
ように処理されて高域特性の良い輝度データY が得られ
る。この処理の後、リターンに進み、サブルーチンSUB2
を終了する。
Next, a subroutine SUB2 for forming a matrix of image data will be described with reference to FIG. First, matrix processing is performed in the color difference matrix unit 360d of the matrix processing unit 36d using the RGB data output via the selector 36c (substep SS200).
). By this matrix processing, luminance data Y and color difference data (RY), (BY) are generated. After this processing, the obtained luminance data Y and color difference data (RY), (BY) are subjected to LPF processing over a wide band (substep SS202). By this processing, generation of aliasing distortion is suppressed. This processing is performed by the anti-aliasing filter unit 362d. After this process, the color difference data (RY) = C r , (BY) = C b
Is obtained. Further, aperture adjustment is further performed on the luminance data Y (sub-step SS204). The aperture adjustment is performed by the aperture adjustment unit 364d in FIG. By performing such processing, luminance data Y having good high-frequency characteristics can be obtained. After this processing, the process proceeds to the subroutine SUB2
To end.

【0069】次に複数の画像生成を行うサブルーチンSU
B3のそれぞれの処理について説明する。複数の画像生成
において、サブルーチンSUB3は、本実施例ではRGB 同時
化部36A, 36Bの処理手順のサブルーチンSUB4, SUB5を順
次行っている(図13を参照)。サブルーチンSUB4は、回
転処理を経た色G を補間するとともに、輪郭強調に寄与
する高域の補正信号(すなわち解像度を重視した信号)
色G を用い、この色Gの相関関係を考慮して、色R, Bを
補間処理し、得られた色RGB を平均補間する処理を行
う。この手順を図14に示し、以下において説明する。
Next, a subroutine SU for generating a plurality of images.
Each process of B3 will be described. In generating a plurality of images, the subroutine SUB3 sequentially performs the subroutines SUB4 and SUB5 of the processing procedure of the RGB synchronizing units 36A and 36B in this embodiment (see FIG. 13). The subroutine SUB4 interpolates the color G that has undergone the rotation processing, and at the same time, corrects the high-frequency correction signal that contributes to contour enhancement (that is, a signal that emphasizes resolution).
Using the color G, taking into account the correlation of the color G, the color R and B are subjected to interpolation processing, and the obtained color RGB is subjected to average interpolation processing. This procedure is shown in FIG. 14 and will be described below.

【0070】まず、供給される3つのRGB データが高域
G データ生成部360Aで45°回転した位置に配置変更され
る。また、R 補間機能部3620A, B補間機能部3622A にお
いても供給される画素データをそれぞれ45°回転した位
置に配置変更する(サブステップSS400 )。この受光素
子の回転配置の関係は、図15(a) の一点鎖線100, 102で
囲む領域を45°回転させる。この回転結果、たとえば一
点鎖線102 の領域は図15(b) という画素配置に変更され
る。
First, the three supplied RGB data are in the high frequency range.
G The position is changed to a position rotated 45 ° by the data generation unit 360A. The R interpolation function unit 3620A and the B interpolation function unit 3622A also change the arrangement of the supplied pixel data to positions rotated by 45 ° (substep SS400). The relationship of the rotational arrangement of the light receiving element is that the region surrounded by the alternate long and short dash line 100, 102 in FIG. As a result of this rotation, for example, the area indicated by the alternate long and short dash line 102 is changed to the pixel arrangement shown in FIG.

【0071】次に、高域G データ生成部360Aでは、高域
G データGhの生成および色G 以外の色R, Bに対応する受
光素子位置の補間処理を行う。この2つの処理は、それ
ぞれ高域G データ生成部360Aと図示しないG 補間機能部
で行うようにしてもよい。高域G データGhは、図示しな
いが輪郭強調データ生成機能部と、周波数重複防止機能
部とを備えている。輪郭強調データ生成機能部は、供給
される三原色RGB データから斜めベイヤの配置に展開さ
れた、解像度を重視した高域成分信号(YH)の基となる画
素データを生成する。この画素データの生成は、たとえ
ば、Yh・Ylow 法のうち、Yhの算出方法を用いて供給され
る画素データから生成している。この画素データの生成
時、輪郭強調データ生成機能部は、生成した高域成分信
号(YH)を周波数重複防止機能部に供給する。周波数重複
防止機能部は、たとえば、水平および垂直方向の解像度
重視した信号が供給され、水平・垂直方向の信号のう
ち、一方の方向の信号と他方の信号とに共通の周波数帯
が存在するとき、たとえば、一方の信号に対して共通の
周波数帯を帯域制限し、この信号と他方の信号とを合成
して加算する。これにより、出力信号が高域の成分信号
(YH)で輪郭強調させる高域G データGhになる。
Next, the high-frequency G data generation unit 360A
The G data Gh is generated and the light receiving element positions corresponding to the colors R and B other than the color G are interpolated. These two processes may be performed by the high-frequency G data generation unit 360A and a G interpolation function unit (not shown). High-frequency G data G h is not shown is provided with a contour enhancement data generation function unit, and a frequency duplication prevention function unit. The contour emphasis data generation function unit generates pixel data serving as a basis of a high-frequency component signal (Y H ) which is developed in an oblique Bayer arrangement from the supplied three primary color RGB data and emphasizes resolution. The generation of the pixel data, for example, of Y h · Y low method, and generates the pixel data supplied using the method of calculating the Y h. When generating the pixel data, the contour emphasis data generation function unit supplies the generated high frequency component signal (Y H ) to the frequency duplication prevention function unit. The frequency duplication prevention function unit is supplied with, for example, a signal in which horizontal and vertical resolution is emphasized, and a common frequency band is present in one of the horizontal and vertical signals and the other signal. For example, a common frequency band is band-limited to one signal, and this signal and the other signal are combined and added. As a result, the output signal becomes a high-frequency component signal.
(Y H ) becomes the high-frequency G data G h for which the contour is emphasized.

【0072】たとえば、45°回転した色B の画素データ
B02, B20, B41, B24で囲まれた領域で検討した場合、水
平方向として左斜め5つの画素データB20, R22, B24
用いて画素データYh22は、式(1)
For example, pixel data of color B rotated by 45 °
When considering the area surrounded by B 02 , B 20 , B 41 , and B 24 , pixel data Y h22 is obtained by using the five pixel data B 20 , R 22 , and B 24 obliquely to the left as the horizontal direction. )

【0073】[0073]

【数1】 Yh22=0.5*R22+0.25*(B20+B24) ・・・(1) から得られる。また、垂直方向として右斜めの5つ(回
転前での5ライン)の画素データB02, R22, B41 を用い
て画素データYh22は、式(2)
Y h22 = 0.5 * R 22 + 0.25 * (B 20 + B 24 ) (1) Using five pixel data B 02 , R 22 , and B 41 obliquely to the right as the vertical direction (5 lines before rotation), the pixel data Y h22 is expressed by the equation (2).

【0074】[0074]

【数2】 Yh22=0.5*R22+0.25*(B02+B41) ・・・(2) から得られる。この解像度重視で両方向に対する算出を
行うなかで、算出した画素データに共通の周波数帯域が
存在しているとき、厳密には周波数重複防止機能部では
一方の方向の周波数帯域だけを通過させ水平/垂直方向
の信号を合成しても異常が生じないようにフィルタ処理
を行う。フィルタ処理は、ハイパスフィルタ処理であ
る。単に高域G データとしてだけ用いる場合、この周波
数重複防止機能部をスルーさせてもよい。
Y h22 = 0.5 * R 22 + 0.25 * (B 02 + B 41 ) (2) When performing calculation in both directions with emphasis on the resolution, when a common frequency band exists in the calculated pixel data, the frequency duplication prevention function unit strictly passes only the frequency band in one direction and sets the horizontal / vertical Filter processing is performed so that abnormalities do not occur even if signals in the directions are combined. The filtering process is a high-pass filtering process. When used simply as high-frequency G data, this frequency duplication prevention function unit may be skipped.

【0075】第2の作成方法として、4つの色G11,
G13, G31, G33を用いて、画素データR22 での画素デー
タGh22は、式(3)
As a second creation method, four colors G 11 ,
Using G 13 , G 31 , and G 33 , the pixel data G h22 in the pixel data R 22 is given by the equation (3)

【0076】[0076]

【数3】 Gh22=(G11+G13+G31+G33)/4 ・・・(3) により算出できる。また、第3の作成方法として、色G
だけのデータからこの配置における水平方向の画素デー
タの相関|G11-G33 |と垂直方向の画素データの相関|
G13-G31 |との差|G11-G33 |- |G13-G31 |を算出
し、その算出結果が所定の値より小さいとき、水平方向
に相関があるとして、式(2)
G h22 = (G 11 + G 13 + G 31 + G 33 ) / 4 (3) As a third creation method, a color G
Of horizontal pixel data in this arrangement from the only data | Correlation between G 11 -G 33 | and vertical pixel data |
G 13 -G 31 | and the difference | G 11 -G 33 |-| G 13 -G 31 |, and when the calculation result is smaller than a predetermined value, it is determined that there is a correlation in the horizontal direction, and the equation (2) )

【0077】[0077]

【数4】 Gh22=(G11+G33)/2 ・・・(4) から算出する。垂直方向の相関の有無を調べる場合、|
G13-G31 |- |G11-G33|を算出し、その算出結果が所
定の値より小さいとき、水平方向に相関があるとして、
式(5)
G h22 = (G 11 + G 33 ) / 2 (4) To check for vertical correlation,
G 13 -G 31 | - | G 11 -G 33 | When is calculated and the calculation result is smaller than a predetermined value, as there is a correlation in the horizontal direction,
Equation (5)

【0078】[0078]

【数5】 Gh22=(G13+G31)/2 ・・・(5) から算出する。このように高域G データは相関検出に基
づいて生成させてもよい。これらの作成方法のなかか
ら、一つ選択して高域G データを生成する。斜めベイヤ
配置の3行3列をずらしながら生成すると、受光素子の
位置における画素データGhを生成することができる。上
述した第1〜第3の作成方法が色G に関する補間も行う
(サブステップSS402 )。
G h22 = (G 13 + G 31 ) / 2 (5) As described above, the high band G data may be generated based on the correlation detection. One of these creation methods is selected to generate high-frequency G data. Generating while shifting the three rows and three columns of the oblique Bayer arrangement, it is possible to generate the pixel data G h in the position of the light receiving element. The above-described first to third creation methods also perform interpolation on the color G (substep SS402).

【0079】次に、色R の画素データについて補間処理
を行う(サブステップSS404 )。この補間処理は、図2
のR 補間機能部3620A で行う。図2が示すように、R 補
間機能部3620A には、R データと高域G データGhが供給
されている。この補間処理では、一般的に、原色G の信
号のレベル変化が映像信号における輝度の変化に大きく
影響するという事実関係を用いている。この方法は、こ
の影響が他の原色R,Bの展開に反映させることに基づい
て行われる。図16を用いて簡単に原理を説明する。これ
は、R プレーン補間展開を行う際に図16に示す未知のR
11 を求める例である。この際に、G20, G11, G22, R20,
R22 の既知の信号レベルを用いる。この補間処理に
は、G20, G22の加重平均値ΔG とR20, R22の加重平均値
ΔR が等しいという近似を仮定する(ΔG =ΔR )。こ
の関係を用いれば、加重平均する際の各重み係数も既知
の値であるから、未知の画素データR11 は容易に算出さ
れる。供給する高域G データGhを用いて色R 以外の色G,
Bにおける色R の画素データを算出する。
Next, an interpolation process is performed on the pixel data of the color R (substep SS404). This interpolation process is shown in FIG.
This is performed by the R interpolation function unit 3620A. As shown in FIG. 2, the R interpolation function unit 3620a, R data and the high-frequency G data G h is supplied. In this interpolation process, generally, the fact that a change in the level of the signal of the primary color G greatly affects a change in the luminance of the video signal is used. This method is based on the fact that this influence is reflected in the development of the other primary colors R and B. The principle will be briefly described with reference to FIG. This is because the unknown R shown in FIG.
Here is an example of finding 11 . At this time, G 20 , G 11 , G 22 , R 20 ,
Using known signal level of R 22. The interpolation process, assume an approximation of a weighted average value delta R of G 20, the weighted average delta G and R 20 of G 22, R 22 are equal (Δ G = Δ R). Using this relationship, the weighting factor when the weighted average is also because it is known values, the unknown pixel data R 11 is easily calculated. Using the high-frequency G data G h to be supplied, colors G other than color R,
The pixel data of the color R in B is calculated.

【0080】同様に、この原理を用いて、色B の補間処
理を行う(サブステップSS406 )。この場合も色G の画
素データの加重平均値ΔG と色B の画素データの加重平
均値ΔB が等しいという近似を仮定する(ΔG =Δ
B )。これを用いて未知の画素データを算出する。供給
する高域G データGhを用いて色B 以外の色G, Rにおける
色B の画素データを算出する。
Similarly, an interpolation process for the color B is performed using this principle (sub-step SS406). In this case also assumed approximation that is equal weighted average delta B of the pixel data of the weighted average delta G and the color B of the pixel data of the color G (Δ G = Δ
B ). Using this, unknown pixel data is calculated. Color G other than the color B is used to supply high frequency G data G h, and calculates the pixel data of the color in the R B.

【0081】この算出により、受光素子の位置における
三原色RGB がすべて算出される。この算出したRGB デー
タを平均プレーン補間機能部364Aに供給する。平均プレ
ーン補間機能部364Aでは、斜めベイヤ配置を元のG 正方
RB完全市松パターンに戻す回転処理を行い、受光素子間
にある仮想画素の位置での三原色RGB のデータ補間を行
う(サブステップSS408 )。この補間は、周囲の同色の
画素データの平均により算出する。算出に用いる画素、
すなわちデータ数は2画素以上を用いる。このようにし
て受光素子および仮想画素すべての画素データを算出す
る。この算出した画素データを用いると、三原色RGB の
プレーンデータが生成される。この生成の後、リターン
に進み、このサブルーチンSUB4を終了する。このような
手順で動作させることにより、結果としてRGB 同時化部
36A は撮像した被写体の画像を高解像度の信号にして出
力させることを可能にしている。
By this calculation, all three primary colors RGB at the position of the light receiving element are calculated. The calculated RGB data is supplied to the average plane interpolation function unit 364A. The average plane interpolation function unit 364A converts the diagonal Bayer arrangement to the original G square
A rotation process for returning to an RB complete checkerboard pattern is performed, and data of three primary colors RGB is interpolated at the position of a virtual pixel between the light receiving elements (substep SS408). This interpolation is calculated by averaging surrounding pixel data of the same color. Pixels used for calculation,
That is, the number of data uses two or more pixels. In this way, the pixel data of all the light receiving elements and the virtual pixels are calculated. Using the calculated pixel data, plane data of three primary colors RGB is generated. After this generation, the process proceeds to the return, and this subroutine SUB4 ends. By operating in such a procedure, as a result, the RGB
36A makes it possible to output a captured image of a subject as a high-resolution signal.

【0082】次に、市松処理を行うサブルーチンSUB5に
ついて説明する。サブルーチンSUB5は、図17に示すよう
に、サブルーチンSUB6でこの市松処理により受光素子の
位置に高域輝度データYhを生成し、サブルーチンSUB7で
はこのデータを基に仮想画素の位置での高域輝度データ
Yhを補間生成し、さらにサブルーチンSUB9でRGB プレー
ンデータを算出する処理である。この処理手順について
さらに各サブルーチンの動作手順を説明する。
Next, the subroutine SUB5 for performing the checkerboard processing will be described. Subroutine SUB5 as shown in FIG. 17, the subroutine generates high band luminance data Y h to the position of the light receiving element by the checkered treated with SUB6, high-frequency luminance at the position of the virtual pixel in the subroutine SUB7 the data based on data
The Y h interpolation generates a further process for calculating the RGB plane data in the subroutine SUB9. Regarding this processing procedure, the operation procedure of each subroutine will be further described.

【0083】まず、モードが適応処理モードであるかど
うかの判別を行う( サブステップSS600 ) 。適応処理モ
ードの場合(YES )、図18のサブステップSS602 に進
む。また、モードが適応処理モードでなかった場合(N
O)、接続子A を介して図20のサブステップSS604 に進
む。
First, it is determined whether or not the mode is the adaptive processing mode (sub-step SS600). In the case of the adaptive processing mode (YES), the process proceeds to substep SS602 in FIG. If the mode is not the adaptive processing mode (N
O), and proceed to sub-step SS604 of FIG.

【0084】次にサブステップSS602 では、斜め相関処
理を行うかどうか選択を行う。斜め相関処理を行う場合
(YES )、サブステップSS606 に進む。また、斜め相関
処理を行わない場合(NO)、接続子B を介してサブステ
ップSS608 に進む。サブステップSS608 では、相関処理
を行うかどうかの判定を行う。
Next, in sub-step SS602, a selection is made as to whether to perform diagonal correlation processing. If the oblique correlation processing is to be performed (YES), the flow proceeds to sub-step SS606. If the oblique correlation process is not performed (NO), the process proceeds to sub-step SS608 via connector B. In sub-step SS608, it is determined whether or not to perform the correlation process.

【0085】ところで、上述したサブステップSS604 で
は、適応処理モードと関係なく輝度データの算出が行わ
れる。この処理を行うにあたり撮像部30のCCD イメージ
センサが本来図21に示すように2次元配列されている。
ここで、添字は、各受光素子の画素としての位置を行列
表現で表した際の位置である。また、実在する受光素子
の画素は、実線で仮想受光素子に対応する画素は、破線
で表している。基本的に輝度データY は、画素データG
と画素データR, Bを用いて(0.5*R+0.5B)で算出できる
ことが知られている。この場合も画素データG は、その
まま輝度データとみなして扱われる(画素データG=輝度
データ)。また、画素データR, Bによる輝度データは、
実在する受光素子の位置に対応する色がG でなくR/B の
場合に、たとえば、図21の画素データR22 の位置に対す
る輝度データY22 は、画素データR22 とその周囲に位置
する画素データB の4画素、すなわち画素データB02, B
20, B24, B42を用いて
In the above-described sub-step SS604, the calculation of the luminance data is performed irrespective of the adaptive processing mode. In performing this processing, the CCD image sensors of the imaging unit 30 are originally two-dimensionally arranged as shown in FIG.
Here, the suffix is a position when the position of each light receiving element as a pixel is represented by a matrix expression. The pixels of the actual light receiving element are indicated by solid lines, and the pixels corresponding to the virtual light receiving elements are indicated by broken lines. Basically, the luminance data Y is the pixel data G
It is known that the value can be calculated by (0.5 * R + 0.5B) using pixel data R and B. Also in this case, the pixel data G is treated as it is as luminance data (pixel data G = luminance data). Also, the luminance data based on the pixel data R and B is
If the color corresponding to the actual position of the light receiving element is R / B instead of G, for example, the luminance data Y 22 corresponding to the position of the pixel data R 22 in FIG. 21 is the pixel data R 22 and the pixels located therearound. Four pixels of data B, that is, pixel data B 02 and B
20 , B 24 , B 42

【0086】[0086]

【数6】 Y22=R22/2+(B02+B20+B24+B42)/8 ・・・(6) から得られる。また、画素データB24 の位置に対応する
輝度データY24 は、画素データB24 とその周囲に位置す
る画素データR の4画素、すなわち画素データR0 4,
R22, R26, R44を用いて
[6] obtained from Y 22 = R 22/2 + (B 02 + B 20 + B 24 + B 42) / 8 ··· (6). The luminance data Y 24 corresponding to the position of the pixel data B 24 is four pixels of the pixel data R which is located around the pixel data B 24, i.e. pixel data R 0 4,
Using R 22 , R 26 , R 44

【0087】[0087]

【数7】 Y24=B24/2+(R04+R22+R26+R44)/8 ・・・(7) から得られる。周囲の画素を用いて補正する補正量はこ
れら4つの画素の総和を画素数を倍した数、すなわち 4
×2=8 で割った値を作成対象画素の半値に加算して求め
ている。これは、算出した平均値に係数0.5 を掛けてい
ることと同じである。各画素に対してこの演算を行って
輝度データY が求められている。このようにして得られ
た結果、図22に示す輝度データの市松状のパターンが得
られる。なお、このような演算は、後述するように斜め
方向、垂直方向および水平方向に相関がないときにも行
われる。
Equation 7] obtained from Y 24 = B 24/2 + (R 04 + R 22 + R 26 + R 44) / 8 ··· (7). The correction amount to be corrected using surrounding pixels is a number obtained by multiplying the sum of these four pixels by the number of pixels, ie, 4
The value obtained by dividing by × 2 = 8 is added to the half value of the pixel to be created. This is the same as multiplying the calculated average by a factor of 0.5. This calculation is performed for each pixel to obtain the luminance data Y. As a result, a checkerboard pattern of luminance data shown in FIG. 22 is obtained. Note that such calculation is also performed when there is no correlation in the oblique direction, the vertical direction, and the horizontal direction, as described later.

【0088】次にサブステップSS606 では、この斜め処
理を行う場合段階を踏んで行うかどうかの判定を行う。
斜め処理を複数の段階を踏まえて行うと判定したとき
(YES)、サブステップSS610 に進む。また、斜め処理
を複数の段階を経て行わないとするとき(NO)、サブス
テップSS612 に進む。
Next, in sub-step SS606, it is determined whether or not to perform the diagonal processing step by step.
When it is determined that the diagonal processing is performed based on a plurality of steps (YES), the flow proceeds to sub-step SS610. If the diagonal processing is not to be performed after a plurality of stages (NO), the flow proceeds to sub-step SS612.

【0089】ここで、サブステップSS610 では、比較デ
ータの算出を行う。算出に用いる画素データには、作成
対象の画素データの色と同色の画素データを用いる。比
較データARS は、たとえば、その対象の画素データがR
22 の場合、周囲の画素データR00, R44, R04, R40を用
いて、
Here, in sub-step SS610, comparison data is calculated. Pixel data having the same color as the color of the pixel data to be created is used as the pixel data used for the calculation. The comparison data ARS is, for example, the target pixel data is R
In the case of 22 , using the surrounding pixel data R 00 , R 44 , R 04 , R 40 ,

【0090】[0090]

【数8】 ARSL= |R00-R44 | ・・・(8) ARSR= |R04-R40 | ・・・(9) から得られる。添字“L ”, “R ”は、それぞれ斜め
(S )の傾斜が左斜めと右斜めにあることを示してい
る。図21の配列を反時計方向に45°回転させた場合、水
平方向と垂直方向に対応する。算出した比較データARSL
とARSRの値を用いてさらに相関値(ARSL-ARSR ), (AR
SR-ARSL )が算出される。
ARS L = | R 00 -R 44 | (8) ARS R = | R 04 -R 40 | (9) The suffixes “L” and “R” indicate that the diagonal (S) is inclined leftward and rightward, respectively. When the array of FIG. 21 is rotated 45 ° counterclockwise, it corresponds to the horizontal direction and the vertical direction. Calculated comparison data ARS L
Further correlation value using the values of ARS R (ARS L -ARS R) , (AR
S R -ARS L ) is calculated.

【0091】次にサブステップSS614 では、算出した相
関値(ARSL-ARSR )と新たに設けられた所定の判定基準
値J0よりも相関値が大きいとき(YES )、 ARSR の値が
小さいことを示し、換言すると用いた画素データの値が
似ていることを意味する。これにより、右斜め方向に相
関があると判断してサブステップSS616 に進む。また、
上述した条件が満たされないとき(相関値(ARSL-ARS
R )<J0)(NO) 、この作成対象画素に対する右斜め相
関がないとしてサブステップSS618 に進む。サブステッ
プSS616 では、この場合、輝度データY22
Next, in sub-step SS614, when the calculated correlation value (ARS L -ARS R ) is larger than the newly provided predetermined criterion value J0 (YES), the value of ARS R is smaller. This means that the values of the used pixel data are similar. Thereby, it is determined that there is a correlation in the diagonally right direction, and the flow advances to sub-step SS616. Also,
When the above condition is not satisfied (correlation value (ARS L -ARS
R ) <J0) (NO), it is determined that there is no right oblique correlation with respect to the pixel to be created, and the flow advances to substep SS618. In sub-step SS616, this case, the luminance data Y 22

【0092】[0092]

【数9】 Y22=R22/2+(R00+R44)/4 ・・・(10) から得られる。Y 22 = R 22/2 + (R 00 + R 44 ) / 4 (10)

【0093】サブステップSS618 では、算出した相関値
(ARSR-ARSL )と所定の判定基準値J0よりも相関値が大
きいとき(YES )、左斜め方向に相関があると判断して
サブステップSS620 に進む。また、上述した条件が満た
されないとき(相関値(ARSR-ARSL )<J0)(NO) 、こ
の作成対象画素に対する左斜め相関がないと判定してサ
ブステップSS622 に進む。サブステップSS620 では、こ
の場合、輝度データY22
In sub-step SS618, when the calculated correlation value (ARS R -ARS L ) is larger than the predetermined judgment reference value J0 (YES), it is determined that there is a correlation in the diagonally left direction and the sub-step SS618 is executed. Proceed to SS620. When the above condition is not satisfied (correlation value (ARS R -ARS L ) <J0) (NO), it is determined that there is no left oblique correlation with respect to the creation target pixel, and the flow advances to substep SS622. In sub-step SS620, this case, the luminance data Y 22

【0094】[0094]

【数10】 Y22=R22/2+(R04+R40)/4 ・・・(11) から得られる。サブステップSS616 とサブステップSS62
0 の輝度データ算出後は、接続子C を介して図20のサブ
ステップSS624 に進む。
Equation 10] Y 22 = R 22/2 + (R 04 + R 40) / 4 is obtained from (11). Sub-step SS616 and sub-step SS62
After calculating the luminance data of 0, the process proceeds to sub-step SS624 in FIG.

【0095】次にサブステップSS622 では、新たな比較
データの算出を行う。ここで、算出に用いる画素データ
は、作成対象画素データの色と異なっている。たとえ
ば、色G を用いて比較データを算出する。比較データAG
S は、たとえば、その対象の画素データがR22 の場合、
比較データAGS は、周囲の画素データG11, G33, G13, G
31を用いて、
Next, in sub-step SS622, new comparison data is calculated. Here, the pixel data used for the calculation is different from the color of the pixel data to be created. For example, the comparison data is calculated using the color G. Comparison data AG
S, for example, if the object pixel data of R 22,
The comparison data AGS includes the surrounding pixel data G 11 , G 33 , G 13 , G
Using 31 ,

【0096】[0096]

【数11】 AGSL= |G11-G33 | ・・・(12) AGSR= |G13-G31 | ・・・(13) から得られる。このサブステップでは算出した比較デー
タAGSLとAGSRの値を用いてさらに相関値(AGSL-AGS
R ), (AGSR-AGSL )も算出される。この処理後、接続
子D を介して図19のサブステップSS626 に進む。
AGS L = | G 11 -G 33 | (12) AGS R = | G 13 -G 31 | (13) In this sub-step, a correlation value (AGS L -AGS R) is calculated using the calculated comparison data AGS L and AGS R.
R ), (AGS R -AGS L ) are also calculated. After this processing, the flow advances to sub-step SS626 in FIG. 19 via connector D.

【0097】次にサブステップSS626 では、算出した相
関値(AGSL-AGSR )と、たとえば、新たに設けられた所
定の判定基準値J0a よりも相関値が大きいとき(YES
)、ここでもAGSRの値が小さいことから、用いた画素
データの値が似ていることを推定する。これにより、右
斜め方向に相関があると判断してサブステップSS628 に
進む。また、上述した条件が満たされないとき(相関値
(AGSL-AGSR )<J0a )(NO) 、この作成対象画素に対
する右斜め相関がないと判定してサブステップSS630 に
進む。サブステップSS628 では、この場合、輝度データ
Y22
Next, in sub-step SS626, when the calculated correlation value (AGS L -AGS R ) is larger than, for example, a newly provided predetermined judgment reference value J0a (YES)
), The value of the pixel data used is estimated to be similar because the value of AGS R is small. As a result, it is determined that there is a correlation in the diagonally right direction, and the flow advances to sub-step SS628. If the above condition is not satisfied (correlation value (AGS L -AGS R ) <J0a) (NO), it is determined that there is no right diagonal correlation with respect to this creation target pixel, and the flow proceeds to substep SS630. In sub-step SS628, in this case,
Y 22

【0098】[0098]

【数12】 Y22=R22/2+(G11+G33)/4 ・・・(14) から得られる。また、輝度データY22 は、式(10)から算
出してもよい。
Y 22 = R 22/2 + (G 11 + G 33 ) / 4 (14) The luminance data Y 22 may be calculated from equation (10).

【0099】サブステップSS630 では、算出した相関値
(AGSR-AGSL )と所定の判定基準値J0a よりも相関値が
大きいとき(YES )、左斜め方向に相関があると判断し
てサブステップSS632 に進む。また、上述した条件が満
たされないとき(相関値(AGSR-AGSL )<J0a )(NO)
、この作成対象画素に対する左斜め相関がないとして
サブステップSS608 に進む。サブステップSS632 では、
この場合、輝度データY22
In sub-step SS630, when the calculated correlation value (AGS R -AGS L ) is larger than the predetermined judgment reference value J0a (YES), it is determined that there is a correlation in the diagonally left direction, and the sub-step SS630 is executed. Proceed to SS632. When the above condition is not satisfied (correlation value (AGS R -AGS L ) <J0a) (NO)
Then, it is determined that there is no left diagonal correlation with respect to the pixel to be created, and the process proceeds to substep SS608. In sub-step SS632,
In this case, the luminance data Y 22

【0100】[0100]

【数13】 Y22=R22/2+(G13+G31)/4 ・・・(15) から得られる。また、輝度データY22 は、式(11)でもよ
い。サブステップSS628とサブステップSS632 の輝度デ
ータ算出後は、接続子C を介して図19のサブステップSS
624 に進む。
Equation 13] Y 22 = R 22/2 + (G 13 + G 31) / 4 is obtained from (15). The luminance data Y 22 is may be a formula (11). After calculating the luminance data in the sub-step SS628 and the sub-step SS632, the sub-step SS in FIG.
Continue to 624.

【0101】ところで、サブステップSS606 において簡
易的な斜め処理を選んだ場合、サブステップSS612 に進
むことはすでに述べた。このサブステップSS612 では、
比較データの算出を行う。比較データは、たとえば、適
応処理を施す対象の画素データを中心にしてその周囲の
画素データがどの方向に相関しているかの判別に用い
る。たとえば、その対象の画素データがR22 の場合、比
較データAGは、周囲の画素データG11, G13, G31, G33
用いて、
By the way, when the simple diagonal processing is selected in the sub-step SS606, the process proceeds to the sub-step SS612 as described above. In this sub-step SS612,
The comparison data is calculated. The comparison data is used, for example, to determine in which direction the pixel data around the pixel data to be subjected to the adaptive processing is correlated. For example, if the object pixel data of R 22, comparison data AG, using the surrounding pixel data G 11, G 13, G 31 , G 33,

【0102】[0102]

【数14】 AG= |G11+G33-(G13+G31) | ・・・(16) から得られる。画素データが色R の場合について説明し
ているが、色B の場合も周囲の画素データG から算出す
る。この算出により、左右のいずれか一方に傾きを有す
る大きい方の値が比較データAGとして得られることにな
る。この演算の後、サブステップSS634 に進む。
AG = | G 11 + G 33- (G 13 + G 31 ) | (16) Although the case where the pixel data is color R is described, the case of color B is also calculated from the surrounding pixel data G. By this calculation, the larger value having a slope on one of the left and right sides is obtained as the comparison data AG. After this calculation, the flow advances to sub-step SS634.

【0103】サブステップSS634 では、対象の画素デー
タを挟んで斜めに位置する画素データに相関(すなわ
ち、斜め相関)があるかどうか判定を行う。この判定に
は、判定基準値として新たにJ1が設定されている。比較
データAGが判定基準値J1以上に大きいとき(YES )、サ
ブステップSS636 に進む。また、比較データAGが判定基
準値J1よりも小さいとき(NO)、接続子B を介して図19
のサブステップSS608 に進む。
In sub-step SS634, it is determined whether or not there is a correlation (that is, a diagonal correlation) between pixel data positioned diagonally across the target pixel data. In this determination, J1 is newly set as a determination reference value. When the comparison data AG is larger than the criterion value J1 (YES), the process proceeds to sub-step SS636. When the comparison data AG is smaller than the criterion value J1 (NO), the comparison data AG shown in FIG.
To sub-step SS608.

【0104】サブステップSS636 では、比較データAGの
算出に用いた4つの画素データG を平均して輝度データ
Y を算出する。作成対象の画素に対して複数の段階や簡
易的な斜め方向に配された画素が相関しているかという
判定により、いくつかのパターンが、たとえば、画素デ
ータR=R22 に対して判別されることになる。ところで、
一般的に、斜めの線の境界には偽色が発生してしまう虞
れがある。しかしながら、境界近傍に位置する画素デー
タR における輝度データY が、上述した演算により算出
されると、画像全体として見た際に色境界での偽色の発
生を良好に抑圧することができる。具体的な説明を省略
するが画素データB=B24 に対してもサブステップSS614
〜SS620 、SS626 〜SS632 およびSS634 からSS636 と同
様に比較データを算出し斜め相関の有無に基づいた適応
的な輝度データY を作成することができる。
In sub-step SS636, the four pixel data G used for calculating the comparison data AG are averaged to obtain the luminance data
Calculate Y. The determination of whether pixels arranged in a plurality of stages and simple oblique direction with respect to the pixels of the creation target are correlated, several patterns, for example, is determined for the pixel data R = R 22 Will be. by the way,
In general, a false color may be generated at the boundary of the oblique line. However, when the luminance data Y in the pixel data R located near the boundary is calculated by the above-described calculation, it is possible to satisfactorily suppress the occurrence of a false color at the color boundary when the entire image is viewed. Substeps even for the pixel omitted specific explanation data B = B 24 SS614
620SS620, SS626 SS632, and SS634, the comparison data is calculated in the same manner as SS636, and adaptive luminance data Y based on the presence or absence of the oblique correlation can be created.

【0105】サブステップSS636 の処理の後、接続子C
を介して図20のサブステップSS624に進む。これによ
り、一連の斜め処理が終了する。サブステップSS634 で
斜め処理を行わない場合(NO)、接続子B を介してサブ
ステップSS608 に進む。このサブステップ以降に行われ
る処理は、作成対象画素に対する水平・垂直方向の相関
の有無に応じたデータ処理である。サブステップSS608
では相関処理をするかどうかの判定を行う。相関処理を
受光素子(または色フィルタ)の広い範囲に関して他の
方向、すなわち水平・垂直方向の相関を行う場合の判定
である。この判定を行うとき(YES )、サブステップSS
638 に進む。この判定をしないとき(NO)、接続子A を
介して図20のサブステップSS604 に進む。
After the processing in sub-step SS636, connector C
Through sub-step SS624 in FIG. Thus, a series of diagonal processing ends. If diagonal processing is not performed in sub-step SS634 (NO), the flow advances to sub-step SS608 via connector B. The processing performed after this sub-step is data processing in accordance with the presence / absence of a horizontal / vertical correlation with the creation target pixel. Sub-step SS608
Then, it is determined whether or not to perform the correlation processing. This is a determination in the case where correlation processing is performed in other directions, that is, horizontal and vertical directions, for a wide range of the light receiving element (or color filter). When making this determination (YES), the sub-step SS
Continue to 638. If this determination is not made (NO), the flow advances to sub-step SS604 in FIG.

【0106】サブステップSS638 では、比較データを算
出する。ここでも画素データR=R22に対する一例を挙げ
て説明する。この処理では画素データR=R22 に対する垂
直方向の比較データABRVと水平方向の比較データABRH
周囲に配置されているもう一方の色の画素データ、すな
わち画素データB を用いて式(17)、式(18)
In sub-step SS638, comparison data is calculated. Again By way of example for the pixel data R = R 22. In this processing, the vertical direction comparison data ABR V and the horizontal direction comparison data ABR H for the pixel data R = R 22 are obtained by using the pixel data B of the other color arranged around, that is, the pixel data B, by using the equation (17). ), Equation (18)

【0107】[0107]

【数15】 ABRV= |B02-B42 | ・・・(17) ABRH= |B20-B24 | ・・・(18) により算出する。算出した比較データABRV, ABRHの値を
用いてさらに相関値(ABRH-ABRV ), (ABRV-ABRH )が
算出された際に、新たに設けられた所定の判定基準値J2
に対する各方向の相関値の大きさを比較して相関の有無
を判定する手順を説明する。
ABR V = | B 02 -B 42 | (17) ABR H = | B 20 -B 24 | (18) When the correlation values (ABR H -ABR V ) and (ABR V -ABR H ) are further calculated using the calculated comparison data ABR V and ABR H , a newly provided predetermined judgment reference value J2
A procedure for comparing the magnitude of the correlation value in each direction with respect to and determining the presence or absence of a correlation will be described.

【0108】サブステップSS640 では、対象の画素デー
タを挟んで垂直に位置する画素データに相関(すなわ
ち、垂直相関)があるかどうか判定を行う。この判定に
は、判定基準値としてJ2a が設定されている。比較デー
タABRHと比較データABRVの差が判定基準値J2a 以上に大
きいとき(YES )、垂直相関があると判定してサブステ
ップSS642 に進む。また、比較データの差(ABRH-ABRV)
が判定基準値J2a よりも小さいとき(NO)、垂直相関が
ないものとみなしサブステップSS644 に進む。
In sub-step SS640, it is determined whether or not there is a correlation (that is, a vertical correlation) between pixel data positioned vertically across the target pixel data. In this judgment, J2a is set as a judgment reference value. When the difference between the comparison data ABR H and the comparison data ABR V is larger than the determination reference value J2a (YES), it is determined that there is a vertical correlation, and the flow advances to substep SS642. Also, the difference of the comparison data (ABR H -ABR V )
Is smaller than the determination reference value J2a (NO), it is considered that there is no vertical correlation, and the flow advances to sub-step SS644.

【0109】サブステップSS642 では、相関のあるとい
うことは画素データ同士の値が近いことを意味するか
ら、画素データB02, B42を用いて輝度データY を算出す
る。この場合、輝度データY22 は、
[0109] In sub-step SS642, it means that the value between the pixel data is short that there is a correlation, to calculate the luminance data Y with the pixel data B 02, B 42. In this case, the luminance data Y 22 is

【0110】[0110]

【数16】 Y22=R22/2+(B02+B42)/4 ・・・(19) により得られる。この後、この画素データにおける輝度
データY の算出を終了したものとみなして接続子C を介
して図20のサブステップSS624 に進む。
Equation 16] Y 22 = R 22/2 + (B 02 + B 42) / 4 obtained by ... (19). Thereafter, it is considered that the calculation of the luminance data Y in the pixel data has been completed, and the process proceeds to the sub-step SS624 in FIG.

【0111】次にサブステップSS644 では、対象の画素
データを挟んで水平に位置する画素データに相関(すな
わち、水平相関)があるかどうか判定を行う。この判定
には、判定基準値として前述したJ2b を用いる。比較デ
ータABRVと比較データABRHの差が判定基準値J2b 以上に
大きいとき(YES )、水平相関があると判定してサブス
テップSS646 に進む。また、比較データの差(ABRV-AB
RH) が判定基準値J2b よりも小さいとき(NO)、水平相
関がないと判定し、サブステップSS648 に進む。
Next, in sub-step SS644, it is determined whether or not there is a correlation (that is, a horizontal correlation) between pixel data positioned horizontally across the target pixel data. For this determination, J2b described above is used as a determination reference value. When the difference between the comparison data ABR V and the comparison data ABR H is larger than the determination reference value J2b (YES), it is determined that there is a horizontal correlation, and the flow advances to substep SS646. In addition, the difference (ABR V -AB
If R H ) is smaller than the determination reference value J2b (NO), it is determined that there is no horizontal correlation, and the flow advances to substep SS648.

【0112】サブステップSS646 では、相関のあるとし
て画素データB20, B24を用いて輝度データY を算出す
る。この場合、輝度データY22 は、
In sub-step SS646, luminance data Y is calculated using pixel data B 20 and B 24 assuming that there is a correlation. In this case, the luminance data Y 22 is

【0113】[0113]

【数17】 Y22=R22/2+(B20+B24)/4 ・・・(20) により得られる。この後、この画素データにおける輝度
データY の算出を終了したものとみなして接続子C を介
してサブステップSS624 に進む。
Y 22 = R 22/2 + (B 20 + B 24 ) / 4 (20) Thereafter, it is considered that the calculation of the luminance data Y in the pixel data has been completed, and the process proceeds to the sub-step SS624 via the connector C.

【0114】次にサブステップSS648 では、たとえば、
作成対象画素である色R の画素に対する周囲の色B の画
素の相関判定を行うかどうかを選択する。色R の画素が
周囲の色B の画素の中央位置に配されているので、サブ
ステップSS640, SS644における画素間の距離が短い。す
なわち、たとえば、垂直方向において、画素R22 - 画素
B02 、画素R22 - 画素B42 は、画素B02-画素B42 の半分
の距離である。この関係は、作成対象画素と水平方向に
位置する画素においても言える。したがって、前述した
水平・垂直方向の相関判定に比べてより受光素子(また
は色フィルタ)の狭い範囲に対する相関の有無判定が以
後の処理で行われることが判る。この相関判定を行う場
合(YES )、サブステップSS650 に進む。また、この相
関判定を行わない場合(NO)、接続子A を介してサブス
テップSS604 に進む。この場合、先の判定基準値J2と異
なる判定基準値J2a, J2bのいずれの基準を満たさなかっ
たものと判定される。なお、以後の処理を行わない処理
手順にしてもよい。
Next, in sub-step SS648, for example,
Selects whether or not to perform a correlation judgment of surrounding pixels of color B with pixels of color R, which is a pixel to be created. Since the pixel of the color R is disposed at the center position of the surrounding pixels of the color B, the distance between the pixels in the sub-steps SS640 and SS644 is short. That is, for example, in the vertical direction, the pixel R 22 -pixel
B 02 , pixel R 22 -pixel B 42 are half the distance of pixel B 02 -pixel B 42 . This relationship can be applied to a pixel located in the horizontal direction with respect to the creation target pixel. Therefore, it can be seen that the determination of the presence or absence of the correlation for a narrower range of the light receiving element (or the color filter) is performed in the subsequent processing as compared with the above-described horizontal / vertical direction correlation determination. If this correlation is to be determined (YES), the flow proceeds to sub-step SS650. If this correlation determination is not made (NO), the flow advances to substep SS604 via connector A. In this case, it is determined that one of the criterion values J2a and J2b different from the criterion value J2 is not satisfied. Note that a processing procedure that does not perform the subsequent processing may be used.

【0115】サブステップSS650 では、再び比較データ
を算出する。この場合の比較データは、対象の画素デー
タと周囲の画素データの各相関を求め、得られた各相関
値を加算することにより垂直方向および水平方向に対す
る算出がされる。前述の場合と同様に画素データR22
対する輝度データY の算出は、垂直方向の比較データAC
RVと水平方向の比較データACRHを周囲に配置されている
もう一方の色の画素データ、すなわち画素データG を用
いて、式(21)、式(22)
In sub-step SS650, comparison data is calculated again. In this case, the comparison data is calculated in the vertical direction and the horizontal direction by calculating each correlation between the target pixel data and the surrounding pixel data and adding the obtained correlation values. Calculation of the luminance data Y for the case as well as the pixel data R 22 described above, the vertical direction of the comparison data AC
Using the pixel data of the other color arranged around R V and the comparison data ACR H in the horizontal direction, that is, pixel data G, Equations (21) and (22)

【0116】[0116]

【数18】 ACRV= |G11-G31 |+ |G13-G33 | ・・・(21) ACRH= |G11-G13 |+ |G31-G33 | ・・・(22) により算出する。この処理の後、サブステップSS612 に
進む。この比較データを用いることにより、より一層画
素データの距離を作成対象の画素データと近づけて相関
値が求められることになるので、先のサブステップSS64
0 〜SS646 の手順での相関判定の範囲よりも狭い範囲に
関して相関の有無を調べることができる。この算出後、
サブステップSS652 に進む。
Equation 18] ACR V = | G 11 -G 31 | + | G 13 -G 33 | ··· (21) ACR H = | G 11 -G 13 | + | G 31 -G 33 | ··· ( Calculated by 22). After this processing, the flow advances to substep SS612. By using this comparison data, the correlation value can be obtained by making the distance of the pixel data even closer to the pixel data to be created.
The presence or absence of a correlation can be checked in a range narrower than the range of the correlation determination in the procedure from 0 to SS646. After this calculation,
Proceed to sub-step SS652.

【0117】サブステップSS652 では、対象の画素デー
タを挟んで垂直に位置する画素データに相関(すなわ
ち、垂直相関)があるかどうか判定を行う。この判定に
は、判定基準値としてJ3が設定されている(ここで、判
定基準値J3は、水平と垂直用にJ3a, J3bと分けてもよ
い)。比較データACRHと比較データACRVの差が判定基準
値J3以上に大きいとき(YES )、垂直相関があると判定
してサブステップSS654 に進む。また、比較データの差
(ACRH-ACRV) が判定基準値J3よりも小さいとき(NO)、
垂直相関がないと判定してサブステップSS656 に進む。
In sub-step SS652, it is determined whether or not there is a correlation (ie, vertical correlation) between pixel data positioned vertically across the target pixel data. In this determination, J3 is set as a determination reference value (here, the determination reference value J3 may be divided into J3a and J3b for horizontal and vertical use). When the difference between the comparison data ACR H and the comparison data ACR V is larger than the determination reference value J3 (YES), it is determined that there is a vertical correlation, and the flow advances to substep SS654. In addition, the difference
When (ACR H -ACR V ) is smaller than the judgment reference value J3 (NO),
It is determined that there is no vertical correlation, and the flow advances to substep SS656.

【0118】サブステップSS654 では、前述したサブス
テップSS642 での処理と同じ処理を行う。したがって、
演算には式(19)が用いられる。また、サブステップSS65
6 では、対象の画素データを挟んで水平に位置する画素
データに相関(すなわち、水平相関)があるかどうかの
判定を行う。この判定にも判定基準値J3が用いられる。
In sub-step SS654, the same processing as the above-described processing in sub-step SS642 is performed. Therefore,
Equation (19) is used for the calculation. Also, sub-step SS65
In step 6, it is determined whether or not there is a correlation (that is, a horizontal correlation) between pixel data positioned horizontally across the target pixel data. The determination reference value J3 is also used for this determination.

【0119】サブステップSS656 において、比較データ
の差(ACRV-ACRH) が判定基準値J3以上のとき(YES )、
水平相関があると判定してサブステップSS658 に進む。
この場合、サブステップSS658 での輝度データY は、サ
ブステップSS646 で前述したように画素データを用い、
式(20)に基づいて算出される。この後、サブステップSS
624 に進む。また、サブステップSS656 で比較データの
差(ACRV-ACRH) が判定基準値J3より小さいとき(NO)、
水平相関がないと判定して接続子A を介して図20のサブ
ステップSS604 に進む。サブステップSS604 では、式
(6) により対象の画素データと周囲のもう一方の色の画
素データ(この場合、画素データB )を加算平均し0.5
の係数を乗算して輝度データY を算出している。この算
出後、サブステップSS624 に進む。
In the sub-step SS656, when the difference (ACR V -ACR H ) of the comparison data is equal to or larger than the judgment reference value J3 (YES),
It is determined that there is a horizontal correlation, and the flow advances to substep SS658.
In this case, the luminance data Y in sub-step SS658 uses pixel data as described above in sub-step SS646,
It is calculated based on equation (20). After this, sub-step SS
Continue to 624. When the difference (ACR V -ACR H ) of the comparison data is smaller than the judgment reference value J3 in sub-step SS656 (NO),
It is determined that there is no horizontal correlation, and the flow advances to sub-step SS604 in FIG. In sub-step SS604, the expression
According to (6), the target pixel data and the surrounding pixel data of the other color (in this case, pixel data B) are added and averaged to obtain 0.5.
To calculate the luminance data Y. After this calculation, the flow advances to sub-step SS624.

【0120】サブステップSS624 では、市松状の輝度デ
ータのデータ作成が1フレーム分、完了したかどうかの
判定を行っている。この判定は、たとえば、算出した輝
度データY の個数をカウントし、このカウント値と受光
素子の数とが一致するかどうかで容易に行うことができ
る。カウント値が受光素子の数より小さい値のとき(N
O)、まだ処理が完了していないと判定する。この結
果、輝度データY の算出処理を接続子E を介して図18の
サブステップSS600 にまで戻して、これまでの一連の処
理を繰り返す。また、カウント値が受光素子の数に一致
したとき(YES )、処理をリターンに移行させる。この
リターンを経て処理をサブルーチンSUB7に移行させる。
このようにして輝度データY を算出することにより、図
22のように市松状の受光素子が実在する位置にデータが
作成される。
In sub-step SS624, it is determined whether the creation of the checkered luminance data has been completed for one frame. This determination can be easily made, for example, by counting the number of calculated luminance data Y and determining whether or not the counted value matches the number of light receiving elements. When the count value is smaller than the number of light receiving elements (N
O), it is determined that the processing has not been completed yet. As a result, the process of calculating the luminance data Y is returned to the sub-step SS600 of FIG. 18 via the connector E, and a series of processes up to this point are repeated. When the count value matches the number of light receiving elements (YES), the process shifts to return. After this return, the process is shifted to the subroutine SUB7.
By calculating the luminance data Y in this way,
Data is created at a position where a checkered light-receiving element actually exists as shown in FIG.

【0121】ところで、斜め方向に色境界を含む画像
は、色境界の方向を相関の方向から推定することができ
る。ただし、輝度データの算出対象の画素R(たとえば、
R22)に対して周囲の画素データB02, B20, B24, B42から
算出する場合、水平方向または垂直方向の相関を特定す
ることはできない。
By the way, in an image including a color boundary in an oblique direction, the direction of the color boundary can be estimated from the direction of correlation. However, the pixel R for which the luminance data is calculated (for example,
R 22 ) cannot be specified in the horizontal or vertical direction when calculating from the surrounding pixel data B 02 , B 20 , B 24 , and B 42 .

【0122】次にサブルーチンSUB7の動作を説明する
(図23を参照)。サブルーチンSUB7の動作は、前述した
ように輝度データ補間機能部362Bのディジタルフィルタ
の構成に基づいて行われる。サブステップSS70では、こ
のディジタルフィルタの特徴であるローパスフィルタ処
理を施すとともに、仮想受光素子の位置における画素デ
ータを生成してデータ補間を行う。この関係が簡単に図
4に示す。図4でも実在する受光素子に対応する画素d
(-3), d(-1), d(1), d(3)は実線で示し、仮想受光素子
に対応する画素は破線で示し、実在する4つの受光素子
(既存の画素)の間に配した関係になっている。仮想受
光素子に対応する画素dn(-4), dn(-2), dn(0), dn(2),
dn(4) には、実在する受光素子との対応を考慮すると、
何もデータが入っていない状態と同じ関係として扱う。
すなわち、これらの画素には、ゼロが予め設定されてい
る。たとえば、図4(a) に示すように画素dn(0) を水平
方向に補間するとき、ディジタルフィルタのタップ係数
をk0, k1, k2, k3, k4,・・・,knとして整理すると、高域
成分を含む輝度データYh(0) が式(23)
Next, the operation of the subroutine SUB7 will be described (see FIG. 23). The operation of the subroutine SUB7 is performed based on the configuration of the digital filter of the luminance data interpolation function unit 362B as described above. In sub-step SS70, low-pass filter processing, which is a characteristic of the digital filter, is performed, and pixel data at the position of the virtual light receiving element is generated to perform data interpolation. This relationship is briefly shown in FIG. Also in FIG. 4, the pixel d corresponding to the existing light receiving element
(-3) , d (-1) , d (1) , d (3) are indicated by solid lines, pixels corresponding to the virtual light receiving elements are indicated by broken lines, and between four existing light receiving elements (existing pixels) The relationship is arranged. The pixels dn (-4) , dn (-2) , dn (0) , dn (2) ,
The d n (4), considering the correspondence between real light-
Treat as the same relationship as the state without any data.
That is, zero is set in advance for these pixels. For example, when the pixel dn (0) is horizontally interpolated as shown in FIG. 4A, the tap coefficients of the digital filter are k 0 , k 1 , k 2 , k 3 , k 4 ,. kn, the luminance data Yh (0) including the high-frequency component is expressed by equation (23).

【0123】[0123]

【数19】 Yh(0)=k0*dn(0)+k1*(d(1)+ d(-1))+k2*(dn(-2)+dn(2)+k3*(d(-3)+d(3)) +k4*(dn(-4)+dn(4))+・・・kn*(dn(-n)+dn(n)) ・・・(23) で表されるように得られる。ただし、この場合、図4
(a) から明らかなように、ゼロのデータが交互に入るの
で、係数は2倍になる。この関係は、図4(a) における
この他の補間対象の画素dn(-4), dn(-2), dn(2), dn(4)
に対しても当てはめる。これらの補間処理が施されるこ
とにより、高域成分を含む輝度データYh(-4), Yh(-2),
Yh(2), Yh(4)が得られる(図4(b) を参照)。
Equation 19] Y h (0) = k 0 * d n (0) + k 1 * (d (1) + d (-1)) + k 2 * (d n (-2) + d n (2 ) + k 3 * (d ( -3) + d (3)) + k 4 * (d n (-4) + d n (4)) + ··· k n * (d n (-n) + d n (n) )... (23) However, in this case, FIG.
As can be seen from (a), the coefficient is doubled because zero data is entered alternately. This relationship is based on the other pixels dn (-4) , dn (-2) , dn (2) , dn (4) to be interpolated in FIG.
Also apply to By performing these interpolation processes, the luminance data Yh (-4) , Yh (-2) ,
Yh (2) and Yh (4) are obtained (see FIG. 4 (b)).

【0124】また、垂直方向に対してもローパスフィル
タ処理を輝度データ補間機能部362Bに配したディジタル
フィルタにより行う。この場合、既に水平方向の補間処
理によって仮想受光素子に対応する画素のデータが補間
されているので、画素データは密に入っている。したが
って、ローパスフィルタの係数は通常と同じにして済ま
せることができる。このようにして得られた高域成分を
含む輝度データを図21に示したように行列表現で表す
と、図24に示すように高域成分を含む輝度データYhが作
成される。高域成分を含む輝度データYhは、以下の記載
において高域輝度データと呼ぶ。
In the vertical direction, low-pass filtering is performed by a digital filter provided in the luminance data interpolation function unit 362B. In this case, the pixel data corresponding to the virtual light receiving element has already been interpolated by the horizontal interpolation process, so that the pixel data is dense. Therefore, the coefficients of the low-pass filter can be made the same as usual. Expressing luminance data including high-frequency components obtained in this way in matrix representation as shown in FIG. 21, the luminance data Y h including high-frequency component as shown in FIG. 24 is generated. Luminance data Y h including high-frequency component is referred to as the high-frequency luminance data in the following description.

【0125】次にサブルーチンSUB8の動作について説明
する。サブルーチンSUB8は、図3に示すように高解像度
プレーン補間機能部364Bで行われる。高解像度プレーン
補間機能部364Bには、サブルーチンSUB7で作成された高
域輝度データYhとこの高域輝度データYhに対応した補間
対象の色の画素データがそれぞれの演算処理部に供給さ
れる。高域輝度データYhは、図5から明らかなようにR
補間展開部3640B , G補間展開部3642B,およびB 補間展
開部3644B に共通して供給されている。これらの供給さ
れる画素データを用いて色毎にそれぞれの仮想受光素子
の画素における画素データを図25に示すフローチャート
に従って補間する。この場合、画素データG の補間処理
をサブステップSS800 で最初に行う。このとき、図26に
示すように単板画素ずらし型G 正方RB完全市松のパター
ンを用いていることから、既存の画素データG を有する
画素は、実線の正方格子で表す。また、画素データG を
持たない画素、すなわち、仮想受光素子の対応する画素
および既存の画素データを有していながら、色G と異な
る色の画素は、破線の正方格子で表す。この画素データ
G を持たない画素を仮想画素と呼ぶ。補間処理には、4
つずつ既存の画素データを用いる。
Next, the operation of the subroutine SUB8 will be described. The subroutine SUB8 is performed by the high resolution plane interpolation function unit 364B as shown in FIG. The high-resolution plane interpolation function unit 364B, a high frequency luminance data Y h Toko of high-frequency luminance data Y color interpolated corresponding to h of the pixel data generated by the subroutine SUB7 is supplied to each of the arithmetic processor . High frequency luminance data Y h, as is clear from FIG. 5 R
It is supplied in common to the interpolation / expansion unit 3640B, the G interpolation / expansion unit 3642B, and the B interpolation / expansion unit 3644B. Using the supplied pixel data, the pixel data of the pixel of each virtual light receiving element is interpolated for each color according to the flowchart shown in FIG. In this case, the interpolation processing of the pixel data G is first performed in sub-step SS800. At this time, as shown in FIG. 26, since a single-plate pixel shift type G square RB perfect checkerboard pattern is used, pixels having existing pixel data G are represented by a solid square grid. Further, a pixel having no pixel data G, that is, a pixel having a color different from the color G while having a corresponding pixel of the virtual light receiving element and existing pixel data is represented by a square grid indicated by a broken line. This pixel data
Pixels without G are called virtual pixels. 4 for interpolation
Existing pixel data is used one by one.

【0126】この関係を具体的に図26に示す。図26のパ
ターンが示すように、仮想画素G12,G14, G16, G21〜 G
26の一行, G32, G34, G36 を補間する場合、補間処理は
隣接する4つずつの画素データG11, G13, G31, G33や画
素データG13, G15, G33, G35等を用いる。また、補間に
用いる画素データG に対応する図24の高域輝度データも
用いて演算する。たとえば、補間対象である仮想画素の
画素データG21 の補間は、同一の列方向の2つの画素に
対応する既存データおよび高域輝度データならびに補間
対象位置の高域輝度データを用いて、式(24)
FIG. 26 shows this relationship specifically. As the pattern of FIG. 26, the virtual pixel G 12, G 14, G 16 , G 21 ~ G
In the case of interpolating one line of 26 , G 32 , G 34 , G 36 , the interpolation processing is performed by four adjacent pixel data G 11 , G 13 , G 31 , G 33 and pixel data G 13 , G 15 , G 33 , G 35 etc. are used. The calculation is also performed using the high-frequency luminance data of FIG. 24 corresponding to the pixel data G used for the interpolation. For example, interpolated pixel data G 21 virtual pixel is interpolated using the high-frequency luminance data of existing data and high-luminance data and the position to be interpolated corresponding to two pixels of the same column, the formula ( twenty four)

【0127】[0127]

【数20】 G21=(G11+G31)/2-(Yh11+Yh31)/2+Yh21 ・・・(24) から得られる。式(24)の計算式を用いると、仮想画素G
23 を補間することができる。また、仮想画素G12 の補
間は、同一の行方向の2つの画素に対応する既存データ
および高域輝度データならびに補間対象位置の高域輝度
データを用いて、式(25)
G 21 = (G 11 + G 31 ) / 2− (Y h11 + Y h31 ) / 2 + Y h21 (24) Using the calculation formula of Expression (24), the virtual pixel G
23 can be interpolated. Also, the interpolation of the virtual pixel G 12, using the high-frequency luminance data of existing data and high-luminance data and the position to be interpolated corresponding to two pixels of the same row, the formula (25)

【0128】[0128]

【数21】 G12=(G11+G13)/2-(Yh11+Yh13)/2+Yh12 ・・・(25) から得られる。式(25)の計算式を用いると、仮想画素G
32 を補間することができる。そして、4つずつの画素
データG11, G13, G31, G33の中心に位置する画素データ
G22 は、これら4つの位置の画素データおよび高域輝度
データを用いて、式(26)
G 12 = (G 11 + G 13 ) / 2− (Y h11 + Y h13 ) / 2 + Y h12 (25) Using the equation of Equation (25), the virtual pixel G
32 can be interpolated. The pixel data located at the center of each of the four pixel data G 11 , G 13 , G 31 , G 33
G 22, using the pixel data and the high luminance data of these four positions, the formula (26)

【0129】[0129]

【数22】 G22=(G11+G13+G31+G33)/4-(Yh11+Yh13+Yh31+Yh33)/4+Yh22 ・・・(26) から得られる。式(26)の計算式を用いると、仮想画素G
23 を補間することができる。画素データG13, G15,
G33, G35を4つを一組のデータとみなして補間する場
合、すでに画素データG23 は算出されているので、残る
画素データG14, G34, G25 を算出すればよい。この処理
を繰り返し行うことにより、画素データG のプレーン画
像を作成する。ただし、プレーン画像の最外縁は、この
ような関係にならないので、厳密に補間を行う場合、境
界値として設定しておくとよい。また、有効画面を考慮
すると、この周辺部のデータは有効画面の範囲外にある
ので算出しなくても構わない。
Obtained from Equation 22] G 22 = (G 11 + G 13 + G 31 + G 33) / 4- (Y h11 + Y h13 + Y h31 + Y h33) / 4 + Y h22 ··· (26) . Using the equation of Equation (26), the virtual pixel G
23 can be interpolated. Pixel data G 13 , G 15 ,
G 33, when the G 35 the four regarded as a set of data interpolation, already because the pixel data G 23 is calculated, may be calculated pixel data G 14, G 34, G 25 remaining. By repeating this process, a plane image of the pixel data G is created. However, since the outermost edge of the plane image does not have such a relationship, it is preferable to set a boundary value when performing strict interpolation. In consideration of the effective screen, the data in the peripheral portion is out of the range of the effective screen, and thus need not be calculated.

【0130】次に画素データR の算出をサブステップSS
802 で行う。この場合も既存データおよび演算によって
算出された画素データに対応する画素は、実線の正方格
子で表し、仮想画素は破線の正方格子で表す。画素デー
タR における既存の画素データは、図27に示すようにR
00, R04, R22, R26, R40, R44しかない。この場合、サ
ブステップSS802 では、補間対象の仮想画素に対して斜
めに隣接している画素データとこの位置に対応する図24
の高域輝度データを用いる。たとえば、画素データR11
は、画素データR00, R22ならびに高域輝度データYh00,
Yh22およびYh11を用いて、
Next, the calculation of the pixel data R is performed in the sub-step SS.
802. Also in this case, the pixels corresponding to the existing data and the pixel data calculated by the calculation are represented by a solid square grid, and the virtual pixels are represented by a broken square grid. The existing pixel data in the pixel data R is represented by R as shown in FIG.
00, R 04, R 22, R 26, R 40, R 44 only. In this case, in the sub-step SS802, pixel data obliquely adjacent to the virtual pixel to be interpolated and the pixel data corresponding to this position shown in FIG.
Is used. For example, pixel data R 11
Are the pixel data R 00 , R 22 and the high-frequency luminance data Y h00 ,
Using Y h22 and Y h11 ,

【0131】[0131]

【数23】 R11=(R00+R22)/2-(Yh00+Yh22)/2+Yh11 ・・・(27) によって算出される。同様に、仮想画素R13, R31, R33
は、式(37)と同じ関係にあるそれぞれ画素データR04, R
22、画素データR40, R22および画素データR44 ,R22
適用して算出する。既存の画素データR26 も考慮して算
出すると、隣接斜め補間処理により仮想画素R15, R35
作成することができる。この結果が図28に示されてい
る。
R 11 = (R 00 + R 22 ) / 2− (Y h00 + Y h22 ) / 2 + Y h11 (27) Similarly, virtual pixels R 13 , R 31 , R 33
Are the pixel data R 04 , R
22 , the pixel data R 40 , R 22 and the pixel data R 44 , R 22 are used to calculate. If an existing pixel data R 26 is also calculated in consideration, it is possible to also create the virtual pixel R 15, R 35 by the adjacent diagonal interpolation process. The result is shown in FIG.

【0132】次にサブステップSS804 では、一つ前のサ
ブステップSS802 で算出された画素によって囲まれた画
素を補間対象の画素とし、補間に際して算出されたこれ
ら4つの画素データおよびその位置の高域輝度データを
用いて補間処理を行う。たとえば、画素データR24 を中
心に図28から判るように、その周囲の画素データR13,R
15, R33, R35の位置のデータを用いて、式(28)
Next, in sub-step SS804, a pixel surrounded by the pixel calculated in the immediately preceding sub-step SS802 is set as a pixel to be interpolated, and the four pixel data calculated at the time of interpolation and the high frequency of that position are calculated. An interpolation process is performed using the luminance data. For example, as can be seen from FIG. 28 centering on the pixel data R 24 , the surrounding pixel data R 13 , R
15, using the data of the position of R 33, R 35, formula (28)

【0133】[0133]

【数24】 R24=(R13+R15+R33+R35)/4-(Yh13+Yh15+Yh33+Yh35)/4+Yh24 ・・・(28) によって算出される。式(28)に用いる画素データと同等
の配置関係が周辺の画素から得られるとき、この補間を
施すことによって、図29に示すように画素データR02, R
20, R42 が得られる。換言すると、補間対象の画素から
見れば、補間に使用する画素データはすべて斜めに位置
している。
Equation 24] R 24 = (R 13 + R 15 + R 33 + R 35) / 4- (Y h13 + Y h15 + Y h33 + Y h35) / 4 + Y h24 calculated by ... (28) You. When an arrangement relationship equivalent to the pixel data used in Expression (28) is obtained from peripheral pixels, by performing this interpolation, the pixel data R 02 , R
20 and R 42 are obtained. In other words, from the viewpoint of the pixel to be interpolated, all the pixel data used for the interpolation are positioned obliquely.

【0134】次にサブステップSS806 では、これまでに
得られた画素データを用いるとともに、これらの画素の
内、補間対象の画素に対して上下左右に位置する画素デ
ータから補間を行う。たとえば、画素データR12 を中心
に上下左右の4つの画素データおよびその位置の高域輝
度データを用いて、式(29)
Next, in sub-step SS806, the pixel data obtained so far is used, and among these pixels, interpolation is performed from the pixel data located at the top, bottom, left and right with respect to the interpolation target pixel. For example, using a high-frequency luminance data of four pixel data and its vertical and horizontal positions around the pixel data R 12, (29)

【0135】[0135]

【数25】 R12=(R02+R11+R13+R22)/4-(Yh02+Yh11+Yh13+Yh22)/4+Yh12 ・・・(29) によって算出される。同様の位置関係にある、たとえ
ば、画素データR14, R32,R34 は、式(28)に用いた画素
データの位置関係に対応するデータを代入すると算出で
きる。さらに、図29の右側に画素が継続していると、画
素データR16, R36も算出することができる。
Equation 25] R 12 = (R 02 + R 11 + R 13 + R 22) / 4- (Y h02 + Y h11 + Y h13 + Y h22) / 4 + Y h12 calculated by ... (29) You. For example, pixel data R 14 , R 32 , and R 34 having a similar positional relationship can be calculated by substituting data corresponding to the positional relationship of the pixel data used in Expression (28). Furthermore, if pixels continue on the right side of FIG. 29, pixel data R 16 and R 36 can also be calculated.

【0136】なお、図30に示すように周辺部には未補間
の仮想画素が残ってしまうので、この仮想画素に対して
周囲を囲む、たとえば3つの画素から補間するようにし
てもよい。この補間の場合も前述した補間の手法を用い
ると、仮想画素の画素データR01 は、
Since uninterpolated virtual pixels remain in the peripheral portion as shown in FIG. 30, the virtual pixels may be interpolated from, for example, three pixels surrounding the virtual pixels. In the case of this interpolation as well, if the above-described interpolation method is used, the pixel data R 01 of the virtual pixel becomes

【0137】[0137]

【数26】 R01=(R00+R02+R11)/3-(Yh00+Yh02+Yh11)/3+Yh01 ・・・(30) によって算出される。このようにしてこの他、画素デー
タR03, R05, R10, R30,R41, R43, R45 が補間される。
最終的に画素データR に関するプレーン画面全体が補間
される。
Equation 26] R 01 = (R 00 + R 02 + R 11) / calculated by 3- (Y h00 + Y h02 + Y h11) / 3 + Y h01 ··· (30). In this way, the pixel data R 03 , R 05 , R 10 , R 30 , R 41 , R 43 , and R 45 are interpolated.
Finally, the entire plane screen for the pixel data R is interpolated.

【0138】次に画素データB に対する補間処理がサブ
ステップSS808, SS810, SS812 で行われる。サブステッ
プSS808, SS810, SS812 は、それぞれ、画素データB に
おける隣接斜め補間処理、4つの補間データによる中央
補間処理および上下左右の4画素による中央補間処理で
ある。これらの補間処理は、前述した画素データR の補
間処理(すなわち、サブステップSS802, SS804, SS806
)に準拠している。これは、図27の画素データR と図3
1の画素データB の画素配置の関係から判る。すなわ
ち、図31の画素データB の画素配置は、各色の添字に表
される行列表示から、図27の画素データR を水平(すな
わち、行)方向に2列ずつ全体にシフトした配置になっ
ている。このことから、これまで式(27)〜式(30)までの
式を適用して仮想画素を補間する場合、行列表示で列の
数字が2以上の右側で各画素データの添字の列の数字に
+2だけ加算した関係で算出を行うとよい。たとえば、画
素データB13 や画素データB33 は、式(27)の色R を色B
に置換し、画素データR00, R31の位置関係を画素データ
B02, B33にして
Next, interpolation processing for the pixel data B is performed in sub-steps SS808, SS810, and SS812. The sub-steps SS808, SS810, and SS812 are the adjacent oblique interpolation processing on the pixel data B, the central interpolation processing using four pieces of interpolation data, and the central interpolation processing using four pixels of up, down, left and right. These interpolation processes are the above-described interpolation processes of the pixel data R (that is, the sub-steps SS802, SS804, SS806
). This corresponds to the pixel data R in FIG.
It can be seen from the relationship of the pixel arrangement of the pixel data B of one. That is, the pixel arrangement of the pixel data B in FIG. 31 is such that the pixel data R in FIG. 27 is shifted by two columns in the horizontal (that is, row) direction as a whole from the matrix display represented by the subscript of each color. I have. From this, when interpolating virtual pixels by applying the equations (27) to (30), the number of the column in each column of the subscript of each pixel data on the right side of two or more columns in the matrix display To
It is good to calculate in the relation which added +2. For example, the pixel data B 13 and the pixel data B 33 are obtained by converting the color R in the equation (27) into the color B
And replace the positional relationship between the pixel data R 00 and R 31 with the pixel data
B 02 , B 33

【0139】[0139]

【数27】 B11+2=(B00+2+B22+2)/2-(Yh00+2+Yh22+2)/2+Yh11+2 B13=(B02+B24)/2-(Yh02+Yh24)/4+Yh13 ・・・(31) B31+2=(B22+2+B40+2)/2-(Yh22+2+Yh40+2)/4+Yh31+2 B33=(B24+B42)/2-(Yh24+Yh42)/4+Yh33 ・・・(32) のように演算処理することにより算出される。また、画
素データの行列表示における列の数字が2より小さい左
側で各画素データの補間処理を行う場合には、画素デー
タR04, R22を用いて画素データR13 を算出する関係を用
い、添字の数字から-2だけ減算させて算出するとよい。
たとえば、画素データB11 は、
## EQU27 ## B 11 + 2 = (B 00 + 2 + B 22 + 2 ) / 2- (Y h00 + 2 + Y h22 + 2 ) / 2 + Y h11 + 2 B 13 = (B 02 + B 24 ) / 2- (Y h02 + Y h24 ) / 4 + Y h13・ ・ ・ (31) B 31 + 2 = (B 22 + 2 + B 40 + 2 ) / 2- (Y h22 + 2 + Y h40 + 2 ) / 4 + Y h31 + 2 B 33 = (B 24 + B 42 ) / 2- (Y h24 + Y h42 ) / 4 + Y h33 ... (32) You. Further, when the number of columns in the matrix display of the pixel data to perform interpolation processing of each pixel data in less than 2 left, using the relation for calculating the pixel data R 13 by using the pixel data R 04, R 22, It is better to subtract -2 from the subscript number.
For example, pixel data B 11 is

【0140】[0140]

【数28】 B13-2=(B04-2+B22-2)/2-(Yh04-2+Yh22-2)/2+Yh13-2 B11=(B02+B20)/2-(Yh02+Yh20)/4+Yh11 ・・・(33) から得られる。他の式(28)〜式(30)においても同様の関
係が成立している。この関係に注意してサブステップSS
810, SS812で補間処理を行うと、画素データB に関する
プレーン補間展開を行うことができる。この処理の後、
サブステップSS814 に進む。
( Equation 28) B 13-2 = (B 04-2 + B 22-2 ) / 2- (Y h04-2 + Y h22-2 ) / 2 + Y h13-2 B 11 = (B 02 + B 20 ) / 2- (Y h02 + Y h20 ) / 4 + Y h11 (33) A similar relationship holds in other equations (28) to (30). Be aware of this relationship
When the interpolation processing is performed in 810 and SS812, plane interpolation development for the pixel data B can be performed. After this processing,
Proceed to sub-step SS814.

【0141】サブステップSS814 では、プレーン補間展
開が各色毎にすべて終了したかどうかの判定を行う。一
連の処理がまだ終了していないとき(NO)、サブステッ
プSS800 に戻って処理を繰り返す。なお、各色毎にこの
確認処理をおこなってもよい。また、一連の処理が終了
したとき(YES )、リターンに移行する。この移行後、
サブルーチンSUB8の処理が終了する。このような手順で
動作させることにより、結果としてRGB 同時化部36B
は、撮像した被写体の画像を高解像度にするとともに、
画像に生じる偽色を抑制した信号にして出力させること
を可能にしている。
In sub-step SS814, it is determined whether or not the plane interpolation development has been completed for each color. If a series of processing has not been completed yet (NO), the process returns to sub-step SS800 and repeats the processing. Note that this confirmation process may be performed for each color. When a series of processing is completed (YES), the flow shifts to return. After this transition,
The processing of the subroutine SUB8 ends. By operating in such a procedure, as a result, the RGB
Makes the captured image of the subject high resolution,
This makes it possible to output a signal in which a false color generated in an image is suppressed.

【0142】より具体的な例として、ディジタルカメラ
10によって一枚の画像50を撮影した場合について説明す
る。ディジタルカメラ10により画像50には、大きく分け
て二人の人物と風景、そして文字の書き込まれた立て看
板が撮像により含まれている。ディジタルカメラ10は撮
像信号をA/D 変換してディジタルの画像データにしてい
る。前述したように画像データに信号処理を施さない場
合、このディジタルの画像データ(すなわち、生デー
タ)をそのまま記録再生部40の記録媒体に記録する。信
号処理する場合、画像データは、画像生成部36b のRGB
同時化部36A, 36Bにそれぞれ供給する。RGB 同時化部36
A, 36Bは、前述したサブルーチンに従って画素データの
補間生成を行って画像データを生成している。生成した
画像データをセレクタ36c,マトリクス処理部36d,システ
ムバス16を介してモニタ42に表示する。RGB 同時化部36
A からは、たとえば、白黒文字モードに適した解像度の
高い画像が得られる。RGB 同時化部36B は、RGB 同時化
部36A からの画像と比べて若干解像度が劣るものの、色
境界に生じる虞れのある偽色が抑制された画像を生成す
る。ユーザは、出力されるモニタ42の画像表示を基に、
基準とする画像を選択する。
As a more specific example, a digital camera
The case where one image 50 is photographed by 10 will be described. The image 50 by the digital camera 10 roughly includes two people, a landscape, and a signboard on which characters are written by imaging. The digital camera 10 performs A / D conversion of an image pickup signal into digital image data. As described above, when the image data is not subjected to signal processing, the digital image data (ie, raw data) is recorded as it is on the recording medium of the recording / reproducing unit 40. When performing signal processing, the image data is stored in the RGB data of the image generation unit 36b.
This is supplied to the synchronization units 36A and 36B, respectively. RGB synchronization unit 36
A and 36B generate image data by performing interpolation generation of pixel data in accordance with the above-described subroutine. The generated image data is displayed on the monitor 42 via the selector 36c, the matrix processing unit 36d, and the system bus 16. RGB synchronization unit 36
From A, for example, a high-resolution image suitable for the monochrome character mode can be obtained. The RGB synchronizing unit 36B generates an image in which the resolution is slightly lower than that of the image from the RGB synchronizing unit 36A, but in which a false color that may occur at a color boundary is suppressed. The user, based on the displayed image display on the monitor 42,
Select a reference image.

【0143】この場合、偽色の発生を抑えることを重視
してRGB 同時化部36B からの画像を基準の画像にする。
この画像は、最適画像合成部36e に供給される。また、
RGB同時化部36A が文字の表示に適した解像度の画像を
提供することから、たとえば、立て看板を含む領域52を
切り出すように設定する。この設定は、ディジタルカメ
ラ10の操作部14で指定する。操作部14は、抽出する領域
の境界を複数個選択するとともに、システム制御部18に
おいて選択した近傍のエッジ検出も同時に行うことによ
り切り出す範囲を的確に選択する処理を行って指定範囲
を決定する。
In this case, the image from the RGB synchronizing unit 36B is used as a reference image with emphasis on suppressing the generation of false colors.
This image is supplied to the optimum image synthesizing unit 36e. Also,
Since the RGB synchronizing unit 36A provides an image having a resolution suitable for displaying characters, for example, a setting is made to cut out an area 52 including a vertical signboard. This setting is specified by the operation unit 14 of the digital camera 10. The operation unit 14 selects a plurality of boundaries of the region to be extracted, and at the same time, detects a nearby edge selected by the system control unit 18, thereby performing a process of appropriately selecting a range to be cut out, and determines a designated range.

【0144】この決定を受けてシステム制御部18は、RG
B 同時化部36A の領域52を切り出す制御を行って得られ
た領域52の画像を最適画像合成部36e に供給する。最適
画像合成部36e は、メモリ上で供給される画像と現格納
中の画像の該当領域を挿げ替え、合成する。これによ
り、人物を含む風景領域および文字表示の領域ともにそ
れぞれの特性の活かされた画像が生成される。また、切
り出す領域があるならばこの処理を繰り返す。本実施例
ではRGB 同時化部を2つしか設けていないが、さらに画
像生成部36b 内に前述した2つの画像生成特性と異なる
RGB 同時化部を設けてもよい。このとき、その異なるRG
B 同時化部で生成した画像を用いて挿げ替えを行うか判
断してより最適な画像を生成することができる。
In response to this determination, the system control unit 18
The image of the region 52 obtained by performing the control of cutting out the region 52 of the B synchronization unit 36A is supplied to the optimum image combining unit 36e. The optimal image combining unit 36e replaces the image supplied on the memory with the corresponding area of the currently stored image and combines the images. As a result, an image in which the characteristics of both the landscape region including the person and the character display region are utilized is generated. If there is a region to be cut out, this process is repeated. Although only two RGB synchronizing units are provided in this embodiment, the image generating unit 36b further differs from the two image generating characteristics described above in the image generating unit 36b.
An RGB synchronization unit may be provided. At this time, the different RG
B It is possible to determine whether to perform replacement using the image generated by the synchronizing unit and generate a more optimal image.

【0145】また、生データを記録媒体に記録した場
合、たとえば、記録媒体から再生装置を介して生データ
の画像をパーソナルコンピュータに読み出す。パーソナ
ルコンピュータには、画像生成部36b のRGB 同時化部36
A, 36Bでの処理に相当するソフトウェアが格納されてい
る。パーソナルコンピュータでは、画像データをソフト
ウェアでプログラムの手順でこれまで述べた信号処理を
行うことにより、処理結果として最適な画像をモニタ上
に表示し、この画像を記録することができる。
When raw data is recorded on a recording medium, for example, an image of the raw data is read from the recording medium to a personal computer via a reproducing device. The personal computer has an RGB synchronization unit 36 of the image generation unit 36b.
Software corresponding to the processing in A and 36B is stored. In a personal computer, by performing the above-described signal processing on image data in a program procedure using software, an optimum image can be displayed on a monitor as a processing result, and this image can be recorded.

【0146】以上のように構成して、ディジタルの画像
データ(すなわち、生データ)に複数の信号処理を並列
的に行い、各処理により得られる最適な画像特性をもた
らす領域を切り出し、合成することにより、ユーザに画
像処理の機会を提供することができる。この処理によっ
ても階調特性には何等影響を与えない範囲で行うことに
より既存の出力装置等のインフラに対する整合性を損な
うことなく、すなわち他の装置への影響を与えることな
く、従来の画質よりも画面領域に高画質な画像領域の多
い最適な画像を得ることができる。
With the above configuration, a plurality of signal processes are performed in parallel on digital image data (ie, raw data), and an area which provides the optimum image characteristics obtained by each process is cut out and synthesized. Accordingly, it is possible to provide a user with an opportunity for image processing. By performing this process within the range that does not affect the tone characteristics at all, without deteriorating the consistency with the infrastructure such as the existing output device, that is, without affecting other devices, It is also possible to obtain an optimal image having many high-quality image areas in the screen area.

【0147】[0147]

【発明の効果】このように本発明の固体撮像装置によれ
ば、信号処理手段においてデータ補正手段で補正した画
像データに基づいて複数の補間生成手段でそれぞれ並列
的に三原色R, G, B すべて並列的に補間生成し、複数の
補間生成手段の中から選択手段を介して一つを選択して
表示画像生成手段に供給する。表示画像生成手段は、画
像データを基に生成した輝度データおよび色差データを
表示手段に送る。これにより、他の装置や回路に影響を
与えることなく、ユーザに対しても表示手段に表示され
る画像から合成手段での合成をどのように行うかといっ
た画像処理の機会を提供する。画像処理は、操作手段か
らの指示に応じて制御手段の制御により選んだ各画像領
域との挿げ替えて合成して、一枚の画像を生成すること
により、他の装置に影響を与えることなく、従来の撮像
画像に比べて一層高画質化させることができる。
As described above, according to the solid-state imaging device of the present invention, the three primary colors R, G, and B are all processed in parallel by the plurality of interpolation generating means based on the image data corrected by the data correcting means in the signal processing means. Interpolation is generated in parallel, and one of the plurality of interpolation generating means is selected via a selecting means and supplied to the display image generating means. The display image generating means sends the luminance data and the color difference data generated based on the image data to the display means. This provides the user with an opportunity to perform image processing such as how to perform synthesis by the synthesizing unit from an image displayed on the display unit without affecting other devices and circuits. The image processing is to replace one image area selected under the control of the control means in accordance with an instruction from the operation means, synthesize the image area, and generate one image, thereby affecting other devices. In addition, the image quality can be further improved as compared with the conventional captured image.

【0148】また、本発明の画像処理方法によれば、デ
ータ補正した画像データに基づいて受光素子および/ま
たは受光素子に隣接する受光素子の空隙の位置における
三原色R, G, B すべて並列的にプレーン補間生成を複数
で行うことから、画像選択時にプレーン画像をただちに
供給し、供給される画像データを基に得た輝度データお
よび色差データを表示手段に表示して、表示した画像を
基にしてユーザによる画像評価の機会を提供する。この
評価により基準となる一つの画像に対して他の補間生成
による画像領域との挿替えを行う判断に応じて画像を挿
げ替えて、最適な画像を生成することにより、これまで
にない撮影時または撮影後にユーザによる撮像画像デー
タに対する信号処理の機会を提供し、従来の撮像画像に
比べてよりユーザの要求を満たした最適な高画質画像を
生成することができる。
Further, according to the image processing method of the present invention, all three primary colors R, G, and B at the positions of the voids of the light receiving element and / or the light receiving element adjacent to the light receiving element are set in parallel on the basis of the corrected image data. Since a plurality of plane interpolation generations are performed, a plane image is immediately supplied at the time of image selection, and luminance data and color difference data obtained based on the supplied image data are displayed on a display unit, and based on the displayed image, Provide an opportunity for users to evaluate images. In this evaluation, an image is replaced according to a determination that one image serving as a reference is replaced with an image area generated by another interpolation, and an optimal image is generated, thereby achieving unprecedented shooting. It is possible to provide an opportunity for the user to perform signal processing on the captured image data at the time or after shooting, and to generate an optimal high-quality image that satisfies the user's requirements more than conventional captured images.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る固体撮像装置を適用したディジタ
ルカメラの概略的な構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a digital camera to which a solid-state imaging device according to the present invention is applied.

【図2】図1の画像生成部に用いるRGB 同時化部の概略
的な構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a schematic configuration of an RGB synchronizing unit used in the image generating unit of FIG. 1;

【図3】図2のRGB 同時化部と異なる処理を行うRGB 同
時化部の概略的な構成を示すブロック図である。
FIG. 3 is a block diagram illustrating a schematic configuration of an RGB synchronization unit that performs processing different from that of the RGB synchronization unit in FIG. 2;

【図4】図3の輝度データ補間機能部に用いるローパス
フィルタの原理を説明する模式図である。
FIG. 4 is a schematic diagram illustrating the principle of a low-pass filter used in the luminance data interpolation function unit in FIG.

【図5】図3の高解像度プレーン補間機能部の概略的な
構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a schematic configuration of a high-resolution plane interpolation function unit of FIG. 3;

【図6】図1のマトリクス処理部の概略的な構成を示す
ブロック図である。
FIG. 6 is a block diagram illustrating a schematic configuration of a matrix processing unit in FIG. 1;

【図7】図1の撮像部における受光素子の配置と各受光
素子に対応する色フィルタの関係を示す模式図である。
FIG. 7 is a schematic diagram illustrating the relationship between the arrangement of light receiving elements and the color filters corresponding to the respective light receiving elements in the imaging unit in FIG. 1;

【図8】図1の撮像部において受光素子の配置を正方格
子状にした場合とハニカム配置にした場合の違いを説明
する模式図である。
8 is a schematic diagram illustrating a difference between a case where the arrangement of the light receiving elements is arranged in a square lattice and a case where the arrangement is a honeycomb arrangement in the imaging unit in FIG. 1;

【図9】図1の撮像部に適用した色フィルタ、G 正方RB
完全市松パターンを説明する模式図である。
FIG. 9 shows a color filter applied to the image pickup unit of FIG. 1, G square RB
It is a schematic diagram explaining a complete checkerboard pattern.

【図10】図1のディジタルカメラの動作手順を説明す
るメインフローチャートである。
FIG. 10 is a main flowchart illustrating an operation procedure of the digital camera in FIG. 1;

【図11】図10に適用するサブルーチンSUB1の動作手順
を説明するフローチャートである。
FIG. 11 is a flowchart illustrating an operation procedure of a subroutine SUB1 applied to FIG. 10;

【図12】図10に適用するサブルーチンSUB2の動作手順
を説明するフローチャートである。
FIG. 12 is a flowchart illustrating an operation procedure of a subroutine SUB2 applied to FIG. 10;

【図13】図11のサブルーチンSUB1において適用するサ
ブルーチンSUB3の動作手順を説明するフローチャートで
ある。
FIG. 13 is a flowchart illustrating an operation procedure of a subroutine SUB3 applied in the subroutine SUB1 of FIG.

【図14】図13のサブルーチンSUB3で適用するサブルー
チンSUB4の回転処理による動作手順を説明するフローチ
ャートである。
14 is a flowchart illustrating an operation procedure by a rotation process of a subroutine SUB4 applied in a subroutine SUB3 of FIG.

【図15】図14のサブルーチンSUB4でのデータ配置変更
の関係を説明する模式図である。
FIG. 15 is a schematic diagram illustrating the relationship of data arrangement change in subroutine SUB4 of FIG.

【図16】図14のサブルーチンSUB4でのR 補間、B 補間
の原理を説明する模式図である。
16 is a schematic diagram illustrating the principle of R interpolation and B interpolation in a subroutine SUB4 of FIG.

【図17】図13のサブルーチンSUB3で適用するサブルー
チンSUB5の市松状のデータ作成の動作手順を説明する模
式図である。
FIG. 17 is a schematic diagram illustrating an operation procedure for creating checkered data in a subroutine SUB5 applied in the subroutine SUB3 of FIG.

【図18】図17のサブルーチンSUB7における市松状のデ
ータ作成を行う手順を説明するフローチャートである。
FIG. 18 is a flowchart illustrating a procedure for creating checkered data in a subroutine SUB7 of FIG. 17;

【図19】図17のサブルーチンSUB7において図18からの
継続した動作手順を説明するフローチャートである。
FIG. 19 is a flowchart illustrating a continued operation procedure from FIG. 18 in a subroutine SUB7 of FIG. 17;

【図20】図17のサブルーチンSUB7において図18や図19
からの継続した動作手順を説明するフローチャートであ
る。
20 and FIG. 19 in the subroutine SUB7 of FIG.
6 is a flowchart for explaining a continuous operation procedure from FIG.

【図21】色フィルタを介して受光素子から得られる画
素データおよび仮想画素の位置関係を示す模式図であ
る。
FIG. 21 is a schematic diagram illustrating a positional relationship between pixel data and virtual pixels obtained from a light receiving element via a color filter.

【図22】図18〜図20の処理により得られる高域輝度デ
ータの位置を示す模式図である。
FIG. 22 is a schematic diagram showing positions of high-frequency luminance data obtained by the processing of FIGS. 18 to 20;

【図23】図17のサブルーチンSUB5におけるサブルーチ
ンSUB7の補間処理の手順を説明するフローチャートであ
る。
FIG. 23 is a flowchart illustrating a procedure of an interpolation process of subroutine SUB7 in subroutine SUB5 of FIG. 17;

【図24】図23の補間処理により得られる高域輝度デー
タの位置を示す模式図である。
FIG. 24 is a schematic diagram illustrating positions of high-frequency luminance data obtained by the interpolation processing of FIG. 23;

【図25】図17のサブルーチンSUB5におけるサブルーチ
ンSUB8のRGB プレーン補間処理の手順を説明するフロー
チャートである。
FIG. 25 is a flowchart illustrating a procedure of an RGB plane interpolation process of a subroutine SUB8 in a subroutine SUB5 of FIG. 17;

【図26】図25のRGB プレーン補間処理のうち、画素デ
ータG に関する補間対象の画素と既存の画素の位置関係
を示す模式図である。
26 is a schematic diagram illustrating a positional relationship between a pixel to be interpolated with respect to pixel data G and an existing pixel in the RGB plane interpolation processing of FIG. 25;

【図27】図25のRGB プレーン補間処理のうち、画素デ
ータR に関する補間対象の画素と既存の画素の位置関係
を示す模式図である。
FIG. 27 is a schematic diagram showing a positional relationship between a pixel to be interpolated with respect to pixel data R and existing pixels in the RGB plane interpolation processing of FIG. 25;

【図28】図27の位置関係に隣接斜め補間処理した結果
を加えた際の位置関係を示す模式図である。
28 is a schematic diagram illustrating a positional relationship when the result of the adjacent oblique interpolation processing is added to the positional relationship of FIG. 27;

【図29】図28の位置関係に隣接斜め補間処理により得
られた4つの画素データを用いて補間処理した結果を加
えた際の位置関係を示す模式図である。
29 is a schematic diagram showing a positional relationship when the result of the interpolation process using four pixel data obtained by the adjacent oblique interpolation process is added to the positional relationship of FIG. 28;

【図30】図29の位置関係に補間対象の画素に対して上
下左右に位置する画素データを用いて補間処理した結果
を加えた際の位置関係を示す模式図である。
30 is a schematic diagram showing a positional relationship when a result of performing an interpolation process using pixel data positioned vertically, horizontally, and horizontally with respect to a pixel to be interpolated is added to the positional relationship of FIG. 29;

【図31】図25のRGB プレーン補間処理のうち、画素デ
ータB に関する補間対象の画素と既存の画素の位置関係
を示す模式図である。
31 is a schematic diagram showing a positional relationship between a pixel to be interpolated with respect to pixel data B and an existing pixel in the RGB plane interpolation processing of FIG. 25;

【図32】図1のディジタルカメラで撮像した際の画像
の一例を示す図である。
FIG. 32 is a diagram illustrating an example of an image captured by the digital camera in FIG. 1;

【符号の説明】[Explanation of symbols]

10 ディジタルカメラ 14 操作部 18 システム制御部 30 撮像部 34 A/D 変換部 36 信号処理部 36a データ補正部 36b 画像生成部 36c セレクタ 36d マトリクス処理部 36e 最適画像合成部 36A 〜36N RGB 同時化部 10 Digital camera 14 Operation unit 18 System control unit 30 Imaging unit 34 A / D conversion unit 36 Signal processing unit 36a Data correction unit 36b Image generation unit 36c Selector 36d Matrix processing unit 36e Optimal image synthesis unit 36A to 36N RGB synchronization unit

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 光学系を介して被写界からの入射光を光
電変換する受光素子の位置に対応させて色分解する色分
解手段で色分解された光を前記受光素子の2次元配置し
た撮像手段によりカラー撮像し、得られたカラー撮像信
号をディジタル変換手段でディジタルの画像データに
し、該画像データを記録する記録手段および/または該
画像データに信号処理を施す信号処理手段を介して前記
記録手段に該画像データを出力する固体撮像装置におい
て、該装置は、 前記ディジタルの画像データに画像の色調整および階調
を補正するデータ補正手段、 該データ補正手段からの画像データに基づいて少なくと
も、前記受光素子の位置における三原色R, G, B すべて
並列的に補間生成する複数の補間生成手段、 該複数の補間生成手段の一つを選択する選択手段、 該選択手段を介して供給される画像データを基に輝度デ
ータおよび色差データを生成し、これらのデータに折返
し歪の発生を防ぐ処理を施すとともに、該処理した輝度
データに輪郭強調処理を施す表示画像生成手段、および
該表示画像生成手段からの一つの画像データに対して、
前記複数の補間生成手段のそれぞれが出力する画像デー
タの最適な画像領域との挿げ替えを行って、画像を合成
する合成手段を含む信号処理手段と、 前記表示画像生成手段で得られた画像データを表示する
表示手段と、 該表示手段に表示される画像で確認および評価しなが
ら、該評価の結果に応じた指示を提供する操作手段から
の指示に応じて前記合成手段における前記最適な画像領
域の切出しおよび挿替えを制御する制御手段とを含むこ
とを特徴とする固体撮像装置。
1. A light-separated light which is color-separated by color separation means for color-separating light incident from a field via an optical system in accordance with the position of the light-receiving element for photoelectrically converting the light-receiving element is two-dimensionally arranged. The color imaging is performed by the imaging means, the obtained color imaging signal is converted into digital image data by the digital conversion means, and the image data is recorded via the recording means for recording the image data and / or the signal processing means for performing signal processing on the image data. In a solid-state imaging device that outputs the image data to a recording unit, the device includes: a data correction unit that corrects a color adjustment and a gradation of an image to the digital image data; at least based on image data from the data correction unit. A plurality of interpolation generating means for performing parallel interpolation generation of all three primary colors R, G, and B at the position of the light receiving element; and selecting one of the plurality of interpolation generation means. A step of generating luminance data and color difference data based on the image data supplied via the selecting means, performing processing to prevent the occurrence of aliasing distortion on these data, and performing contour enhancement processing on the processed luminance data. Display image generating means to be applied, and one image data from the display image generating means,
A signal processing unit including a combining unit for combining an image by replacing the image data output by each of the plurality of interpolation generating units with an optimal image region; and an image obtained by the display image generating unit. Display means for displaying data; and the optimum image in the synthesizing means in response to an instruction from an operation means for providing an instruction in accordance with the result of the evaluation while confirming and evaluating the image displayed on the display means A solid-state imaging device comprising: control means for controlling extraction and replacement of an area.
【請求項2】 請求項1に記載の装置において、前記色
分解手段は、三原色R, G, B に前記入射光を色分解する
色フィルタを前記撮像手段の受光素子に一致させ、 前記撮像手段は、前記受光素子と該受光素子に隣接した
受光素子とを垂直方向および水平方向に互いに半ピッチ
ずつずらして2次元配置されることを特徴とする固体撮
像装置。
2. The apparatus according to claim 1, wherein the color separation means matches a color filter for separating the incident light into three primary colors R, G, and B with a light receiving element of the imaging means, Wherein the light receiving element and the light receiving element adjacent to the light receiving element are two-dimensionally arranged so as to be shifted from each other by a half pitch in a vertical direction and a horizontal direction.
【請求項3】 請求項2に記載の装置において、前記色
分解手段は、三原色R, G, B のうち、色G を正方格子状
に配し、色G に対して色R, Bが完全市松に配した色フィ
ルタパターンであることを特徴とする固体撮像装置。
3. The apparatus according to claim 2, wherein the color separation means arranges the color G among the three primary colors R, G, and B in a square lattice, and the color R and the color R are completely different from the color G. A solid-state imaging device characterized by a color filter pattern arranged in a checkered pattern.
【請求項4】 請求項3に記載の装置において、前記複
数の補間生成手段は、少なくとも三原色R, G, B のう
ち、色G の画素データを高域の画素データとし、該高域
の画素データに基づき前記色G と異なる色R, Bにおける
受光素子での色G の補間を行うG 補間手段、 該G 補間手段の相関関係にある色R の画素データを用い
て色R の補間を行うR補間手段、 前記G 補間手段の相関関係にある色B の画素データを用
いて色B の補間を行うB 補間手段、ならびに前記G 補間
手段、前記R 補間手段および前記B 補間手段でそれぞれ
得た画素データを用いた平均補間で各色のプレーンな画
素データを補間生成する平均補間手段を含む第1の補間
生成手段と、 前記色分解手段によって得た三原色R, G, B の画素デー
タから前記受光素子の位置における輝度データを求める
輝度データ生成手段、 該輝度データ生成手段で得た輝度データに基づいて前記
受光素子の空隙位置における輝度データを求める輝度デ
ータ補間手段、 該輝度データ補間手段と色R 画素データを用いて色R の
補間を行うR 補間展開手段、 前記輝度データ補間手段と色G 画素データを用いて色G
の補間を行うG 補間展開手段、および前記輝度データ補
間手段と色B 画素データを用いて色B の補間を行うB 補
間展開手段を含む第2の補間生成手段とを含むことを特
徴とする固体撮像装置。
4. The apparatus according to claim 3, wherein said plurality of interpolation generating means sets pixel data of a color G of at least three primary colors R, G, and B as high-range pixel data, and G interpolating means for interpolating the color G at the light receiving element in the colors R and B different from the color G based on the data, and interpolating the color R using the pixel data of the color R which is correlated with the G interpolating means. R interpolation means, B interpolation means for performing color B interpolation using pixel data of color B having a correlation with the G interpolation means, and the B interpolation means, the R interpolation means and the B interpolation means, respectively. A first interpolation generating means including an average interpolation means for interpolating and generating plane pixel data of each color by an average interpolation using pixel data; and the light receiving means based on pixel data of three primary colors R, G, B obtained by the color separation means. Luminance to find luminance data at element position Data generating means, luminance data interpolating means for obtaining luminance data at the gap position of the light receiving element based on the luminance data obtained by the luminance data generating means, interpolation of color R using the luminance data interpolating means and the color R pixel data R interpolating and developing means, the luminance data interpolating means and the color G
A solid-state image sensor comprising: a G interpolation developing means for performing the interpolation of the color data; and a second interpolation generating means including a B interpolation developing means for performing the interpolation of the color B using the luminance data interpolation means and the color B pixel data. Imaging device.
【請求項5】 請求項1に記載の装置において、前記制
御手段は、前記データ補正手段の補正制御、前記表示画
像生成手段の画像生成制御、および前記選択手段の選択
切換制御も行うとともに、該装置で用いる信号の生成を
制御することを特徴とする固体撮像装置。
5. The apparatus according to claim 1, wherein said control means also performs correction control of said data correction means, image generation control of said display image generation means, and selection switching control of said selection means. A solid-state imaging device for controlling generation of a signal used in the device.
【請求項6】 光学系を介して被写界からの入射光をカ
ラー撮像し、該カラー撮像して得られた撮像信号をディ
ジタルの画像データにし、該画像データの記録および/
または該画像データへの信号処理を経た記録を行う画像
処理方法において、該方法は、 前記ディジタルの画像信号に画像の色調整および階調を
補正するデータ補正工程、 該データ補正工程よって得られた画像データに基づいて
前記受光素子および/または前記受光素子に隣接する受
光素子の空隙の位置における三原色R, G, B すべて並列
的に補間生成する複数のプレーン補間生成を含む補間生
成工程、 該補間生成工程で得られた複数種類の画像データのう
ち、補間生成した一画像を選択する画像選択工程、およ
び該画像選択工程で得た画像データを基に輝度データお
よび色差データを生成し、これらのデータに折返し歪の
発生を防ぐ処理を施すとともに、該処理した輝度データ
に輪郭強調処理を施す表示画像生成工程を前記信号処理
工程に含み、 さらに、該方法は、 前記表示画像生成工程により得られた画像データを用意
した表示手段に表示する画像表示工程と、 該画像表示工程に表示した画像により画像評価をすると
ともに、一つの画像に対して他の補間生成による画像領
域との挿替えを行う判断を行う第1の判断工程と、 第1の判断工程に応じて最適な画像生成処理を行う最適
合成工程と、 該最適合成工程の後、他の領域に対して選択した補間生
成による画像を用いて処理を繰り返すか判断する第2の
判断工程と、 第2の判断工程で該処理を終了させる場合、他の補間生
成を用いるかを判断する第3の判断工程とを前記信号処
理工程に含み、 第2および第3の判定工程で処理を繰り返すとき、新た
な画像の選択と選択した画像の切出しと挿替えの一連の
処理をそれぞれ行うことを特徴とする画像処理方法。
6. A color image of incident light from an object scene via an optical system, and an image signal obtained by the color image is converted into digital image data, and the recording and / or recording of the image data is performed.
Or an image processing method for performing recording on the image data through signal processing, the method comprising: a data correction step of correcting color adjustment and gradation of an image to the digital image signal; An interpolation generation step including a plurality of plane interpolation generations in which all three primary colors R, G, and B at positions of gaps in the light receiving element and / or the light receiving element adjacent to the light receiving element are generated in parallel based on image data; An image selecting step of selecting one image interpolated and generated among a plurality of types of image data obtained in the generating step, and generating luminance data and color difference data based on the image data obtained in the image selecting step; The signal processing step includes a process of preventing the occurrence of aliasing in the data and a display image generating step of performing an edge enhancement process on the processed luminance data. Further, the method includes: an image display step of displaying image data obtained in the display image generation step on a prepared display unit; and performing image evaluation using the image displayed in the image display step, and forming one image. A first determining step of making a determination to perform replacement with an image area by another interpolation generation, an optimal combining step of performing an optimal image generating process according to the first determining step, Then, a second determining step of determining whether or not to repeat the process using the image generated by the interpolation generation selected for another region, and, in the case of ending the process in the second determining step, whether to use another interpolation generation Is included in the signal processing step. When the processing is repeated in the second and third determination steps, a series of processing of selecting a new image and cutting out and replacing the selected image is performed. Do each Image processing method comprising and.
【請求項7】 請求項6に記載の方法において、前記最
適合成工程は、生成した画像から基準とする画像を選択
する基準画像選択工程と、 該基準画像選択工程の画像と異なる処理で生成した画像
を選択する切出し選択工程と、 該切出し選択工程で選択した画像から切り出す領域を指
示する領域指示工程と、 該領域指示工程で指示された領域と前記基準とする画像
の該当領域とを挿替えする挿替え工程とを含むことを特
徴とする画像処理方法。
7. The method according to claim 6, wherein the optimal synthesizing step is performed by a reference image selecting step of selecting an image to be a reference from the generated images, and is generated by a process different from the image of the reference image selecting step. An extraction selecting step of selecting an image, an area specifying step of specifying an area to be extracted from the image selected in the extraction selecting step, and replacing the area specified in the area specifying step with a corresponding area of the reference image. An image processing method comprising:
【請求項8】 請求項6に記載の方法において、前記最
適合成工程は、評価した画像の指摘された切出し領域お
よび画像の挿替え領域をマッチングさせる領域一致工程
を含むことを特徴とする画像処理方法。
8. The image processing method according to claim 6, wherein the optimal synthesizing step includes an area matching step of matching the indicated cut-out area of the evaluated image and the replacement area of the image. Method.
【請求項9】 請求項6に記載の方法において、該方法
は、前記撮像信号をそのまま記録した場合、該記録した
ディジタルの画像データを再生する再生工程を前記信号
処理工程の前に行うことを特徴とする画像処理方法。
9. The method according to claim 6, wherein, if the image signal is recorded as it is, a reproducing step of reproducing the recorded digital image data is performed before the signal processing step. Characteristic image processing method.
【請求項10】 請求項6に記載の方法において、前記
カラー撮像は、三原色R, G, B のうち、色G を正方格子
状に配し、色G に対して色R, Bが完全市松に配した色フ
ィルタパターンで撮影した撮像信号を用いることを特徴
とする画像処理方法。
10. The method according to claim 6, wherein, in the color imaging, among the three primary colors R, G, B, the color G is arranged in a square lattice, and the color R, B is completely checkered with respect to the color G. An image processing method characterized by using an image pickup signal photographed by a color filter pattern arranged in the image processing apparatus.
JP11202453A 1999-07-16 1999-07-16 Solid-state image pickup device and image processing method Withdrawn JP2001036809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11202453A JP2001036809A (en) 1999-07-16 1999-07-16 Solid-state image pickup device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11202453A JP2001036809A (en) 1999-07-16 1999-07-16 Solid-state image pickup device and image processing method

Publications (1)

Publication Number Publication Date
JP2001036809A true JP2001036809A (en) 2001-02-09

Family

ID=16457788

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11202453A Withdrawn JP2001036809A (en) 1999-07-16 1999-07-16 Solid-state image pickup device and image processing method

Country Status (1)

Country Link
JP (1) JP2001036809A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074360A (en) * 2004-09-01 2006-03-16 Fuji Photo Film Co Ltd Image pickup apparatus and signal processing method
JP2006352466A (en) * 2005-06-15 2006-12-28 Fujitsu Ltd Image sensing device
WO2008032589A1 (en) * 2006-09-11 2008-03-20 Olympus Corporation Imaging device, image processing device, imaging system, and image processing program
JP2008187274A (en) * 2007-01-26 2008-08-14 Toshiba Corp Solid-state imaging apparatus
JP2013026672A (en) * 2011-07-15 2013-02-04 Toshiba Corp Solid-state imaging device and camera module
CN115064117A (en) * 2022-08-18 2022-09-16 长春希达电子技术有限公司 Virtual pixel display screen brightness correction method, system and device and display system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006074360A (en) * 2004-09-01 2006-03-16 Fuji Photo Film Co Ltd Image pickup apparatus and signal processing method
JP4633413B2 (en) * 2004-09-01 2011-02-16 富士フイルム株式会社 Imaging apparatus and signal processing method
JP2006352466A (en) * 2005-06-15 2006-12-28 Fujitsu Ltd Image sensing device
WO2008032589A1 (en) * 2006-09-11 2008-03-20 Olympus Corporation Imaging device, image processing device, imaging system, and image processing program
US8203613B2 (en) 2006-09-11 2012-06-19 Olympus Corporation Image acquisition apparatus, image processing apparatus, image acquisition system, and image processing program
JP2008187274A (en) * 2007-01-26 2008-08-14 Toshiba Corp Solid-state imaging apparatus
JP2013026672A (en) * 2011-07-15 2013-02-04 Toshiba Corp Solid-state imaging device and camera module
US9055181B2 (en) 2011-07-15 2015-06-09 Kabushiki Kaisha Toshiba Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information
CN115064117A (en) * 2022-08-18 2022-09-16 长春希达电子技术有限公司 Virtual pixel display screen brightness correction method, system and device and display system

Similar Documents

Publication Publication Date Title
JP4077120B2 (en) Solid-state imaging device and signal processing method
US7652701B2 (en) Solid-state honeycomb type image pickup apparatus using a complementary color filter and signal processing method therefor
JP4503823B2 (en) Image signal processing method
JP3787927B2 (en) Imaging apparatus and color image signal processing method
JP5108172B2 (en) Image data size conversion processing apparatus, electronic still camera, and image data size conversion processing recording medium
JP3510037B2 (en) Adaptive color interpolation single-sensor color electronic camera
JP5240194B2 (en) Signal processing method and signal processing apparatus
JP4372955B2 (en) Solid-state imaging device and signal processing method
US8320714B2 (en) Image processing apparatus, computer-readable recording medium for recording image processing program, and image processing method
JP4607265B2 (en) Solid-state imaging device and signal processing method
JP2001036809A (en) Solid-state image pickup device and image processing method
JP2000197067A (en) Solid-state image pickup device and image data generating method
JP2001054127A (en) Solid-state image pickup device and pixel defect compensation method
JP4243412B2 (en) Solid-state imaging device and signal processing method
JP4225795B2 (en) Imaging system, image processing program
JP3730063B2 (en) Color component generation apparatus, color component generation method, and multicolor image pickup apparatus using the same
JP4934183B2 (en) Image signal processing method
JPH11168688A (en) Digital camera apparatus and recording and/or reproducing processing method therefor
JP2000165892A (en) Pixel interpolation method and image processor
JP2002209100A (en) Image processor and image processing method
JP4133179B2 (en) Image signal processing device
JP2000152263A (en) Solid-state image pickup device and image data generating method
JP3965556B2 (en) Image processing apparatus and method, recording medium, and program
JP4077956B2 (en) Imaging apparatus and imaging method
JPH10248069A (en) Image pickup device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061003