JP2000341706A - Picture signal processor, its processing method, learning device and method, and recording medium - Google Patents

Picture signal processor, its processing method, learning device and method, and recording medium

Info

Publication number
JP2000341706A
JP2000341706A JP2000048985A JP2000048985A JP2000341706A JP 2000341706 A JP2000341706 A JP 2000341706A JP 2000048985 A JP2000048985 A JP 2000048985A JP 2000048985 A JP2000048985 A JP 2000048985A JP 2000341706 A JP2000341706 A JP 2000341706A
Authority
JP
Japan
Prior art keywords
pixel
image signal
class
pixels
color component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000048985A
Other languages
Japanese (ja)
Other versions
JP4547758B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Hideo Nakaya
秀雄 中屋
Takashi Sawao
貴志 沢尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000048985A priority Critical patent/JP4547758B2/en
Publication of JP2000341706A publication Critical patent/JP2000341706A/en
Application granted granted Critical
Publication of JP4547758B2 publication Critical patent/JP4547758B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To highly accurately obtain a picture signal of high resolution by providing a picture signal processor with a pixel generation means for generating a pixel having a color component different from at least the color component included in a remarked pixel on the basis of a class determined by a class determination step or the like. SOLUTION: A gamma correction part 24 corrects a signal level of a picture signal whose white balance is adjusted by a white balance adjustment part 23 in accordance with a gamma curve. The picture signal gamma corrected by the gamma correction part 24 is supplied to a prediction processing part 25. The prediction processing part 25 extracts a plurality of pixels existing near a remarked pixel in each remarked pixel of an input picture signal from the input picture signal and determines a class on the basis of a color component of the pixel having the highest density out of plural extracted pixels. Then class sorting adaptive processing for generating the pixel having the color component different from the color component included in the remarked pixel on the position of the remarked pixel on the basis of the determined class is applied to generate a picture signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像信号処理装
置、画像信号処理方法、学習装置、学習方法及び記録媒
体に関し、特に、より高精細度の画像を得ることができ
るようにした画像信号処理装置、画像信号処理方法、学
習装置、学習方法及び記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image signal processing device, an image signal processing method, a learning device, a learning method, and a recording medium, and more particularly to an image signal processing device capable of obtaining a higher definition image. The present invention relates to a device, an image signal processing method, a learning device, a learning method, and a recording medium.

【0002】[0002]

【従来の技術】CCD(Charge Coupled Device)イメ
ージセンサなどの固体イメージセンサを用いた撮像装置
には、主に、1つのCCDイメージセンサを用いた単板
方式のもの(以後、単板式カメラという)と、3つのC
CDイメージセンサを用いた3板方式のもの(以後、3
板式カメラという)とがある。
2. Description of the Related Art An imaging apparatus using a solid-state image sensor such as a CCD (Charge Coupled Device) image sensor is mainly a single-panel type using one CCD image sensor (hereinafter, referred to as a single-panel camera). And three C
Three-plate system using a CD image sensor (hereinafter referred to as 3
Board camera).

【0003】3板式カメラでは、例えばR信号用、G信
号用及びB信号用の3つのCCDイメージセンサを用い
て、その3つのCCDイメージセンサにより3原色信号
を得る。そして、この3原色信号から生成されるカラー
画像信号が記録媒体に記録される。
In a three-panel camera, for example, three CCD image sensors for R signal, G signal and B signal are used, and three primary color signals are obtained by the three CCD image sensors. Then, a color image signal generated from the three primary color signals is recorded on a recording medium.

【0004】単板式カメラでは、1画素毎に割り当てら
れた色フィルタアレイからなる色コーディングフィルタ
が前面に設置された1つのCCDイメージセンサを用い
て、上記色コーディングフィルタにより色コーディング
された色成分の信号を1画素毎に得る。上記色コーディ
ングフィルタを構成する色フィルタアレイとしては、例
えば、R(Red),G(Green),B(Blue)の原色フィ
ルタアレイや、Ye(Yellow),Cy(Cyanogen),M
g(Magenta)の補色フィルタアレイが用いられてい
る。そして、単板式カメラにおいては、CCDイメージ
センサにより1画素毎に1つの色成分の信号を得て、各
画素が持っている色成分の信号以外の色信号を線形補間
処理により生成して、3板式カメラにより得られる画像
に近い画像を得るようしていた。ビデオカメラなどにお
いて、小型化、軽量化を図る場合に、単板式が採用され
ている。
[0004] In a single-panel camera, a color coding filter composed of a color filter array assigned to each pixel is used by using a single CCD image sensor provided on the front surface of a single color CCD. A signal is obtained for each pixel. Examples of the color filter array constituting the color coding filter include primary color filter arrays of R (Red), G (Green), and B (Blue), Ye (Yellow), Cy (Cyanogen), M
g (Magenta) complementary color filter array is used. In the single-panel camera, one color component signal is obtained for each pixel by the CCD image sensor, and color signals other than the color component signals of each pixel are generated by linear interpolation processing. An image close to the image obtained by the plate camera was obtained. 2. Description of the Related Art In a video camera or the like, a single-panel type is used for miniaturization and weight reduction.

【0005】単板式カメラにおいて、例えば図21の
(A)に示すような色配列の色フィルタアレイにより構
成された色コーディングフィルタが設けられたCCDイ
メージセンサは、R,G,Bの3原色のうちの1つの色
のフィルタが配置された各画素から、そのフィルタの色
に対応する画像信号のみが出力される。すなわち、Rの
色フィルタが配置された画素からは、R成分の画像信号
は出力されるが、G成分及びB成分の画像信号は出力さ
れない。同様に、Gの画素からは、G成分の画像信号の
みが出力され、R成分及びB成分の画像信号は出力され
ず、Bの画素からは、B成分の画像信号のみが出力さ
れ、R成分及びG成分の画像信号は出力されない。
In a single-panel camera, for example, a CCD image sensor provided with a color coding filter composed of a color filter array having a color arrangement as shown in FIG. 21A is used for three primary colors of R, G and B. From each pixel on which a filter of one of the colors is arranged, only an image signal corresponding to the color of the filter is output. That is, from the pixels in which the R color filters are arranged, the R component image signal is output, but the G component and B component image signals are not output. Similarly, only the G component image signal is output from the G pixel, no R component and B component image signals are output, and only the B component image signal is output from the B pixel. And the G component image signal are not output.

【0006】ここで、図21の(A)に示す色フィルタ
アレイの色配列は、ベイヤー配列と称される。この場合
においては、Gの色フィルタが市松状に配され、残った
部分にRとBが一列毎に交互に配されている。
The color arrangement of the color filter array shown in FIG. 21A is called a Bayer arrangement. In this case, the G color filters are arranged in a checkered pattern, and R and B are alternately arranged in the remaining portion for each row.

【0007】しかしながら、後段において各画素の信号
を処理する際、各画素毎にR成分,G成分及びB成分の
画像信号が必要となる。そこで、従来、n×m(n及び
mは正の整数)個の画素で構成されるCCDイメージセ
ンサの出力から、図21の(B)乃至(D)に示すよう
に、n×m個のR画素の画像信号、n×m個のG画素の
画像信号及びn×m個のB画素の画像信号、すなわち、
3板式カメラのCCD出力相当の画像信号が、それぞれ
線形補間演算により求められ、それらの画像信号が後段
に出力される。
However, when the signal of each pixel is processed in the subsequent stage, image signals of R component, G component and B component are required for each pixel. Therefore, as shown in FIGS. 21B to 21D, the output of a CCD image sensor composed of n × m (n and m are positive integers) pixels as shown in FIGS. An image signal of R pixels, an image signal of n × m G pixels, and an image signal of n × m B pixels, that is,
Image signals corresponding to the CCD output of the three-chip camera are obtained by linear interpolation calculations, and these image signals are output to the subsequent stage.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、上述し
た単板式カメラでは、線形処理を行うことにより色信号
の補間を行っているので、その撮像出力として得られる
画像信号による画像の解像度が、3板式カメラの撮像出
力として得られる画像信号による画像と比較して低く、
上記線形処理の影響により全体的にぼやけた画像となっ
てしまうといった問題点があった。
However, in the single-chip camera described above, since the color signals are interpolated by performing the linear processing, the resolution of the image based on the image signal obtained as the imaging output is three-chip type. Lower than the image by the image signal obtained as the imaging output of the camera,
There is a problem that an image becomes blurred as a whole due to the influence of the linear processing.

【0009】また、クラス分類適応処理により、このよ
うに単板式カメラのCCD出力から3板式カメラのCC
D出力相当の出力を求める場合、クラスタップとして、
RGBの各画素を独立に選択するようにして、Rの画素
を予測する場合には、R画素だけをクラスタップとし、
G画素を予測する場合にはGの画素のみを予測タップと
し、Bの画素を予測する場合にはB画素のみを予測タッ
プとするようにしたのでは、例えば図21の(A)に示
すように、単板式カメラのCCDイメージセンサに色フ
ィルタアレイとして、ベイヤー配列のものが用いられる
ような場合、n×m個の画素のうち、R画素とB画素は
4画素に1個の割合でしか存在しないため、精度の良い
クラス分類適応処理を行うことができない。
In addition, by the classification adaptive processing, the output of the CCD of the single-chip camera is converted to the CC of the three-chip camera.
To obtain an output equivalent to the D output, as a class tap,
When predicting the R pixel by independently selecting each pixel of RGB, only the R pixel is used as a class tap,
When predicting G pixels, only G pixels are used as prediction taps, and when predicting B pixels, only B pixels are used as prediction taps. For example, as shown in FIG. In a case where a Bayer array is used as a color filter array for a CCD image sensor of a single-chip camera, R pixels and B pixels are only one in four pixels out of n × m pixels. Since it does not exist, accurate classification adaptive processing cannot be performed.

【0010】本発明は、このような状況に鑑みてなされ
たものであり、高精度にクラス分類適応処理を実行する
ことができるようにすることを目的とするものである。
The present invention has been made in view of such a situation, and an object of the present invention is to make it possible to execute the classification adaptive processing with high accuracy.

【0011】[0011]

【課題を解決するための手段】本発明は、画素位置毎に
複数の色のうちのいずれか1つを表す色成分を持つ入力
画像信号を処理する画像信号処理装置において、上記入
力画像信号の注目画素毎に、上記複数の色成分のうち最
も高密度である色成分を有し、上記注目画素近傍に位置
する複数の画素を抽出する抽出手段と、上記抽出手段で
抽出された複数の画素に基づいて、クラスを決定するク
ラス決定手段と、上記クラス決定ステップで決定された
クラスに基づいて、少なくとも上記注目画素が持つ色成
分と異なる色成分を持つ画素を生成する画素生成手段と
を備えることを特徴とする。
According to the present invention, there is provided an image signal processing apparatus for processing an input image signal having a color component representing one of a plurality of colors for each pixel position. Extracting means for extracting a plurality of pixels having a color component having the highest density among the plurality of color components for each pixel of interest and located in the vicinity of the pixel of interest; and a plurality of pixels extracted by the extracting means And a pixel generation unit that generates a pixel having a color component different from at least the color component of the pixel of interest based on the class determined in the class determination step. It is characterized by the following.

【0012】また、本発明は、画素位置毎に複数の色の
うちのいずれか1つを表す色成分を持つ入力画像信号を
処理する画像信号処理方法において、上記入力画像信号
の注目画素毎に、上記複数の色成分のうち最も高密度で
ある色成分を有し、上記注目画素近傍に位置する複数の
画素を抽出する抽出ステップと、上記抽出ステップで抽
出された複数の画素に基づいて、クラスを決定するクラ
ス決定ステップと、上記クラス決定ステップで決定され
たクラスに基づいて、少なくとも上記注目画素が持つ色
成分と異なる色成分を持つ画素を生成する画素生成ステ
ップとを備えることを特徴とする。
According to another aspect of the present invention, there is provided an image signal processing method for processing an input image signal having a color component representing any one of a plurality of colors at each pixel position. An extraction step of extracting a plurality of pixels having a color component having the highest density among the plurality of color components and located in the vicinity of the pixel of interest, based on the plurality of pixels extracted in the extraction step, A class determining step of determining a class, and a pixel generating step of generating a pixel having a color component different from at least the color component of the target pixel based on the class determined in the class determining step. I do.

【0013】また、本発明は、画素位置毎に複数の色の
うちのいずれか1つを表す色成分を持つ入力画像信号を
処理する画像信号処理を行うコンピュータ制御可能なプ
ログラムが記録された記録媒体において、上記プログラ
ムは、上記入力画像信号の注目画素毎に、上記複数の色
成分のうち最も高密度である色成分を有し、上記注目画
素近傍に位置する複数の画素を抽出する抽出ステップ
と、上記抽出ステップで抽出された複数の画素に基づい
て、クラスを決定するクラス決定ステップと、上記クラ
ス決定ステップで決定されたクラスに基づいて、少なく
とも上記注目画素が持つ色成分と異なる色成分を持つ画
素を生成する画素生成ステップとを有することを特徴と
する。
According to the present invention, there is provided a recording apparatus in which a computer-controllable program for performing image signal processing for processing an input image signal having a color component representing one of a plurality of colors for each pixel position is recorded. In the medium, the program includes, for each pixel of interest of the input image signal, a color component having the highest density among the plurality of color components, and extracting a plurality of pixels located near the pixel of interest. A class determining step of determining a class based on the plurality of pixels extracted in the extracting step; and a color component different from at least the color component of the pixel of interest based on the class determined in the class determining step And a pixel generation step of generating a pixel having the following.

【0014】また、本発明に係る学習装置は、画素位置
毎に複数の色のうちのいずれか1つを表す色成分を持つ
生徒画像信号の注目画素近傍に位置し、複数の色成分の
うち最も高密度である色成分を有する複数の画素を抽出
する第1の画素抽出手段と、上記第1の画素抽出手段で
抽出された複数の画素に基づいて、クラスを決定するク
ラス決定手段と、上記生徒画像信号と対応する画像信号
であり、画素位置毎に複数の色成分を持つ教師画像信号
から、上記生徒画像信号の注目画素の位置に相当する位
置の近傍の複数の画素を抽出する第2の画素抽出手段
と、上記第1及び第2の画素抽出手段で抽出された複数
の画素の画素値に基づいて、上記クラス毎に、上記生徒
画像信号に相当する画像信号から上記教師画像信号に相
当する画像信号を生成するための予測演算に用いる予測
係数セットを生成する予測係数生成手段とを備えること
を特徴とする。
Further, the learning apparatus according to the present invention is located near a target pixel of a student image signal having a color component representing any one of a plurality of colors for each pixel position, and First pixel extracting means for extracting a plurality of pixels having a color component having the highest density; class determining means for determining a class based on the plurality of pixels extracted by the first pixel extracting means; Extracting a plurality of pixels near a position corresponding to a position of a target pixel of the student image signal from a teacher image signal which is an image signal corresponding to the student image signal and has a plurality of color components for each pixel position. Two pixel extracting means, and the teacher image signal from the image signal corresponding to the student image signal for each class based on the pixel values of the plurality of pixels extracted by the first and second pixel extracting means. Produces an image signal equivalent to Characterized in that it comprises a prediction coefficient generating means for generating a prediction coefficient set to be used for prediction calculation for.

【0015】また、本発明に係る学習方法は、画素位置
毎に複数の色のうちのいずれか1つを表す色成分を持つ
生徒画像信号の注目画素近傍に位置し、複数の色成分の
うち最も高密度である色成分を有する複数の画素を抽出
する第1の画素抽出ステップと、上記第1の画素抽出ス
テップで抽出された複数の画素に基づいて、クラスを決
定するクラス決定ステップと、上記生徒画像信号と対応
する画像信号であり、画素位置毎に複数の色成分を持つ
教師画像信号から、上記生徒画像信号の注目画素の位置
に相当する位置の近傍の複数の画素を抽出する第2の画
素抽出ステップと、上記第1及び第2の画素抽出手段で
抽出された複数の画素の画素値に基づいて、上記クラス
毎に、上記生徒画像信号に相当する画像信号から上記教
師画像信号に相当する画像信号を生成するための予測演
算に用いる予測係数セットを生成する予測係数生成ステ
ップとを備えることを特徴とする。
Further, the learning method according to the present invention is arranged such that each of the plurality of color components is located near a target pixel of a student image signal having a color component representing any one of a plurality of colors at each pixel position. A first pixel extraction step of extracting a plurality of pixels having a color component having the highest density, a class determination step of determining a class based on the plurality of pixels extracted in the first pixel extraction step, Extracting a plurality of pixels near a position corresponding to a position of a target pixel of the student image signal from a teacher image signal which is an image signal corresponding to the student image signal and has a plurality of color components for each pixel position. (2) pixel extraction step, and, based on the pixel values of the plurality of pixels extracted by the first and second pixel extraction means, the image signal corresponding to the student image signal and the teacher image signal for each of the classes. Equivalent to It is characterized and a prediction coefficient generation step of generating a prediction coefficient set to be used for prediction calculation for generating the image signal that.

【0016】さらに、本発明は、クラスに応じた予測係
数セットを生成するための学習処理を行うコンピュータ
制御可能なプログラムが記録された記録媒体において、
上記プログラムは、画素位置毎に複数の色のうちのいず
れか1つを表す色成分を持つ生徒画像信号の注目画素近
傍に位置し、複数の色成分のうち最も高密度である色成
分を有する複数の画素を抽出する第1の画素抽出ステッ
プと、上記第1の画素抽出ステップで抽出された複数の
画素に基づいて、クラスを決定するクラス決定ステップ
と、上記生徒画像信号と対応する画像信号であり、画素
位置毎に複数の色成分を持つ教師画像信号から、上記生
徒画像信号の注目画素の位置に相当する位置の近傍の複
数の画素を抽出する第2の画素抽出ステップと、上記第
1及び第2の画素抽出手段で抽出された複数の画素の画
素値に基づいて、上記クラス毎に、上記生徒画像信号に
相当する画像信号から上記教師画像信号に相当する画像
信号を生成するための予測演算に用いる予測係数セット
を生成する予測係数生成ステップとを備えることを特徴
とする。
Further, the present invention provides a recording medium on which a computer-controllable program for performing a learning process for generating a prediction coefficient set corresponding to a class is recorded.
The above program is located near a pixel of interest of a student image signal having a color component representing any one of a plurality of colors for each pixel position, and has a color component having the highest density among the plurality of color components. A first pixel extracting step of extracting a plurality of pixels, a class determining step of determining a class based on the plurality of pixels extracted in the first pixel extracting step, and an image signal corresponding to the student image signal A second pixel extraction step of extracting, from a teacher image signal having a plurality of color components for each pixel position, a plurality of pixels near a position corresponding to the position of the pixel of interest of the student image signal, An image signal corresponding to the teacher image signal is generated from an image signal corresponding to the student image signal for each of the classes based on the pixel values of the plurality of pixels extracted by the first and second pixel extraction means. Characterized in that it comprises a prediction coefficient generation step of generating a prediction coefficient set to be used for the prediction calculation.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0018】本発明は、例えば図1に示すような構成の
デジタルスチルカメラ1に適用される。このデジタルス
チルカメラ1は、1画素毎に割り当てられた色フィルタ
からなる色コーディングフィルタ4が前面に設置された
1つのCCDイメージセンサ5を用いてカラー撮像を行
う単板式カメラであって、被写体からの入射光が、レン
ズ2により集光され、アイリス3及び色コーディングフ
ィルタ4を介してCCDイメージセンサ5に入射される
ようになっている。上記CCDイメージセンサ5の撮像
面上には、上記アイリス3により所定レベルの光量とさ
れた入射光により被写体像が結像される。なお、このデ
ジタルスチルカメラ1においては、色コーディングフィ
ルタ4とCCDイメージセンサ5は別体としたが、一体
化した構造とすることができる。
The present invention is applied to, for example, a digital still camera 1 having a configuration as shown in FIG. The digital still camera 1 is a single-panel camera that performs color imaging using a single CCD image sensor 5 provided with a color coding filter 4 composed of color filters assigned to each pixel on the front side. Is condensed by the lens 2 and is incident on the CCD image sensor 5 via the iris 3 and the color coding filter 4. A subject image is formed on the imaging surface of the CCD image sensor 5 by the incident light having a predetermined level of light quantity by the iris 3. In the digital still camera 1, the color coding filter 4 and the CCD image sensor 5 are provided separately, but may be integrated.

【0019】上記CCDイメージセンサ5は、タイミン
グジェネレータ9からのタイミング信号により制御され
る電子シャッタに応じて所定時間にわたって露光を行
い、色コーディングフィルタ4を透過した入射光の光量
に応じた信号電荷(アナログ量)を画素毎に発生するこ
とにより、上記入射光により結像された被写体像を撮像
して、その撮像出力として得られる画像信号を信号調整
部6に供給する。
The CCD image sensor 5 performs exposure for a predetermined time in accordance with an electronic shutter controlled by a timing signal from a timing generator 9, and outputs a signal charge (corresponding to the amount of incident light transmitted through the color coding filter 4). By generating (an analog amount) for each pixel, a subject image formed by the incident light is captured, and an image signal obtained as an image output is supplied to the signal adjustment unit 6.

【0020】信号調整部6は、画像信号の信号レベルが
一定となるようにゲインを調整するAGC(Automatic G
ain Contorol) 回路と、CCDイメージセンサ5が発生
する1/fのノイズを除去するCDS(Correiated Doub
le Sampling)回路からなる。
The signal adjusting section 6 adjusts the gain so that the signal level of the image signal becomes constant.
ain Control) circuit and a CDS (Correiated Doubl) for removing 1 / f noise generated by the CCD image sensor 5.
le Sampling) circuit.

【0021】上記信号調整部6から出力される画像信号
は、A/D変換部7によりアナログ信号からデジタル信
号に変換されて、画像信号処理部8に供給される。上記
A/D変換部7では、タイミングジェネレータ9からの
タイミング信号に応じて、例えば1サンプル10ビット
のディジタル撮像信号を生成する。
The image signal output from the signal adjuster 6 is converted from an analog signal to a digital signal by an A / D converter 7 and supplied to an image signal processor 8. The A / D converter 7 generates a digital imaging signal of, for example, 10 bits per sample according to the timing signal from the timing generator 9.

【0022】このデジタルスチルカメラ1において、タ
イミングジェネレータ9は、CCDイメージセンサ5、
信号調整部6、A/D変換部7及びCPU(Central Pro
cessing Unit) 10に各種タイミング信号を供給する。
CPU10は、モータ11を駆動することにより、アイ
リス3を制御する。また、CPU10は、モータ12を
駆動することにより、レンズ2などを移動させ、ズーム
やオートフォーカスなどの制御をする。さらに、CPU
10は、必要に応じ、フラッシュ13により閃光を発す
る制御を行うようにされている。
In the digital still camera 1, the timing generator 9 includes the CCD image sensor 5,
Signal adjustment unit 6, A / D conversion unit 7, and CPU (Central Pro
cessing Unit) 10 to supply various timing signals.
The CPU 10 controls the iris 3 by driving the motor 11. Further, the CPU 10 drives the motor 12 to move the lens 2 and the like, and controls zoom, autofocus, and the like. Furthermore, CPU
Numeral 10 controls the flash 13 to emit a flash as needed.

【0023】画像信号処理部8は、A/D変換部7から
供給された画像信号に対し、欠陥補正処理、ディジタル
クランプ処理、ホワイトバランス調整処理、ガンマ補正
処理、クラス分類適応処理を用いた予測処理等の処理を
行う。
The image signal processing unit 8 performs prediction on the image signal supplied from the A / D conversion unit 7 using defect correction processing, digital clamping processing, white balance adjustment processing, gamma correction processing, and class classification adaptive processing. Perform processing such as processing.

【0024】この画像信号処理部8に接続されたメモリ
15は、例えば、RAM(Random Access Memory)で構成
され、画像信号処理部8が画像処理を行う際に必要な信
号を記憶する。画像信号処理部8により処理された画像
信号は、インタフェース14を介してメモリ16に記憶
される。このメモリ16に記憶された画像信号は、イン
タフェース14を介してデジタルスチルカメラ1に対し
て着脱可能な記録媒体17に記録される。
The memory 15 connected to the image signal processing unit 8 is composed of, for example, a RAM (Random Access Memory), and stores signals required when the image signal processing unit 8 performs image processing. The image signal processed by the image signal processing unit 8 is stored in the memory 16 via the interface 14. The image signal stored in the memory 16 is recorded on a recording medium 17 detachable from the digital still camera 1 via the interface 14.

【0025】なお、モータ11は、CPU10からの制
御情報に基づいてアイリス3を駆動し、レンズ2を介し
て入射される光の量を制御する。また、モータ12は、
CPU10からの制御情報に基づいてレンズ2のCCD
イメージセンサ2に対するフォーカス状態を制御する。
これにより、自動絞り制御動作や自動焦点制御動作が実
現される。また、フラッシュ13は、CPU10による
制御の下で、被写体に対して所定の閃光を照射する。
The motor 11 drives the iris 3 based on control information from the CPU 10 to control the amount of light incident through the lens 2. Also, the motor 12
CCD of lens 2 based on control information from CPU 10
The focus state for the image sensor 2 is controlled.
Thereby, an automatic aperture control operation and an automatic focus control operation are realized. The flash 13 irradiates a predetermined flash to the subject under the control of the CPU 10.

【0026】また、インターフェース14は、画像信号
処理部8からの画像信号を必要に応じてメモリ16に記
憶し、所定のインターフェース処理を実行した後、記録
媒体17に供給し、記憶させる。記録媒体17として
は、デジタルスチルカメラ1の本体に対して着脱可能な
記録媒体、例えばフロッピーディスク、ハードディスク
等のディスク記録媒体、メモリカード等のフラッシュメ
モリ等を用いることができる。
The interface 14 stores the image signal from the image signal processing unit 8 in the memory 16 as necessary, and after executing a predetermined interface process, supplies the image signal to the recording medium 17 for storage. As the recording medium 17, a recording medium detachable from the main body of the digital still camera 1, for example, a disk recording medium such as a floppy disk or a hard disk, or a flash memory such as a memory card can be used.

【0027】コントローラ18は、CPU10の制御の
下で、画像信号処理部8及びインターフェース14に制
御情報を供給してそれぞれを制御する。CPU10に
は、シャッタボタンやズームボタンなどの操作ボタンか
ら構成される操作部20からユーザによる操作情報が入
力される。CPU10は、入力された操作情報を基に、
上述した各部を制御する。電源部19は、バッテリ19
AとDC/DCコンバータ19Bなどを有する。DC/
DCコンバータ19Bは、バッテリ19Aからの電力を
所定の値の直流電圧に変換し、装置内の各構成要素に供
給する。充電可能なバッテリ19Aは、デジタルスチル
カメラ1の本体に着脱可能とされている。
Under the control of the CPU 10, the controller 18 supplies control information to the image signal processing section 8 and the interface 14 to control them. Operation information by the user is input to the CPU 10 from an operation unit 20 including operation buttons such as a shutter button and a zoom button. The CPU 10 determines, based on the input operation information,
The above-described units are controlled. The power supply unit 19 includes a battery 19
A and a DC / DC converter 19B. DC /
The DC converter 19B converts the power from the battery 19A into a DC voltage having a predetermined value, and supplies the DC voltage to each component in the device. The rechargeable battery 19A is detachable from the main body of the digital still camera 1.

【0028】次に、図2のフローチャートを参照し、図
1に示したデジタルスチルカメラ1の動作について説明
する。このデジタルスチルカメラ1は、ステップS1に
おいて、電源がオンされることにより、被写体の撮像を
開始する。すなわち、CPU10は、モータ11及びモ
ータ12を駆動し、焦点を合わせたりアイリス3を調整
することにより、レンズ2を介してCCDイメージセン
サ5上に被写体像を結像させる。
Next, the operation of the digital still camera 1 shown in FIG. 1 will be described with reference to the flowchart of FIG. In step S1, the digital still camera 1 starts imaging a subject when the power is turned on. That is, the CPU 10 drives the motor 11 and the motor 12 to form a subject image on the CCD image sensor 5 via the lens 2 by focusing and adjusting the iris 3.

【0029】ステップS2では、結像された像をCCD
イメージセンサ5により撮像した画像信号が、信号調整
部6において、信号レベルが一定となるようにゲイン調
整され、さらにノイズが除去され、さらに、A/D変換
部7によりデジタル化される。
In step S2, the formed image is converted to a CCD image.
The image signal picked up by the image sensor 5 is gain-adjusted in the signal adjuster 6 so that the signal level becomes constant, noise is removed, and the signal is digitized by the A / D converter 7.

【0030】また、ステップS3では、上記A/D変換
部7によりデジタル化された画像信号に対して、画像信
号処理部8によりクラス分類適応処理を含む画像信号処
理を行う。
In step S3, the image signal processing unit 8 performs image signal processing including class classification adaptive processing on the image signal digitized by the A / D conversion unit 7.

【0031】ここで、被写体像は、CCDイメージセン
サ5の撮像出力として得られる画像信号を電子ビューフ
ァインダに表示するよりユーザが確認できるようになっ
ている。なお、被写体像は、光学的ビューファインダに
よりユーザが確認できるようにすることもできる。
Here, the user can confirm the object image by displaying an image signal obtained as an image pickup output of the CCD image sensor 5 on an electronic viewfinder. In addition, the subject image can be confirmed by the user using an optical viewfinder.

【0032】そして、ユーザは、ビューファインダによ
り確認した被写体像の画像を記録媒体17に記録したい
場合、操作部20のシャッタボタンを操作する。デジタ
ルスチルカメラ1のCPU10は、ステップS4におい
て、シャッタボタンが操作されたか否かを判断する。デ
ジタルスチルカメラ1は、シャッタボタンが操作された
と判断するまで、ステップS2〜S3の処理を繰り返
し、シャッタボタンが操作されたと判断すると、ステッ
プS5に進む。
When the user wants to record the image of the subject image confirmed by the viewfinder on the recording medium 17, the user operates the shutter button of the operation unit 20. In step S4, the CPU 10 of the digital still camera 1 determines whether the shutter button has been operated. The digital still camera 1 repeats the processing of steps S2 to S3 until it determines that the shutter button has been operated, and proceeds to step S5 when it determines that the shutter button has been operated.

【0033】そして、ステップS5では、画像信号処理
部8による画像信号処理が施された画像信号をインター
フェース14を介して記録媒体17に記録する。
In step S5, the image signal subjected to the image signal processing by the image signal processing section 8 is recorded on the recording medium 17 via the interface 14.

【0034】次に、図3を参照して画像信号処理部8に
ついて説明する。
Next, the image signal processing section 8 will be described with reference to FIG.

【0035】この画像信号処理部8は、上記A/D変換
部7によりデジタル化された画像信号が供給される欠陥
補正部21を備える。CCDイメージセンサ5の画素の
中で、何らかの原因により入射光に反応しない画素や、
入射光に依存せず、電荷が常に蓄えられている画素、換
言すれば、欠陥がある画素を検出し、その検出結果に従
って、それらの欠陥画素の影響が露呈しないように、画
像信号を補正する処理を行う。
The image signal processing section 8 includes a defect correction section 21 to which the image signal digitized by the A / D conversion section 7 is supplied. Among the pixels of the CCD image sensor 5, pixels that do not respond to incident light for some reason,
Pixels in which electric charges are always stored, that is, defective pixels are detected without depending on incident light, and the image signal is corrected according to the detection result so that the influence of the defective pixels is not exposed. Perform processing.

【0036】A/D変換部7では、負の値がカットされ
るのを防ぐため、一般に信号値を若干正の方向ヘシフト
させた状態でA/D変換が行われている。クランプ部2
2は、欠陥補正部21により欠陥補正された画像信号に
対し、上述したシフト量がなくなるようにクランプす
る。
In the A / D converter 7, in order to prevent the negative value from being cut, the A / D conversion is generally performed with the signal value slightly shifted in the positive direction. Clamp part 2
Reference numeral 2 clamps the image signal corrected for defects by the defect correction unit 21 so that the above-described shift amount is eliminated.

【0037】クランプ部22によりクランプされた画像
信号は、ホワイトバランス調整部23に供給される。ホ
ワイトバランス調整部23は、クランプ部22から供給
された画像信号のゲインを補正することにより、ホワイ
トバランスを調整する。このホワイトバランス調整部2
3によりホワイトバランスが調整された画像信号は、ガ
ンマ補正部24に供給される。ガンマ補正部24は、ホ
ワイトバランス調整部23によりホワイトバランスが調
整された画像信号の信号レベルをガンマ曲線に従って補
正する。このガンマ補正部24によりガンマ補正された
画像信号は、予測処理部25に供給される。
The image signal clamped by the clamp unit 22 is supplied to a white balance adjustment unit 23. The white balance adjustment unit 23 adjusts the white balance by correcting the gain of the image signal supplied from the clamp unit 22. This white balance adjustment unit 2
The image signal whose white balance has been adjusted by 3 is supplied to the gamma correction unit 24. The gamma correction unit 24 corrects the signal level of the image signal whose white balance has been adjusted by the white balance adjustment unit 23 according to a gamma curve. The image signal gamma-corrected by the gamma correction unit 24 is supplied to the prediction processing unit 25.

【0038】予測処理部25は、クラス分類適応処理を
行うことによってガンマ補正部24の出力を例えば3板
式カメラのCCD出力相当の画像信号に変換して、補正
部26に供給する。上記予測処理部25は、ブロック化
部28、ADRC(AdaptiveDynamic Range Coding) 処
理部29、クラス分類部30、適応処理部31、係数メ
モリ32等からなる。
The prediction processing unit 25 converts the output of the gamma correction unit 24 into an image signal equivalent to, for example, a CCD output of a three-panel camera by performing the classification adaptive processing, and supplies the image signal to the correction unit 26. The prediction processing unit 25 includes a blocking unit 28, an ADRC (Adaptive Dynamic Range Coding) processing unit 29, a class classification unit 30, an adaptive processing unit 31, a coefficient memory 32, and the like.

【0039】ブロック化部28は、後述するクラスタッ
プの画像信号をADRC処理部29に供給するととも
に、予測タップの画像信号を適応処理部31に供給す
る。ADRC処理部29は、入力されたクラスタップの
画像信号に対してADRC処理を行って再量子化コード
を生成し、この再量子化コードを特徴情報としてクラス
分類部30に供給する。クラス分類部30は、ADRC
処理部29から供給される特徴情報に基づいて、画像信
号パターンの分類を行い、分類結果を示すクラス番号
(クラスコード)を生成する。係数メモリ32は、クラ
ス分類部30により分類されたクラス番号に対応する係
数セットを適応処理部31に供給する。適応処理部31
は、係数セットメモリ32から供給された係数セットを
用いて、ブロック化部28から供給された予測タップの
画像信号から予測画素値を求める処理を行う。
The blocking section 28 supplies an image signal of a class tap described later to the ADRC processing section 29 and supplies an image signal of a prediction tap to the adaptive processing section 31. The ADRC processing unit 29 performs an ADRC process on the input image signal of the class tap to generate a requantized code, and supplies the requantized code to the class classification unit 30 as feature information. ADRC
The image signal patterns are classified based on the feature information supplied from the processing unit 29, and a class number (class code) indicating the classification result is generated. The coefficient memory 32 supplies a coefficient set corresponding to the class number classified by the class classification unit 30 to the adaptive processing unit 31. Adaptive processing unit 31
Performs a process of obtaining a predicted pixel value from the image signal of the prediction tap supplied from the blocking unit 28 using the coefficient set supplied from the coefficient set memory 32.

【0040】補正部26は、上記予測処理部25により
処理された画像信号に対してエッジ強調等の画像を視覚
的に良く見せるために必要ないわゆる画作りのための処
理を行う。
The correcting section 26 performs so-called image forming processing required for visually enhancing an image such as edge enhancement on the image signal processed by the prediction processing section 25.

【0041】そして、色空間変換部27は、補正部26
によりエッジ強調などの処理が施された画像信号(RG
B信号)をマトリクス変換してYUV(輝度Yと色差
U,Vとでなる信号)などの所定の信号フォーマットの
画像信号に変換する。ただし、マトリクス変換処理を行
わず、色空間変換部27からRGB信号をそのまま出力
させても良い。この発明の一実施形態では、例えばユー
ザの操作によつて、YUV信号、RGB信号の何れを出
力するかを切り換えることが可能とされている。色空間
変換部27により変換された画像信号は、上述のインタ
フェース14に供給される。
Then, the color space conversion section 27
Signal (RG) that has been subjected to processing such as edge enhancement
B signal) is converted into an image signal of a predetermined signal format such as YUV (a signal composed of luminance Y and color differences U and V) by matrix conversion. However, the RGB signals may be directly output from the color space conversion unit 27 without performing the matrix conversion processing. In one embodiment of the present invention, it is possible to switch which of a YUV signal and an RGB signal to output, for example, by a user operation. The image signal converted by the color space conversion unit 27 is supplied to the interface 14 described above.

【0042】ここで、上記図2に示したフローチャート
のステップS3において、画像信号処理部8により行わ
れる画像信号処理について、図4のフローチャートを参
照して説明する。
Here, the image signal processing performed by the image signal processing unit 8 in step S3 of the flowchart shown in FIG. 2 will be described with reference to the flowchart in FIG.

【0043】すなわち、画像信号処理部8では、A/D
変換部7によりデジタル化された画像信号に対する画像
信号処理を開始すると、先ず、ステップS11におい
て、CCDイメージセンサ5の欠陥の影響が出ないよう
に、欠陥補正部21により画像信号の欠陥補正を行う。
そして、次のステップS12では、欠陥補正部21によ
り欠陥補正された画像信号に対して、正の方向にシフト
されていた量をもとに戻すクランプ処理をクランプ部2
2により行う。
That is, in the image signal processing section 8, the A / D
When the image signal processing for the image signal digitized by the conversion unit 7 is started, first, in step S11, the defect correction unit 21 performs defect correction of the image signal so that the defect of the CCD image sensor 5 is not affected. .
Then, in the next step S12, the clamp unit 2 performs a clamp process for returning the amount shifted in the positive direction to the original value for the image signal subjected to the defect correction by the defect correction unit 21.
Perform by 2.

【0044】次のステップS13では、クランプ部22
によりクランプされた画像信号に対して、ホワイトバラ
ンス調整部23によりホワイトバランスの調整を行い各
色信号間のゲインを調整する。さらに、ステップS14
では、ホワイトバランスが調整された画像信号に対し
て、ガンマ補正部24によりガンマ曲線に従った補正を
施す。
In the next step S13, the clamping unit 22
The white balance adjustment unit 23 adjusts the white balance of the image signal clamped by the above to adjust the gain between the respective color signals. Further, step S14
Then, the gamma correction unit 24 performs correction according to the gamma curve on the image signal whose white balance has been adjusted.

【0045】ステップS15では、クラス分類適応処理
を用いた予測処理を行う。かかる処理は、ステップS1
51〜ステップS155までのステップからなる。ステ
ップS151では、ガンマ補正部24によりガンマ補正
された画像信号に対してブロック化部28によりブロッ
ク化、すなわち、クラスタップ及び予測タップの切り出
しを行う。ここで、クラスタップは、複数種類の色信号
に対応する画素を含む。 ステップS152では、AD
RC処理部29によりADRC処理を行う。
In step S15, a prediction process using the classification adaptive process is performed. This processing is performed in step S1
It consists of steps from 51 to S155. In step S151, the image signal gamma-corrected by the gamma correction unit 24 is blocked by the blocking unit 28, that is, class taps and prediction taps are cut out. Here, the class tap includes pixels corresponding to a plurality of types of color signals. In step S152, AD
ADRC processing is performed by the RC processing unit 29.

【0046】ステップS153では、クラス分類部30
においてADRC処理に基づいてクラスを分類するクラ
ス分類処理を行う。そして、分類されたクラスに対応す
るクラス番号を適応処理部31に与える。
In step S153, the classifying unit 30
Performs a class classification process for classifying the classes based on the ADRC process. Then, a class number corresponding to the classified class is given to the adaptive processing unit 31.

【0047】ステップS154において、適応処理部3
1は、クラス分類部30より与えられたクラス番号に対
応する予測係数セットを係数メモリ32から読み出し、
その予測係数セットを対応する予測タップの画像信号に
乗算し、それらの総和をとることで、予測画素値を演算
する。
In step S154, the adaptive processing unit 3
1 reads a prediction coefficient set corresponding to the class number given from the class classification unit 30 from the coefficient memory 32,
The prediction pixel value is calculated by multiplying the image signal of the corresponding prediction tap by the prediction coefficient set and calculating the sum thereof.

【0048】ステップS155では、すべての領域に対
して処理が行われたか否かを判定する。すべての領域に
対して処理が行われたと判定される場合にはステップS
16に移行し、それ以外の場合にはステップS151に
移行し、次の領域に対する処理を行う。
In step S155, it is determined whether or not processing has been performed on all the areas. If it is determined that the processing has been performed on all the areas, step S
The process proceeds to step S151, otherwise the process proceeds to step S151 to perform processing for the next area.

【0049】ステップS16では、ステップS15によ
つて得られた3板式カメラのCCD出力相当の画像に対
して、視覚的に良く見せるための補正処理(いわゆる画
作り)を行う。ステップS17では、ステップS16に
よつて得られた画像に例えばRGB信号をYUV信号に
変換するなどの色空間の変換処理を施す。これにより、
例えば記録信号として好適な信号フォーマットを有する
出力画像が生成される。
In step S16, the image corresponding to the CCD output of the three-panel camera obtained in step S15 is subjected to a correction process (so-called image creation) to make the image look good. In step S17, the image obtained in step S16 is subjected to a color space conversion process such as converting RGB signals into YUV signals. This allows
For example, an output image having a signal format suitable as a recording signal is generated.

【0050】ここで、クラス分類適応処理について説明
する。クラス分類適応処理を用いた予測演算を行うため
の一般的な構成例を図5に示す。入力画像信号が領域切
り出し部101、102に供給される。領域切り出し部
101は、入力画像信号から所定の画像領域(クラスタ
ップと称される)を抽出し、クラスタップの信号をAD
RC処理部103に供給する。ADRC処理部103
は、供給される信号にADRC処理を施すことにより、
再量子化コードを生成する。なお、再量子化コードを生
成する方法として、ADRC以外の方法を用いても良
い。
Here, the classification adaptive processing will be described. FIG. 5 shows a general configuration example for performing a prediction operation using the classification adaptive processing. The input image signal is supplied to the region cutout units 101 and 102. The area cutout unit 101 extracts a predetermined image area (referred to as a class tap) from an input image signal, and converts a signal of the class tap into an AD signal.
It is supplied to the RC processing unit 103. ADRC processing unit 103
Performs ADRC processing on the supplied signal,
Generate a requantization code. Note that a method other than ADRC may be used as a method for generating the requantized code.

【0051】ADRCは、本来、VTR(Video Tape Re
corder) 用の高能率符号化のために開発された適応的再
量子化法であるが、信号レベルの局所的なパターンを短
い語調で効率的に表現できるという特徴を有する。この
ため、クラス分類のコードを発生するための、画像信号
の時空間内でのパターンすなわち空間アクティビティの
検出に使用することができる。ADRC処理部103で
は、以下の式(1)により、クラスタップとして切り出
される領域内の最大値MAXと最小値MINとの間を指
定されたビット数で均等に分割して再量子化する。
The ADRC is originally designed for VTR (Video Tape Re
This is an adaptive requantization method developed for high-efficiency coding for corders, but has the feature that local patterns of signal levels can be efficiently expressed in short tones. Therefore, it can be used to detect a pattern in the spatiotemporal of an image signal, that is, a spatial activity, for generating a code for class classification. The ADRC processing unit 103 equally divides the area between the maximum value MAX and the minimum value MIN in the area cut out as the class tap by the designated number of bits and requantizes according to the following equation (1).

【0052】 DR=MAX−MIN+1 Q=〔(L−MIN+0.5)×2n /DR〕 (1) ここで、DRは領域内のダイナミックレンジである。ま
た、nはビット割当て数であり、例えばn=2とするこ
とができる。また、Lは領域内画素の信号レベルであ
り、Qが再量子化コードである。ただし、大かっこ
(〔・・・〕)は小数点以下を切り捨てる処理を意味す
る。
DR = MAX−MIN + 1 Q = [(L−MIN + 0.5) × 2n / DR] (1) Here, DR is a dynamic range in the area. Further, n is the number of allocated bits, and can be, for example, n = 2. L is the signal level of the pixel in the area, and Q is the requantization code. However, square brackets ([...]) mean a process of truncating decimal places.

【0053】これにより、1画素当たり例えば8ビット
からなるクラスタップの画像信号が例えば2ビットの再
量子化コード値に変換される。このようにして生成され
る再量子化コード値により、クラスタップの信号におけ
るレベル分布のパターンがより少ない情報量によつて表
現される。例えば7画素からなるクラスタップ構造を用
いる場合、上述したような処理により、各画素に対応す
る7個の再量子化コードq1〜q7が生成される。クラ
スコードclass は、次の式(2)のようなものである。
As a result, an image signal of a class tap consisting of, for example, 8 bits per pixel is converted into, for example, a 2-bit requantized code value. With the requantized code value generated in this way, the pattern of the level distribution in the signal of the class tap is represented by a smaller amount of information. For example, when a class tap structure including seven pixels is used, seven requantization codes q1 to q7 corresponding to each pixel are generated by the above-described processing. The class code class is as shown in the following expression (2).

【0054】[0054]

【数1】 (Equation 1)

【0055】ここで、nはクラスタップとして切り出さ
れる画素の数である。また、pの値としては、例えばp
=2とすることができる。
Here, n is the number of pixels cut out as class taps. As the value of p, for example, p
= 2.

【0056】クラスコードclass は、時空間内での画像
信号のレベル分布のパターンすなわち空間アクティビテ
ィを特徴情報として分類してなるクラスを表現してい
る。クラスコードclass は、予測係数メモリ104に供
給される。予測係数メモリ104は、後述するようにし
て予め決定されたクラス毎の予測係数セットを記憶して
おり、供給される再量子化コードによって表現されるク
ラスの予測係数セットを出力する。一方、領域切り出し
部102は、入力画像から所定の画像領域(予測タップ
と称される)を抽出し、予測タップの画像信号を予測演
算部105に供給する。予測演算部105は、領域切り
出し部102の出力と、予測係数メモリ104から供給
される予測係数セットとに基づいて以下の式(3)のよ
うな演算を行うことにより、出力画像信号yを生成す
る。
The class code class represents a class obtained by classifying the pattern of the level distribution of the image signal in the space and time, that is, the spatial activity as feature information. The class code class is supplied to the prediction coefficient memory 104. The prediction coefficient memory 104 stores a prediction coefficient set for each class determined in advance as described later, and outputs a prediction coefficient set of a class represented by the supplied requantization code. On the other hand, the region cutout unit 102 extracts a predetermined image region (referred to as a prediction tap) from the input image and supplies an image signal of the prediction tap to the prediction calculation unit 105. The prediction calculation unit 105 generates an output image signal y by performing a calculation such as the following Expression (3) based on the output of the region cutout unit 102 and the prediction coefficient set supplied from the prediction coefficient memory 104. I do.

【0057】 y=w1×x1+w2×x2+・・・+wn×xn (3) ここで、x1 ,・・・,xn が各予測タップの画素値で
あり、w1 ,・・・,wn が各予測係数である。
Y = w 1 × x 1 + w 2 × x 2 + ... + w n × x n (3) where x 1 ,..., X n are pixel values of each prediction tap, and w 1,..., it is w n are each prediction coefficient.

【0058】また、予測係数セットを決定するための処
理について図6を参照して説明する。出力画像信号と同
一の画像信号形式を有するHD(High Definition) 画像
信号がHD−SD変換部201と画素抽出部208に供
給される。HD−SD変換部201は、間引き処理等を
行うことにより、HD画像信号を入力画像信号と同等の
解像度(画素数)の画像信号(以下、SD(Standard De
finition) 画像信号という)に変換する。このSD画像
信号が領域切り出し部202、203に供給される。領
域切り出し部202は、上記領域切り出し部101と同
様に、SD画像信号からクラスタップを切り出し、クラ
スタップの画像信号をADRC処理部204に供給す
る。
The processing for determining the prediction coefficient set will be described with reference to FIG. An HD (High Definition) image signal having the same image signal format as the output image signal is supplied to the HD-SD conversion unit 201 and the pixel extraction unit 208. The HD-SD conversion unit 201 converts the HD image signal into an image signal having the same resolution (number of pixels) as the input image signal (hereinafter referred to as SD (Standard De-
finition) image signal). This SD image signal is supplied to the region cutout units 202 and 203. The region cutout unit 202 cuts out a class tap from the SD image signal and supplies the image signal of the class tap to the ADRC processing unit 204, similarly to the region cutout unit 101.

【0059】ADRC処理部204は、図5中のADR
C処理部103と同様なADRC処理を行い、供給され
る信号に基づく再量子化コードを生成する。再量子化コ
ードは、クラスコード生成部205に供給される。クラ
スコード生成部205は、供給される再量子化コードに
対応するクラスを示すクラスコードを生成し、クラスコ
ードを正規方程式加算部206に供給する。一方、領域
切り出し部203は、図6中の領域切り出し部102と
同様に、供給されるSD画像信号から予測タップを切り
出し、切り出した予測タップの画像信号を正規方程式加
算部206に供給する。
The ADRC processing unit 204 is the ADR processing unit shown in FIG.
An ADRC process similar to that of the C processing unit 103 is performed to generate a requantized code based on the supplied signal. The requantized code is supplied to the class code generation unit 205. The class code generation unit 205 generates a class code indicating a class corresponding to the supplied requantization code, and supplies the class code to the normal equation addition unit 206. On the other hand, the region cutout unit 203 cuts out prediction taps from the supplied SD image signal and supplies the cutout prediction tap image signal to the normal equation addition unit 206, similarly to the region cutout unit 102 in FIG.

【0060】正規方程式加算部206は、領域切り出し
部203から供給される画像信号と画素抽出部208か
ら供給される画像信号について、クラスコード生成部2
05から供給されるクラスコード毎に加算し、加算した
各クラス毎の信号を予測係数決定部207に供給する。
予測係数決定部207は、供給される各クラス毎の信号
に基づいて各クラス毎に予測係数セットを決定する。
The normal equation adding unit 206 converts the image signal supplied from the area extracting unit 203 and the image signal supplied from the pixel extracting unit 208 into a class code generating unit 2.
The addition is performed for each class code supplied from step 05, and the added signal for each class is supplied to the prediction coefficient determination unit 207.
The prediction coefficient determination unit 207 determines a prediction coefficient set for each class based on the supplied signals for each class.

【0061】さらに、予測係数セットを決定するための
演算について説明する。予測係数wi は、図6に示した
ような構成に対し、HD画像信号として複数種類の画像
信号を供給することにより、次のよう演算される。これ
らの画像信号の種類数をmと表記する場合、式(3)か
ら、以下の式(4)が設定される。
Further, the operation for determining the prediction coefficient set will be described. The prediction coefficient w i is calculated as follows by supplying a plurality of types of image signals as HD image signals to the configuration shown in FIG. When the number of types of these image signals is expressed as m, the following equation (4) is set from the equation (3).

【0062】 yk =w1 ×xk1+w2 ×xk2+・・・+wn ×xkn (4) (k=1,2,・・・,m) m>nの場合には、w1 ,・・・,wn は一意に決まら
ないので、誤差ベクトルeの要素ekを以下の式(5)
で定義して、式(6)によつて定義される誤差ベクトル
eの2乗を最小とするように予測係数セットを定めるよ
うにする。すなわち、いわゆる最小2乗法によつて予測
係数セットを一意に定める。
Y k = w 1 × x k1 + w 2 × x k2 + ... + w n × x kn (4) (k = 1, 2,..., M) If m> n, w Since 1 ,..., W n are not uniquely determined, the element ek of the error vector e is calculated by the following equation (5).
The prediction coefficient set is determined so as to minimize the square of the error vector e defined by the equation (6). That is, the prediction coefficient set is uniquely determined by the so-called least square method.

【0063】 ek =yk−{w1 ×xk1+w2 ×k2 +・・・+wn ×kn } (5) (k=1,2,・・・m)[0063] e k = y k - {w 1 × x k1 + w 2 × k 2 + ··· + w n × k n} (5) (k = 1,2, ··· m)

【0064】[0064]

【数2】 (Equation 2)

【0065】式(6)のe2 を最小とする予測係数セッ
トを求めるための実際的な計算方法としては、e2 を予
測係数wi (i=1,2,・・・)で偏微分し(式
(7))、iの各値について偏微分値が0となるように
各予測係数wi を決定すればよい。
[0065] A practical calculation method for obtaining the prediction coefficient set that minimizes the e 2 of formula (6), predicts e 2 coefficients w i (i = 1,2, ··· ) partially differentiated by Then, each prediction coefficient w i may be determined so that the partial differential value of each value of i becomes 0.

【0066】[0066]

【数3】 (Equation 3)

【0067】式(7)から各予測係数wi を決定する具
体的な手順について説明する。式(8),(9)のよう
にXji,Yi を定義すると、式(7)は、式(10)の
行列式の形に書くことができる。
A specific procedure for determining each prediction coefficient w i from equation (7) will be described. When X ji and Y i are defined as in equations (8) and (9), equation (7) can be written in the form of a determinant of equation (10).

【0068】[0068]

【数4】 (Equation 4)

【0069】[0069]

【数5】 (Equation 5)

【0070】[0070]

【数6】 (Equation 6)

【0071】式(10)が一般に正規方程式と呼ばれる
ものである。正規方程式加算部205は、供給される信
号に基づいて式(8),(9)に示すような演算を行う
ことにより、Xji,Yi (i=1,2,・・・,n)を
それぞれ計算する。予測係数決定部207は、掃き出し
法等の一般的な行列解法に従って正規方程式(10)を
解くことにより、予測係数wi (i=1,2,・・・)
を算出する。
Equation (10) is generally called a normal equation. The normal equation adding unit 205 performs an operation as shown in Expressions (8) and (9) based on the supplied signal, thereby obtaining X ji , Y i (i = 1, 2,..., N). Is calculated respectively. The prediction coefficient determination unit 207 solves the normal equation (10) according to a general matrix solution such as a sweeping-out method, so that the prediction coefficient w i (i = 1, 2,...)
Is calculated.

【0072】ここでは、注目画素の特徴情報に対応した
予測係数セットと予測タップを用いて、上述の式(3)
における線形1次結合モデルの演算を行うことにより、
適応処理を行う。なお、適応処理に用いる注目画素の特
徴情報に対応した予測係数セットは、学習により得る
が、クラス対応の画素値を用いたり、非線形モデルの演
算により適応処理を行うこともできる。
Here, using the prediction coefficient set and the prediction tap corresponding to the feature information of the pixel of interest, the above equation (3) is used.
By performing the operation of the linear linear combination model in,
Perform adaptive processing. The prediction coefficient set corresponding to the feature information of the target pixel used in the adaptive processing is obtained by learning, but the adaptive processing can be performed by using a pixel value corresponding to a class or by calculating a nonlinear model.

【0073】上述したようなクラス分類適応処理によ
り、入力画像信号から、例えばノイズが除去された画像
信号、走査線構造が変換されてなる画像信号等を出力画
像信号として生成する種々の画像信号変換処理が実現さ
れる。
Various kinds of image signal conversion for generating, for example, an image signal from which noise has been removed, an image signal obtained by converting a scanning line structure, and the like as an output image signal from an input image signal by the above-described classification adaptive processing. Processing is realized.

【0074】このデジタルスチルカメラ1では、例え
ば、単板式カメラのCCDイメージセンサによって生成
される画素位置毎に複数のうちの何れか一つを表す色成
分を持つ入力画像信号から、入力画像信号の注目画素毎
に、上記注目画素近傍の複数の画素を抽出し、抽出され
た複数の画素のうち最も高密度の画素の色の成分に基づ
いて基づいてクラスを決定し、決定されたクラスに基づ
いて、上記注目画素の位置に、上記注目画素が持つ色成
分と異なる色成分を持つ画素を生成するクラス分類適応
処理を上記予測処理部25で行うことによって、3板式
カメラのCCD出力相当の画像信号を得る。
In the digital still camera 1, for example, an input image signal having a color component representing one of a plurality of color components for each pixel position generated by a CCD image sensor of a single-chip camera is converted from an input image signal. For each pixel of interest, a plurality of pixels in the vicinity of the pixel of interest are extracted, a class is determined based on the color component of the highest density pixel among the extracted pixels, and a class is determined based on the determined class. Then, the prediction processing unit 25 performs a class classification adaptive process for generating a pixel having a color component different from the color component of the target pixel at the position of the target pixel, thereby obtaining an image equivalent to the CCD output of the three-chip camera. Get the signal.

【0075】すなわち、上記デジタルスチルカメラ1の
CCDイメージセンサ5にCCDイメージセンサ5に用
いることのできる色コーディングフィルタ4を構成する
色フィルタアレイの構成は、各種存在するが、色フィル
タアレイの中で各信号値が有する情報の密度に差がある
場合、各色信号毎に独立にクラス分類適応処理を行った
のでは、情報の密度差により予測精度に差が生じる。例
えば、ベイヤー配列の色フィルタアレイが用いられる場
合に、R,G、Bの各色信号毎に独立にクラス分類適応
処理を行ったのでは、m×n(m及びnは正の整数)個
の画素のうちR画素とB画素に関しては4画素に1個の
割合でしか存在しないにも拘わらずG(4画素に2個の
割合で存在する)と同様の処理がなされることになる。
このため、RとBに関してはGと比較して精度の良い予
測処理を行うことができない。
That is, there are various types of color filter arrays constituting the color coding filter 4 that can be used in the CCD image sensor 5 of the digital still camera 1 in the CCD image sensor 5, but among the color filter arrays, If there is a difference in the information density of each signal value, if the classification adaptive processing is performed independently for each color signal, the difference in the information density causes a difference in prediction accuracy. For example, when a Bayer array color filter array is used, if the classification adaptive processing is performed independently for each of the R, G, and B color signals, m × n (m and n are positive integers) Regarding the R pixel and the B pixel among the pixels, the same processing as that of G (existing at a ratio of two per four pixels) is performed although there is only one per four pixels.
For this reason, it is not possible to perform a more accurate prediction process for R and B than for G.

【0076】そこで、本発明では、情報の密度に差があ
る場合には、最も高密度に配置されている色成分のみを
利用して、画素位置毎に複数の色のうちのいずれか1つ
を表す色成分を持つ入力画像信号の注目画素毎に、上記
複数の色成分のうち最も高密度である色成分を有し、上
記注目画素近傍に位置する複数の画素を抽出し、抽出さ
れた複数の画素に基づいて決定されたクラスに基づい
て、上記注目画素が持つ色成分と異なる色成分を持つ画
素を生成することにより予測精度を向上させることがで
きる。
Therefore, in the present invention, when there is a difference in information density, only one of a plurality of colors is used for each pixel position by using only the color components arranged at the highest density. Is extracted for each pixel of interest of the input image signal having a color component that represents a pixel having a color component having the highest density among the plurality of color components and located near the pixel of interest. Prediction accuracy can be improved by generating a pixel having a color component different from the color component of the target pixel based on a class determined based on a plurality of pixels.

【0077】この場合のベイヤー配列の色フィルタアレ
イにより色コーディングされた画像信号に対するクラス
タップと予測タップの具体例について説明する。例えば
図7に示すように、B画素を予測画素位置とする場合、
図8に示すように、その予測画素位置にあるB画素の上
下左右に隣接する4個のG画素、左側に隣接するG画素
の左上と左下に隣接する2個のG画素、さらに、予測画
素位置にあるB画素の右側に隣接するG画素の右上と右
下に隣接する2個のG画素の合計8個のG画素がクラス
タップとされる。そして、この場合における予測タップ
としては、図9に示すように、中央のB画素を中心とす
る5×5個のRGBの各成分を含む画素が用いられる。
A specific example of class taps and prediction taps for an image signal color-coded by a Bayer array color filter array in this case will be described. For example, as shown in FIG. 7, when a B pixel is set as a predicted pixel position,
As shown in FIG. 8, four G pixels adjacent to the B pixel located at the predicted pixel position in the vertical and horizontal directions, two G pixels adjacent to the upper left and lower left of the G pixel adjacent to the left side, and a predicted pixel A total of eight G pixels including two G pixels adjacent to the upper right and lower right of the G pixel adjacent to the right side of the B pixel at the position are set as class taps. As the prediction tap in this case, as shown in FIG. 9, pixels including 5 × 5 RGB components centered on the central B pixel are used.

【0078】また、図10に示すように、R画素が予測
画素位置とされる場合、図11に示すように、その予測
画素位置にあるR画素のの上下左右に隣接する4個のG
画素、左側に隣接するG画素の左上と左下に隣接する2
個のG画素、さらに、右側に隣接するG画素の右上と右
下に隣接する2個の画素の合計8個のG画素がクラスタ
ップとされる。この場合における予測タップとしては、
図12に示すように、予測画素にあるR画素を中心とす
る5×5個のRGBの各色成分を含む25個の画素が用
いられる。
When the R pixel is located at the predicted pixel position as shown in FIG. 10, as shown in FIG. 11, four G pixels adjacent to the R pixel at the predicted pixel position in the upper, lower, left and right directions.
Pixel, G pixel adjacent to the left and 2 adjacent to the upper left and lower left
A total of eight G pixels, that is, a total of eight G pixels, that is, two G pixels adjacent to the upper right and lower right of the G pixel adjacent to the right side, are set as class taps. As the prediction tap in this case,
As shown in FIG. 12, 25 pixels including 5 × 5 RGB color components centering on the R pixel in the prediction pixel are used.

【0079】さらに、図13に示すように、G画素が予
測画素位置とされる場合、予測画素位置にあるG画素と
隣接する画素の色の違いに対応して図14に示すような
画素がクラスタップとして用いられる。すなわち、図1
4の(A)に示すクラスタップは、予測画素位置にある
G画素の左上、左下、右上及び右下に隣接する4個のG
画素、予測画素位置にあるG画素のから上下方向にR画
素を介して隣接する2個のG画素、及び水平方向にB画
素を介して隣接する2個のG画素、並びに自分自身を含
む合計9個のG画素により構成されている。また、図1
4の(B)に示すクラスタップは、予測画素位置にある
G画素の左上、左下、右上及び右下に隣接する4個のG
画素、予測画素位置にあるG画素のから上下方向にB画
素を介して隣接する2個のG画素、及び水平方向にR画
素を介して隣接する2個のG画素、並びに自分自身を含
む合計9個のG画素により構成されている。さらに、こ
の場合における予測タップとしては、図15の(A),
(B)に示すように、予測画素位置にある画素を含む、
その周囲の5×5個のRGBの各色成分を含む画素が用
いられる。
Further, as shown in FIG. 13, when the G pixel is located at the predicted pixel position, the pixel as shown in FIG. Used as a class tap. That is, FIG.
4A shows four G taps adjacent to the upper left, lower left, upper right, and lower right of the G pixel at the predicted pixel position.
Pixel, two G pixels adjacent to each other via a R pixel in the vertical direction from the G pixel at the predicted pixel position, two G pixels adjacent to each other via a B pixel in the horizontal direction, and a total including itself It is composed of nine G pixels. FIG.
4B shows four G taps adjacent to the upper left, lower left, upper right, and lower right of the G pixel at the predicted pixel position.
Pixel, two G pixels vertically adjacent to each other via a B pixel from the G pixel at the predicted pixel position, two G pixels horizontally adjacent to each other via an R pixel, and a total including itself It is composed of nine G pixels. Further, as the prediction tap in this case, (A) in FIG.
(B) includes a pixel at a predicted pixel position,
The surrounding pixels including 5 × 5 RGB color components are used.

【0080】RGBの各信号値から、輝度信号Yは、次
式に従って演算される。
From each of the RGB signal values, the luminance signal Y is calculated according to the following equation.

【0081】Y=0.59G+0.30R+0.11B このように、輝度信号に与える影響はG成分が最も大き
く、したがって、図7に示すように、ベイヤー配列の場
合においても、G成分の画素が最も高密度に配置されて
いる。輝度信号Yは、人間の視覚特性、解像度に影響す
る情報を多量に含んでいる。
Y = 0.59G + 0.30R + 0.11B As described above, the influence on the luminance signal is greatest for the G component, and therefore, as shown in FIG. It is arranged at high density. The luminance signal Y includes a large amount of information that affects human visual characteristics and resolution.

【0082】そこで、クラスタップをG成分の画像信号
をG画素のみから構成すれば、より精度良く、クラスを
決定することができ、精度の良いクラス分類適応処理が
可能となる。
Therefore, if the class tap is composed of only G pixels for the G component image signal, the class can be determined with higher accuracy, and the class classification adaptive processing can be performed with higher accuracy.

【0083】上記予測係数セットは、予め学習により得
られるもので、上記係数メモリ32に記憶されている。
The prediction coefficient set is obtained in advance by learning, and is stored in the coefficient memory 32.

【0084】ここで、この学習について説明する。図1
6は、予測係数セットを学習により得る学習装置40の
構成を示すブロック図である。
Here, this learning will be described. FIG.
6 is a block diagram illustrating a configuration of a learning device 40 that obtains a prediction coefficient set by learning.

【0085】この学習装置40では、クラス分類適応処
理の結果として生成されるべき出力画像信号、すなわち
3板式カメラのCCD出力相当の画像信号と同一の信号
形式を有する画像信号が教師画像信号として間引き部4
1及び教師画像ブロック化部45に供給される。間引き
部41は、教師画像信号から、色フィルタアレイの各色
の配置に従つて画素を間引く。間引き処理は、CCDイ
メージセンサ5に対して着される光学ローパスフィルタ
を想定したフィルタをかけることによって行う。すなわ
ち、実際の光学系を想定した間引き処理を行う。間引き
部41の出力が生徒画像信号として生徒画像ブロック化
部42に供給される。
In the learning apparatus 40, an output image signal to be generated as a result of the classification adaptive processing, that is, an image signal having the same signal format as an image signal equivalent to a CCD output of a three-chip camera is thinned out as a teacher image signal. Part 4
1 and the teacher image blocking unit 45. The thinning unit 41 thins out pixels from the teacher image signal according to the arrangement of each color of the color filter array. The thinning process is performed by applying a filter assuming an optical low-pass filter attached to the CCD image sensor 5. That is, the thinning process is performed assuming an actual optical system. The output of the thinning section 41 is supplied to the student image blocking section 42 as a student image signal.

【0086】生徒画像ブロック化部42は、間引き部4
1により生成された生徒信号から、ブロック毎に教師画
像信号の予測画素との対応を取りながら、注目画素に基
づくクラスタップ及び予測タップを抽出することによ
り、生徒画像信号をブロック化してADRC処理部43
と演算部46に供給する。ADRC処理部43は、生徒
画像ブロック化部42から供給された生徒画像信号にA
DRC処理を施し特徴情報を生成し、クラス分類部44
に供給する。クラス分類部44は、入力された特徴情報
からクラスコードを発生し、演算部46に出力する。
The student image blocking section 42 includes the thinning section 4
1 is used to extract the class tap and the prediction tap based on the target pixel from the student signal generated in step 1 while associating the prediction pixel with the prediction pixel of the teacher image signal for each block. 43
Is supplied to the arithmetic unit 46. The ADRC processor 43 converts the student image signal supplied from the student image
DRC processing is performed to generate feature information, and the classifying unit 44
To supply. The class classification unit 44 generates a class code from the input feature information and outputs the generated class code to the calculation unit 46.

【0087】ここでは、教師画像信号は、3板式カメラ
のCCD出力相当の解像度をもつ画像信号であり、生徒
画像信号は、単板式カメラのCCD出力相当の解像度を
もつ画像信号、換言すれば、3板式カメラより解像度の
低い画像信号である。さらに換言するに、教師画像信号
は、1画素がR成分,G成分及びB成分すなわち3原色
成分をもつ画像信号であり、生徒画像信号は、1画素が
R成分,G成分又はB成分のうちの1つの色成分のみを
もつ画像信号である。
Here, the teacher image signal is an image signal having a resolution equivalent to the CCD output of the three-chip camera, and the student image signal is an image signal having a resolution equivalent to the CCD output of the single-chip camera, in other words, This is an image signal having a lower resolution than the three-panel camera. In other words, the teacher image signal is an image signal in which one pixel has an R component, a G component, and a B component, that is, three primary color components, and the student image signal has one pixel in the R component, the G component, or the B component. Is an image signal having only one color component.

【0088】一方、教師画像ブロック化部45は、生徒
画像信号におけるクラスタップとの対応を取りながら、
教師画像信号から予測画素の画像信号を切り出し、切り
出した予測画像信号を演算部46に供給する。演算部4
6は、生徒画像ブロック化部42から供給される予測タ
ップの画像信号と、教師画像ブロック化部45より供給
される予測画画像信号との対応を取りながら、クラス分
類部44より供給されるクラス番号に従って、予測係数
セットを解とする方程式である正規方程式のデータを生
成する演算を行う。上記演算部46によつて生成される
正規方程式のデータが学習データメモリ47に逐次読み
込まれ、記憶される。
On the other hand, the teacher image blocking section 45 makes correspondence with the class tap in the student image signal,
The image signal of the prediction pixel is cut out from the teacher image signal, and the cut out prediction image signal is supplied to the arithmetic unit 46. Arithmetic unit 4
Reference numeral 6 denotes a class supplied from the classifying unit 44 while associating the image signal of the prediction tap supplied from the student image blocking unit 42 with the predicted image signal supplied from the teacher image blocking unit 45. According to the numbers, an operation for generating data of a normal equation which is an equation in which the prediction coefficient set is a solution is performed. The normal equation data generated by the arithmetic unit 46 is sequentially read into the learning data memory 47 and stored.

【0089】演算部48は、学習データメモリ47に蓄
積された正規方程式のデータを用いて正規方程式を解く
処理を実行する。これにより、クラス毎の予測係数セッ
トが算出される。算出された予測係数セットは、クラス
に対応させて係数メモリ49に記憶される。係数メモリ
49の記憶内容は、上述の係数メモリ32にロードさ
れ、クラス分類適応処理を行う際に使用される。
The arithmetic unit 48 executes processing for solving the normal equation using the data of the normal equation stored in the learning data memory 47. Thus, a prediction coefficient set for each class is calculated. The calculated prediction coefficient set is stored in the coefficient memory 49 in association with the class. The content stored in the coefficient memory 49 is loaded into the above-described coefficient memory 32 and used when performing the classification adaptive processing.

【0090】次に、図17のフローチャートを参照し
て、学習装置40の動作について説明する。
Next, the operation of the learning device 40 will be described with reference to the flowchart of FIG.

【0091】この学習装置40に入力されるデジタル画
像信号は、3板式カメラで撮像された画像に相当する画
質が得られる画像信号である。なお、3板式カメラで得
られる画像信号(教師画像信号)は、1画素の画像信号
としてR,G,Bの3原色信号を含んでいるのに対し、
単板式カメラで得られる画像信号(生徒画像信号)は、
1画素の画像信号としてR,G,Bの3原色信号の内の
1つの色信号のみを含んでいる。例えば図18の(A)
に示すように3板式カメラで撮像されたHD画像信号を
フィルタリングして図18の(B)に示すように1/4
サイズのSD画像信号に変換した教師画像信号が、この
学習装置40に入力される。
The digital image signal input to the learning device 40 is an image signal capable of obtaining image quality equivalent to an image captured by a three-panel camera. The image signal (teacher image signal) obtained by the three-plate camera includes three primary color signals of R, G, and B as an image signal of one pixel.
The image signal (student image signal) obtained by the single-panel camera is
The image signal of one pixel includes only one of the three primary color signals of R, G, and B. For example, FIG.
As shown in FIG. 18B, the HD image signal picked up by the three-plate camera is filtered, and as shown in FIG.
The teacher image signal converted into the SD image signal of the size is input to the learning device 40.

【0092】ステップS31では、教師画像ブロック化
部45において、入力された教師画像信号をブロック化
し、入力された教師画像信号から生徒画像ブロック化部
42が注目画素として設定する画素に対応する位置に位
置する予測画素の画素値を抽出して、演算部46に出力
する。
In step S31, the input teacher image signal is divided into blocks by the teacher image blocking unit 45, and the input teacher image signal is set to a position corresponding to the pixel set as the target pixel by the student image blocking unit 42 from the input teacher image signal. The pixel value of the located prediction pixel is extracted and output to the calculation unit 46.

【0093】また、ステップS32では、3板式カメラ
で撮像された画像に相当する画質が得られる教師画像信
号に対して間引き部41により単板カメラのCCDイメ
ージセンサ5に用いられる色コーディングフィルタ4に
相当するフィルタをかける間引き処理を実行すること
で、図18の(C)に示すように単板式カメラのCCD
イメージセンサ5が出力する画像信号に対応する生徒画
像信号を教師画像信号から生成し、生成した生徒画像信
号を生徒画像ブロック化部42に出力する。
In step S32, the thinning section 41 applies a color coding filter 4 used in the CCD image sensor 5 of the single-chip camera to the teacher image signal that provides an image quality equivalent to the image picked up by the three-chip camera. By executing a thinning process for applying a corresponding filter, a CCD of a single-chip camera is used as shown in FIG.
A student image signal corresponding to the image signal output from the image sensor 5 is generated from the teacher image signal, and the generated student image signal is output to the student image blocking unit.

【0094】ステップS33では、生徒画像ブロック化
部42において、入力された生徒画像信号のブロック化
を行い、各ブロック毎に、注目画素に基づいて、クラス
タップと予測タップを生成する。
In step S33, the input student image signal is blocked in the student image blocker 42, and class taps and prediction taps are generated for each block based on the target pixel.

【0095】ステップS34では、ADRC処理部43
において、生徒画像信号から切り出されたクラスタップ
の信号を各色信号毎にADRC処理する。
In step S34, the ADRC processing section 43
, The ADRC processing is performed on the class tap signal cut out from the student image signal for each color signal.

【0096】ステップS35では、クラス分類部44に
おいて、ステップS33におけるADRC処理の結果に
基づいてクラス分類し、分類されるクラスに対応するク
ラス番号を示す信号を出力する。
In step S35, the class classifying section 44 classifies the class based on the result of the ADRC processing in step S33, and outputs a signal indicating a class number corresponding to the class to be classified.

【0097】ステップS36では、演算部46におい
て、クラス分類部44より供給されたクラス毎に、生徒
画像ブロック化部42より供給された予測タップと、教
師画像ブロック化部45より供給される予測画像に基づ
いて、上述の式(10)の正規方程式を生成する処理を
実行する。正規方程式は、学習データメモリ47に記憶
される。
In step S 36, in the calculating section 46, the prediction tap supplied from the student image blocking section 42 and the predicted image supplied from the teacher image blocking section 45 for each class supplied from the class classification section 44. , A process of generating the normal equation of the above equation (10) is executed. The normal equation is stored in the learning data memory 47.

【0098】ステップS37では、演算部46によりす
べてのブロックについての処理が終了したか否かを判定
する。まだ処理していないブロックが存在する場合に
は、ステップS36に戻り、それ以降の処理を繰り返し
実行する。そして、ステップS37において、すべての
ブロックについての処理が終了したと判定された場合、
ステップS38に進む。
In step S37, it is determined whether or not the processing for all blocks has been completed by the arithmetic section 46. If there is a block that has not been processed yet, the process returns to step S36, and the subsequent processing is repeatedly executed. If it is determined in step S37 that the processing for all blocks has been completed,
Proceed to step S38.

【0099】ステップS38では、演算部48におい
て、学習データメモリ47に記憶された正規方程式を例
えば掃き出し法(Gauss-Jordan の消去法) やコレスキー
分解法を用いて解く処理を実行することにより、予測係
数セットを算出する。このようにして算出された予測係
数セットはクラス分類部44により出力されたクラスコ
ードと関連付けられ、係数メモリ49に記憶される。
In step S38, the arithmetic unit 48 executes a process of solving the normal equation stored in the learning data memory 47 using, for example, a sweeping-out method (Gauss-Jordan elimination method) or a Cholesky decomposition method. Calculate a prediction coefficient set. The prediction coefficient set thus calculated is associated with the class code output by the class classification unit 44 and stored in the coefficient memory 49.

【0100】ステップS39において、演算部48にお
いてすべてのクラスについての正規方程式を解く処理を
実行したか否かを判定し、まだ実行していないクラスが
残っている場合には、ステップS38に戻り、それ以降
の処理を繰り返し実行する。
In step S39, it is determined whether or not the processing for solving the normal equations for all the classes has been executed in the operation unit 48. If there is any class that has not been executed yet, the flow returns to step S38. The subsequent processing is repeatedly executed.

【0101】ステップS39において、すべてのクラス
についての正規方程式を解く処理が完了したと判定され
た場合、処理は終了される。
If it is determined in step S39 that the process of solving the normal equations for all the classes has been completed, the process ends.

【0102】この学習装置40では、画素位置毎に複数
の色のうちのいずれか1つを表す色成分を持つ生徒画像
信号の注目画素近傍に位置し、複数の色成分のうち最も
高密度である色成分を有する複数の画素を抽出し、抽出
された複数の画素に基づいてクラスを決定することによ
り、上述のような適応処理を行うための予測係数セット
を得ることができる。
The learning device 40 is located near a target pixel of a student image signal having a color component representing one of a plurality of colors for each pixel position, and has the highest density among the plurality of color components. By extracting a plurality of pixels having a certain color component and determining a class based on the extracted plurality of pixels, a prediction coefficient set for performing the above-described adaptive processing can be obtained.

【0103】このようにしてクラスコードと関連付けら
れて係数メモリ49に記憶された予測係数セットは、図
3に示した画像信号処理部8の係数メモリ32に記憶さ
れることになる。そして、画像信号処理部8の適応処理
部31は、上述したように、係数メモリ32に記憶され
ている予測係数セットを用いて、式(3)に示した線形
1次結合モデルにより、注目画素に対して適応処理を行
う。このように、入力された画像内の注目画素に基づい
て、クラスタップと予測タップを抽出し、抽出されたク
ラスタップからクラスコードを生成し、その生成された
クラスコードに対応する予測係数セットと予測タップを
用いて、注目画素の位置にRGB全ての色信号を生成す
るようにしたので、解像度の高い画像を得ることが可能
となる。そして、上記クラスタップとして、最も高密度
に配置されている色成分の画素のみを利用することによ
り、予測精度を向上させることができる。
The prediction coefficient set stored in the coefficient memory 49 in association with the class code in this manner is stored in the coefficient memory 32 of the image signal processing section 8 shown in FIG. Then, as described above, the adaptive processing unit 31 of the image signal processing unit 8 uses the prediction coefficient set stored in the coefficient memory 32 and performs the linear pixel combination model shown in Expression (3) to obtain the target pixel. Perform adaptive processing on. As described above, based on the target pixel in the input image, a class tap and a prediction tap are extracted, a class code is generated from the extracted class tap, and a prediction coefficient set corresponding to the generated class code is generated. Since all the color signals of RGB are generated at the position of the pixel of interest using the prediction tap, it is possible to obtain an image with high resolution. The prediction accuracy can be improved by using only the pixels of the color components arranged at the highest density as the class taps.

【0104】以上の実施の形態の効果を評価するため、
色フィルタアレイとしてベイヤー配列のものを用いた場
合を想定し、ITE(Institute of Television Enginee
rs)のハイビジョン標準画像9枚を使用し、予測係数セ
ットの算出に関してもその9枚を用いてシミュレーショ
ンを行った。3板式カメラのCCD出力相当の画像信号
から、クラス分類適応処理の倍率と画素の位置関係を考
慮した間引き操作により、単板式カメラのCCD出力相
当の画像信号を生成し、学習装置40と同様の処理を行
うアルゴリズムで予測係数セットを生成するとともに、
単板式カメラのCCDイメージセンサの出力に対し、上
述したクラス分類適応処理により予測処理を行い、縦と
横それぞれ2倍ずつの画素数を有する画像信号に変換し
た結果、R(G又はBも同様)の画素を予測する場合の
クラスタップを、RGBが混合する画素としたときよ
り、エッジや細部の鮮鋭度が向上しており、より高い解
像度の画像が得られた。クラス分類適応処理に代えて、
線形補間処理についてもシミュレーションしてみたが、
クラス分類した方が、解像度も、S/N比も良好な結果
が得られた。
In order to evaluate the effects of the above embodiment,
Assuming that a color filter array having a Bayer array is used, the ITE (Institute of Television Enginee
A simulation was performed using nine high-definition standard images of rs) and calculating the prediction coefficient set. The image signal equivalent to the CCD output of the single-chip camera is generated from the image signal equivalent to the CCD output of the three-chip camera by a thinning operation in consideration of the magnification of the class classification adaptive processing and the positional relationship of the pixels. Generates a set of prediction coefficients using an algorithm that performs processing,
The output of the CCD image sensor of the single-panel camera is subjected to prediction processing by the above-described class classification adaptive processing and converted into an image signal having twice the number of pixels in each of the vertical and horizontal directions. The sharpness of edges and details has been improved and a higher resolution image has been obtained than when the class tap for predicting the pixel in ()) was a pixel mixed with RGB. Instead of the classification adaptive processing,
I also simulated the linear interpolation process,
The better the resolution and the S / N ratio were obtained by classifying.

【0105】上記シミュレーションによるS/N比の評
価結果として、標準画像A,B,Cについてクラス適応
処理生成した各色信号のS/N比は、クラスタップとし
てRGBの各画素を独立に抽出するクラス適応処理で
は、 標準画像A R:35.22db G:35.48db B:34.93db 標準画像B R:32.45db G:32.40db B:29.29db 標準画像Cでは、 R:24.75db G:25.31db B:23.23db であったものが、クラスタップとしてG画素を用いたク
ラス適応処理では、 標準画像A R:35.38db G:35.48db B:35.13db 標準画像B R:32.60db G:32.40db B:29.46db 標準画像C R:24.99db G:25.31db B:23.79db が得られた。
As an evaluation result of the S / N ratio by the above simulation, the S / N ratio of each color signal generated by the class adaptive processing for the standard images A, B, and C is a class for independently extracting each pixel of RGB as a class tap. In the adaptive processing, standard image A R: 35.22 db G: 35.48 db B: 34.93 db standard image B R: 32.45 db G: 32.40 db B: 29.29 db In standard image C, R: 24.75 db G: 25.31 db B: 23.23 db In the class adaptation processing using G pixels as class taps, the standard image AR: 35.38 db G: 35.48 db B: 35.13 db Standard image B R: 32.60 db G: 32.40 db B: 29.46 db Standard image C R: 24.99 db G: 25.31 db B: 23 .79 db was obtained.

【0106】このように、情報の密度に差がある場合に
は、上記クラスタップとして、最も高密度に配置されて
いる色成分の画素のみを利用することにより、予測精度
を向上させることができる。
As described above, when there is a difference in the information density, the prediction accuracy can be improved by using only the pixels of the color components arranged at the highest density as the class taps. .

【0107】なお、上述した説明では、色コーディング
フィルタ4として、ベイヤー配列のものを用いた場合を
説明したが、他の構成のであっても情報の密度に差があ
る構成の色コーディングフィルタを用いる場合には本発
明を適応するができる。
In the above description, the case where the Bayer array is used as the color coding filter 4 has been described. However, a color coding filter having a configuration having a difference in information density even with another configuration is used. In this case, the present invention can be applied.

【0108】ここで、このデジタルスチルカメラ1のC
CDイメージセンサ5に用いることのできる色コーディ
ングフィルタ4を構成する色フィルタアレイの構成例を
図19に示す。
Here, C of this digital still camera 1
FIG. 19 shows a configuration example of a color filter array constituting the color coding filter 4 that can be used for the CD image sensor 5.

【0109】図19の(A)〜(E)は、原色(R,
G,B)成分を通過させる原色フィルタアレイで構成さ
れた色コーディングフィルタ4における緑(G)・赤
(R)・青(B)の色配列の例を示している。図19の
(A)はベイヤー配列を示し、図19の(B)はインタ
ライン配列を示し、図19の(C)はGストライプRB
市松配列を示し、図19の(D)はGストライプRB完
全市松配列を示し、図19の(E)は原色色差配列を示
す。
(A) to (E) of FIG. 19 show the primary colors (R,
5 shows an example of a color arrangement of green (G), red (R), and blue (B) in a color coding filter 4 configured by a primary color filter array that passes a (G, B) component. 19A shows a Bayer array, FIG. 19B shows an interline array, and FIG. 19C shows a G stripe RB.
FIG. 19D shows a G stripe RB complete checkerboard arrangement, and FIG. 19E shows a primary color difference arrangement.

【0110】このように、本発明を適用したデジタルス
チルカメラ1においては、最も高密度の画素の色の成分
に基づいて決定されたクラスに基づいて、各色成分を演
算するようにしたので、より精度良く、画像信号を生成
することができる。しかも、クラス分類適応処理によ
り、3板式カメラのCCD出力相当の各色信号R,G,
Bを得るので、エッジ部分や細部の鮮鋭度が増し、S/
N比の評価値も向上する。すなわち、クラス分類適応処
理により単板式カメラのCCD出力相当の画像信号から
得られる3板式カメラのCCD出力相当の画像信号は、
従来の線形補間処理による場合と比較して、鮮明な画像
となる。
As described above, in the digital still camera 1 to which the present invention is applied, each color component is calculated based on the class determined based on the color component of the pixel with the highest density. An image signal can be generated with high accuracy. In addition, by the class classification adaptive processing, each color signal R, G,
Since B is obtained, the sharpness of edges and details is increased, and S /
The evaluation value of the N ratio is also improved. That is, the image signal equivalent to the CCD output of the three-chip camera obtained from the image signal equivalent to the CCD output of the single-chip camera by the class classification adaptive processing is:
A clear image is obtained as compared with the case of the conventional linear interpolation processing.

【0111】なお、以上においては、画像信号のクラス
削減方式として、ADRCを用いたが、例えば、DCT
(Discrete Cosine Transform) 、VQ(ベクトル量子
化)、DPCM(Differential Pulse Code Modulatio
n)、BTC(Block Trancation Coding) 、非線形量子化
などを用いても良い。
In the above description, ADRC is used as a class reduction method of an image signal.
(Discrete Cosine Transform), VQ (Vector Quantization), DPCM (Differential Pulse Code Modulatio)
n), BTC (Block Trancation Coding), nonlinear quantization, or the like may be used.

【0112】また、CCDイメージセンサの全画素数に
比べて、RGBの画素が例えば縦横それぞれ2倍で計4
倍の解像度を有するなど、解像度等が異なる画像信号を
生成する場合にも、この発明を適用することができる。
すなわち、生成したい画像信号を教師画像信号とし、デ
ジタルスチルカメラ1に搭載されるCCDイメージセン
サ5からの出力画像信号を生徒画像信号として学習を行
うことによつて生成される予測係数セットを使用してク
ラス分類適応処理を行うようにすれば良い。
Further, compared with the total number of pixels of the CCD image sensor, the number of RGB pixels is, for example, twice each in the vertical and horizontal directions, that is, a total of 4 pixels.
The present invention can also be applied to the case where image signals having different resolutions such as double resolution are generated.
That is, an image signal to be generated is used as a teacher image signal, and a prediction coefficient set generated by learning using an output image signal from the CCD image sensor 5 mounted on the digital still camera 1 as a student image signal is used. In this case, the classification adaptive processing may be performed.

【0113】また、この発明は、デジタルスチルカメラ
以外に、例えばカメラ一体型VTR等の映像機器や、例
えば放送業務に用いられる画像処理装置、さらには、例
えばプリンタやスキャナ等に対しても適用することがで
きる。
The present invention can be applied not only to a digital still camera but also to video equipment such as a camera-integrated VTR, an image processing apparatus used for broadcasting, for example, and further to a printer or scanner. be able to.

【0114】さらに、上記予測処理部25におけるクラ
ス分類適応処理や、上記学習装置40において予測係数
セットを得るための学習処理は、例えば図20に示すよ
うに、バス311に接続されたCPU(Central Process
ing Unit) 312、メモリ313、入力インターフェー
ス314、ユーザインターフェース315や出力インタ
ーフェース316などにより構成される一般的なコンピ
ュータシステム310により実行することができる。上
記処理を実行するコンピュータプログラムは、記録媒体
に記録されて、画素位置毎に複数のうちの何れか一つを
表す色成分を持つ入力画像信号を処理する画像信号処理
を行うコンピュータ制御可能なプログラムが記録された
記録媒体、又は、クラスに応じた予測係数セットを生成
するための学習処理を行うコンピュータ制御可能なプロ
グラムが記録された記録媒体として、ユーザに提供され
る。上記記録媒体には、磁気ディスク、CD−ROMな
どの情報記録媒体の他、インターネット、デジタル衛星
などのネットワークによる伝送媒体も含まれる。
Further, as shown in FIG. 20, for example, the CPU (Central) connected to the bus 311 performs the class classification adaptive processing in the prediction processing unit 25 and the learning processing for obtaining the prediction coefficient set in the learning device 40. Process
ing Unit) 312, a memory 313, an input interface 314, a user interface 315, an output interface 316, and the like. The computer program for performing the above processing is a computer-controllable program that performs image signal processing for processing an input image signal having a color component representing any one of a plurality of pixel positions for each pixel position, which is recorded on a recording medium. Is provided to the user as a recording medium on which is recorded a computer-controllable program for performing a learning process for generating a prediction coefficient set corresponding to a class. The recording medium includes an information recording medium such as a magnetic disk and a CD-ROM, and a transmission medium via a network such as the Internet and a digital satellite.

【0115】[0115]

【発明の効果】以上の如く本発明によれば、画素位置毎
に複数の色のうちのいずれか1つを表す色成分を持つ入
力画像信号の注目画素毎に、上記複数の色成分のうち最
も高密度である色成分を有し、上記注目画素近傍に位置
する複数の画素を抽出し、抽出された複数の画素に基づ
いてクラスを決定し、そのクラスに対応する予測係数セ
ットと予測タップを用いて、注目画素の位置にRGB全
ての色信号を生成するようにしたので、より精度良く、
解像度の高い画像信号を得ることができる。
As described above, according to the present invention, for each pixel of interest of an input image signal having a color component representing one of a plurality of colors at each pixel position, A plurality of pixels having the highest-density color component and located near the target pixel are extracted, a class is determined based on the extracted pixels, and a prediction coefficient set and a prediction tap corresponding to the class are determined. Is used to generate all the RGB color signals at the position of the pixel of interest.
A high-resolution image signal can be obtained.

【0116】また、本発明によれば、画素位置毎に複数
の色のうちのいずれか1つを表す色成分を持つ生徒画像
信号の注目画素近傍に位置し、複数の色成分のうち最も
高密度である色成分を有する複数の画素を抽出し、抽出
された複数の画素に基づいてクラスを決定し、上記生徒
画像信号と対応する画像信号であり、画素位置毎に複数
の色成分を持つ教師画像信号から、上記生徒画像信号の
注目画素の位置に相当する位置の近傍の複数の画素を抽
出し、抽出された複数の画素の画素値に基づいて、上記
クラス毎に、上記生徒画像信号に相当する画像信号から
上記教師画像信号に相当する画像信号を生成するための
予測演算に用いる予測係数セットを生成するので、解像
度の高い画像信号を得るための処理を行う画像信号処理
装置が用いる予測係数セットを算出することができる。
Further, according to the present invention, each pixel position is located in the vicinity of a target pixel of a student image signal having a color component representing one of a plurality of colors, and is the highest among a plurality of color components. A plurality of pixels having a color component having a density are extracted, a class is determined based on the plurality of extracted pixels, and an image signal corresponding to the student image signal has a plurality of color components for each pixel position. From the teacher image signal, a plurality of pixels in the vicinity of a position corresponding to the position of the pixel of interest of the student image signal are extracted. Based on the pixel values of the extracted pixels, the student image signal Since the prediction coefficient set used for the prediction operation for generating the image signal corresponding to the teacher image signal is generated from the image signal corresponding to the image signal, the image signal processing apparatus which performs the processing for obtaining the high-resolution image signal is used. prediction It is possible to calculate the number set.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用したデジタルスチルカメラの構成
を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a digital still camera to which the present invention has been applied.

【図2】上記デジタルスチルカメラの動作を説明するた
めのフローチャートである。
FIG. 2 is a flowchart for explaining the operation of the digital still camera.

【図3】上記デジタルスチルカメラにおける画像信号処
理部の構成を示すブロック図である。
FIG. 3 is a block diagram showing a configuration of an image signal processing unit in the digital still camera.

【図4】上記画像信号処理部により行われる画像信号処
理を説明するためのフローチャートである。
FIG. 4 is a flowchart for explaining image signal processing performed by the image signal processing unit.

【図5】クラス分類適応処理を用いた予測演算を行うた
めの構成例を示す示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration example for performing a prediction operation using a class classification adaptive process.

【図6】予測係数セットを決定するための構成例を示す
ブロック図である。
FIG. 6 is a block diagram illustrating a configuration example for determining a prediction coefficient set.

【図7】予測画素を説明する図である。FIG. 7 is a diagram illustrating a prediction pixel.

【図8】クラスタップを説明する図である。FIG. 8 is a diagram illustrating a class tap.

【図9】予測タップを説明する図である。FIG. 9 is a diagram illustrating a prediction tap.

【図10】予測画素を説明する図である。FIG. 10 is a diagram illustrating a prediction pixel.

【図11】クラスタップを説明する図である。FIG. 11 is a diagram illustrating a class tap.

【図12】予測タップを説明する図である。FIG. 12 is a diagram illustrating a prediction tap.

【図13】予測画素を説明する図である。FIG. 13 is a diagram illustrating a prediction pixel.

【図14】クラスタップを説明する図である。FIG. 14 is a diagram illustrating a class tap.

【図15】予測タップを説明する図である。FIG. 15 is a diagram illustrating a prediction tap.

【図16】予測係数セットを学習により得る学習装置の
構成例を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration example of a learning device that obtains a prediction coefficient set by learning.

【図17】上記学習装置の動作を説明するためのフロー
チャートである。
FIG. 17 is a flowchart for explaining the operation of the learning device.

【図18】上記学習装置による学習処理の一例を模式的
に示す図である。
FIG. 18 is a diagram schematically illustrating an example of a learning process by the learning device.

【図19】上記デジタルスチルカメラのCCDイメージ
センサに用いることのできる色コーディングフィルタの
色フィルタアレイの構成例を模式的に示す図である。
FIG. 19 is a diagram schematically illustrating a configuration example of a color filter array of a color coding filter that can be used for a CCD image sensor of the digital still camera.

【図20】上記クラス分類適応処理や予測係数セットを
得るための学習処理を行うコンピュータシステムの一般
的な構成を示すブロック図である。
FIG. 20 is a block diagram showing a general configuration of a computer system that performs the above-described classification adaptive processing and learning processing for obtaining a prediction coefficient set.

【図21】従来の線形補間による画像信号処理を模式的
に示す図である。
FIG. 21 is a diagram schematically showing conventional image signal processing by linear interpolation.

【符号の説明】[Explanation of symbols]

1 デジタルスチルカメラ、5 CCDイメージセン
サ、8 画像信号処理部、25 予測処理部、28 ブ
ロック化部、29 ADRC処理部、30 クラス分類
部、31 適応処理部、32 係数セットメモリ、40
学習装置、41間引き部、42 生徒画像ブロック化
部、43 ADRC処理部、44 クラス分類部、45
教師画像ブロック化部、46 演算部、47 学習デ
ータメモリ、48 演算部、49 係数メモリ
Reference Signs List 1 digital still camera, 5 CCD image sensor, 8 image signal processing unit, 25 prediction processing unit, 28 blocking unit, 29 ADRC processing unit, 30 class classification unit, 31 adaptive processing unit, 32 coefficient set memory, 40
Learning device, 41 thinning unit, 42 student image blocking unit, 43 ADRC processing unit, 44 class classification unit, 45
Teacher image blocking unit, 46 operation unit, 47 learning data memory, 48 operation unit, 49 coefficient memory

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 画素位置毎に複数の色のうちのいずれか
1つを表す色成分を持つ入力画像信号を処理する画像信
号処理装置において、 上記入力画像信号の注目画素毎に、上記複数の色成分の
うち最も高密度である色成分を有し、上記注目画素近傍
に位置する複数の画素を抽出する抽出手段と、 上記抽出手段で抽出された複数の画素に基づいて、クラ
スを決定するクラス決定手段と、 上記クラス決定ステップで決定されたクラスに基づい
て、少なくとも上記注目画素が持つ色成分と異なる色成
分を持つ画素を生成する画素生成手段とを備えることを
特徴とする画像信号処理装置。
1. An image signal processing apparatus for processing an input image signal having a color component representing any one of a plurality of colors for each pixel position, comprising: Extracting means for extracting a plurality of pixels having a color component having the highest density among the color components and located in the vicinity of the pixel of interest; and determining a class based on the plurality of pixels extracted by the extracting means. Image signal processing comprising: a class determination unit; and a pixel generation unit configured to generate, based on the class determined in the class determination step, at least a pixel having a color component different from a color component of the pixel of interest. apparatus.
【請求項2】 上記画素生成手段は、各クラス毎の予測
係数セットを記憶する記憶手段と、上記クラス決定手段
で決定されたクラスに応じた予測係数セットと上記抽出
手段によって抽出された上記注目画素近傍の複数の画素
に基づく演算を行うことにより、上記異なる色成分を持
つ画素を生成する演算手段とを備えることを特徴とする
請求項1記載の画像信号処理装置。
2. The method according to claim 1, wherein the pixel generation unit stores a prediction coefficient set for each class, a prediction coefficient set corresponding to the class determined by the class determination unit, and the target extracted by the extraction unit. 2. The image signal processing apparatus according to claim 1, further comprising: an arithmetic unit configured to generate a pixel having the different color component by performing an operation based on a plurality of pixels near the pixel.
【請求項3】 上記画素生成手段は、上記注目画素の位
置に、すべての色成分を持つ画素を生成することを特徴
とする請求項1記載の画像信号処理装置。
3. The image signal processing apparatus according to claim 1, wherein said pixel generation means generates a pixel having all color components at the position of said target pixel.
【請求項4】 画素位置毎に複数の色のうちのいずれか
1つを表す色成分を持つ入力画像信号を処理する画像信
号処理方法において、 上記入力画像信号の注目画素毎に、上記複数の色成分の
うち最も高密度である色成分を有し、上記注目画素近傍
に位置する複数の画素を抽出する抽出ステップと、 上記抽出ステップで抽出された複数の画素に基づいて、
クラスを決定するクラス決定ステップと、 上記クラス決定ステップで決定されたクラスに基づい
て、少なくとも上記注目画素が持つ色成分と異なる色成
分を持つ画素を生成する画素生成ステップとを備えるこ
とを特徴とする画像信号処理方法。
4. An image signal processing method for processing an input image signal having a color component representing any one of a plurality of colors for each pixel position, wherein the plurality of pixels include: An extraction step of extracting a plurality of pixels having a color component having the highest density among the color components and located near the pixel of interest, based on the plurality of pixels extracted in the extraction step,
A class determining step of determining a class; and a pixel generating step of generating a pixel having a color component different from at least the color component of the pixel of interest based on the class determined in the class determining step. Image signal processing method.
【請求項5】 上記画素生成ステップでは、上記クラス
決定ステップで決定されたクラスに応じた予測係数セッ
トと、上記抽出ステップによって抽出された上記注目画
素近傍の複数の画素に基づく演算を行うことにより、上
記異なる色成分を持つ画素を生成することを特徴とする
請求項4記載の画像信号処理方法。
5. In the pixel generation step, a calculation is performed based on a prediction coefficient set corresponding to the class determined in the class determination step and a plurality of pixels near the target pixel extracted in the extraction step. 5. The image signal processing method according to claim 4, wherein pixels having different color components are generated.
【請求項6】 上記画素生成ステップでは、上記注目画
素の位置に、すべての色成分を持つ画素を生成すること
を特徴とする請求項4記載の画像信号処理方法。
6. The image signal processing method according to claim 4, wherein in the pixel generating step, a pixel having all color components is generated at the position of the target pixel.
【請求項7】 画素位置毎に複数の色のうちのいずれか
1つを表す色成分を持つ入力画像信号を処理する画像信
号処理を行うコンピュータ制御可能なプログラムが記録
された記録媒体において、 上記プログラムは、 上記入力画像信号の注目画素毎に、上記複数の色成分の
うち最も高密度である色成分を有し、上記注目画素近傍
に位置する複数の画素を抽出する抽出ステップと、 上記抽出ステップで抽出された複数の画素に基づいて、
クラスを決定するクラス決定ステップと、 上記クラス決定ステップで決定されたクラスに基づい
て、少なくとも上記注目画素が持つ色成分と異なる色成
分を持つ画素を生成する画素生成ステップとを有するこ
とを特徴とする記録媒体。
7. A recording medium storing a computer-controllable program for performing image signal processing for processing an input image signal having a color component representing one of a plurality of colors for each pixel position, An extracting step of extracting, for each pixel of interest of the input image signal, a plurality of pixels having a color component having the highest density among the plurality of color components and located near the pixel of interest; Based on the multiple pixels extracted in the step,
A class determining step of determining a class; and a pixel generating step of generating, based on the class determined in the class determining step, a pixel having a color component different from at least the color component of the target pixel. Recording medium.
【請求項8】 上記画素生成ステップでは、上記クラス
決定ステップで決定されたクラスに応じた予測係数セッ
トと、上記抽出ステップで抽出された上記注目画素近傍
の複数の画素に基づく演算を行うことにより、上記異な
る色成分を持つ画素を生成することを特徴とする請求項
7記載の記録媒体。
8. The pixel generation step includes performing a calculation based on a prediction coefficient set corresponding to the class determined in the class determination step and a plurality of pixels near the target pixel extracted in the extraction step. 8. The recording medium according to claim 7, wherein pixels having the different color components are generated.
【請求項9】 上記画素生成ステップでは、上記注目画
素の位置に、すべての色成分を持つ画素を生成すること
を特徴とする請求項7記載の記録媒体。
9. The recording medium according to claim 7, wherein in the pixel generation step, pixels having all color components are generated at the position of the target pixel.
【請求項10】 画素位置毎に複数の色のうちのいずれ
か1つを表す色成分を持つ生徒画像信号の注目画素近傍
に位置し、複数の色成分のうち最も高密度である色成分
を有する複数の画素を抽出する第1の画素抽出手段と、 上記第1の画素抽出手段で抽出された複数の画素に基づ
いて、クラスを決定するクラス決定手段と、 上記生徒画像信号と対応する画像信号であり、画素位置
毎に複数の色成分を持つ教師画像信号から、上記生徒画
像信号の注目画素の位置に相当する位置の近傍の複数の
画素を抽出する第2の画素抽出手段と、 上記第1及び第2の画素抽出手段で抽出された複数の画
素の画素値に基づいて、上記クラス毎に、上記生徒画像
信号に相当する画像信号から上記教師画像信号に相当す
る画像信号を生成するための予測演算に用いる予測係数
セットを生成する予測係数生成手段とを備えることを特
徴とする学習装置。
10. A color component which is located near a target pixel of a student image signal having a color component representing any one of a plurality of colors for each pixel position and has the highest density among the plurality of color components. First pixel extracting means for extracting a plurality of pixels having the same, class determining means for determining a class based on the plurality of pixels extracted by the first pixel extracting means, and an image corresponding to the student image signal A second pixel extracting means for extracting a plurality of pixels near a position corresponding to a position of a target pixel of the student image signal from a teacher image signal which is a signal and has a plurality of color components for each pixel position; An image signal corresponding to the teacher image signal is generated from an image signal corresponding to the student image signal for each of the classes based on the pixel values of the plurality of pixels extracted by the first and second pixel extraction means. Used for prediction calculation A prediction coefficient generating means for generating a prediction coefficient set.
【請求項11】 上記クラス決定手段は、上記第1の画
素抽出手段で抽出された複数の画素に対して、ADRC
(Adaptive Dynamic Range Coding) 処理により特徴情報
を生成し、特徴情報に基づいてクラスを決定することを
特徴とする請求項10記載の学習装置。
11. The method according to claim 11, wherein the class determining unit performs ADRC on the plurality of pixels extracted by the first pixel extracting unit.
The learning device according to claim 10, wherein characteristic information is generated by (Adaptive Dynamic Range Coding) processing, and a class is determined based on the characteristic information.
【請求項12】 画素位置毎に複数の色のうちのいずれ
か1つを表す色成分を持つ生徒画像信号の注目画素近傍
に位置し、複数の色成分のうち最も高密度である色成分
を有する複数の画素を抽出する第1の画素抽出ステップ
と、 上記第1の画素抽出ステップで抽出された複数の画素に
基づいて、クラスを決定するクラス決定ステップと、 上記生徒画像信号と対応する画像信号であり、画素位置
毎に複数の色成分を持つ教師画像信号から、上記生徒画
像信号の注目画素の位置に相当する位置の近傍の複数の
画素を抽出する第2の画素抽出ステップと、 上記第1及び第2の画素抽出手段で抽出された複数の画
素の画素値に基づいて、上記クラス毎に、上記生徒画像
信号に相当する画像信号から上記教師画像信号に相当す
る画像信号を生成するための予測演算に用いる予測係数
セットを生成する予測係数生成ステップとを備えること
を特徴とする学習方法。
12. A color component which is located in the vicinity of a pixel of interest of a student image signal having a color component representing one of a plurality of colors for each pixel position and has the highest density among the plurality of color components. A first pixel extracting step of extracting a plurality of pixels included in the image, a class determining step of determining a class based on the plurality of pixels extracted in the first pixel extracting step, and an image corresponding to the student image signal. A second pixel extraction step of extracting a plurality of pixels near a position corresponding to a position of a target pixel of the student image signal from a teacher image signal which is a signal and has a plurality of color components for each pixel position; An image signal corresponding to the teacher image signal is generated from an image signal corresponding to the student image signal for each of the classes based on pixel values of a plurality of pixels extracted by the first and second pixel extraction means. For A prediction coefficient generation step of generating a prediction coefficient set used for the prediction calculation of (i).
【請求項13】 上記クラス決定ステップでは、上記第
1の画素抽出ステップで抽出された複数の画素に対し
て、ADRC(Adaptive Dynamic Range Coding)処理に
より特徴情報を生成し、特徴情報に基づいてクラスを決
定することを特徴とする請求項12記載の学習方法。
13. In the class determination step, characteristic information is generated by ADRC (Adaptive Dynamic Range Coding) processing for a plurality of pixels extracted in the first pixel extraction step, and the class is determined based on the characteristic information. The learning method according to claim 12, wherein is determined.
【請求項14】 クラスに応じた予測係数セットを生成
するための学習処理を行うコンピュータ制御可能なプロ
グラムが記録された記録媒体において、 上記プログラムは、 画素位置毎に複数の色のうちのいずれか1つを表す色成
分を持つ生徒画像信号の注目画素近傍に位置し、複数の
色成分のうち最も高密度である色成分を有する複数の画
素を抽出する第1の画素抽出ステップと、 上記第1の画素抽出ステップで抽出された複数の画素に
基づいて、クラスを決定するクラス決定ステップと、 上記生徒画像信号と対応する画像信号であり、画素位置
毎に複数の色成分を持つ教師画像信号から、上記生徒画
像信号の注目画素の位置に相当する位置の近傍の複数の
画素を抽出する第2の画素抽出ステップと、 上記第1及び第2の画素抽出手段で抽出された複数の画
素の画素値に基づいて、上記クラス毎に、上記生徒画像
信号に相当する画像信号から上記教師画像信号に相当す
る画像信号を生成するための予測演算に用いる予測係数
セットを生成する予測係数生成ステップとを備えること
を特徴とする記録媒体。
14. A recording medium on which a computer-controllable program for performing a learning process for generating a prediction coefficient set according to a class is recorded, wherein the program comprises one of a plurality of colors for each pixel position. A first pixel extracting step of extracting a plurality of pixels located near the target pixel of the student image signal having one color component and having a color component having the highest density among the plurality of color components; A class determination step of determining a class based on a plurality of pixels extracted in one pixel extraction step; a teacher image signal having a plurality of color components for each pixel position, the image signal corresponding to the student image signal A second pixel extraction step of extracting a plurality of pixels near a position corresponding to the position of the pixel of interest in the student image signal, and extracting the pixels by the first and second pixel extraction means. Based on the pixel values of the plurality of pixels, a prediction coefficient set used for a prediction operation for generating an image signal corresponding to the teacher image signal from an image signal corresponding to the student image signal is generated for each class. A prediction coefficient generating step of performing the following.
【請求項15】 上記クラス決定ステップでは、上記第
1の画素抽出ステップで抽出された複数の画素に対し
て、ADRC(Adaptive Dynamic Range Coding)処理に
より特徴情報を生成し、特徴情報に基づいてクラスを決
定することを特徴とする請求項14記載の記録媒体。
15. In the class determining step, characteristic information is generated by ADRC (Adaptive Dynamic Range Coding) processing for a plurality of pixels extracted in the first pixel extracting step, and the class is determined based on the characteristic information. 15. The recording medium according to claim 14, wherein is determined.
JP2000048985A 1999-03-25 2000-02-21 Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium Expired - Fee Related JP4547758B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000048985A JP4547758B2 (en) 1999-03-25 2000-02-21 Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-82228 1999-03-25
JP8222899 1999-03-25
JP2000048985A JP4547758B2 (en) 1999-03-25 2000-02-21 Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium

Publications (2)

Publication Number Publication Date
JP2000341706A true JP2000341706A (en) 2000-12-08
JP4547758B2 JP4547758B2 (en) 2010-09-22

Family

ID=26423241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000048985A Expired - Fee Related JP4547758B2 (en) 1999-03-25 2000-02-21 Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium

Country Status (1)

Country Link
JP (1) JP4547758B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096706A1 (en) * 2002-05-08 2003-11-20 Sony Corporation Signal processing device and method, recording medium, and program
EP2590412A2 (en) 2011-11-01 2013-05-08 Sony Mobile Communications Japan, Inc. Imaging apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1098695A (en) * 1996-09-21 1998-04-14 Sony Corp Image information converter and its device and product sum arithmetic unit
JPH10164602A (en) * 1996-11-26 1998-06-19 Minolta Co Ltd Device and method for interpolating pixel
JP2000032402A (en) * 1998-07-10 2000-01-28 Sony Corp Image converter and its method, and distributing medium thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1098695A (en) * 1996-09-21 1998-04-14 Sony Corp Image information converter and its device and product sum arithmetic unit
JPH10164602A (en) * 1996-11-26 1998-06-19 Minolta Co Ltd Device and method for interpolating pixel
JP2000032402A (en) * 1998-07-10 2000-01-28 Sony Corp Image converter and its method, and distributing medium thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096706A1 (en) * 2002-05-08 2003-11-20 Sony Corporation Signal processing device and method, recording medium, and program
US7495707B2 (en) 2002-05-08 2009-02-24 Sony Corporation Signal processing apparatus and method, recording medium, and program
KR100971823B1 (en) 2002-05-08 2010-07-22 소니 주식회사 Signal processing device and method, and recording medium
EP2590412A2 (en) 2011-11-01 2013-05-08 Sony Mobile Communications Japan, Inc. Imaging apparatus
US9036059B2 (en) 2011-11-01 2015-05-19 Sony Corporation Imaging apparatus for efficiently generating multiple forms of image data output by an imaging sensor

Also Published As

Publication number Publication date
JP4547758B2 (en) 2010-09-22

Similar Documents

Publication Publication Date Title
KR100745386B1 (en) Image signal processor, image signal processing method, learning device, learning method, and recorded medium
US9392241B2 (en) Image processing apparatus and image processing method
JP5108172B2 (en) Image data size conversion processing apparatus, electronic still camera, and image data size conversion processing recording medium
US20080267526A1 (en) Image processing apparatus
JPH10126796A (en) Digital camera for dynamic and still images using dual mode software processing
JP2000299874A (en) Signal processor, signal processing method, image pickup device and image pickup method
JP2003224769A (en) Digital camera
US20060050956A1 (en) Signal processing apparatus, signal processing method, and signal processing program
JP2013162347A (en) Image processor, image processing method, program, and device
JP2009027619A (en) Video processing device and video processing program
JP4233192B2 (en) Correcting the color balance of an image
JP4433545B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4547757B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4730106B2 (en) Image processing apparatus and method, learning apparatus and method, and program
JP4581199B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4839543B2 (en) Image signal processing apparatus, imaging apparatus, image signal processing method, and recording medium
JP4547758B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
US7551204B2 (en) Imaging apparatus having a color image data measuring function
JP4529253B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4433546B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP4483048B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
JP2006279389A (en) Solid-state imaging apparatus and signal processing method thereof
JP2000232618A (en) Photo-finishing method, system therefor and recording medium
JP4730105B2 (en) Image processing apparatus and method, learning apparatus and method, and program
JP4691762B2 (en) Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100222

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100615

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100628

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130716

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees