JP2000278699A - Image pickup unit and image pickup method - Google Patents

Image pickup unit and image pickup method

Info

Publication number
JP2000278699A
JP2000278699A JP8153299A JP8153299A JP2000278699A JP 2000278699 A JP2000278699 A JP 2000278699A JP 8153299 A JP8153299 A JP 8153299A JP 8153299 A JP8153299 A JP 8153299A JP 2000278699 A JP2000278699 A JP 2000278699A
Authority
JP
Japan
Prior art keywords
signal
class
noise
unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8153299A
Other languages
Japanese (ja)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Toshihiko Hamamatsu
俊彦 浜松
Hideo Nakaya
秀雄 中屋
Juichi Shiraki
寿一 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP8153299A priority Critical patent/JP2000278699A/en
Publication of JP2000278699A publication Critical patent/JP2000278699A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To eliminate a noise in a moving picture caused by deficiency in a luminous quantity in the case of image pickup or the like. SOLUTION: Imaging light is made incident onto a CCD 2 via a lens 1. The CCD 2 of this image pickup unit converts the incident imaging light into an electric signal. A classification adaptive processing section 5 receives a picture signal generated on the basis of the electric signal. The classification adaptive processing section 5 classifies the picture signal on the basis of a class tap segmented from the received picture signal and applies an arithmetic operation of linear combination to the picture signal by using a prediction coefficient decided in advance for each class and a prediction tap segmented separated from the picture signal. The prediction coefficient is decided for each class by using the picture signal not including a noise as a teacher signal yk and using a signal adding the noise to the teacher signal yk as a pupil signal. Through the processing above, the noise can effectively be eliminated even from a moving picture.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えばビデオカ
メラ等の撮像装置および撮像方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus such as a video camera and an image pickup method.

【0002】[0002]

【従来の技術】従来のビデオカメラにおいては、撮像時
の光量の不足に起因して生じるランダムノイズを除去す
るためにフレームメモリを含む巡回型フィルタが用いら
れている。巡回型フィルタを備えたビデオカメラの一例
について図7を参照して説明する。撮像光は、レンズ1
01を介してCCD102に入射する。CCD102
は、入射する撮像光を電気信号に変換し、電気信号をサ
ンプルホールドおよびAGC(Auto Gain Contoroller)
回路103に供給する。サンプルホールドおよびAGC
回路103では、CCD102から出力される電気信号
をサンプルホールドし、これによって得られる信号をA
GCアンプに入力することにより、信号が適正値を保つ
ように制御する。サンプルホールドおよびAGC回路1
03の出力は、プロセス部104に供給される。
2. Description of the Related Art In a conventional video camera, a recursive filter including a frame memory is used to remove random noise caused by a shortage of light quantity at the time of image pickup. An example of a video camera having a recursive filter will be described with reference to FIG. The imaging light is the lens 1
The light is incident on the CCD 102 via the line 01. CCD102
Converts incoming imaging light into electrical signals, samples and holds the electrical signals, and AGC (Auto Gain Controller).
The signal is supplied to the circuit 103. Sample hold and AGC
The circuit 103 samples and holds the electric signal output from the CCD 102, and converts the signal obtained thereby into an A signal.
By inputting the signal to the GC amplifier, the signal is controlled so as to maintain an appropriate value. Sample hold and AGC circuit 1
The output of 03 is supplied to the processing unit 104.

【0003】同期信号発生部107は、水平・垂直同期
信号を生成し、生成した水平・垂直同期信号をプロセス
部104とタイミング発生部108とに供給する。タイ
ミング発生部108は、供給される同期信号に基づい
て、CCD102を駆動するための各種のタイミングパ
ルスを生成する。また、プロセス部104は、サンプル
ホールドおよびAGC回路103の出力に基づいてY/
C信号を生成し、生成したY/C信号を巡回型フィルタ
106に供給する。巡回型フィルタ106は、供給され
る信号から、撮像時の光量の不足に起因して生じるラン
ダムノイズを除去する。
[0005] The synchronization signal generation unit 107 generates a horizontal / vertical synchronization signal, and supplies the generated horizontal / vertical synchronization signal to the process unit 104 and the timing generation unit 108. The timing generator 108 generates various timing pulses for driving the CCD 102 based on the supplied synchronization signal. Further, the processing unit 104 performs Y / Y based on the output of the sample hold and AGC circuit 103.
A C signal is generated, and the generated Y / C signal is supplied to the recursive filter 106. The recursive filter 106 removes, from the supplied signal, random noise generated due to a shortage of light amount during imaging.

【0004】巡回型フィルタ106の構成の一例を図8
に示す。A/D変換器105からの入力信号が乗算器1
21に供給される。乗算器121は、供給される信号に
(1−k)を乗算し、乗算結果を加算器122に供給す
る。加算器122は、乗算器121から供給される信号
と、乗算器124から供給される信号とを加算し、加算
結果を、出力信号として外部に出力すると共にフレーム
メモリ123に供給する。フレームメモリ123は、供
給される信号を例えば1フレーム分に相当する期間保持
した後に、乗算器124に供給する。乗算器121は、
供給される信号にkを乗算し、乗算結果を加算器122
に供給する。
[0004] An example of the configuration of the recursive filter 106 is shown in FIG.
Shown in The input signal from the A / D converter 105 is the multiplier 1
21. The multiplier 121 multiplies the supplied signal by (1−k) and supplies the result of the multiplication to the adder 122. The adder 122 adds the signal supplied from the multiplier 121 and the signal supplied from the multiplier 124, outputs the addition result to the outside as an output signal, and supplies the result to the frame memory 123. The frame memory 123 supplies the supplied signal to the multiplier 124 after holding the supplied signal for a period corresponding to, for example, one frame. The multiplier 121 is
The supplied signal is multiplied by k, and the multiplication result is added to an adder 122.
To supply.

【0005】ここで、変数kの値はノイズを除去するた
めに適切に設定すれば良い。静止画部分については、k
の値を1に近い値に設定することにより、例えば撮像時
の光量の不足に起因して生じるランダムノイズを除去す
ることができる。
Here, the value of the variable k may be set appropriately to remove noise. For the still image part, k
Is set to a value close to 1, it is possible to remove, for example, random noise caused by insufficient light quantity at the time of imaging.

【0006】[0006]

【発明が解決しようとする課題】ところが、動画部分に
ついては、変数kの値を大きく設定すると、時間的に例
えば1フレーム隔たった画像間で加算を行うことにな
り、画像が全体的にぼやけてしまうおそれがある。ま
た、変数kの値を小さく(0付近に)設定すると、入力
信号がそのまま出力信号とされてしまい、撮像時の光量
の不足に起因して生じるランダムノイズを除去すること
ができない。
However, if the value of the variable k is set to a large value for a moving image portion, addition is performed between images temporally separated by, for example, one frame, and the entire image is blurred. There is a possibility that it will. Also, if the value of the variable k is set to a small value (around 0), the input signal is used as it is as an output signal, and random noise generated due to insufficient light quantity at the time of imaging cannot be removed.

【0007】従って、この発明の目的は、動画部分にお
いても、撮像時の光量の不足等に起因して生じるノイズ
を除去することが可能な撮像装置および撮像方法を提供
することにある。
It is therefore an object of the present invention to provide an image pickup apparatus and an image pickup method capable of removing noise caused by a shortage of light quantity at the time of image pickup even in a moving image portion.

【0008】[0008]

【課題を解決するための手段】請求項1の発明は、撮像
装置において、入力光を電気信号に変換する撮像素子
と、撮像素子の出力に基づいて画像信号を生成する信号
処理手段と、画像信号に基づいてノイズを除去する処理
としてのクラス分類適応処理を施すクラス分類適応処理
手段とを有することを特徴とする撮像装置である。
According to a first aspect of the present invention, in an image pickup apparatus, an image pickup device for converting input light into an electric signal, a signal processing unit for generating an image signal based on an output of the image pickup device, An imaging apparatus comprising: a classification adaptive processing unit that performs a classification adaptive processing as a processing for removing noise based on a signal.

【0009】請求項5の発明は、撮像方法において、入
力光を電気信号に変換する撮像ステップと、撮像素子の
出力に基づいて画像信号を生成する信号処理ステップ
と、画像信号に基づいてノイズを除去する処理としての
クラス分類適応処理を施すクラス分類適応処理ステップ
とを有することを特徴とする撮像方法である。
According to a fifth aspect of the present invention, in the imaging method, an imaging step of converting input light into an electric signal, a signal processing step of generating an image signal based on an output of the imaging device, and a method of reducing noise based on the image signal. A classification adaptive processing step of performing a classification adaptive processing as a removal processing.

【0010】以上のような発明によれば、クラス分類適
応処理を行うことにより、例えば撮像装置に入力する光
が撮像素子の感度に対して充分な光量を有しないこと等
に起因して生じるノイズを除去することができる。
According to the invention described above, by performing the classification adaptive processing, noise generated due to, for example, the fact that the light input to the image pickup device does not have a sufficient light amount with respect to the sensitivity of the image pickup device, etc. Can be removed.

【0011】[0011]

【発明の実施の形態】ビデオカメラにこの発明を適用し
てなる、この発明の一実施形態の構成について図1を参
照して説明する。撮像光は、レンズ1を介してCCD2
に入射する。CCD2は、入射する撮像光を電気信号に
変換し、電気信号をサンプルホールドおよびAGC(Aut
o Gain Contoroller) 回路3に供給する。サンプルホー
ルドおよびAGC回路3では、CCD2から出力される
電気信号をサンプルホールドし、これによって得られる
信号をAGCアンプに入力することにより、信号が適正
値を保つように制御する。サンプルホールドおよびAG
C回路3の出力は、プロセス部4に供給される。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A configuration of an embodiment of the present invention in which the present invention is applied to a video camera will be described with reference to FIG. The imaging light is transmitted through a CCD 2 through a lens 1.
Incident on. The CCD 2 converts the incident imaging light into an electric signal, and samples and holds the electric signal and an AGC (Aut).
o Gain Controller) Supply to circuit 3. The sample and hold and AGC circuit 3 samples and holds the electric signal output from the CCD 2 and inputs the signal obtained by this to an AGC amplifier, thereby controlling the signal to keep an appropriate value. Sample hold and AG
The output of the C circuit 3 is supplied to the processing unit 4.

【0012】同期信号発生部7は、水平・垂直同期信号
を生成し、生成した水平・垂直同期信号をプロセス部4
とタイミング発生部8とに供給する。タイミング発生部
8は、供給される同期信号に基づいて、CCD2を駆動
するための各種のタイミングパルスを生成する。また、
プロセス部4は、サンプルホールドおよびAGC回路3
の出力に基づいてY/C信号を生成し、生成したY/C
信号をA/D変換器5に供給する。A/D変換器5は、
供給される信号をA/D変換してクラス分類適応処理部
6に供給する。クラス分類適応処理部6は、供給される
信号に対してクラス分類適応処理を行うことにより、ノ
イズを除去する。
The synchronizing signal generator 7 generates horizontal and vertical synchronizing signals, and outputs the generated horizontal and vertical synchronizing signals to the processing unit 4.
And the timing generator 8. The timing generator 8 generates various timing pulses for driving the CCD 2 based on the supplied synchronization signal. Also,
The process unit 4 includes a sample hold and AGC circuit 3
A Y / C signal is generated based on the output of
The signal is supplied to the A / D converter 5. The A / D converter 5
The supplied signal is A / D converted and supplied to the classification adaptive processing unit 6. The classification adaptive processing unit 6 removes noise by performing the classification adaptive processing on the supplied signal.

【0013】ここで、クラス分類適応処理について説明
する。まず、図2Aに示すように、ある注目画素と、そ
れに隣接する3つの画素からなる2×2画素のブロック
(クラス分類用ブロック)を例としてクラス分類につい
て説明する。かかるブロック内の4個の画素がそれぞれ
1ビットで表現される場合、すなわち'1' または'0'の
2種類のレベルをとる場合に、かかる2×2画素のブロ
ックは(21 4 =16通りのパターンに分類すること
ができる(図2B参照)。このようなパターン分類がク
ラス分類である。
Here, the classification adaptive processing will be described. First, as shown in FIG. 2A, the classification will be described by taking a 2 × 2 pixel block (class classification block) composed of a pixel of interest and three pixels adjacent thereto as an example. When the four pixels in such a block are each represented by one bit, that is, when two levels of '1' or '0' are taken, such a block of 2 × 2 pixels has (2 1 ) 4 = It can be classified into 16 patterns (see FIG. 2B). Such a pattern classification is a class classification.

【0014】このようなクラス分類を実際の画像信号に
対して行う場合には、クラス分類に係るクラス数が膨大
となるという問題が生じる。すなわち、実際的な例とし
て、画素データとして1画素当たり8ビットが割り当て
られており、クラス分類用ブロックが3×3=9画素か
らなる場合を考えると、クラス数は89 =227という膨
大なものとなる。このようなクラス数を取扱うためには
大規模な回路構成が必要となる。
When such a classification is performed on an actual image signal, there is a problem that the number of classes involved in the classification becomes enormous. That is, as a practical example, considering that a case where 8 bits are assigned to one pixel as pixel data and the class classification block is composed of 3 × 3 = 9 pixels, the number of classes is as large as 8 9 = 2 27. It becomes something. In order to handle such a class number, a large-scale circuit configuration is required.

【0015】そこで、実際のクラス分類適応処理におい
ては、画素データにADRC(Adaptive Dynamic Range
Coding) 処理を施して元の画素データに比してビット数
の削減されたコード値を生成し、このコード値を使用し
てクラス分類を行うことにより、クラス数を削減して取
り扱い易いクラス数とする処理がなされる。図3Aに示
すような、4画素で構成されるクラス分類用ブロックを
例としてADRCについて説明する。まず、これら4画
素について画素値の最大値MAXおよび最小値MINを
検出する。そして、DR=MAX−MINを、これら4
画素からなるクラス分類用ブロックについての局所的な
ダイナミックレンジとし、このダイナミックレンジDR
に基づいて、クラス分類用ブロックを構成する画素の画
素値がKビットに再量子化する処理を行う。
Therefore, in the actual class classification adaptive processing, ADRC (Adaptive Dynamic Range) is added to the pixel data.
Coding) process to generate a code value with a reduced number of bits compared to the original pixel data, and classify using this code value to reduce the number of classes and reduce the number of classes that can be handled easily Is performed. ADRC will be described using a class classification block including four pixels as shown in FIG. 3A as an example. First, the maximum value MAX and the minimum value MIN of the pixel values are detected for these four pixels. Then, DR = MAX−MIN is calculated by these 4
A local dynamic range of a class classification block composed of pixels is defined as a dynamic range DR.
, A process of requantizing the pixel values of the pixels constituting the classification block into K bits.

【0016】すなわち、クラス分類用ブロックを構成す
る各画素の画素値から最小値MINを減算し、減算値を
DR/2K で除算する。そして、除算値に対応するコー
ド(ADRCコード)が生成される。例えば、K=2と
した場合、図3Bに示すように、ダイナミックレンジD
Rを22 =4等分することによって得られる何れの範囲
に属するかが判定され、除算値が最も下のレベルの範
囲、下から2番目のレベルの範囲、下から3番目のレベ
ルの範囲、および最も上のレベルの範囲に属する場合
に、それぞれ、例えば、00B,01B,10B,およ
び11B等の2ビットのADRCコードにコード化され
る。ここで、”B”は2進数であることを示す。このよ
うにして生成されるクラス分類用ブロック毎のADRC
コードを、ダイナミックレンジDR、最小値MIN等と
共に伝送することにより、画像信号を伝送することがで
きる。
[0016] That is, the minimum value MIN is subtracted from the pixel values of the pixels constituting the class classifying block, dividing the subtracted value by DR / 2 K. Then, a code (ADRC code) corresponding to the division value is generated. For example, when K = 2, as shown in FIG.
It is determined which range is obtained by dividing R by 2 2 = 4, and the divided value is in the range of the lowest level, the range of the second level from the bottom, and the range of the third level from the bottom. , And if they belong to the highest level range, they are coded into 2-bit ADRC codes such as 00B, 01B, 10B, and 11B, respectively. Here, "B" indicates a binary number. ADRC for each classifying block generated in this way
The image signal can be transmitted by transmitting the code together with the dynamic range DR, the minimum value MIN, and the like.

【0017】この場合、復号側では、ADRCコード0
0B,01B,10B,および11Bがそれぞれ、ダイ
ナミックレンジDRを4等分して得られる最も下のレベ
ルの範囲の中心値L00,下から2番目のレベルの範囲の
中心値L01,下から3番目のレベルの範囲の中心値
10,および最も上のレベルの範囲の中心値L11に変換
され、その変換値に最小値MINが加算されることによ
って画素値を復号する。ここで、このようなADRC処
理はノンエッジマッチングと称される。
In this case, on the decoding side, the ADRC code 0
0B, 01B, 10B, and 11B, respectively, the center value of the lowermost level range obtained by equally divided into four, the dynamic range DR L 00, the center value L 01 of the second level in the range from below, from the bottom The pixel value is converted into a center value L 10 of the third level range and a center value L 11 of the highest level range, and the minimum value MIN is added to the converted value to decode the pixel value. Here, such ADRC processing is called non-edge matching.

【0018】ここでは、画素値をクラス分類する場合に
ついて説明したが、クラス分類適応処理は、画素値以外
のデータ、例えばDPCM(予測符号化)、BTC(Bl
ockTruncation Coding)、VQ(ベクトル量子化)、D
CT(離散コサイン変換)、およびアダマール変換等が
施されてなるデータを対象として行うことも可能であ
る。
Here, the case where the pixel values are classified into classes has been described. However, in the classification adaptive processing, data other than pixel values, for example, DPCM (prediction coding), BTC (Bl
ockTruncation Coding), VQ (vector quantization), D
It can also be performed on data on which CT (discrete cosine transform), Hadamard transform, or the like has been performed.

【0019】また、クラス分類適応処理は、画像信号の
伝送以外にも、ADRCコードを使用してクラス分類用
ブロック内での画像パターンを比較的小さな情報量で表
現できることを利用して、画質の改善等を目的とする処
理に応用することも可能である。この場合には、例えば
ノイズを含まない等、処理の目的に整合する性質を有す
る画像信号(教師信号と表記する)と、処理の対象とさ
れる画像信号(生徒信号と表記する)との間の誤差ベク
トルeを最小とするような予測係数をADRCコードに
よって表現されるクラス毎に予め定める。そして、生徒
信号中の所定位置の画素(予測タップと表記する)と、
予測係数との間で以下の式(1)に示すような演算を行
い、演算結果である画素値yの集合体として画質の改善
等の処理が施された画素データを得る。
In addition, the class classification adaptive processing utilizes the fact that an image pattern in a class classification block can be expressed with a relatively small amount of information using an ADRC code in addition to the transmission of an image signal. It is also possible to apply to processing for the purpose of improvement or the like. In this case, for example, between an image signal (noted as a teacher signal) having a property matching the purpose of the processing, such as not including noise, and an image signal to be processed (noted as a student signal) Is determined in advance for each class represented by the ADRC code. Then, a pixel at a predetermined position (denoted as a prediction tap) in the student signal,
An operation as shown in the following expression (1) is performed between the prediction coefficient and the prediction coefficient, and pixel data subjected to processing such as improvement of image quality is obtained as an aggregate of pixel values y as operation results.

【0020】 y=w1 ×x1 +w2 ×x2 +‥‥+wn ×xn (1) ここで、x1 ,‥‥,xn が各予測タップであり、
1 ,‥‥,wn が各予測係数である。
Y = w 1 × x 1 + w 2 × x 2 + ‥‥ + w n × x n (1) where x 1 , ‥‥, x n are each prediction tap,
w 1 , ‥‥, and w n are respective prediction coefficients.

【0021】この発明は、クラス分類適応処理を行うこ
とにより、例えば撮像時の光量の不足等に起因して生じ
るランダムノイズを除去するようにしたものである。こ
の発明の一実施形態におけるクラス分類適応処理部16
の構成について図4を参照して説明する。プロセス部1
4から供給される画像信号が領域切り出し部11、12
に供給される。領域切り出し部11は、クラスタップを
切り出し、切り出したクラスタップを特徴量抽出部13
に供給する。特徴量抽出部13は、供給されるクラス分
類用ブロックを構成する画素(以下、クラスタップと表
記する)の画素値の最大値MAX、最小値MIN、ダイ
ナミックレンジDR等、クラスコードの発生に必要な特
徴量を抽出し、抽出した特徴量を、クラス分類用ブロッ
ク内の画素データと共にクラスコード発生部14に供給
する。
According to the present invention, random noise generated due to, for example, a shortage of light quantity at the time of imaging is removed by performing the classification adaptive processing. Classification adaptive processing unit 16 in one embodiment of the present invention
Will be described with reference to FIG. Process part 1
The image signals supplied from the area extraction units 11 and 12
Supplied to The area cutout unit 11 cuts out class taps and outputs the cutout class taps to the feature amount extraction unit 13.
To supply. The feature amount extraction unit 13 is necessary for generating a class code such as a maximum value MAX, a minimum value MIN, and a dynamic range DR of pixel values of pixels (hereinafter, referred to as class taps) constituting a supplied class classification block. The characteristic amount is extracted, and the extracted characteristic amount is supplied to the class code generating unit 14 together with the pixel data in the class classification block.

【0022】クラスコード発生部14は、供給される特
徴量に基づいてADRC等を含む上述したような演算を
行うことによってクラス分類用ブロック毎のクラスコー
ドを発生させ、発生させたクラスコードをメモリ15に
供給する。メモリ15には、予め定められたクラス毎
の、すなわちクラスコードに対応する予測係数が記憶さ
れている。これらの予測係数は、例えばクラスコードを
アドレスとして記憶されており、メモリ15は、クラス
コード発生部14から供給されるクラスコードに応じて
予測係数を出力する。この予測係数が推定演算部16に
供給される。
The class code generator 14 generates a class code for each class classification block by performing the above-described operation including ADRC based on the supplied feature amount, and stores the generated class code in a memory. 15 The memory 15 stores a prediction coefficient for each predetermined class, that is, a prediction coefficient corresponding to a class code. These prediction coefficients are stored, for example, using a class code as an address, and the memory 15 outputs the prediction coefficient according to the class code supplied from the class code generation unit 14. This prediction coefficient is supplied to the estimation calculation unit 16.

【0023】一方、領域切り出し部12は、供給される
画像信号から予測タップを切り出し、切り出した予測タ
ップを推定演算部16に供給する。推定演算部16は、
メモリ15から供給される予測係数と、領域切り出し部
12から供給される予測タップとに基づいて上述の式
(1)のような演算を行う。演算結果としての画素値y
の集合体として、撮像時の光量の不足に起因して生じる
ランダムノイズが除去された画像信号が得られる。
On the other hand, the region cutout unit 12 cuts out prediction taps from the supplied image signal, and supplies the cutout prediction taps to the estimation calculation unit 16. The estimation calculation unit 16
Based on the prediction coefficient supplied from the memory 15 and the prediction tap supplied from the region cutout unit 12, the calculation as in the above-described equation (1) is performed. Pixel value y as operation result
, An image signal from which random noise generated due to a shortage of light quantity at the time of imaging is removed is obtained.

【0024】次に、学習、すなわち予測係数を算出する
処理について説明する。学習は、一般的にはクラス分類
適応処理によって生成されるべき画像信号としての教師
信号yk (k=1,2,‥‥,n)と、クラス分類適応
処理の対象とされるべき画像信号として生徒信号とに基
づいて行う。すなわち、生徒信号から切り出した予測タ
ップxk1,xk2‥‥と、教師信号yk とに基づいて、以
下の式(2)が各kに対してできるだけ精度良く成り立
つように予測係数w1 ,‥‥,wn を定める。
Next, learning, that is, a process of calculating a prediction coefficient will be described. The learning generally includes a teacher signal y k (k = 1, 2, ‥‥, n) as an image signal to be generated by the classification adaptive processing and an image signal to be subjected to the classification adaptive processing. This is performed based on the student signal. That is, based on the prediction taps x k1 , x k2 } cut out from the student signal and the teacher signal y k , the prediction coefficient w 1 , ‥‥, w n are determined.

【0025】 yk =w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn (2) (k=1,2,‥‥,m) 具体的な演算方法について説明する。教師信号の種類数
mが予測係数の総数nより大きい場合、予測係数w1
‥‥,wn は一意に決まらないので、誤差ベクトルeの
要素ek を以下の式(3)で定義して、式(4)によっ
て定義される誤差ベクトルeを最小とするように予測係
数を定めるようにする。すなわち、いわゆる最小2乗法
によって予測係数を一意に定める。
Y k = w 1 × x k1 + w 2 × x k2 + ‥‥ + w n × x kn (2) (k = 1, 2, ‥‥, m) A specific calculation method will be described. When the number m of types of teacher signals is larger than the total number n of prediction coefficients, the prediction coefficients w 1 ,
Since ‥‥ and w n are not uniquely determined, the element e k of the error vector e is defined by the following equation (3), and the prediction coefficient is set so as to minimize the error vector e defined by the equation (4). To be determined. That is, the prediction coefficient is uniquely determined by the so-called least square method.

【0026】 ek =yk −{w1 ×xk1+w2 ×xk2+‥‥+wn ×xkn} (3) (k=1,2,‥‥m)E k = y k − {w 1 × x k1 + w 2 × x k2 + Δ + w n × x kn } (3) (k = 1, 2, Δm)

【0027】[0027]

【数1】 (Equation 1)

【0028】式(4)のe2 を最小とする予測係数を求
めるための実際的な計算方法としては、e2 を予測係数
i (i=1,2‥‥)で偏微分し(式(5))、iの各値に
ついて偏微分値が0となるように各予測係数wi を定め
れば良い。
As a practical calculation method for obtaining the prediction coefficient minimizing e 2 in Equation (4), partial differentiation of e 2 with the prediction coefficient w i (i = 1, 2 ‥‥) is performed (Equation 4). (5)) Each prediction coefficient w i may be determined so that the partial differential value becomes 0 for each value of i .

【0029】[0029]

【数2】 (Equation 2)

【0030】式(5)から各予測係数wi を定めるため
の手順について説明する。式(6)、(7)のようにX
ji,Yi を定義すると、式(5)は、式(8)の行列式
の形に書くことができる。
The procedure for determining each prediction coefficient w i from equation (5) will be described. X as in equations (6) and (7)
When ji and Y i are defined, equation (5) can be written in the form of a determinant of equation (8).

【0031】[0031]

【数3】 (Equation 3)

【0032】[0032]

【数4】 (Equation 4)

【0033】[0033]

【数5】 (Equation 5)

【0034】式(8)が一般に正規方程式と呼ばれるも
のである。式(8)は、掃き出し法等の一般的な行列解
法によって解くことができる。
Equation (8) is generally called a normal equation. Equation (8) can be solved by a general matrix solution such as a sweeping-out method.

【0035】この発明の一実施形態における学習に係る
構成について図5を参照して説明する。ここでは、撮像
時の光量の不足等に起因して生じるランダムノイズを除
去するためにクラス分類適応処理に係る学習を例として
説明する。この場合、教師信号yk としてノイズを含ま
ない画像信号を用い、また、教師信号yk に撮像時の光
量の不足に起因して生じるランダムノイズを付加した信
号を生徒信号として用いる。教師信号がノイズ付加部2
1、領域切り出し部22、および正規方程式加算部26
に供給される。
A configuration related to learning in one embodiment of the present invention will be described with reference to FIG. Here, a description will be given of an example of learning related to the classification adaptive processing in order to remove random noise generated due to a shortage of light amount at the time of imaging. In this case, using image signals including no noise as the teacher signal y k, also using a signal obtained by adding a random noise caused by the shortage of the light amount at the time of imaging the teacher signal y k as a student signal. The teacher signal is the noise adding unit 2
1. Area cutout unit 22 and normal equation addition unit 26
Supplied to

【0036】ノイズ付加部21は、供給される信号に、
撮像時の光量の不足に起因して生じるランダムノイズに
相当するノイズパターンを付加することにより、生徒信
号を生成する。ノイズ付加部21は、例えばローパスフ
ィルタ等を用いて構成することができる。ノイズ付加部
21が生成する生徒信号が領域切り出し部23に供給さ
れる。領域切り出し部23は、供給される生徒信号から
クラスタップを切り出し、切り出したクラスタップを特
徴量抽出部24に供給する。
The noise adding unit 21 converts the supplied signal into
A student signal is generated by adding a noise pattern corresponding to random noise generated due to a shortage of light quantity at the time of imaging. The noise adding unit 21 can be configured using, for example, a low-pass filter or the like. The student signal generated by the noise adding unit 21 is supplied to the area cutout unit 23. The region cutout unit 23 cuts out class taps from the supplied student signal, and supplies the cutout class taps to the feature amount extraction unit 24.

【0037】特徴量抽出部24は、供給されるクラスタ
ップに基づいて、画素値の最大値MAX、最小値MI
N、ダイナミックレンジDR等の特徴量を抽出し、抽出
した特徴量をクラスタップの画素データと共にクラスコ
ード発生部25に供給する。クラスコード発生部25
は、特徴抽出部24の出力に基づいてクラスコードを発
生させ、発生させたクラスコードを正規方程式加算部2
6に供給する。
The feature value extracting unit 24 determines the maximum value MAX and the minimum value MI of the pixel values based on the supplied class taps.
The feature amount such as N and dynamic range DR is extracted, and the extracted feature amount is supplied to the class code generating unit 25 together with the pixel data of the class tap. Class code generator 25
Generates a class code based on the output of the feature extracting unit 24 and combines the generated class code with the normal equation adding unit 2.
6

【0038】一方、領域切り出し部22は、供給される
教師信号から予測タップを切り出し、切り出した予測タ
ップを正規方程式加算部26に供給する。正規方程式加
算部26には、さらに、教師信号が供給される。正規方
程式加算部26は、領域切り出し部22から供給される
予測タップ、クラスコード発生部25から供給されるク
ラスタップ、および教師信号に基づいて、正規方程式
(8)に係るデータを生成し、生成したデータを予測係
数決定部27に供給する。
On the other hand, the region cutout unit 22 cuts out prediction taps from the supplied teacher signal, and supplies the cutout prediction taps to the normal equation adding unit 26. The teacher signal is further supplied to the normal equation adding unit 26. The normal equation addition unit 26 generates data related to the normal equation (8) based on the prediction tap supplied from the region cutout unit 22, the class tap supplied from the class code generation unit 25, and the teacher signal. The obtained data is supplied to the prediction coefficient determination unit 27.

【0039】予測係数決定部27は、供給されるデータ
に基づいて正規方程式(8)を解く計算処理を行って予
測係数を算出し、算出した予測係数をメモリ28に供給
する。メモリ28は、供給される予測係数を記憶する。
このようにして予め決定された予測係数を図1中のメモ
リ15にロードしておくことにより、クラス分類適応処
理によって、撮像時の光量の不足に起因して生じるラン
ダムノイズ等のノイズを除去することができる。
The prediction coefficient determination unit 27 calculates a prediction coefficient by performing a calculation process for solving the normal equation (8) based on the supplied data, and supplies the calculated prediction coefficient to the memory 28. The memory 28 stores the supplied prediction coefficients.
By loading the thus-determined prediction coefficients into the memory 15 in FIG. 1, noise such as random noise caused by insufficient light quantity at the time of imaging is removed by the class classification adaptive processing. be able to.

【0040】この発明の一実施形態におけるタップ構造
について図6を参照して説明する。クラスタップのタッ
プ構造の一例を図6Aに示し、予測タップのタップ構造
の一例を図6Bに示す。図6Aおよび図6Bにおいて、
各数値はフレーム番号を示す。すなわち、0が現在フレ
ームを示し、−1、−2がそれぞれ、1フレーム前、2
フレーム前のフレームを示す。また、+1、+2がそれ
ぞれ、1フレーム後、、2フレーム後のフレームを示
す。そして、丸で示すのが各タップ(図6Aではクラス
タップ、図6Bでは予測タップ)である。また、2重丸
で示すのが注目画素である。なお、この一例では、注目
画素もクラスタップおよび予測タップとして使用され
る。
A tap structure according to an embodiment of the present invention will be described with reference to FIG. FIG. 6A shows an example of a tap structure of a class tap, and FIG. 6B shows an example of a tap structure of a prediction tap. 6A and 6B,
Each numerical value indicates a frame number. That is, 0 indicates the current frame, -1 and -2 indicate one frame before, 2
Indicates the frame before the frame. Further, +1 and +2 indicate the frame after one frame and the frame after two frames, respectively. Each tap is indicated by a circle (a class tap in FIG. 6A and a prediction tap in FIG. 6B). The target pixel is indicated by a double circle. In this example, the pixel of interest is also used as a class tap and a prediction tap.

【0041】また、かかるタップ構造の一例では、空間
的な画素位置が注目画素と同じ画素を、各フレームから
クラスタップおよび予測タップとして切り出す。このた
め、図6では、空間的なタップ構造についての図示を省
略した。なお、この発明の一実施形態において使用する
ことができるタップ構造は図6を参照して上述したもの
には限定される物ではない。例えば、クラスタップのタ
ップ構造と予測タップのタップ構造とが異なるものであ
っても良い。また、クラスタップや予測タップを切り出
すべきフレームも現在フレームおよびその前後の2フレ
ームに限定されるものではない。さらに、クラスタップ
や予測タップとして、1個のフレームから複数個の画素
を切り出すようにしても良い。すなわち、撮像された画
像信号の性質や用途等の条件に応じて適切なタップ構造
を用いるようにすれば良い。
In one example of such a tap structure, pixels having the same spatial pixel position as the target pixel are cut out from each frame as a class tap and a prediction tap. For this reason, illustration of the spatial tap structure is omitted in FIG. The tap structure that can be used in one embodiment of the present invention is not limited to the one described above with reference to FIG. For example, the tap structure of the class tap and the tap structure of the prediction tap may be different. Also, the frame from which the class tap or the prediction tap should be cut out is not limited to the current frame and the two frames before and after the current frame. Further, a plurality of pixels may be cut out from one frame as a class tap or a prediction tap. That is, an appropriate tap structure may be used in accordance with conditions such as the properties of the captured image signal and applications.

【0042】上述したこの発明の一実施形態は、ビデオ
カメラにこの発明を適用したものであるが、この発明
は、例えばスチルカメラ等の他の撮像装置にも適用する
ことができる。
In the above-described embodiment of the present invention, the present invention is applied to a video camera. However, the present invention can be applied to other image pickup apparatuses such as a still camera.

【0043】この発明は、上述したこの発明の一実施形
態に限定されるものでは無く、この発明の主旨を逸脱し
ない範囲内で様々な変形や応用が可能である。
The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications can be made without departing from the gist of the present invention.

【0044】[0044]

【発明の効果】この発明によれば、クラス分類適応処理
を行うことにより、入力光が撮像素子の感度に対して充
分な光量を有しない場合等に生じるランダムノイズ等の
ノイズを除去することができる。
According to the present invention, by performing the classification adaptive processing, it is possible to remove noise such as random noise generated when the input light does not have a sufficient light amount with respect to the sensitivity of the image sensor. it can.

【0045】このため、特に巡回フィルタによるノイズ
除去が有効でない、動画像について有効なノイズ除去を
実現することができる。
Therefore, it is possible to realize effective noise removal for a moving image, in which noise removal by the recursive filter is not particularly effective.

【0046】従って、静止画、動画の何れにおいても、
ノイズに起因するぼけ等を除去することが可能な撮像装
置を実現することができる。
Therefore, for both still images and moving images,
An imaging device capable of removing blur or the like due to noise can be realized.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の構成について説明する
ためのブロック図である。
FIG. 1 is a block diagram for describing a configuration of an embodiment of the present invention.

【図2】クラス分類適応処理について説明するための略
線図である。
FIG. 2 is a schematic diagram for explaining a classification adaptive process;

【図3】ADRC処理について説明するための略線図で
ある。
FIG. 3 is a schematic diagram for explaining an ADRC process;

【図4】この発明の一実施形態の一部の構成について説
明するためのブロック図である。
FIG. 4 is a block diagram for explaining a partial configuration of an embodiment of the present invention.

【図5】予測係数を算出する処理について説明するため
のブロック図である。
FIG. 5 is a block diagram for explaining a process of calculating a prediction coefficient.

【図6】タップ構造について説明するための略線図であ
る。
FIG. 6 is a schematic diagram for explaining a tap structure.

【図7】従来のビデオカメラの構成の一例を示すブロッ
ク図である。
FIG. 7 is a block diagram illustrating an example of a configuration of a conventional video camera.

【図8】図7に示した構成の一例の一部について詳細に
示すブロック図である。
8 is a block diagram showing a part of an example of the configuration shown in FIG. 7 in detail.

【符号の説明】[Explanation of symbols]

6・・・クラス分類適応処理部 6 Classification adaptive processing unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中屋 秀雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 白木 寿一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C022 AA00 AC42 AC54 AC69 5C059 KK00 LC01 MA05 MA14 MA23 MA28 MA29 MC18 PP04 PP14 SS14  ────────────────────────────────────────────────── ─── Continued on the front page (72) Hideo Nakaya, Inventor 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Juichi Shiraki 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo No. Sony Corporation F term (reference) 5C022 AA00 AC42 AC54 AC69 5C059 KK00 LC01 MA05 MA14 MA23 MA28 MA29 MC18 PP04 PP14 SS14

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮像装置において、 入力光を電気信号に変換する撮像素子と、 上記撮像素子の出力に基づいて画像信号を生成する信号
処理手段と、 上記画像信号に基づいてノイズを除去する処理としての
クラス分類適応処理を施すクラス分類適応処理手段とを
有することを特徴とする撮像装置。
1. An image pickup apparatus, comprising: an image pickup device that converts input light into an electric signal; a signal processing unit that generates an image signal based on an output of the image pickup device; and a process that removes noise based on the image signal. And a class classification adaptive processing means for performing class classification adaptive processing.
【請求項2】 請求項1において、 上記クラス分類適応処理手段は、 上記画像信号から第1の画素領域を切り出す第1の領域
切り出し手段と、 上記第1の領域切り出し手段の出力から、上記第1の画
素領域の特徴を示す特徴量を抽出する特徴量抽出手段
と、 上記特徴量抽出手段の出力から、上記第1の画素領域が
属するクラスを示すクラスコードを発生するクラスコー
ド発生手段と、 上記クラスコードに対応する予測係数を出力する予測係
数出力手段と、 上記画像信号から第2の画素領域を切り出す第2の領域
切り出し手段と、 上記第2の領域切り出し手段の出力と、上記予測係数出
力手段の出力とに基づく演算処理を行う演算処理手段と
を有することを特徴とする撮像装置。
2. The method according to claim 1, wherein the class classification adaptive processing means includes: a first area cutout means for cutting out a first pixel area from the image signal; and an output from the first area cutout means. A feature amount extracting unit that extracts a feature amount indicating a feature of one pixel region; a class code generating unit that generates a class code indicating a class to which the first pixel region belongs from an output of the feature amount extracting unit; Prediction coefficient output means for outputting a prediction coefficient corresponding to the class code; second area cutout means for cutting out a second pixel area from the image signal; output of the second area cutout means; An image processing apparatus comprising: an arithmetic processing unit that performs an arithmetic process based on an output of the output unit.
【請求項3】 請求項2において、 上記予測係数出力手段は、 上記クラスコード発生手段によって発生させられる各ク
ラスコードに対応する予測係数として予め算出されたも
のを記憶する記憶手段を含むことを特徴とする撮像装
置。
3. The prediction coefficient output means according to claim 2, wherein said prediction coefficient output means includes storage means for storing a coefficient calculated in advance as a prediction coefficient corresponding to each class code generated by said class code generation means. Imaging device.
【請求項4】 請求項2において、 上記予測係数出力手段は、 ノイズを有しない複数個の画像信号から、上記第2の領
域切り出し手段と同様な切り出し手段によって第1の画
素領域を切り出し、 上記ノイズを有しない複数個の画像信号に、クラス分類
適応処理によって除去されるべきノイズを付加すること
によって生成される画像信号から、上記第1の領域切り
出し手段と同様な切り出し手段によって第2の画素領域
を切り出して、上記第2の画素領域に基づいてクラスコ
ードを発生し、 上記第1の画素領域と、上記第1の画像信号とに基づい
て、上記ノイズを有しない複数個の画像信号の各々に対
応して得られる上記クラスコード毎に生成される上記予
測係数を記憶してなることを特徴とする撮像装置。
4. The method according to claim 2, wherein the prediction coefficient output unit cuts out a first pixel region from a plurality of image signals having no noise by a cutout unit similar to the second region cutout unit. From the image signal generated by adding noise to be removed by the classification adaptive processing to a plurality of image signals having no noise, a second pixel is extracted by the same cutout means as the first area cutout means. A region is cut out, a class code is generated based on the second pixel region, and a plurality of image signals without noise are generated based on the first pixel region and the first image signal. An imaging apparatus comprising: storing the prediction coefficients generated for each of the class codes obtained for each of the class codes.
【請求項5】 撮像方法において、 入力光を電気信号に変換する撮像ステップと、 上記撮像素子の出力に基づいて画像信号を生成する信号
処理ステップと、 上記画像信号に基づいてノイズを除去する処理としての
クラス分類適応処理を施すクラス分類適応処理ステップ
とを有することを特徴とする撮像方法。
5. An imaging method, wherein: an imaging step of converting input light into an electric signal; a signal processing step of generating an image signal based on an output of the imaging device; and a process of removing noise based on the image signal And a class classification adaptive processing step of performing a class classification adaptive processing as the above.
JP8153299A 1999-03-25 1999-03-25 Image pickup unit and image pickup method Pending JP2000278699A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8153299A JP2000278699A (en) 1999-03-25 1999-03-25 Image pickup unit and image pickup method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8153299A JP2000278699A (en) 1999-03-25 1999-03-25 Image pickup unit and image pickup method

Publications (1)

Publication Number Publication Date
JP2000278699A true JP2000278699A (en) 2000-10-06

Family

ID=13748936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8153299A Pending JP2000278699A (en) 1999-03-25 1999-03-25 Image pickup unit and image pickup method

Country Status (1)

Country Link
JP (1) JP2000278699A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251241A (en) * 2004-03-01 2005-09-15 Tdk Corp Hologram retrieving method and holographic recording and reproducing apparatus
WO2013011799A1 (en) * 2011-07-15 2013-01-24 オリンパス株式会社 Image pickup apparatus and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005251241A (en) * 2004-03-01 2005-09-15 Tdk Corp Hologram retrieving method and holographic recording and reproducing apparatus
US7715072B2 (en) 2004-03-01 2010-05-11 Tdk Corporation Hologram retrieval method and holographic recording and reproducing apparatus
WO2013011799A1 (en) * 2011-07-15 2013-01-24 オリンパス株式会社 Image pickup apparatus and image processing method

Similar Documents

Publication Publication Date Title
EP1980109B1 (en) Methods and apparatus for edge-based spatio-temporal filtering
JP3271108B2 (en) Apparatus and method for processing digital image signal
JPH07274044A (en) Video signal noise reduction system and noise reduction method using time variable filter coefficient
US20130301951A1 (en) Method and apparatus for removing image noise
JPH0767028A (en) Device and method for restoring image
JP3674186B2 (en) Image information conversion apparatus and method
JP3486975B2 (en) Noise reduction apparatus and method
JP3327593B2 (en) Television system for transmitting digital television images
JP2723867B2 (en) Image signal decoding device
JPH0846934A (en) Processor for digital picture signal
JP2000278699A (en) Image pickup unit and image pickup method
JP3627291B2 (en) Block distortion removing apparatus and method
JPH04275790A (en) Image processor
KR19990007233A (en) Image processing apparatus and image processing method, and camera apparatus
JP3362463B2 (en) Frame interpolation device
JP2000059652A (en) Device and method for removing noise
JP3724008B2 (en) Image information conversion device and coefficient data creation device
JP4552262B2 (en) Noise reduction apparatus and method
JPH0888849A (en) Picture signal processing method and picture signal transmitter
JP3535013B2 (en) Video encoding device
JPH0746548A (en) Digital image signal processor
JP2985752B2 (en) Video decoding device
JP4353294B2 (en) Information signal conversion apparatus and method
JP3617080B2 (en) Signal processing apparatus and signal processing method
JP3945503B2 (en) Coefficient data generation apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081202