JPH0951510A - Device and method for signal conversion - Google Patents

Device and method for signal conversion

Info

Publication number
JPH0951510A
JPH0951510A JP8131267A JP13126796A JPH0951510A JP H0951510 A JPH0951510 A JP H0951510A JP 8131267 A JP8131267 A JP 8131267A JP 13126796 A JP13126796 A JP 13126796A JP H0951510 A JPH0951510 A JP H0951510A
Authority
JP
Japan
Prior art keywords
image signal
activity
code
pixel
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8131267A
Other languages
Japanese (ja)
Other versions
JP3859089B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasuhiro Fujimori
泰弘 藤森
Hideo Nakaya
秀雄 中屋
Kenji Takahashi
健治 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP13126796A priority Critical patent/JP3859089B2/en
Publication of JPH0951510A publication Critical patent/JPH0951510A/en
Application granted granted Critical
Publication of JP3859089B2 publication Critical patent/JP3859089B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an image signal of high resolution by classifying input image signal in block units in stages according to an activity code. SOLUTION: As for an SD(standard resolution) image signal S1 inputted to an up converter, the activity classification part of a classification part 12 determines a threshold according to a dynamic range DR, and sets a tap pattern corresponding to the characteristics of the dynamic range DR of the SD image signal S1 among three kinds of spatial class tap pattern (wide-area tap pattern, standard-area tap pattern, and narrow-area tap pattern) according to a class code c0 obtained as the result. Thus, the class tap pattern on which the dynamic range DR characteristics of the input SD image signal are reflected is set. According to a class code C1, the number (k) of requantized bits of each tap for spatial class classification is varied according to the class code c1 to switch the level resolution of the tap.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【目次】以下の順序で本発明を説明する。 発明の属する技術分野 従来の技術(図28〜図30) 発明が解決しようとする課題(図28〜図30) 課題を解決するための手段(図1〜図27) 発明の実施の形態 (1)第1実施例(図1〜図8) (2)第2実施例(図1〜図9) (3)第3実施例(図4) (4)第4実施例(図10) (5)第5実施例 (6)第6実施例(図11〜図17) (7)第7実施例(図18) (8)第8実施例(図19〜図21) (9)第9実施例(図22〜図25) (10)他の実施例(図26〜図27) 発明の効果[Table of Contents] The present invention will be described in the following order. TECHNICAL FIELD OF THE INVENTION Conventional Technology (FIGS. 28 to 30) Problems to be Solved by the Invention (FIGS. 28 to 30) Means for Solving the Problems (FIGS. 1 to 27) Embodiments of the Invention (1 ) First Example (FIGS. 1 to 8) (2) Second Example (FIGS. 1 to 9) (3) Third Example (FIG. 4) (4) Fourth Example (FIG. 10) (5) ) Fifth Example (6) Sixth Example (FIGS. 11 to 17) (7) Seventh Example (FIG. 18) (8) Eighth Example (FIGS. 19 to 21) (9) Ninth Example Example (FIGS. 22 to 25) (10) Other Examples (FIGS. 26 to 27)

【0002】[0002]

【発明の属する技術分野】本発明は、信号変換装置及び
信号変換方法に関し、例えば、NTSC方式(アメリカ
のテレビ方式を検討する委員会−National Television
System Committee−によつて決められた方式)等の標準
解像度信号(SD:Standard Definition)をハイビジ
ヨン等の高解像度信号(HD:High Definition )に変
換するアツプコンバータ等に適用して好適なものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal conversion device and a signal conversion method, for example, an NTSC system (a committee for examining American television systems-National Television).
It is suitable to be applied to an up-converter for converting a standard resolution signal (SD: Standard Definition) such as a system (determined by the System Committee) into a high resolution signal (HD: High Definition) such as a high vision. .

【0003】[0003]

【従来の技術】従来、この種のアツプコンバータにおい
ては、SD画像信号に対して周波数補間処理を施すこと
により、画素数を増やしてHD画像信号を形成してい
る。例えば、図28に示すように、このようなアツプコ
ンバータは、HD画像の走査線1上で、大きな「○」印
及び大きな「△」印でなるSD画像信号に対して、水平
及び垂直方向にそれぞれ2倍の周波数補間を施すことに
より、小さな「○」印及び小さな「△」印でなるHD画
像信号を生成する。
2. Description of the Related Art Conventionally, in this type of up-converter, an HD image signal is formed by increasing the number of pixels by performing frequency interpolation processing on the SD image signal. For example, as shown in FIG. 28, such an up-converter is arranged on the scanning line 1 of the HD image in the horizontal and vertical directions with respect to the SD image signal having a large “◯” mark and a large “Δ” mark. By performing double frequency interpolation on each, an HD image signal having a small “◯” mark and a small “Δ” mark is generated.

【0004】この場合アツプコンバータによる補間例と
しては、SD画像信号のフイールドデータから、4種類
の位置のHD画素を生成する方法がある。例えば、図中
の「◎」印のSD画素に注目すると、その近傍の4種類
mode1,mode2,mode3 及びmode4 の位置のHD画素を周囲
のSD画素の補間により生成する。このとき用いる補間
フイルタとしては、図29に示す空間内2次元ノンセパ
ラブルフイルタ2や、図30に示す水平/垂直セパラブ
ルフイルタ3がある。
In this case, as an example of interpolation by the up converter, there is a method of generating HD pixels at four kinds of positions from the field data of the SD image signal. For example, paying attention to the SD pixels marked with "◎" in the figure, there are four types in the vicinity.
The HD pixels at the positions of mode1, mode2, mode3 and mode4 are generated by interpolating the surrounding SD pixels. As the interpolation filter used at this time, there are a two-dimensional non-separable filter 2 in space shown in FIG. 29 and a horizontal / vertical separable filter 3 shown in FIG.

【0005】実際上2次元ノンセパラブルフイルタ2
は、4種類の位置のHD画素mode1,mode2,mode3 及びmo
de4 それぞれに対して2次元フイルタ4A〜4Dによつ
て独立に補間処理を実行し、各補間結果を選択部5にお
いて直列化することにより、HD画像信号を生成するよ
うになされている。一方、水平/垂直セパラブルフイル
タ3は、垂直補間フイルタ6Aによりmode1及びmode3
用の処理を実行し、垂直補間フイルタ6Bによりmode2
及びmode4用の処理を実行することにより、HD画像信
号の2本の走査線データを形成する。次に、各走査線に
対して水平フイルタ7A及び7Bを用いて、4種類の位
置のHD画素を補間して、補間結果を選択部8において
直列化することによりHD画像信号を生成するようにな
されている。
Practically two-dimensional non-separable filter 2
Is HD pixel mode1, mode2, mode3 and mo at four positions
Interpolation processing is independently performed for each de4 by the two-dimensional filters 4A to 4D, and each interpolation result is serialized in the selection unit 5 to generate an HD image signal. On the other hand, the horizontal / vertical separable filter 3 uses the vertical interpolation filter 6A for mode1 and mode3.
Is executed, and the vertical interpolation filter 6B is used to
And the processing for mode 4 is executed to form two scanning line data of the HD image signal. Next, the horizontal filters 7A and 7B are used for each scanning line to interpolate the HD pixels at four types of positions, and the interpolated results are serialized in the selection unit 8 to generate an HD image signal. Has been done.

【0006】[0006]

【発明が解決しようとする課題】ところで、上述したよ
うな従来のアツプコンバータでは、補間フイルタとして
理想フイルタを使用した場合でも、画素数は増えるもの
の、空間解像度はSD画像信号と変わらない。また、実
際には、理想フイルタを用いることはできないため、S
D画像信号より解像度の低下したHD画像信号を生成す
ることしかできないという問題がある。
In the conventional up converter as described above, even when the ideal filter is used as the interpolation filter, the spatial resolution is the same as that of the SD image signal although the number of pixels increases. In addition, in reality, since an ideal filter cannot be used, S
There is a problem that only an HD image signal whose resolution is lower than that of the D image signal can be generated.

【0007】かかる問題を解決する1つの方法として、
例えは特開平5−328185号公報に開示されている
ように入力SD画像信号の特徴に基づいてSD画像信号
をいくつかのクラスに分類し、予め学習により生成され
たクラス毎の予測データでなる予測係数を用いて高解像
度のHD画像信号を生成するクラス分類適応処理方法が
提案されている。
As one method for solving such a problem,
For example, as disclosed in Japanese Patent Laid-Open No. 5-328185, the SD image signal is classified into several classes based on the characteristics of the input SD image signal, and the prediction data for each class is generated by learning in advance. A class classification adaptive processing method for generating a high-resolution HD image signal using a prediction coefficient has been proposed.

【0008】ところがこの方法によると、クラス分類適
応処理法を用いてHD画像信号を生成する際、学習によ
つて予測係数を生成するときに、入力SD画像信号の特
徴に応じて適切なクラス分類が行なわれないとHD画像
信号の予測精度が低下するという問題があつた。すなわ
ち、クラス分類の能力が十分でないと、本来、別のクラ
スに分かれるべきHD画像信号が同じクラスに分類され
る。このため、学習により得られる予測係数は、性質の
異なるHD画像信号の平均値を予測することになり、そ
の結果、解像度復元能力が低下するという問題があつ
た。
However, according to this method, when an HD image signal is generated using the class classification adaptive processing method, when a prediction coefficient is generated by learning, an appropriate class classification is performed according to the characteristics of the input SD image signal. If not performed, there is a problem that the prediction accuracy of the HD image signal is reduced. That is, if the class classification capability is not sufficient, HD image signals that should originally be classified into different classes are classified into the same class. Therefore, the prediction coefficient obtained by learning predicts the average value of HD image signals having different properties, and as a result, there is a problem that the resolution restoration capability is reduced.

【0009】本発明は以上の点を考慮してなされたもの
で、入力画像信号の多様な信号特性に対応した適切なク
ラス分類によつて、低解像度の画像信号を一段と解像度
の高い高解像度の画像信号に変換し得る信号変換装置及
び信号変換方法を提案しようとするものである。
The present invention has been made in consideration of the above points, and a low resolution image signal having a higher resolution and a higher resolution can be obtained by appropriate class classification corresponding to various signal characteristics of an input image signal. An object of the present invention is to propose a signal conversion device and a signal conversion method that can convert an image signal.

【0010】[0010]

【課題を解決するための手段】かかる課題を解決するた
め第1の発明においては、入力された第1の画像信号を
第1の画像信号とは異なる第2の画像信号に変換する信
号変換装置において、第1の画像信号の空間内アクテイ
ビテイを評価し、アクテイビテイコードを出力する第1
のクラス分類手段と、アクテイビテイコードに基づいて
段階的なクラス分類を実行し、そのクラス分類結果に基
づいてクラスコードを出力する第2のクラス分類手段
と、第の画像信号を用いて第2の画像信号を予測生成す
るための予測係数が記憶すされた予測係数記憶手段と、
アクテイビテイコード及び/又はクラスコードに応じて
予測係数メモリより読み出される予測係数を用いて、第
1の入力画像信号に対して予測演算を施すことにより、
第2の画像信号を生成する予測演算手段とを設けるよう
にした。
In order to solve such a problem, in the first invention, a signal converter for converting an input first image signal into a second image signal different from the first image signal. In the first method, the activity of the first image signal in the space is evaluated, and the activity code is output.
Of the second class classification means for executing stepwise class classification based on the activity code and outputting the class code based on the result of the class classification, and the second class classification means using the second image signal. A prediction coefficient storage unit that stores a prediction coefficient for predicting and generating an image signal;
By performing a prediction calculation on the first input image signal using the prediction coefficient read from the prediction coefficient memory according to the activity code and / or the class code,
A prediction calculation means for generating the second image signal is provided.

【0011】また第2の発明については、信号変換装置
において、第1の画像信号の空間内アクテイビテイを評
価してアクテイビテイコードを出力する第1のクラス分
類手段と、アクテイビテイコードに基づいて段階的なク
ラス分類を実行し、そのクラス分類結果に基づいてクラ
スコードを出力する第2のクラス分類手段と、 第1の
画像信号の補間画素信号として生成された予測値を記憶
されており、アクテイビテイコード及び/又はクラスコ
ードに応じて対応する予測値を読み出して出力する予測
値記憶読み出し手段とを設けるようにした。
In a second aspect of the present invention, in the signal conversion device, the first class classification means for evaluating the in-spatial activity of the first image signal and outputting the activity code, and stepwise on the basis of the activity code. A second class classification unit that performs class classification and outputs a class code based on the classification result, and a predicted value generated as an interpolated pixel signal of the first image signal are stored, and the activity code and And / or a predicted value storing / reading unit that reads and outputs a corresponding predicted value according to the class code.

【0012】さらに第3の発明においては、入力された
第1の画像信号を第1の画像信号とは異なる第2の画像
信号に変換する信号変換方法において、第1の画像信号
の空間内アクテイビテイを評価してアクテイビテイコー
ドを出力し、アクテイビテイコードに基づいて段階的な
クラス分類を実行し、そのクラス分類結果に基づいてク
ラスコードを出力し、アクテイビテイコード及び/又は
クラスコードに応じて、第1の画像信号を用いて第2の
画像信号を予測生成するための予測係数記憶手段に記憶
されている予測係数を読みだし、その読み出された予測
係数を用いて第1の入力画像信号に対して予測演算を施
すことにより、第2の画像信号を生成するようにした。
Further, in the third invention, in the signal conversion method for converting the input first image signal into the second image signal different from the first image signal, the spatial activity of the first image signal is obtained. To output an activity code, perform stepwise class classification based on the activity code, output a class code based on the classification result, and output the first code according to the activity code and / or the class code. The prediction coefficient stored in the prediction coefficient storage means for predicting and generating the second image signal using the image signal is read, and the read prediction coefficient is used for the first input image signal. Then, the second image signal is generated by performing the prediction calculation.

【0013】さらに第4の発明においては、入力された
第1の画像信号を第1の画像信号とは異なる第2の画像
信号に変換する信号変換方法において、第1の画像信号
の空間内アクテイビテイを評価してアクテイビテイコー
ドを出力し、アクテイビテイコードに基づいて段階的な
クラス分類を実行し、そのクラス分類結果に基づいてク
ラスコードを出力し、アクテイビテイコード及び/又は
クラスコードに応じて、予測値記憶手段に記憶された第
1の画像信号の補間画素信号として生成された予測値を
読み出して出力するようにした。
Further, in the fourth invention, in the signal conversion method for converting the input first image signal into a second image signal different from the first image signal, the spatial activity of the first image signal is obtained. To output an activity code, perform stepwise class classification based on the activity code, output a class code based on the class classification result, and predict the predicted value according to the activity code and / or the class code. The predicted value generated as the interpolated pixel signal of the first image signal stored in the storage means is read and output.

【0014】この結果第1〜第4の発明においては、ブ
ロツク単位毎の入力画像信号についての空間内アクテイ
ビテイを評価分類して、その結果得られるアクテイビテ
イコードに応じてブロツク単位の入力画像信号に段階的
なクラス分類を施すことにより、次段以降のクラス分類
には、初段のアクテイビテイコード及び前段のクラス分
類結果が反映され精度の高いクラス分類を行うことがで
きる。
As a result, in the first to fourth aspects of the invention, the in-spatial activity of the input image signal for each block unit is evaluated and classified, and the input image signal in block units is obtained according to the activity code obtained as a result. By performing the general class classification, the activity code of the first step and the result of the class classification of the previous step are reflected in the class classification of the subsequent steps, and thus highly accurate class classification can be performed.

【0015】[0015]

【発明の実施の形態】以下図面について、本発明の一実
施例を詳述する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in detail with reference to the drawings.

【0016】(1)第1実施例 図1は、全体としてクラス分類適応処理を適用してSD
画像信号からHD画像信号を生成する2次元ノンセパラ
ブルフイルタによるアツプコンバータを示している。こ
のアツプコンバータ10に入力端INを通じて入力される
SD画像信号S1 は、注目SD画素を中心とした所定数
の画素からなるブロツク単位毎にクラス分類部12に送
出され、さらにSD画像信号S1 は予測演算部13に送
出される。クラス分類部12は、入力SD画像信号S1
の注目画素に対する周辺のSD画像信号S1 のSD画素
NO特徴に基づいて、注目画素に対するクラスコードd0
を生成し、これをクラスコードd0は、アドレスデータと
して記憶手段である予測係数ROM(Read Only Memory)
14に送出する。
(1) First Embodiment FIG. 1 shows SD by applying a class classification adaptive process as a whole.
2 shows an up-converter using a two-dimensional non-separable filter for generating an HD image signal from an image signal. The SD image signal S1 input to the up converter 10 through the input terminal IN is sent to the class classification unit 12 for each block unit consisting of a predetermined number of pixels centering on the SD pixel of interest, and the SD image signal S1 is further predicted. It is sent to the calculation unit 13. The class classification unit 12 uses the input SD image signal S1.
Based on the SD pixel NO feature of the peripheral SD image signal S1 for the target pixel of
The class code d0 is generated as a prediction coefficient ROM (Read Only Memory) which is a storage means as address data.
Send to 14.

【0017】この場合予測係数ROM14には、低解像
度の画像信号から高解像度の画像信号を生成するための
HD補間画素を予測演算するときに用いられる予め学習
により求められた予測係数が、クラスコードd0に対応付
けられた予測データd1として格納されている。かくして
予測係数ROM14は、クラスコードd0をアドレスデー
タとして予測データd1を読み出し、これを予測演算部1
3に送出する。
In this case, the prediction coefficient ROM 14 stores, in the class code, the prediction coefficient obtained by pre-learning, which is used when predictively calculating HD interpolation pixels for generating a high resolution image signal from a low resolution image signal. It is stored as predicted data d1 associated with d0. Thus, the prediction coefficient ROM 14 reads the prediction data d1 using the class code d0 as address data, and uses this as the prediction calculation unit 1
Send to 3.

【0018】一方予測演算部13は、SD画像信号S1
に対して予測データd1を用いた所定の予測演算を実行す
ることにより、SD画像信号S1 からHD補間画素を生
成する。なお、予測演算部13に供給されるSD画像信
号S1 は、図示されていない遅延部を介して供給され
る。この遅延部の遅延時間は、予測データd1が予測演算
部13に供給されるまでの時間に対応している。
On the other hand, the prediction calculation unit 13 is arranged to detect the SD image signal S1.
By executing a predetermined prediction calculation using the prediction data d1 with respect to, an HD interpolation pixel is generated from the SD image signal S1. The SD image signal S1 supplied to the prediction calculation unit 13 is supplied via a delay unit (not shown). The delay time of this delay unit corresponds to the time until the prediction data d1 is supplied to the prediction calculation unit 13.

【0019】予測演算部13においては、4つの予測演
算部13A〜13Dから構成され、各予測演算部13A
〜13Dは、SD画像信号S1 に対して予測データd1を
用いた積和演算を実行する。これにより、各予測演算部
13A〜13Dは、それぞれ走査線1上の4種類の位置
mode1 、mode2 、 mode3及びmode4 に対応するHD補間
画素の予測値d2、d3、d4及びd5を生成する。また各予測
演算部13A〜13Dにおいて生成された各HD補間画
素d2、d3、d4及びd5は、選択部15に送出される。選択
部15は、各予測値d2、d3、d4及びd5をバツフアメモリ
(図示せず)を用いて時系列に並び替えて出力端OUT か
らHD画像信号S2 として出力する。
The prediction calculation unit 13 is composed of four prediction calculation units 13A to 13D, and each prediction calculation unit 13A.
13D to 13D execute the sum of products operation using the prediction data d1 for the SD image signal S1. As a result, each of the prediction calculation units 13A to 13D has four types of positions on the scanning line 1, respectively.
The predicted values d2, d3, d4 and d5 of the HD interpolation pixels corresponding to mode1, mode2, mode3 and mode4 are generated. The HD interpolation pixels d2, d3, d4, and d5 generated by the prediction calculation units 13A to 13D are sent to the selection unit 15. The selection unit 15 rearranges the predicted values d2, d3, d4 and d5 in time series using a buffer memory (not shown) and outputs the rearranged output values OUT as the HD image signal S2.

【0020】図2は、図1のクラス分類部12の構成を
示している。この図2からも明らかなように、入力端IN
を通じて入力されるSD画像信号S1 は、まずアクテイ
ビテイ分類部21に供給される。アクテイビテイ分類部
21は、供給されるSP画像信号S1に対し、例えば、
注目画素を中心とした3x3の9画素からなるブロツク
単位毎に空間アクテイビテイの分類を行い、その特性を
評価判定する。またアクテイビテイ分類部21は、空間
アクテイビテイの分類及び評価に基づいてクラスコード
c0を生成して、選択部25及びADRC(Adaptive Dyn
amic Range Coding)クラス分類部26に送出する。
FIG. 2 shows the configuration of the class classification unit 12 shown in FIG. As is clear from FIG. 2, the input terminal IN
The SD image signal S1 input through the above is first supplied to the activity classification unit 21. The activity classification unit 21 responds to the supplied SP image signal S1 by, for example,
The spatial activity is classified for each block unit consisting of 3 × 3 9 pixels centered on the pixel of interest, and the characteristic thereof is evaluated and judged. In addition, the activity classification unit 21 determines the class code based on the classification and evaluation of the spatial activity.
c0 is generated, and the selection unit 25 and ADRC (Adaptive Dyn
amic Range Coding) to the class classification unit 26.

【0021】一方で、SD画像信号S1 は、それぞれ異
なつた3種類の画素のタツプパターンを設定する広領域
タツプ選択部22、標準タツプ選択部23及び狭領域タ
ツプ選択部24に並列に送出される。そして、広領域タ
ツプ選択部22、標準タツプ選択部23及び狭領域タツ
プ選択部24の各々は、入力SD画像信号S1 に対して
空間クラスのタツプパターンp0、p1及び p2 を選択す
る。
On the other hand, the SD image signal S1 is sent in parallel to the wide area tap selecting section 22, the standard tap selecting section 23 and the narrow area tap selecting section 24 which set the tap patterns of three different kinds of pixels. Then, each of the wide area tap selection section 22, the standard tap selection section 23 and the narrow area tap selection section 24 selects the tap patterns p0, p1 and p2 of the spatial class for the input SD image signal S1.

【0022】図3は、図2のアクテイビテイ分類部21
の構成を示している。この図3に示すように、入力端IN
から入力されるSD画像信号S1 は、まず処理部30に
送出される。処理部30は、入力されたSD画像信号S
1 の注目SD画素を中心とした複数のSD画素のダイナ
ミツクレンジDRを検出する。ダイナミツクレンジDR
は、例えば図4に示される注目画素を中心とした9画素
(図中◎で示す)から得られる近傍領域内最大値MAX
及び近傍領域内最小値MINとを用いて次式
FIG. 3 shows the activity classification unit 21 of FIG.
Is shown. As shown in FIG. 3, the input terminal IN
The SD image signal S1 input from the first is sent to the processing unit 30. The processing unit 30 receives the input SD image signal S
The dynamic range DR of a plurality of SD pixels centering on the target SD pixel 1 is detected. Dynamic range DR
Is, for example, the maximum value MAX in the neighboring area obtained from 9 pixels (indicated by ⊚ in the figure) centered on the pixel of interest shown in FIG.
And the minimum value MIN in the neighborhood area,

【数1】 によつて定義される。この注目SD画素を中心とした複
数のSD画素のダイナミツクレンジDRは、閾値判定部
31に送出される。
[Equation 1] Is defined by The dynamic range DR of a plurality of SD pixels centering on the SD pixel of interest is sent to the threshold value determination unit 31.

【0023】閾値判定部31は、所定の閾値を用いて、
ダイナミツクレンジDRと比較判定する。その結果、閾
値判定部31は、閾値処理によつて得られたクラスコー
ドc0を出力する。つまり、閾値判定部31の閾値処理に
よつて、ダイナミツクレンジの大きさが3段階(つま
り、空間アクテイビテイが、高、中、小の3段階)で判
定されることにより、空間アクテイビテイが判定され、
その判定結果が2ビツトのクラスコードc0として出力さ
れる。
The threshold value judging section 31 uses a predetermined threshold value,
A comparison is made with the dynamic range DR. As a result, the threshold determination unit 31 outputs the class code c0 obtained by the threshold processing. That is, the spatial activity is determined by the threshold processing of the threshold determination unit 31 by determining the magnitude of the dynamic range in three stages (that is, the spatial activity has three stages of high, medium, and small). ,
The determination result is output as a 2-bit class code c0.

【0024】一般に、ダイナミツクレンジDRが大きい
場合は空間アクテイビテイが高く、反対にダイナミツク
レンジDRが小さい場合は空間アクテイビテイが低いと
考えられる。これによりアクテイビテイ分類部21にお
けるダイナミツクレンジによる初段のクラス分類が実行
される。
In general, it is considered that the spatial activity is high when the dynamic range DR is large, and the spatial activity is low when the dynamic range DR is small. As a result, the first-stage class classification by the dynamic range is performed in the activity classifying unit 21.

【0025】次に、広領域タツプ選択部22、標準タツ
プ選択部23、狭領域タツプ選択部24及びADRCク
ラス分類部26における次段のクラス分類について具体
的に述べる。
Next, the class classification of the next stage in the wide area tap selection section 22, the standard tap selection section 23, the narrow area tap selection section 24 and the ADRC class classification section 26 will be specifically described.

【0026】まず、上述した3種類のクラスタツプパタ
ーンの選択部のうち、標準タツプ選択部23は、入力S
D画像信号S1 の標準的な空間内変動に注目し、図5
(B)に示すような一般的なクラスタツプパターンを選
択する。それに対して広領域タツプ選択部22は、入力
SD画像信号S1 の定常的な空間内に注目する。
First, of the three types of cluster tap pattern selection units described above, the standard tap selection unit 23 inputs the input S
Paying attention to the standard spatial variation of the D image signal S1, FIG.
A general cluster tap pattern as shown in (B) is selected. On the other hand, the wide area tap selection unit 22 pays attention to the stationary space of the input SD image signal S1.

【0027】すなわち広領域タツプ選択部22は、図5
(A)に示すような広領域用のクラスタツプパターンを
選択する。また狭領域タツプ選択部24は、入力SD画
像信号S1 の非定常的な空間内変動に注目し、非定常的
な信号変化に対して図5(C)に示すような狭領域用の
クラスタツプパターンを選択する。
That is, the wide area tap selection unit 22 is shown in FIG.
A cluster tap pattern for a wide area as shown in (A) is selected. Further, the narrow area tap selection unit 24 pays attention to the non-stationary spatial fluctuation of the input SD image signal S1, and responds to the non-stationary signal change by a cluster table for the narrow area as shown in FIG. 5C. Select a pattern.

【0028】広領域タツプ選択部22、標準タツプ選択
部23及び狭領域タツプ選択部24は、それぞれ選択し
たクラスタツプパターンp0、p1及びp2をそれぞれ選択部
25に送出する。選択部25では、アクテイビテイ分類
部21から送出されるクラスコードc0を選択制御信号と
してクラスタツプパターンp0、p1及びp2からいずれか一
つのクラスタツプパターンを選択し、選択したクラスタ
ツプパターンp3ADRCクラス分類部26に送出する。
The wide area tap selecting section 22, the standard tap selecting section 23 and the narrow area tap selecting section 24 send the respectively selected cluster tap patterns p0, p1 and p2 to the selecting section 25. The selecting section 25 selects one of the cluster tap patterns p0, p1 and p2 using the class code c0 sent from the activity classification section 21 as a selection control signal, and selects the selected cluster tap pattern p3ADRC. It is sent to the class classification unit 26.

【0029】すなわち選択部25は、クラスコードc0
が、空間アクテイビテイが低いことを示す場合、広領域
タツプ選択部22からのクラスタツプパターンp0を選択
し、クラスコードc0が空間アクテイビテイが高いことを
示す場合、狭領域タツプ選択部24からのクラスタツプ
パターンp2を選択する。
That is, the selection unit 25 uses the class code c0.
, If the spatial activity is low, the cluster tap pattern p0 from the wide area tap selection unit 22 is selected, and if the class code c0 indicates that the spatial activity is high, the cluster area from the narrow area tap selection unit 24 is selected. Select the up pattern p2.

【0030】ADRCクラス分類部26は、入力SD画
像信号S1 のダイナミツクレンジDRに応じて得られた
クラスコードc0を制御信号として、ADRCの再量子化
ビツト数kを設定する。これによりSD画像信号S1 の
ダイナミツクレンジDRに応じて、空間クラスのタツプ
パターンp3の各タツプのレベル分解能を変えて設定する
ことができる。
The ADRC class classification unit 26 sets the number k of requantization bits of ADRC using the class code c0 obtained according to the dynamic range DR of the input SD image signal S1 as a control signal. As a result, the level resolution of each tap of the tap pattern p3 of the space class can be changed and set according to the dynamic range DR of the SD image signal S1.

【0031】ADRCは、再量子化として定義される量
子化ステツプ幅により、画素を再量子化するものであ
る。ADRCコードc1(式中では、クラスタツプパター
ンのSD画素数iに応じてci を用いる)は、ダイナミ
ツクレンジDR、再量子化ビツト数k、SD画素xi 及
びその近傍領域内の最小画素レベルMINとを用いて、
次式
ADRC requantizes pixels with a quantization step width defined as requantization. The ADRC code c1 (in the formula, ci is used according to the number i of SD pixels of the cluster pattern) is the dynamic range DR, the number k of requantization bits, the SD pixel xi, and the minimum pixel level in the vicinity thereof. With MIN,
Next formula

【数2】 によつて表される。[Equation 2] Is represented by

【0032】空間クラスタツプパターンのレベル分解能
の切り替えは、具体的には(2)式のADRC演算にお
ける再量子化ビツト数kをクラスコードc0に応じて切り
替えることによつてなされる。これにより入力信号のダ
イナミツクレンジDRに応じて、レベル分解能を適応的
に切り換えて設定することができる。つまりADRCク
ラス分類部26は、ダイナミツクレンジDRが大きい
程、レベル分解能を細かく設定するようになされてい
る。このようにしてクラス分類部12では、クラスコー
ドc0及びADRCコードc1とでなるクラスコードd0が生
成される。このクラスコードd0は、アドレスデータとし
て後段の予測係数ROM14へ送出される。
The level resolution of the spatial cluster tap pattern is specifically switched by switching the requantization bit number k in the ADRC operation of the equation (2) according to the class code c0. Thus, the level resolution can be adaptively switched and set according to the dynamic range DR of the input signal. That is, the ADRC class classification unit 26 is configured to set the level resolution more finely as the dynamic range DR is larger. In this way, the class classification unit 12 generates the class code d0 including the class code c0 and the ADRC code c1. This class code d0 is sent to the prediction coefficient ROM 14 in the subsequent stage as address data.

【0033】予測係数ROM14は、HD補間画素を生
成する際に用いる予測データd1とクラスコードc0及びc1
とを組み合わせたクラスコードd0をアドレスデータとし
て読み出し、予測演算部13に送出する。予測演算部1
3A〜13Dの各々は、SD画像信号S1 でなるSD画
素xi とクラス毎の予測データd1でなる予測係数wiを
用いて予測演算を実行し、走査線1上の位置mode1 〜mo
de4 に相当するHD補間画素の推定画素y′を生成す
る。
The prediction coefficient ROM 14 stores prediction data d1 and class codes c0 and c1 used when generating HD interpolation pixels.
The class code d0, which is a combination of and, is read as address data and sent to the prediction calculation unit 13. Prediction calculation unit 1
Each of 3A to 13D executes a prediction calculation using the SD pixel xi which is the SD image signal S1 and the prediction coefficient wi which is the prediction data d1 for each class, and the positions mode1 to mo on the scanning line 1 are calculated.
An estimated pixel y ′ of the HD interpolation pixel corresponding to de4 is generated.

【0034】このとき用いるSD画素xi は、例えば、
図6に示すように配置された注目画素(図中◎で示す)
及び周辺画素(図中○で示す)でなる13個の予測タツプ
データで形成される。したがつて予測係数wi は、この
場合、各予測演算部13A〜13Dに対して13個の予測
係数からなる。また予測演算部13A〜13Dの各々で
使用されるSD画素は、同じであるが、予測係数ROM
14からの予測係数wi は、予測演算部13A〜13D
の各々に対して異なる予測係数であるので、予測係数R
OM14には、1つのクラスに対応して13個の予測係数
Wiからなる予測係数群が4つ記憶されていることにな
る。
The SD pixel xi used at this time is, for example,
Pixels of interest arranged as shown in FIG. 6 (indicated by ◎ in the figure)
And 13 pieces of prediction tap data composed of peripheral pixels (indicated by circles in the figure). Therefore, in this case, the prediction coefficient wi is composed of 13 prediction coefficients for each of the prediction calculation units 13A to 13D. The SD pixels used in each of the prediction calculation units 13A to 13D are the same, but the prediction coefficient ROM
The prediction coefficient wi from 14 is the prediction calculation units 13A to 13D.
Since the prediction coefficient is different for each of the
The OM 14 stores four prediction coefficient groups each including 13 prediction coefficients Wi corresponding to one class.

【0035】HD補間画素の推定画素y′は、上述した
13個のSD画素xi 及び予測係数wi を用いて数式
The estimated pixel y'of the HD interpolation pixel has been described above.
Formula using 13 SD pixels x i and prediction coefficient w i

【数3】 によつて変換されて生成される。つまり、予測演算部1
3A〜13Dの各々は、それぞれ供給されたSD画素X
iと予測係数Wiを用いて、(3)式により予測演算を
行い、HD補間画素を生成する。ここで用いられる予測
係数wi は、予め学習によつて求められ、予測係数RO
M14に格納されている。
(Equation 3) Is converted and generated. That is, the prediction calculation unit 1
3A to 13D are the SD pixels X respectively supplied.
Using i and the prediction coefficient Wi, the prediction calculation is performed by the equation (3) to generate the HD interpolation pixel. The prediction coefficient wi used here is obtained by learning in advance, and the prediction coefficient RO
It is stored in M14.

【0036】ここで、予測係数ROM14に格納されて
いるクラス毎の予測係数Wiを生成する際の学習手順に
ついて、図7のフローチャートを参照して説明する。予
測係数Wiは、図7に示す予測係数学習手順RT1に従
つて求めることができ、まずステツプSP1でこの予測
係数学習手順RT1を開始すると、続くステツプSP2
において予測係数wi を学習するために、既に知られて
いる画像に対応した学習データを生成する。
Here, the learning procedure for generating the prediction coefficient Wi for each class stored in the prediction coefficient ROM 14 will be described with reference to the flowchart of FIG. The prediction coefficient Wi can be obtained in accordance with the prediction coefficient learning procedure RT1 shown in FIG. 7. First, when the prediction coefficient learning procedure RT1 is started in step SP1, the following step SP2
In order to learn the prediction coefficient w i, learning data corresponding to an already known image is generated.

【0037】具体的には、図28に示すHD画像におい
て、HD補間画素をHD注目画素として、このHD注目
画素を周辺のHD補間画素及びSD画素でなる一組の学
習データによつて予測係数を用いた線形一次結合モデル
によつて表す。このとき用いた予測係数を各クラス毎に
最小自乗法を用いて求める。なお、このように学習デー
タを生成する際に、1つの画像のみを用いるのではなく
複数の画像を用いて多数の学習データを生成すれば、よ
り正確な予測係数を得ることができる。
Specifically, in the HD image shown in FIG. 28, the HD interpolation pixel is set as the HD attention pixel, and this HD attention pixel is predicted by a set of learning data composed of HD interpolation pixels and SD pixels in the periphery. It is represented by a linear linear combination model using. The prediction coefficient used at this time is obtained for each class by using the least squares method. In addition, when generating a large number of learning data by using a plurality of images instead of using only one image when generating the learning data, a more accurate prediction coefficient can be obtained.

【0038】続くステツプSP3では、ステツプSP2
で生成した学習データの数が予測係数を得るのに必要な
だけ生成されたか否か判定する。ここで、学習データ数
が必要数に満たないと判定された場合にはステツプSP
4に移る。このステツプSP4では、クラス学習データ
をクラス分類する。クラス分類は、先ず、初めに学習サ
ンプリングデータの局所的な平坦度を検出し、当該検出
結果に応じてクラス分類に用いる画素を選択する。これ
により入力信号の変化の小さいものを学習対象から除外
してノイズの影響を排除することができる。その後、こ
のクラス学習データのクラス分類は入力SD画像信号S
1 をクラス分類する場合と同様の処理を実行することに
よつてなされる。
At the subsequent step SP3, step SP2
It is determined whether or not the number of learning data generated in (3) has been generated enough to obtain the prediction coefficient. If it is determined that the number of learning data is less than the required number, step SP
Go to 4. In this step SP4, the class learning data is classified into classes. In the classification, first, the local flatness of the learning sampling data is detected, and the pixel used for the classification is selected according to the detection result. As a result, it is possible to eliminate the influence of noise by excluding the input signal having a small change from the learning target. After that, the classification of the class learning data is performed by the input SD image signal S
This is done by performing the same processing as in classifying 1.

【0039】すなわちクラス学習データのクラス分類
は、まず、学習データのダイナミツクレンジDRを分類
評価してクラスコードc0を設定する。続いて、広領域、
標準及び狭領域の3種類のタツプパターンからクラスコ
ードc0に基づいて、いずれか一つのタツプパターンp3を
空間クラスとして選択する。図8に示すように、このよ
うにして得られたクラスコードc0及びADRCコードc1
とを組み合わせてクラスコードd0を設定し、このクラス
コードd0を予測データd1と対応させてROM14に記憶
する。
That is, in class classification of the learning data, first, the dynamic range DR of the learning data is classified and evaluated, and the class code c0 is set. Then, wide area,
One of the tap patterns p3 is selected as a spatial class from the three types of standard and narrow area tap patterns based on the class code c0. As shown in FIG. 8, the class code c0 and the ADRC code c1 thus obtained are obtained.
A class code d0 is set by combining and, and the class code d0 is stored in the ROM 14 in association with the prediction data d1.

【0040】ステツプSP5において、クラス分類され
た学習データに基づき、各クラス毎に正規化方程式を形
成する。このステツプSP5での処理を具体的に説明す
る。ここでは、一般化するために学習データとしてn個
のサンプリング画素が存在する場合について述べる。ま
ず、各サンプリング画素の画素レベルx1 、……、xn
と注目補間画素のサブサンプル以前の画素レベルyの関
係を、クラス毎に予測係数w1 、……、wn によるnタ
ツプの線型一次結合モデルによる予測式で表す。この予
測式を次式
At step SP5, a normalization equation is formed for each class based on the classified learning data. The processing in step SP5 will be specifically described. Here, for the sake of generalization, a case will be described in which there are n sampling pixels as learning data. First, the pixel level x1, ..., Xn of each sampling pixel
And the pixel level y before the sub-sampling of the interpolation pixel of interest is represented by a prediction formula by an n-tap linear linear combination model with prediction coefficients w1, ..., Wn for each class. This prediction formula is

【数4】 に示す。この(4)式における予測係数w1 、……、w
n を求めることにより、画素レベルyを推定する。
(Equation 4) Shown in Prediction coefficient w1, ..., W in equation (4)
The pixel level y is estimated by finding n.

【0041】次に予測係数w1 、……、wn を最小自乗
法により生成する例を示す。最小自乗法は次のように適
用される。一般化した例として、Xを入力データ、Wを
予測係数、Yを推定値として次の観測方程式を考える。
Next, an example of generating the prediction coefficients w1, ..., Wn by the method of least squares will be shown. The least squares method is applied as follows. As a generalized example, consider the following observation equation, where X is input data, W is a prediction coefficient, and Y is an estimated value.

【数5】 この(5)式の観測方程式により収集されたデータに対
して最小自乗法を適用する。(5)式の例においては、
n=13、mが学習データ数となる。
(Equation 5) The least squares method is applied to the data collected by the observation equation (5). In the example of equation (5),
n = 13, m is the number of learning data.

【0042】まず、(5)式の観測方程式をもとに、次
の残差方程式を考える。
First, the following residual equation will be considered based on the observation equation (5).

【数6】 (6)式の残差方程式から、各wi の最確値は次式(Equation 6) From the residual equation of equation (6), the most probable value of each wi is

【数7】 を最小にする条件が成り立つ場合と考えられる。すなわ
ち(7)式のwi による偏微分が次式
(Equation 7) It is considered that the condition for minimizing is satisfied. That is, the partial derivative by wi of equation (7) is

【数8】 で表されるとき、この(8)式のiに基づくn個の条件
を考え、この条件を満たすw1 、w2 、……、wn を算
出すれば良い。そこで残差方程式(6)式から次式が得
られる。
(Equation 8) In this case, n conditions based on i in the equation (8) are considered, and w1, w2, ..., Wn satisfying these conditions may be calculated. Therefore, the following equation is obtained from the residual equation (6).

【数9】 この(9)式及び(8)式により次式[Equation 9] From the expressions (9) and (8), the following expression

【数10】 が得られる。そして(6)式及び(10)式から次に示
す正規方程式が得られる。
(Equation 10) Is obtained. Then, the following normal equation is obtained from the equations (6) and (10).

【数11】 (11)式の正規方程式は、未知数の数nと同じ数の方
程式を立てることが可能なので、これにより各wi の最
確値を求めることができる。この正規方程式は、掃き出
し法(Gauss-Jordanの消去法)を用いて解くことができ
る。
[Equation 11] With the normal equation of the equation (11), since the same number of equations as the number n of unknowns can be established, the most probable value of each wi can be obtained. This normal equation can be solved using the sweep method (Gauss-Jordan elimination method).

【0043】予測係数学習手順RT1では、各クラス毎
に未定係数w1 、……、wn を求めるために未知数の数
nと同じ数の正規化方程式が形成されるまでステツプS
P2−SP3−SP4−SP5−SP2のループを繰り
返す。
In the prediction coefficient learning procedure RT1, in order to obtain the undetermined coefficients w1, ..., Wn for each class, the step S is repeated until the normalization equations of the same number as the unknown number n are formed.
The loop of P2-SP3-SP4-SP5-SP2 is repeated.

【0044】このようにして必要な数の正規化方程式が
得られると、ステツプSP3では学習データが終了した
か否かの判定に対して肯定結果が得られ、処理はステツ
プSP6の予測係数決定に移る。
When the required number of normalization equations are obtained in this way, an affirmative result is obtained in step SP3 for the determination as to whether or not the learning data has ended, and the processing is performed in step SP6 for determining the prediction coefficient. Move.

【0045】このステツプSP6では、(11)式の正
規化方程式を解いて各クラス毎の予測係数w1 、……、
wn を決定する。このようにして得られた予測係数を次
のステツプSP7でクラス毎にアドレス分割されたRO
M等の記憶手段に登録する。この際、1つのクラスコー
ドに対して、予測演算部13A〜13Dにそれぞれ対応
する予測係数w1 、……、wn からなる4つの予測係数
群が登録される。以上の学習処理により、クラス分類適
応処理の予測係数が生成され次のステツプSP8で予測
係数学習手順RT1を終了する。
In this step SP6, the normalization equation of the equation (11) is solved to predict the prediction coefficient w1 for each class.
Determine wn. The prediction coefficient thus obtained is subjected to address division RO for each class in the next step SP7.
It is registered in the storage means such as M. At this time, for one class code, four prediction coefficient groups including prediction coefficients w1, ..., Wn respectively corresponding to the prediction calculation units 13A to 13D are registered. By the above learning processing, the prediction coefficient of the class classification adaptive processing is generated, and the prediction coefficient learning procedure RT1 is ended at the next step SP8.

【0046】以上の構成において、上述したアツプコン
バータ10及びそのアツプコンバータの各部の動作につ
いて説明する。まず、入力端INを通じてアツプコンバー
タ10に入力されるSD画像信号S1は、クラス分類部
12及び予測係数演算部13に対して並列に送出され
る。クラス分類部12は、SD画像信号S1 に基づいて
クラスコードd0を生成して予測係数ROM14に送出す
る。
The operation of the above-described up-converter 10 and each part of the up-converter having the above-mentioned structure will be described. First, the SD image signal S1 input to the up converter 10 through the input terminal IN is sent to the class classification unit 12 and the prediction coefficient calculation unit 13 in parallel. The class classification unit 12 generates a class code d0 based on the SD image signal S1 and sends it to the prediction coefficient ROM 14.

【0047】予測係数ROM14は、予め学習によつて
求められている予測データd1をクラスコードd0に応じて
読み出し、予測係数演算部13に送出する。予測係数演
算部13は、各予測演算部13A〜13Dにおいて、入
力端INから送出されてくるSD画像信号S1 及び予測係
数ROM14から送出される予測データd1をもとにして
走査線1上の4つの位置(mode1 〜mode4)に対応したH
D補間画素を生成する。
The prediction coefficient ROM 14 reads the prediction data d1 previously obtained by learning according to the class code d0, and sends it to the prediction coefficient calculation unit 13. In each of the prediction calculation units 13A to 13D, the prediction coefficient calculation unit 13 uses the SD image signal S1 sent from the input terminal IN and the prediction data d1 sent from the prediction coefficient ROM 14 to determine the 4 on the scanning line 1. H corresponding to one position (mode1 to mode4)
Generate D interpolation pixels.

【0048】アクテイビテイ分類部21は、まず、入力
されるSD画像信号S1 の注目SD画素を中心とした複
数のSD画素のダイナミツクレンジDRを検出し、この
ダイナミツクレンジDRを所定の閾値との間で比較判定
することによつてクラスコードc0を出力する。一般に、
ダイナミツクレンジDRが大きい場合は空間アクテイビ
テイが高く、反対にダイナミツクレンジDRが小さい場
合は空間アクテイビテイが低い。
The activity classifying unit 21 first detects the dynamic range DR of a plurality of SD pixels centering on the SD pixel of interest of the input SD image signal S1, and sets this dynamic range DR as a predetermined threshold value. The class code c0 is output by comparing and determining between the two. In general,
When the dynamic range DR is large, the spatial activity is high. On the contrary, when the dynamic range DR is small, the spatial activity is low.

【0049】一方で、ブロツク単位の入力SD画像信号
S1 は、それぞれ異なつた3種類の画素のタツプパター
ンを設定する広領域タツプ選択部22、標準タツプ選択
部23及び狭領域タツプ選択部24に並列に送出され
る。そして、広領域タツプ選択部22、標準タツプ選択
部23及び狭領域タツプ選択部24は、それぞれ空間ク
ラスのタツプパターンp0、p1及びp2を設定する。
On the other hand, the input SD image signal S1 in block units is arranged in parallel to the wide area tap selecting section 22, the standard tap selecting section 23 and the narrow area tap selecting section 24 which set the tap patterns of three different types of pixels. Sent out. Then, the wide area tap selection unit 22, the standard tap selection unit 23, and the narrow area tap selection unit 24 set tap patterns p0, p1, and p2 of the space class, respectively.

【0050】選択部25は、クラスコードc0をもとにし
て、例えばダイナミツクレンジDRが小さく、アクテイ
ビテイの低いSD画像信号S1 に対しては、図5(A)
に示すような比較的広い領域の信号変化のクラスタツプ
パターンp0を選択して、緩やかな信号変化をクラスに反
映する。これに対して、ダイナミツクレンジDRが大き
くアクテイビテイの高いSD画像信号S1 に対しては、
図5(C)に示すような狭い領域のクラスタツプパター
ンp2を選択して、狭い領域の信号変化を可能な限りのク
ラス数で表現する。これにより選択部25は、ダイナミ
ツクレンジDRから見た信号特性に応じて、その信号変
化を反映させたタツプパターンp3でなる空間クラスを選
択して、次段のADRCクラス分類部26に送出する。
Based on the class code c0, the selecting section 25 selects, for example, an SD image signal S1 having a small dynamic range DR and a low activity as shown in FIG.
A cluster tap pattern p0 of a signal change in a relatively wide area as shown in (3) is selected, and a gradual signal change is reflected in the class. On the other hand, for the SD image signal S1 having a large dynamic range DR and a high activity,
By selecting a cluster tap pattern p2 in a narrow area as shown in FIG. 5C, the signal change in the narrow area is expressed by the maximum number of classes. As a result, the selection unit 25 selects a space class consisting of the tap pattern p3 reflecting the signal change in accordance with the signal characteristic viewed from the dynamic range DR, and sends it to the ADRC class classification unit 26 in the next stage.

【0051】ADRCクラス分類部26は、クラスコー
ドc0を制御信号として、ダイナミツクレンジDRが小さ
いSD画像信号S1 に対しては空間クラス分類用の各タ
ツプの再量子化ビツト数kを小さく設定する。これによ
り各タツプのレベル分解能が低くなり、定常性を前提と
したADRCコードc1を出力することができる。これに
対してダイナミツクレンジDRが大きいSD画像信号S
1 に対しては、空間クラス分類用の各タツプの再量子化
ビツト数kを多めに設定して、レベル分解能を高くした
ADRCコードc1を出力する。これによりダイナミツク
レンジDRが大きくアクテイビテイが高いSD画像信号
S1 の非定常的な信号変化をクラスに反映させることが
できる。
The ADRC classifying unit 26 sets the requantization bit number k of each tap for spatial class classification small for the SD image signal S1 having a small dynamic range DR by using the class code c0 as a control signal. . As a result, the level resolution of each tap is lowered, and the ADRC code c1 can be output on the assumption of stationarity. On the other hand, the SD image signal S having a large dynamic range DR
For 1, the number of requantization bits k of each tap for spatial class classification is set to a large value and the ADRC code c1 with high level resolution is output. As a result, the unsteady signal change of the SD image signal S1 having a large dynamic range DR and a high activity can be reflected in the class.

【0052】このようにして、クラス分類部12は、入
力SD画像信号S1 のダイナミツクレンジDRに応じ
て、クラス分類に用いる画素のタツプパターンを切り替
えると共に、クラス分類用の各タツプの再量子化ビツト
数kを切り替えることによつてレベル分解能を適応的に
設定する。これにより入力SD画像信号S1 のダイナミ
ツクレンジDRの特性に応じて適切なクラス分類を実行
することができる。
In this way, the class classification unit 12 switches the tap patterns of the pixels used for class classification according to the dynamic range DR of the input SD image signal S1 and also requantizes the taps for each class classification. The level resolution is adaptively set by switching several k. As a result, it is possible to perform an appropriate class classification according to the characteristics of the dynamic range DR of the input SD image signal S1.

【0053】クラス分類部12は、クラスコードc0及び
ADRCコードc1とを組み合わせてなるクラスコードd0
を次段の予測係数ROM14に送出する。予測係数RO
M14は、このクラスコードd0に基づいて予測データd1
を読み出して、予測演算部13に送出する。予測演算部
13は、この予測データd1を用いてSD画素を変換する
ことにより、HD補間画素を生成する。そしてこの生成
されたHD補間画素が選択部に供給され、選択部15よ
り時系列に並べ変えられ、HD画像信号として出力され
る。かくして、選択された予測データd1は、入力SD画
像信号S1 のダイナミツクレンジDRによる特性を反映
することになり、SD画素から変換して生成するHD補
間画素の精度を向上させることができ、HD画像信号S
2 の空間解像度の向上を成し得ることができる。
The class classification unit 12 combines the class code c0 and the ADRC code c1 with the class code d0.
To the prediction coefficient ROM 14 of the next stage. Prediction coefficient RO
M14 is the prediction data d1 based on this class code d0.
Is read out and sent to the prediction calculation unit 13. The prediction calculation unit 13 converts the SD pixel using this prediction data d1 to generate an HD interpolation pixel. Then, the generated HD interpolation pixels are supplied to the selection unit, rearranged in time series by the selection unit 15, and output as an HD image signal. Thus, the selected prediction data d1 reflects the characteristics of the input SD image signal S1 due to the dynamic range DR, and the precision of the HD interpolation pixel generated by conversion from the SD pixel can be improved. Image signal S
A spatial resolution improvement of 2 can be achieved.

【0054】以上の構成によれば、アツプコンバータ1
0に入力されるSD画像信号S1 をアクテイビテイ分類
部21においてダイナミツクレンジDRに応じて閾値判
定し、この結果として得られるクラスコードc0に基づい
て3種類の空間クラスタツプパターン(広領域タツプパ
ターン、標準領域タツプパターン又は狭領域タツプパタ
ーン)の中からSD画像信号S1 のダイナミツクレンジ
DRの特性に応じたタツプパターンを設定することがで
き、かくして入力SD画像信号S1 のダイナミツクレン
ジDR特性を反映したクラスタツプパターンを設定し得
る。
According to the above configuration, the up converter 1
The SD image signal S1 input to 0 is threshold-value-determined by the activity classification unit 21 according to the dynamic range DR, and three types of spatial cluster tap patterns (wide area tap patterns, It is possible to set a tap pattern according to the characteristic of the dynamic range DR of the SD image signal S1 from the standard area tap pattern or the narrow area tap pattern), and thus, a cluster pattern reflecting the dynamic range DR characteristic of the input SD image signal S1. Pattern can be set.

【0055】また以上の構成によれば、クラスコードc1
に応じて空間クラス分類用の各タツプの再量子化ビツト
数kを変えて、各タツプのレベル分解能を切替えるよう
にすることにより、信号変化の定常性又は非定常性をタ
ツプのレベル分解能によりクラス分類に反映することが
できる。かくして、入力SD画像信号S1 のダイナミツ
クレンジDR特性に応じてタツプパターン及びタツプの
レベル分解能を設定した適切なクラス分類がなされ、入
力SD画像信号S1 の信号特性を反映した空間解像度の
高いHD画像信号S2 を生成することができる。
Further, according to the above configuration, the class code c1
By changing the requantization bit number k of each tap for spatial class classification according to the above, and switching the level resolution of each tap, the stationarity or non-stationarity of the signal change is classified by the level resolution of the tap. Can be reflected in the classification. Thus, an HD image signal having a high spatial resolution reflecting the signal characteristics of the input SD image signal S1 is obtained by appropriately classifying the tap pattern and the level resolution of the tap according to the dynamic range DR characteristics of the input SD image signal S1. S2 can be generated.

【0056】(2)第2実施例 図9は、第2実施例によるアツプコンバータのアクテイ
ビテイ分類部35を示している。このアクテイビテイ分
類部35は、注目SD画素を中心とした複数のSD画素
からなるブロツク単位毎に入力されるSD画像信号S1
の空間内アクテイビテイを評価して、その特性に応じて
注目画素のクラスを分類するようになされている。すな
わちADRCクラス分類部36には、入力端INから入力
されるSD信号S1 が供給され、ADRCクラス分類部
36は、注目SD画素を中心とした複数のSD画素から
なるSD信号S1 に対してADRCによるクラス分類処
理を実行する。
(2) Second Embodiment FIG. 9 shows an activity classification unit 35 of the up converter according to the second embodiment. The activity classification unit 35 inputs the SD image signal S1 for each block unit composed of a plurality of SD pixels centering on the SD pixel of interest.
The activity in the space is evaluated, and the class of the pixel of interest is classified according to the characteristic. That is, the SD signal S1 input from the input terminal IN is supplied to the ADRC class classification unit 36, and the ADRC class classification unit 36 performs ADRC on the SD signal S1 composed of a plurality of SD pixels centering on the SD pixel of interest. Execute the class classification process by.

【0057】ADRCクラス分類部36より出力される
ADRCコードc(式中ではクラスタツプパターンのS
D画素数iに応じてci を用いる)は、第1の実施例と
同様にしてダイナミツクレンジDR、再量子化ビツト数
k、SD画素xi 及びその近傍領域内の最小画素レベル
MINとから次式
The ADRC code c output from the ADRC class classification unit 36 (S
In the same manner as in the first embodiment, the dynamic range DR, the number of requantization bits k, the SD pixel xi and the minimum pixel level MIN in the vicinity thereof are used to calculate formula

【数12】 によつて生成される。(Equation 12) Is generated by.

【0058】ADRCクラス分類部36において生成さ
れたADRCコードcは、次段の後処理部37に送出さ
れる。後処理部37は、ADRCコードcによるレベル
分布パターンのバラツキ度を表す、例えばADRCコー
ドcに対する標準偏差σを算出する。そして後処理部3
7は、算出したADRCコードcに対する標準偏差σを
次段の閾値判定部38に送出する。閾値判定部38は、
このADRCコードcに対する標準偏差σの閾値判定に
より、クラスコードc0を生成して出力する。ADRCコ
ードcに対する標準偏差σは、ADRCコードci、A
DRCコードciの平均値ca及びADRCコード数n
を用いて次式
The ADRC code c generated by the ADRC classifying unit 36 is sent to the post-processing unit 37 in the next stage. The post-processing unit 37 calculates the standard deviation σ for the ADRC code c, for example, which represents the variation degree of the level distribution pattern according to the ADRC code c. And the post-processing unit 3
7 sends the calculated standard deviation σ with respect to the ADRC code c to the threshold determination unit 38 in the next stage. The threshold determination unit 38
The class code c0 is generated and output by the threshold judgment of the standard deviation σ with respect to the ADRC code c. The standard deviation σ for the ADRC code c is the ADRC code ci, A
Average value ca of DRC codes ci and number of ADRC codes n
Using

【数13】 によつて表される。(Equation 13) Is represented by

【0059】図2に示す選択部25は、このようにして
得られたクラスコードc0を用いて、第1の実施例と同様
にして 空間クラスのタツプパターンp3を選択する。さ
らに、ADRCクラス分類部26において、クラスコー
ドc0に基づいて各タツプのレベル分解能が適応的に設定
される。これにより入力SD画像信号S1 の空間アクテ
イビテイの分類結果に基づいて空間クラスタツプパター
ン及びレベル分解能が設定され、第1実施例と同様の効
果を得ることができる。
The selecting section 25 shown in FIG. 2 uses the class code c0 thus obtained to select the tap pattern p3 of the spatial class in the same manner as in the first embodiment. Further, the ADRC class classification unit 26 adaptively sets the level resolution of each tap based on the class code c0. As a result, the spatial cluster pattern and the level resolution are set based on the classification result of the spatial activity of the input SD image signal S1, and the same effect as the first embodiment can be obtained.

【0060】(3)第3実施例 また第3実施例として、クラス分類する際、例えば図4
に示す入力された注目SD画素近傍の9画素のデータ分
布から標準偏差σを算出し、その算出された標準偏差σ
を閾値判定することにより、クラスコードc0データを生
成するようにしてもよい。すなわち、図3に示されるア
クテイビテイ分類部21の処理部35において、入力注
目画素近傍の9画素のデータ分布から標準偏差σが算出
される。
(3) Third Embodiment As a third embodiment, when classifying, for example, FIG.
The standard deviation σ is calculated from the input data distribution of 9 pixels in the vicinity of the SD pixel of interest, and the calculated standard deviation σ
The class code c0 data may be generated by determining the threshold value of. That is, in the processing unit 35 of the activity classification unit 21 shown in FIG. 3, the standard deviation σ is calculated from the data distribution of 9 pixels near the input target pixel.

【0061】つまり処理部35には、入力端INから入力
されるSD信号S1 が供給され、処理部35は、入力注
目画素近傍の9画素のデータ分布から標準偏差σを算出
する。そして、処理部30は、算出した標準偏差σを次
段の閾値判定部31に送出する。閾値判定部38は、こ
の標準偏差σの閾値判定することにより、クラスコード
c0を生成して出力する。標準偏差σは、SD画素xi、
近傍領域内平均値xi及び近傍領域内画素数nを用いて
次式
That is, the processing unit 35 is supplied with the SD signal S1 input from the input terminal IN, and the processing unit 35 calculates the standard deviation σ from the data distribution of 9 pixels near the input target pixel. Then, the processing unit 30 sends the calculated standard deviation σ to the threshold value determination unit 31 in the next stage. The threshold judgment unit 38 judges the threshold of the standard deviation σ to obtain the class code.
Generate and output c0. The standard deviation σ is SD pixel xi,
Using the average value xi in the neighborhood area and the number n of pixels in the neighborhood area,

【数14】 によつて定義される。[Equation 14] Is defined by

【0062】このように、第3実施例では、この標準偏
差σを用いた閾値判定により、クラス分類を実行する。
一般に標準偏差が大きい場合は、空間アクテイビテイが
高く、反対に小さい場合には、空間アクテイビテイが低
いといえる。したがつて、この標準偏差σの閾値判定に
基づいて、空間クラスタツプパターンの切り替え及び空
間クラス分類用のタツプのレベル分解能を切り替えるこ
とによつて、上述した第1実施例と同様の効果を得るこ
とができる。
As described above, in the third embodiment, the class classification is executed by the threshold judgment using the standard deviation σ.
Generally, when the standard deviation is large, the spatial activity is high, and when the standard deviation is small, the spatial activity is low. Therefore, by switching the spatial cluster tap pattern and switching the level resolution of the tap for spatial class classification based on the threshold determination of the standard deviation σ, the same effect as that of the first embodiment described above can be obtained. Obtainable.

【0063】(4)第4実施例 さらに第4実施例として、ADRCコードcによるレベ
ル分布パターンのバラツキ度を表すADRCコードcを
登録した度数分布表を生成し、その生成された度数分布
表を用いて閾値判定することにより、クラスコードc0デ
ータを生成するようにしてもよい。すなわち図10に示
すような度数分布表において、閾値0、閾値1間に存在
するADRCコードcを計測して、その対比によつてク
ラス分類する。この場合、例えばADRCコードが所定
区間にかたまつているときは、空間アクテイビテイは低
く、一方ADRCコードcが広く分布しているときは、
空間アクテイビテイは高いといえる。
(4) Fourth Embodiment Further, as a fourth embodiment, a frequency distribution table in which the ADRC code c representing the variation degree of the level distribution pattern by the ADRC code c is registered is generated, and the generated frequency distribution table is generated. The class code c0 data may be generated by using the threshold value determination. That is, in the frequency distribution table as shown in FIG. 10, the ADRC code c existing between the threshold value 0 and the threshold value 1 is measured, and the classification is performed according to the comparison. In this case, for example, the spatial activity is low when the ADRC code is bound in a predetermined section, while the spatial activity is low when the ADRC code c is widely distributed.
It can be said that space activity is high.

【0064】つまり第2実施例と同様に、ADRCクラ
ス分類部36には、入力端INから入力されるSD信号S
1 が供給され、ADRCクラス分類部36は、注目SD
画素を中心とした複数のSD画素に対してADRCによ
るクラス分類処理を実行する。
That is, similarly to the second embodiment, the SD signal S input from the input terminal IN is input to the ADRC class classification unit 36.
1 is supplied to the ADRC classifying unit 36,
A class classification process by ADRC is executed on a plurality of SD pixels centering on a pixel.

【0065】ADRCクラス分類部36において生成さ
れたADRCコードcは、次段の後処理部37に送出さ
れる。後処理部37は、ADRCコードcによるレベル
分布パターンのバラツキ度を表す、図10に示されるよ
うなADRCコードcを登録した度数分布表を生成す
る。そして後処理部37は、生成されたADRCコード
cに対する度数分布表を表すデータを次段の閾値判定部
38に送出する。閾値判定部38は、ADRCコードc
に対する度数分布表において、閾値0と閾値1との間に
存在する画素数を計測することにより、閾値判定を実行
し、クラスコードc0を生成して出力する。
The ADRC code c generated in the ADRC class classification unit 36 is sent to the post-processing unit 37 in the next stage. The post-processing unit 37 generates a frequency distribution table in which the ADRC code c is registered as shown in FIG. 10, which represents the variation degree of the level distribution pattern according to the ADRC code c. Then, the post-processing unit 37 sends the data representing the frequency distribution table for the generated ADRC code c to the threshold determination unit 38 in the next stage. The threshold determination unit 38 uses the ADRC code c
In the frequency distribution table for, the threshold determination is executed by measuring the number of pixels existing between the threshold 0 and the threshold 1, and the class code c0 is generated and output.

【0066】したがつて、このADRCコードcに対す
る度数分布表を用いた閾値判定に基づいて、空間クラス
タツプパターンの切り替え及び空間クラス分類用のタツ
プのレベル分解能を切り替えることによつて、上述した
第1実施例と同様の効果を得ることができる。
Therefore, based on the threshold value judgment using the frequency distribution table for the ADRC code c, the spatial cluster tap pattern is switched and the level resolution of the tap for spatial class classification is switched, as described above. The same effect as the first embodiment can be obtained.

【0067】(5)第5実施例 さらに第5実施例として、SD画素値の隣接画素差分の
絶対値を度数分布表に登録して、その度数分布表を用い
て、空間アクテイビテイを評価することにより、クラス
コードをc0を生成するようにしてもよい。この場合、大
きい差分絶対値を持つ画素が多いときは、空間アクテイ
ビテイが高く、反対に小さい差分絶対値を持つ画素が多
いときは空間アクテイビテイが低い。
(5) Fifth Embodiment Further, as a fifth embodiment, the absolute value of the difference between adjacent pixels of SD pixel values is registered in the frequency distribution table, and the spatial activity is evaluated using the frequency distribution table. Thus, the class code c0 may be generated. In this case, the spatial activity is high when there are many pixels having large difference absolute values, and conversely, the spatial activity is low when there are many pixels having small difference absolute values.

【0068】すなわち図9に示されるアクテイビテイ分
類部35のADRCクラス分類部36の代わりに、隣接
画素の差分の絶対値を算出する隣接画素差分算出部を設
ける。つまり隣接画素差分算出部には、入力端INから入
力されるSD信号S1 が供給され、隣接画素差分算出部
は、注目SD画素を中心とした複数の周辺SD画素に対
して隣接画素間の差分を算出し、その算出された差分の
絶対値を生成する。隣接画素差分算出部において生成さ
れた差分絶対値は、次段の後処理部37に送出される。
That is, instead of the ADRC class classification unit 36 of the activity classification unit 35 shown in FIG. 9, an adjacent pixel difference calculation unit for calculating the absolute value of the difference between adjacent pixels is provided. That is, the adjacent pixel difference calculation unit is supplied with the SD signal S1 input from the input terminal IN, and the adjacent pixel difference calculation unit calculates the difference between adjacent pixels with respect to a plurality of peripheral SD pixels centering on the SD pixel of interest. Is calculated, and the absolute value of the calculated difference is generated. The absolute difference value generated by the adjacent pixel difference calculation unit is sent to the post-processing unit 37 in the next stage.

【0069】後処理部37は、ADRCコードcによる
レベル分布パターンのバラツキ度を表す、差分絶対値を
登録した度数分布表を生成する。そして後処理部37
は、生成された差分絶対値に対する度数分布表を表すデ
ータを次段の閾値判定部38に送出する。閾値判定部3
8は、差分絶対値に対する度数分布表において、閾値0
と閾値1との間に存在する画素数を計測することによ
り、閾値判定を実行し、クラスコードc0を生成して出力
する。したがつて、この隣接画素の差分絶対値の閾値判
定に基づいて、空間クラスタツプパターンの切り替え及
び空間クラス分類用のタツプのレベル分解能を切り替え
ることによつて、上述した第1実施例と同様の効果を得
ることができる。
The post-processing section 37 generates a frequency distribution table in which the absolute difference values are registered, which represents the variation degree of the level distribution pattern according to the ADRC code c. And the post-processing unit 37
Sends the data representing the frequency distribution table for the generated absolute difference values to the threshold determination unit 38 in the next stage. Threshold determination unit 3
8 is the threshold value 0 in the frequency distribution table for the absolute difference value.
The threshold value determination is executed by measuring the number of pixels existing between the threshold value 1 and the threshold value 1, and the class code c0 is generated and output. Therefore, by switching the spatial cluster tap pattern and switching the level resolution of the tap for spatial class classification based on the threshold determination of the absolute difference value of the adjacent pixels, the same as in the above-described first embodiment. The effect of can be obtained.

【0070】(6)第6実施例 図11は、第6実施例によるアツプコンバータ50を示
している。このアツプコンバータ50は、初段のクラス
分類部50Aのラプラシアンフイルタ51A〜51Eに
おいて、複数の方向の1次元ラプラシアン処理を行い、
それらの値を総合的に判断することにより、初段のクラ
ス分類を実行する。続いて初段のクラス分類部50Aの
分類結果に応じて、次段のクラス分類部50Bのクラス
タツプパターンを設定する。そして、次段のクラス分類
部50Bは、このクラスタツプパターンを用いて、クラ
ス分類を実行する。
(6) Sixth Embodiment FIG. 11 shows an up converter 50 according to the sixth embodiment. The up converter 50 performs one-dimensional Laplacian processing in a plurality of directions in the Laplacian filters 51A to 51E of the first-stage class classification unit 50A,
By comprehensively judging those values, the first-stage class classification is executed. Then, according to the classification result of the first-class classification unit 50A, the cluster pattern of the second-class classification unit 50B is set. Then, the class classification unit 50B at the next stage executes class classification using this cluster tap pattern.

【0071】この第6実施例は、初段のクラス分類にお
いて、空間方向及び時間方向のアクテイビテイを評価し
ている。図11を用いて、第6実施例の構成を説明す
る。入力端INから入力されるSD画像信号S1 は、クラ
ス分類部50Aに供給される。そして、クラス分類部5
0Aに供給されたSD画像信号S1 は、ラプラシアンフ
イルタ51A〜51E及び遅延部56Bに供給される。
5種類のラプラシアンフイルタ51A〜51Eは、供給
されたSD画像信号S1 のフレーム毎又はフイールド毎
のブロツク単位の入力SD画像信号S1 に対して、各フ
イルタ毎に異なつた方向にラプラシアン処理を施し、ラ
プラシアン値LO〜L4を出力する。
The sixth embodiment evaluates the spatial and temporal activities in the first-stage class classification. The configuration of the sixth embodiment will be described with reference to FIG. The SD image signal S1 input from the input terminal IN is supplied to the class classification unit 50A. And the class classification unit 5
The SD image signal S1 supplied to 0A is supplied to the Laplacian filters 51A to 51E and the delay unit 56B.
The five types of Laplacian filters 51A to 51E perform Laplacian processing on the input SD image signal S1 in block units for each frame or each field of the supplied SD image signal S1 in Laplacian processing in different directions for each filter. Outputs values LO to L4.

【0072】すなわちラプラシアン処理は、図12に示
すように、一次元のラプラシアンフイルタ51A〜51
Eによつて、水平方向(図12(A))、垂直方向(図
12(B))、右下斜め方向(向かつて左上端から右下
端の対角線の方向)(図12(C))、左下斜め方向
(向かつて右上端から左下端の対角線の方向)(図12
(D))及び時間方向(図12(E))のそれぞれの方
向に対してラプラシアン処理を施す。
That is, the Laplacian processing is performed by the one-dimensional Laplacian filters 51A to 51A as shown in FIG.
According to E, the horizontal direction (FIG. 12 (A)), the vertical direction (FIG. 12 (B)), the lower right diagonal direction (the diagonal direction from the upper left end to the lower right end) (FIG. 12 (C)), Diagonal lower left direction (diagonal direction from the upper right end to the lower left end)
(D)) and the Laplacian process in each of the time direction (FIG. 12E).

【0073】まず、ラプラシアンフイルタ51A〜51
Dを通じてラプラシアン処理され、その結果として得ら
れるラプラシアン値L0〜L3は、次段の絶対値回路52A
〜52Dにそれぞれ送出される。絶対値回路52A〜5
2Dは、それぞれラプラシアン値L0〜L3に対して絶対値
化を施す。そしてその結果として得られる絶対値a0〜a3
を最大値検出器53に送出する。
First, the Laplacian filters 51A to 51
The Laplacian values L0 to L3 obtained as a result of the Laplacian processing through D are the absolute value circuits 52A of the next stage.
To 52D respectively. Absolute value circuit 52A-5
2D applies absolute values to the Laplacian values L0 to L3, respectively. And the absolute value a0-a3 obtained as a result
Is sent to the maximum value detector 53.

【0074】最大値検出器53は、絶対値a0〜a3の中か
ら最大値を検出し、その検出された最大値を閾値TH0 を
用いて閾値処理する。これにより、入力SD画像信号S
1 の平坦度が検出され、1ビツトで表現されたその平坦
度を示す値(平坦度値)L10が出力される。さらに、最
大値検出器53は、2ビツトで表現された最大値が検出
された方向を示す値(最大値検出方向値)a10 を出力す
る。同時に、ラプラシアンフイルタ51Eは、時間方向
に対してのラプラシアン値L4を絶対値回路52Eに送出
する。
The maximum value detector 53 detects the maximum value from the absolute values a0 to a3, and thresholds the detected maximum value using the threshold value TH0. As a result, the input SD image signal S
A flatness of 1 is detected, and a value (flatness value) L10 representing the flatness expressed in 1 bit is output. Further, the maximum value detector 53 outputs a value (maximum value detection direction value) a10 indicating the direction in which the maximum value expressed by 2 bits is detected. At the same time, the Laplacian filter 51E sends the Laplacian value L4 in the time direction to the absolute value circuit 52E.

【0075】そして絶対値回路52Eは、ラプラシアン
値L4に対して絶対値化を施し、その結果得られる絶対値
a4を比較器54に送出する。比較器54は、絶対値a4を
閾値TH1 を用いて閾値処理することによつて、1ビツト
で表現された時間方向の変化を示す値(時間方向変化
値)a11 を出力する。そしてこの時間方向変化値a11 に
上述した最大値検出方向値a10 及び平坦度値L10 を加え
た4ビツトのデータが制御信号CTとして、次段のクラス
分類部50Bに送出される。
The absolute value circuit 52E converts the Laplacian value L4 into an absolute value, and obtains the absolute value obtained as a result.
a4 is sent to the comparator 54. The comparator 54 threshold-processes the absolute value a4 using the threshold TH1 to output a value (time-direction change value) a11 that represents a change in the time direction expressed by one bit. Then, 4-bit data obtained by adding the above-mentioned maximum value detection direction value a10 and flatness value L10 to this time direction change value a11 is sent to the class classification unit 50B of the next stage as a control signal CT.

【0076】ラプラシアン値は、基本的には注目画素と
両側の画素との空間差分の合計であるので、隣接画素の
変化が大きいほどラプラシアンの値は大きくなる。初段
のクラス分類部50Aは、空間内のエツジがある方向を
検出するために、空間内の所定の方向のアクテイビテイ
を一次元のラプラシアンフイルタをかけることにより、
その特徴を大きく分類する。
Since the Laplacian value is basically the sum of the spatial differences between the pixel of interest and the pixels on both sides, the Laplacian value increases as the change in adjacent pixels increases. The first-stage class classification unit 50A applies a one-dimensional Laplacian filter to the activity in a predetermined direction in the space in order to detect the direction in which an edge in the space is located.
The characteristics are roughly classified.

【0077】クラス分類部50Aから出力される制御信
号CTは、クラス分類部50Bのセレクタ55A〜55I
及び遅延回路56Aに送出される。セレクタ55A〜5
5Iは、制御信号CTによつて選択されるSD画像データ
が供給されるラインを通じてレジスタアレイ57に接続
されている。レジスタアレイ57には、遅延回路56B
を通じて遅延された数ライン分のSD画像信号S1 が送
出される。
The control signal CT output from the class classification unit 50A is the selectors 55A to 55I of the class classification unit 50B.
And to the delay circuit 56A. Selectors 55A-5
5I is connected to the register array 57 through a line to which SD image data selected by the control signal CT is supplied. The register array 57 includes a delay circuit 56B.
The SD image signal S1 for several lines delayed through is transmitted.

【0078】セレクタ55A〜55Iは、制御信号CTに
応じて選択的に切り替えられ、レジスタアレイ57から
供給されるSD画像データをインデツクスに応じて選択
し、9画素分の画素データを次段の1ビツトADRCク
ラス分類部58に送出する。つまりこの制御信号CTに応
じて、次段のクラス分類部50Bのクラスタツプパター
ンが選択される。
The selectors 55A to 55I are selectively switched according to the control signal CT, select the SD image data supplied from the register array 57 according to the index, and the pixel data for 9 pixels is set to 1 in the next stage. It is sent to the bit ADRC class classification unit 58. That is, the cluster tap pattern of the next class classification unit 50B is selected according to the control signal CT.

【0079】ADRCクラス分類部58は、セレクタ5
5A〜55Iによつて選択された9個のタツプによつて
形成されるクラスタツプパターンを用いて、1ビツトA
DRCクラス分類を実行し、9ビツトで表現されるAD
RCコードcを出力する。したがつて、クラス分類部5
0Bのクラスは、512 (29 )通りのクラスに分類され
る。
The ADRC class classification unit 58 uses the selector 5
Using a cluster tap pattern formed by 9 taps selected by 5A to 55I, 1 bit A
Performs DRC class classification and expresses in 9 bits
RC code c is output. Therefore, the classification unit 5
The 0B class is classified into 512 (29) classes.

【0080】この結果アツプコンバータ50において、
初段のクラス分類部50A(16通り)と次段のクラス分
類部50B(512 通り)とを掛け合わせた8192のクラス
に分類することができる。このように初段の空間アクテ
イビテイにより選択されたクラスに応じて次段のADR
Cクラス分類における最適なタツプパターンを選択する
ようにしたことにより、次段以降のクラス分類において
空間アクテイビテイの特徴を反映したより精度の高いク
ラス分類が成し得る。
As a result, in the up converter 50,
The first class classification unit 50A (16 ways) and the next class classification unit 50B (512 ways) can be classified into 8192 classes. Thus, depending on the class selected by the spatial activity of the first stage, the ADR of the next stage
By selecting the optimum tap pattern in the C class classification, it is possible to perform a more accurate class classification that reflects the characteristics of the spatial activity in the class classification in the subsequent stages.

【0081】次段の予測値演算部50Cは、HD補間画
素の予測係数を記憶する予測係数RAM59、HD補間
画素を生成するための予測タツプパターンを設定する予
測タツプパターン設定部60と、予測タツプパターン及
び予測係数を用いた演算によりHD補間画素を生成する
予測演算部61とからなる。予測係数RAM59は、1
ビツトADRCクラス分類部58より供給されるADR
Cコードc及び遅延回路56Aを通じて遅延された制御
信号CTの2つの信号をアドレスデータとして予測係数を
読み出し、その読みだされた予測係数を予測演算部61
へ送出する。
The prediction value calculation unit 50C at the next stage has a prediction coefficient RAM 59 for storing prediction coefficients of HD interpolation pixels, a prediction tap pattern setting unit 60 for setting a prediction tap pattern for generating HD interpolation pixels, a prediction tap pattern and prediction. The prediction calculation unit 61 generates HD interpolation pixels by calculation using coefficients. The prediction coefficient RAM 59 is 1
ADR supplied from bit ADRC classifier 58
The prediction coefficient is read using the two signals of the C code c and the control signal CT delayed through the delay circuit 56A as address data, and the read prediction coefficient is used as the prediction calculation unit 61.
Send to

【0082】一方、レジスタアレイ57から送出される
SD画像信号S1 が予測タツプパターン設定部60に送
出される。この予測タツプパターン設定部は、後段の予
測演算部61で使用する予測タツプパターンを設定す
る。つまり入力されたSD画像信号S1 から、後段の予
測演算部61で予測係数RAMから読み出された係数と
予測演算される予測タツプパターンを出力する。予測演
算部61は、予測タツプパターンの画素データと予測係
数を用いて線形一次結合によりHD補間画素を生成して
出力する。
On the other hand, the SD image signal S1 sent from the register array 57 is sent to the predictive tap pattern setting section 60. The predictive tap pattern setting unit sets a predictive tap pattern used in the predictive calculation unit 61 in the subsequent stage. That is, from the input SD image signal S1, the prediction tap pattern that is predictively calculated with the coefficient read from the prediction coefficient RAM by the prediction calculation unit 61 in the subsequent stage is output. The prediction calculation unit 61 generates and outputs an HD interpolation pixel by linear linear combination using the pixel data of the prediction tap pattern and the prediction coefficient.

【0083】ここで、クラス分類部50Aで生成される
4ビツトの制御信号CTとその制御信号CTにより選択され
るクラス分類部50Bで用いられるクラスタツプパター
ンについて説明する。
Here, the 4-bit control signal CT generated by the class classification unit 50A and the cluster tap pattern used by the class classification unit 50B selected by the control signal CT will be described.

【0084】図13は、クラス分類部50Aで生成され
る4ビツトの制御信号CTの16(24)通りの組み合わせ
を表すインデツクス(I0〜I3)である。図14〜図
17は、インデツクス(I0〜I3)に対応して設けら
れた次段におけるクラス分類部50Bのタツプパターン
構造の一例を示している。制御信号CTとタツプパターン
との関係は、空間方向において、変化の大きい方向(ラ
プラシアン値の大きい方向)にクラスタツプが存在し、
ラプラシアン値の最大値が大きい程、タツプの空間の広
がりが小さくなるような関係である。さらに、時間方向
のラプラシアン値が大きいとタツプパターンが同一フイ
ールド内のタツプから構成され、時間方向のラプラシア
ン値が小さいとタツプパターンが異なるフイールド上
(例えば、フレーム)のタツプから構成される関係であ
る。
FIG. 13 shows indexes (I0 to I3) representing 16 (24) combinations of 4-bit control signals CT generated by the classifying unit 50A. 14 to 17 show an example of the tap pattern structure of the class classification unit 50B in the next stage provided corresponding to the indexes (I0 to I3). Regarding the relationship between the control signal CT and the tap pattern, there are cluster taps in the direction of large change (direction of large Laplacian value) in the spatial direction,
The relationship is such that the larger the maximum Laplacian value, the smaller the spread of the tap space. Furthermore, when the Laplacian value in the time direction is large, the tap pattern is composed of taps in the same field, and when the Laplacian value in the time direction is small, the tap pattern is composed of taps on different fields (for example, frames).

【0085】図14(A)〜(D)に示されるタツプパ
ターンは、それぞれインデツクス(0000)〜(0011)に対応
して設けられたもので、水平方向への変化が大きいもの
に対して選択される。
The tap patterns shown in FIGS. 14A to 14D are provided corresponding to the indexes (0000) to (0011), respectively, and are selected for those having a large change in the horizontal direction. It

【0086】ここで、図14(A)〜(D)に示すクラ
スタツプパターンをそれぞれ比較した場合、図14
(C)及び(D)に示すインデツクス(0010) 及び(001
1)のクラスタツプパターンの水平方向の配置間隔を、図
14(A)及び(B)に示すインデツクス(0000) 及び
(0001)のクラスタツプパターンの配置間隔に比して狭く
することにより、最大値である水平方向のラプラシアン
値を大きく表現する。つまり、最大値である水平方向の
ラプラシアン値が大きい程、クラスタツプパターンの空
間の広がりを小さくし、最大値である水平方向のラプラ
シアン値が小さい程、クラスタツプパターンの空間の広
がりを大きくする。
When comparing the cluster patterns shown in FIGS. 14A to 14D,
Indexes (0010) and (001) shown in (C) and (D)
The horizontal arrangement intervals of the cluster tap pattern of 1) are shown in FIGS. 14A and 14B as index (0000) and
The maximum Laplacian value in the horizontal direction is represented by making it narrower than the arrangement interval of the cluster pattern of (0001). That is, the larger the maximum horizontal Laplacian value, the smaller the spatial spread of the cluster tap pattern, and the smaller the maximum horizontal Laplacian value, the larger the spatial spread of the cluster tap pattern. To do.

【0087】また、図14(B)及び(D)に示すよう
に、インデツクス(0001) 及び(0011)の時間方向のビツ
ト(4ビツト目)がオンのときは、クラスタツプパター
ンを同一フイールド内に配置することにより、時間方向
の変化を大きく表現する。これに対して、図14(A)
及び(C)に示すように、インデツクス(0000) 及び(0
010)の時間方向のビツト(4ビツト目)がオフのとき
は、異なるフイールド上にタツプを配置することによ
り、時間方向の変化を小さく表現する。
Further, as shown in FIGS. 14B and 14D, when the bits in the time direction (fourth bit) of the indexes (0001) and (0011) are on, the cluster tip pattern is set to the same field. By arranging it inside, the change in the time direction is greatly expressed. On the other hand, FIG. 14 (A)
And (C), the indexes (0000) and (0
When the bit in the time direction (010) (the fourth bit) is off, the taps are arranged on different fields to represent the change in the time direction small.

【0088】また、図15(C)及び(D)に示すイン
デツクス(0110) 及び(0111)のクラスタツプパターンの
垂直方向の配置間隔を、図15(A)及び(B)に示す
インデツクス(0100) 及び(0101)のクラスタツプパター
ンの配置間隔に比して狭くすることにより、最大値であ
る垂直方向のラプラシアン値を大きく表現する。つま
り、最大値である垂直方向のラプラシアン値が大きい
程、クラスタツプパターンの空間の広がりを小さくし、
最大値である垂直方向のラプラシアン値が小さい程、ク
ラスタツプパターンの空間の広がりを大きくする。
Further, the vertical arrangement intervals of the cluster pattern of indexes (0110) and (0111) shown in FIGS. 15 (C) and (D) are shown in FIG. 15 (A) and (B). The maximum Laplacian value in the vertical direction is represented by making it narrower than the arrangement interval of the cluster tap patterns of (0100) and (0101). In other words, the larger the maximum value of the vertical Laplacian value, the smaller the spatial spread of the cluster tap pattern,
The smaller the maximum Laplacian value in the vertical direction, the larger the spatial spread of the cluster tap pattern.

【0089】また、図15(B)及び(D)に示すよう
に、インデツクス(0101) 及び(0111)の時間方向に変化
があるとき、つまり、時間方向のビツト(4ビツト目)
がオンのときは、クラスタツプパターンを同一フイール
ド内に配置することにより、時間方向の変化を大きく表
現する。これに対して、図15(A)及び(C)に示す
ようにインデツクス(0100) 及び(0110)の時間方向のビ
ツトがオフのときは、異なるフイールド上にタツプを配
置することにより、時間方向の変化を小さく表現する。
Further, as shown in FIGS. 15B and 15D, when there is a change in the time direction of the indexes (0101) and (0111), that is, the bit in the time direction (4th bit).
When is on, the cluster tap patterns are arranged in the same field to greatly represent the change in the time direction. On the other hand, as shown in FIGS. 15A and 15C, when the bits in the time direction of the indexes (0100) and (0110) are off, the taps are arranged on different fields, so that the time direction is changed. Express the change in

【0090】また、図16(C)及び(D)に示すイン
デツクス(1010) 及び(1011)のクラスタツプパターンの
右下がり方向の配置間隔を、図16(A)及び(B)に
示すインデツクス(1000) 及び(1001)のクラスタツプパ
ターンの配置間隔に比して狭くすることにより、最大値
である右下がり方向のラプラシアン値を大きく表現す
る。つまり、最大値である右下がり方向のラプラシアン
値が大きい程、クラスタツプパターンの空間の広がりを
小さくし、最大値である右下がり方向のラプラシアン値
が小さい程、クラスタツプパターンの空間の広がりを大
きくする。
16A and 16B, the clustering patterns of the indexes (1010) and (1011) shown in FIGS. 16C and 16D are arranged in the lower right direction. The Laplacian value in the downward-rightward direction, which is the maximum value, is represented large by making it narrower than the arrangement interval of the cluster tap patterns of (1000) and (1001). That is, the larger the maximum Laplacian value in the downward-rightward direction, the smaller the spatial spread of the cluster-up pattern, and the smaller the maximum Laplacian value in the downward-rightward direction, the wider the spatial spread of the cluster-up pattern. To increase.

【0091】また、図16(B)及び(D)に示すよう
に、インデツクス(1001) 及び(1011)の時間方向のビツ
トがオンのときは、クラスタツプパターンを同一フイー
ルド内に配置して時間方向の変化を大きく表現する。こ
れに対して、図16(A)及び(C)に示すようにイン
デツクス(1000) 及び(1010)の時間方向のビツトがオフ
のときは、異なるフイールド上にタツプを配置すること
により、時間方向の変化を小さく表現する。
Further, as shown in FIGS. 16B and 16D, when the bits in the time directions of the indexes (1001) and (1011) are ON, the cluster tap patterns are arranged in the same field. Greatly represent changes in the time direction. On the other hand, as shown in FIGS. 16 (A) and 16 (C), when the bits in the time directions of the indexes (1000) and (1010) are off, the taps are arranged on different fields to change the time direction. Express the change in

【0092】さらに、図17(C)及び(D)に示すイ
ンデツクス(1110) 及び(1111)のクラスタツプパターン
の左下がり方向の配置間隔を、図17(A)及び(B)
に示すインデツクス(1100) 及び(1101)のクラスタツプ
パターンの配置間隔に比して狭くすることにより、最大
値である左下がり方向のラプラシアン値を大きく表現す
る。つまり、最大値である左下がり方向のラプラシアン
値が大きい程、クラスタツプパターンの空間の広がりを
小さくし、最大値である左下がり方向のラプラシアン値
が小さい程、クラスタツプパターンの空間の広がりを大
きくする。
Further, the arrangement intervals of the cluster tape patterns of the indexes (1110) and (1111) shown in FIGS. 17C and 17D in the downward left direction are shown in FIGS. 17A and 17B.
The maximum Laplacian value in the lower left direction, which is the maximum value, is expressed by making it narrower than the arrangement interval of the cluster pattern of indexes (1100) and (1101). That is, the larger the maximum downward Laplacian value in the left downward direction, the smaller the spatial spread of the cluster tap pattern, and the smaller the maximum downward Laplacian value in the spatial spread of the cluster tap pattern. To increase.

【0093】また図17(B)及び(D)に示すよう
に、インデツクス(1101) 及び(1111)の時間方向のビツ
トがオンのときは、クラスタツプパターンを同一フイー
ルド内に配置して時間方向の変化を大きく表現する。こ
れに対して、図17(A)及び(C)に示すようにイン
デツクス(1100) 及び(1110)の時間方向のビツトがオフ
のときは、異なるフイールド上にタツプを配置すること
により、時間方向の変化を小さく表現する。
As shown in FIGS. 17B and 17D, when the bits in the time direction of the indexes (1101) and (1111) are on, the cluster tap patterns are arranged in the same field. Greatly express the change in direction. On the other hand, as shown in FIGS. 17A and 17C, when the bits in the time direction of the indexes (1100) and (1110) are off, the taps are arranged on different fields to change the time direction. Express the change in

【0094】このように、クラスタツプパターンは、空
間方向において、変化の大きい方向(ラプラシアン値の
大きい方向)にクラスタツプが存在し、ラプラシアン値
の最大値が大きい程、タツプの空間の広がりが小さくな
るように設定される。さらに、時間方向のラプラシアン
値が大きいとタツプパターンが同一フイールド内のタツ
プから構成され、時間方向のラプラシアン値が小さいと
タツプパターンが異なるフイールド上(例えば、フレー
ム)のタツプから構成されるように設定する。
As described above, in the cluster tap pattern, there are cluster taps in the direction of large change (direction of large Laplacian value) in the spatial direction, and the larger the maximum value of the Laplacian value, the smaller the spread of the tap space. Is set. Further, when the Laplacian value in the time direction is large, the tap pattern is composed of taps in the same field, and when the Laplacian value in the time direction is small, the tap pattern is composed of taps on different fields (for example, frames).

【0095】以上の構成において、上述した第6の実施
例のアツプコンバータ50及びそのアツプコンバータ5
0の各部の動作について説明する。まず、SD画像信号
S1 が初段のクラス分類部50Aに入力されると、ラプ
ラシアンフイルタ51A〜51Dによつて空間内の異な
る複数のレベル方向に対してラプラシアンフイルタがか
けられる。この結果として得られるラプラシアン値L0〜
L3は、絶対値化回路52A〜52Dによつてそれぞれ絶
対値化され、絶対値a0〜a3として出力される。
In the above structure, the up converter 50 and the up converter 5 of the sixth embodiment described above are used.
The operation of each unit of 0 will be described. First, when the SD image signal S1 is input to the first class classification unit 50A, the Laplacian filters 51A to 51D apply Laplacian filters to a plurality of different level directions in the space. The resulting Laplacian value L0 ~
L3 is converted into absolute values by the absolute value conversion circuits 52A to 52D and output as absolute values a0 to a3.

【0096】そして、絶対値a0〜a3が、最大値検出器5
3に送出され、その供給されたラプラシアン値の絶対値
の中から最大値を求める。このとき、ラプラシアン値の
絶対値の最大値がどの方向のラプラシアン(L10 )であ
るかによつて、入力画像信号の空間内のエツジの方向が
検出される。そして、この検出された最大値の方向を示
す値(最大値検出方向値)a10 を2ビツトで表現する。
さらに、最大値を閾値処理することにより、入力SD画
像信号S1 の平坦度を表すことができ、その平坦度を表
す値(平坦度値)L10 を1ビツトで表現する。
Then, the absolute values a0 to a3 are detected by the maximum value detector 5
3, the maximum value is obtained from the absolute values of the supplied Laplacian values. At this time, the direction of the edge in the space of the input image signal is detected depending on which direction of the Laplacian (L10) is the maximum absolute value of the Laplacian values. Then, the value indicating the direction of the detected maximum value (maximum detection direction value) a10 is represented by 2 bits.
Further, by thresholding the maximum value, the flatness of the input SD image signal S1 can be expressed, and the value (flatness value) L10 representing the flatness is expressed by one bit.

【0097】また、ラプラシアンフイルタ51Eによつ
て時間方向に対してのラプラシアン値L4が得られる。そ
のラプラシアン値L4が、絶対値化回路52Eによつて絶
対値化され、絶対値a4として出力される。そして、その
絶対値a4が、比較回路によつて閾値TH1 を用いて閾値処
理されることにより、時間方向の変化を表す値(時間方
向変化値)a11 として出力される。こうして入力SD画
像信号S1 の信号特性の大まかな特徴を捉えることがで
きる。
Further, the Laplacian filter 51E can obtain the Laplacian value L4 in the time direction. The Laplacian value L4 is converted into an absolute value by the absolute value conversion circuit 52E and output as the absolute value a4. Then, the absolute value a4 is thresholded by the comparator circuit using the threshold value TH1, and is output as a value (time-direction change value) a11 representing a change in the time direction. In this way, it is possible to capture the rough characteristics of the input SD image signal S1.

【0098】クラス分類部50Aは、2ビツトの最大値
検出方向値a10 、1ビツトの平坦度値L10 及び1ビツト
の時間方向変化値a11 からなる4ビツトの制御信号CTを
次段のクラス分類部50Bへ送出する。
The class classifying unit 50A uses the 4-bit control signal CT consisting of the 2-bit maximum value detection direction value a10, the 1-bit flatness value L10, and the 1-bit time direction change value a11 to the next-stage class classifying unit. Send to 50B.

【0099】次段のクラス分類部50Bは、4ビツトの
制御信号CTに対応するインデツクス(I0〜I3)に基
づいて空間クラスタツプパターンを設定する。すなわ
ち、クラス分類部50Bは、制御信号CTに応じてセレク
タ55A〜55Iを切り替え、レジスタアレイ57を通
じて得られる入力SD画像信号S1 に対するクラスタツ
プパターンを選択して、ADRCクラス分類部58に送
出する。これにより、入力SD画像信号S1 のアクテイ
ビテイを反映したクラスタツプパターンに基づいた精度
の高いクラス分類が成し得る。
The class classification unit 50B at the next stage sets the spatial cluster cut pattern based on the indexes (I0 to I3) corresponding to the 4-bit control signal CT. That is, the class classification unit 50B switches the selectors 55A to 55I according to the control signal CT, selects the cluster tap pattern for the input SD image signal S1 obtained through the register array 57, and sends it to the ADRC class classification unit 58. . As a result, highly accurate class classification can be performed based on the cluster pattern reflecting the activity of the input SD image signal S1.

【0100】また、レジスタアレイ57からSD画像信
号S1 は、次段の予測値演算部50Cに送出される。予
測タツプパターン部60において、予測演算部61で制
御信号CT及びADRCコードcに応じて予測係数RAM
59から読み出される予測係数と予測演算を実行するた
めの予測タツプパターンが設定され、その設定された予
測タツプパターンが予測演算部61に送出される。そし
て、予測演算部61において、制御信号CT及びADRC
コードcに応じて予測係数RAM59から読み出された
予測係数と予測タツプパターン部60からの予測タツプ
パターンを用いて、線形一次結合により予測演算処理が
実行され、HD補間画素として出力される。
Further, the SD image signal S1 is sent from the register array 57 to the predicted value calculation unit 50C at the next stage. In the prediction tap pattern unit 60, the prediction calculation unit 61 calculates the prediction coefficient RAM according to the control signal CT and the ADRC code c.
A prediction coefficient read from 59 and a prediction tap pattern for executing the prediction calculation are set, and the set prediction tap pattern is sent to the prediction calculation unit 61. Then, in the prediction calculation unit 61, the control signals CT and ADRC
Prediction calculation processing is executed by linear linear combination using the prediction coefficient read from the prediction coefficient RAM 59 according to the code c and the prediction tap pattern from the prediction tap pattern unit 60, and is output as an HD interpolation pixel.

【0101】以上の構成によれば、初段のクラス分類部
50Aのラプラシアンフイルタ51A〜51Eにおい
て、複数の方向の1次元ラプラシアン処理を行い、それ
らの値を総合的に判断することにより初段のクラス分類
を実行し、初段のクラス分類部50Aの分類結果に応じ
て、次段のクラス分類部50Bのクラスタツプパターン
を設定した後、次段のクラス分類部50Bは、このクラ
スタツプパターンを用いて、クラス分類を実行するよう
にしたことにより入力SD画像信号S1 のアクテイビテ
イ特性を反映した精度の高いクラス分類が成し得、かく
して上述した第1実施例と同様の効果を得ることができ
る。
According to the above configuration, the Laplacian filters 51A to 51E of the first-stage class classifying unit 50A perform the one-dimensional Laplacian processing in a plurality of directions and comprehensively judge the values to classify the first-stage class. Is executed and the cluster cut pattern of the next-stage class classification unit 50B is set according to the classification result of the first-stage class classification unit 50A, and then the next-stage class classification unit 50B uses this cluster cut pattern. By executing the class classification, it is possible to perform a highly accurate class classification reflecting the activity characteristic of the input SD image signal S1, and thus it is possible to obtain the same effect as that of the first embodiment.

【0102】(7)第7実施例 図11との対応部分に同一符号を付した図18は、第7
実施例によるアツプコンバータ65を示している。第7
実施例では、第6実施例と同様に、初段のクラス分類部
50Aのラプラシアンフイルタ51A〜51Eを用いた
初段のクラス分類結果に応じて、次段のクラス分類部5
0Bのクラス分類のためのクラスタツプパターンを設定
し、このクラスタツプパターンをもとにして次段のクラ
ス分類を行うことにより、2段階でクラス分類を実行す
る。
(7) Seventh Embodiment FIG. 18 in which parts corresponding to those in FIG.
4 shows an up converter 65 according to an embodiment. Seventh
In the embodiment, similarly to the sixth embodiment, the next-class classification unit 5 is used according to the first-class classification result using the Laplacian filters 51A to 51E of the first-class classification unit 50A.
A cluster tap pattern for 0B class classification is set, and the class classification of the next stage is performed based on this cluster tap pattern, thereby executing the class classification in two steps.

【0103】図18を用いて、第7実施例のアツプコン
バータ65の構成を説明する。入力端INから入力される
SD画像信号S1 は、クラス分類部65Aに供給され
る。そして、クラス分類部65Aに供給されたSD画像
信号S1 は、ラプラシアンフイルタ51A〜51E及び
遅延部56Aにそれぞれ供給される。
The configuration of the up converter 65 of the seventh embodiment will be described with reference to FIG. The SD image signal S1 input from the input terminal IN is supplied to the class classification unit 65A. Then, the SD image signal S1 supplied to the class classification unit 65A is supplied to each of the Laplacian filters 51A to 51E and the delay unit 56A.

【0104】5種類のラプラシアンフイルタ51A〜5
1Eは、供給されたSD画像信号S1 のフレーム毎又は
フイールド毎のブロツク単位の入力SD画像信号S1 に
対して、各フイルタ毎に異なつた方向にラプラシアン処
理を施し、ラプラシアン値LO〜L4を出力する。これらの
ラプラシアンフイルタ51A〜51Eは、図11の第6
実施例のアツプコンバータ50で使用されたラプラシア
ンフイルタと同一のものを使用する。そのラプラシアン
値L0〜L4は、次段の量子化器66A〜66Eにそれぞれ
送出される。
Five types of Laplacian filters 51A-5
1E performs Laplacian processing on the input SD image signal S1 in block units for each frame or field of the supplied SD image signal S1 in different directions for each filter, and outputs Laplacian values LO to L4. . These Laplacian filters 51A to 51E are the sixth ones shown in FIG.
The same Laplacian filter used in the up converter 50 of the embodiment is used. The Laplacian values L0 to L4 are sent to the quantizers 66A to 66E at the next stage, respectively.

【0105】量子化器66A〜66Eは、各ラプラシア
ンL0〜L4を絶対値化した後、非線形の量子化を実行し
て、量子化値q0〜q4を出力する。例えば、量子化器66
A〜66Eは、量子化によつて、入力SD画像信号S1
を0、+1の2種類の量子化値q0〜q4に変換すると、全
部で32(25 )通りのクラスに分類することができる。
つまり絶対値が小さい場合には、0を、絶対値が大きい
場合には、1を割り当てるように量子化する。そして量
子化値q0〜q4は、合成部67に送出され、合成部67
は、量子化値q0〜q4を合成して5ビツトのクラスコード
を生成し、初段のクラス分類を表す制御信号CTとしてこ
れを次段のクラス分類部65Bへ送出する。
The quantizers 66A to 66E execute the non-linear quantization after converting the Laplacians L0 to L4 into absolute values, and output the quantized values q0 to q4. For example, the quantizer 66
A to 66E are input SD image signal S1 by quantization.
Is converted into two kinds of quantized values q0 to q4 of 0 and +1, it can be classified into 32 (2 5) kinds of classes in total.
That is, quantization is performed so that 0 is assigned when the absolute value is small and 1 is assigned when the absolute value is large. Then, the quantized values q0 to q4 are sent to the synthesizing unit 67, and the synthesizing unit 67
Generates a 5-bit class code by synthesizing the quantized values q0 to q4, and sends this as a control signal CT representing the first-stage class classification to the next-class classification unit 65B.

【0106】クラス分類部65Bは、第6実施例と同様
に、制御信号CTに基づいてセレクタ55A〜55Iを切
り替え、レジスタ57を通じて送出されてくるSD画素
による9画素のタツプパターンを選択する。セレクタ5
5A〜55Iによつて選択された9画素のタツプパター
ンが、1ビツトADRCクラス分類部58に送出され、
1ビツトADRCクラス分類部58は、入力されたクラ
スタツプパターンに対してADRCを実行することによ
り、512(29 )通りのクラスコードを発生するために第
2段のクラス分類を実行する。これにより初段のクラス
分類部65Aのクラスと次段のクラス分類部65Bのク
ラスとを掛け合わせた16384 通りのクラスが成し得る。
Similar to the sixth embodiment, the class classification unit 65B switches the selectors 55A to 55I based on the control signal CT and selects the tap pattern of 9 pixels based on the SD pixels sent through the register 57. Selector 5
The tap pattern of 9 pixels selected by 5A to 55I is sent to the 1-bit ADRC class classification unit 58,
The 1-bit ADRC classifying unit 58 executes the ADRC on the inputted cluster pattern, thereby executing the second class classification to generate 512 (29) kinds of class codes. As a result, 16384 different classes can be formed by multiplying the classes of the first-class classification unit 65A and the classes of the second-class classification unit 65B.

【0107】ADRCクラス分類部65は、9ビツトの
クラスコードを生成し、遅延回路56Bを介して供給さ
れた初段のクラスコードとともに、予測値演算部65C
に供給される。演算部65Cは、上述した第6実施例と
同様であるため、説明は、省略する。また初段のクラス
分類部65Aからの制御信号CTに対応するクラス分類部
65Bで使用されるクラスタツプパターンについては、
図示を省略する。しかしながら、クラスタツプパターン
として、ラプラシアン値が大きい程、タツプパターンの
空間の広がりが小さくなり、ラプラシアン値が大きい方
向にタツプが広がるようなタツプパターンが設定され
る。また時間方向のラプラシアン値が大きいとタツプパ
ターンが同一フイールド内のタツプから構成され、時間
方向のラプラシアン値が小さいとタツプパターンが異な
るフイールド上(例えば、フレーム)のタツプから構成
されるようなタツプパターンが設定される。
The ADRC class classification unit 65 generates a 9-bit class code, and together with the first-stage class code supplied via the delay circuit 56B, the predicted value calculation unit 65C.
Is supplied to. The calculation unit 65C is the same as that of the sixth embodiment described above, and thus the description thereof is omitted. Further, regarding the cluster tap pattern used in the class classification unit 65B corresponding to the control signal CT from the first-stage class classification unit 65A,
Illustration is omitted. However, as the cluster tap pattern, the tap pattern is set such that the larger the Laplacian value, the smaller the space spread of the tap pattern, and the tap spreads in the direction of the larger Laplacian value. If the Laplacian value in the time direction is large, the tap pattern is composed of taps within the same field, and if the Laplacian value in the time direction is small, the tap pattern is composed of taps on different fields (for example, frames). It

【0108】以上の構成によれば、上述した第1実施例
と同様の効果を得ることができる。
With the above structure, the same effect as that of the above-described first embodiment can be obtained.

【0109】(8)第8実施例 図1及び図2との対応する部分に同一符号を付して示す
図19は、第8の実施例によるアツプコンバータのクラ
ス分類部70を示す。入力端INから入力されるSD画像
信号S1 は、ADRCクラス分類部71及び複数のクラ
スタツプ選択部72(72A〜72G)に並列に送出さ
れる。ADRCクラス分類部71は、入力SD画像信号
S1 から注目SD画素に対する周辺の4画素を用いたA
DRCによる画素レベル分布のパターンに応じてクラス
分類を実行し、その結果として得られるADRCコード
cを選択部73に送出する。一方、選択部73には入力
SD画像信号S1 の信号特性に応じた空間クラスタツプ
パターンを設定するクラスタツプ選択部72A〜72G
より空間クラスとして分類された各タツプパターンが送
出される。
(8) Eighth Embodiment FIG. 19 in which parts corresponding to those in FIGS. 1 and 2 are assigned the same reference numerals shows a class classification unit 70 of an up converter according to the eighth embodiment. The SD image signal S1 input from the input terminal IN is sent in parallel to the ADRC class sorting unit 71 and the plurality of cluster selection units 72 (72A to 72G). The ADRC class classification unit 71 uses the four pixels around the SD pixel of interest from the input SD image signal S1.
The class classification is executed according to the pattern of the pixel level distribution by the DRC, and the ADRC code c obtained as a result is sent to the selection unit 73. On the other hand, in the selecting section 73, cluster tap selecting sections 72A to 72G for setting a spatial cluster tap pattern according to the signal characteristic of the input SD image signal S1.
Each tap pattern classified as a spatial class is transmitted.

【0110】すなわち、各クラスタツプ選択部72A〜
72Gでは、図20及び図21に示すように、注目画素
に対する周辺の4画素について1ビツトADRCを施し
た結果得られた各ADRCコードcによるレベル分布
(73A、73B、74A、74B、75A、75
B、、76A、76B、、77A、77B、78A、7
8B、79A、79B、80A、80B)に対して、そ
れぞれの信号特性を表すためのクラスタツプパターン
(81、82、83、84、85、86、87)が対応
付けられて設定される。
That is, each cluster tap selection section 72A-
In 72G, as shown in FIGS. 20 and 21, the level distribution (73A, 73B, 74A, 74B, 75A, 75) by each ADRC code c obtained as a result of applying 1-bit ADRC to the surrounding 4 pixels with respect to the pixel of interest.
B, 76A, 76B, 77A, 77B, 78A, 7
8B, 79A, 79B, 80A, 80B), cluster tap patterns (81, 82, 83, 84, 85, 86, 87) for representing respective signal characteristics are set in association with each other.

【0111】例えば、ADRCコードcによるレベル分
布73A及び73Bのそれぞれについては、右下斜め方
向(向かつて左上端から右下端の対角線方向)にレベル
分布の特徴が見られる。よつて、画像のエツジがその方
向にあると考えられるので、右下がりの斜め方向のクラ
スタツプパターン81を対応させる。同様にして、AD
RCコードcによるレベル分布74A及び74Bのそれ
ぞれについては、左下斜め方向(向かつて右上端から左
下端の対角線方向)にレベル分布の特徴が見られるの
で、左下がりの斜め方向のクラスタツプパターン82を
対応させる。
For example, with respect to each of the level distributions 73A and 73B based on the ADRC code c, the characteristic of the level distribution is seen in the lower right diagonal direction (once the diagonal direction from the upper left end to the lower right end). Therefore, since the edge of the image is considered to be in that direction, the cluster tap pattern 81 in the diagonally downward right direction is made to correspond. Similarly, AD
With respect to each of the level distributions 74A and 74B based on the RC code c, since the characteristic of the level distribution is seen in the lower left diagonal direction (the diagonal direction from the upper right end to the lower left end), the cluster tap pattern 82 in the lower left diagonal direction. Correspond to.

【0112】また、ADRCコードcによるレベル分布
75A及び75B、76A及び76Bのそれぞれについ
ては、左側と右側に偏つたレベル分布の特徴が見られる
ので、それぞれ左側と右側に偏つた予測タツプを集めた
クラスタツプパターン83及び84ををそれぞれ対応さ
せる。
Regarding the level distributions 75A and 75B, 76A and 76B based on the ADRC code c, the characteristic of the level distributions that are biased to the left and right sides can be seen, so the prediction taps that are biased to the left and right sides are collected. The cluster tap patterns 83 and 84 are made to correspond to each other.

【0113】さらに、ADRCコードcによるレベル分
布77A及び77B、78A及び78Bのそれぞれにつ
いては、上側と下側に偏つたタツプのレベル分布の特徴
が見られるので、それぞれ上側と下側に偏つたクラスタ
ツプを集めたクラスタツプパターン85及び86をそれ
ぞれ対応させる。さらに、ADRCコードcによるレベ
ル分布79A及び79B及びレベル分布80A、80B
のそれぞれについては、定常的なレベル分布の特徴が見
られるので、全てのクラスタツプを用いたクラスタツプ
パターン87を対応させる。
Further, with respect to each of the level distributions 77A and 77B, 78A and 78B by the ADRC code c, since the characteristic of the level distribution of the taps biased to the upper side and the lower side can be seen, the cluster taps biased to the upper side and the lower side, respectively. The cluster tap patterns 85 and 86 that have been collected are associated with each other. Furthermore, the level distributions 79A and 79B and the level distributions 80A and 80B according to the ADRC code c
Since a characteristic of a steady level distribution can be seen for each of the above, the cluster tap pattern 87 using all the cluster taps is made to correspond.

【0114】これにより、クラスタツプ選択部72A〜
72Gにおいて設定されたクラスタツプパターンが、選
択部73においてADRCコードcに応じて選択され、
その選択されたクラスタツプパターンP10 が、次段のA
DRCクラス分類部26に送出される。ADRCクラス
分類部26は、選択されたクラスタツプパターンP10に
よつてSD画像信号S1 に対して1ビツトADRCを施
し、その結果として得られるADRCコードd0を予測係
数を読み出すためのアドレスデータとしての予測係数R
OM14に送出する。
As a result, the cluster-up selectors 72A ...
The cluster tap pattern set in 72G is selected by the selection unit 73 according to the ADRC code c,
The selected cluster tap pattern P10 is A in the next stage.
It is sent to the DRC class classification unit 26. The ADRC class categorizing unit 26 performs 1-bit ADRC on the SD image signal S1 according to the selected cluster pattern P10, and the resulting ADRC code d0 is used as address data for reading the prediction coefficient. Prediction coefficient R
Send to OM14.

【0115】以上の構成において、第8実施例のアツプ
コンバータのクラス分類部70の動作について説明す
る。まず入力SD画像信号S1 が、初段のADRCクラ
ス分類部71に供給され、初段のADRCクラス分類部
71において、注目画素に対する周辺画素の4画素によ
る1ビツトADRCを実行することにより、クラスコー
ドcが発生される。また、入力SD画像信号S1 は、ク
ラスタツプ選択部72A〜72Gにおいて信号特性を反
映した異なる複数のクラスタツプパターン81〜87に
分類される。
The operation of the class classification unit 70 of the up converter according to the eighth embodiment having the above configuration will be described. First, the input SD image signal S1 is supplied to the ADRC class classifying unit 71 in the first stage, and the ADRC class classifying unit 71 in the first stage executes 1-bit ADRC by four pixels of the peripheral pixels for the target pixel, so that the class code c is obtained. Is generated. Further, the input SD image signal S1 is classified into a plurality of different cluster tap patterns 81 to 87 reflecting the signal characteristics in the cluster tap selection sections 72A to 72G.

【0116】そして初段のADRCクラス分類部71か
らのクラスコードcによつて、その複数のクラスタツプ
パターン81〜87から1つのクラスタツプパターンP1
0 が選択され、次段のADRCクラス分類部26に送出
される。ADRCクラス分類部26は、選択されたクラ
スタツプパターンP10 を形成する入力SD画像信号S1
を1ビツトADRCを実行することにより、クラスコー
ドd0を生成し、アドレスデータとして後段の予測係数R
OM14に送出する。
Then, according to the class code c from the ADRC class classification unit 71 in the first stage, one cluster tap pattern P1 is selected from the plurality of cluster tap patterns 81 to 87.
0 is selected and sent to the ADRC class classification unit 26 in the next stage. The ADRC class classification unit 26 receives the input SD image signal S1 forming the selected cluster pattern P10.
1-bit ADRC is executed to generate the class code d0, and the prediction coefficient R in the subsequent stage is used as address data.
Send to OM14.

【0117】以上の構成によれば、予測係数を選択する
ためのアドレスデータを生成する際、第1段のADRC
クラス分類部71によつて検出された入力SD画像信号
S1の空間アクテイビテイに応じて、クラスタツプパタ
ーンを選択する。そして、選択されたクラスタツプパタ
ーンP10 を用いて、第2段のADRCクラス分類26を
実行することによつて、空間アクテイビテイを反映した
クラスコードd0を生成することができ、かくして上述し
た第1実施例と同様の効果を得ることができる。
According to the above configuration, when the address data for selecting the prediction coefficient is generated, the ADRC of the first stage is used.
The cluster tap pattern is selected according to the spatial activity of the input SD image signal S1 detected by the class classification unit 71. Then, the class code d0 reflecting the spatial activity can be generated by executing the ADRC class classification 26 of the second stage using the selected cluster pattern P10, and thus the first code The same effect as the embodiment can be obtained.

【0118】また以上の構成によれば、予測演算に用い
る予測タツプパターンを空間アクテイビテイに応じて変
えることによつて、予測タツプが少なくないときの演算
処理を短縮し得る。
Further, according to the above configuration, by changing the prediction tap pattern used for the prediction calculation according to the spatial activity, it is possible to shorten the calculation processing when the prediction tap is not small.

【0119】なお、第1実施例のように、第1段のAD
RCクラス分類部71からの出力信号に基づいて、第2
段のADRCクラス分類部26の量子化ビツト数を切り
換えるようにしてもよい。
As in the first embodiment, the AD of the first stage
Based on the output signal from the RC class classification unit 71, the second
The number of quantization bits of the ADRC class classification unit 26 of the stage may be switched.

【0120】(9)第9実施例 図22は、第9実施例によるアツプコンバータ90を示
している。このアツプコンバータ90は、初段のクラス
分類部において、1ビツトADRCによる空間内アクテ
イビテイの大まかなクラス分類を実行し、次段のクラス
分類部でより詳細な多ビツトADRCを実行する。アツ
プコンバータ90において、入力端INを通じて入力され
るSD画像信号S1 は、初段ブロツク91、遅延回路9
7及び101にそれぞれ送出される。初段ブロツク91
は、図23に示すように、現フレーム又はフイールドに
おける注目画素データ(図中◎で示す)を中心とするn
×m画素(例えば、図中5×5画素)にブロツク化し、
その結果として得られるブロツクデータb1を1ビツトA
DRCクラス分類部92に送出する。
(9) Ninth Embodiment FIG. 22 shows an up converter 90 according to the ninth embodiment. The up-converter 90 performs rough class classification of spatial activity by one-bit ADRC in the first-stage class classification unit, and executes more detailed multi-bit ADRC in the next-stage class classification unit. In the up converter 90, the SD image signal S1 input through the input terminal IN is transferred to the first stage block 91 and the delay circuit 9
7 and 101 respectively. First stage block 91
23, n is centered on the pixel data of interest in the current frame or field (indicated by ⊚ in the figure)
Block into × m pixels (for example, 5 × 5 pixels in the figure),
The block data b1 obtained as a result is 1 bit A
It is sent to the DRC class classification unit 92.

【0121】1ビツトADRCクラス分類部92は、5
×5画素のブロツクデータb1に対して1ビツトADRC
処理を実行し、この結果として得られるADRCコード
c10を遅延回路93Aを通じてタイミングを調整してR
OM94に送出する。さらに、1ビツトADRCクラス
分類部92は、計算時に算出したダイナミツクレンジD
Rを比較回路95に送出する。1ビツトADRCクラス
分類部92は、このとき、同時に、ダイナミツクレンジ
DR及び画素最小レベルMINを多ビツトADRCクラ
ス分類部96に送出する。
The 1-bit ADRC class classification unit 92 outputs 5
1-bit ADRC for block data b1 of × 5 pixels
ADRC code resulting from executing the process
Adjust the timing of c10 through delay circuit 93A
Send to OM94. Furthermore, the 1-bit ADRC class classification unit 92 calculates the dynamic range D calculated at the time of calculation.
R is sent to the comparison circuit 95. At this time, the 1-bit ADRC class classifying unit 92 simultaneously sends the dynamic range DR and the pixel minimum level MIN to the multi-bit ADRC class classifying unit 96.

【0122】ここで、比較回路95は、ダイナミツクレ
ンジDRを閾値THと比較して得られる比較結果CRを遅延
回路93Bを通じてROM94に送出する。そして、こ
の比較結果CRをもとに、ダイナミツクレンジDRが閾値
THに比して小さい場合(CR=0)は、多ビツトADRCク
ラス分類部96によるクラス分類は実行されない。これ
に対して、ダイナミツクレンジDRが閾値THに比して大
きい場合(CR=1)は、多ビツトADRCクラス分類部9
6によるクラス分類を実行する。しかしながら、この実
施例の場合、多ビツトADRCクラス分類部96は常時
実行されている。
Here, the comparison circuit 95 sends the comparison result CR obtained by comparing the dynamic range DR with the threshold value TH to the ROM 94 through the delay circuit 93B. Then, based on this comparison result CR, the dynamic range DR is a threshold value.
If it is smaller than TH (CR = 0), the multi-bit ADRC class classification unit 96 does not execute the classification. On the other hand, when the dynamic range DR is larger than the threshold TH (CR = 1), the multi-bit ADRC class classification unit 9
Perform classification according to 6. However, in the case of this embodiment, the multi-bit ADRC class classification unit 96 is always executed.

【0123】したがつて、後段のROM94において、
多ビツトADRCクラス分類部96からのADRCコー
ドc11 を無視することにより、多ビツトADRCクラス
分類部を実行しないようにみなしている。また、もし、
多ビツトADRCクラス分類部96を実行させないよう
にするためには、図22の点線で示すように、比較結果
CRを多ビツトADRCクラス分類部96に供給し、多ビ
ツトADRCクラス分類部96を実行させないように制
御すればよい。
Therefore, in the ROM 94 in the latter stage,
By ignoring the ADRC code c11 from the multi-bit ADRC class classifier 96, it is considered that the multi-bit ADRC class classifier is not executed. Also, if
In order to prevent the multi-bit ADRC class classification unit 96 from being executed, as shown by the dotted line in FIG.
CR may be supplied to the multi-bit ADRC class classification unit 96, and control may be performed so that the multi-bit ADRC class classification unit 96 is not executed.

【0124】一方、入力端INより遅延回路97を通じて
遅延することによつてタイミング調整したSD画像信号
S1 は、次段ブロツク98に供給され、次段ブロツク9
8において、図23に示すように、例えば、注目画素を
含む3×3画素からなる9画素のブロツクデータb2が設
定され、多ビツトクラス分類部96に送出される。多ビ
ツトADRCクラス分類部96は、1ビツトADRCク
ラス分類部92で算出されたダイナミツクレンジDR及
び画素最小レベルMINを用いてブロツクデータb2をク
ラス分類し、この結果として得られるADRCコードc1
1 をROM94に送出する。
On the other hand, the SD image signal S1 whose timing has been adjusted by delaying it from the input terminal IN through the delay circuit 97 is supplied to the next stage block 98 and the next stage block 9
23, for example, as shown in FIG. 23, the block data b2 of 9 pixels consisting of 3 × 3 pixels including the target pixel is set and sent to the multi-bit class classification unit 96. The multi-bit ADRC class classification unit 96 classifies the block data b2 using the dynamic range DR and the pixel minimum level MIN calculated by the 1-bit ADRC class classification unit 92, and the resulting ADRC code c1
1 is sent to the ROM 94.

【0125】図24に示すように、1ビツトADRCク
ラス分類部92のクラス分類結果として得られるADR
Cコードc10 と多ビツトADRCクラス分類部96のク
ラス分類結果として得られるADRCコードc11 とによ
るクラス分類に応じた階層的な構造を持つたクラスコー
ドd0のテーブルが予め学習によつて求められ、ROM9
4に格納されている。クラス分類部90は、比較結果CR
をもとに1ビツトADRCクラス分類部92及び多ビツ
トADRCクラス分類部96のクラス分類によつて得ら
れるADRCコードc10 及びc11 に応じてクラスコード
d0を読み出して、後段の予測係数RAM99に送出す
る。この予測係数RAM99にも、予め学習によつて求
められ、階層化されたクラスコードd0に応じて予測係数
が登録されている。
As shown in FIG. 24, the ADR obtained as the classification result of the 1-bit ADRC class classification unit 92.
The table of the class code d0 having a hierarchical structure corresponding to the class classification by the C code c10 and the ADRC code c11 obtained as the classification result of the multi-bit ADRC class classification unit 96 is obtained by learning in advance, and the ROM9
4 is stored. The classification unit 90 determines the comparison result CR.
Based on the ADRC codes c10 and c11 obtained by the class classification of the 1-bit ADRC class classification unit 92 and the multi-bit ADRC class classification unit 96,
The d0 is read and sent to the prediction coefficient RAM 99 at the subsequent stage. Also in this prediction coefficient RAM 99, the prediction coefficient is registered according to the class code d0 which is obtained in advance by learning and is hierarchical.

【0126】予測係数RAM99からは、クラスコード
d0をアドレスデータとして逐次、予測係数群が読み出さ
れ、SD画像信号S1 と積和演算することによりHD補
間画素を演算する予測演算部100に送出される。一
方、予測演算部100には、遅延回路101を通じて遅
延されたSD画像信号S1 が予測タツプ設定部102に
供給され、予測タツプパターン設定部102は、予測演
算部100によつて使用される図25に示すような予測
タツプパターンを予測演算部100に送出する。予測タ
ツプ設定部102では、図25に示すような予測タツプ
パターンを用いて補間画素を生成する。これにより、予
測演算部100において、SD画像信号S1 に対応した
予測係数群との間で線形予測演算が実行され、補間画素
が生成される。
From the prediction coefficient RAM 99, the class code
A prediction coefficient group is sequentially read out using d0 as address data, and is sent to the prediction calculation unit 100 that calculates an HD interpolation pixel by performing a product-sum calculation with the SD image signal S1. On the other hand, the predictive calculation unit 100 is supplied with the SD image signal S1 delayed by the delay circuit 101 to the predictive tap setting unit 102, and the predictive tap pattern setting unit 102 is shown in FIG. The prediction tap pattern as shown is sent to the prediction calculation unit 100. The predictive tap setting unit 102 generates an interpolated pixel using a predictive tap pattern as shown in FIG. As a result, in the prediction calculation unit 100, a linear prediction calculation is executed between the prediction coefficient group corresponding to the SD image signal S1 and interpolation pixels are generated.

【0127】以上の構成において、第9実施例のアツプ
コンバータ90及びそのアツプコンバータ90の各部の
動作について説明する。
The operation of the up-converter 90 of the ninth embodiment and each part of the up-converter 90 having the above structure will be described.

【0128】まずアツプコンバータ90の初段ブロツク
91に入力されたSD画像信号S1は、注目SD画素を
中心とする5×5画素のブロツク単位で抽出され、1ビ
ツトADRCクラス分類部92においてクラス分類され
る。そして、1ビツトADRCクラス分類部92より出
力されるダイナミツクレンジDRを比較回路95におい
て所定の閾値THを用いて閾値処理する。
First, the SD image signal S1 input to the first stage block 91 of the up converter 90 is extracted in block units of 5 × 5 pixels centering on the SD pixel of interest, and classified by the 1-bit ADRC classifying unit 92. It Then, the dynamic range DR output from the 1-bit ADRC class classification unit 92 is subjected to threshold processing in the comparison circuit 95 using a predetermined threshold TH.

【0129】このとき、閾値THに比してダイナミツクレ
ンジDRが大きい場合は、多ビツトADRCクラス分類
部96のクラス分類を実行して、1ビツトADRCクラ
ス分類部92及び多ビツトADRCクラス分類部96の
クラス分類結果をもとにしてROM94からクラスコー
ドd0を読み出す。これに対して、ダイナミツクレンジD
Rが閾値THに比して小さい場合は、多ビツトADRCク
ラス分類部96のクラス分類を実行せずに、1ビツトA
DRCクラス分類部92のクラス分類結果のみによつて
ROM94からクラスコードを読み出す。
At this time, when the dynamic range DR is larger than the threshold value TH, the multi-bit ADRC class classification unit 96 executes the class classification to execute the 1-bit ADRC class classification unit 92 and the multi-bit ADRC class classification unit. The class code d0 is read from the ROM 94 based on the classification result of 96. On the other hand, the dynamic range D
If R is smaller than the threshold value TH, 1-bit A is set without executing the class classification of the multi-bit ADRC class classification unit 96.
The class code is read from the ROM 94 only based on the result of the class classification by the DRC class classification unit 92.

【0130】このようにして、1ビツトADRCクラス
分類部92及び/又は多ビツトADRCクラス分類部9
6のクラス分類の結果に応じて、クラスコードd0がRO
M94より読み出され、アドレスデータとして予測係数
RAM99に送出される。このように、初段で粗く空間
内アクテイビテイを評価し、次段で空間内アクテイビテ
イに応じた精細なクラス分類を実行することによつて、
入力SD画像信号S1の空間内アクテイビテイの特性を
反映した適切なクラス分類が実行し得る。
In this way, the 1-bit ADRC class classification unit 92 and / or the multi-bit ADRC class classification unit 9
According to the result of the classification of 6, the class code d0 is RO
It is read from M94 and sent to the prediction coefficient RAM 99 as address data. In this way, by roughly evaluating the spatial activity in the first stage and performing fine classification according to the spatial activity in the second stage,
Appropriate class classification that reflects the characteristics of the spatial activity of the input SD image signal S1 can be performed.

【0131】予測係数RAM99は、クラスコードd0に
応じて予測係数を読み出し、予測演算部100に送出す
る。予測演算部100は、予測タツプパターン設定部1
02において選択された予測タツプパターンに対して上
述した予測係数を用いて予測演算を施すことにより、H
D補間画素を生成して出力する。
The prediction coefficient RAM 99 reads the prediction coefficient according to the class code d0 and sends it to the prediction calculation unit 100. The prediction calculation unit 100 includes a prediction tap pattern setting unit 1
The prediction tap pattern selected in 02 is subjected to the prediction calculation using the above-described prediction coefficient to obtain H
The D interpolation pixel is generated and output.

【0132】以上の構成によれば、初段で粗く、次段で
細かくクラス分類することによつて、初段で捉えた入力
SD画像信号S1 の信号特性に応じて、次段でより適切
に細分化されたクラス分類が実行し得る。これにより、
上述した実施例と同様の効果が得られ、さらに、クラス
分類が初段のみで終了した場合、クラス分類の処理を短
縮し得る。
According to the above construction, by classifying coarsely in the first stage and finely classifying in the second stage, according to the signal characteristics of the input SD image signal S1 captured in the first stage, the sub-stages are more appropriately subdivided. The classified classification can be performed. This allows
The same effect as that of the above-described embodiment can be obtained, and further, when the classification is completed only in the first stage, the classification processing can be shortened.

【0133】(10)他の実施例 なお、上述の実施例においては、入力画像信号のデータ
圧縮によるクラス分類法としてADRCクラス分類法を
用いた場合について述べたが、本発明はこれに限らず、
例えばDPCM(Differential Pulse Code Modulatin
)やVQ(Vector Quantization )やMSB(Most Sig
nificant Bit)を用いる手法や2値化又は離散余弦変換
(DCT)等の手法を用いてデータ圧縮することによ
り、クラス分類を行うようにしても良い。
(10) Other Embodiments In the above embodiments, the ADRC class classification method is used as the class classification method by data compression of the input image signal, but the present invention is not limited to this. ,
For example, DPCM (Differential Pulse Code Modulatin)
), VQ (Vector Quantization) and MSB (Most Sig
It is also possible to perform class classification by compressing data using a method using a nificant bit) or a method such as binarization or discrete cosine transform (DCT).

【0134】また上述の実施例においては、クラス分類
部12において2段階又は3段階に亘つたクラス分類法
を実行した場合について べたが、本発明はこれに限ら
ず、初段の大まかなクラス分類に続いて順次、適応性を
上げるようにすれば、さらに多段のクラス分類を実行す
るようにしても良い。これにより、より精度の高いクラ
ス分類が成し得る。
In the above embodiment, the case where the class classification unit 12 executes the class classification method in two steps or three steps has been described, but the present invention is not limited to this, and the rough classification of the first step is performed. Subsequently, if the adaptability is sequentially increased, it is also possible to execute a further multi-stage class classification. As a result, more accurate class classification can be achieved.

【0135】さらに、上述の実施例においては、アツプ
コンバータとして2次元ノンセパラブルフイルタを用い
た場合について述べたが、本発明はこれに限らず、図1
との対応部分に同一符号を付した図26に示すような垂
直/水平セパラブルのフイルタ構成でなるアツプコンバ
ータ110を用いても良い。
Further, in the above-mentioned embodiment, the case where the two-dimensional non-separable filter is used as the up converter has been described, but the present invention is not limited to this, and FIG.
An up-converter 110 having a vertical / horizontal separable filter configuration as shown in FIG.

【0136】このアツプコンバータ110においては、
まず、入力端子INを通じて入力されたSD信号S1 が、
クラス分類部12と予測演算部111にそれぞれ供給さ
れる。予測演算部111は、走査線の位置mode1、mode
2に対応する垂直予測演算部111A及び水平予測演算
部111Bと走査線の位置mode3、mode4に対応する垂
直予測演算部111C及び水平予測演算部111Dの2
種類に分かれる。クラス分類部12では、上述した実施
例のクラス分類部を適応することにより、入力SD信号
S1 に応じたクラスコードd0が生成され、タツプ予測係
数を予め記憶している記憶手段である予測係数ROM1
12に送出する。予測係数ROM112は、タツプ予測
係数の垂直成分と水平成分を記憶する垂直係数ROM1
12Aと水平係数ROM112Bとに分かれている。ク
ラスコードd0は、垂直係数ROM112Aと水平係数R
OM112Bのそれぞれに供給される。
In this up converter 110,
First, the SD signal S1 input through the input terminal IN is
It is supplied to the class classification unit 12 and the prediction calculation unit 111, respectively. The prediction calculation unit 111 uses the scanning line positions mode1 and mode.
2 of the vertical prediction calculation unit 111A and the horizontal prediction calculation unit 111B corresponding to 2 and the vertical prediction calculation unit 111C and the horizontal prediction calculation unit 111D corresponding to the scanning line positions mode3 and mode4.
Divided into types. In the class classification unit 12, a class code d0 corresponding to the input SD signal S1 is generated by applying the class classification unit of the above-described embodiment, and the prediction coefficient ROM1 which is a storage unit that stores the tap prediction coefficient in advance.
12 is sent. The prediction coefficient ROM 112 is a vertical coefficient ROM 1 that stores vertical and horizontal components of tap prediction coefficients.
12A and a horizontal coefficient ROM 112B. Class code d0 is vertical coefficient ROM 112A and horizontal coefficient R
It is supplied to each of the OM 112B.

【0137】まず、垂直係数ROM112Aより出力さ
れる垂直予測係数d6は、垂直予測演算部111A及び1
11Cに供給される。そして、垂直予測演算部111A
及び111Cは、入力SD信号S1 と垂直予測係数d6に
よる積和演算により垂直推定値d7、d8を生成する。この
垂直推定値d7、d8は、次段の水平予測演算部111B及
び111Dに供給される。
First, the vertical prediction coefficient d6 output from the vertical coefficient ROM 112A is the vertical prediction calculation unit 111A and 1
Supplied to 11C. Then, the vertical prediction calculation unit 111A
And 111C generate vertical estimated values d7 and d8 by a product-sum operation using the input SD signal S1 and the vertical prediction coefficient d6. The vertical estimated values d7 and d8 are supplied to the horizontal prediction calculation units 111B and 111D at the next stage.

【0138】水平係数ROM112Bより生成される水
平予測係数d9は、水平予測演算部111B及び111D
に供給される。そして、水平予測演算部111B及び1
11Dは、垂直推定値d7、d8と水平予測係数d9との積和
演算によりHD画素d10 、d11 信号を生成する。このH
D画素d10 、d11 信号は、選択部に供給され、選択部1
5において適切な並び替えにより出力端OUT より最終的
な出力であるHD信号S2 が出力される。
The horizontal prediction coefficient d9 generated from the horizontal coefficient ROM 112B is the horizontal prediction calculation unit 111B and 111D.
Is supplied to. Then, the horizontal prediction calculation units 111B and 1
The 11D generates HD pixel d10 and d11 signals by multiply-add operation of the vertical estimated values d7 and d8 and the horizontal prediction coefficient d9. This H
The D pixel d10 and d11 signals are supplied to the selection unit, and the selection unit 1
In step 5, the HD signal S2, which is the final output, is output from the output terminal OUT by appropriate rearrangement.

【0139】さらに上述の実施例においては、HD注目
画素と注目画素周辺の伝送画素との相関関係を表す予測
係数を用いてSD画素から注目画素周辺のHD画素を生
成した場合について述べたが、本発明はこれに限らず、
予測係数に代えて各クラス毎のHD補間画素の予測値を
予め設定して記憶手段に格納するようにしても良い。予
測値によるSD画像信号のHD画像信号への信号変換
は、図1との対応部分に同符号を付した、図27に示す
ようなアツプコンバータ115を用いる。
Further, in the above embodiment, the case has been described in which the HD pixel around the pixel of interest is generated from the SD pixel by using the prediction coefficient representing the correlation between the HD pixel of interest and the transmission pixel around the pixel of interest. The present invention is not limited to this,
Instead of the prediction coefficient, the predicted value of the HD interpolation pixel for each class may be set in advance and stored in the storage means. The signal conversion of the SD image signal into the HD image signal based on the predicted value uses an up converter 115 as shown in FIG.

【0140】このアツプコンバータ115には、入力端
INを通じてクラス分類部12にSD画像信号S1 が送出
される。このクラス分類部12は、新たに生成する補間
画素であるHD補間画素周辺のSD画素の特徴に基づい
てクラスコードd0を生成して予測値ROM116A〜1
16Dに送出する。予測値ROM116A〜116Dに
は、予め学習により求めておいたHD補間画素の予測デ
ータである予測値が各クラス毎にクラスコードd0に対応
付けされて格納してある。予測値ROM116は、クラ
スコードd0をアドレスデータとしてHD補間画素の予測
値d20 〜d23 を読み出し、選択部15を通じて出力端OU
T より出力する。これにより予測値d20〜d23 を入力画
像SD信号S1 の信号画素のHD補間画素とした高解像
度の画像信号を得ることができる。
This up converter 115 has an input terminal
The SD image signal S1 is sent to the class classification unit 12 through IN. The class classification unit 12 generates a class code d0 based on the characteristics of SD pixels around HD interpolation pixels, which are newly generated interpolation pixels, and predicts the predicted values ROMs 116A to 116A.
Send to 16D. Prediction values, which are prediction data of HD interpolation pixels obtained by learning in advance, are stored in the prediction value ROMs 116A to 116D in association with the class code d0 for each class. The prediction value ROM 116 reads the prediction values d20 to d23 of the HD interpolation pixels using the class code d0 as the address data, and outputs the output end OU through the selector 15.
Output from T. This makes it possible to obtain a high-resolution image signal in which the predicted values d20 to d23 are HD interpolation pixels of the signal pixels of the input image SD signal S1.

【0141】ここで、予測値を求める第1の方法として
は加重平均法を用いた学習法がある。加重平均法は、注
目画素周辺のSD画素を用いて注目画素をクラス分類
し、クラス毎に積算した注目画素(すなわちHD画素)
の画素値を注目画素の個数に応じてインクリメントされ
た度数によつて割り算するといつた処理を様々な画像に
対して行うことにより予測値を求める。
Here, there is a learning method using the weighted average method as the first method for obtaining the predicted value. In the weighted average method, the target pixel is classified into classes using SD pixels around the target pixel, and the target pixel integrated in each class (that is, HD pixel)
When the pixel value of is divided by the frequency incremented according to the number of target pixels, a prediction value is obtained by performing various processes on various images.

【0142】さらに予測係数を求める第2の方法として
は、正規化による学習法がある。この学習法は、先ず注
目画素を含む複数の画素からなるブロツクを形成し、ブ
ロツク内のダイナミツクレンジによつて注目画素の画素
値からそのブロツクの基準値を減算した値を正規化す
る。次に、この正規化された値の累積値を累積度数で割
り算することにより予測値を得る。
As a second method for obtaining the prediction coefficient, there is a learning method by normalization. In this learning method, first, a block composed of a plurality of pixels including a target pixel is formed, and a value obtained by subtracting the reference value of the block from the pixel value of the target pixel is normalized by the dynamic range in the block. Next, the predicted value is obtained by dividing the cumulative value of this normalized value by the cumulative frequency.

【0143】さらに、上述した実施例においては、入力
されたSD画像信号の空間アクテイビテイを評価し、そ
の評価結果に基づいて、クラス分類を実行するためのタ
ツプパターンを選択するようにしたが、本発明はこれに
限らず、入力されたSD画像信号の空間アクテイビテイ
を評価し、その評価結果に基づいて、予測演算部で予測
係数と線形一次結合により演算される予測タツプパター
ンを選択するようにしてもよい。この場合、例えば、図
11のクラス分類部50Aからの制御信号CTが、演算部
50Cの予測タツプパターン部60に供給されることに
なる。
Further, in the above-mentioned embodiment, the spatial activity of the input SD image signal is evaluated, and the tap pattern for executing the class classification is selected based on the evaluation result. Is not limited to this, the spatial activity of the input SD image signal may be evaluated, and a prediction tap pattern calculated by the prediction coefficient and linear linear combination in the prediction calculation unit may be selected based on the evaluation result. . In this case, for example, the control signal CT from the class classification unit 50A of FIG. 11 is supplied to the prediction tap pattern unit 60 of the calculation unit 50C.

【0144】さらに、上述した実施例においては、初段
のクラス分類部からのクラスコードと次段のクラス分類
部からのクラスコードの両方に基づいて、予測係数メモ
リの予測係数を読み出すようになされているが、本発明
はこれに限らず、初段のクラス分類部からのクラスコー
ドと次段のクラス分類部からのクラスコードのうちどち
らか一方のクラスコードを用いて予測係数メモリの予測
係数を読み出すような構成にしてもよい。
Further, in the above-described embodiment, the prediction coefficient of the prediction coefficient memory is read based on both the class code from the first-stage class classification section and the class code from the next-stage class classification section. However, the present invention is not limited to this, and the prediction coefficient of the prediction coefficient memory is read using either one of the class code from the class classification unit in the first stage and the class code from the class classification unit in the next stage. You may make it a structure like this.

【0145】さらに、上述の実施例においては、SD画
像信号をHD画像信号に信号変換した場合について述べ
たが、本発明はこれに限らず、画像拡大する際の補間画
素を生成するのに用いても良い。さらに、NTSC方式
の信号をPAL(Phase Alternation by Line が語源)
方式の信号に変換するコンバータ等の画素数の少ない信
号をより画素数の多い信号に変換する信号変換装置に適
用してもよい。さらに、元の信号に対してより高精度の
信号を生成するようなYC分離器などに適用してもよ
い。
Further, in the above-mentioned embodiment, the case where the SD image signal is converted into the HD image signal has been described, but the present invention is not limited to this, and it is used to generate an interpolation pixel when enlarging an image. May be. In addition, PAL (Phase Alternation by Line is the origin of NTSC signals.
The present invention may be applied to a signal conversion device that converts a signal with a small number of pixels into a signal with a larger number of pixels, such as a converter that converts a signal of a system. Further, it may be applied to a YC separator or the like that generates a signal with higher accuracy than the original signal.

【0146】なお、本発明の主旨を逸脱しない範囲にお
いて、様々な変形や応用例が考えうる。したがつて、本
発明の要旨は、実施例に限定されるものではない。
Various modifications and application examples can be considered without departing from the gist of the present invention. Therefore, the gist of the present invention is not limited to the embodiments.

【0147】[0147]

【発明の効果】上述のように第1〜第4の発明によれ
ば、ブロツク単位毎の入力画像信号についての空間内ア
クテイビテイを評価分類して、その結果得られるアクテ
イビテイコードに応じてブロツク単位の入力画像信号に
対して段階的なクラス分類を施す。これにより、次段以
降のクラス分類には、初段のアクテイビテイコード及び
前段のクラス分類結果が反映され、精度の高いクラス分
類が成し得、これにより、このクラス分類結果に基づい
た予測係数又は予測値を用いて低解像度の入力画像信号
に対する高精度の補間画素を予測生成し、高解像度の画
像信号を得ることができる信号変換装置及び信号変換方
法を実現し得る。
As described above, according to the first to fourth aspects of the invention, the spatial activity of the input image signal for each block unit is evaluated and classified, and the block unit of the block unit is selected according to the activity code obtained as a result. Gradual classification is applied to the input image signal. As a result, the class code of the next and subsequent stages reflects the activity code of the first stage and the result of the class classification of the previous stage, so that highly accurate class classification can be performed, and as a result, the prediction coefficient or prediction based on this class classification result is obtained. It is possible to realize a signal conversion device and a signal conversion method that can predictively generate a highly accurate interpolated pixel for a low-resolution input image signal using a value and obtain a high-resolution image signal.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の2次元ノンセパラブルフイルタで構成
されるアツプコンバータを示すブロツク図である。
FIG. 1 is a block diagram showing an upconverter composed of a two-dimensional non-separable filter according to the present invention.

【図2】図1のクラス分類部の構成を示すブロツク図で
ある。
FIG. 2 is a block diagram showing a configuration of a class classification unit shown in FIG.

【図3】図2アクテイビテイ分類部の構成を示すブロツ
ク図である。
FIG. 3 is a block diagram showing a configuration of an activity classification section.

【図4】SD画素の配置例を示す略線図である。FIG. 4 is a schematic diagram showing an arrangement example of SD pixels.

【図5】クラス分類部のクラスタツプパターンを示す略
線図である。
FIG. 5 is a schematic diagram showing a cluster pattern of a class classification unit.

【図6】学習データの予測タツプを示す略線図である。FIG. 6 is a schematic diagram showing a prediction tap of learning data.

【図7】予測係数学習手順を示すフローチヤートであ
る。
FIG. 7 is a flow chart showing a prediction coefficient learning procedure.

【図8】予測係数ROMの階層化を説明するための略線
図である。
FIG. 8 is a schematic diagram for explaining the hierarchization of prediction coefficient ROM.

【図9】第2実施例のアツプコンバータのアクテイビテ
イ分類部を説明するためのブロツク図である。
FIG. 9 is a block diagram for explaining an activity classification unit of the up converter of the second embodiment.

【図10】ADRCコード値のレベルによる度数分布を
示すグラフである。
FIG. 10 is a graph showing a frequency distribution according to levels of ADRC code values.

【図11】第6実施例のアツプコンバータを説明するた
めのブロツク図である。
FIG. 11 is a block diagram for explaining an up converter of a sixth embodiment.

【図12】一次元ラプラシアンフイルタを説明するため
の略線図である。
FIG. 12 is a schematic diagram for explaining a one-dimensional Laplacian filter.

【図13】初段のクラス分類部のクラスコードであるイ
ンデツクスを説明するための略線図である。
FIG. 13 is a schematic diagram for explaining an index that is a class code of a first-stage class classification unit.

【図14】クラス分類部の分類結果としての水平方向に
特徴のある予測タツプパターンを説明するための略線図
である。
FIG. 14 is a schematic diagram for explaining a prediction tap pattern having a horizontal characteristic as a classification result of a class classification unit.

【図15】クラス分類部の分類結果としての垂直方向に
特徴のある予測タツプパターンを説明するための略線図
である。
FIG. 15 is a schematic diagram for explaining a prediction tap pattern having a vertical characteristic as a classification result of a class classification unit.

【図16】クラス分類部の分類結果としての斜め方向に
特徴のある予測タツプパターンを説明するための略線図
である。
FIG. 16 is a schematic diagram for explaining a prediction tap pattern having a characteristic in an oblique direction as a classification result of a class classification unit.

【図17】クラス分類部の分類結果としての斜め方向に
特徴のある予測タツプパターンを説明するための略線図
である。
FIG. 17 is a schematic diagram for explaining a prediction tap pattern having a characteristic in an oblique direction as a classification result of the class classification unit.

【図18】第7実施例のアツプコンバータを説明するた
めのブロツク図である。
FIG. 18 is a block diagram for explaining an up converter of a seventh embodiment.

【図19】第8実施例のクラス分類部を説明するための
ブロツク図である。
FIG. 19 is a block diagram for explaining a class classification unit according to the eighth embodiment.

【図20】クラス分類部のクラスタツプパターンを説明
するための略線図である。
FIG. 20 is a schematic diagram for explaining a cluster pattern of a class classification unit.

【図21】クラス分類部のクラスタツプパターンを説明
するための略線図である。
FIG. 21 is a schematic diagram for explaining a cluster pattern of a class classification unit.

【図22】第9実施例のアツプコンバータを説明するた
めのブロツク図である。
FIG. 22 is a block diagram for explaining the up converter of the ninth embodiment.

【図23】第9実施例のクラス分類部でクラスコードを
生成するために使用されるクラス生成ブロツクデータを
説明するための略線図である。
FIG. 23 is a schematic diagram for explaining class generation block data used for generating a class code in the class classification unit of the ninth embodiment.

【図24】第9実施例のクラスコードの階層化を説明す
るための略線図である。
FIG. 24 is a schematic diagram for explaining class code hierarchization in the ninth embodiment.

【図25】第9実施例の予測演算部の予測タツプパター
ンを説明するための略線図である。
FIG. 25 is a schematic diagram for explaining a prediction tap pattern of a prediction calculation unit of the ninth embodiment.

【図26】本発明の垂直/水平セパラブルフイルタによ
るアツプコンバータを示すブロツク図である。
FIG. 26 is a block diagram showing an up-converter using a vertical / horizontal separable filter according to the present invention.

【図27】本発明の予測値によるHD画素信号を生成す
るアツプコンバータを示すブロツク図である。
FIG. 27 is a block diagram showing an up converter that generates an HD pixel signal according to a prediction value of the present invention.

【図28】SD画像信号及びHD画像信号の関係を説明
するための略線図である。
FIG. 28 is a schematic diagram for explaining the relationship between an SD image signal and an HD image signal.

【図29】従来の2次元ノンセパラブル補間フイルタを
示すブロツク図である。
FIG. 29 is a block diagram showing a conventional two-dimensional non-separable interpolation filter.

【図30】従来の垂直/水平セパラブル補間フイルタを
示すブロツク図である。
FIG. 30 is a block diagram showing a conventional vertical / horizontal separable interpolation filter.

【符号の説明】[Explanation of symbols]

1……HD画像、2、3……補間フイルタ、4A〜4D
……2次元フイルタ、5、8、15、73……選択部、
6A、6B……垂直補間フイルタ、7A、7B……水平
補間フイルタ、10、50、65、90、110、11
5……アツプコンバータ、12……クラス分類部、1
3、100……予測演算部、14……予測係数ROM、
21、35……アクテイビテイ分類部、22……広領域
タツプ選択部、23……標準タツプ選択部、24……狭
領域タツプ選択部、26、36、58、71……ADR
Cクラス分類部、31、38……閾値判定部、51A〜
51E……ラプラシアンフイルタ、52A〜52E……
絶対値回路、53……最大値検出器、54……比較器、
55A〜55I……セレクタ、56A、56B、93
A、93B、97……遅延回路、57……レジスタアレ
イ、59、99……予測係数RAM、66A〜66E…
…量子化器、72A〜72G……クラスタツプ選択部。
1 ... HD image, 2, 3 ... Interpolation filter, 4A to 4D
...... 2-dimensional filter, 5, 8, 15, 73 ...... Selector,
6A, 6B ... Vertical interpolation filter, 7A, 7B ... Horizontal interpolation filter 10, 50, 65, 90, 110, 11
5 ... Up converter, 12 ... Class classification unit, 1
3, 100 ... Prediction calculation unit, 14 ... Prediction coefficient ROM,
21, 35 ... Activity classification section, 22 ... Wide area tap selection section, 23 ... Standard tap selection section, 24 ... Narrow area tap selection section, 26,36,58,71 ... ADR
C class classification unit, 31, 38 ... Threshold value determination unit, 51A to
51E ... Laplacian filter, 52A-52E ...
Absolute value circuit, 53 ... Maximum value detector, 54 ... Comparator,
55A to 55I ... selector, 56A, 56B, 93
A, 93B, 97 ... Delay circuit, 57 ... Register array, 59, 99 ... Prediction coefficient RAM, 66A to 66E ...
... Quantizer, 72A to 72G ... Cluster-up selector.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 健治 東京都品川区北品川6丁目7番35号ソニー 株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Kenji Takahashi 6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation

Claims (44)

【特許請求の範囲】[Claims] 【請求項1】入力された第1の画像信号を第1の画像信
号とは異なる第2の画像信号に変換する信号変換装置に
おいて、 上記第1の画像信号の空間内アクテイビテイを評価して
アクテイビテイコードを発生する第1のクラス分類手段
と、 上記アクテイビテイコードに基づいて段階的なクラス分
類を実行し、そのクラス分類結果に基づいてクラスコー
ドを発生する第2のクラス分類手段と、 上記第1の画像信号を用いて上記第2の画像信号を予測
生成するための予測係数を記憶する予測係数記憶手段
と、 上記アクテイビテイコード及び/又は上記クラスコード
に応じて上記予測係数記憶手段より読み出される上記予
測係数を用いて、上記第1の入力画像信号に対して予測
演算を施すことにより、上記第2の画像信号を生成する
予測演算手段とを具えることを特徴とする信号変換装
置。
1. A signal conversion apparatus for converting an input first image signal into a second image signal different from the first image signal, wherein the spatial activity of the first image signal is evaluated and the activity is evaluated. A first class classification means for generating a code; a second class classification means for performing a stepwise class classification based on the activity code and generating a class code based on the classification result; Predicting coefficient storage means for storing the predictive coefficient for predictively generating the second image signal using the image signal, and the predictive coefficient storing means for reading the predictive coefficient according to the activity code and / or the class code. A prediction calculation unit that generates a second image signal by performing a prediction calculation on the first input image signal using a prediction coefficient. A signal conversion device comprising:
【請求項2】上記第1の画像信号は、低解像度の画像信
号でなり、 上記第2の画像信号は、上記低解像度の画像信号より解
像度が高い高解像度信号でなることを特徴とする請求項
1に記載の信号変換装置。
2. The first image signal is a low resolution image signal, and the second image signal is a high resolution signal having a higher resolution than the low resolution image signal. Item 1. The signal conversion device according to item 1.
【請求項3】上記第2の画像信号は、上記第1の画像信
号より画素数が多い画像信号であることを特徴とする請
求項1に記載の信号変換装置。
3. The signal conversion device according to claim 1, wherein the second image signal is an image signal having more pixels than the first image signal.
【請求項4】上記第1のクラス分類手段は、上記第1の
画像信号の空間内アクテイビテイ及び時間方向アクテイ
ビテイを評価してアクテイビテイコードを発生すること
を特徴とする請求項1に記載の信号変換装置。
4. The signal conversion according to claim 1, wherein the first class classification means evaluates the in-spatial activity and temporal activity of the first image signal to generate an activity code. apparatus.
【請求項5】上記第2のクラス分類手段は、上記第1の
画像信号に対して複数の異なる画素パターンを設定し、
その設定された複数の画素パターンの中から上記アクテ
イビテイコードに応じて画素パターンを選択し、その選
択された画素パターンを用いて上記第1の画像信号をク
ラス分類してクラスコードを発生することを特徴とする
請求項1に記載の信号変換装置。
5. The second class classification means sets a plurality of different pixel patterns for the first image signal,
Selecting a pixel pattern from the set plurality of pixel patterns according to the activity code, classifying the first image signal using the selected pixel pattern, and generating a class code. The signal conversion device according to claim 1, which is characterized in that.
【請求項6】上記第1のクラス分類手段は、上記第1の
画像信号の注目画素の近傍領域内の各画素のダイナミツ
クレンジを用いて空間内アクテイビテイを評価してアク
テイビテイコードを発生することを特徴とする請求項1
に記載の信号変換装置。
6. The first class classification means evaluates in-spatial activity by using a dynamic range of each pixel in a region near the pixel of interest of the first image signal to generate an activity code. Claim 1 characterized by the above-mentioned.
The signal conversion device described in 1.
【請求項7】上記第1のクラス分類手段は、上記第1の
画像信号の注目画素の近傍領域内の画素より定義される
ダイナミツクレンジに基づいて得られた量子化値のレベ
ル分布に応じて、空間内アクテイビテイを評価してアク
テイビテイコードを発生することを特徴とする請求項1
に記載の信号変換装置。
7. The first class classification means is responsive to a level distribution of quantized values obtained based on a dynamic range defined by pixels in a region near a pixel of interest of the first image signal. 2. The activity code is generated by evaluating the activity in the space, and the activity code is generated.
The signal conversion device described in 1.
【請求項8】上記第1のクラス分類手段は、上記第1の
画像信号の注目画素の近傍領域内の各画素の信号分布か
ら得られる標準偏差を用いて空間内アクテイビテイを評
価してアクテイビテイコードを発生することを特徴とす
る請求項1に記載の信号変換装置。
8. The activity code is evaluated by the first class classification means for evaluating spatial activity by using a standard deviation obtained from a signal distribution of each pixel in a region near the pixel of interest of the first image signal. The signal conversion device according to claim 1, wherein
【請求項9】上記第1のクラス分類手段は、上記第1の
画像信号の注目画素の近傍領域内の画素より定義される
ダイナミツクレンジに基づいて得られた量子化値の度数
分布に応じて、空間内アクテイビテイを評価してアクテ
イビテイコードを発生することを特徴とする請求項1に
記載の信号変換装置。
9. The first class classification means responds to a frequency distribution of quantized values obtained based on a dynamic range defined by pixels in a region near a pixel of interest of the first image signal. 2. The signal conversion device according to claim 1, wherein the activity code in the space is evaluated to generate an activity code.
【請求項10】上記第1のクラス分類手段は、上記第1
の画像信号の注目画素の近傍領域内の各画素における隣
接画素差分値の度数分布に応じて、空間内アクテイビテ
イを評価してアクテイビテイコードを発生することを特
徴とする請求項1に記載の信号変換装置。
10. The first class classification means is the first class.
2. The signal conversion according to claim 1, wherein the in-spatial activity is evaluated and an activity code is generated according to the frequency distribution of the adjacent pixel difference values in each pixel in the vicinity of the pixel of interest of the image signal of FIG. apparatus.
【請求項11】上記第1のクラス分類手段は、ラプラシ
アンフイルタを用いて、それぞれ空間内の異なる方向に
ついて求められたラプラシアン値に基づいて空間内アク
テイビテイを評価して、アクテイビテイコードを発生す
ることを特徴とする請求項1に記載の信号変換装置。
11. The first class classification means uses a Laplacian filter to evaluate the in-space activity on the basis of the Laplacian values obtained for different directions in the space, and to generate an activity code. The signal conversion device according to claim 1, which is characterized in that.
【請求項12】上記第1のクラス分類手段は、ラプラシ
アンフイルタを用いて、それぞれ空間内及び時間方向の
異なる方向について求められたラプラシアン値に基づい
て空間内アクテイビテイ及び空間内アクテイビテイを評
価して、アクテイビテイコードを発生することを特徴と
する請求項4に記載の信号変換装置。
12. The first class classification means uses a Laplacian filter to evaluate the in-spatial activity and the in-spatial activity on the basis of Laplacian values obtained for different directions in the space and the time direction, respectively. The signal conversion device according to claim 4, wherein the signal conversion device generates an activity code.
【請求項13】上記第1のクラス分類手段は、上記第1
の画像信号の注目画素の近傍領域内の各画素のレベル分
布に応じて、空間内アクテイビテイを評価してアクテイ
ビテイコードを発生することを特徴とする請求項1に記
載の信号変換装置。
13. The first class classification means is the first class.
2. The signal conversion apparatus according to claim 1, wherein the spatial activity is evaluated and an activity code is generated in accordance with the level distribution of each pixel in the area near the pixel of interest of the image signal.
【請求項14】上記第2のクラス分類手段は、上記第1
の画像信号の注目画素の近傍領域内の各画素より定義さ
れるダイナミツクレンジに基づいて上記第1の画像信号
を量子化することにより、上記第1の画像信号をクラス
分類してクラスコードを発生することを特徴とする請求
項1に記載の信号変換装置。
14. The second class classification means is the first class.
By quantizing the first image signal on the basis of the dynamic range defined by each pixel in the vicinity of the pixel of interest of the image signal, the first image signal is classified into a class code. The signal conversion device according to claim 1, wherein the signal conversion device is generated.
【請求項15】上記第2のクラス分類手段は、上記アク
テイビテイコードに応じて上記第1の画像信号を量子化
する際のレベル分解能を適応的に切り替えることを特徴
とする請求項14に記載の信号変換装置。
15. The method according to claim 14, wherein the second class classification means adaptively switches the level resolution when quantizing the first image signal according to the activity code. Signal converter.
【請求項16】上記第2のクラス分類手段は、上記第1
の画像信号に対して、広い領域に亘る画素パターン、上
記広い領域に比して狭い領域内に画素パターン及び上記
広い領域及び上記狭い領域の間に相当する標準的な画素
パターンを設定することを特徴とする請求項4に記載の
信号変換装置。
16. The second class classification means is the first class.
A pixel pattern over a wide area, a pixel pattern within a narrow area as compared with the wide area, and a standard pixel pattern corresponding to the wide area and the narrow area for the image signal The signal conversion device according to claim 4, which is characterized in that.
【請求項17】上記第1のクラス分類手段は、上記第1
の画像信号の注目画素の近傍領域内の各画素を量子化に
よつてデータ圧縮し、その量子化値のレベルの分布特性
に応じて空間内アクテイビテイを評価して、上記アクテ
イビテイコードを発生し、 上記第2のクラス分類手段は、上記アクテイビテイコー
ドによつて適切な画素パターンを設定し、上記アクテイ
ビテイコードによつてその画素パターンの各画素に対し
て所定ビツト数を設定して量子化することを特徴とする
請求項1に記載の信号変換装置。
17. The first class classification means is the first class
Each pixel in the vicinity area of the pixel of interest of the image signal of the data is compressed by quantization, the spatial activity is evaluated according to the distribution characteristic of the level of the quantized value, and the activity code is generated, The second class classification means sets an appropriate pixel pattern by the activity code, sets a predetermined number of bits for each pixel of the pixel pattern by the activity code, and quantizes the pixel pattern. The signal conversion device according to claim 1, which is characterized in that.
【請求項18】入力された第1の画像信号を第1の画像
信号とは異なる第2の画像信号に変換する信号変換装置
において、 上記第1の画像信号の空間内アクテイビテイを評価して
アクテイビテイコードを発生する第1のクラス分類手段
と、 上記アクテイビテイコードに基づいて段階的なクラス分
類を実行し、そのクラス分類結果に基づいてクラスコー
ドを発生する第2のクラス分類手段と、 上記第1の画像信号の補間画素信号として生成された予
測値を記憶されており、上記アクテイビテイコード及び
/又は上記クラスコードに応じて対応する予測値を読み
出して出力する予測値記憶読み出し手段とを具えること
を特徴とする信号変換装置。
18. A signal conversion device for converting an input first image signal into a second image signal different from the first image signal, wherein the spatial activity of the first image signal is evaluated and the activity is evaluated. A first class classification means for generating a code; a second class classification means for performing a stepwise class classification based on the activity code and generating a class code based on the classification result; A predicted value generated as an interpolated pixel signal of the image signal is stored, and a predicted value storing / reading unit that reads and outputs a predicted value corresponding to the activity code and / or the class code is output. A signal conversion device characterized by.
【請求項19】上記第1の画像信号は、低解像度の画像
信号でなり、 上記第2の画像信号は、上記低解像度の画像信号より解
像度が高い高解像度信号でなることを特徴とする請求項
18に記載の信号変換装置。
19. The first image signal is a low resolution image signal, and the second image signal is a high resolution signal having a higher resolution than the low resolution image signal. Item 18. The signal conversion device according to item 18.
【請求項20】上記第2の画像信号は、上記第1の画像
信号より画素数が多い画像信号であることを特徴とする
請求項18に記載の信号変換装置。
20. The signal conversion device according to claim 18, wherein the second image signal is an image signal having a larger number of pixels than the first image signal.
【請求項21】上記第1のクラス分類手段は、上記第1
の画像信号の空間内アクテイビテイ及び時間方向アクテ
イビテイを評価してアクテイビテイコードを発生するこ
とを特徴とする請求項18に記載の信号変換装置。
21. The first class classification means is the first class.
19. The signal conversion device according to claim 18, wherein the activity code in the space and the temporal direction activity of the image signal are evaluated to generate an activity code.
【請求項22】上記第2のクラス分類手段は、上記第1
の画像信号に対して複数の異なる画素パターンを設定
し、その設定された複数の画素パターンの中から上記ア
クテイビテイコードに応じて画素パターンを選択し、そ
の選択された画素パターンを用いて上記第1の画像信号
をクラス分類してクラスコードを発生することを特徴と
する請求項18に記載の信号変換装置。
22. The second class classification means is the first class.
A plurality of different pixel patterns are set for the image signal, the pixel pattern is selected from the set plurality of pixel patterns according to the activity code, and the first pixel pattern is selected using the selected pixel pattern. 19. The signal conversion apparatus according to claim 18, wherein the image signal of is classified into a class to generate a class code.
【請求項23】入力された第1の画像信号を第1の画像
信号とは異なる第2の画像信号に変換する信号変換方法
において、 上記第1の画像信号の空間内アクテイビテイを評価して
アクテイビテイコードを発生し、 上記アクテイビテイコードに基づいて段階的なクラス分
類を実行し、 そのクラス分類結果に基づいてクラスコードを発生し、 上記アクテイビテイコード及び/又は上記クラスコード
に応じて、上記第1の画像信号を用いて上記第2の画像
信号を予測生成するための予測係数記憶手段に記憶され
ている予測係数を読みだし、その読み出された予測係数
を用いて上記第1の入力画像信号に対して予測演算を施
すことにより、上記第2の画像信号を生成することを特
徴とする信号変換方法。
23. A signal conversion method for converting an input first image signal into a second image signal different from the first image signal, wherein the activity in space of the first image signal is evaluated to evaluate the activity. A code is generated, a stepwise class classification is executed based on the activity code, a class code is generated based on the class classification result, and the first code is generated according to the activity code and / or the class code. The prediction coefficient stored in the prediction coefficient storage unit for predictively generating the second image signal using the image signal is read, and the read prediction coefficient is used as the first input image signal. A signal conversion method, characterized in that the second image signal is generated by performing a prediction calculation.
【請求項24】上記第1の画像信号は、低解像度の画像
信号でなり、 上記第2の画像信号は、上記低解像度の画像信号より解
像度が高い高解像度信号でなることを特徴とする請求項
23に記載の信号変換方法。
24. The first image signal is a low resolution image signal, and the second image signal is a high resolution signal having a higher resolution than the low resolution image signal. Item 23. The signal conversion method according to Item 23.
【請求項25】上記第2の画像信号は、上記第1の画像
信号より画素数が多い画像信号であることを特徴とする
請求項23に記載の信号変換方法。
25. The signal conversion method according to claim 23, wherein the second image signal is an image signal having more pixels than the first image signal.
【請求項26】上記第1の画像信号の空間内アクテイビ
テイ及び時間方向アクテイビテイを評価して上記アクテ
イビテイコードを発生することを特徴とする請求項23
に記載の信号変換方法。
26. The activity code is generated by evaluating in-space activity and temporal activity of the first image signal.
The signal conversion method described in.
【請求項27】上記第1の画像信号に対して複数の異な
る画素パターンを設定し、その設定された複数の画素パ
ターンの中から上記アクテイビテイコードに応じて画素
パターンを選択し、その選択された画素パターンを用い
て上記第1の画像信号をクラス分類してクラスコードを
発生することを特徴とする請求項23に記載の信号変換
方法。
27. A plurality of different pixel patterns are set for the first image signal, a pixel pattern is selected from the set plurality of pixel patterns according to the activity code, and the selected pixel pattern is selected. 24. The signal conversion method according to claim 23, wherein the first image signal is classified into classes using a pixel pattern to generate a class code.
【請求項28】上記第1の画像信号の注目画素の近傍領
域内の各画素のダイナミツクレンジを用いて空間内アク
テイビテイを評価して上記アクテイビテイコードを発生
することを特徴とする請求項23に記載の信号変換方
法。
28. The activity code is generated by evaluating the spatial activity by using the dynamic range of each pixel in the area near the pixel of interest of the first image signal. The signal conversion method described.
【請求項29】上記第1の画像信号の注目画素の近傍領
域内の画素より定義されるダイナミツクレンジに基づい
て得られた量子化値のレベル分布に応じて、空間内アク
テイビテイを評価して上記アクテイビテイコードを発生
することを特徴とする請求項23に記載の信号変換方
法。
29. The spatial activity is evaluated according to the level distribution of the quantized value obtained on the basis of the dynamic range defined by the pixels in the region near the pixel of interest of the first image signal. 24. The signal conversion method according to claim 23, wherein the activity code is generated.
【請求項30】上記第1の画像信号の注目画素の近傍領
域内の各画素の信号分布から得られる標準偏差を用いて
空間内アクテイビテイを評価して上記アクテイビテイコ
ードを発生することを特徴とする請求項23に記載の信
号変換方法。
30. The spatial activity is evaluated by using the standard deviation obtained from the signal distribution of each pixel in the neighborhood area of the pixel of interest of the first image signal, and the activity code is generated. The signal conversion method according to claim 23.
【請求項31】上記第1の画像信号の注目画素の近傍領
域内の画素より定義されるダイナミツクレンジに基づい
て得られた量子化値の度数分布に応じて、空間内アクテ
イビテイを評価して上記アクテイビテイコードを発生す
ることを特徴とする請求項23に記載の信号変換方法。
31. The spatial activity is evaluated according to a frequency distribution of quantized values obtained based on a dynamic range defined by pixels in a region near a pixel of interest of the first image signal. 24. The signal conversion method according to claim 23, wherein the activity code is generated.
【請求項32】上記第1の画像信号の注目画素の近傍領
域内の各画素における隣接画素差分値の度数分布に応じ
て、空間内アクテイビテイを評価して上記アクテイビテ
イコードを発生することを特徴とする請求項23に記載
の信号変換方法。
32. An activity in space is evaluated to generate the activity code according to a frequency distribution of adjacent pixel difference values in each pixel in a region in the vicinity of a pixel of interest of the first image signal. The signal conversion method according to claim 23.
【請求項33】ラプラシアンフイルタを用いて、それぞ
れ空間内の異なる方向について求められたラプラシアン
値に基づいて空間内アクテイビテイを評価して、上記ア
クテイビテイコードを発生することを特徴とする請求項
23に記載の信号変換方法。
33. The activity code is generated by using a Laplacian filter to evaluate the in-space activity based on the Laplacian values obtained for different directions in the space, and to generate the activity code. Signal conversion method.
【請求項34】ラプラシアンフイルタを用いて、それぞ
れ空間内及び時間方向の異なる方向について求められた
ラプラシアン値に基づいて空間内アクテイビテイ及び空
間内アクテイビテイを評価して、上記アクテイビテイコ
ードを発生することを特徴とする請求項26に記載の信
号変換方法。
34. The Laplacian filter is used to evaluate the in-spatial activity and the in-spatial activity on the basis of the Laplacian values obtained in different directions in the space and in the time direction, and generate the activity code. The signal conversion method according to claim 26.
【請求項35】上記第1の画像信号の注目画素の近傍領
域内の各画素のレベル分布に応じて、空間内アクテイビ
テイを評価して上記アクテイビテイコードを発生するこ
とを特徴とする請求項23に記載の信号変換方法。
35. The activity code is generated by evaluating the spatial activity in accordance with the level distribution of each pixel in the area near the pixel of interest of the first image signal. The signal conversion method described.
【請求項36】上記第1の画像信号の注目画素の近傍領
域内の各画素より定義されるダイナミツクレンジに基づ
いて上記第1の画像信号を量子化することにより、上記
第1の画像信号をクラス分類して上記クラスコードを発
生することを特徴とする請求項23に記載の信号変換方
法。
36. The first image signal is obtained by quantizing the first image signal on the basis of a dynamic range defined by pixels in a region near a pixel of interest of the first image signal. 24. The signal conversion method according to claim 23, wherein the signal is classified into classes to generate the class code.
【請求項37】上記アクテイビテイコードに応じて上記
第1の画像信号を量子化する際のレベル分解能を適応的
に切り替えることを特徴とする請求項36に記載の信号
変換方法。
37. The signal conversion method according to claim 36, wherein the level resolution at the time of quantizing the first image signal is adaptively switched according to the activity code.
【請求項38】上記第1の画像信号に対して、広い領域
に亘る画素パターン、上記広い領域に比して狭い領域内
に画素パターン及び上記広い領域及び上記狭い領域の間
に相当する標準的な画素パターンを設定することを特徴
とする請求項26に記載の信号変換方法。
38. A standard pattern corresponding to the first image signal, a pixel pattern over a wide area, a pixel pattern within a narrow area as compared with the wide area, and between the wide area and the narrow area. 27. The signal conversion method according to claim 26, wherein different pixel patterns are set.
【請求項39】上記第1の画像信号の注目画素の近傍領
域内の各画素を量子化によつてデータ圧縮し、その量子
化値のレベルの分布特性に応じて空間内アクテイビテイ
を評価して、上記アクテイビテイコードを発生し、上記
アクテイビテイコードによつて適切な画素パターンを設
定し、上記アクテイビテイコードによつてその画素パタ
ーンの各画素に対して所定ビツト数を設定して量子化す
ることを特徴とする請求項23に記載の信号変換方法。
39. Each pixel in a region near the pixel of interest of the first image signal is data-compressed by quantization, and the spatial activity is evaluated according to the distribution characteristic of the level of the quantized value. , Generating the activity code, setting an appropriate pixel pattern by the activity code, setting a predetermined number of bits for each pixel of the pixel pattern by the activity code, and quantizing The signal conversion method according to claim 23.
【請求項40】入力された第1の画像信号を第1の画像
信号とは異なる第2の画像信号に変換する信号変換方法
において、 上記第1の画像信号の空間内アクテイビテイを評価して
アクテイビテイコードを発生し、 上記アクテイビテイコードに基づいて段階的なクラス分
類を実行し、 そのクラス分類結果に基づいてクラスコードを発生し、 上記アクテイビテイコード及び/又は上記クラスコード
に応じて、予測値記憶手段に記憶された上記第1の画像
信号の補間画素信号として生成された予測値をを読み出
して出力することを特徴とする信号変換方法。
40. A signal conversion method for converting an input first image signal into a second image signal different from the first image signal, wherein the spatial activity of the first image signal is evaluated and the activity is evaluated. A code is generated, a stepwise class classification is executed based on the activity code, a class code is generated based on the classification result, and a predicted value storage means is generated according to the activity code and / or the class code. A signal conversion method comprising: reading out and outputting a prediction value generated as an interpolated pixel signal of the first image signal stored in.
【請求項41】上記第1の画像信号は、低解像度の画像
信号でなり、上記第2の画像信号は、上記低解像度の画
像信号より解像度が高い高解像度信号でなることを特徴
とする請求項40に記載の信号変換方法。
41. The first image signal is a low-resolution image signal, and the second image signal is a high-resolution signal having a higher resolution than the low-resolution image signal. Item 40. The signal conversion method according to Item 40.
【請求項42】上記第2の画像信号は、上記第1の画像
信号より画素数が多い画像信号であることを特徴とする
請求項40に記載の信号変換方法。
42. The signal conversion method according to claim 40, wherein the second image signal is an image signal having more pixels than the first image signal.
【請求項43】上記第1の画像信号の空間内アクテイビ
テイ及び時間方向アクテイビテイを評価して上記アクテ
イビテイコードを発生することを特徴とする請求項40
に記載の信号変換方法。
43. The activity code is generated by evaluating in-space activity and temporal activity of the first image signal.
The signal conversion method described in.
【請求項44】上記第1の画像信号に対して複数の異な
る画素パターンを設定し、その設定された複数の画素パ
ターンの中から上記アクテイビテイコードに応じて画素
パターンを選択し、その選択された画素パターンを用い
て上記第1の画像信号をクラス分類して上記クラスコー
ドを発生することを特徴とする請求項40に記載の信号
変換方法。
44. A plurality of different pixel patterns are set for the first image signal, a pixel pattern is selected from the set plurality of pixel patterns according to the activity code, and the selected pixel pattern is selected. The signal conversion method according to claim 40, wherein the first image signal is classified into classes using a pixel pattern to generate the class code.
JP13126796A 1995-05-31 1996-04-26 Signal conversion apparatus and signal conversion method Expired - Fee Related JP3859089B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13126796A JP3859089B2 (en) 1995-05-31 1996-04-26 Signal conversion apparatus and signal conversion method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP15861695 1995-05-31
JP7-158616 1995-05-31
JP13126796A JP3859089B2 (en) 1995-05-31 1996-04-26 Signal conversion apparatus and signal conversion method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006214832A Division JP4235917B2 (en) 1995-05-31 2006-08-07 Signal conversion apparatus and signal conversion method

Publications (2)

Publication Number Publication Date
JPH0951510A true JPH0951510A (en) 1997-02-18
JP3859089B2 JP3859089B2 (en) 2006-12-20

Family

ID=26466153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13126796A Expired - Fee Related JP3859089B2 (en) 1995-05-31 1996-04-26 Signal conversion apparatus and signal conversion method

Country Status (1)

Country Link
JP (1) JP3859089B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998026607A1 (en) * 1996-12-11 1998-06-18 Sony Corporation Signal conversion device and method
US6115073A (en) * 1996-12-11 2000-09-05 Sony Corporation Signal converting apparatus and method using a class decision circuit
JP2002064836A (en) * 2000-08-15 2002-02-28 Sony Corp Image signal processing apparatus, image signal processing method, learning device, learning method and recording medium
JP2002064832A (en) * 2000-08-15 2002-02-28 Sony Corp Image signal processing apparatus, image signal processing method, learning device, learning method and recording medium
JP2002537696A (en) * 1999-02-12 2002-11-05 ソニー エレクトロニクス インク Classification adaptive space-time format conversion method and apparatus
WO2004077828A1 (en) * 2003-02-27 2004-09-10 Sony Corporation Image processing device and method, learning device and method, recording medium, and program
JP2005051638A (en) * 2003-07-31 2005-02-24 Sony Corp Signal processing apparatus and signal processing method
US6912014B2 (en) 2000-02-10 2005-06-28 Sony Corporation Image processing device and method, and recording medium
KR100603159B1 (en) * 1997-07-31 2006-12-01 소니 가부시끼 가이샤 Image processing apparatus and image processing method
US7595819B2 (en) 2003-07-31 2009-09-29 Sony Corporation Signal processing device and signal processing method, program, and recording medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6115073A (en) * 1996-12-11 2000-09-05 Sony Corporation Signal converting apparatus and method using a class decision circuit
WO1998026607A1 (en) * 1996-12-11 1998-06-18 Sony Corporation Signal conversion device and method
US6356310B1 (en) 1996-12-11 2002-03-12 Sony Corporation Signal converting apparatus and method for converting a first digital picture into a second digital picture having a greater number of pixels than the first digital picture
KR100603159B1 (en) * 1997-07-31 2006-12-01 소니 가부시끼 가이샤 Image processing apparatus and image processing method
JP2002537696A (en) * 1999-02-12 2002-11-05 ソニー エレクトロニクス インク Classification adaptive space-time format conversion method and apparatus
US6912014B2 (en) 2000-02-10 2005-06-28 Sony Corporation Image processing device and method, and recording medium
JP2002064832A (en) * 2000-08-15 2002-02-28 Sony Corp Image signal processing apparatus, image signal processing method, learning device, learning method and recording medium
JP2002064836A (en) * 2000-08-15 2002-02-28 Sony Corp Image signal processing apparatus, image signal processing method, learning device, learning method and recording medium
JP4529253B2 (en) * 2000-08-15 2010-08-25 ソニー株式会社 Image signal processing apparatus, image signal processing method, learning apparatus, learning method, and recording medium
WO2004077828A1 (en) * 2003-02-27 2004-09-10 Sony Corporation Image processing device and method, learning device and method, recording medium, and program
CN100407787C (en) * 2003-02-27 2008-07-30 索尼株式会社 Image processing device and method, learning device and method, recording medium, and program
US7450764B2 (en) 2003-02-27 2008-11-11 Sony Corporation Image processing device and method, learning device and method, recording medium, and program
US7483565B2 (en) 2003-02-27 2009-01-27 Sony Corporation Image processing device and method, learning device and method, recording medium, and program
KR101023451B1 (en) * 2003-02-27 2011-03-24 소니 주식회사 Image processing device and method, learning device and method, recording medium, and program
JP2005051638A (en) * 2003-07-31 2005-02-24 Sony Corp Signal processing apparatus and signal processing method
US7595819B2 (en) 2003-07-31 2009-09-29 Sony Corporation Signal processing device and signal processing method, program, and recording medium

Also Published As

Publication number Publication date
JP3859089B2 (en) 2006-12-20

Similar Documents

Publication Publication Date Title
KR100465559B1 (en) Signal conversion apparatus and signal conversion method
EP0635978B1 (en) Image signal converter
US5946044A (en) Image signal converting method and image signal converting apparatus
US7881539B2 (en) Image processing apparatus and method, program recording medium, and program
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
JP3669530B2 (en) Image signal conversion apparatus and image signal conversion method
JP3781203B2 (en) Image signal interpolation apparatus and image signal interpolation method
US5966183A (en) Signal converter and signal conversion method
JP3859089B2 (en) Signal conversion apparatus and signal conversion method
US6057885A (en) Picture information converting apparatus and method thereof and sum-of-product calculating circuit and method thereof
US6263105B1 (en) Image processing apparatus and method
US6456655B1 (en) Image encoding using activity discrimination and color detection to control quantizing characteristics
JP3360695B2 (en) Image data quantization circuit
JP3671469B2 (en) Prediction coefficient learning method and signal conversion apparatus and method
JP3743077B2 (en) Image signal conversion apparatus and method
JP4235917B2 (en) Signal conversion apparatus and signal conversion method
JP4352298B2 (en) Arithmetic device, conversion device, and method thereof
JP4016138B2 (en) Image signal conversion apparatus and image signal conversion method
US8228995B2 (en) Image processing apparatus, image processing method, and program
JPH10112844A (en) Image processor and image processing method
JP4131049B2 (en) Signal processing apparatus and signal processing method
JP4016140B2 (en) Coefficient generation apparatus and coefficient generation method
JP4016139B2 (en) Coefficient generation apparatus and coefficient generation method
JP3750702B2 (en) Signal conversion apparatus and method
JP3824176B2 (en) Image signal conversion method, image signal conversion apparatus, and image signal transmission apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090929

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100929

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110929

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120929

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130929

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees