JP2004229313A - Storage, data processor and data processing method, program and recording medium, and data processing system - Google Patents

Storage, data processor and data processing method, program and recording medium, and data processing system Download PDF

Info

Publication number
JP2004229313A
JP2004229313A JP2004045109A JP2004045109A JP2004229313A JP 2004229313 A JP2004229313 A JP 2004229313A JP 2004045109 A JP2004045109 A JP 2004045109A JP 2004045109 A JP2004045109 A JP 2004045109A JP 2004229313 A JP2004229313 A JP 2004229313A
Authority
JP
Japan
Prior art keywords
data
tap
class
coefficient
generation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004045109A
Other languages
Japanese (ja)
Other versions
JP3918191B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004045109A priority Critical patent/JP3918191B2/en
Publication of JP2004229313A publication Critical patent/JP2004229313A/en
Application granted granted Critical
Publication of JP3918191B2 publication Critical patent/JP3918191B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To enhance the function of a television receiver additionally. <P>SOLUTION: An image processing card 13<SB>i</SB>stores creation information being used together with creation information stored in image processing cards 13<SB>1</SB>to 13<SB>i-1</SB>in order to obtain specified tap coefficients and that creation information is fed to an image processing interface 40. The image processing interface 40 creates tap coefficients from creation information in the image processing cards 13<SB>1</SB>to 13<SB>i</SB>set thereto. On the other hand, the image processing interface 40 extracts image data becoming a prediction tap being used for predicting a remarked pixel, and image data becoming a class tap being used for classifying the remarked pixels and then classifies the remarked pixels. Thereafter, the image processing interface 40 determines a remarked pixel from the tap coefficients of the class of remarked pixels and the prediction tap. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、記憶装置、データ処理装置およびデータ処理方法、プログラムおよび記録媒体、並びにデータ処理システムに関し、特に、例えば、テレビジョン受像機を、追加的に高機能化することができるようにする記憶装置、データ処理装置およびデータ処理方法、プログラムおよび記録媒体、並びにデータ処理システムに関する。   The present invention relates to a storage device, a data processing device and a data processing method, a program and a recording medium, and a data processing system, and in particular, to a storage device that enables, for example, a television receiver to have additional functions. The present invention relates to an apparatus, a data processing device and a data processing method, a program and a recording medium, and a data processing system.

例えば、テレビジョン受像機においては、テレビジョン放送信号が受信され、テレビジョン放送番組としての画像が表示されるとともに、その画像に付随する音声が出力される。   For example, a television receiver receives a television broadcast signal, displays an image as a television broadcast program, and outputs sound accompanying the image.

ところで、近年においては、テレビジョン受像機におけるY/C分離処理その他の各種の信号処理は、急速に高機能化しており、より高機能の信号処理を行うテレビジョン受像機が、次々に開発、販売されている。   By the way, in recent years, the Y / C separation processing and other various signal processing in a television receiver have rapidly become sophisticated, and television receivers for performing more sophisticated signal processing have been developed one after another. Sold.

しかしながら、従来においては、ユーザが所有しているテレビジョン受像機よりも高機能の信号処理を行うテレビジョン受像機が販売された場合には、ユーザは、テレビジョン受像機を買い換えない限り、その高機能を享受することができなかった。   However, conventionally, when a television receiver that performs signal processing with higher functions than the television receiver owned by the user is sold, the user is required to replace the television receiver unless the user replaces the television receiver. Could not enjoy the high functionality.

一方、例えば、コンピュータにおいては、画像処理ボードや音声処理ボード等の、所定の機能を有するボードの装着が可能となっており、例えば、テレビジョン放送を受信してMPEGエンコードを行う画像処理ボードを、コンピュータに装着することで、そのコンピュータにおいては、テレビジョン放送番組を、リアルタイムで、MPEGエンコードしながら録画することが可能となる。   On the other hand, for example, in a computer, a board having a predetermined function such as an image processing board or an audio processing board can be mounted. For example, an image processing board that receives a television broadcast and performs MPEG encoding is provided. By mounting it on a computer, the computer can record a television broadcast program in real time while MPEG encoding.

そこで、テレビジョン受像機も、コンピュータと同様に、新たな機能を追加するためのボードを装着可能なように構成することが考えられる。この場合、ユーザは、新たな機能の信号処理を行うボードを購入し、自身が所有するテレビジョン受像機に装着することで、テレビジョン受像機自体を買い換えなくても、新たな機能を享受することが可能となる。   Therefore, it is conceivable that the television receiver is configured so that a board for adding a new function can be mounted, similarly to the computer. In this case, the user can enjoy a new function without purchasing a new television receiver by purchasing a board for performing signal processing of a new function and mounting the board on a television receiver owned by the user. It becomes possible.

しかしながら、ある機能の信号処理を行うボードの販売後に、その機能をより高機能化した信号処理を行うボードが新たに販売された場合には、前に販売されたボードは不要になる。   However, if a board that performs signal processing for a certain function is sold and then a board that performs signal processing with a higher function is newly sold, the previously sold board becomes unnecessary.

従って、上述したように、信号処理が急速に高機能化している現在においては、ある機能のボードが販売されても、すぐに、より高機能のボードが販売されることから、ユーザがボードを購入しようとするインセンティブが働きにくくなることになる。   Therefore, as described above, in the present day when signal processing is rapidly becoming sophisticated, even if a board with a certain function is sold, a board with a higher function is sold immediately, so that the user can change the board. Incentives to buy will be less effective.

一方、あるボードの機能を享受するために、それ以前に販売されたボードが必要であれば、即ち、以前に販売されたボードに、新たに販売されたボードを追加することによって、テレビジョン受像機の機能が、追加的に高機能化されるのであれば、ユーザがボードを購入しようとするインセンティブが働きやすくなる。   On the other hand, if a previously sold board is needed to enjoy the function of a certain board, that is, by adding a newly sold board to the previously sold board, If the function of the machine is additionally enhanced, the incentive for the user to purchase the board is more likely to work.

本発明は、このような状況に鑑みてなされたものであり、テレビジョン受像機等を、追加的に高機能化することができるようにするものである。   The present invention has been made in view of such a situation, and aims to additionally enhance the functions of a television receiver or the like.

本発明の第1の記憶装置は、第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する生成情報記憶手段と、データ処理装置による制御にしたがって、生成情報から、タップ係数を生成するタップ係数生成手段と、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、データ処理装置から供給される第1のデータから抽出する予測タップ抽出手段と、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、データ処理装置から供給される第1のデータから抽出するクラスタップ抽出手段と、クラスタップに基づいて、注目データをクラス分類するクラス分類手段と、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測し、データ処理装置に供給する予測手段とを備えることを特徴とする。   The first storage device of the present invention generates a tap coefficient for each predetermined class for performing a data conversion process of converting first data into second data having higher quality than the first data. Generation information storage means for storing generation information for generating, tap coefficient generation means for generating a tap coefficient from the generation information according to the control of the data processing device, and a target data of interest among the second data. A prediction tap extracting means for extracting a prediction tap used for prediction from the first data supplied from the data processing device; and a class classification for classifying the data of interest into one of a plurality of classes. Class tap extraction means for extracting the class tap used for the first processing from the first data supplied from the data processing device; And class classification means for scan classification, the tap coefficients of the class for the target data, and a prediction tap, predicts the target data, characterized by comprising a prediction means for supplying to the data processing device.

本発明の第1のデータ処理方法は、データ処理装置による制御にしたがって、生成情報から、タップ係数を生成するタップ係数生成ステップと、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、データ処理装置から供給される第1のデータから抽出する予測タップ抽出ステップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、データ処理装置から供給される第1のデータから抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目データをクラス分類するクラス分類ステップと、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測し、データ処理装置に供給する予測ステップとを備えることを特徴とする。   According to a first data processing method of the present invention, a tap coefficient generating step of generating a tap coefficient from generated information and a target data of interest among the second data are predicted under the control of the data processing device. A prediction tap extraction step of extracting a prediction tap used in the first processing from the first data supplied from the data processing device, and a classification of classifying the data of interest into one of a plurality of classes. Class tap extracting step of extracting a class tap to be extracted from the first data supplied from the data processing device, a class classification step of classifying the target data based on the class tap, and a tap coefficient of a class for the target data And a prediction tap for predicting target data from the prediction tap and supplying the predicted data to the data processing device. It is characterized in.

本発明の第1のプログラムは、データ処理装置による制御にしたがって、生成情報から、タップ係数を生成するタップ係数生成ステップと、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、データ処理装置から供給される第1のデータから抽出する予測タップ抽出ステップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、データ処理装置から供給される第1のデータから抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目データをクラス分類するクラス分類ステップと、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測し、データ処理装置に供給する予測ステップとを備えることを特徴とする。   According to a first program of the present invention, a tap coefficient generation step of generating a tap coefficient from generation information under control of a data processing device, and predicting target data of interest among second data. A prediction tap extraction step of extracting a prediction tap to be used from first data supplied from a data processing device, and a class used to perform a class classification of classifying the data of interest into one of a plurality of classes. A class tap extracting step of extracting taps from the first data supplied from the data processing device, a class classification step of classifying the data of interest based on the class taps, a tap coefficient of a class for the data of interest, A prediction step of predicting target data from the prediction tap and supplying the predicted data to the data processing device. The features.

本発明の第1の記録媒体は、データ処理装置による制御にしたがって、生成情報から、タップ係数を生成するタップ係数生成ステップと、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、データ処理装置から供給される第1のデータから抽出する予測タップ抽出ステップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、データ処理装置から供給される第1のデータから抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目データをクラス分類するクラス分類ステップと、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測し、データ処理装置に供給する予測ステップとを備えるプログラムが記録されていることを特徴とする。   According to the first recording medium of the present invention, according to the control of the data processing device, a tap coefficient generating step of generating a tap coefficient from the generation information, and predicting a target data of interest among the second data. Is used to perform a prediction tap extraction step of extracting a prediction tap used in the first data from the first data supplied from the data processing device, and a class classification of classifying the data of interest into one of a plurality of classes. A class tap extracting step of extracting a class tap from the first data supplied from the data processing device, a class classification step of classifying the data of interest based on the class tap, and a tap coefficient of a class for the data of interest. A prediction step of predicting data of interest from the prediction tap and supplying the data to the data processing device. Ram, characterized in that it has been properly recorded.

本発明の第1のデータ処理装置は、第1乃至第Nの記憶手段が装着される着脱手段と、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成を制御するタップ係数生成制御手段と、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定手段と、入出力ルート設定手段において設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御手段とを備えることを特徴とする。   According to a first data processing apparatus of the present invention, there is provided an attaching / detaching unit to which the first to Nth storage units are attached, and generating information in the first to N ′ (≦ N) storage units attached to the attaching / detaching unit. Tap coefficient generation control means for controlling the generation of tap coefficients from the memory, input / output route setting means for setting an input / output route of data to each of the first to N'th storage devices, and input / output route setting means. Data supply control means for controlling the supply of data from one storage device of the first to N 'storage devices to another storage device in accordance with the input / output route.

本発明の第2のデータ処理方法は、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成を制御するタップ係数生成制御ステップと、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定ステップと、入出力ルート設定ステップにおいて設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御ステップとを備えることを特徴とする。   A second data processing method according to the present invention includes a tap coefficient generation control step of controlling generation of tap coefficients from generation information in first to N ′ (≦ N) storage devices attached to the attaching / detaching means; An input / output route setting step for setting an input / output route of data to each of the first to N'th storage devices; and an input / output route set in the input / output route setting step. A data supply control step of controlling data supply from one of the storage devices to the other storage device.

本発明の第2のプログラムは、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成を制御するタップ係数生成制御ステップと、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定ステップと、入出力ルート設定ステップにおいて設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御ステップとを備えることを特徴とする。   A second program according to the present invention includes a tap coefficient generation control step of controlling generation of tap coefficients from generation information in first to N ′ (≦ N) storage devices attached to the attaching / detaching means; An input / output route setting step of setting an input / output route of data to each of the storage devices of the first to N′th storage units; A data supply control step of controlling data supply from one storage device to another storage device.

本発明の第2の記録媒体は、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成を制御するタップ係数生成制御ステップと、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定ステップと、入出力ルート設定ステップにおいて設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御ステップとを備えるプログラムが記録されていることを特徴とする。   A second recording medium according to the present invention includes a tap coefficient generation control step of controlling generation of tap coefficients from generation information in first to N ′ (≦ N) storage devices attached to the attaching / detaching means; An input / output route setting step for setting an input / output route of data to each of the first to N'th storage devices; and an input / output route set in the input / output route setting step. A data supply control step of controlling data supply from one storage device to another storage device.

本発明の第1のデータ処理システムは、第1乃至第Nの記憶装置それぞれが、タップ係数を生成するための生成情報を記憶する生成情報記憶手段と、データ処理装置による制御にしたがって、生成情報から、タップ係数を生成するタップ係数生成手段と、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、データ処理装置から供給される第1のデータから抽出する予測タップ抽出手段と、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、データ処理装置から供給される第1のデータから抽出するクラスタップ抽出手段と、クラスタップに基づいて、注目データをクラス分類するクラス分類手段と、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測し、データ処理装置に供給する予測手段とを備え、データ処理装置が、第1乃至第Nの記憶手段が装着される着脱手段と、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成を制御するタップ係数生成制御手段と、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定手段と、入出力ルート設定手段において設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御手段とを備えることを特徴とする。   In the first data processing system of the present invention, each of the first to Nth storage devices stores generation information according to control by the data processing device, and generation information storage means for storing generation information for generating tap coefficients. Extracting, from the first data supplied from the data processing device, a tap coefficient generating means for generating a tap coefficient, and a prediction tap used for predicting the noted data of interest among the second data. Prediction tap extracting means, and a class tap for extracting, from the first data supplied from the data processing device, a class tap used for performing class classification for classifying the data of interest into one of a plurality of classes Extraction means, class classification means for classifying the data of interest based on the class tap, and tap coefficient of the class for the data of interest , A prediction tap for predicting target data from the prediction tap and supplying the data to the data processing device, wherein the data processing device is attached to and detached from the first to Nth storage units, and attached to the detachment unit. Tap coefficient generation control means for controlling generation of tap coefficients from generation information in the first to N'th (≤N) storage devices, and a data input / output route to each of the first to N'th storage devices And data according to the input / output route set by the input / output route setting means, from one storage device of the first to N ′ storage devices to another storage device. Data supply control means for controlling the supply of data.

本発明の第2のデータ処理装置は、第1乃至第Nの記憶手段が装着される着脱手段と、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数を生成するタップ係数生成手段と、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータを抽出する予測タップ抽出手段と、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータを抽出するクラスタップ抽出手段と、クラスタップに基づいて、注目データをクラス分類するクラス分類手段と、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測する予測手段とを備えることを特徴とする。   The second data processing device according to the present invention is characterized in that the attaching / detaching unit to which the first to Nth storage units are attached and the information generated in the first to N'th (≦ N) storage units attached to the attaching / detaching unit. Tap coefficient generating means for generating tap coefficients; predictive tap extracting means for extracting first data to be used as predictive taps used for predicting data of interest of the second data; Class tap extracting means for extracting first data which is used as a class tap for classifying data into any one of a plurality of classes; and classifying the data of interest based on the class tap. And a prediction means for predicting the data of interest from the tap coefficient of the class for the data of interest and the prediction tap.

本発明の第3のデータ処理方法は、データ処理装置に装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数を生成するタップ係数生成ステップと、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータを抽出する予測タップ抽出ステップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータを抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目データをクラス分類するクラス分類ステップと、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測する予測ステップとを備えることを特徴とする。   According to a third data processing method of the present invention, there is provided a tap coefficient generating step of generating a tap coefficient from generation information in first to N ′ (≦ N) storage devices attached to a data processing device; A predictive tap extracting step of extracting first data to be used as a predictive tap used for predicting target data of interest among data; and a class for classifying the target data into one of a plurality of classes. A class tap extracting step of extracting first data as a class tap used for performing classification; a class classification step of classifying the data of interest based on the class tap; and a tap coefficient of a class for the data of interest. And a prediction tap for predicting the data of interest from the prediction tap.

本発明の第3のプログラムは、データ処理装置に装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数を生成するタップ係数生成ステップと、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータを抽出する予測タップ抽出ステップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータを抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目データをクラス分類するクラス分類ステップと、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測する予測ステップとを備えることを特徴とする。   A third program according to the present invention includes a tap coefficient generation step of generating a tap coefficient from generation information in first to N ′ (≦ N) storage devices attached to a data processing device; A prediction tap extraction step of extracting first data as prediction taps used for predicting the data of interest, and a class classification of classifying the data of interest into one of a plurality of classes. A class tap extracting step of extracting first data to be used as a class tap to be performed, a class classifying step of classifying target data based on the class tap, a tap coefficient of a class for the target data, and a prediction A prediction step of predicting target data from a tap.

本発明の第3の記録媒体は、データ処理装置に装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数を生成するタップ係数生成ステップと、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータを抽出する予測タップ抽出ステップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータを抽出するクラスタップ抽出ステップと、クラスタップに基づいて、注目データをクラス分類するクラス分類ステップと、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測する予測ステップとを備えるプログラムが記録されていることを特徴とする。   A third recording medium according to the present invention includes a tap coefficient generation step of generating a tap coefficient from generation information in first to N ′ (≦ N) storage devices mounted on a data processing device; Prediction tap extracting step of extracting first data as prediction taps used for predicting the data of interest of interest, and class classification of classifying the data of interest into one of a plurality of classes A class tap extraction step of extracting first data as a class tap used to perform the class tap; a class classification step of classifying the data of interest based on the class tap; a tap coefficient of a class for the data of interest; A program including a prediction tap and a prediction step of predicting target data from the prediction tap is recorded.

本発明の第2のデータ処理システムは、第1乃至第Nの記憶装置それぞれが、生成情報であって、その生成情報と、他の記憶装置に記憶された生成情報とからタップ係数が求められるものを記憶する生成情報記憶手段と、生成情報を、データ処理装置に供給する生成情報供給手段とを備え、データ処理装置が、第1乃至第Nの記憶手段が装着される着脱手段と、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数を生成するタップ係数生成手段と、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータを抽出する予測タップ抽出手段と、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータを抽出するクラスタップ抽出手段と、クラスタップに基づいて、注目データをクラス分類するクラス分類手段と、注目データについてのクラスのタップ係数と、予測タップとから、注目データを予測する予測手段とを備えることを特徴とする。   In the second data processing system of the present invention, each of the first to Nth storage devices is generated information, and a tap coefficient is obtained from the generated information and the generated information stored in another storage device. And a generation information supply unit for supplying the generation information to the data processing device, wherein the data processing device comprises: a detachable unit to which the first to Nth storage units are attached; A tap coefficient generation unit for generating a tap coefficient, based on the generation information in the first to N ′ (≦ N) storage devices attached to the unit, and a target data of interest among the second data is predicted Predictive tap extracting means for extracting first data to be used as predictive taps, and class taps for performing class classification for classifying target data into one of a plurality of classes. Class tap extracting means for extracting first data to be extracted, class classifying means for classifying the target data based on the class taps, predicting the target data from the tap coefficients of the class for the target data, and predicting taps And a prediction unit that performs the prediction.

本発明の第1の記憶装置および第1のデータ処理方法、並びに第1のプログラムおよび第1の記録媒体においては、データ処理装置による制御にしたがって、生成情報から、タップ係数が生成される。また、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップが、データ処理装置から供給される第1のデータから抽出される。さらに、クラスタップに基づいて、注目データがクラス分類され、注目データについてのクラスのタップ係数と、予測タップとから、注目データが予測されて、データ処理装置に供給される。   In the first storage device, the first data processing method, the first program, and the first recording medium of the present invention, a tap coefficient is generated from generation information according to control by the data processing device. Further, a prediction tap used for predicting the target data of interest in the second data, and a class used for performing class classification for classifying the target data into any of a plurality of classes Taps are extracted from the first data supplied from the data processing device. Further, the data of interest is classified based on the class tap, and the data of interest is predicted from the tap coefficient of the class for the data of interest and the prediction tap, and is supplied to the data processing device.

本発明の第1のデータ処理装置および第2のデータ処理方法、並びに第2のプログラムおよび第2の記録媒体においては、着脱手段に装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成が制御され、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートが設定される。そして、その設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給が制御される。   In the first data processing device and the second data processing method, and the second program and the second recording medium of the present invention, the first to N ′ (≦ N) storage devices mounted on the attaching / detaching means , The generation of tap coefficients from the generation information is controlled, and the data input / output routes for the first to N'th storage devices are set. In accordance with the set input / output route, the supply of data from one storage device of the first to N ′ storage devices to another storage device is controlled.

本発明の第1のデータ処理システムにおいては、第1乃至第Nの記憶装置それぞれにおいて、データ処理装置による制御にしたがって、生成情報から、タップ係数が生成される。また、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップが、データ処理装置から供給される第1のデータから抽出される。さらに、クラスタップに基づいて、注目データがクラス分類され、注目データについてのクラスのタップ係数と、予測タップとから、注目データが予測されて、データ処理装置に供給される。一方、データ処理装置では、それに装着された第1乃至第N'(≦N)の記憶装置における、生成情報からのタップ係数の生成が制御され、第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートが設定される。そして、その設定された入出力ルートにしたがって、第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給が制御される。   In the first data processing system of the present invention, a tap coefficient is generated from the generated information in each of the first to Nth storage devices according to control by the data processing device. Further, a prediction tap used for predicting the target data of interest in the second data, and a class used for performing class classification for classifying the target data into any of a plurality of classes Taps are extracted from the first data supplied from the data processing device. Further, the data of interest is classified based on the class tap, and the data of interest is predicted from the tap coefficient of the class for the data of interest and the prediction tap, and is supplied to the data processing device. On the other hand, in the data processing device, the generation of tap coefficients from the generation information in the first to N ′ (≦ N) storage devices attached thereto is controlled, and the data for each of the first to N ′ storage devices is controlled. Is set. In accordance with the set input / output route, the supply of data from one storage device of the first to N ′ storage devices to another storage device is controlled.

本発明の第2のデータ処理装置および第3のデータ処理方法、並びに第3のプログラムおよび第3の記録媒体においては、データ処理装置に装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数が生成される。また、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータが抽出される。さらに、クラスタップに基づいて、注目データがクラス分類され、注目データについてのクラスのタップ係数と、予測タップとから、注目データが予測される。   In the second data processing device and the third data processing method, and the third program and the third recording medium of the present invention, the first to N ′ (≦ N) storages mounted on the data processing device A tap coefficient is generated from the generation information in the device. Further, first data as a prediction tap used for predicting attention data of interest out of the second data, and a class classification for classifying the attention data into one of a plurality of classes are provided. First data is extracted as a class tap used for performing. Further, the target data is classified into classes based on the class taps, and the target data is predicted from the tap coefficients of the class of the target data and the prediction taps.

本発明の第2のデータ処理システムにおいては、第1乃至第Nの記憶装置それぞれにおいて、生成情報であって、その生成情報と、他の記憶装置に記憶された生成情報とからタップ係数が求められるものが記憶され、その生成情報が、データ処理装置に供給される。一方、データ処理装置では、そこに装着された第1乃至第N'(≦N)の記憶装置における生成情報から、タップ係数が生成される。また、第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする第1のデータと、注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする第1のデータが抽出される。そして、クラスタップに基づいて、注目データがクラス分類され、注目データについてのクラスのタップ係数と、予測タップとから、注目データが予測される。   In the second data processing system of the present invention, in each of the first to Nth storage devices, a tap coefficient is obtained from the generated information and the generated information stored in another storage device. Is generated, and the generated information is supplied to the data processing device. On the other hand, in the data processing device, the tap coefficient is generated from the generation information in the first to N ′ (≦ N) storage devices attached thereto. Further, first data as a prediction tap used for predicting attention data of interest out of the second data, and a class classification for classifying the attention data into one of a plurality of classes are provided. First data is extracted as a class tap used for performing. Then, the target data is classified into classes based on the class taps, and the target data is predicted from the tap coefficients of the class of the target data and the prediction taps.

本発明によれば、装置の機能を、追加的に高機能化することができる。   According to the present invention, the functions of the device can be additionally enhanced.

図1は、本発明を適用したテレビジョン受像機の一実施の形態の外観構成例を示している。   FIG. 1 shows an example of an external configuration of a television receiver according to an embodiment of the present invention.

図1の実施の形態において、テレビジョン受像機は、本体1とリモコン(リモートコントローラ)2から構成されている。   In the embodiment shown in FIG. 1, the television receiver includes a main body 1 and a remote controller (remote controller) 2.

本体1の正面には、CRT(Cathod Ray Tube)11が設けられており、CRT11には、例えば、テレビジョン放送番組等の画像が表示される。   A CRT (Cathod Ray Tube) 11 is provided on the front of the main body 1, and displays an image such as a television broadcast program on the CRT 11.

また、本体1の下部には、6つのスロット121乃至126が設けられている。スロット12iには、画像処理カード13jを着脱することができるようになっている。 Further, in the lower portion of the main body 1, 1 to 12 6 six slots 12 are provided. The slot 12 i is adapted to be able to attach and detach the image processing card 13 j.

なお、図1の実施の形態では、6つのスロット121乃至126のうちのスロット121には、いわばデフォルトの画像処理カード131が既に装着されており、さらに、そのスロット121は、そこに最初から装着されている画像処理カード131を容易に抜き差しすることができないように、カバーで覆われている。 Incidentally, in the embodiment shown in FIG. 1, six in slot 12 1 of the slots 12 1 to 12 6 is as it were mounted default image processing card 13 1 is already further the slot 12 1, there so can not be easily inserted and removed an image processing card 13 1 is mounted from the start, are covered with a cover.

また、図1の実施の形態では、6つのスロット121乃至126が設けられているが、スロット数は、6スロットに限定されるものではなく、5スロット以下や7スロット以上とすることが可能である。 Further, in the embodiment shown in FIG. 1, although six slots 12 1 to 12 6 are provided, the number of slots is not limited to six slots, be 5 slots less and 7 slots or It is possible.

画像処理カード13は、テレビジョン受像機の本体1に機能を付加していくことができるIC(Integrated Curcuit)カードまたはメモリカードで、スロット12iに装着することで、ユーザに、後述するような各種の機能を提供する。 The image processing card 13, in IC (Integrated Curcuit) card or a memory card that can continue to add functionality to the main body 1 of the television receiver, by attaching to the slot 12 i, the user, as described below Provides various functions.

ここで、画像処理カード13としては、例えば、PCMCIA(Personal Computer Memory Card International Association)等の既存の規格に準拠したものを採用することができる。但し、画像処理カード13としては、独自規格のものを採用することも可能である。   Here, as the image processing card 13, for example, a card conforming to an existing standard such as PCMCIA (Personal Computer Memory Card International Association) can be adopted. However, it is also possible to adopt a unique standard as the image processing card 13.

リモコン2は、本体1における受信チャンネルや音量の変更その他を指示を与えるときに操作される。そして、リモコン2は、その操作に対応した赤外線を出射し、本体1では、この赤外線が受光され、リモコン2の操作に対応した処理が行われる。   The remote controller 2 is operated when giving an instruction to change the reception channel and volume of the main body 1 and the like. The remote controller 2 emits an infrared ray corresponding to the operation, and the main body 1 receives the infrared ray and performs a process corresponding to the operation of the remote controller 2.

なお、リモコン2としては、赤外線の他、例えば、Bluetooth(商標)等の電波を出射するものを採用することが可能である。   In addition, as the remote controller 2, for example, a remote controller that emits a radio wave such as Bluetooth (trademark) other than infrared rays can be adopted.

次に、図2は、図1の本体1の背面を示している。   Next, FIG. 2 shows a rear surface of the main body 1 of FIG.

本体1の背面には、図示せぬアンテナ(に接続されたケーブル)が接続されるアンテナ端子21、本体1に画像および音声を入力する入力端子22、並びに本体1から画像および音声を出力する出力端子23が設けられている。   An antenna terminal 21 to which an antenna (not shown) is connected, an input terminal 22 for inputting an image and a voice to the main body 1, and an output for outputting an image and a voice from the main body 1 are provided on the back of the main body 1. A terminal 23 is provided.

なお、図1の実施の形態において、本体1の正面に設けたスロット121乃至126は、図2に示すように、本体1の背面に設けるようにすることが可能である。 In the embodiments of Figure 1, slots 12 1 to 12 6 provided on the front of the body 1, as shown in FIG. 2, it is possible to be provided on the rear surface of the main body 1.

また、スロット121乃至126は、そのすべてを、本体1の正面または背面のうちのいずれか一方に設けるのではなく、一部を正面に、残りを背面に、それぞれ設けるようにすることが可能である。 Further, the slot 12 1 to 12 6, all of them, instead of providing on either of the front or rear of the main body 1, a part in front, the rest to the back, to be so provided, respectively It is possible.

さらに、本実施の形態では、画像処理カード13jをPCMCIAカードのように構成するようにしたが、画像処理カード13jは、その他、例えば、コンピュータの増設メモリなどで採用されているPCI(Peripheral Component Interconnect)カードのように構成することが可能である。この場合、スロット12iは、PCIカードを装着することのできるコネクタのように構成する必要がある。 Furthermore, in the present embodiment, the image processing card 13 j is configured as a PCMCIA card. However, the image processing card 13 j may be replaced by a PCI (Peripheral Component Interconnect) cards. In this case, the slot 12 i needs to be configured as a connector to which a PCI card can be attached.

次に、図3は、図1の本体1の電気的構成例を示している。   Next, FIG. 3 shows an example of an electrical configuration of the main body 1 of FIG.

チューナ31には、アンテナ端子21から、図示せぬアンテナで受信された受信信号が供給されるようになっており、チューナ31は、コントローラ37の制御の下、所定のチャンネルのテレビジョン放送信号を検波、復調し、A/D(Analog/Digital)変換器32に供給する。   A received signal received by an antenna (not shown) is supplied from the antenna terminal 21 to the tuner 31. The tuner 31 transmits a television broadcast signal of a predetermined channel under the control of the controller 37. The signal is detected and demodulated and supplied to an A / D (Analog / Digital) converter 32.

A/D変換器32は、チューナ31からのテレビジョン放送信号をA/D変換し、そのA/D変換結果のうちの画像データを、Y/C分離部33に供給する。   The A / D converter 32 A / D converts the television broadcast signal from the tuner 31 and supplies the image data of the A / D conversion result to the Y / C separation unit 33.

ここで、A/D変換器32は、テレビジョン放送信号のうちの音声データも出力するが、この音声データは、図示せぬスピーカに供給されて出力される。   Here, the A / D converter 32 also outputs audio data of the television broadcast signal, and the audio data is supplied to a speaker (not shown) and output.

Y/C分離部33は、A/D変換器32からの画像データについて、Y/C分離を行い、セレクタ34に供給する。セレクタ34は、コントローラ37の制御にしたがい、Y/C分離部33から供給される画像データ、または入力端子22から供給される画像データのうちのいずれか一方を選択し、フレームメモリ35に供給する。   The Y / C separation section 33 performs Y / C separation on the image data from the A / D converter 32 and supplies the image data to the selector 34. The selector 34 selects one of the image data supplied from the Y / C separation unit 33 and the image data supplied from the input terminal 22 under the control of the controller 37 and supplies the selected data to the frame memory 35. .

フレームメモリ35は、セレクタ34から供給される画像データを記憶し、そのまま、出力端子23およびマトリクス変換部36に供給する。あるいは、また、フレームメモリ35は、セレクタ34から供給される画像データを記憶し、その記憶した画像データを、画像処理インタフェース40に供給する。さらに、フレームメモリ35は、画像処理インタフェース40から供給される、所定の画像処理が施された画像データを記憶し、出力端子23およびマトリクス変換部36に供給する。   The frame memory 35 stores the image data supplied from the selector 34 and supplies the image data to the output terminal 23 and the matrix conversion unit 36 as they are. Alternatively, the frame memory 35 stores the image data supplied from the selector 34, and supplies the stored image data to the image processing interface 40. Further, the frame memory 35 stores the image data subjected to the predetermined image processing supplied from the image processing interface 40, and supplies the image data to the output terminal 23 and the matrix conversion unit 36.

なお、フレームメモリ35は、例えば、1フレーム(またはフィールド)分の画像データを記憶することのできる、少なくとも第1乃至第4のバンクを有している。そして、フレームメモリ35では、第1と第2のバンクに、交互に、セレクタ34からの画像データが書き込まれるとともに、その第1と第2のバンクのうちの、セレクタ34からの画像データの書き込みが行われていない方のバンクから、画像データが読み出され、画像処理インタフェース40に供給される。さらに、フレームメモリ35では、第3と第4のバンクに、交互に、画像処理インタフェース40が出力する画像データが書き込まれるとともに、その第3と第4のバンクのうち、画像処理インタフェース40からの画像データの書き込みが行われていない方のバンクから、画像データが読みされ、マトリクス変換部36に供給される。   The frame memory 35 has at least first to fourth banks capable of storing image data for one frame (or field), for example. In the frame memory 35, the image data from the selector 34 is alternately written to the first and second banks, and the image data from the selector 34 of the first and second banks is written. The image data is read from the bank in which is not performed, and is supplied to the image processing interface 40. Further, in the frame memory 35, the image data output from the image processing interface 40 is alternately written to the third and fourth banks, and the image data from the image processing interface 40 among the third and fourth banks is written. The image data is read from the bank to which the image data has not been written, and is supplied to the matrix conversion unit 36.

フレームメモリ35では、例えば、上述のようなバンク切り換えが行われることによって、セレクタ34から供給される画像データの記憶、画像処理インタフェース40への画像データの読み出し、画像処理インタフェース40からの画像データの書き込み、およびマトリクス変換部36への画像データの読み出しをリアルタイムで行うことができるようになっている。   The frame memory 35 stores the image data supplied from the selector 34, reads out the image data to the image processing interface 40, and stores the image data from the image processing interface 40 by performing the bank switching as described above. Writing and reading of image data to the matrix conversion unit 36 can be performed in real time.

マトリクス変換部36は、フレームメモリ35から供給される画像データを、RGB(Red,Green,Blue)の画像データに変換し、D/A変換して出力する。マトリクス変換部36が出力する画像データは、CRT11に供給されて表示される。   The matrix conversion unit 36 converts the image data supplied from the frame memory 35 into RGB (Red, Green, Blue) image data, performs D / A conversion, and outputs the result. The image data output from the matrix conversion unit 36 is supplied to the CRT 11 and displayed.

コントローラ37は、CPU(Central Processing Unit)37A,EEPROM(Electrically Erasable Programable Read Only Memory)37B,RAM(Random Access Memory)37Cなどから構成され、チューナ31や、セレクタ34,通信インタフェース38、および画像処理インタフェース40などを制御する。   The controller 37 includes a CPU (Central Processing Unit) 37A, an EEPROM (Electrically Erasable Programmable Read Only Memory) 37B, a RAM (Random Access Memory) 37C, and the like. The tuner 31, the selector 34, the communication interface 38, and the image processing interface 40 and the like are controlled.

即ち、CPU37A、EEPROM37Bに記憶されているプログラムにしたがって各種の処理を実行し、これにより、例えば、チューナ31や、セレクタ34、通信インタフェース38、および画像処理インタフェース40を制御する。また、CPU37Aは、IR(Infrared Ray)インタフェース39から供給されるコマンドに対応した処理を実行する。さらに、CPU37Aは、通信インタフェース38を制御することにより、電話回線等を通じて、図示せぬサーバにアクセスし、バージョンアップされたプログラムや必要なデータを取得する。   That is, various processes are executed in accordance with programs stored in the CPU 37A and the EEPROM 37B, thereby controlling, for example, the tuner 31, the selector 34, the communication interface 38, and the image processing interface 40. Further, the CPU 37A executes a process corresponding to the command supplied from the IR (Infrared Ray) interface 39. Further, by controlling the communication interface 38, the CPU 37A accesses a server (not shown) via a telephone line or the like, and acquires an upgraded program and necessary data.

EEPROM37Bは、電源オフ後も保持しておきたいデータやプログラムを記憶する。なお、EEPROM37Bに記憶されたデータやプログラムは、そこに上書きすることで、バージョンアップすることができる。   The EEPROM 37B stores data and programs to be retained even after the power is turned off. The data and programs stored in the EEPROM 37B can be upgraded by overwriting the data and programs.

RAM37Cは、CPU37Aの動作上必要なデータやプログラムを一時記憶する。   The RAM 37C temporarily stores data and programs necessary for the operation of the CPU 37A.

通信インタフェース38は、例えば、アナログモデムや、ADSL(Asymmetric Digital Subscriber Line)モデム、DSU(Digital Service Unit)およびTA(Terminal Adapter)、LAN(Local Area Network)カードなどで構成され、コントローラ37の制御の下、電話回線その他の通信回線を介しての通信制御を行う。   The communication interface 38 includes, for example, an analog modem, an ADSL (Asymmetric Digital Subscriber Line) modem, a DSU (Digital Service Unit) and a TA (Terminal Adapter), a LAN (Local Area Network) card, and the like. Below, communication control via a telephone line or other communication lines is performed.

IRインタフェース39は、リモコン2からの赤外線を受光して光電変換し、対応する電気信号を、コントローラ37に供給する。   The IR interface 39 receives the infrared rays from the remote controller 2, performs photoelectric conversion, and supplies a corresponding electric signal to the controller 37.

画像処理インタフェース40は、画像処理カード131乃至136が装着されるスロット121乃至126を有しており、そのスロット12iに装着された画像処理カード13jとともに、フレームメモリ35に記憶された画像データに対して、後述するような画像処理(データ変換処理)を施す。 The image processing interface 40, image processing card 13 1 to 13 6 has a slot 12 1 to 12 6 to be mounted, together with the attached image processing card 13 j in the slot 12 i, stored in the frame memory 35 Image processing (data conversion processing) to be described later is performed on the processed image data.

なお、図3の実施の形態では、画像処理カード13iが、スロット12iに装着されるようになっているが、画像処理カード13iは、6つのスロット121乃至126のうちの任意のスロットに装着することが可能である。但し、本実施の形態では、説明を簡単にするため、画像処理カード13iは、スロット12iに装着されるものとする。 In the embodiment of FIG. 3, the image processing card 13 i is, but is adapted to be mounted in the slot 12 i, the image processing card 13 i is any of the six slots 12 1 to 12 6 Slot. However, in the present embodiment, it is assumed that the image processing card 13 i is installed in the slot 12 i for simplicity of description.

また、本実施の形態では、画像処理インタフェース40には、6つのスロット121乃至126が設けられており、従って、6種類の画像処理カード131乃至136を装着することができるようになっている。図3の実施の形態では、スロット121乃至123に、3種類の画像処理カード131乃至133がそれぞれ装着されている。 Further, in the present embodiment, the image processing interface 40, six slots 12 1 to 12 6 is provided, therefore, to be able to mount the 6 types of image processing card 13 1 through 13 6 Has become. In the embodiment of FIG. 3, the slot 12 1 to 12 3, three types of image processing card 13 1 through 13 3 are respectively mounted.

さらに、本実施の形態では、スロット12i内部には、所定の端子が設けられており、この端子と、画像処理カード13iとが物理的に接触することで、画像処理カード13iと、画像処理インタフェース40とが電気的に接続され、それらの間で各種のデータがやりとりされる。但し、画像処理カード13iと、画像処理インタフェース40との間のデータのやりとりは、その他、無線通信によって行うようにすることも可能である。 Further, in the present embodiment, a predetermined terminal is provided inside the slot 12 i , and when the terminal and the image processing card 13 i are in physical contact, the image processing card 13 i The image processing interface 40 is electrically connected, and various data is exchanged between them. However, data exchange between the image processing card 13 i and the image processing interface 40 can be performed by wireless communication.

次に、図4は、リモコン2の構成例を示す平面図である。   Next, FIG. 4 is a plan view illustrating a configuration example of the remote controller 2.

セレクトボタンスイッチ51は、上下左右方向の4つの方向の他、その中間の4つの斜め方向の合計8個の方向に操作(方向操作)することができる。さらに、セレクトボタンスイッチ51は、リモコン2の上面に対して垂直方向にも押下操作(セレクト操作)することができる。メニューボタンスイッチ54は、本体1のCRT11に、各種の設定や、所定の処理を行うことを指令するコマンドの入力を行うためのメニュー画面を表示させるときに操作される。   The select button switch 51 can be operated (directionally operated) in a total of eight directions of four oblique directions in addition to four directions of up, down, left, and right directions. Further, the select button switch 51 can be pressed (selected) also in a direction perpendicular to the upper surface of the remote controller 2. The menu button switch 54 is operated when the CRT 11 of the main body 1 displays a menu screen for inputting various settings and a command for performing a predetermined process.

ここで、メニュー画面が表示された場合には、そのメニュー画面における項目等を指示するカーソルが、CRT11に表示される。このカーソルは、セレクトボタンスイッチ51を方向操作することで、その操作に対応する方向に移動する。また、カーソルが、所定の項目上の位置にあるときに、セレクトボタンスイッチ51がセレクト操作されると、その項目の選択が確定される。なお、メニューには、アイコンを表示させることが可能であり、セレクトボタンスイッチ51は、アイコンをクリックするときも、セレクト操作される。   Here, when the menu screen is displayed, a cursor indicating an item or the like on the menu screen is displayed on the CRT 11. The cursor moves in a direction corresponding to the operation by operating the select button switch 51 in the direction. When the select button switch 51 is operated while the cursor is at a position on a predetermined item, the selection of the item is determined. It should be noted that icons can be displayed on the menu, and the select button switch 51 is also selected when the icon is clicked.

イグジットボタンスイッチ55は、メニュー画面から元の通常の画面に戻る場合などに操作される。   The exit button switch 55 is operated, for example, when returning from the menu screen to the original normal screen.

ボリウムボタンスイッチ52は、ボリウムをアップまたはダウンさせるときに操作される。チャンネルアップダウンボタンスイッチ53は、受信する放送チャンネルの番号を、アップまたはダウンするときに操作される。   The volume button switch 52 is operated when raising or lowering the volume. The channel up / down button switch 53 is operated when the number of the broadcast channel to be received is up or down.

0乃至9の数字が表示されている数字ボタン(テンキー)スイッチ58は、表示されている数字を入力するときに操作される。エンタボタンスイッチ57は、数字ボタンスイッチ58の操作が完了したとき、数字入力終了の意味で、それに続いて操作される。なお、チャンネルを切り換えたときは、本体1のCRT11に、新たなチャンネルの番号などが、所定の時間、OSD(On Screen Display)表示される。ディスプレイボタン56は、現在選択しているチャンネルの番号や、現在の音量等のOSD表示のオン/オフを切り換えるときに操作される。   A numeric button (numerical key) switch 58 on which numbers 0 to 9 are displayed is operated when the displayed numbers are input. When the operation of the numeric button switch 58 is completed, the enter button switch 57 is operated subsequently to indicate the end of numeric input. When the channel is switched, a new channel number or the like is displayed on the CRT 11 of the main body 1 for a predetermined time by OSD (On Screen Display). The display button 56 is operated to turn on / off the OSD display such as the number of the currently selected channel and the current volume.

テレビ/ビデオ切換ボタンスイッチ59は、本体1の入力を、チューナ31、または入力端子22からの入力に切り換えるときに操作される。テレビ/DSS切換ボタンスイッチ60は、チューナ31において地上波による放送を受信するテレビモード、または衛星放送を受信するDSS(Digital Satellite System(Hughes Communications社の商標))モードを選択するときに操作される。数字ボタンスイッチ58を操作してチャンネルを切り換えると、切り換え前のチャンネルが記憶され、ジャンプボタンスイッチ61は、この切り換え前の元のチャンネルに戻るときに操作される。   The TV / video switching button switch 59 is operated when switching the input of the main body 1 to the input from the tuner 31 or the input terminal 22. The TV / DSS switch button switch 60 is operated when the tuner 31 selects a television mode for receiving terrestrial broadcasts or a DSS (Digital Satellite System (trademark of Hughes Communications)) mode for receiving satellite broadcasts. . When the channel is switched by operating the numeric button switch 58, the channel before the switching is stored, and the jump button switch 61 is operated when returning to the original channel before the switching.

ランゲージボタン62は、2カ国語以上の言語により放送が行われている場合において、所定の言語を選択するときに操作される。ガイドボタンスイッチ63は、CRT11にEPG(Electric Program Guide)を表示させるときに操作される。フェイバリッドボタンスイッチ64は、あらかじめ設定されたユーザの好みのチャンネルを選択する場合に操作される。   The language button 62 is operated to select a predetermined language when broadcasting is performed in two or more languages. The guide button switch 63 is operated when displaying an EPG (Electric Program Guide) on the CRT 11. The favorite button switch 64 is operated when a user's favorite channel set in advance is selected.

ケーブルボタンスイッチ65、テレビスイッチ66、およびDSSボタンスイッチ67は、リモコン2から出射される赤外線に対応するコマンドコードの機器カテゴリを切り換えるためのボタンスイッチである。即ち、リモコン2は、テレビジョン受像機の本体1の他、図示せぬSTBやIRDを遠隔制御することができるようになっており、ケーブルボタンスイッチ65は、CATV網を介して伝送されてくる信号を受信するSTB(Set Top Box)を、リモコン2によって制御する場合に操作される。ケーブルボタンスイッチ65の操作後は、リモコン2からは、STBに割り当てられた機器カテゴリのコマンドコードに対応する赤外線が出射される。同様に、テレビボタンスイッチ66は、本体1を、リモコン2によって制御する場合に操作される。DSSボタンスイッチ67は、衛星を介して伝送されている信号を受信するIRD(Integrated Receiver and Decorder)を、リモコン2によって制御する場合に操作される。   The cable button switch 65, the television switch 66, and the DSS button switch 67 are button switches for switching a device category of a command code corresponding to infrared rays emitted from the remote controller 2. That is, the remote controller 2 can remotely control the STB and IRD (not shown) in addition to the main body 1 of the television receiver, and the cable button switch 65 is transmitted via a CATV network. This is operated when the remote controller 2 controls the STB (Set Top Box) that receives the signal. After the operation of the cable button switch 65, the remote controller 2 emits infrared light corresponding to the command code of the device category assigned to the STB. Similarly, the TV button switch 66 is operated when the main body 1 is controlled by the remote controller 2. The DSS button switch 67 is operated when the remote controller 2 controls an IRD (Integrated Receiver and Decorder) that receives a signal transmitted via a satellite.

LED(Light Emitting Diode)68,69,70は、それぞれケーブルボタンスイッチ65、テレビボタンスイッチ66、またはDSSボタンスイッチ67がオンにされたとき点灯し、これにより、リモコン2が、現在、どのカテゴリの装置の制御が可能になっているのかが、ユーザに示される。なお、LED68,69,70は、それぞれケーブルボタンスイッチ65、テレビボタンスイッチ66、またはDSSボタンスイッチ67がオフにされたときは消灯する。   The LED (Light Emitting Diode) 68, 69, 70 lights up when the cable button switch 65, the television button switch 66, or the DSS button switch 67 is turned on, respectively, whereby the remote controller 2 The user is informed whether control of the apparatus is enabled. The LEDs 68, 69, and 70 are turned off when the cable button switch 65, the television button switch 66, or the DSS button switch 67 is turned off.

ケーブル電源ボタンスイッチ71、テレビ電源ボタンスイッチ72、DSS電源ボタンスイッチ73は、STB、本体1、またはIRDの電源をオン/オフするときに操作される。   The cable power button switch 71, the television power button switch 72, and the DSS power button switch 73 are operated when turning on / off the power of the STB, the main body 1, or the IRD.

ミューティングボタンスイッチ74は、本体1のミューティング状態を設定または解除するときに操作される。スリープボタンスイッチ75は、所定の時刻になった場合、または所定の時間が経過した場合に、自動的に電源をオフするスリープモードを設定または解除するときに操作される。   The muting button switch 74 is operated when setting or canceling the muting state of the main body 1. The sleep button switch 75 is operated to set or cancel the sleep mode in which the power is automatically turned off at a predetermined time or when a predetermined time has elapsed.

発光部76は、リモコン2が操作された場合に、その操作に対応する赤外線を出射するようになっている。   When the remote controller 2 is operated, the light emitting unit 76 emits infrared rays corresponding to the operation.

次に、図5は、図3の画像インタフェース40の第1実施の形態の構成例を示している。   Next, FIG. 5 shows a configuration example of the first embodiment of the image interface 40 of FIG.

インタフェースコントローラ81は、メモリインタフェース82を制御する。さらに、インタフェースコントローラ81は、接続検出部84の出力に基づいて、スロット12iに対する画像処理カード13iの着脱を認識し、その認識結果に基づいて、カードインタフェース83を制御する。また、インタフェースコントローラ81は、メモリインタフェース82とカードインタフェース82との間の画像データのやりとりを制御する。 The interface controller 81 controls the memory interface 82. Further, the interface controller 81 recognizes the attachment / detachment of the image processing card 13 i to / from the slot 12 i based on the output of the connection detecting section 84, and controls the card interface 83 based on the recognition result. Further, the interface controller 81 controls exchange of image data between the memory interface 82 and the card interface 82.

メモリインタフェース82は、インタフェースコントローラ81の制御の下、フレームメモリ35(図3)から画像データを読み出し、インタフェースコントローラ81に供給する。また、メモリインタフェース82は、インタフェースコントローラ81から供給される画像データを受信し、線順次変換部85に供給する。   The memory interface 82 reads out image data from the frame memory 35 (FIG. 3) under the control of the interface controller 81 and supplies the image data to the interface controller 81. The memory interface 82 receives the image data supplied from the interface controller 81 and supplies the image data to the line-sequential conversion unit 85.

カードインタフェース83は、インタフェースコントローラ81の制御にしたがい、インタフェースコントローラ81から供給される画像データを、スロット12iに装着された画像処理カード13iに供給する。 The card interface 83 supplies the image data supplied from the interface controller 81 to the image processing card 13 i mounted on the slot 12 i under the control of the interface controller 81.

即ち、カードインタフェース83は、スロット121乃至126に接続されており、インタフェースコントローラ81から供給される画像データや制御信号その他のデータを受信し、スロット12iに装着された画像処理カード13iに供給する。 That is, the card interface 83 is connected to the slot 12 1 to 12 6, the interface controller 81 receives the image data and control signals other data supplied from the slot 12 i to the mounting image processing card 13 i To supply.

さらに、カードインタフェース83は、スロット12iに装着された画像処理カード13iから供給される画像データや制御信号その他のデータを受信し、インタフェースコントローラ81、または他のスロット12jに装着された他の画像処理カード13jに供給する。 Moreover, the card interface 83 receives the image data and control signals other data supplied from the slot 12 i to the mounting image processing card 13 i, is attached to the interface controller 81 or other slot 12 j, other image processing cards 13 supplied to the j of.

また、カードインタフェース83は、スロット12iが有する図示せぬ端子の電圧(端子電圧)を、接続検出部84に供給する。 Further, the card interface 83 supplies a voltage (terminal voltage) of a terminal (not shown) of the slot 12 i to the connection detecting unit 84.

接続検出部84は、カードインタフェース83を介して、例えば、スロット121乃至126の端子電圧を監視しており、その端子電圧の変化に基づいて、スロット12iに対する画像処理カード13iの装着または抜き取りを検出し、その検出結果を、インタフェースコントローラ83に供給する。なお、画像処理カード13iの着脱の検出は、その他、機械的に行うことも可能である。 Connection detection unit 84 via the card interface 83, for example, monitors the terminal voltage of the slots 12 1 to 12 6, based on the change in the terminal voltage, the mounting of the image processing cards 13 i for the slots 12 i Alternatively, the extraction is detected and the detection result is supplied to the interface controller 83. The detection of detachment of the image processing cards 13 i is other can also be done mechanically possible.

線順次変換部85は、メモリインタフェース82から供給される画像データの走査方式を、必要に応じて、インタレース走査方式から順次走査(ノンインタレース走査)方式、または順次走査方式からインタレース走査方式に変換し、フレームメモリ35に供給して記憶させる。   The line-sequential conversion unit 85 changes the scanning method of the image data supplied from the memory interface 82 from an interlaced scanning method to a progressive scanning (non-interlaced scanning) method, or from a progressive scanning method to an interlaced scanning method, as necessary. And supplies it to the frame memory 35 for storage.

次に、図6は、画像処理インタフェース40が図5に示したように構成される場合の、画像処理カード13iの構成例を示している。 Next, FIG. 6, the image processing interface 40 shows a configuration example of the image processing cards 13 i when configured as shown in FIG.

図6の実施の形態では、画像処理カード13iは、そこに供給される画像データを、第1の画像データとして、その第1の画像データを、その第1の画像データよりも高画質の第2の画像データに変換するデータ変換処理を行うようになっている。 In the embodiment of FIG. 6, the image processing card 13i uses the image data supplied thereto as first image data, and converts the first image data into a higher-quality image than the first image data. A data conversion process for converting the image data into the second image data is performed.

ここで、例えば、第1の画像データを低解像度の画像データとするとともに、第2の画像データを高解像度の画像データとすれば、データ変換処理は、解像度を向上させる解像度向上処理ということができる。また、例えば、第1の画像データを低S/N(Siginal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、データ変換処理は、ノイズを除去するノイズ除去処理ということができる。さらに、例えば、第1の画像データを所定のサイズの画像データとするとともに、第2の画像データを、第1の画像データのサイズを大きくまたは小さくした画像データとすれば、データ変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。   Here, for example, if the first image data is low-resolution image data and the second image data is high-resolution image data, the data conversion process is referred to as a resolution improvement process for improving the resolution. it can. Further, for example, if the first image data is low S / N (Siginal / Noise) image data and the second image data is high S / N image data, the data conversion process can reduce noise. This can be referred to as noise removal processing. Further, for example, if the first image data is image data of a predetermined size and the second image data is image data in which the size of the first image data is increased or decreased, the data conversion process is performed as follows. This can be referred to as resizing processing for resizing (enlarging or reducing) an image.

従って、データ変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な処理を実現することができる。   Therefore, according to the data conversion process, various processes can be realized depending on how the first and second image data are defined.

タップ抽出部91および92には、カードインタフェース83(図5)から、データ変換処理の対象としての第1の画像データが供給される。   First image data to be subjected to data conversion processing is supplied to the tap extracting units 91 and 92 from the card interface 83 (FIG. 5).

タップ抽出部91は、第2の画像データを構成する画素を、順次、注目画素とし、さらに、その注目画素の画素値を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして抽出する。   The tap extraction unit 91 sequentially sets pixels constituting the second image data as a target pixel, and further, (pixel values of pixels constituting the first image data used for predicting a pixel value of the target pixel) ) Are extracted as prediction taps.

具体的には、タップ抽出部91は、注目画素に対応する、第1の画像データの画素(第1の画像データ上の、注目画素の位置と同一位置から、例えば、最も近くにある第1の画像データの画素)に対して、空間的または時間的に近い位置にある複数の画素(例えば、注目画素に対応する、第1の画像データの画素と、それに空間的に隣接する画素など)を、予測タップとして抽出する。   Specifically, the tap extracting unit 91 determines the pixel of the first image data corresponding to the target pixel (for example, from the same position as the position of the target pixel on the first image data, for example, A plurality of pixels (for example, a pixel of the first image data corresponding to the pixel of interest and a pixel spatially adjacent to the pixel of the first image data) which are spatially or temporally close to the pixel of the image data of FIG. Is extracted as a prediction tap.

タップ抽出部92は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして抽出する。   The tap extracting unit 92 extracts, as class taps, some of the pixels constituting the first image data used for performing the class classification for classifying the target pixel into one of several classes.

なお、タップ抽出部91および92に対しては、カードコントローラ98から制御信号が供給されるようになっており、タップ抽出部91で構成される予測タップのタップ構造と、タップ抽出部92で構成されるクラスタップのタップ構造は、カードコントローラ98からの制御信号にしたがって設定されるようになっている。   Note that a control signal is supplied from the card controller 98 to the tap extracting units 91 and 92, and the tap structure of the prediction tap configured by the tap extracting unit 91 and the tap extracting unit 92 The tap structure of the class tap to be set is set in accordance with a control signal from the card controller 98.

ここで、予測タップとクラスタップは、同一のタップ構造とすることもできるし、異なるタップ構造とすることもできる。   Here, the prediction tap and the class tap can have the same tap structure or different tap structures.

タップ抽出部91で得られた予測タップは、予測部95に供給され、タップ抽出部92で得られたクラスタップは、クラス分類部93に供給される。   The prediction tap obtained by the tap extraction unit 91 is supplied to a prediction unit 95, and the class tap obtained by the tap extraction unit 92 is supplied to a class classification unit 93.

クラス分類部93は、タップ抽出部92からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数メモリ94に供給する。   The class classification unit 93 classifies the pixel of interest based on the class tap from the tap extraction unit 92, and supplies a class code corresponding to the resulting class to the coefficient memory 94.

ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。   Here, as a method of performing the class classification, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be adopted.

ADRCを用いる方法では、クラスタップを構成する画素の画素値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。   In the method using ADRC, a pixel value of a pixel forming a class tap is subjected to ADRC processing, and a class of a pixel of interest is determined according to a resulting ADRC code.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最小値MINが減算された後に、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。 In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixel values of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as a local dynamic range of the set. Based on the DR, the pixel values forming the class tap are requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided (quantized) by DR / 2 K. Then, a bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, when the class tap is subjected to, for example, 1-bit ADRC processing, the pixel value of each pixel forming the class tap is obtained by subtracting the minimum value MIN from the average value of the maximum value MAX and the minimum value MIN. The pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the one-bit pixel values are arranged in a predetermined order is output as an ADRC code.

なお、クラス分類部93には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部93が出力するクラスコードの場合の数は、(2NK通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。 The class classification unit 93 can directly output, for example, the pattern of the level distribution of the pixel values of the pixels constituting the class tap as the class code. However, in this case, assuming that the class tap is composed of the pixel values of N pixels and K bits are assigned to the pixel value of each pixel, the number of class codes output by the classifying unit 93 is as follows. Becomes (2 N ) K , which is a huge number exponentially proportional to the number K of bits of the pixel value of the pixel.

従って、クラス分類部93においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。   Therefore, it is preferable that the class classification unit 93 performs the class classification by compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.

なお、クラス分類は、上述したように、クラスタップを構成する画素の画素値のレベル分布のパターンに基づいて行う他、例えば、そのクラスタップの注目画素に対応する画素の部分にエッジが存在するかどうかや、その画素の動きの有無(あるいは、動きの大きさや方向など)に基づいて行うことも可能である。   Note that, as described above, the class classification is performed based on the pattern of the level distribution of the pixel values of the pixels forming the class tap. For example, an edge exists in a pixel portion corresponding to the target pixel of the class tap. It can also be performed based on whether or not the pixel has moved (or the magnitude or direction of the movement).

係数メモリ94は、係数生成部96から、係数正規化部99を介して供給されるクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部93から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部93から供給されるクラスコードが表すクラスのタップ係数)を、予測部95に供給する。   The coefficient memory 94 stores the tap coefficients for each class supplied from the coefficient generation unit 96 via the coefficient normalization unit 99, and further supplies the tap coefficients from the class classification unit 93 among the stored tap coefficients. The tap coefficient (the tap coefficient of the class represented by the class code supplied from the class classification unit 93) stored at the address corresponding to the class code is supplied to the prediction unit 95.

ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。   Here, the tap coefficient corresponds to a coefficient multiplied by input data in a so-called tap in a digital filter.

予測部95は、タップ抽出部91が出力する予測タップと、係数メモリ94が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測部95は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。   The prediction unit 95 acquires the prediction tap output by the tap extraction unit 91 and the tap coefficient output by the coefficient memory 94, and obtains a predicted value of the true value of the pixel of interest using the prediction tap and the tap coefficient. A predetermined prediction operation is performed. Thereby, the prediction unit 95 obtains and outputs the pixel value (predicted value) of the pixel of interest, that is, the pixel value of the pixel configuring the second image data.

係数生成部96は、生成情報記憶部97に記憶されている生成情報と、カードコントローラ98から供給されるパラメータとに基づいて、クラスごとのタップ係数を生成し、係数正規化部99を介して、係数メモリ94に供給し、上書きする形で記憶させる。   The coefficient generation unit 96 generates tap coefficients for each class based on the generation information stored in the generation information storage unit 97 and the parameters supplied from the card controller 98, and outputs the generated tap coefficients via the coefficient normalization unit 99. Is supplied to the coefficient memory 94 and stored in an overwritten form.

生成情報記憶部97は、クラスごとのタップ係数を生成するための生成情報を記憶している。   The generation information storage unit 97 stores generation information for generating a tap coefficient for each class.

なお、生成情報としては、例えば、タップ係数の、いわば種となる、後述する学習によって求められる係数種データそのもの、あるいは、その係数種データを生成することのできる情報を採用することができる。   Note that, as the generation information, for example, the coefficient seed data itself, which is a so-called seed of the tap coefficient, which is obtained by learning described later, or information capable of generating the coefficient seed data can be adopted.

また、画像処理インタフェース40のスロット121乃至126それぞれに装着される画像処理カード131乃至136は、すべて図6に示したように構成されるが、生成情報記憶部97に記憶される生成情報は、異なる画像処理カード13の間では、異なるタップ係数を生成することのできるものとなっている。 The image processing card 13 1 through 13 6 are mounted in slot 12 1 to 12 6 each of the image processing interface 40, is constructed as illustrated in all 6, is stored in the generation information storage section 97 The generation information is such that different tap coefficients can be generated between different image processing cards 13.

生成情報記憶部97は、さらに、画像処理カード13iが行う画像処理としてのデータ変換処理の内容を表す処理情報も記憶している。 The generation information storage unit 97 further stores processing information indicating the contents of data conversion processing as image processing performed by the image processing card 13i .

なお、処理情報には、タップ抽出部91で生成(構成)される予測タップ、およびタップ抽出部92で生成されるクラスタップのタップ構造を表す情報、クラス分類部93で行われるクラス分類の方法(クラス分類方法)を表す情報(例えば、クラス分類を、画素値のレベル分布のパターン、エッジの有無、あるいは画素の動きの有無に基づいて行うなどといった情報)、生成情報から生成されるタップ係数のクラス数などが含まれる。   The processing information includes information indicating the tap structure of the prediction tap generated (configured) by the tap extraction unit 91 and the class tap generated by the tap extraction unit 92, and the method of class classification performed by the class classification unit 93. (E.g., information such as performing class classification based on a pattern of pixel value level distribution, presence / absence of an edge, presence / absence of a motion of a pixel, etc.), and a tap coefficient generated from generation information And the number of classes.

さらに、処理情報には、画像処理カード13iのカードID(Identification)が含まれる。ここで、カードIDは、画像処理カード13iを、いわば順番付けるもので、本実施の形態では、6つのスロット121乃至126それぞれに装着される画像処理カード131乃至136に対して、例えば1乃至6のカードIDがそれぞれ割り当てられている。 Further, the processing information includes the image processing cards 13 i of the card ID (for the Identification) is. Here, the card ID, the image processing cards 13 i, so to speak but put order, in this embodiment, the image processing card 13 1 through 13 6 are mounted on six slots 12 1 to 12 6, respectively For example, card IDs 1 to 6 are respectively assigned.

そして、カードIDが最高順位である#1の画像処理カード131を除き、カードIDが#iの画像処理カード13iは、それより1つ順位の大きいカードIDが#i−1の画像処理カード13i-1が存在しない場合には、動作しないようになっている。 Then, except for the image processing card 13 1 of # 1 card ID is the highest rank, the image processing cards 13 i of the card ID is #i, it than one order of large card ID # i-1 of the image processing If the card 13 i-1 does not exist, it does not operate.

従って、カードIDが#6の画像処理カード136を動作させるためには、カードIDが#5の画像処理カード135の存在が必要であり、その、カードIDが#5の画像処理カード135を動作させるためには、カードIDが#4の画像処理カード134の存在が必要である。以下、同様にして、結局、カードIDが#6の画像処理カード136を動作させるには、それより順位が上のすべての画像処理カード131乃至135が必要となる。 Therefore, in order to card ID to operate the image processing cards 13 6 # 6, the card ID is required the presence of the image processing cards 13 5 # 5, the image processing cards 13 of the card ID is # 5 to 5 operates, the card ID is required the presence of the image processing cards 13 4 # 4. In the same manner, after all, the card ID is To operate the image processing cards 13 6 # 6, from the rank it is necessary that all of the image processing cards 13 1 through 13 5 above.

なお、本実施の形態では、カードID#iの画像処理カード13iの処理情報には、その画像処理カード13i自体が行うデータ変換処理の内容を表す処理情報の他、その画像処理カード13iとともに、それより順位が上のすべての画像処理カード13i-1,13i-2,・・・,131が装着された場合に、その各画像処理カード13i-1,13i-2,・・・,131が行うデータ変換処理の内容を表す処理情報も含まれている。 In the present embodiment, the processing information of the image processing card 13 i having the card ID #i includes, in addition to the processing information indicating the content of the data conversion processing performed by the image processing card 13 i itself, the image processing card 13 i When all the image processing cards 13 i-1 , 13 i-2 ,..., 13 1 having higher ranks are attached together with i, each of the image processing cards 13 i-1 , 13 i- 2, ..., it is also included processing information indicating the contents of the data conversion processing 13 1 performs.

即ち、例えば、カードID#1の画像処理カード131を例にすれば、本実施の形態では、画像処理カード131については、それだけが装着された場合と、画像処理カード131および132が装着された場合とで、その機能(データ変換処理の内容)を変化させることができるようになっている。このため、画像処理カード131だけが装着された場合の、その画像処理カード131のデータ変換処理の内容は、その画像処理カード131の処理情報に規定されており、画像処理カード131および132の両方が装着された場合の、画像処理カード131のデータ変換処理の内容は、画像処理カード132の処理情報に規定されている。なお、画像処理カード131および132の両方が装着された場合の、画像処理カード132のデータ変換処理の内容は、画像処理カード132の処理情報に規定されている。 That is, for example, if the image processing card 13 1 of the card ID # 1 as an example, in this embodiment, the image processing card 13 1, and if only is attached thereto, the image processing cards 13 1 and 13 2 The function (contents of the data conversion process) can be changed between when and is mounted. Therefore, when only the image processing card 13 1 is attached, the content of the data conversion process of the image processing cards 13 1 is defined in the image processing card 13 1 of processing information, the image processing card 13 1 and when both of 13 2 has been mounted, the content of the data conversion process of the image processing cards 13 1 is defined in the image processing card 13 2 of processing information. Incidentally, in the case where both of the image processing cards 13 1 and 13 2 are mounted, the contents of the data conversion process of the image processing cards 13 2 is defined in the image processing card 13 2 of processing information.

同様にして、画像処理カード131乃至13iが装着された場合の、画像処理カード131乃至13iそれぞれのデータ変換処理の内容は、最もカードIDが大きい(最も順位が低い)画像処理カード13iの処理情報に規定されている。 Similarly, in the case where the image processing card 131 to 13 i is mounted, the contents of the image processing cards 13 1 through 13 i each data conversion process, (the least order) most card ID is greater image processing card 13i is defined in the processing information.

従って、本実施の形態では、画像処理カード131乃至13iが装着された場合の、各画像処理カード131乃至13iのデータ変換処理の内容は、最もカードIDが大きい画像処理カード13iの処理情報を参照することによって認識することができる。 Thus, in this embodiment, when the image processing card 131 to 13 i is mounted, the content of the data conversion processing of the image processing card 131 to 13 i is most card ID is greater image processing card 13 i Can be recognized by referring to the processing information.

カードコントローラ98は、カードインタフェース83(図5)との間で、画像データやその他のデータのやりとりを制御する。さらに、カードコントローラ98は、タップ抽出部91および92、並びにクラス分類部93を制御する。また、カードコントローラ98は、画像処理インタフェース40からの要求に応じて、生成情報記憶部97から処理情報を読み出し、画像処理インタフェース40に供給する。また、カードコントローラ98は、係数生成部96に対して、後述するパラメータを与える。   The card controller 98 controls exchange of image data and other data with the card interface 83 (FIG. 5). Further, the card controller 98 controls the tap extraction units 91 and 92 and the class classification unit 93. Further, the card controller 98 reads processing information from the generation information storage unit 97 in response to a request from the image processing interface 40 and supplies the processing information to the image processing interface 40. Further, the card controller 98 gives a parameter to be described later to the coefficient generator 96.

係数正規化部99は、係数生成部96から供給されるタップ係数を正規化し、その正規化後のタップ係数を、係数メモリ94に供給して記憶させる。   The coefficient normalizing unit 99 normalizes the tap coefficients supplied from the coefficient generating unit 96, and supplies the normalized tap coefficients to the coefficient memory 94 for storage.

次に、図7のフローチャートを参照して、図5の画像処理インタフェース40の処理について説明する。   Next, the processing of the image processing interface 40 of FIG. 5 will be described with reference to the flowchart of FIG.

画像処理インタフェース40では、まず最初に、ステップS1において、インタフェースコントローラ81は、接続検出部84の出力に基づき、スロット121乃至126のうちのいずれかのスロット12iに対して、画像処理カード13iが新たに装着(挿入)されたかどうかを判定する。 In the image processing interface 40, first, at step S1, the interface controller 81, based on the output of the connection detecting portion 84, with respect to one of the slots 12 i of the slots 12 1 to 12 6, the image processing card It is determined whether 13i is newly mounted (inserted).

ステップS1において、スロット12iに対して、画像処理カード13iが装着されたと判定された場合、即ち、画像処理カード13iが、スロット12iに装着されることにより、そのスロット12iの端子電圧が変化し、その変化が、接続検出部84において検出された場合、ステップS2をスキップして、ステップS3に進む。 In step S1, if the relative slot 12 i, the image processing card 13 i is determined to have been attached, i.e., an image processing card 13 i is, by being mounted in the slot 12 i, the terminal of the slot 12 i When the voltage changes and the change is detected by the connection detecting unit 84, the process skips step S2 and proceeds to step S3.

また、ステップS1において、スロット12iに対して、画像処理カード13iが装着されていないと判定された場合、ステップS2に進み、インタフェースコントローラ81は、接続検出部84の出力に基づき、スロット121乃至126のうちのいずれかのスロット12iに装着されている画像処理カード13iが抜き取られたかどうかを判定する。 If it is determined in step S1 that the image processing card 13 i is not mounted in the slot 12 i , the process proceeds to step S 2, where the interface controller 81 determines the slot 12 i based on the output of the connection detection unit 84. It determines whether the image processing cards 13 i that is mounted in one of the slots 12 i of 1 to 12 6 has been removed.

ステップS2において、スロット12iから、画像処理カード13iが抜き取られていないと判定された場合、ステップS1に戻り、以下、同様の処理が繰り返される。 In step S2, from the slot 12 i, when the image processing card 13 i is determined to not withdrawn, the flow returns to step S1, and similar processing is repeated.

また、ステップS2において、スロット12iから、画像処理カード13iが抜き取られたと判定された場合、即ち、画像処理カード13iが、スロット12iから抜き取られることにより、そのスロット12iの端子電圧が変化し、その変化が、接続検出部84において検出された場合、ステップS3に進み、インタレースコントローラ81は、カードインタフェース83を制御することにより、スロット121乃至126のうち、画像処理カード13が装着されているものの、その装着されている画像処理カード13(以下、適宜、装着カードという)すべてから、処理情報を読み出す。 Further, in step S2, if the slot 12 i, the image processing card 13 i is determined to have been removed, i.e., image processing card 13 i is, by being withdrawn from the slot 12 i, the terminal voltage of the slot 12 i If but changed, the change was detected in the connection detection unit 84, the process proceeds to step S3, interlace controller 81, by controlling the card interface 83, of the slots 12 1 to 12 6, the image processing card Although the image processing card 13 is mounted, processing information is read from all the mounted image processing cards 13 (hereinafter, appropriately referred to as mounted cards).

即ち、この場合、処理情報を要求する制御信号が、カードインタフェース83から、スロット12iを介して、そこに装着されている画像処理カード13iのカードコントローラ98(図6)に供給される。カードコントローラ98は、処理情報を要求する制御信号を受信すると、生成情報記憶部79から処理情報を読み出し、カードインタフェース83に供給する。カードインタフェース83は、このようにして画像処理カード13iから供給される処理情報を受信し、インタフェースコントローラ81に供給する。 That is, in this case, the control signal requesting the processing information from the card interface 83, via a slot 12 i, supplied thereto to the mounted image processing card 13 i of the card controller 98 (FIG. 6). When receiving the control signal requesting the processing information, the card controller 98 reads the processing information from the generation information storage unit 79 and supplies the processing information to the card interface 83. The card interface 83 receives the processing information supplied from the image processing card 13 i in this way and supplies the processing information to the interface controller 81.

その後、ステップS4に進み、インタフェースコントローラ81は、装着カードとしての画像処理カード13から読み出した処理情報に含まれるカードIDを調査し、これにより、動作させる装着カード(以下、適宜、有効カードという)を決定する。   Thereafter, the process proceeds to step S4, where the interface controller 81 examines the card ID included in the processing information read from the image processing card 13 as the mounting card, and thereby, the mounting card to be operated (hereinafter, referred to as an effective card as appropriate) To determine.

即ち、インタフェースコントローラ81は、装着カードとしての画像処理カード13のすべてのカードIDを昇順に並べ、1からnまでのカードIDが連続している場合には、そのカードIDが1乃至nそれぞれの画像処理カード(装着カード)131乃至13nを、有効カードとする。 That is, the interface controller 81 arranges all card IDs of the image processing card 13 as mounting cards in ascending order, and when card IDs from 1 to n are consecutive, the card IDs are 1 to n respectively. The image processing cards (mounting cards) 13 1 to 13 n are valid cards.

従って、スロット121乃至126のうちの複数のスロットそれぞれに、画像処理カード13が装着されていたとしても、カードID#1の画像処理カード131が装着されていない場合には、いずれの画像処理カード13も、有効カードとはされない。また、例えば、カードID#1の画像処理カード131およびカードID#3の画像処理カード133が装着されていても、カードID#2の画像処理カード132が装着されていない場合には、有効カードとされるのは、カードID#1の画像処理カード131だけであり、カードID#3の画像処理カード133は、有効カードとはされない。 Thus, each of the plurality of slots of the slots 12 1 to 12 6, even the image processing card 13 has been mounted, when the image processing card 13 1 of the card ID # 1 is not mounted, either The image processing card 13 is also not a valid card. Further, for example, if the image processing cards 13 1 and the card ID # image processing card 13 3 of the third card ID # 1 is be mounted, the image processing card 13 2 of the card ID # 2 is not attached , being valid card is only the image processing card 13 1 of the card ID # 1, the image processing cards 13 3 of the card ID # 3 is not the valid card.

ここで、スロット121乃至126のうちの複数に、同一のカードIDの画像処理カード13が装着された場合には、インタフェースコントローラ81は、例えば、その同一のカードIDの画像処理カード13の中から、1つを選択し、有効カードとする。 Here, the plurality of the slots 12 1 to 12 6, when the image processing card 13 having the same card ID is attached, the interface controller 81, for example, the image processing card 13 of the same card ID One of them is selected as a valid card.

なお、このように、同一のカードIDの画像処理カード13が複数装着されている場合や、上述したように、連続していないカードIDの画像処理カードが装着されている場合には、インタフェースコントローラ81は、例えば、その旨を表す制御信号を、コントローラ37に供給する。この場合、コントローラ37は、セレクタ34、フレームメモリ35、およびマトリクス変換部36を介して、CRT11に所定のメッセージを表示させ、これにより、同一のカードIDの画像処理カード13が複数装着されている旨や、連続していないカードIDの画像処理カードが装着されている旨を、ユーザに報知する。   As described above, when a plurality of image processing cards 13 having the same card ID are mounted, or when image processing cards having discontinuous card IDs are mounted as described above, the interface controller The controller 81 supplies, for example, a control signal indicating this to the controller 37. In this case, the controller 37 causes the CRT 11 to display a predetermined message via the selector 34, the frame memory 35, and the matrix conversion unit 36, whereby a plurality of image processing cards 13 having the same card ID are mounted. To the user or that an image processing card with a non-consecutive card ID is mounted.

インタフェースコントローラ81は、ステップS4において、上述したように、有効カードを決定すると、ステップS5に進み、カードインタフェース83を制御することにより、有効カードとしての各画像処理カード13iのカードコントローラ98(図6)に対して、有効カードとしての画像処理カード13iの中で、最大のカードIDの画像処理カード13i(max)から読み出した処理情報(以下、適宜、最大ID処理情報という)を送信し、これにより、有効カードとなっている各画像処理カード13iにおける予測タップおよびクラスタップのタップ構造、クラス分類方法、並びにタップ係数の生成などを制御する。 Interface controller 81, in step S4, as described above, when determining the effective card, the process proceeds to step S5, by controlling the card interface 83, the card controller 98 (Fig each image processing card 13 i as an effective card In response to 6), the processing information read out from the image processing card 13 i (max) having the largest card ID among the image processing cards 13 i as valid cards (hereinafter, appropriately referred to as maximum ID processing information) is transmitted. Thereby, the tap structure of the prediction tap and the class tap in each image processing card 13 i which is an effective card, the class classification method, the generation of the tap coefficient, and the like are controlled.

ここで、有効カードとしての各画像処理カード13iは、画像処理インタフェース40(のインタフェースコントローラ81)から供給される最大ID処理情報を参照することで、自身が行うべきデータ変換処理の内容を認識し、これにより、その最大ID処理情報にしたがったタップ構造の予測タップおよびクラスタップの生成、所定のクラス分類方法によるクラス分類、並びに所定のタップ係数の生成を行う。 Here, each image processing card 13 i as an effective card recognizes the contents of the data conversion processing to be performed by itself by referring to the maximum ID processing information supplied from (the interface controller 81 of) the image processing interface 40. Thus, the prediction tap and the class tap having the tap structure according to the maximum ID processing information are generated, the class is classified by a predetermined class classification method, and the predetermined tap coefficient is generated.

その後、ステップS6において、インタフェースコントローラ81は、有効カードになっている画像処理カード13に対する画像データの入出力ルートを決定し、その入出力ルートにしたがって、画像データの転送を行うように、カードインタフェース83を設定して、ステップS1に戻る。   Thereafter, in step S6, the interface controller 81 determines an input / output route of the image data with respect to the image processing card 13 which is a valid card, and transfers the image data according to the input / output route. 83 is set, and the process returns to step S1.

即ち、インタフェースコントローラ81は、有効カードになっている画像処理カード13について、そのカードIDの順位順に、フレームメモリ35から読み出された画像データを転送するように、その入出力ルートを決定する。従って、例えば、カードインタフェース83に接続されているすべてのスロット121乃至126に、カードIDが#1乃至#6の画像処理カード131乃至136がそれぞれ装着されている場合には、画像処理カード131,132,133,134,135,136の順で、画像データを転送するように、入出力ルートが決定される。 That is, the interface controller 81 determines the input / output route of the image processing card 13 which is the valid card so that the image data read from the frame memory 35 is transferred in the order of the card ID. Thus, for example, all slots 12 1 to 12 6 connected to the card interface 83, when the image processing card 13 1 through 13 6 of the card ID # 1 to # 6 are respectively mounted to an image An input / output route is determined so that image data is transferred in the order of the processing cards 13 1 , 13 2 , 13 3 , 13 4 , 13 5 , and 13 6 .

そして、その後は、カードインタフェース83において、決定された入出力ルートにしたがって、画像データが転送される。従って、例えば、上述したように、画像処理カード131,132,133,134,135,136の順で、画像データを転送するように、入出力ルートが決定された場合、カードインタフェース83は、メモリインタフェース82によってフレームメモリ35から読み出され、インタフェースコントローラ81を介して供給された画像データを、画像処理カード131に転送する。そして、カードインタフェース83は、画像処理カード131において、画像データについてデータ変換処理が行われ、そのデータ変換処理後の画像データを受信すると、その画像データを、画像処理カード132に転送する。以下、同様に、カードインタフェース83は、画像データを、画像処理カード133,134,135,136の順で転送していき、最後の画像処理カード136から画像データを受信すると、その画像データを、インタフェースコントローラ81に供給する。このインタレースコントローラ81に供給された画像データは、メモリインタレース82および線順次変換部85を介して、フレームメモリ35に記憶され、その後、CRT11で表示される。 After that, the image data is transferred in the card interface 83 according to the determined input / output route. Therefore, for example, as described above, when an input / output route is determined to transfer image data in the order of the image processing cards 13 1 , 13 2 , 13 3 , 13 4 , 13 5 , and 13 6 , card interface 83, the memory interface 82 is read from the frame memory 35, the image data supplied via the interface controller 81 is transferred to the image processing card 13 1. The card interface 83 is an image processing card 13 1, the data conversion process for the image data and receipt image data after the data conversion process, the image data is transferred to the image processing card 13 2. Hereinafter, similarly, the card interface 83 transfers the image data in the order of the image processing cards 13 3 , 13 4 , 13 5 , and 13 6 , and upon receiving the image data from the last image processing card 13 6 , The image data is supplied to the interface controller 81. The image data supplied to the interlace controller 81 is stored in the frame memory 35 via the memory interlace 82 and the line-sequential conversion unit 85, and then displayed on the CRT 11.

なお、以上のように、画像データは、有効カードとされた画像処理カード13にしか転送されないため、有効カードとされていない画像処理カード13では、処理されない(画像データが供給されないため、処理することができない)。   As described above, since the image data is transferred only to the image processing card 13 which is set as the valid card, the image data is not processed by the image processing card 13 which is not set as the valid card (the image data is processed because the image data is not supplied). Can't do that).

次に、図8のフローチャートを参照して、図6の画像処理カード13iの処理(データ変換処理)について説明する。 Next, the processing (data conversion processing) of the image processing card 13i in FIG. 6 will be described with reference to the flowchart in FIG.

まず最初に、ステップS11において、カードコントローラ98は、上述した図7のステップS5でインタフェースコントローラ81(図5)が送信してくる処理情報を受信したかどうかを判定する。   First, in step S11, the card controller 98 determines whether or not the processing information transmitted by the interface controller 81 (FIG. 5) in step S5 of FIG. 7 described above has been received.

ここで、図7のステップS5でインタフェースコントローラ81(図5)が送信してくる処理情報は、最大ID処理情報であり、従って、有効カードとなっている各画像処理カード13iが行うべきデータ変換処理の内容を有している。 Here, the processing information transmitted by the interface controller 81 (FIG. 5) in step S5 of FIG. 7 is the maximum ID processing information, and therefore, the data to be performed by each of the image processing cards 13 i that are valid cards It has the contents of the conversion process.

ステップS11において、処理情報を受信したと判定された場合、即ち、スロット121乃至126のうちのいずれかに、新たに、画像処理カード13が装着されるか、または、スロット121乃至126に装着されていた画像処理カードのいずれかが抜き出され、これにより、最大のカードIDを有する画像処理カード13が変化し、その最大のカードIDを有する画像処理カード13が記憶している処理情報(最大ID処理情報)が、画像処理インタフェース40(のカードインタフェース83)からカードコントローラ98に送信され、カードコントローラ98で受信された場合、ステップS12に進み、カードコントローラ98は、その最大ID処理情報を参照することにより、自身が行うべきデータ変換処理の内容を認識し、その認識結果にしたがって、タップ抽出部91および92、クラス分類部93を制御する。 In step S11, when it is determined that it has received the processing information, i.e., in any of the slots 12 1 to 12 6, a new, or an image processing card 13 is mounted, or, slots 12 1 through 12 One of the image processing cards attached to 6 is extracted, whereby the image processing card 13 having the maximum card ID changes, and the image processing card 13 having the maximum card ID is stored. When the processing information (maximum ID processing information) is transmitted from (the card interface 83 of) the image processing interface 40 to the card controller 98 and received by the card controller 98, the process proceeds to step S12, and the card controller 98 determines the maximum ID. By referring to the processing information, it recognizes the contents of the data conversion processing to be performed by itself and recognizes it. In accordance with the result, the tap extracting unit 91 and 92, controls the classification unit 93.

即ち、カードコントローラ98は、例えば、最大ID処理情報に記述されているタップ構造の予測タップまたはクラスタップを構成するように、タップ抽出部91または92の動作モードを設定する。さらに、カードコントローラ98は、最大ID処理情報に記述されているクラス分類方法によるクラス分類を行うように、クラス分類部93の動作モードを設定する。   That is, the card controller 98 sets the operation mode of the tap extracting unit 91 or 92 so as to constitute, for example, a prediction tap or a class tap having a tap structure described in the maximum ID processing information. Further, the card controller 98 sets the operation mode of the class classification unit 93 so as to perform the class classification according to the class classification method described in the maximum ID processing information.

そして、ステップS13に進み、カードコントローラ98は、最大ID処理情報に基づき、係数生成部96を制御することにより、生成情報から、タップ係数を生成させる。   Then, proceeding to step S13, the card controller 98 controls the coefficient generation unit 96 based on the maximum ID processing information to generate a tap coefficient from the generation information.

即ち、処理情報には、生成情報から生成すべきタップ係数の情報(以下、適宜、タップ係数情報という)が含まれており、カードコントローラ98は、そのタップ係数情報にしたがい、生成情報から、タップ係数を生成するように、係数生成部96を制御する。これにより、係数生成部96は、カードコントローラ98の制御にしたがい、生成情報記憶部97に記憶された生成情報から、クラスごとのタップ係数を生成し、係数正規化部99に供給する。なお、このとき、カードコントローラ98は、係数生成部96において生成情報からタップ係数を生成するのに必要な、後述するパラメータを、係数生成部96に供給する。   That is, the processing information includes information on tap coefficients to be generated from the generation information (hereinafter, appropriately referred to as tap coefficient information), and the card controller 98 determines the tap coefficient from the generation information according to the tap coefficient information. The coefficient generator 96 is controlled so as to generate coefficients. Accordingly, the coefficient generation unit 96 generates tap coefficients for each class from the generation information stored in the generation information storage unit 97 and supplies the tap coefficients to the coefficient normalization unit 99, under the control of the card controller 98. At this time, the card controller 98 supplies a parameter, which will be described later, which is necessary for the coefficient generation unit 96 to generate a tap coefficient from the generation information, to the coefficient generation unit 96.

係数生成部96においてクラスごとのタップ係数が生成され、係数正規化部99に供給されると、係数正規化部99は、ステップS14において、そのクラスごとのタップ係数について、後述するレベル調整のための正規化処理し、その正規化後のクラスごとのタップ係数を、係数メモリ94に供給して記憶させ、ステップS15に進む。   When a tap coefficient for each class is generated in the coefficient generation unit 96 and supplied to the coefficient normalization unit 99, the coefficient normalization unit 99 determines the tap coefficient for each class in step S14 for level adjustment described later. , And the normalized tap coefficients for each class are supplied to and stored in the coefficient memory 94, and the process proceeds to step S15.

ステップS15では、タップ抽出部91が、カードインタフェース83(図5)から、図7のステップS6で設定された入出力ルートにしたがって供給される画像データを、データ変換処理対象の第1の画像データとして、その第1の画像データに対する第2の画像データ(データ変換処理後の画像データ)を構成する各画素を、順次、注目画素とし、その注目画素について、ステップS12で設定されたタップ構造の予測タップとする第1の画像データの画素を抽出する。さらに、ステップS15では、タップ抽出部92が、注目画素について、ステップS12で設定されたタップ構造のクラスタップとする第1の画像データの画素を抽出する。そして、予測タップは、タップ抽出部91から予測部95に供給され、クラスタップは、タップ抽出部92からクラス分類部93に供給される。   In step S15, the tap extraction unit 91 converts the image data supplied from the card interface 83 (FIG. 5) according to the input / output route set in step S6 in FIG. The pixels constituting the second image data (the image data after the data conversion processing) for the first image data are sequentially set as a target pixel, and the target pixel has the tap structure set in step S12. A pixel of the first image data to be used as a prediction tap is extracted. Further, in step S15, the tap extracting unit 92 extracts, from the target pixel, pixels of the first image data that are to be class taps having the tap structure set in step S12. Then, the prediction tap is supplied from the tap extraction unit 91 to the prediction unit 95, and the class tap is supplied from the tap extraction unit 92 to the class classification unit 93.

クラス分類部93は、タップ抽出部92から、注目画素についてのクラスタップを受信し、ステップS16において、そのクラスタップに基づき、ステップS12で設定されたクラス分類方法によって、注目画素をクラス分類する。さらに、クラス分類部93は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数メモリ94に出力し、ステップS17に進む。   The class classification unit 93 receives the class tap for the pixel of interest from the tap extraction unit 92, and in step S16, classifies the pixel of interest based on the class tap by the class classification method set in step S12. Further, the class classification unit 93 outputs a class code representing the class of the pixel of interest obtained as a result of the classification to the coefficient memory 94, and proceeds to step S17.

ステップS17では、係数メモリ94が、クラス分類部93から供給されるクラスコードに対応するアドレスに記憶されているタップ係数、即ち、クラスコードに対応するクラスのタップ係数を読み出して出力する。さらに、ステップS17では、予測部95が、係数メモリ94が出力するタップ係数を取得し、ステップS18に進む。   In step S17, the coefficient memory 94 reads and outputs the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 93, that is, the tap coefficient of the class corresponding to the class code. Further, in step S17, the prediction unit 95 acquires the tap coefficient output from the coefficient memory 94, and proceeds to step S18.

ステップS18では、予測部95が、タップ抽出部91が出力する予測タップと、係数メモリ94から取得したタップ係数とを用いて、所定の予測演算(後述する式(1)の予測演算)を行う。これにより、予測部95は、注目画素の画素値を求め、カードインタフェース83(図5)に供給する。そして、ステップS11に戻り、以下、同様の処理が繰り返される。   In step S <b> 18, the prediction unit 95 performs a predetermined prediction operation (a prediction operation of Equation (1) described later) using the prediction tap output from the tap extraction unit 91 and the tap coefficient acquired from the coefficient memory 94. . Thereby, the prediction unit 95 obtains the pixel value of the target pixel and supplies the pixel value to the card interface 83 (FIG. 5). Then, the process returns to step S11, and thereafter, the same processing is repeated.

一方、ステップS11において、処理情報を受信していないと判定された場合、ステップS12乃至S14をスキップして、ステップS15に進み、以下、上述した場合と同様の処理が行われる。従って、この場合、ステップS15乃至S18の処理は、カードコントローラ98において前回受信された処理情報(最大ID処理情報)にしたがって行われる。   On the other hand, if it is determined in step S11 that the processing information has not been received, steps S12 to S14 are skipped, the process proceeds to step S15, and the same processing as described above is performed. Therefore, in this case, the processing of steps S15 to S18 is performed in accordance with the processing information (maximum ID processing information) previously received by the card controller 98.

次に、図6の予測部95における予測演算、係数生成部96におけるタップ係数の生成、および生成情報記憶部97に記憶させる生成情報の1つである係数種データの学習について説明する。   Next, prediction calculation in the prediction unit 95 in FIG. 6, generation of tap coefficients in the coefficient generation unit 96, and learning of coefficient seed data, which is one of the generation information stored in the generation information storage unit 97, will be described.

いま、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを抽出し、その予測タップと所定のタップ係数を用いて、高画質画素の画素値を、所定の予測演算によって求める(予測する)ことを考える。   Now, high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by an LPF (Low Pass Filter) to lower the image quality (resolution). Using low-quality image data (low-quality image data) as first image data, a prediction tap is extracted from the low-quality image data, and the pixel value of the high-quality pixel is calculated using the prediction tap and a predetermined tap coefficient. It is considered to obtain (predict) by a predetermined prediction operation.

いま、所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。   Now, assuming that, for example, a linear primary prediction operation is adopted as the predetermined prediction operation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.

Figure 2004229313
・・・(1)
Figure 2004229313
... (1)

但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。 However, in the formula (1), x n is forming the prediction taps for the high-quality pixel y, the pixel of the n-th low-quality image data (hereinafter referred to as low as the image quality pixel) represents the pixel values of, w n represents an n-th tap coefficient multiplied by (the pixel value of) the n-th low-quality pixel.

なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。この場合、式(1)によれば、高画質画素yは、N個の低画質画素x1,x2,・・・,xNを、N個のタップ係数w1,w2,・・・,wNを重みとして、重み付け加算することによって求められていると考えることができる。従って、式(1)によって求められる高画質画素yのレベル変動を防止するために、重みであるタップ係数w1,w2,・・・,wNは、その総和が1である必要がある。そこで、画像処理カード13の係数正規化部99(図6)は、係数生成部96から供給されるタップ係数について、各クラスごとのタップ係数の総和を求め、その総和によって、対応するクラスのタップ係数を除算することにより、タップ係数を正規化するようになっている。 In equation (1), the prediction tap is configured by N low-quality pixels x 1 , x 2 ,..., X N. In this case, according to Equation (1), the high-quality pixel y is obtained by converting N low-quality pixels x 1 , x 2 ,..., X N into N tap coefficients w 1 , w 2 ,. , W N as weights and weighted addition. Therefore, the tap coefficients w 1 , w 2 ,..., W N , which are weights, need to have a total sum of 1 in order to prevent the level change of the high-quality pixel y obtained by the equation (1). . Therefore, the coefficient normalizing unit 99 (FIG. 6) of the image processing card 13 calculates the sum of the tap coefficients for each class with respect to the tap coefficients supplied from the coefficient generating unit 96, and, based on the sum, taps of the corresponding class. By dividing the coefficient, the tap coefficient is normalized.

ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high image quality pixel can be obtained not by the linear linear expression shown in Expression (1) but by a higher-order expression of second order or higher.

ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk'と表すと、その予測誤差ekは、次式で表される。 By the way, if the true value of the pixel value of the high-quality pixel of the k-th sample is represented by y k and the predicted value of the true value y k obtained by the equation (1) is represented by y k ′, the prediction error ek is represented by the following equation.

Figure 2004229313
・・・(2)
Figure 2004229313
... (2)

いま、式(2)の予測値yk'は、式(1)にしたがって求められるため、式(2)のyk'を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ in equation (2) is obtained according to equation (1), the following equation is obtained by replacing y k ′ in equation (2) according to equation (1).

Figure 2004229313
・・・(3)
Figure 2004229313
... (3)

但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 However, in equation (3), x n, k represents the n-th low-quality pixel that constitutes a prediction tap for the high-quality pixel of the k-th sample.

式(3)の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Tap coefficient w n to zero prediction error e k of the formula (3) is, is the optimal for predicting the high-quality pixel, for all high quality pixels, determine such tap coefficients w n That is generally difficult.

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, assuming that, for example, the least square method is adopted as a criterion indicating that the tap coefficient w n is optimal, the optimal tap coefficient w n is obtained by calculating the sum E of square errors represented by the following equation. It can be obtained by minimizing it.

Figure 2004229313
・・・(4)
Figure 2004229313
... (4)

但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in equation (4), K is a high-quality pixel y k and low-quality pixels x 1, k , x 2, k ,..., X N constituting a prediction tap for the high-quality pixel y k. , k (the number of learning samples).

式(4)の自乗誤差の総和Eを最小(極小)にするタップ係数wnは、その総和Eをタップ係数wnで偏微分したものを0とするものであり、従って、次式を満たす必要がある。 The tap coefficient w n for minimizing (minimizing) the sum E of the square errors in the equation (4) is obtained by partially differentiating the sum E with the tap coefficient w n to be 0, and thus satisfies the following equation. There is a need.

Figure 2004229313
・・・(5)
Figure 2004229313
... (5)

そこで、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。 Therefore, the following equation is obtained by partially differentiating the above equation (3) with the tap coefficient w n .

Figure 2004229313
・・・(6)
Figure 2004229313
... (6)

式(5)と(6)から、次式が得られる。   From equations (5) and (6), the following equation is obtained.

Figure 2004229313
・・・(7)
Figure 2004229313
... (7)

式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) for e k in equation (7), equation (7) can be represented by a normal equation shown in equation (8).

Figure 2004229313
・・・(8)
Figure 2004229313
... (8)

式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 The normal equation of Expression (8) can be solved for the tap coefficient w n by using, for example, a sweeping-out method (Gauss-Jordan elimination method).

式(8)の正規方程式をクラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 By solving the normal equations in equation (8) for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class.

図9は、式(8)の正規方程式をたてて解くことによりクラスごとのタップ係数wnを求める学習を行うタップ係数の学習装置の構成例を示している。 Figure 9 shows an example of the configuration of the learning device of the tap coefficients to perform the learning for determining the tap coefficient w n for each class by solving the normal equations in equation (8).

学習装置には、学習に用いられる学習用画像データが入力されるようになっている。ここで、学習用画像データは、第2の画像データに対応するもので、例えば、解像度の高い高画質画像データを用いることができる。   Learning image data used for learning is input to the learning device. Here, the learning image data corresponds to the second image data. For example, high-quality image data with high resolution can be used.

学習装置において、学習用画像データは、教師データ生成部111と生徒データ生成部113に供給される。   In the learning device, the learning image data is supplied to the teacher data generation unit 111 and the student data generation unit 113.

教師データ生成部111は、そこに供給される学習用画像データから教師データを生成し、教師データ記憶部112に供給する。即ち、ここでは、教師データ生成部111は、学習用画像データとしての高画質画像データを、例えば、そのまま教師データとして、教師データ記憶部112に供給する。   The teacher data generation unit 111 generates teacher data from the learning image data supplied thereto and supplies the generated teacher data to the teacher data storage unit 112. That is, here, the teacher data generation unit 111 supplies the high-quality image data as the learning image data to the teacher data storage unit 112 as, for example, the teacher data as it is.

教師データ記憶部112は、教師データ生成部111から供給される教師データとしての高画質画像データを記憶する。   The teacher data storage unit 112 stores high-quality image data as teacher data supplied from the teacher data generation unit 111.

生徒データ生成部113は、学習用画像データから、第1の画像データに対応する生徒データを生成し、生徒データ記憶部114に供給する。即ち、生徒データ生成部113は、例えば、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部114に供給する。   The student data generation unit 113 generates student data corresponding to the first image data from the learning image data, and supplies the generated student data to the student data storage unit 114. That is, the student data generation unit 113 generates low-quality image data by, for example, filtering high-quality image data as learning image data, thereby reducing the resolution, and generating the low-quality image data. The data is supplied to the student data storage unit 114 as student data.

生徒データ記憶部114は、生徒データ生成部113から供給される生徒データを記憶する。   The student data storage unit 114 stores the student data supplied from the student data generation unit 113.

タップ抽出部115は、教師データ記憶部112に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目教師画素とし、その注目教師画素について、生徒データ記憶部114に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの所定のものを抽出することにより、図6のタップ抽出部91が構成するのと同一のタップ構造の予測タップを構成し、足し込み部118に供給する。   The tap extraction unit 115 sequentially sets pixels constituting high-quality image data as teacher data stored in the teacher data storage unit 112 as attention teacher pixels, and stores the attention teacher pixels in the student data storage unit 114. By extracting a predetermined one of the low-quality pixels constituting the low-quality image data as the student data, a prediction tap having the same tap structure as that configured by the tap extraction unit 91 in FIG. 6 is configured, It is supplied to the adding section 118.

タップ抽出部116は、注目教師画素について、生徒データ記憶部114に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの所定のものを抽出することにより、図6のタップ抽出部92が構成するのと同一のタップ構造のクラスタップを構成し、クラス分類部117に供給する。   The tap extracting unit 116 extracts a predetermined one of the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 114 for the attention teacher pixel, thereby forming the tap in FIG. A class tap having the same tap structure as that configured by the extraction unit 92 is configured and supplied to the class classification unit 117.

なお、タップ抽出部115と116には、処理情報生成部120が生成する処理情報が供給されるようになっており、タップ抽出部115と116は、処理情報生成部120から供給される処理情報が表すタップ構造の予測タップとクラスタップをそれぞれ構成する。   The processing information generated by the processing information generation unit 120 is supplied to the tap extraction units 115 and 116. The processing information supplied from the processing information generation unit 120 is supplied to the tap extraction units 115 and 116. Respectively constitute a prediction tap and a class tap having a tap structure represented by.

クラス分類部117は、タップ抽出部116が出力するクラスタップに基づき、図6のクラス分類部93と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部118に出力する。   The class classifying unit 117 performs the same class classification as the class classifying unit 93 in FIG. 6 based on the class tap output from the tap extracting unit 116, and adds a class code corresponding to the resulting class to the adding unit 118. Output.

なお、クラス分類部117には、処理情報生成部120が生成する処理情報が供給されるようになっており、クラス分類部117は、処理情報生成部120から供給される処理情報が表すクラス分類方法によりクラス分類を行う。   Processing information generated by the processing information generation unit 120 is supplied to the class classification unit 117. The class classification unit 117 generates a class classification represented by the processing information supplied from the processing information generation unit 120. Classify according to the method.

足し込み部118は、教師データ記憶部112から、注目教師画素を読み出し、その注目教師画素と、タップ抽出部115から供給される注目教師画素について構成された予測タップを構成する生徒データを対象とした足し込みを、クラス分類部117から供給されるクラスコードごとに行う。   The adding unit 118 reads the target teacher pixel from the teacher data storage unit 112, and targets the target teacher pixel and the student data constituting the prediction tap configured for the target teacher pixel supplied from the tap extraction unit 115. The addition is performed for each class code supplied from the class classification unit 117.

即ち、足し込み部118は、クラス分類部117から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k(xj,k)を用い、式(8)の左辺の行列におけるコンポーネントを求めるための生徒データどうしの乗算(xi,kj,k)と、サメーション(Σ)に相当する演算を行う。 That is, the adding unit 118 uses the prediction tap (student data) x i, k (x j, k ) for each class corresponding to the class code supplied from the class classification unit 117, and calculates the left side of Expression (8). And multiplication (xi , kxj, k ) of student data for finding a component in the matrix of and a calculation corresponding to a summation (Σ).

さらに、足し込み部118は、やはり、クラス分類部117から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,kと、教師データykを用い、式(8)の右辺のベクトルにおけるコンポーネントを求めるための生徒データxi,kと教師データykの乗算(xi,kk)と、サメーション(Σ)に相当する演算を行う。 Further, the adding unit 118 also uses the prediction tap (student data) x i, k and the teacher data y k for each class corresponding to the class code supplied from the class classification unit 117, and calculates the equation (8). performing the student data x i for obtaining the components in the vector of the right side, k and multiplying the teacher data y k (x i, k y k) and, a calculation corresponding to summation (sigma).

即ち、足し込み部118は、前回、注目教師画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネントと、右辺のベクトルのコンポーネントを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントまたはベクトルのコンポーネントに対して、新たに注目教師画素とされた教師データについて、その教師データykと生徒データxi,k(xj,k)を用いて計算される、対応するコンポーネントxi,kj,kまたはxi,kkをそれぞれ足し込む。 That is, the adding unit 118 stores the components of the matrix on the left side and the components of the vector on the right side in Equation (8), which were obtained for the teacher data set as the target teacher pixel last time, in its internal memory (not shown). And the teacher data y k and the student data x i, k (x j, k ) are used for the teacher data newly set as the attention teacher pixel for the matrix component or the vector component. The corresponding components x i, k xj, k or x i, k y k , respectively, which are calculated as follows, are added.

そして、足し込み部118は、教師データ記憶部112に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部119に供給する。   Then, the adding unit 118 performs the above-described addition using all the teacher data stored in the teacher data storage unit 112 as the teacher pixel of interest, thereby obtaining a normal equation shown in Expression (8) for each class. Then, the normal equation is supplied to the tap coefficient calculation unit 119.

タップ係数算出部119は、足し込み部118から供給されるクラスごとの正規方程式を解くことにより、各クラスごとのタップ係数wnを求めて出力する。 The tap coefficient calculation unit 119 obtains and outputs a tap coefficient w n for each class by solving a normal equation for each class supplied from the adding unit 118.

処理情報生成部120は、画像処理カード131乃至136それぞれに構成させる予測タップおよびクラスタップのタップ構造や、画像処理カード131乃至136それぞれに行わせるクラス分類のクラス分類方法などを含む処理情報を生成し、タップ抽出部115および116、並びにクラス分類部117に供給する。なお、処理情報生成部120において処理情報に含ませるタップ構造やクラス分類方法などは、処理情報生成部120に、あらかじめ記憶(登録)されているものとする。 Processing information generation unit 120 includes tap structure of the prediction taps and the class tap is configured in the image processing card 13 1 to 13 6, respectively and, the image processing card 13 1 through 13 6 classification method of classification to perform each and The processing information is generated and supplied to the tap extraction units 115 and 116 and the class classification unit 117. Note that the tap structure, class classification method, and the like included in the processing information in the processing information generation unit 120 are stored (registered) in the processing information generation unit 120 in advance.

次に、図10のフローチャートを参照して、図9の学習装置の処理(学習処理)について説明する。   Next, the processing (learning processing) of the learning device in FIG. 9 will be described with reference to the flowchart in FIG.

まず最初に、ステップS21において、教師データ生成部111と生徒データ生成部113が、学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。即ち、教師データ生成部111は、学習用画像データを、そのまま、教師データとして出力する。また、生徒データ生成部111は、学習用画像データを、LPFによってフィルタリングすることにより、各フレーム(またはフィールド)の教師データ(学習用画像データ)について、生徒データを生成して出力する。   First, in step S21, the teacher data generation unit 111 and the student data generation unit 113 respectively generate and output teacher data and student data from the learning image data. That is, the teacher data generation unit 111 outputs the learning image data as it is as the teacher data. In addition, the student data generation unit 111 generates and outputs student data for teacher data (learning image data) of each frame (or field) by filtering the learning image data with an LPF.

教師データ生成部111が出力する教師データは、教師データ記憶部112に供給されて記憶され、生徒データ生成部113が出力する生徒データは、生徒データ記憶部114に供給されて記憶される。   The teacher data output by the teacher data generation unit 111 is supplied to and stored in the teacher data storage unit 112, and the student data output by the student data generation unit 113 is supplied to and stored in the student data storage unit 114.

その後、ステップS22に進み、処理情報生成部120は、所定の処理情報を生成し、タップ抽出部115および116、並びにクラス分類部117に供給し、これにより、タップ抽出部115に構成させる予測タップのタップ構造、タップ抽出部116に構成させるクラスタップのタップ構造、およびクラス分類部177におけるクラス分類方法を設定する。   Thereafter, the process proceeds to step S22, in which the processing information generating unit 120 generates predetermined processing information and supplies the processing information to the tap extracting units 115 and 116 and the classifying unit 117. , The tap structure of the class tap to be configured by the tap extraction unit 116, and the class classification method in the class classification unit 177 are set.

そして、ステップS23に進み、タップ抽出部115は、教師データ記憶部112に記憶された教師データのうち、まだ、注目教師画素としていないものを、注目教師画素とする。さらに、ステップS23では、タップ抽出部115が、注目教師画素について、生徒データ記憶部114に記憶された生徒データから予測タップを構成し、足し込み部118に供給するとともに、タップ抽出部116が、やはり、注目教師画素について、生徒データ記憶部114に記憶された生徒データからクラスタップを構成し、クラス分類部117に供給する。   Then, the process proceeds to step S23, where the tap extracting unit 115 sets the teacher data stored in the teacher data storage unit 112 that has not been set as the target teacher pixel yet as the target teacher pixel. Further, in step S23, the tap extracting unit 115 configures a prediction tap from the student data stored in the student data storage unit 114 for the attention teacher pixel, supplies the predicted tap to the adding unit 118, and the tap extracting unit 116 Again, for the noted teacher pixel, a class tap is formed from the student data stored in the student data storage unit 114 and supplied to the class classification unit 117.

なお、タップ抽出部115は、ステップS22で設定されたタップ構造の予測タップを構成する。タップ抽出部116も、ステップS22で設定されたタップ構造のクラスタップを構成する。   Note that the tap extracting unit 115 forms a prediction tap having the tap structure set in step S22. The tap extracting unit 116 also configures the class tap having the tap structure set in step S22.

その後、ステップS24に進み、クラス分類部117は、注目教師画素についてのクラスタップに基づき、注目教師画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部118に出力して、ステップS25に進む。   Thereafter, the process proceeds to step S24, where the class classification unit 117 classifies the target teacher pixel based on the class tap of the target teacher pixel, and outputs a class code corresponding to the resulting class to the adding unit 118. Then, the process proceeds to step S25.

なお、クラス分類部117では、ステップS22で設定されたクラス分類方法によるクラス分類が行われる。   Note that the class classification unit 117 performs the class classification according to the class classification method set in step S22.

ステップS25では、足し込み部118は、教師データ記憶部112から注目教師画素を読み出し、その注目教師画素と、タップ抽出部115から供給される予測タップを用い、式(8)における左辺の行列のコンポーネントxi,Kj,Kと、右辺のベクトルのコンポーネントxi,KKを計算する。さらに、足し込み部118は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部117からのクラスコードに対応するものに対して、注目画素と予測タップから求められた行列のコンポーネントxi,Kj,Kとベクトルのコンポーネントxi,KKをそれぞれ足し込み、ステップS26に進む。 In step S25, the adding unit 118 reads the teacher pixel of interest from the teacher data storage unit 112, and uses the teacher pixel of interest and the prediction tap supplied from the tap extraction unit 115 to calculate the matrix on the left side in Expression (8). The component x i, K x j, K and the component x i, K y K of the vector on the right side are calculated. Further, the adding unit 118 compares the matrix component obtained from the target pixel and the prediction tap with respect to the component corresponding to the class code from the class classification unit 117 among the components of the matrix and the components of the vector already obtained. component x i, K x j, summing component x i of the K-vector to K y K respectively, the process proceeds to step S26.

ステップS26では、タップ抽出部115が、教師データ記憶部112に、まだ、注目教師画素としていない教師データが記憶されているかどうかを判定する。ステップS26において、注目教師画素としていない教師データが、まだ、教師データ記憶部112に記憶されていると判定された場合、タップ抽出部115は、まだ注目教師画素としていない教師データを、新たに、注目教師画素として、ステップS23に戻り、以下、同様の処理が繰り返される。   In step S26, the tap extracting unit 115 determines whether or not the teacher data storage unit 112 has stored teacher data that is not yet set as the target teacher pixel. In step S26, when it is determined that the teacher data that is not the attention teacher pixel is still stored in the teacher data storage unit 112, the tap extraction unit 115 newly adds the teacher data that is not the attention teacher pixel yet. The process returns to step S23 as the attention teacher pixel, and the same processing is repeated thereafter.

また、ステップS26において、注目教師画素としていない教師データが、教師データ記憶部112に記憶されていないと判定された場合、足し込み部118は、いままでの処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、タップ係数算出部119に供給し、ステップS27に進む。   Also, in step S26, when it is determined that the teacher data not serving as the target teacher pixel is not stored in the teacher data storage unit 112, the adding unit 118 calculates the expression (class) for each class obtained by the above processing. The matrix on the left side and the vector on the right side in 8) are supplied to the tap coefficient calculation unit 119, and the process proceeds to step S27.

ステップS27では、タップ係数算出部119は、足し込み部118から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、タップ係数wnを求めて出力し、処理を終了する。 In step S27, the tap coefficient calculation unit 119 solves the normal equation for each class constituted by the matrix on the left side and the vector on the right side in the expression (8) for each class supplied from the adding unit 118, and Each time, the tap coefficient w n is obtained and output, and the process is terminated.

ここで、学習用画像データの数が十分でないこと等に起因して、タップ係数wnを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、タップ係数算出部119は、例えば、デフォルトのタップ係数を出力するようになっている。 Here, a class in which the number of normal equations required for obtaining the tap coefficient w n cannot be obtained may occur due to an insufficient number of learning image data or the like. For, the tap coefficient calculation unit 119 outputs, for example, a default tap coefficient.

なお、上述の場合には、学習用画像データを、そのまま第2の画像データに対応する教師データとするとともに、その学習用画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、タップ係数の学習を行うようにしたことから、タップ係数としては、第1の画像データを、その解像度を向上させた第2の画像データに変換する解像度向上処理としてのデータ変換処理を行うものを得ることができる。   In the above case, the learning image data is used as it is as the teacher data corresponding to the second image data, and the low-quality image data obtained by degrading the spatial resolution of the learning image data is used as the first image data. Since the learning of the tap coefficient is performed as the student data corresponding to the image data, the resolution improvement processing for converting the first image data into the second image data whose resolution is improved as the tap coefficient is performed. Which performs data conversion processing as described above.

従って、画像処理カード13の係数メモリ94(図6)に、そのタップ係数を記憶させることにより、画像処理カード13では、画像データの空間解像度を向上させることができる。   Therefore, by storing the tap coefficients in the coefficient memory 94 (FIG. 6) of the image processing card 13, the image processing card 13 can improve the spatial resolution of the image data.

ここで、第1の画像データに対応する生徒データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、タップ係数としては、各種のデータ変換処理を行うものを得ることができる。   Here, depending on the method of selecting the student data corresponding to the first image data and the image data serving as the teacher data corresponding to the second image data, tap coefficients for performing various data conversion processes are obtained. be able to.

即ち、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、ノイズを重畳した画像データを生徒データとして、学習処理を行うことにより、タップ係数としては、第1の画像データを、そこに含まれるノイズを除去(低減)した第2の画像データに変換するノイズ除去処理としてのデータ変換処理を行うものを得ることができる。   That is, for example, high-quality image data is used as teacher data, and learning processing is performed on the high-quality image data as the teacher data using image data on which noise is superimposed as student data. In addition, it is possible to obtain an image obtained by performing a data conversion process as a noise removal process for converting the first image data into the second image data in which noise included therein has been removed (reduced).

また、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を間引いた画像データを生徒データとして、または、所定サイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素を所定の間引き率で間引いた画像データを教師データとして、学習処理を行うことにより、タップ係数としては、第1の画像データを、拡大または縮小した第2の画像データに変換するリサイズ処理としてのデータ変換処理を行うものを得ることができる。   In addition, for example, while certain image data is used as teacher data, image data obtained by thinning out the number of pixels of the image data as teacher data is used as student data, or image data of a predetermined size is used as student data, and A learning process is performed by using image data obtained by thinning pixels of image data as data at a predetermined thinning rate as teacher data, and as a tap coefficient, second image data obtained by enlarging or reducing the first image data It is possible to obtain a device that performs a data conversion process as a resize process for converting the data into a data size.

従って、画像処理カード13の係数メモリ94(図6)に、ノイズ除去処理用のタップ係数や、リサイズ処理用のタップ係数を記憶させることにより、画像処理カード13では、画像データのノイズ除去やリサイズ(拡大または縮小)を行うことができる。   Therefore, by storing a tap coefficient for noise removal processing and a tap coefficient for resizing processing in the coefficient memory 94 (FIG. 6) of the image processing card 13, the image processing card 13 allows the image processing card 13 to remove noise and resize image data. (Enlarge or reduce).

以上のように、タップ係数の学習に用いる教師データと生徒データのセット(以下、適宜、学習対ともいう)によって、タップ係数としては、解像度の向上や、ノイズ除去、リサイズ等の、各種の画質の改善を行うものを得ることができ、従って、このような各種の画質改善を行うタップ係数を、画像処理カード131乃至136に記憶させることにより、各画像処理カード13iでは、各種の画質改善のためのデータ変換処理を行うことができる。 As described above, depending on the set of teacher data and student data used for learning tap coefficients (hereinafter also referred to as a learning pair as appropriate), various image qualities such as improvement in resolution, noise removal, and resizing can be used as tap coefficients. improvements can be obtained to perform, therefore, a tap coefficient for performing such various improvements in image quality, by storing the image processing card 13 1 to 13 6, in each of the image processing cards 13 i, various Data conversion processing for improving image quality can be performed.

なお、その他、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データの空間解像度を低下させ、さらに、ノイズを重畳した画像データを生徒データとして、学習処理を行うことにより、タップ係数としては、第1の画像データを、そこに含まれるノイズを除去(低減)し、さらに、その空間解像度を向上させた第2の画像データに変換するノイズ除去処理と解像度向上処理の両方を、データ変換処理として行うものを得ることができる。   In addition, for example, the learning process is performed by using the high-quality image data as teacher data, reducing the spatial resolution of the high-quality image data as the teacher data, and further using the image data on which noise is superimposed as student data. Accordingly, as a tap coefficient, noise removal processing and resolution improvement for removing (reducing) noise included in the first image data and further converting the first image data into second image data having an improved spatial resolution are used. It is possible to obtain one that performs both processes as a data conversion process.

但し、ノイズ除去処理と解像度向上処理の両方を行うタップ係数を用いてデータ変換処理を行った画像データと、ノイズ除去処理を行うタップ係数を用いてデータ変換処理を行い、さらに、解像度向上処理を行うタップ係数を用いてデータ変換処理を行った画像データとでは、各データ変換処理の条件が同一であれば、画質に差が生じる。   However, image data that has been subjected to data conversion processing using tap coefficients that perform both noise removal processing and resolution improvement processing, and data conversion processing that uses tap coefficients that perform noise removal processing, and further, resolution improvement processing If the conditions of each data conversion process are the same, there is a difference in image quality between the image data subjected to the data conversion process using the tap coefficient to be performed.

即ち、ノイズ除去処理と解像度向上処理の両方を行うタップ係数を用いたデータ変換処理、ノイズ除去処理を行うタップ係数を用いたデータ変換処理、および解像度向上処理を行うタップ係数を用いたデータ変換処理において、いずれも、同一のタップ構造の予測タップおよびクラスタップを用いるとともに、同一のクラス分類方法(クラス数も同一)を採用した場合には、ノイズ除去処理を行うタップ係数を用いてデータ変換処理を行い、さらに、解像度向上処理を行うタップ係数を用いてデータ変換処理を行った画像データの方が、ノイズ除去処理と解像度向上処理の両方を行うタップ係数を用いてデータ変換処理を行った画像データよりも高画質になる。   That is, data conversion processing using tap coefficients for performing both noise removal processing and resolution improvement processing, data conversion processing using tap coefficients for noise removal processing, and data conversion processing using tap coefficients for performing resolution improvement processing In both cases, when the prediction tap and the class tap having the same tap structure are used and the same class classification method (the same number of classes) is employed, data conversion processing is performed using tap coefficients for performing noise removal processing. The image data that has been subjected to the data conversion processing using the tap coefficient for performing the resolution improvement processing is further subjected to the data conversion processing using the tap coefficient for performing both the noise removal processing and the resolution improvement processing. Higher image quality than data.

ところで、画像処理カード13の生成情報記憶部97には、図9の学習装置によって求められるクラスごとのタップ係数を、生成情報として記憶させておくことが可能である。   By the way, in the generation information storage unit 97 of the image processing card 13, it is possible to store the tap coefficient for each class obtained by the learning device of FIG. 9 as the generation information.

しかしながら、この場合、クラス数をZとするとともに、1クラスあたりのタップ係数のセット(式(1)を規定するタップ係数w1,w2,・・・,wNのセット)の容量をBとすると、画像処理カード13を構成する生成情報記憶部97としては、少なくともZ×Bの容量のメモリが必要となる。 However, in this case, the number of classes is Z, and the capacity of a set of tap coefficients per class (a set of tap coefficients w 1 , w 2 ,..., W N that defines equation (1)) is B. In this case, the generation information storage unit 97 constituting the image processing card 13 needs a memory having at least a capacity of Z × B.

そこで、ここでは、タップ係数w1,w2,・・・,wNのセットのうちのn番目のタップ係数wnにおけるサフィックスnをタップ番号として、クラスごとのタップ係数w1乃至wNを、例えば、タップ番号ごとに圧縮し、その圧縮結果を、生成情報として、生成情報記憶部97(図6)に記憶させることができる。この場合、生成情報記憶部97に必要な記憶容量を削減することができる。 Therefore, here, the tap coefficients w 1, w 2, · · ·, as the tap number suffix n in the n-th tap coefficient w n of the set of w N, a tap coefficient for each class w 1 to w N For example, compression can be performed for each tap number, and the compression result can be stored in the generation information storage unit 97 (FIG. 6) as generation information. In this case, the storage capacity required for the generation information storage unit 97 can be reduced.

クラスごとのタップ係数w1乃至wNの、タップ番号ごとの圧縮は、例えば、次のようにして行うことができる。 The compression of the tap coefficients w 1 to w N for each class for each tap number can be performed, for example, as follows.

即ち、いま、タップ係数wnを、その種となる係数種データと、所定のパラメータとから、例えば、次式にしたがって生成することを考える。 That is, it is considered that the tap coefficient w n is generated from the coefficient seed data serving as the seed and a predetermined parameter according to, for example, the following equation.

Figure 2004229313
・・・(9)
Figure 2004229313
... (9)

但し、式(9)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表し、zは、パラメータを表す。なお、式(9)では、タップ係数wnが、M個の係数種データβn,1,βn,2,・・・,βn,Mを用いて求められるようになっている。 In Expression (9), β m, n represents the m-th coefficient seed data used for obtaining the n-th tap coefficient w n , and z represents a parameter. In the equation (9), the tap coefficient w n is obtained using M pieces of coefficient seed data β n, 1 , β n, 2 ,..., Β n, M.

ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(9)に限定されるものではない。 Here, the equation for calculating the tap coefficient w n from the coefficient seed data β m, n and the parameter z is not limited to equation (9).

いま、式(9)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。 Now, a value z m-1 determined by the parameter z in the equation (9) is defined by the following equation by introducing a new variable t m .

Figure 2004229313
・・・(10)
Figure 2004229313
... (10)

式(10)を、式(9)に代入することにより、次式が得られる。   By substituting equation (10) into equation (9), the following equation is obtained.

Figure 2004229313
・・・(11)
Figure 2004229313
... (11)

式(11)によれば、タップ係数wnは、係数種データβn,mと変数tmとの線形1次式によって求められる(予測される)ことになるが、いま、この式(11)によって求められるタップ係数を、wn'と表すこととすると、次の式(12)で表される、最適なタップ係数wnと式(11)により求められるタップ係数wn'との誤差enを0とする係数種データβn,mが、最適なタップ係数wnを求めるのに最適なものとなるが、すべてのタップ係数wnについて、そのような係数種データβn,mを求めることは、一般には困難である。 According to equation (11), the tap coefficient w n is obtained by a linear first-order equation of the coefficient seed data beta n, m and the variable t m becomes the (predicted) that, now, the formula (11 the tap coefficient obtained by), 'When is represented as is expressed by the following equation (12), the tap coefficient w n which is determined by the optimum tap coefficients w n and equation (11)' w n error between the e n is the coefficient seed data beta n, m to 0 is the optimal for determining the optimum tap coefficients w n, for all of the tap coefficients w n, such coefficient seed data beta n, m Is generally difficult to find.

Figure 2004229313
・・・(12)
Figure 2004229313
... (12)

なお、式(12)は、その右辺のwn'に式(11)を代入することによって、次式のように変形することができる。 Expression (12) can be modified as follows by substituting expression (11) into w n ′ on the right side.

Figure 2004229313
・・・(13)
Figure 2004229313
... (13)

そこで、係数種データβn,mが最適なものであることを表す規範として、例えば、やはり、最小自乗法を採用することとすると、最適な係数種データβn,mは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, assuming that the least squares method is adopted as a criterion indicating that the coefficient seed data β n, m is optimal, the optimal coefficient seed data β n, m is expressed by the following equation. It can be obtained by minimizing the sum E of the squared errors.

Figure 2004229313
・・・(14)
Figure 2004229313
... (14)

式(14)の自乗誤差の総和Eの最小値(極小値)は、式(15)に示すように、総和Eを係数種データβn,mで偏微分したものを0とするβn,mによって与えられる。 The minimum value (minimum value) of the sum E of the squared errors in the equation (14) is, as shown in the equation (15), βn , which is obtained by partially differentiating the sum E with the coefficient seed data βn , m . given by m .

Figure 2004229313
・・・(15)
Figure 2004229313
... (15)

式(13)を、式(15)に代入することにより、次式が得られる。   By substituting equation (13) into equation (15), the following equation is obtained.

Figure 2004229313
・・・(16)
Figure 2004229313
... (16)

いま、Xi,j,とYiを、式(17)と(18)に示すように定義する。 Now, X i, j, and Y i are defined as shown in Expressions (17) and (18).

Figure 2004229313
・・・(17)
Figure 2004229313
... (17)

Figure 2004229313
・・・(18)
Figure 2004229313
... (18)

この場合、式(16)は、Xi,jとYiを用いた式(19)に示す正規方程式で表すことができる。 In this case, equation (16) can be represented by a normal equation shown in equation (19) using X i, j and Y i .

Figure 2004229313
・・・(19)
Figure 2004229313
... (19)

式(19)の正規方程式も、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβn,mについて解くことができる。 The normal equation of Expression (19) can also be solved for the coefficient seed data β n, m by using, for example, a sweeping-out method (Gauss-Jordan elimination method).

式(19)の正規方程式を解くことにより求められる係数種データβn,mによれば、式(9)にしたがい、各パラメータzについて、タップ係数wnを得ることができる。 According to the coefficient seed data β n, m obtained by solving the normal equation of Expression (19), a tap coefficient w n can be obtained for each parameter z according to Expression (9).

ところで、パラメータzとして、例えば、タップ係数のクラスを採用した場合には、パラメータ(クラス)zと、係数種データβn,mとによって、式(9)から、クラス#zのタップ係数のセットを求めることができる。 By the way, when the class of the tap coefficient is adopted as the parameter z, for example, the set of the tap coefficient of the class #z is obtained from the equation (9) by the parameter (class) z and the coefficient seed data β n, m. Can be requested.

そこで、いま、クラス#zのn番目のタップ係数wnを、w(z) nと表すこととすると、このクラス#zのn番目のタップ係数w(z) nを、式(9)にしたがって求めるための係数種データβn,mは、図9の学習装置によって求められる各クラス#1,#2,・・・,#Zのn番目のタップ係数w(1) n,w(2) n,・・・,w(Z) nを、それぞれ教師データとし、クラスを表すパラメータ#1,#2,・・・,#Zを、そのクラスの教師データに対する生徒データとして、式(19)の正規方程式をたてて解くことにより求めることができる。 Therefore, assuming that the n-th tap coefficient w n of the class #z is represented by w (z) n , the n-th tap coefficient w (z) n of the class #z is expressed by Expression (9). Therefore, the coefficient seed data β n, m to be obtained is the n-th tap coefficient w (1) n , w (2 ) of each of the classes # 1, # 2,..., #Z obtained by the learning device of FIG. ) n ,..., w (Z) n are used as teacher data, and parameters # 1, # 2,. ) Can be obtained by setting up and solving the normal equation.

図11は、上述のようにして、クラス#zのn番目のタップ係数w(z) nを求めるための係数種データβn,mを求める学習を行う学習装置の構成例を示している。なお、図中、図9における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。 FIG. 11 shows an example of the configuration of a learning device that performs learning for obtaining coefficient seed data β n, m for obtaining the n-th tap coefficient w (z) n of class #z as described above. In the figure, portions corresponding to the case in FIG. 9 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below.

タップ係数メモリ121は、タップ係数算出部119が出力するクラスごとのタップ係数のセットを記憶する。   The tap coefficient memory 121 stores a set of tap coefficients for each class output by the tap coefficient calculation unit 119.

足し込み部122は、タップ番号nごとに、クラスを表すパラメータ#z(に対応する変数tm)と、タップ係数メモリ121に記憶された各クラス#zのタップ係数w(z) nを対象とした足し込みを行う。 The adding unit 122 targets, for each tap number n, a parameter #z (a variable t m corresponding to the class) representing a class and a tap coefficient w (z) n of each class #z stored in the tap coefficient memory 121. And add.

即ち、足し込み部122は、パラメータzから式(10)によって求められる変数ti(tj)を用い、式(19)の左辺の行列における、式(17)で定義されるコンポーネントXi,jを求めるためのパラメータzに対応する変数ti(tj)どうしの乗算(tij)と、サメーション(Σ)に相当する演算を、タップ番号nごとに行う。 That is, the adding unit 122 uses the variable t i (t j ) obtained by the equation (10) from the parameter z and uses the component X i, defined by the equation (17) in the matrix on the left side of the equation (19) . For each tap number n, a multiplication (t i t j ) of variables t i (t j ) corresponding to a parameter z for obtaining j and an operation corresponding to a summation (Σ) are performed.

さらに、足し込み部122は、パラメータzから式(10)によって求められる変数tiと、タップ係数w(z) nとを用い、式(19)の右辺のベクトルにおける、式(18)で定義されるコンポーネントYiを求めるためのパラメータzに対応する変数tiおよびタップ係数wnの乗算(tin)と、サメーション(Σ)に相当する演算を、タップ番号nごとに行う。 Further, the adding unit 122 uses the variable t i obtained by the equation (10) from the parameter z and the tap coefficient w (z) n and defines the equation (18) in the vector on the right side of the equation (19). The multiplication (t i w n ) of the variable t i and the tap coefficient w n corresponding to the parameter z for obtaining the component Y i to be performed, and the operation corresponding to the summation (Σ) are performed for each tap number n.

足し込み部122は、タップ番号nごとに、式(17)で表されるコンポーネントXi,jと、式(18)で表されるコンポーネントYiを求めることにより、各タップ番号nについて、式(19)の正規方程式をたてると、その正規方程式を、係数種算出部123に供給する。 The adding unit 122 obtains, for each tap number n, a component X i, j expressed by Expression (17) and a component Y i expressed by Expression (18). When the normal equation of (19) is established, the normal equation is supplied to the coefficient type calculating unit 123.

なお、図11の実施の形態では、処理情報生成部120が出力する処理情報が、足し込み部122に供給されるようになっている。この場合、処理情報には、係数種データβm,nからタップ係数w(z) nを求めるタップ演算式としての式(9)の項数を表すMが含まれており、足し込み部122は、情報処理生成部120から供給される処理情報を参照することで、タップ演算式の項数Mを認識し、式(19)の正規方程式をたてるようになっている。 In the embodiment of FIG. 11, the processing information output by the processing information generating unit 120 is supplied to the adding unit 122. In this case, the processing information includes M representing the number of terms of equation (9) from the coefficient seed data beta m, n as a tap calculation equation for determining the tap coefficient w (z) n, the adder 122 Refers to the processing information supplied from the information processing generation unit 120, thereby recognizing the number M of terms in the tap operation expression, and forming the normal equation of Expression (19).

係数種算出部123は、足し込み部122から供給されるタップ番号nごとの式(19)の正規方程式を解くことにより、各タップ番号nごとの係数種データβm,nを求めて出力する。 The coefficient seed calculating unit 123 obtains and outputs coefficient seed data β m, n for each tap number n by solving the normal equation of Expression (19) for each tap number n supplied from the adding unit 122. .

次に、図12のフローチャートを参照して、図11の学習装置の処理(学習処理)について説明する。   Next, the processing (learning processing) of the learning device in FIG. 11 will be described with reference to the flowchart in FIG.

ステップS31乃至S37では、図10のステップS21乃至S27における場合とそれぞれ同様の処理が行われ、これにより、タップ係数算出部119で求められるクラスごとのタップ係数は、タップ係数メモリ121に供給されて記憶される。   In steps S31 to S37, the same processes as those in steps S21 to S27 in FIG. 10 are performed, whereby the tap coefficients for each class obtained by the tap coefficient calculation unit 119 are supplied to the tap coefficient memory 121. It is memorized.

なお、ステップS32では、タップ抽出部115に構成させる予測タップのタップ構造、タップ抽出部116に構成させるクラスタップのタップ構造、およびクラス分類部117におけるクラス分類方法の他、足し込み部122で式(19)の正規方程式をたてるのに必要なタップ演算式(9)の項数Mも設定される。   In step S32, in addition to the tap structure of the prediction tap to be configured by the tap extraction unit 115, the tap structure of the class tap to be configured by the tap extraction unit 116, the class classification method in the class classification unit 117, the addition unit 122 The number of terms M of the tap operation expression (9) required to form the normal equation of (19) is also set.

即ち、図11の学習装置における処理情報生成部120は、画像処理カード131乃至136それぞれに構成させる予測タップおよびクラスタップのタップ構造や、画像処理カード131乃至136それぞれに行わせるクラス分類のクラス分類方法の他、画像処理カード131乃至136において係数種データβm,nからタップ係数wnを生成するためのタップ演算式(9)の項数Mも含む処理情報を生成し、タップ抽出部115および116、クラス分類部117、並びに足し込み部122に供給するようになっており、足し込み部122は、その処理情報に含まれる項数Mにしたがって、式(19)の正規方程式をたてるように、その動作モードを設定する。 That is, the processing information generation unit 120 in the learning device of FIG. 11 includes a tap structure of a prediction tap and a class tap configured on each of the image processing cards 13 1 to 13 6 , and a class configured on the image processing cards 13 1 to 13 6. other classification methods classification, produce a number of terms processing information M including the tap calculation equation (9) for generating the tap coefficient w n in the image processing card 13 1 to 13 6 from the coefficient seed data beta m, n Then, the data is supplied to the tap extracting units 115 and 116, the class classifying unit 117, and the adding unit 122. The adding unit 122 calculates the equation (19) according to the number M of terms included in the processing information. The operation mode is set so that the normal equation of

その後、ステップS38に進み、足し込み部122は、タップ番号nごとに、クラスを表すパラメータ#z(に対応する変数tm)と、タップ係数メモリ121に記憶された各クラス#zのタップ係数w(z) nを対象として、上述したような足し込みを行い、これにより、各タップ番号nについて、式(19)の正規方程式をたて、係数種算出部123に供給して、ステップS39に進む。 Thereafter, the process proceeds to step S38, where the adding unit 122 determines, for each tap number n, a parameter #z (corresponding to a variable t m ) representing a class and a tap coefficient of each class #z stored in the tap coefficient memory 121. The above-described addition is performed on w (z) n , thereby forming a normal equation of Expression (19) for each tap number n and supplying the normal equation to the coefficient type calculation unit 123, and then proceeds to step S 39. Proceed to.

なお、ステップS38では、足し込み部122は、ステップS32で設定されたタップ演算式(9)の項数Mにしたがって、式(19)の正規方程式をたてる。   In step S38, the adding unit 122 forms a normal equation of equation (19) according to the number M of terms of the tap operation equation (9) set in step S32.

ステップS39では、係数種算出部123は、足し込み部122から供給されるタップ番号nごとの式(19)の正規方程式を解くことにより、各タップ番号nごとの係数種データβm,nを求めて出力し、処理を終了する。 In step S39, the coefficient seed calculation unit 123 solves the normal equation of the equation (19) for each tap number n supplied from the adding unit 122, thereby obtaining the coefficient seed data β m, n for each tap number n. The output is obtained and the processing is terminated.

図11の学習装置では、学習対および処理情報を適宜変更して、図12の学習処理を行い、これにより、各種の画質改善を行うことのできる係数種データβm,nが求められる。そして、このようにして求められた各種の画質改善を行うことのできる係数種データβm,nのうちの異なるものが、画像処理カード131乃至136それぞれに記憶されている。 In the learning device in FIG. 11, the learning pair and the processing information are appropriately changed to perform the learning process in FIG. 12, whereby the coefficient seed data β m, n that can perform various image quality improvements is obtained. Then, in this way ones of the coefficient seed data beta m, n which can perform various improvements of the image quality obtained by different, it is stored in the image processing card 13 1 to 13 6, respectively.

なお、1クラスのタップ係数wnの個数がN個であり、クラス数がZクラスであるとすると、タップ係数wnの総数は、N×Z個になる。 Assuming that the number of tap coefficients w n in one class is N and the number of classes is Z class, the total number of tap coefficients w n is N × Z.

一方、1クラスのタップ係数wnの個数がN個であり、タップ演算式(9)の項数がMであるとすると、係数種データβm,nの総数は、N×M個になる。 On the other hand, assuming that the number of tap coefficients w n in one class is N and the number of terms in the tap operation expression (9) is M, the total number of coefficient seed data β m, n is N × M. .

従って、1つのタップ係数wnと係数種データβm,nが同一のデータ量であるとすると、すべての係数種データβm,nのデータ量は、すべてのタップ係数wnのデータ量のM/Zになる。 Therefore, assuming that one tap coefficient w n and coefficient seed data β m, n have the same data amount, the data amount of all coefficient seed data β m, n is equal to the data amount of all tap coefficients w n . M / Z.

そこで、MとZを比較すると、Mは、タップ演算式(9)の項数であり、1桁、または多くても、例えば、10数などの2桁程度の値が採用される。一方、Zは、クラス数を表すが、クラスを求めるクラス分類は、例えば、上述したように、クラスタップをADRC処理することにより求められる。従って、例えば、いま、5×5画素の25画素で構成されるクラスタップを、1ビットADRC処理することによりクラス分類を行うこととすると、クラス数は、225クラスとなる。 Therefore, when M is compared with Z, M is the number of terms in the tap operation expression (9), and a value of one digit or at most about two digits such as, for example, ten is adopted. On the other hand, Z represents the number of classes, and the class classification for obtaining the class is obtained, for example, by performing ADRC processing on the class tap as described above. Therefore, for example, if class classification is performed by performing 1-bit ADRC processing on a class tap composed of 25 pixels of 5 × 5 pixels, the number of classes becomes 225 classes.

以上から、M/Zは、十分小さな値となり、従って、タップ係数wnは、十分に少ないデータ量の係数種データβm,nに圧縮されているということができる。 From the above, it can be said that M / Z is a sufficiently small value, and therefore, the tap coefficient w n is compressed into the coefficient seed data β m, n having a sufficiently small data amount.

従って、係数種データβm,nを、生成情報として、生成情報記憶部97(図6)に記憶させることにより、タップ係数wnを記憶させる場合に比較して、生成情報記憶部97に必要な記憶容量を大きく削減することができる。 Therefore, by storing the coefficient seed data β m, n as generation information in the generation information storage unit 97 (FIG. 6), it is necessary for the generation information storage unit 97 to store the tap coefficients w n compared to the case where the tap coefficients w n are stored. Storage capacity can be greatly reduced.

ここで、図6に示した画像処理カード13iに記憶されている処理情報には、タップ構造やクラス分類方法の他、タップ演算式(9)の項数Mや、クラス分類部93におけるクラス分類によるクラス数Zも含まれており、係数生成部96では、処理情報を参照することにより、タップ演算式(9)の項数Mが認識される。さらに、カードコントローラ98は、処理情報を参照することにより、クラス数Zを認識し、1乃至Zの整数値を、パラメータzとして、係数生成部96に与える。そして、係数生成部96では、生成情報としての係数種データβm,nと、カードコントローラ98から供給されるパラメータzとを用い、タップ演算式(9)の右辺におけるM項からなるサメーションを演算し、これにより、各クラスのタップ係数wnを求める。 Here, the processing information stored in the image processing card 13 i shown in FIG. 6 includes, in addition to the tap structure and the class classification method, the number M of terms in the tap operation expression (9), the class The number of classes Z by classification is also included, and the coefficient generation unit 96 recognizes the number M of terms in the tap operation expression (9) by referring to the processing information. Further, the card controller 98 recognizes the number of classes Z by referring to the processing information, and gives an integer value of 1 to Z to the coefficient generation unit 96 as a parameter z. Then, the coefficient generation unit 96 uses the coefficient seed data β m, n as generation information and the parameter z supplied from the card controller 98 to calculate the summation of the M term on the right side of the tap operation expression (9). calculated, thereby determining the tap coefficient w n for each class.

次に、上述したように、図11の学習装置によれば、図13に示すように、高画質画像データを教師データとするとともに、その画質を低下させた低画質画像データを生徒データとして学習が行われ、Zクラス分のタップ係数のセットが生成される。さらに、図11の学習装置によれば、そのZクラス分のタップ係数のセットが圧縮され、予測タップのタップ数であるNタップ分の係数種データのセットが生成される。   Next, as described above, according to the learning apparatus of FIG. 11, as shown in FIG. 13, high-quality image data is used as teacher data, and low-quality image data whose image quality is reduced is used as student data. Is performed to generate a set of tap coefficients for the Z class. Further, according to the learning apparatus of FIG. 11, the set of tap coefficients for the Z class is compressed, and a set of coefficient seed data for N taps, which is the number of taps of the prediction tap, is generated.

そして、学習において、どのような学習対(教師データと生徒データ)を用いるかによって、異なる種類の画質改善(例えば、ノイズの低減や、解像度の向上など)を行うタップ係数を生成することのできる係数種データを求めることができる。さらに、学習において採用する予測タップのタップ構造(予測タップとする画素の位置関係の他、タップ数も含む)や、クラスタップのタップ構造、クラス分類方法、タップ演算式(9)の項数Mなどによって、画質改善の程度が異なるタップ係数を生成することのできる係数種データを求めることができる。   Then, depending on what learning pair (teacher data and student data) is used in the learning, it is possible to generate tap coefficients for performing different types of image quality improvement (for example, noise reduction or resolution improvement). Coefficient seed data can be obtained. Further, the tap structure of the prediction tap employed in the learning (including the number of taps in addition to the positional relationship of the pixels to be the prediction tap), the tap structure of the class tap, the class classification method, and the number of terms M in the tap operation formula (9) For example, coefficient seed data that can generate tap coefficients with different degrees of image quality improvement can be obtained.

画像処理カード131乃至136それぞれには、異なる種類や程度の画質改善を行うタップ係数wnを生成する係数種データを、生成情報として記憶させておくことができるが、以下、図14乃至図19を参照して、画像処理カード131乃至136のうちの、例えば、画像処理カード131と132に記憶させる係数種データの例について説明する。 In each of the image processing cards 13 1 to 13 6 , coefficient type data for generating tap coefficients w n for improving the image quality of different types and degrees can be stored as generation information. Referring to Figure 19, in the image processing card 13 1 through 13 6, for example, the image processing card 13 1 and 13 2 example of coefficient seed data stored in the will be described.

まず、画像処理カード131には、例えば、図14に示すように、高画質画像データを教師データとするとともに、その解像度を低下させ、かつノイズを付加した低画質画像データを生徒データとして学習を行い、解像度を向上させ、かつノイズを除去する解像度向上/ノイズ除去用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、解像度向上/ノイズ除去用の9タップ分の係数種データのセットを生成し、この9タップ分の係数種データのセットを、生成情報として記憶させておくことができる。 First, the image processing card 13 1, for example, as shown in FIG. 14, the learning quality image data as well as the teaching data, to reduce its resolution, and the low-quality image data obtained by adding noise as student data Is performed, a set of tap coefficients for 64 classes for resolution improvement / noise removal for improving resolution and removing noise is generated, and the set of tap coefficients for 64 classes is compressed to improve resolution / A set of coefficient seed data for nine taps for noise removal can be generated, and the set of coefficient seed data for nine taps can be stored as generation information.

また、画像処理カード131には、図14の解像度向上/ノイズ除去用の9タップ分の係数種データのセットに加えて、例えば、図15に示すように、高画質画像データを教師データとするとともに、その解像度を低下させた低画質画像データを生徒データとして学習を行い、解像度を向上させる解像度向上用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、解像度向上用の25タップ分の係数種データのセットを生成し、この25タップ分の係数種データのセットを、生成情報として記憶させておくことができる。 The image processing card 13 1, in addition to the set of 9 taps of the coefficient seed data for resolution enhancement / noise removal in FIG. 14, for example, as shown in FIG. 15, a high-quality image data training data At the same time, learning is performed using the low-quality image data whose resolution has been reduced as student data, a set of tap coefficients for 64 classes for resolution improvement for improving resolution is generated, and further tap coefficients for the 64 classes are generated. Is compressed to generate a set of coefficient seed data for 25 taps for resolution improvement, and the set of coefficient seed data for 25 taps can be stored as generation information.

一方、画像処理カード132には、例えば、図16に示すように、高画質画像データを教師データとするとともに、それにノイズを加えた低画質画像データを生徒データとして学習を行い、ノイズを除去するノイズ除去用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、ノイズ除去用の25タップ分の係数種データのセットを生成し、この25タップ分の係数種データのセットを、生成情報として記憶させておくことができる。 On the other hand, the image processing card 13 2, for example, as shown in FIG. 16 performs learning as well as a high-quality image data and the teacher data, it quality image data obtained by adding noise as student data, removes noise Generating a set of tap coefficients for 64 classes for noise removal, further compressing the set of tap coefficients for 64 classes, and generating a set of coefficient seed data for 25 taps for noise removal. A set of coefficient seed data for 25 taps can be stored as generation information.

この場合、画像処理インタフェース40に、画像処理カード131のみが装着されたときには、画像処理カード131では、例えば、図17に示すように、解像度向上/ノイズ除去用の9タップ分の係数種データのセットと、解像度向上用の25タップ分の係数種データのセットのうちの、例えば、解像度向上/ノイズ除去用の9タップ分の係数種データのセットから、解像度向上/ノイズ除去用の64クラス分のタップ係数のセットが生成される。そして、画像処理カード131では、解像度向上/ノイズ除去用の64クラス分のタップ係数のセットを用いて、フレームメモリ35(図3)から供給される第1の画像データについて、データ変換処理が行われ、これにより、解像度が向上し、かつノイズが除去された第2の画像データが出力される。 In this case, the image processing interface 40, when only the image processing card 13 1 is mounted, the image processing card 13 1, for example, as shown in FIG. 17, 9 coefficients of taps species for resolution enhancement / noise removal For example, from a set of data and a set of coefficient seed data for 25 taps for resolution improvement, a set of coefficient seed data for 9 taps for resolution improvement / noise removal is replaced with 64 sets for resolution improvement / noise removal. A set of tap coefficients for the class is generated. In the image processing card 13 1, using the set of tap coefficients of the 64 classes minute for resolution enhancement / noise removal, for the first image data supplied from the frame memory 35 (FIG. 3), the data conversion process Then, the second image data with improved resolution and noise removed is output.

なお、画像処理カード131の生成情報記憶部97(図6)に記憶された処理情報には、解像度向上/ノイズ除去用の9タップ分の係数種データのセットからタップ係数を生成する旨の情報が含まれており、画像処理カード131のカードコントローラ98(図6)では、この処理情報にしたがって係数生成部96が制御されることにより、解像度向上/ノイズ除去用の9タップ分の係数種データのセットから、解像度向上/ノイズ除去用の64クラス分のタップ係数のセットが生成される。 Note that the image processing card 13 first generation information storage unit 97 stored processing information (FIG. 6), from a set of 9 taps of the coefficient seed data for resolution enhancement / noise removal to the effect of generating a tap coefficient information are included, the image processing card 13 1 of the card controller 98 (FIG. 6), by the coefficient generating unit 96 is controlled in accordance with the processing information, 9 coefficients of taps for resolution enhancement / noise removal From the set of seed data, a set of tap coefficients for 64 classes for resolution improvement / noise removal is generated.

一方、画像処理インタフェース40に、画像処理カード131と132が装着された場合、画像処理カード131では、例えば、図18に示すように、解像度向上/ノイズ除去用の9タップ分の係数種データのセットと、解像度向上用の25タップ分の係数種データのセットのうちの、例えば、解像度向上用の25タップ分の係数種データのセットから、解像度向上用の64クラス分のタップ係数のセットが生成される。 On the other hand, the image processing interface 40, when the image processing card 13 1 and 13 2 is attached, in the image processing card 13 1, for example, as shown in FIG. 18, 9 coefficients of taps for resolution enhancement / noise removal From a set of seed data and a set of coefficient seed data for 25 taps for resolution improvement, for example, a set of coefficient seed data for 25 taps for resolution improvement is changed to a tap coefficient for 64 classes for resolution improvement. Is generated.

また、画像処理カード132では、図18に示すように、ノイズ除去用の25タップ分の係数種データのセットから、ノイズ除去用の64クラス分のタップ係数のセットが生成される。 In the image processing card 13 2, as shown in FIG. 18, from 25 sets of coefficient seed data of taps for removing noise, a set of tap coefficients for 64 classes minute for removing noise is generated.

そして、画像処理カード131では、解像度向上用の64クラス分のタップ係数のセットを用いて、フレームメモリ35(図3)から供給される第1の画像データについて、データ変換処理が行われ、これにより、解像度が向上した第2の画像データが出力される。 In the image processing card 13 1, using the set of tap coefficients of the 64 classes minute for resolution enhancement, for the first image data supplied from the frame memory 35 (FIG. 3), the data conversion processing is performed, Thereby, the second image data with improved resolution is output.

この第2の画像データは、画像処理インタフェース40のカードインタフェース83を経由して、画像処理カード132に、第1の画像データとして供給される。 The second image data, via the card interface 83 of the image processing interface 40, the image processing card 13 2 is supplied as the first image data.

画像処理カード132では、ノイズ除去用の64クラス分のタップ係数のセットを用いて、そこに供給される第1の画像データについて、データ変換処理が行われ、これにより、ノイズが除去された第2の画像データが出力される。 In the image processing card 13 2, using a set of 64 classes amount of tap coefficients for noise removal, for the first image data supplied thereto, the data conversion processing is performed, thereby, noise is removed The second image data is output.

即ち、フレームメモリ35に記憶された画像データは、画像処理カード131と画像処理カード132それぞれにおいてデータ変換処理されることで、解像度が向上し、かつノイズが除去された画像データとされる。 That is, the image data stored in the frame memory 35 is subjected to data conversion processing in each of the image processing card 13 1 and the image processing card 13 2 , so that the image data is improved in resolution and noise is removed. .

なお、画像処理カード132の生成情報記憶部97(図6)に記憶された処理情報には、画像処理カード131において、解像度向上用の25タップ分の係数種データのセットからタップ係数を生成する旨の情報が含まれており、画像処理カード131のカードコントローラ98(図6)では、この画像処理カード132の処理情報(いまの場合、画像処理カード132の処理情報が最大ID処理情報であり、図8で説明したように、画像処理カード131では、最大ID処理情報にしたがって、タップ係数が生成される)にしたがって係数生成部96が制御されることにより、解像度向上用の25タップ分の係数種データのセットから、解像度向上用の64クラス分のタップ係数のセットが生成される。 Note that the image processing card 13 second generation information storage unit 97 stored processing information (FIG. 6), the image processing card 13 1, the tap coefficients from the 25 sets of coefficient seed data of taps for resolution enhancement information indicating that generated are included, in the image processing card 13 1 of the card controller 98 (FIG. 6), when the image processing card 13 second processing information (now, processing information of the image processing cards 13 2 up the ID process information, as described with reference to FIG. 8, the image processing card 13 1, according to the maximum ID process information, by the coefficient generating unit 96 is controlled in accordance with the tap coefficients are generated), resolution enhancement A set of tap coefficients for 64 classes for resolution improvement is generated from the set of coefficient seed data for 25 taps for the resolution.

ここで、画像処理カード131だけが装着された場合も、画像処理カード131と132が装着された場合も、最終的に得られる画像データは、解像度が向上し、かつノイズが除去された画像データである。 Here, even if only the image processing card 13 1 is mounted, even when the image processing card 13 1 and 13 2 is mounted, image data finally obtained, improved resolution, and the noise is removed Image data.

しかしながら、画像処理カード131だけが装着された場合においては、画像処理カード131において、解像度の向上とノイズ除去を、いわば兼用する解像度向上/ノイズ除去用の64クラス分のタップ係数のセットを用いてデータ変換処理が行われる。一方、画像処理カード131と132が装着された場合においては、画像処理カード131において、解像度の向上に、いわば専用の解像度向上用の64クラス分のタップ係数のセットを用いてデータ変換処理が行われ、さらに、画像処理カード132において、ノイズの除去に専用のノイズ除去用の64クラス分のタップ係数のセットを用いてデータ変換処理が行われる。 However, when only the image processing card 13 1 is mounted, the image processing card 13 1 uses a set of tap coefficients for 64 classes for resolution improvement / noise removal, which is also used for improving resolution and removing noise. The data conversion process is performed using the data. On the other hand, when the image processing cards 13 1 and 13 2 are mounted, the image processing card 13 1 performs data conversion using a set of tap coefficients for 64 classes for resolution improvement, so to speak, in order to improve the resolution. process is performed, further, in the image processing card 13 2, the data conversion processing using the set of tap coefficients of the 64 classes minute for dedicated noise removal noise removal is performed.

従って、画像処理カード131だけが装着された場合であっても、解像度が向上し、かつノイズが除去された画像データを得ることができるが、画像処理カード131と132が装着された場合には、解像度がより向上し、かつノイズもより除去された画像データを得ることができる。 Therefore, even when only the image processing card 13 1 is mounted, image data with improved resolution and noise removed can be obtained, but the image processing cards 13 1 and 13 2 are mounted. In this case, it is possible to obtain image data in which the resolution is further improved and the noise is further removed.

即ち、画像処理カード131を装着後、画像処理カード132を追加装着することで、テレビジョン受像機の本体1(図1)は、いわば追加的に、より高機能になる。 That is, after the image processing card 13 1 is mounted, the image processing card 13 2 is additionally mounted, so that the main body 1 (FIG. 1) of the television receiver additionally has a higher function.

その結果、ユーザにおいては、画像処理カード131を購入し、さらに、画像処理カード132を購入するというインセンティブが働くことになる。 As a result, the user has an incentive to purchase the image processing card 13 1 and further purchase the image processing card 13 2 .

ここで、上述の場合、画像処理カード131においては、画像処理カード131だけが装着されたときには、解像度向上/ノイズ除去用の9タップ分の係数種データのセットから、解像度向上/ノイズ除去用の64クラス分のタップ係数のセットが生成され、画像処理カード131と132が装着されたときには、解像度向上用の25タップ分の係数種データのセットから、解像度向上用の64クラス分のタップ係数のセットが生成される。従って、画像処理カード131だけが装着されたときの予測タップのタップ数は9タップであるのに対して、画像処理カード131と132が装着されたときの予測タップのタップ数は25タップであり、このように、予測タップのタップ数が多いことからも、画像処理カード131と132が装着された場合の解像度の向上の程度は、一般に、画像処理カード131だけが装着された場合の解像度の向上の程度よりも大になる。 Here, in the case described above, in the image processing card 13 1, when only the image processing card 13 1 is mounted, from a set of 9 taps of the coefficient seed data for resolution enhancement / noise removal, resolution enhancement / noise removal A set of tap coefficients for 64 classes for resolution is generated, and when the image processing cards 13 1 and 13 2 are attached, a set of coefficient seed data for 25 taps for resolution improvement is obtained from a set of coefficient seed data for 25 taps for resolution improvement. Are generated. Accordingly, the number of taps of the prediction tap when only the image processing card 13 1 is mounted is nine, whereas the number of taps of the prediction tap when the image processing cards 13 1 and 13 2 are mounted is 25. a tap, thus, from the often taps of the prediction taps, the degree of resolution enhancement when the image processing card 13 1 and 13 2 is mounted, typically, only the image processing card 13 1 is mounted This is larger than the degree of improvement in resolution.

なお、上述の場合、テレビジョン受像機の本体1に注目すれば、画像処理カード131だけが装着されている状態から、画像処理カード131と132が装着された状態となることによって、解像度を向上させる機能と、ノイズを除去する機能とが、より向上することになり、その機能の種類自体は変化しない。一方、画像処理カード131だけに注目すれば、画像処理カード131の機能は、ノイズを解像度を向上させ、かつノイズを除去する機能から、解像度を向上させる機能だけに変化することになり、その機能の種類自体が変化することになる。 In the case described above, if focusing on the main body 1 of the television receiver, from a state in which only the image processing card 13 1 is attached, by a state in which the image processing card 13 1 and 13 2 is attached, The function of improving the resolution and the function of removing noise are further improved, and the type of the function itself does not change. On the other hand, if focusing on only the image processing card 13 1, the image processing card 13 1 functions, noise improves resolution, and the function of removing the noise, will be changed by the function of improving the resolution, The type of the function itself will change.

また、例えば、画像処理カード133には、画像の拡大を行う拡大用タップ係数を生成する係数種データを、生成情報として記憶させておくことができ、この場合、画像処理カード131には、拡大を行い、ノイズを除去し、かつ解像度を向上させる拡大/ノイズ除去/解像度向上用のタップ係数、拡大を行い、かつ解像度を向上させる拡大/解像度向上用のタップ係数解像度向上用のタップ係数をそれぞれ生成する3種類の係数種データを記憶させることができる。 Further, for example, the image processing cards 13 3, the coefficient seed data for generating tap coefficients for enlargement for performing image enlargement, can be memorized as product information, in this case, the image processing card 13 1 Tap coefficient for enlargement / noise removal / resolution improvement for enlarging / removing noise and improving resolution, and tap coefficient for enlargement / resolution improvement for enlarging / improving resolution Can be stored.

そして、この場合、画像処理カード131のみが装着されたときには、画像処理カード131において、拡大/ノイズ除去/解像度向上用のタップ係数を用いてデータ変換処理を行うようにすることができる。また、画像処理カード131と132が装着された場合には、画像処理カード131において、拡大/解像度向上用のタップ係数を用いてデータ変換処理を行い、画像処理カード132において、ノイズ除去用のタップ係数を用いて、データ変換処理を行うようにすることができる。さらに、画像処理カード131乃至133が装着された場合には、画像処理カード131乃至133において、解像度向上用のタップ係数、ノイズ除去用のタップ係数、拡大用のタップ係数を用いて、それぞれデータ変換処理を行うようにすることができる。 In this case, when only the image processing card 13 1 is attached, in the image processing card 13 1, it is possible to perform the data conversion process by using the tap coefficients for enlargement / noise removal / resolution enhancement. Further, when the image processing cards 13 1 and 13 2 are attached, the image processing card 13 1 performs data conversion processing using tap coefficients for enlargement / resolution, and the image processing card 13 2 performs noise conversion. Data conversion processing can be performed using the tap coefficients for removal. Further, when the image processing cards 13 1 to 13 3 are attached, the image processing cards 13 1 to 13 3 use a tap coefficient for improving resolution, a tap coefficient for removing noise, and a tap coefficient for enlarging. , Respectively, can perform data conversion processing.

次に、上述の場合には、画像処理カード132に、ノイズ除去用の25タップ分の係数種データのセットそのものを記憶させるようにしたが、画像処理カード132には、図19に示すように、そのノイズ除去用の25タップ分の係数種データと、画像処理カード131に記憶された解像度向上用の25タップ分の係数種データとの差分データのセットを記憶させておくようにすることが可能である。 Next, in the above case, the image processing card 13 2, but so as to store the set itself coefficient seed data of 25 taps for noise removal, image processing card 13 2, 19 as such, 25 and taps of the coefficient seed data for the noise removal, the set of difference data between the 25 taps of the coefficient seed data for resolution enhancement, which is stored in the image processing card 13 1 as allowed to store It is possible to do.

この場合、画像処理カード131と132が画像処理インタフェース40に装着されると、画像処理カード132では、カードコントローラ98(図6)が、画像処理インタフェース40のカードインタフェース83(図5)を経由して、画像処理カード131から解像度向上用の25タップ分の係数種データを読み出し、画像処理カード132が記憶している差分データと加算することで、ノイズ除去用の25タップ分の係数種データを生成する。そして、カードコントローラ98は、ノイズ除去用の25タップ分の係数種データを、係数生成部96(図6)に供給することで、ノイズ除去用の64クラス分のタップ係数を生成させる。 In this case, the image processing card 13 1 and 13 2 is mounted to the image processing interface 40, the image processing card 13 2, the card controller 98 (FIG. 6), the card interface 83 of the image processing interface 40 (FIG. 5) The coefficient seed data for 25 taps for improving the resolution is read out from the image processing card 13 1 via the CPU and added to the difference data stored in the image processing card 13 2 , whereby the 25 taps for noise removal are read out. Generate coefficient seed data. Then, the card controller 98 supplies the coefficient seed data for 25 taps for noise removal to the coefficient generator 96 (FIG. 6) to generate tap coefficients for 64 classes for noise removal.

ここで、画像処理カード132に記憶されている生成情報が、上述のような差分データであることと、その差分データの復元方法は、例えば、画像処理カード132の処理情報に記述しておくことができ、従って、画像処理カード132のカードコントローラ98は、その処理情報を参照することで、生成情報としての差分データを、係数種データに復元する。 Here, generation information stored in the image processing card 13 2, and it is difference data as described above, restoration process of the difference data, for example, describes the image processing card 13 2 processes information can be placed, therefore, the card controller 98 of the image processing cards 13 2 refers to the processing information thereof, the difference data as the generation information, to restore the coefficient seed data.

この場合、画像処理カード132がデータ変換処理に用いるノイズ除去用の64クラス分のタップ係数のセットは、画像処理カード131に記憶された解像度向上用の25タップ分の係数種データがないと生成することができないため、画像処理カード131を有していないユーザが、画像処理カード132におけるデータ変換処理に用いられるノイズ除去用の64クラス分のタップ係数のセットを、不正に取得しようとすることを防止することができる。 In this case, the set of tap coefficients for 64 classes for noise removal used by the image processing card 13 2 in the data conversion processing does not have coefficient seed data for 25 taps for resolution improvement stored in the image processing card 13 1. Cannot be generated, a user who does not have the image processing card 13 1 illegally acquires a set of tap coefficients for 64 classes for noise removal used in the data conversion processing in the image processing card 13 2 . Trying to do so can be prevented.

なお、他の画像処理カード13iにも、その画像処理カード13iがデータ変換処理に用いるタップ係数を生成するための係数種データと、それより1つ順位の高いカードIDの画像処理カード13i-1がデータ変換処理に用いるタップ係数を生成するための係数種データとの差分データを記憶させるようにすることが可能である。 Note that the other image processing card 13 i also includes coefficient seed data for generating tap coefficients used by the image processing card 13 i for data conversion processing, and an image processing card 13 with a card ID one rank higher than that. It is possible to store difference data with coefficient seed data for generating tap coefficients used by i-1 for data conversion processing.

次に、図20は、画像処理カード13iの他の構成例を示している。なお、図中、図6における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図20の画像処理カード13iは、係数メモリ94に代えて、メモリ空間共有制御部100が設けられており、さらに、そのメモリ空間共有制御部100に、係数メモリ94が接続されている他は、基本的に、図6における場合と同様に構成されている。 Next, FIG. 20 shows another configuration example of the image processing card 13i . In the figure, portions corresponding to those in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the image processing card 13 i of FIG. 20 is provided with a memory space sharing control unit 100 instead of the coefficient memory 94, and the coefficient memory 94 is connected to the memory space sharing control unit 100. Otherwise, the configuration is basically the same as in FIG.

メモリ空間共有制御部100は、画像処理カード13iが有する係数メモリ94のメモリ空間と、他の画像処理カード13i'が有する係数メモリ94のメモリ空間との共有を制御する。 Memory space shared control unit 100 controls the memory space of the coefficient memory 94 of the image processing cards 13 i have, sharing with the memory space of the coefficient memory 94 with the other image processing card 13 i '.

即ち、メモリ空間共有制御部100は、画像処理カード13iが有する係数メモリ94だけでは、容量が十分でない場合、画像処理インタフェース40のカードインタフェース83(図5)を介して、他の画像処理カード13i'のメモリ空間共有制御部100と通信し、他の画像処理カード13i'における係数メモリ94の容量が余っている場合には、その余っているメモリ空間と、画像処理カード13iの係数メモリ94の実メモリ空間とを、画像処理カード13iの仮想的なメモリ空間(仮想メモリ空間)とする。 That is, when the capacity of the coefficient memory 94 of the image processing card 13 i alone is not sufficient, the memory space sharing control unit 100 sends another image processing card via the card interface 83 of the image processing interface 40 (FIG. 5). 13 i ′ communicates with the memory space sharing control unit 100, and when the capacity of the coefficient memory 94 in the other image processing card 13 i ′ is surplus, the remaining memory space and the image processing card 13 i The real memory space of the coefficient memory 94 is a virtual memory space (virtual memory space) of the image processing card 13i .

これにより、メモリ空間共有制御部100は、係数正規化部99が出力するタップ係数のセットを、仮想メモリ空間(画像処理カード13iにおける係数メモリ94の実メモリ空間、または他の画像処理カード13i'における係数メモリ94の実メモリ空間)に記憶させる。さらに、メモリ空間共有制御部100は、クラス分類部93からクラスコードを受信すると、そのクラスコードに対応するクラスのタップ係数のセットを、仮想メモリ空間から読み出し、予測部95に供給する。 Thereby, the memory space sharing control unit 100 stores the set of tap coefficients output by the coefficient normalizing unit 99 in the virtual memory space (the real memory space of the coefficient memory 94 in the image processing card 13 i , or the other image processing card 13 i ' ) (in the actual memory space of the coefficient memory 94). Further, upon receiving the class code from the class classification unit 93, the memory space sharing control unit 100 reads a set of tap coefficients of the class corresponding to the class code from the virtual memory space and supplies the set of tap coefficients to the prediction unit 95.

従って、係数正規化部99およびクラス分類部93からは、メモリ空間共有制御部100は、図6の実施の形態における係数メモリ94と等価に見える。   Therefore, from the coefficient normalizing unit 99 and the classifying unit 93, the memory space sharing control unit 100 looks equivalent to the coefficient memory 94 in the embodiment of FIG.

なお、仮想メモリ空間として、どのような容量のメモリ空間が必要であるかは、その仮想メモリ空間に記憶させるタップ係数の容量による。そして、仮想メモリ空間に記憶させるタップ係数の容量は、1つのタップ係数のサイズが既知であるとすれば、あとは、予測タップのタップ数Nとクラス数Zから計算することができる。そこで、カードコントローラ98は、生成情報記憶部97の処理情報に記述されている予測タップのタップ数Nとクラス数Zを参照することにより、係数生成部96が生成するタップ係数の総容量を計算し、これを、必要なメモリ空間のサイズとして、メモリ空間共有制御部100に供給するようになっている。   Note that what capacity of the memory space is required as the virtual memory space depends on the capacity of the tap coefficients stored in the virtual memory space. Then, assuming that the size of one tap coefficient is known, the capacity of the tap coefficient to be stored in the virtual memory space can be calculated from the number of taps N and the number of classes Z of the prediction tap. Therefore, the card controller 98 calculates the total capacity of the tap coefficients generated by the coefficient generation unit 96 by referring to the number of taps N and the number of classes Z of the prediction taps described in the processing information of the generation information storage unit 97. Then, this is supplied to the memory space sharing control unit 100 as a required memory space size.

メモリ空間共有制御部100は、上述したようにして、カードコントローラ98から供給される必要なメモリ空間のサイズの仮想メモリ空間を確保する。   As described above, the memory space sharing control unit 100 secures a virtual memory space having a size of a necessary memory space supplied from the card controller 98.

また、メモリ空間共有制御部100は、画像処理カード13iが有する係数メモリ94の容量が余る場合には、他の画像処理カード13i'のメモリ空間共有制御部100からの要求に応じて、その余っているメモリ空間の使用を許可し、残りを、画像処理カード13iの仮想メモリ空間として確保して使用する。 Also, the memory space shared control unit 100, in the case where the capacity of the coefficient memory 94 of the image processing cards 13 i has left over in response to a request from the memory space shared control unit 100 of the other image processing card 13 i ', The use of the surplus memory space is permitted, and the rest is reserved and used as the virtual memory space of the image processing card 13i .

複数の画像処理カード13の間で、上述したように、係数メモリ94を共有するのは、次のような理由による。   The reason why the coefficient memory 94 is shared among the plurality of image processing cards 13 as described above is as follows.

即ち、図6の実施の形態では、係数メモリ94の容量について、特に言及せず、従って、係数正規化部99から出力されるタップ係数を記憶するのに十分な記憶容量を有するものとした。   That is, the embodiment of FIG. 6 does not particularly refer to the capacity of the coefficient memory 94, and therefore has a sufficient storage capacity to store the tap coefficients output from the coefficient normalization unit 99.

従って、例えば、図17の実施の形態で説明した場合には、画像処理カード131では、解像度向上/ノイズ除去用の9タップの係数種データのセットから、解像度向上/ノイズ除去用の64クラス分のタップ係数のセットが生成されるので、この64クラス分の、1クラスあたり9タップのタップ係数のセットを記憶するには、1つのタップ係数のサイズを、Sとすると、64×9×Sのサイズの容量が必要となる。 Thus, for example, in the case described in the embodiment of FIG. 17, the image processing card 13 1, from a set of coefficient seed data of 9 taps for resolution enhancement / noise removal, 64 classes for resolution enhancement / noise removal Since a set of tap coefficients for each class is generated, a set of tap coefficients of 9 taps per class for the 64 classes is stored. If the size of one tap coefficient is S, 64 × 9 × A capacity of size S is required.

一方、例えば、図18の実施の形態で説明した場合には、画像処理カード131では、解像度向上用の25タップの係数種データのセットから、解像度向上用の64クラス分のタップ係数のセットが生成されるから、この64クラス分の、1クラスあたり25タップのタップ係数のセットを記憶するには、64×25×Sのサイズの容量が必要となる。 On the other hand, for example, in the case described in the embodiment of FIG. 18, the image processing card 13 1, from a set of coefficient seed data of 25 taps for resolution enhancement, the set of tap coefficients for 64 classes amount for resolution enhancement Is generated, a capacity of 64 × 25 × S is required to store a set of tap coefficients of 25 taps per class for 64 classes.

従って、図6の実施の形態では、画像処理カード131の係数メモリ94としては、64×25×Sのサイズの容量が必要となる。 Thus, in the embodiment of FIG. 6, the coefficient memory 94 of the image processing cards 13 1 requires a capacity of the size of 64 × 25 × S.

しかしながら、係数メモリ94において、その64×25×Sのサイズの全体が使用されるのは、画像処理カード131と132が装着された場合であり、画像処理カード131だけが装着された場合には、64×9×Sのサイズしか使用されず、この場合、係数メモリ94の2/3(≒(25−9)/25)に近い容量が無駄になる。 However, in the coefficient memory 94, what the overall size of the 64 × 25 × S is used, a case where the image processing card 13 1 and 13 2 has been mounted, only the image processing card 13 1 is attached In this case, only the size of 64 × 9 × S is used, and in this case, a capacity close to 2/3 (≒ (25−9) / 25) of the coefficient memory 94 is wasted.

そこで、図20の実施の形態では、係数メモリ94は、そのような無駄な容量が生じない、所定のタップ数Nの、所定のクラス数Zのタップ係数のセットを記憶することのできる分だけの記憶容量を有している。   Therefore, in the embodiment of FIG. 20, the coefficient memory 94 has a predetermined number of taps N and a set of tap coefficients of a predetermined number of classes Z that does not generate such useless capacity. Storage capacity.

即ち、再び、画像処理カード131と132を例に説明すれば、画像処理カード131には、生成情報として、例えば、図21に示すように、解像度向上/ノイズ除去用の係数種データのセットと、解像度向上用の係数種データのセットとが記憶されており、画像処理カード131だけが、画像処理インタフェース40に装着された場合には、図21に示すように、解像度向上/ノイズ除去用の係数種データのセットから、解像度向上/ノイズ除去用の64クラス分のタップ係数のセットが生成され、また、画像処理カード131と132が、画像処理インタフェース40に装着された場合には、図22に示すように、解像度向上用の48クラス分のタップ係数のセットが生成されるものとする。 That is, again, will be described an image processing card 13 1 and 13 2 as an example, the image processing card 13 1, as a generation information, for example, as shown in FIG. 21, the coefficient seed data for resolution enhancement / noise removal and set, and a set of coefficient seed data for resolution enhancement is stored, if only image processing card 13 1 has been attached to the image processing interface 40, as shown in FIG. 21, resolution enhancement / from a set of coefficient seed data for noise removal, a set of 64 classes amount of tap coefficients for resolution enhancement / noise removal is generated, also, the image processing card 13 1 and 13 2 has been attached to the image processing interface 40 In this case, as shown in FIG. 22, a set of tap coefficients for 48 classes for resolution improvement is generated.

一方、画像処理カード132には、生成情報として、例えば、図22に示すように、ノイズ除去用の係数種データのセットが記憶されており、画像処理カード131と132が、画像処理インタフェース40に装着された場合には、ノイズ除去用の係数種データのセットから、ノイズ除去用の80クラス分のタップ係数のセットが生成されるものとする。 On the other hand, the image processing card 13 2, as a generation information, for example, as shown in FIG. 22, a set of coefficient seed data for noise removal is stored, the image processing card 13 1 and 13 2, the image processing When it is attached to the interface 40, a set of tap coefficients for 80 classes for noise removal is generated from a set of coefficient seed data for noise removal.

なお、いまの場合、説明を簡単にするため、予測タップのタップ数、即ち、1クラスあたりのタップ係数のタップ数は、Nで一定であるとして、無視する。   In this case, for simplicity of explanation, the number of taps of the prediction taps, that is, the number of taps of the tap coefficient per class is ignored assuming that N is constant.

そして、画像処理カード131および132の係数メモリ94は、いずれも、64クラス分のタップ係数のセット分の容量を有するものとする。 Each of the coefficient memories 94 of the image processing cards 13 1 and 13 2 has a capacity corresponding to a set of tap coefficients for 64 classes.

この場合、画像処理カード131だけが、画像処理インタフェース40に装着されたときには、画像処理カード131においては、図23に示すように、解像度向上/ノイズ除去用の係数種データのセットから生成される解像度向上/ノイズ除去用の64クラス分のタップ係数のセットを、その画像処理カード131の係数メモリ94に記憶させることができる。なお、この場合、画像処理カード131の係数メモリ94の容量と、生成された64クラス分のタップ係数のセットのサイズとは同一であり、従って、係数メモリ94の容量は余らない。 In this case, only the image processing card 13 1, when attached to the image processing interface 40, in the image processing card 13 1, as shown in FIG. 23, generated from a set of coefficient seed data for resolution enhancement / noise removal is the set of tap coefficients of the 64 classes minute for resolution enhancement / noise removal, it can be stored in the image processing card 13 1 of the coefficient memory 94. In this case, the capacity of the image processing cards 13 1 of the coefficient memory 94, are identical to the size of the set of generated 64 class content of the tap coefficients, thus, the capacity of the coefficient memory 94 are not leftover.

また、画像処理カード131と132が、画像処理インタフェース40に装着されたときにも、画像処理カード131においては、図24に示すように、解像度向上用の係数種データのセットから生成される解像度向上用の40クラス分のタップ係数のセットを、その画像処理カード131の係数メモリ94に記憶させることができる。なお、この場合、生成された48クラス分のタップ係数のセットのサイズは、画像処理カード131の係数メモリ94の容量より、16クラス分のタップ係数のセット分だけ小さく、従って、係数メモリ94の容量は、その分だけ余る。 Also, when the image processing cards 13 1 and 13 2 are attached to the image processing interface 40, the image processing card 13 1 generates a set of coefficient seed data for improving resolution as shown in FIG. is the set of tap coefficients of the 40 classes minute for resolution enhancement, it can be stored in the image processing card 13 1 of the coefficient memory 94. In this case, set the size of the tap coefficients of the 48 class fraction that is generated, than the capacity of the image processing cards 13 1 of the coefficient memory 94, reduced by a set amount of the tap coefficients of the 16 class component, therefore, the coefficient memory 94 The extra capacity is surplus.

しかしながら、画像処理カード131と132が、画像処理インタフェース40に装着された場合、画像処理カード132においては、図25に示すように、解像度向上用の係数種データのセットから、解像度向上用の80クラス分のタップ係数のセットが生成されるため、そのすべてを、その画像処理カード132の、64クラス分のタップ係数のセット分の容量しか有しない係数メモリ94に記憶させることはできない。即ち、この場合、画像処理カード132においては、生成される80クラス分のタップ係数のセットのサイズが、画像処理カード132の係数メモリ94の容量より、16クラス分のタップ係数のセット分だけ大きく、従って、そのすべてのタップ係数のセットを記憶させるには、画像処理カード132の係数メモリ94だけでは、16クラス分のタップ係数のセット分の容量だけ足りない。 However, when the image processing cards 13 1 and 13 2 are attached to the image processing interface 40, the image processing card 13 2 , as shown in FIG. since the 80 sets of the class content of the tap coefficients of the use is generated, the all, the image processing card 13 2, is be stored only set amount in the capacitance of the tap coefficients of the 64 classes minute to no coefficient memory 94 Can not. That is, in this case, the image in the processing card 13 2, sets the size of the 80 class content of the tap coefficients being generated, than the capacity of the coefficient memory 94 of the image processing cards 13 2, 16 sets of tap coefficients for classes min min only large, therefore, its stores a set of all of the tap coefficients, only the coefficient memory 94 of the image processing cards 13 2, lacking only the capacity of a set amount of the tap coefficients of the 16 classes minute.

そこで、図20の実施の形態では、画像処理カード132のメモリ空間共有制御部100は、図26に示すように、画像処理カード131のメモリ空間共有制御部100に対して、その係数メモリ94の実メモリ空間R1のうちの16クラス分のタップ係数のセット分の容量のメモリ空間R1'を要求する。 Therefore, in the embodiment of FIG. 20, the image processing card 13 2 of the memory space shared control unit 100, as shown in FIG. 26, the image processing card 13 1 of the memory space shared control unit 100, the coefficient memory A request is made for a memory space R 1 ′ having a capacity corresponding to a set of tap coefficients for 16 classes in the 94 real memory spaces R 1 .

この場合、画像処理カード131のメモリ空間共有制御部100は、自身に必要なメモリ空間が、上述したように、48クラス分のタップ係数を記憶することのできるサイズであることを認識し、その結果、係数メモリ94の実メモリ空間R1のうちの16クラスのタップ係数のセット分の容量が余ることから、図26に示すように、自身の仮想メモリ空間r1として、48クラス分のタップ係数を記憶することのできる容量を確保する。さらに、画像処理カード131のメモリ空間共有制御部100は、画像処理カード132のメモリ空間共有制御部100に対して、16クラス分のタップ係数のセット分の容量のメモリ空間R1'の使用を許可する。 In this case, the image processing card 13 1 of the memory space shared control unit 100, the memory space required to himself, as described above, recognizes that a size capable of storing the tap coefficients of the 48 class component, as a result, since the 16 volume set amount of the tap coefficients of the class of the real memory space R 1 of the coefficient memory 94 is left over, as shown in FIG. 26, as a virtual memory space r 1 of its own, the 48 class min The capacity for storing the tap coefficient is secured. Further, the image processing card 13 1 of the memory space shared control unit 100, the image processing card 13 2 to the memory space shared control unit 100, 16 sets amount in the capacitance of the tap coefficients of the class partial memory space R 1 'of the Allow use.

これにより、画像処理カード132のメモリ空間共有制御部100は、図26に示すように、その画像処理カード132の係数メモリ94の実メモリ空間R2と、使用を許可された、画像処理カード131の係数メモリ94の16クラス分のタップ係数のセット分の容量の実メモリ空間R1'とをあわせた80クラス分のタップ係数のセット分の容量の仮想メモリ空間r2を確保し、そこに、80クラス分のタップ係数のセットを記憶させる。 Thus, the image processing card 13 2 of the memory space shared control unit 100, as shown in FIG. 26, a real memory space R 2 of the image processing cards 13 2 of the coefficient memory 94, is allowed to use the image processing securing virtual memory space r 2 set amount in the capacitance of the real memory space R 1 'and 80 tap coefficients for classes worth of combined set amount in the capacitance of the tap coefficients of the 16 classes worth of card 13 1 of the coefficient memory 94 Then, a set of tap coefficients for 80 classes is stored therein.

次に、図27のフローチャートを参照して、図20の画像処理カード13の処理について説明する。   Next, the processing of the image processing card 13 in FIG. 20 will be described with reference to the flowchart in FIG.

図20の画像処理カード13では、ステップS51において、カードコントローラ98は、上述した図7のステップS5でインタフェースコントローラ81(図5)が送信してくる処理情報(最大ID処理情報)を受信したかどうかを判定する。   In the image processing card 13 in FIG. 20, in step S51, the card controller 98 receives the processing information (maximum ID processing information) transmitted by the interface controller 81 (FIG. 5) in step S5 in FIG. Determine whether

ステップS51において、最大ID処理情報を受信していないと判定された場合、ステップS52乃至S55をスキップして、ステップS56に進む。   If it is determined in step S51 that the maximum ID processing information has not been received, steps S52 to S55 are skipped, and the process proceeds to step S56.

また、ステップS51において、最大ID処理情報を受信したと判定された場合、ステップS52に進み、カードコントローラ98は、その最大ID処理情報を参照することにより、図8のステップS12における場合と同様に、自身が行うべきデータ変換処理の内容を認識し、その認識結果にしたがって、タップ抽出部91および92、クラス分類部93を制御する。   If it is determined in step S51 that the maximum ID processing information has been received, the process proceeds to step S52, and the card controller 98 refers to the maximum ID processing information, and performs the same processing as in step S12 in FIG. Recognizes the contents of the data conversion process to be performed by itself, and controls the tap extracting units 91 and 92 and the classifying unit 93 according to the recognition result.

そして、ステップS53に進み、カードコントローラ98は、ステップS51で画像処理インタフェース40から受信されたと判定された処理情報(最大ID処理情報)を参照することで、係数生成部96が生成するタップ係数のセットのサイズを認識し、メモリ空間共有制御部100に供給する。即ち、最大ID処理情報には、生成情報としての係数種データから生成されるタップ係数のクラス数Zおよびタップ数Nの情報も記述されており、カードコントローラ98は、これらの情報に基づき、係数生成部96で生成されるタップ係数のサイズを認識し、メモリ空間共有制御部100に供給する。   Then, proceeding to step S53, the card controller 98 refers to the processing information (maximum ID processing information) determined to have been received from the image processing interface 40 in step S51, and thereby the tap coefficient generated by the coefficient generation unit 96 is generated. The size of the set is recognized and supplied to the memory space sharing control unit 100. That is, the maximum ID processing information also describes information on the number of classes Z and the number of taps N of the tap coefficients generated from the coefficient seed data as the generation information, and the card controller 98 determines the coefficient based on the information. The size of the tap coefficient generated by the generation unit 96 is recognized and supplied to the memory space sharing control unit 100.

さらに、ステップS53では、メモリ空間共有制御部100が、カードコントローラ98から受信したサイズの仮想メモリ空間を、上述したようにして確保し、ステップS54に進む。   Further, in step S53, the memory space sharing control unit 100 secures a virtual memory space of the size received from the card controller 98 as described above, and proceeds to step S54.

ステップS54では、カードコントローラ98は、図8のステップS13における場合と同様にして、最大ID処理情報に基づき、係数生成部96を制御することにより、生成情報から、クラスごとのタップ係数を生成させる。このタップ係数は、係数正規化部99に供給される。   In step S54, the card controller 98 controls the coefficient generation unit 96 based on the maximum ID processing information to generate tap coefficients for each class from the generation information in the same manner as in step S13 in FIG. . The tap coefficient is supplied to a coefficient normalizing unit 99.

係数正規化部99は、ステップS55において、係数生成部96からのクラスごとのタップ係数を正規化処理し、その正規化後のクラスごとのタップ係数を、メモリ空間共有制御部100に供給する。ステップS55では、さらに、メモリ空間共有部131が、係数正規化部99からのクラスごとのタップ係数を、ステップS53で確保した仮想メモリ空間に記憶させ、ステップS56に進む。   In step S55, the coefficient normalization unit 99 normalizes the tap coefficients for each class from the coefficient generation unit 96, and supplies the normalized tap coefficients for each class to the memory space sharing control unit 100. In step S55, the memory space sharing unit 131 further stores the tap coefficients for each class from the coefficient normalization unit 99 in the virtual memory space secured in step S53, and the process proceeds to step S56.

ステップS56では、タップ抽出部91と92が、図8のステップS15における場合と同様に、注目画素について、予測タップとクラスタップをそれぞれ構成し、予測タップは、タップ抽出部91から予測部95に供給され、クラスタップは、タップ抽出部92からクラス分類部93に供給される。   In step S56, the tap extracting units 91 and 92 respectively configure a prediction tap and a class tap for the pixel of interest, as in step S15 in FIG. 8, and the prediction tap is transmitted from the tap extracting unit 91 to the prediction unit 95. The supplied class taps are supplied from the tap extracting unit 92 to the classifying unit 93.

そして、ステップS57に進み、クラス分類部93は、タップ抽出部92から供給される注目画素についてのクラスタップに基づき、注目画素をクラス分類し、そのクラスを表すクラスコードを、メモリ空間共有制御部100に供給して、ステップS58に進む。   Then, the process proceeds to step S57, where the class classification unit 93 classifies the pixel of interest based on the class tap for the pixel of interest supplied from the tap extraction unit 92, and outputs a class code representing the class to the memory space sharing control unit. 100, and the process proceeds to step S58.

ステップS58では、メモリ空間共有制御部133が、クラス分類部93から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を、仮想メモリ空間から読み出すことにより取得する。このタップ係数は、メモリ空間共有制御部100から予測部95に供給され、ステップS59に進む。   In step S58, the memory space sharing control unit 133 acquires the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 93 by reading the tap coefficient from the virtual memory space. This tap coefficient is supplied from the memory space sharing control unit 100 to the prediction unit 95, and the process proceeds to step S59.

ステップS59では、予測部95が、タップ抽出部91が出力する予測タップと、メモリ空間共有制御部100から供給されるタップ係数とを用いて、式(1)の予測演算を行う。これにより、予測部95は、注目画素の画素値を求め、カードインタフェース83(図5)に供給する。そして、ステップS51に戻り、以下、同様の処理が繰り返される。   In step S59, the prediction unit 95 performs the prediction calculation of Expression (1) using the prediction tap output from the tap extraction unit 91 and the tap coefficient supplied from the memory space sharing control unit 100. Thereby, the prediction unit 95 obtains the pixel value of the target pixel and supplies the pixel value to the card interface 83 (FIG. 5). Then, the process returns to step S51, and the same processing is repeated thereafter.

以上のように、複数の画像処理カード13において、その係数メモリ94の実メモリ空間を共有し、タップ係数を記憶するのに必要最小限の仮想メモリ空間を確保することにより、係数メモリ94の記憶容量に無駄が生じることを防止することができる。   As described above, in the plurality of image processing cards 13, the real memory space of the coefficient memory 94 is shared, and the minimum virtual memory space necessary for storing the tap coefficients is secured. It is possible to prevent the capacity from being wasted.

さらに、図21乃至図26で説明した例では、画像処理カード132は、画像処理カード131とともに、画像処理インタフェース40に装着されない限り、その係数生成部96で生成される80クラス分のタップ係数のセットを記憶させることができないから、画像処理カード132だけでは、データ変換処理を行うことができない。従って、画像処理カード131を有していないユーザが、画像処理カード132だけで、不正に、データ変換処理を行うことを防止することができる。 Further, in the example described in FIGS. 21 to 26, the image processing card 13 2, together with the image processing card 13 1, unless attached to the image processing interface 40, 80 class fraction of taps generated by the coefficient generator 96 not possible to store a set of coefficients, only the image processing card 13 2 can not perform data conversion processing. Accordingly, the image processing cards 13 do not have one user, only the image processing card 13 2, it is possible to prevent the illegally performs data conversion processing.

次に、いま、画質改善として、例えば、画像の空間解像度を向上させることに注目すると、画像処理カード131には、例えば、図28に示すように、超高画質画像データを教師データとするとともに、その空間解像度を低下させた高画質画像データの空間解像度をさらに低下させた低画質画像データを生徒データとして学習を行い、解像度を大きく向上させる超解像度向上用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、超解像度向上用の25タップ分の係数種データのセットを生成し、この25タップ分の係数種データのセットを、生成情報として記憶させておくことができる。 Then, Now, as image quality improvement, for example, focusing on improving the spatial resolution of the image, the image processing card 13 1, for example, as shown in FIG. 28, and the extremely high quality image data training data At the same time, learning is performed as student data using low-quality image data obtained by further reducing the spatial resolution of the high-quality image data whose spatial resolution has been reduced, and tap coefficients of 64 classes for super-resolution improvement for greatly improving the resolution are provided. A set is generated, and a set of tap coefficients for the 64 classes is compressed to generate a set of coefficient seed data for 25 taps for super-resolution improvement. It can be stored as generation information.

また、画像処理カード131には、図28の超解像度向上用の25タップ分の係数種データのセットに加えて、例えば、図29に示すように、高画質画像データを教師データとするとともに、その空間解像度を低下させた低画質画像データを生徒データとして学習を行い、解像度をある程度向上させる通常解像度向上用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、通常解像度向上用の25タップ分の係数種データのセットを生成し、この25タップ分の係数種データのセットを、生成情報として記憶させておくことができる。 The image processing card 13 1, in addition to the 25 sets of coefficient seed data of taps for super resolution enhancement in FIG. 28, for example, as shown in FIG. 29, as well as a high-quality image data and the teacher data Learning is performed using the low-quality image data whose spatial resolution has been reduced as student data, a set of tap coefficients for 64 classes for normal resolution improvement for improving the resolution to some extent, and taps for the 64 classes are further generated. The set of coefficients is compressed to generate a set of coefficient seed data for 25 taps for normal resolution improvement, and the set of coefficient seed data for 25 taps can be stored as generation information.

そして、画像処理カード131では、画像処理カード131だけが、画像処理インタフェース40に装着された場合には、通常解像度向上用の25タップ分の係数種データから、通常解像度向上用の64クラス分のタップ係数を生成し、そのタップ係数を用いて、データ変換処理を行い、画像処理カード131と132が、画像処理インタフェース40に装着された場合には、超解像度向上用の25タップ分の係数種データから、超解像度向上用の64クラス分のタップ係数を生成し、そのタップ係数を用いて、データ変換処理を行うようにすることができる。 When only the image processing card 13 1 is attached to the image processing interface 40, the image processing card 13 1 converts the coefficient seed data for 25 taps for normal resolution improvement into 64 classes for normal resolution improvement. When the image processing cards 13 1 and 13 2 are attached to the image processing interface 40, the tap conversion is performed using the tap coefficients. It is possible to generate tap coefficients for 64 classes for super-resolution improvement from the coefficient seed data of each minute, and to perform data conversion processing using the tap coefficients.

この場合、画像処理カード131では、画像処理カード131だけが装着されても、画像処理カード131と132が装着されても、解像度向上という同じ種類の画質改善を行うデータ変換処理が行われる。但し、画像処理カード131だけが装着された場合には、通常解像度向上用の64クラス分のタップ係数が用いられるのに対して、画像処理カード131と132が装着された場合には、通常解像度向上用の64クラス分のタップ係数とは異なる、超解像度向上用の64クラス分のタップ係数が用いられるため、データ変換処理の結果得られる画像データの空間解像度をより向上させることができる。 In this case, in the image processing card 13 1 , even if only the image processing card 13 1 is mounted or the image processing cards 13 1 and 13 2 are mounted, the data conversion processing for improving the same type of image quality called resolution improvement is performed. Done. However, when only the image processing card 13 1 is mounted, tap coefficients for 64 classes for improving resolution are usually used, whereas when the image processing cards 13 1 and 13 2 are mounted, Since tap coefficients for 64 classes for super resolution improvement, which are different from tap coefficients for 64 classes for normal resolution improvement, are used, the spatial resolution of image data obtained as a result of data conversion processing can be further improved. it can.

ところで、本実施の形態では、係数種データβm,nからのタップ係数wnの生成は、式(9)のタップ演算式によって行われる。 By the way, in the present embodiment, the generation of the tap coefficient w n from the coefficient seed data β m, n is performed by the tap operation expression of Expression (9).

そこで、画質改善として、図28および図29における場合と同様に、画像の空間解像度を向上させることに注目すると、画像処理カード131には、例えば、図30に示すように、高画質画像データを教師データとするとともに、その空間解像度を低下させた低画質画像データを生徒データとして学習を行い、解像度を向上させる超解像度向上用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、超解像度向上用の25タップ分の係数種データのセットを生成し、この25タップ分の係数種データのセットを、生成情報として記憶させておくことができる。但し、この場合、タップ係数を係数種データに圧縮する際の式(9)のタップ演算式としては、項数がM'個のM'次の式が用いられるものとする。従って、この場合、1タップ分の係数種データのセットは、M'個の係数種データで構成される。 Therefore, as the image quality improvement, as in FIGS. 28 and 29, focusing on improving the spatial resolution of the image, the image processing card 13 1, for example, as shown in FIG. 30, the high-quality image data Is used as teacher data, low-quality image data whose spatial resolution has been reduced is learned as student data, and a set of tap coefficients for 64 classes for super-resolution improvement for improving the resolution is generated. A set of tap coefficients for 64 classes is compressed to generate a set of coefficient seed data for 25 taps for super-resolution improvement, and the set of coefficient seed data for 25 taps is stored as generation information. Can be. However, in this case, it is assumed that an M'-th order equation having M 'terms is used as the tap operation expression in Expression (9) when the tap coefficient is compressed into coefficient seed data. Therefore, in this case, a set of coefficient seed data for one tap is composed of M ′ coefficient seed data.

また、画像処理カード131には、図30の解像度向上用の25タップ分の係数種データのセットに加えて、例えば、図31に示すように、高画質画像データを教師データとするとともに、その空間解像度を低下させた低画質画像データを生徒データとして学習を行い、解像度を向上させる解像度向上用の64クラス分のタップ係数のセットを生成し、さらに、その64クラス分のタップ係数のセットを圧縮し、解像度向上用の25タップ分の係数種データのセットを生成し、この25タップ分の係数種データのセットを、生成情報として記憶させておくことができる。但し、この場合、タップ係数を係数種データに圧縮する際の式(9)のタップ演算式としては、項数が、図30におけるM'個より多いM''個のM''次の式が用いられるものとする。従って、この場合、1タップ分の係数種データのセットは、M'個より多いM''個の係数種データで構成される。 The image processing card 13 1, in addition to the set of coefficient seed data of 25 taps for resolution enhancement in FIG. 30, for example, as shown in FIG. 31, as well as a high-quality image data and the teacher data, Learning is performed using the low-quality image data whose spatial resolution has been reduced as student data, a set of tap coefficients for 64 classes for improving the resolution for improving the resolution is generated, and a set of tap coefficients for the 64 classes is further generated. Can be compressed to generate a set of coefficient seed data for 25 taps for improving resolution, and this set of coefficient seed data for 25 taps can be stored as generation information. However, in this case, as the tap operation expression of Expression (9) when the tap coefficient is compressed into coefficient seed data, the number of terms is M ″ M ″, which is larger than M ′ in FIG. Shall be used. Therefore, in this case, a set of coefficient seed data for one tap is composed of M ″ coefficient seed data more than M ′.

そして、画像処理カード131では、画像処理カード131だけが、画像処理インタフェース40に装着された場合には、1タップ分あたりM'個の、解像度向上用の25タップ分の係数種データから、解像度向上用の64クラス分のタップ係数を生成し、そのタップ係数を用いて、データ変換処理を行い、画像処理カード131と132が、画像処理インタフェース40に装着された場合には、1タップ分あたりM''個の解像度向上用の25タップ分の係数種データから、解像度向上用の64クラス分のタップ係数を生成し、そのタップ係数を用いて、データ変換処理を行うようにすることができる。 Then, in the image processing card 13 1 , when only the image processing card 13 1 is attached to the image processing interface 40, M ′ number of coefficient seed data for 25 taps for resolution improvement for 25 taps per tap are obtained. , it generates a tap coefficient of 64 class component for resolution enhancement, using the tap coefficients, performs data conversion processing, when the image processing card 13 1 and 13 2 has been attached to the image processing interface 40, From M ″ pieces of coefficient seed data for 25 taps for resolution improvement per tap, tap coefficients for 64 classes for resolution improvement are generated, and data conversion processing is performed using the tap coefficients. can do.

この場合、画像処理カード131では、画像処理カード131だけが装着されても、画像処理カード131と132が装着されても、解像度向上という同じ種類の画質改善を行うデータ変換処理が行われる。但し、画像処理カード131だけが装着された場合には、データ変換処理に用いられるタップ係数が、1タップ分あたりM'個の、解像度向上用の25タップ分の係数種データから、項数がM'個のタップ演算式(9)によって生成されるのに対して、画像処理カード131と132が装着された場合には、データ変換処理に用いられるタップ係数が、1タップ分あたりM''個の、解像度向上用の25タップ分の係数種データから、項数がM'より多いM''個のタップ演算式(9)によって生成されるため、タップ係数を、より精度良く復元することができる。従って、図28および図29における場合と同様に、画像処理カード131では、画像処理カード131と132が装着された場合の方が、画像処理カード131だけが装着された場合に比較して、データ変換処理の結果得られる画像データの空間解像度をより向上させることができる。 In this case, in the image processing card 13 1 , even if only the image processing card 13 1 is mounted or the image processing cards 13 1 and 13 2 are mounted, the data conversion processing for improving the same type of image quality called resolution improvement is performed. Done. However, when only the image processing card 13 1 is inserted, the number of terms used in the data conversion process is calculated from M ′ pieces of coefficient seed data for 25 taps for improving resolution and 25 ′ taps per tap. respect but being produced by M 'taps calculation equation (9), when the image processing card 13 1 and 13 2 is mounted, the tap coefficients used in the data conversion process, per one tap Since the M ″ number of coefficient seed data for 25 taps for resolution improvement are generated by M ″ number of tap arithmetic expressions (9) having more terms than M ′, the tap coefficients can be more accurately calculated. Can be restored. Therefore, as in the case of FIGS. 28 and 29, in the image processing card 13 1 , the case where the image processing cards 13 1 and 13 2 are mounted is compared with the case where only the image processing card 13 1 is mounted. As a result, the spatial resolution of the image data obtained as a result of the data conversion process can be further improved.

次に、図32は、図3の画像処理インタフェース40の第2の構成例を示している。なお、図中、図5における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   Next, FIG. 32 shows a second configuration example of the image processing interface 40 of FIG. In the figure, portions corresponding to those in FIG. 5 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

図32の実施の形態では、画像処理インタフェース40は、そこに装着される、後述する図33の画像処理カード13から生成情報を読み出し、タップ係数を生成する。そして、画像処理インタフェース40は、そのタップ係数を用いて、フレームメモリ35(図3)に記憶された画像データを対象に、データ変換処理を行うようになっている。   In the embodiment shown in FIG. 32, the image processing interface 40 reads out generation information from an image processing card 13 shown in FIG. 33, which will be described later, and generates tap coefficients. Then, the image processing interface 40 performs data conversion processing on the image data stored in the frame memory 35 (FIG. 3) using the tap coefficients.

即ち、タップ抽出部131および132には、メモリインタフェース82から、フレームメモリ35から読み出された、データ変換処理の対象としての第1の画像データが供給される。   That is, the first image data read from the frame memory 35 and subjected to the data conversion processing is supplied from the memory interface 82 to the tap extracting units 131 and 132.

タップ抽出部131は、図6のタップ抽出部91と同様に、第2の画像データを構成する画素を、順次、注目画素とし、さらに、その注目画素の画素値を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして抽出する。   Similar to the tap extracting unit 91 in FIG. 6, the tap extracting unit 131 sequentially sets pixels constituting the second image data as a target pixel, and further uses a first pixel used for predicting a pixel value of the target pixel. Some of (the pixel values of) the pixels constituting the image data are extracted as prediction taps.

タップ抽出部132は、図6のタップ抽出部92と同様に、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして抽出する。   The tap extracting unit 132, like the tap extracting unit 92 in FIG. 6, configures the pixel constituting the first image data used to perform the class classification of classifying the pixel of interest into one of several classes. Are extracted as class taps.

なお、タップ抽出部131および132に対しては、インタフェースコントローラ81から制御信号が供給されるようになっており、タップ抽出部131で構成される予測タップのタップ構造と、タップ抽出部132で構成されるクラスタップのタップ構造は、インタフェースコントローラ81からの制御信号にしたがって設定されるようになっている。即ち、インタフェースコントローラ81は、カードインタフェース83を介して、画像処理インタフェース40に装着された、後述する図33の画像処理カード13から処理情報を読み出し、その処理情報に基づき、タップ抽出部131および132におけるタップ構造を制御するようになっている。   A control signal is supplied from the interface controller 81 to the tap extracting units 131 and 132, and the tap structure of the prediction tap configured by the tap extracting unit 131 and the tap extracting unit 132 The tap structure of the class tap to be set is set according to a control signal from the interface controller 81. That is, the interface controller 81 reads out processing information from the image processing card 13 of FIG. 33 described later, which is attached to the image processing interface 40, via the card interface 83, and based on the processing information, tap extracting sections 131 and 132 Is controlled.

タップ抽出部131で得られた予測タップは、予測部135に供給され、タップ抽出部132で得られたクラスタップは、インタフェースコントローラ81に供給される。   The prediction tap obtained by the tap extraction unit 131 is supplied to the prediction unit 135, and the class tap obtained by the tap extraction unit 132 is supplied to the interface controller 81.

クラス分類部133は、インタフェースコントローラ81から供給される情報に基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数メモリ134に供給する。即ち、インタフェースコントローラ81は、タップ抽出部132から供給される注目画素についてのクラスタップを、カードインタフェース83を介して、画像処理インタフェース40に装着された、後述する図33の画像処理カード13に供給し、注目画素についてのクラス分類を要求する。そして、インタフェースコントローラ81は、その要求に応じて、画像処理カード13がクラス分類を行って返してくるクラスコードを、カードインタフェース83を介して受信し、クラス分類部133に供給する。クラス分類部133は、このようにして、インタフェースコントローラ81から供給される、画像処理インタフェース40に装着された画像処理カード13の1以上のクラス分類結果としてのクラスコードを合成し、最終的なクラス分類結果としてのクラスコードを得て、係数メモリ134に供給する。   The class classification unit 133 classifies the pixel of interest based on the information supplied from the interface controller 81, and supplies a class code corresponding to the obtained class to the coefficient memory 134. That is, the interface controller 81 supplies the class tap for the target pixel supplied from the tap extracting unit 132 to the image processing card 13 shown in FIG. Then, it requests a class classification for the pixel of interest. Then, in response to the request, the interface controller 81 receives, via the card interface 83, the class code returned by the image processing card 13 after performing the class classification, and supplies the class code to the class classification unit 133. The class classification unit 133 synthesizes the class code as the one or more class classification results of the image processing card 13 attached to the image processing interface 40 supplied from the interface controller 81 in this way, and A class code as a classification result is obtained and supplied to the coefficient memory 134.

なお、画像処理カード13におけるクラス分類方法は、例えば、インタフェースコントローラ81が、画像処理インタフェース40に装着された画像処理カード13から読み出した処理情報に基づいて指定する。   The class classification method in the image processing card 13 is specified by the interface controller 81 based on the processing information read from the image processing card 13 mounted on the image processing interface 40, for example.

係数メモリ134は、係数生成部136から供給されるクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部133から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部133から供給されるクラスコードが表すクラスのタップ係数)を、予測部135に供給する。   The coefficient memory 134 stores the tap coefficients for each class supplied from the coefficient generation unit 136, and further stores the tap coefficients among the stored tap coefficients at the addresses corresponding to the class codes supplied from the class classification unit 133. The supplied tap coefficient (the tap coefficient of the class represented by the class code supplied from the class classification unit 133) is supplied to the prediction unit 135.

予測部135は、図6の予測部95と同様に、タップ抽出部131が出力する予測タップと、係数メモリ134が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める式(1)の予測演算を行う。これにより、予測部135は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。   The prediction unit 135 acquires the prediction tap output from the tap extraction unit 131 and the tap coefficient output from the coefficient memory 134, similarly to the prediction unit 95 in FIG. 6, and uses the prediction tap and the tap coefficient to obtain The prediction calculation of Expression (1) for obtaining the predicted value of the true value of the target pixel is performed. As a result, the prediction unit 135 calculates and outputs the pixel value of the pixel of interest (predicted value thereof), that is, the pixel value of the pixel configuring the second image data.

係数生成部136は、インタフェースコントローラ81が、カードインタフェース83を介して、画像処理インタフェース40に装着された画像処理カード13から読み出す生成情報を受信し、その生成情報からクラスごとのタップ係数を生成する。このクラスごとのタップ係数は、係数メモリ134に供給されて記憶される。   The coefficient generation unit 136 receives the generation information read from the image processing card 13 attached to the image processing interface 40 by the interface controller 81 via the card interface 83, and generates a tap coefficient for each class from the generation information. . The tap coefficients for each class are supplied to the coefficient memory 134 and stored.

次に、図33は、画像処理インタフェース40が図32に示したように構成される場合の、画像処理カード13の構成例を示している。なお、図中、図6における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜、省略する。即ち、図33の画像処理カード13は、図6におけるクラス分類部93、生成情報記憶部97、およびカードコントローラ98で構成されている。   Next, FIG. 33 shows a configuration example of the image processing card 13 when the image processing interface 40 is configured as shown in FIG. In the figure, portions corresponding to those in FIG. 6 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the image processing card 13 in FIG. 33 includes the class classification unit 93, the generation information storage unit 97, and the card controller 98 in FIG.

次に、図34のフローチャートを参照して、図32の画像処理インタフェース40の処理について説明する。   Next, the processing of the image processing interface 40 of FIG. 32 will be described with reference to the flowchart of FIG.

画像処理インタフェース40では、ステップS71乃至S74において、図7のステップS1乃至S4における場合とそれぞれ同様の処理が行われる。   In the image processing interface 40, in steps S71 to S74, the same processes as those in steps S1 to S4 in FIG. 7 are performed.

そして、ステップS74において、インタフェースコントローラ81が、有効カードとしての画像処理カード13iを決定すると、ステップS75に進み、インタフェースコントローラ81は、有効カードとしての画像処理カード13iすべてから、カードインタフェース83を介して、生成情報を読み出す。即ち、インタフェースコントローラ81は、カードインタフェース83を介して、有効カードとしての画像処理カード13iのカードコントローラ98(図33)に、生成情報を要求する。この場合、カードコントローラ98は、生成情報記憶部97から生成情報を読み出し、カードインタフェース83を介して、インタフェースコントローラ81に供給する。これにより、インタフェースコントローラ81は、有効カードとしての画像処理カード13iのすべての生成情報を取得する。 Then, in step S74, when the interface controller 81 determines the image processing card 13 i as a valid card, the process proceeds to step S75, where the interface controller 81 transmits the card interface 83 from all the image processing cards 13 i as valid cards. The generated information is read out via this. That is, the interface controller 81 via the card interface 83, the image processing as a valid card card 13 i of the card controller 98 (FIG. 33), requesting the generation information. In this case, the card controller 98 reads out the generation information from the generation information storage unit 97 and supplies it to the interface controller 81 via the card interface 83. Thus, the interface controller 81 to obtain all the generation information of the image processing cards 13 i as an effective card.

従って、画像処理インタフェース40に、例えば、画像処理カード131乃至133が装着されている場合には、画像処理カード131乃至133すべてが有効カードとなるから、インタフェースコントローラ81は、画像処理カード131乃至133それぞれの生成情報を受信する。また、画像処理インタフェース40に、例えば、画像処理カード131,132、および134が装着されている場合には、画像処理カード131および132が有効カードとなるから、インタフェースコントローラ81は、画像処理カード131と132それぞれの生成情報を受信する。 Therefore, the image processing interface 40, for example, in the case where the image processing card 13 1 through 13 3 is mounted, since all the image processing cards 13 1 through 13 3 are valid card, interface controller 81, image processing receiving a respective product information card 13 1 through 13 3. When image processing cards 13 1 , 13 2 , and 13 4 are attached to the image processing interface 40, for example, the image processing cards 13 1 and 13 2 are valid cards. , The generation information of each of the image processing cards 13 1 and 13 2 is received.

その後、ステップS76に進み、インタフェースコントローラ81は、有効カードとしての各画像処理カード13iから読み出した処理情報の中で、最大のカードIDの画像処理カード13i(max)から読み出した処理情報(最大ID処理情報)に基づき、行うべきデータ変換処理の内容を認識し、その認識結果にしたがって、タップ抽出部131および132、クラス分類部133、並びに有効カードとしての画像処理カード13iを制御する。 Thereafter, the process proceeds to step S76, the interface controller 81, in the processing information read from the image processing card 13 i as an effective card, read out from the maximum of the card ID image processing card 13 i (max) processing information ( based on the maximum ID process information), recognizes the contents of the data conversion process to be performed, in accordance with the recognition result, and controls the image processing cards 13 i as tap extracting unit 131 and 132, the classification unit 133, and the activation card .

即ち、インタフェースコントローラ81は、例えば、最大ID処理情報に記述されているタップ構造の予測タップまたはクラスタップを構成するように、タップ抽出部131または132の動作モードを設定する。   That is, the interface controller 81 sets the operation mode of the tap extraction unit 131 or 132 so as to constitute, for example, a prediction tap or a class tap having a tap structure described in the maximum ID processing information.

さらに、インタフェースコントローラ81は、最大ID処理情報に記述されている合成方法により、有効カードとしてのクラスコードを合成するように、クラス分類部133の動作モードを設定する。即ち、本実施の形態では、画像処理カード13iの処理情報には、クラスコードの合成方法(例えば、画像処理カード131で得られるクラスコードの下位ビットに、画像処理カード132で得られるクラスコードを付加して、最終的なクラスコードを生成するといった情報)も記述されており、インタフェースコントローラ81は、その情報にしたがってクラスコードを合成するように、クラス分類部133の動作モードを設定する。 Further, the interface controller 81 sets the operation mode of the class classification unit 133 so that the class code as an effective card is synthesized by the synthesis method described in the maximum ID processing information. That is, in the present embodiment, the processing information of the image processing card 13 i includes the class code synthesis method (for example, the lower bits of the class code obtained by the image processing card 13 1 are obtained by the image processing card 13 2). In addition, the interface controller 81 sets the operation mode of the class classification unit 133 so as to synthesize the class code according to the information. I do.

また、インタフェースコントローラ81は、最大ID処理情報に記述されているクラス分類方法によるクラス分類を行うように、有効カードとしての各画像処理カード13iの動作モードを、カードインタフェース83を介して設定する。即ち、本実施の形態では、画像処理カード13iの処理情報には、画像処理カード131乃至13iそれぞれのクラス分類部93に行わせるクラス分類のクラス分類方法が記述されており、インタフェースコントローラ81は、そのクラス分類方法によるクラス分類を行うように、有効カードとしての各画像処理カード13iのクラス分類部93(図33)の動作モードを設定する。 Further, the interface controller 81 sets the operation mode of each image processing card 13 i as an effective card via the card interface 83 so as to perform the class classification according to the class classification method described in the maximum ID processing information. . Namely, in this embodiment, the processing information of the image processing cards 13 i, class classification method of classification to be performed by the image processing card 131 to the 13 i each classifying unit 93 is described, the interface controller 81, the classification method to perform classification by, sets the operation mode of the classification of each image processing card 13 i as an effective card 93 (FIG. 33).

そして、ステップS77に進み、インタフェースコントローラ81は、有効カードとしての画像処理カード13iから読み出した生成情報を、係数生成部136に供給し、これにより、その生成情報から、クラスごとのタップ係数を生成させる。 Then, the process proceeds to step S77, where the interface controller 81 supplies the generation information read from the image processing card 13 i as a valid card to the coefficient generation unit 136, whereby the tap coefficient for each class is obtained from the generation information. Generate.

係数生成部136は、クラスごとのタップ係数を生成すると、ステップS77からS78に進み、そのクラスごとのタップ係数について、レベル調整のための正規化処理を施し、係数メモリ134に供給して記憶させる。   After generating the tap coefficient for each class, the coefficient generation unit 136 proceeds from step S77 to S78, performs a normalization process for level adjustment on the tap coefficient for each class, and supplies the tap coefficient to the coefficient memory 134 for storage. .

そして、ステップS79に進み、タップ抽出部131が、メモリインタフェース82から供給される、フレームメモリ35(図3)に記憶された画像データを、データ変換処理対象の第1の画像データとして、その第1の画像データに対する第2の画像データ(データ変換処理後の画像データ)を構成する各画素を、順次、注目画素とし、その注目画素について、ステップS76で設定されたタップ構造の予測タップとする第1の画像データの画素を抽出する。さらに、ステップS79では、タップ抽出部132が、注目画素について、ステップS76で設定されたタップ構造のクラスタップとする第1の画像データの画素を抽出する。そして、予測タップは、タップ抽出部131から予測部135に供給され、クラスタップは、タップ抽出部132からインタフェースコントローラ81に供給される。   Then, the process proceeds to step S79, in which the tap extracting unit 131 uses the image data supplied from the memory interface 82 and stored in the frame memory 35 (FIG. 3) as the first image data to be subjected to the data conversion processing. Each pixel constituting the second image data (image data after data conversion processing) for one image data is sequentially set as a target pixel, and the target pixel is set as a prediction tap having the tap structure set in step S76. The pixels of the first image data are extracted. Further, in step S79, the tap extracting unit 132 extracts, from the pixel of interest, pixels of the first image data that are to be class taps having the tap structure set in step S76. Then, the prediction tap is supplied from the tap extraction unit 131 to the prediction unit 135, and the class tap is supplied from the tap extraction unit 132 to the interface controller 81.

インタフェースコントローラ81は、タップ抽出部132から供給されるクラスタップを受信すると、ステップS80において、カードインタフェース83を制御することにより、有効カードとなっている各画像処理カード13iに対して、タップ抽出部132からのクラスタップを供給し、クラス分類を要求する。 Upon receiving the class tap supplied from the tap extracting unit 132, the interface controller 81 controls the card interface 83 in step S80 to extract the taps from the image processing cards 13i that are valid cards. The class tap is supplied from the unit 132 to request the class classification.

ここで、有効カードとなっている各画像処理カード13iは、後述する図35で説明するように、インタフェースコントローラ81からの要求に対応して、同じくインタフェースコントローラ81からのクラスタップに基づき、注目画素をクラス分類し、そのクラス分類結果としてのクラスコードを、カードインタフェース83を介して、インタフェースコントローラ81に供給する。 Here, each of the image processing cards 13 i that are valid cards responds to a request from the interface controller 81 based on a class tap from the interface controller 81, as described later with reference to FIG. The pixels are classified into classes, and a class code as a result of the classification is supplied to the interface controller 81 via the card interface 83.

その後、ステップS81に進み、インタフェースコントローラ81は、有効カードとなっているすべての画像処理カード13iから、クラス分類結果としてのクラスコードを受信したかどうかを判定する。 Thereafter, the process proceeds to step S81, the interface controller 81, all of the image processing cards 13 i that are enabled card, determines whether it has received a class code as the classification result.

ステップS81において、有効カードとなっているすべての画像処理カード13iから、クラス分類結果としてのクラスコードを、まだ受信していないと判定された場合、ステップS81に戻る。 In step S81, if all of the image processing cards 13 i that are enabled card, the class code as the classification result, is determined not yet received, the flow returns to step S81.

また、ステップS81において、有効カードとなっているすべての画像処理カード13iから、クラス分類結果としてのクラスコードを受信したと判定された場合、そのすべてのクラスコードを、クラス分類部133に供給して、ステップS82に進む。 If it is determined in step S81 that the class codes as the classification results have been received from all the image processing cards 13 i that are valid cards, all the class codes are supplied to the classification unit 133. Then, the process proceeds to step S82.

ステップS82では、クラス分類部133は、インタフェースコントローラ81から供給される、有効カードとなっている各画像処理カード13iからのクラスコードを合成し、これにより、注目画素の最終的なクラス分類結果としてのクラスコードを得て、係数メモリ134に供給し、ステップS83に進む。 In step S82, the class classification unit 133 combines the class codes supplied from the interface controller 81 from the respective image processing cards 13i that are valid cards, thereby obtaining the final class classification result of the pixel of interest. Is obtained and supplied to the coefficient memory 134, and the process proceeds to step S83.

ステップS83では、係数メモリ134が、クラス分類部133から供給されるクラスコードに対応するアドレスに記憶されているタップ係数、即ち、クラスコードに対応するクラスのタップ係数を読み出して出力する。さらに、ステップS83では、予測部135が、係数メモリ134が出力するタップ係数を取得し、ステップS84に進む。   In step S83, the coefficient memory 134 reads and outputs the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 133, that is, the tap coefficient of the class corresponding to the class code. Further, in step S83, the prediction unit 135 acquires the tap coefficients output from the coefficient memory 134, and proceeds to step S84.

ステップS84では、予測部135が、タップ抽出部131が出力する予測タップと、係数メモリ134から取得したタップ係数とを用いて、式(1)の予測演算を行う。これにより、予測部135は、注目画素の画素値を求め、線順次変換部85に供給する。そして、ステップS71に戻り、以下、同様の処理が繰り返される。   In step S84, the prediction unit 135 performs the prediction calculation of Expression (1) using the prediction tap output from the tap extraction unit 131 and the tap coefficient acquired from the coefficient memory 134. Accordingly, the prediction unit 135 obtains the pixel value of the target pixel and supplies the pixel value to the line-sequential conversion unit 85. Then, the process returns to step S71, and the same processing is repeated thereafter.

次に、図35のフローチャートを参照して、有効カードとなった画像処理カード13iの処理について説明する。 Next, with reference to the flowchart of FIG. 35 describes the processing of the image processing cards 13 i which enabled card.

有効カードとなった画像処理カード13iでは、まず最初に、ステップS91において、カードコントローラ98が、画像処理インタフェース40(のインタフェースコントローラ81)から、クラスタップとともに、クラス分類の要求があったかどうかを判定し、ないと判定した場合、ステップS91に戻る。 In the image processing card 13 i that has become an effective card, first, in step S91, the card controller 98 determines whether or not there has been a request for class classification together with a class tap from the (interface controller 81 of) the image processing interface 40. If not, the process returns to step S91.

また、ステップS91において、クラス分類の要求があったと判定された場合、ステップS92に進み、カードコントローラ98は、そのクラス分類の要求とともに、画像処理インタフェース40から供給されるクラスタップを受信し、クラス分類部93に、そのクラスタップに基づくクラス分類を要求する。これにより、クラス分類部93では、図34のステップS76で設定されたクラス分類方法により、クラスタップに基づく注目画素のクラス分類が行われ、その結果得られるクラスコードを、カードコントローラ98に供給する。   If it is determined in step S91 that a request for class classification has been made, the process proceeds to step S92, and the card controller 98 receives the class tap request and the class tap supplied from the image processing interface 40 together with the request for class classification. It requests the classifying unit 93 to perform class classification based on the class tap. Thereby, the class classification unit 93 classifies the target pixel based on the class tap according to the class classification method set in step S76 of FIG. 34, and supplies the resulting class code to the card controller 98. .

そして、ステップS93に進み、カードコントローラ98は、クラス分類部93からのクラスコードを、画像処理インタフェース40に送信する。そして、ステップS91に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds to step S93, and the card controller 98 transmits the class code from the class classification unit 93 to the image processing interface 40. Then, the process returns to step S91, and thereafter, the same processing is repeated.

次に、有効カードとされた各画像処理カード13iのクラス分類部93(図33)におけるクラス分類と、そのクラス分類結果としてのクラスコードを合成する画像処理インタフェース40のクラス分類部133(図32)の処理について、さらに説明する。 Next, the class classification in the class classification unit 93 (FIG. 33) of each of the image processing cards 13 i which are regarded as valid cards and the class classification unit 133 (FIG. The process 32) will be further described.

なお、ここでは、タップ抽出部132が、注目画素について、例えば、3×3画素の合計9画素でなるクラスタップを構成するものとする。   Here, it is assumed that the tap extracting unit 132 configures, for the target pixel, for example, a class tap including a total of 9 pixels of 3 × 3 pixels.

例えば、いま、画像処理カード131乃至133が、画像処理インタフェース40に装着され、有効カードとされたとすると、画像処理カード13iのクラス分類部93(図33)は、例えば、クラスタップを1ビットADRC処理することによるクラス分類を行い、これにより、9ビットのクラスコードを出力する。 For example, assuming that the image processing cards 13 1 to 13 3 are attached to the image processing interface 40 and are valid cards, the class classification unit 93 (FIG. 33) of the image processing card 13 i will Classification is performed by performing 1-bit ADRC processing, thereby outputting a 9-bit class code.

また、画像処理カード132のクラス分類部93(図33)は、例えば、クラスタップの中心の画素(中心画素)の動きベクトルを検出し、その動きベクトルの大きさを、所定の閾値と比較することにより、中心画素の動きの有無を判定し、その動きの有無を表す1ビットのクラスコードを出力する。なお、この場合、画像処理カード132のクラス分類部93は、例えば、1フレーム前にクラスタップとして供給された1フレーム前の画像データを記憶しており、その1フレーム前の画像データと、クラスタップとを用いたブロックマッチングを行うことにより、動きベクトルを検出する。そして、画像処理カード132のクラス分類部93は、例えば、動きベクトルの大きさが所定の閾値より大である場合には、動きありと判定し、そうでない場合には、動きなしと判定する。 The image processing card 13 2 of the classification unit 93 (FIG. 33), for example, to detect the motion vector of the center pixel of the class tap (center pixel), the size of the motion vector, with a predetermined threshold value comparison By doing so, the presence or absence of movement of the center pixel is determined, and a 1-bit class code representing the presence or absence of the movement is output. In this case, the image processing card 13 2 of the classification unit 93, for example, stores the previous frame of the image data supplied as class taps to the previous frame, and the preceding frame image data, A motion vector is detected by performing block matching using a class tap. Then, the classification unit 93 of the image processing cards 13 2 judges, for example, when the size of the motion vector is greater than a predetermined threshold, determines that there is motion, otherwise, the no motion .

さらに、画像処理カード133のクラス分類部93(図33)は、例えば、クラスタップの中心画素と、それに隣接する画素の差分を演算し、その差分の絶対値を所定の閾値と比較することにより、中心画素におけるエッジの有無を判定し、そのエッジの有無を表す1ビットのクラスコードを出力する。なお、この場合、画像処理カード133のクラス分類部93は、例えば、中心画素と、それに隣接する画素の差分の絶対値の中に、所定の閾値より大のものが存在する場合には、エッジありと判定し、そうでない場合は、エッジなしと判定する。 Further, the image processing cards 13 3 of the classification unit 93 (FIG. 33), for example, calculates the center pixel of the class tap, a difference between pixel adjacent thereto, comparing the absolute value of the difference with a predetermined threshold value , The presence or absence of an edge in the center pixel is determined, and a 1-bit class code representing the presence or absence of the edge is output. In this case, the image processing cards 13 3 of the classification unit 93, for example, the center pixel, in the absolute value of the difference of the pixel adjacent thereto, in the presence of those than a predetermined threshold Dai, It is determined that there is an edge; otherwise, it is determined that there is no edge.

ここで、以下、適宜、画像処理カード13iのクラス分類部93で行われるクラス分類を、第iクラス分類という。また、第iクラス分類の結果得られるクラスコードを、第iクラスコードという。 Here, hereinafter, the classification performed by the classifying unit 93 of the image processing cards 13 i, that i-th classification. A class code obtained as a result of the i-th class classification is called an i-th class code.

この場合、画像処理インタフェース40のクラス分類部133(図32)は、例えば、画像処理カード131のクラス分類部93の第1クラス分類により得られる第1クラスコードの下位ビットとして、画像処理カード132のクラス分類部93の第2クラス分類により得られる第2クラスコードを付加し、さらに、その下位ビットとして、画像処理カード133のクラス分類部93の第3クラス分類により得られる第3クラスコードを付加する。 In this case, the class classifying unit 133 of the image processing interface 40 (FIG. 32), for example, as the lower bits of the first class code obtained by the first classification of the image processing cards 13 1 classification unit 93, an image processing card 13 adds a second class code obtained by the second classification of the second classification section 93, further, as its lower bits, the image processing cards 13 third obtained by the third classification of the third classification section 93 Add class code.

即ち、例えば、画像処理インタフェース40に、画像処理カード131しか装着されていない場合には、画像処理インタフェース40のクラス分類部133(図32)は、画像処理カード131のクラス分類部93の第1クラス分類により得られる9ビットの第1クラスコードを、そのまま最終的なクラスコード(以下、適宜、最終クラスコードという)として出力する。 That is, for example, the image processing interface 40, when the image processing card 13 1 only not mounted, the classification unit 133 (FIG. 32) of the image processing interface 40, the image processing card 13 first classifying unit 93 The 9-bit first class code obtained by the first class classification is directly output as a final class code (hereinafter, appropriately referred to as a final class code).

また、例えば、画像処理インタフェース40に、画像処理カード131と132が装着されている場合には、画像処理インタフェース40のクラス分類部133(図32)は、画像処理カード131のクラス分類部93の第1クラス分類により得られる9ビットの第1クラスコードの下位ビットに、画像処理カード132のクラス分類部93の第2クラス分類により得られる1ビットの第2クラスコードを付加し、その結果得られる10ビットを、最終クラスコードとして出力する。 Further, for example, the image processing interface 40, when the image processing card 13 1 and 13 2 is mounted, the classification unit 133 (FIG. 32) of the image processing interface 40, image processing card 13 1 classification on the low-order bits of the 9 bits of the first class code obtained by the first classification of the part 93 adds the second class code of 1 bit obtained by the second classification of the classification unit 93 of the image processing cards 13 2 , And outputs the resulting 10 bits as the final class code.

さらに、例えば、画像処理インタフェース40に、画像処理カード131乃至133が装着されている場合には、画像処理インタフェース40のクラス分類部133(図32)は、画像処理カード131のクラス分類部93の第1クラス分類により得られる9ビットの第1クラスコードの下位ビットに、画像処理カード132のクラス分類部93の第2クラス分類により得られる1ビットの第2クラスコードを付加し、さらに、画像処理カード133のクラス分類部93の第3クラス分類により得られる1ビットの第3クラスコードを付加し、その結果得られる11ビットを、最終クラスコードとして出力する。 Furthermore, for example, the image processing interface 40, when the image processing card 13 1 through 13 3 is mounted, the classification unit 133 (FIG. 32) of the image processing interface 40, image processing card 13 1 classification on the low-order bits of the 9 bits of the first class code obtained by the first classification of the part 93 adds the second class code of 1 bit obtained by the second classification of the classification unit 93 of the image processing cards 13 2 further adding a third class code of 1 bit obtained by the third classification of the image processing cards 13 3 of the classification unit 93, the 11 bits obtained as a result is output as a final class code.

上述のように、画像処理カード131乃至13iの装着時に、クラス分類部133が出力する最終クラスコードが、画像処理カード131乃至13i-1の装着時に、クラス分類部133が出力する最終クラスコードよりも1ビット増加する場合には、図36に示すように、画像処理インタフェース40に装着される、有効カードとしての画像処理カード13iの数によって、クラス数が変動する。 As described above, when mounting the image processing card 131 to 13 i, a final class code class classification section 133 is outputted, the image processing card 131 to the 13 i-1 is installed, the class classification section 133 outputs When the number of classes is increased by one bit from the final class code, as shown in FIG. 36, the number of classes varies depending on the number of image processing cards 13 i as valid cards attached to the image processing interface 40.

即ち、画像処理インタフェース40に、画像処理カード131しか装着されていない場合には、最終クラスコードは9ビットとなり、そのクラス数は、512(=29)クラスとなる(図36の最左欄)。また、画像処理インタフェース40に、画像処理カード131と132が装着されている場合には、最終クラスコードは、10ビットとなり、そのクラス数は、1024(=210)クラスとなる(図36の左から2番目の欄)。さらに、画像処理インタフェース40に、画像処理カード131乃至133が装着されている場合には、最終クラスコードは11ビットとなり、そのクラス数は、2048(=211)クラスとなる(図36の最右欄)。 That is, the image processing interface 40, when the image processing card 13 1 only is not mounted, the final class code becomes 9 bits, the number of the class, 512 (= 2 9) class become (leftmost in FIG. 36 Field). When the image processing cards 13 1 and 13 2 are attached to the image processing interface 40, the final class code is 10 bits, and the number of classes is 1024 (= 2 10 ) classes (see FIG. 36, second column from the left). Furthermore, when the image processing cards 13 1 to 13 3 are attached to the image processing interface 40, the final class code is 11 bits, and the number of classes is 2048 (= 2 11 ) classes (FIG. 36). To the right).

このため、画像処理カード131には、例えば、図11の学習装置において、クラス分類部117のクラス分類方法として、第1クラス分類により得られる第1クラスコードを出力するクラス分類を採用して学習を行い、512クラス分の第1クラス分類によるタップ係数のセットを生成し、さらに、その512クラス分のタップ係数のセットを圧縮して生成した第1クラス分類による係数種データのセットが、生成情報として記憶されている。 Therefore, the image processing card 13 1, for example, in the learning apparatus of FIG. 11, as a class classification method classification unit 117, adopted classification for outputting a first class code obtained by the first classification Learning is performed, a set of tap coefficients according to the first class for 512 classes is generated, and a set of coefficient seed data according to the first class generated by compressing the set of tap coefficients for the 512 classes is: It is stored as generation information.

さらに、画像処理カード132には、例えば、図11の学習装置において、クラス分類部117のクラス分類方法として、第1クラス分類により得られる第1クラスコードの下位ビットに第2クラス分類により得られる第2クラスコードを付加したクラスコードを出力するクラス分類を採用して学習を行い、1024クラス分の第1クラス分類と第2クラス分類によるタップ係数のセットを生成し、さらに、その1024クラス分のタップ係数のセットを圧縮して生成した第1クラス分類と第2クラス分類による係数種データのセットが、生成情報として記憶されている。 Further, the image processing card 13 2, for example, in the learning apparatus of FIG. 11, as a class classification method classifying unit 117, obtained by the second classification to the lower bits of the first class code obtained by the first classification Learning is performed by employing a class classification that outputs a class code to which a second class code is added, and a set of tap coefficients is generated for the 1024 classes by the first class classification and the second class classification. A set of coefficient seed data according to the first class classification and the second class classification generated by compressing the set of minute tap coefficients is stored as generation information.

この場合、画像処理インタフェース40に、画像処理カード131のみが装着されたときには、画像処理インタフェース40では、図37に示すように、有効カードのうちの最高順位の画像処理カード131に記憶された生成情報としての第1クラス分類による係数種データのセットが読み出され、係数生成部136において、その係数種データのセットから、512クラス分の第1クラス分類によるタップ係数のセットが生成される。さらに、画像処理カード131のクラス分類部93では、第1クラス分類が行われることにより、9ビットの第1クラスコードが出力され、画像処理インタフェース40では、クラス分類部133において、その第1クラスコードが、そのまま最終クラスコードとして出力される。そして、画像処理カード131では、512クラス分の第1クラス分類によるタップ係数のセットのうちの、9ビットの第1クラスコードに対応するタップ係数のセットが、データ変換処理(予測部135(図32)による式(1)の演算)に用いられる。 In this case, the image processing interface 40, when only the image processing card 13 1 is mounted, the image processing interface 40, as shown in FIG. 37, stored in the image processing card 13 1 of the highest order among the effective card The set of coefficient seed data according to the first class classification as the generated information is read out, and the coefficient generation unit 136 generates a set of tap coefficients according to the first class classification for 512 classes from the set of coefficient seed data. You. Further, in the image processing card 13 first classifying unit 93, by first classification is performed, 9 first class code bits are outputted, the image processing interface 40, the classification unit 133, a first The class code is output as it is as the final class code. In the image processing card 13 1, 512 of the set of tap coefficients by class partial first class classification, the set of tap coefficients corresponding to the first class code of 9 bits, the data conversion processing (prediction section 135 ( 32)).

また、画像処理インタフェース40に、画像処理カード131と132が装着されたときには、画像処理インタフェース40では、図38に示すように、有効カードのうちの最低順位の画像処理カード132に記憶された生成情報としての第1クラス分類と第2クラス分類による係数種データのセットが読み出され、係数生成部136において、その係数種データのセットから、1024クラス分の第1クラス分類と第2クラス分類によるタップ係数のセットが生成される。さらに、画像処理カード131のクラス分類部93では、第1クラス分類が行われることにより、9ビットの第1クラスコードが出力され、画像処理カード132のクラス分類部93では、第2クラス分類が行われることにより、1ビットの第2クラスコードが出力される。そして、画像処理インタフェース40では、クラス分類部133において、第1クラスコードの下位ビットに第2クラスコードが付加されることにより、10ビットの最終クラスコードが生成されて出力される。さらに、画像処理インタフェース40では、1024クラス分の第1クラス分類と第2クラス分類によるタップ係数のセットのうちの、10ビットの最終クラスコードに対応するタップ係数のセットが、データ変換処理に用いられる。 Further, the image processing interface 40, when the image processing card 13 1 and 13 2 is mounted, the image processing interface 40, as shown in FIG. 38, the lowest rank of the image processing cards 13 2 in the memory of the valid cards The set of coefficient seed data according to the first class classification and the second class classification as the generated generation information is read out, and the coefficient generation unit 136 divides the set of coefficient seed data from the set of coefficient seed data into 1024 classes of the first class classification and the second class classification. A set of tap coefficients according to the two-class classification is generated. Further, in the image processing card 13 first classifying unit 93, by first classification is performed, 9 first class code bits are outputted, the image processing card 13 2 of the classification unit 93, the second class By performing the classification, a 1-bit second class code is output. In the image processing interface 40, the class classifying unit 133 generates and outputs a 10-bit final class code by adding the second class code to the lower bits of the first class code. Further, in the image processing interface 40, a set of tap coefficients corresponding to a 10-bit final class code among a set of tap coefficients according to the first class classification and the second class classification for 1024 classes is used for data conversion processing. Can be

従って、この場合、画像処理カード40に装着され、有効カードとされる画像処理カード13iの数が増えるほど、クラス数の多いタップ係数を用いて、データ変換処理が行われるので、画質改善の程度も向上することになる。 Accordingly, in this case, as the number of the image processing cards 13 i that are mounted on the image processing card 40 and are valid cards increases, the data conversion process is performed using the tap coefficient having the larger number of classes. The degree will be improved.

即ち、例えば、第1クラス分類と第2クラス分類によるタップ係数のセットの学習と、第1クラス分類によるタップ係数のセットの学習を、同一の学習対を用いて行ったとしても、第1クラス分類と第2クラス分類によるタップ係数のセットは、第1クラス分類によるタップ係数のセットよりもクラス数が多いため、第1クラス分類と第2クラス分類によるタップ係数のセットを用いてデータ変換処理を行う場合には、第1クラス分類によるタップ係数のセットを用いてデータ変換処理を行う場合よりも、画質改善の程度が向上することになる。   That is, for example, even if learning of a set of tap coefficients by the first class classification and the second class classification and learning of a set of tap coefficients by the first class classification are performed using the same learning pair, the first class Since the set of tap coefficients according to the classification and the second class classification has a larger number of classes than the set of tap coefficients according to the first class classification, the data conversion processing is performed using the set of tap coefficients according to the first class classification and the second class classification. Is performed, the degree of image quality improvement is improved compared to the case where data conversion processing is performed using a set of tap coefficients according to the first class classification.

なお、画像処理カード131と132には、同種の画質改善を行う係数種データを記憶させておく他、異なる種類の画質改善を行う係数種データを記憶させておくことも可能である。即ち、例えば、画像処理カード131には、ノイズ除去を行う係数種データを記憶させておき、画像処理カード132には、空間解像度を向上させる係数種データを記憶させておくことが可能である。さらに、この場合、図32の画像処理インタフェース40においては、フレームメモリ35(図3)に記憶された画像データを対象に、画像処理カード131に記憶された係数種データが生成されるタップ係数を用いてデータ変換処理を行い、その結果得られる画像データを対象に、画像処理データ132に記憶された係数種データから生成されるタップ係数を用いてデータ変換処理を行うようにすることが可能である。 The image processing cards 13 1 and 13 2 may store coefficient seed data for improving image quality of the same type, or may store coefficient seed data for improving image quality of different types. That is, for example, it is possible to store coefficient seed data for noise removal in the image processing card 13 1 and to store coefficient seed data for improving the spatial resolution in the image processing card 13 2. is there. Furthermore, in this case, in the image processing interface 40 in FIG. 32, the frame memory 35 to the target image data stored in (FIG. 3), the tap coefficient seed data stored in the image processing card 13 1 is generated coefficients performs data conversion processing using a result image data obtained by the target, is possible to perform the data conversion process by using the tap coefficients generated from the coefficient seed data stored in the image processing data 13 2 It is possible.

また、下位の画像処理カード132には、上位の画像処理カード131に記憶された係数種データによる画質改善に加えて、他の種類の画質改善を行う係数種データを記憶させておくことも可能である。即ち、例えば、画像処理カード131には、ノイズ除去を行う係数種データを記憶させておき、画像処理カード132には、ノイズを除去し、かつ空間解像度を向上させる係数種データを記憶させておくことが可能である。なお、本実施の形態では、画像処理カード132の係数種データから生成されるタップ係数のクラス数は、画像処理カード131の係数種データから生成されるタップ係数のクラス数の2倍になることから、画像処理カード132の係数種データから生成されるタップ係数によるノイズ除去の程度は、画像処理カード131の係数種データから生成されるタップ係数によるノイズ除去の程度と同程度になると考えられる。従って、画像処理カード131と132が装着された場合には、画像処理カード131だけが装着された場合と同程度のノイズ除去が行われ、さらに解像度が向上することになる。 In addition, in the lower image processing card 13 2 , in addition to the image quality improvement by the coefficient type data stored in the upper image processing card 13 1 , coefficient type data for performing other types of image quality improvement should be stored. Is also possible. That is, for example, the image processing card 13 1 stores coefficient seed data for removing noise, and the image processing card 13 2 stores coefficient seed data for removing noise and improving spatial resolution. It is possible to keep. In this embodiment, the number of class taps coefficients generated from the coefficient seed data of the image processing cards 13 2 to 2 times the number of class taps coefficients generated from the coefficient seed data of the image processing cards 13 1 from becoming, the degree of noise reduction by the tap coefficients generated from the coefficient seed data of the image processing cards 13 2, by the tap coefficients generated from the coefficient seed data of the image processing cards 13 1 to the same extent as the degree of noise reduction It is considered to be. Therefore, when the image processing cards 13 1 and 13 2 are mounted, the same level of noise removal is performed as when only the image processing card 13 1 is mounted, and the resolution is further improved.

画像処理カード131と132以外の画像処理カード13iについても、同様のタップ係数を記憶させることが可能であり、この場合、最上位の画像処理カード131から、順次、下位の画像処理カード13iを装着していくことで、改善される画質の種類が増加していくことになるので、即ち、テレビジョン受像機の本体1の機能が、追加的に高機能化していくので、ユーザが画像処理カード13を購入しようとするインセンティブが働きやすくなることになる。 Similar tap coefficients can be stored in the image processing cards 13 i other than the image processing cards 13 1 and 13 2. In this case, the lower order image processing is performed sequentially from the top image processing card 13 1. by going to seat the card 13 i, since the type of improved image quality will be increases, i.e., the function of the main body 1 of the television receiver, so continue to add to higher functionality, An incentive for the user to purchase the image processing card 13 is likely to work.

なお、上述した場合においても、最上位の画像処理カード131以外の画像処理カード13iには、図19で説明したように、係数種データそのものではなく、差分データを記憶させておくようにすることが可能である。 Incidentally, in the above-described case also, the image processing cards 13 i other than the image processing card 13 1 the uppermost, as described with reference to FIG. 19, instead of the coefficient seed data itself, as previously stores the difference data It is possible to do.

次に、上述の場合には、図33の画像処理カード13iに、係数種データ、または、1つ上位の画像処理カード13i-1で用いられる係数種データとの差分データを、生成情報として記憶させるようにしたが、最上位の画像処理カード131を除く画像処理カード13iには、1つ上位の画像処理カード13i-1で用いられるタップ係数から、それとは異なる新たなタップ係数を生成するための情報(差分データ以外の情報)を、生成情報として記憶させるようにすることが可能である。 Next, in the above case, the coefficient seed data or the difference data from the coefficient seed data used in the next higher image processing card 13 i-1 is stored in the image processing card 13 i of FIG. It was to be stored as, in the image processing cards 13 i excluding the image processing card 13 1 the uppermost, from the tap coefficients used in the image processing card 13 i-1 of the one upper, new taps differs from that Information (information other than difference data) for generating a coefficient can be stored as generation information.

この場合、画像処理インタフェース40に、画像処理カード131と132が装着された場合には、図39に示すように、画像処理インタフェース40の係数生成部136(図32)において、画像処理カード131に記憶された第1クラス分類による係数種データのセットから、第1クラス分類によるタップ係数のセットが生成される。さらに、画像処理インタフェース40の係数生成部136では、その第1クラス分類によるタップ係数のセットと、画像処理カード132に記憶された生成情報とから、第1クラス分類と第2クラス分類によるタップ係数のセットが生成される。 In this case, when the image processing cards 13 1 and 13 2 are attached to the image processing interface 40, as shown in FIG. 39, the coefficient generation unit 136 (FIG. 32) of the image processing interface 40 from a set of coefficient seed data by the first classification stored in 13 1, the set of tap coefficients according to the first classification is generated. Moreover, the coefficient generation unit 136 of the image processing interface 40, the a set of tap coefficients according to the first classification, and a generation information stored in the image processing card 13 2, first classification and the tap of the second class classification A set of coefficients is generated.

そこで、第1クラス分類と第2クラス分類によるタップ係数のセットを、第1クラス分類によるタップ係数のセットとともに生成する生成情報の例について説明する。   Accordingly, an example of generation information for generating a set of tap coefficients according to the first class classification and the second class classification together with a set of tap coefficients according to the first class classification will be described.

なお、以下、適宜、第1クラス分類による第1クラスコードを、そのまま最終クラスコードとした場合の、その最終クラスコードを、第1の合成クラスコードといい、第1クラスコードの下位ビットに、第2クラス分類による第2クラスコードを付加して最終クラスコードとした場合の、その最終クラスコードを、第2の合成クラスコードという。また、以下、適宜、第1クラスコードの下位ビットに、第2クラスコードを付加し、さらに、第3クラスコードを付加して最終クラスコードとした場合の、その最終クラスコードを、第3の合成クラスコードという。   In the following, when the first class code according to the first class classification is appropriately used as the final class code, the final class code is referred to as a first composite class code, and lower bits of the first class code include When a second class code according to the second class classification is added to form a final class code, the final class code is referred to as a second composite class code. In the following, when the second class code is added to the lower bits of the first class code, and the third class code is further added as a final class code, the final class code is changed to the third class code. It is called composite class code.

この場合、第2の合成クラスコードは、第1の合成クラスコードの下位ビットに、1ビットの第2クラスコードを付加したものであり、第3の合成クラスコードは、第2の合成クラスコードに、1ビットの第3クラスコードを付加したものとなる。   In this case, the second composite class code is obtained by adding a 1-bit second class code to lower bits of the first composite class code, and the third composite class code is a second composite class code. And a 1-bit third class code.

従って、ある第1の合成クラスコード#cは、その第1の合成クラスコード#cの下位ビットに、1ビットの0を付加した第2の合成クラスコード#c0と、1ビットの1を付加した第2の合成クラスコード#c1の2つに対応付けることができる。同様に、ある第2の合成クラスコード#c'は、その第2の合成クラスコード#c'の下位ビットに、1ビットの0を付加した第3の合成クラスコード#c'0と、1ビットの1を付加した第3の合成クラスコード#c'1の2つに対応付けることができる。   Therefore, a certain first composite class code #c has a second composite class code # c0 in which 1-bit 0 is added to the lower bits of the first composite class code #c and a 1-bit 1 The second composite class code # c1 can be associated with the second composite class code # c1. Similarly, a certain second composite class code #c ′ is composed of a third composite class code # c′0 in which 1-bit 0 is added to lower bits of the second composite class code #c ′ and 1 It can be associated with two of the third composite class codes # c′1 to which the bit 1 is added.

そして、1つのクラスコードについては、1セットのタップ係数が存在するから、上述のように、第1の合成クラスコード#cと、2つの第2の合成クラスコード#c0および#c1とを対応付けた場合には、図40に示すように、第1クラス分類による第1の合成クラスコード#cのタップ係数のセットと、第1と第2のクラス分類による第2の合成クラスコード#c0,#c1それぞれのタップ係数のセットとを対応付けることができる。   Since one set of tap coefficients exists for one class code, as described above, the first combined class code #c corresponds to the two second combined class codes # c0 and # c1. 40, a set of tap coefficients of the first combined class code #c according to the first class classification and a second combined class code # c0 according to the first and second class classifications, as shown in FIG. , # C1 can be associated with sets of tap coefficients.

この場合、生成情報としては、第1と第2のクラス分類による第2の合成クラスコード#c0,#c1それぞれのタップ係数のセットを、第1クラス分類による第1の合成クラスコード#cのタップ係数のセットととともに生成することができるものを採用することができる。   In this case, as the generation information, a set of tap coefficients of each of the second combined class codes # c0 and # c1 according to the first and second class classifications is set as the first combined class code #c according to the first class classification. What can be generated with the set of tap coefficients can be employed.

そこで、図41のフローチャートを参照して、第1と第2のクラス分類による第2の合成クラスコード#c0のタップ係数のセットを生成する場合を例に、生成情報の生成の仕方について説明する。   Therefore, a method of generating the generation information will be described with reference to a flowchart of FIG. 41, as an example of generating a set of tap coefficients of the second composite class code # c0 according to the first and second class classifications. .

この場合、まず最初に、ステップS101において、第1の合成クラスコード#cのタップ係数のセットのうちの中央タップ係数と、その第1の合成クラスコード#cに対応付けられた第2の合成クラスコード#c0のタップ係数のセットのうちの中央タップ係数とが比較される。   In this case, first, in step S101, the center tap coefficient of the set of tap coefficients of the first combined class code #c and the second combined class code associated with the first combined class code #c The center tap coefficient of the set of tap coefficients of class code # c0 is compared.

ここで、あるクラスのタップ係数のセットの中央タップ係数とは、そのクラスのタップ係数を、タップ番号順に並べた場合に、中央に位置するタップ係数を意味する。従って、例えば、図40に示すように、第1の合成クラスコード#cのタップ係数をタップ番号順に並べたものが、(0.2,-0.1,0.8,-0.1,0.2)である場合には、その中央タップ係数は、0.8になる。また、第2の合成クラスコード#c0のタップ係数をタップ番号順に並べたものが、(0.3,-0.4,1.2,-0.4,0.3)である場合には、その中央タップ係数は、1.2となる。   Here, the center tap coefficient of a set of tap coefficients of a certain class means the tap coefficient located at the center when the tap coefficients of the class are arranged in the order of the tap numbers. Therefore, for example, as shown in FIG. 40, when the tap coefficients of the first combined class code #c are arranged in the order of the tap numbers, (0.2, -0.1, 0.8, -0.1, 0.2) The center tap coefficient becomes 0.8. When the tap coefficients of the second composite class code # c0 are arranged in the order of the tap numbers, (0.3, -0.4, 1.2, -0.4, 0.3), the center tap coefficient is 1.2. .

ステップS101で、中央タップ係数どうしが比較された後は、ステップS102に進み、第2の合成クラスコード#c0の中央タップ係数が、第1の合成クラスコード#cの中央タップ係数より大(以上)であるかどうかが判定される。   After the center tap coefficients are compared in step S101, the process proceeds to step S102, where the center tap coefficient of the second combined class code # c0 is larger than the center tap coefficient of the first combined class code #c (or more). ) Is determined.

ステップS102において、第2の合成クラスコード#c0の中央タップ係数が、第1の合成クラスコード#cの中央タップ係数より大であると判定された場合、ステップS103に進み、第2の合成クラスコード#c0のタップ係数のセットのうちの正のタップ係数それぞれについて、第1の合成クラスコード#cの対応するタップ係数に対する変化率(比)が求められる。さらに、ステップS103では、その変化率の平均値が求められ、平均変化率vとされる。   If it is determined in step S102 that the center tap coefficient of the second combined class code # c0 is larger than the center tap coefficient of the first combined class code #c, the process proceeds to step S103, and the second combined class For each positive tap coefficient of the set of tap coefficients of code # c0, the rate of change (ratio) of the first combined class code #c to the corresponding tap coefficient is determined. Further, in step S103, an average value of the change rates is obtained and set as an average change rate v.

従って、図40に示した場合には、第2の合成クラスコード#c0の中央タップ係数が1.2であり、第1の合成クラスコード#cの中央タップ係数である0.8よりも大であるから、ステップS103において、第2の合成クラスコード#c0のタップ係数の正のタップ係数、即ち、1番目のタップ係数である0.3、3番目のタップ係数(中央タップ係数)である1.2、5番目のタップ係数である0.3それぞれについて、第1の合成クラスコード#cの対応するタップ係数に対する変化率(比)が求められる。   Therefore, in the case shown in FIG. 40, the center tap coefficient of the second combined class code # c0 is 1.2, which is larger than 0.8, which is the center tap coefficient of the first combined class code #c. In step S103, the positive tap coefficient of the tap coefficient of the second composite class code # c0, that is, the first tap coefficient of 0.3, the third tap coefficient (center tap coefficient) of 1.2, the fifth tap For each of the 0.3 coefficients, a change rate (ratio) of the first combined class code #c to the corresponding tap coefficient is determined.

いまの場合、第1の合成クラスコード#cの1番目、3番目、5番目のタップ係数は、それぞれ、0.2,0.8,0.2であるから、1番目のタップ係数については、0.3/0.2が、3番目のタップ係数については、1.2/0.8が、3番目のタップ係数については、0.3/0.2が、それぞれ変化率として求められる。   In this case, the first, third, and fifth tap coefficients of the first composite class code #c are 0.2, 0.8, and 0.2, respectively. For the third tap coefficient, 1.2 / 0.8 is obtained as the change rate, and for the third tap coefficient, 0.3 / 0.2 is obtained as the change rate.

また、これらの変化率の平均値は、1.5であり、従って、この1.5が平均変化率vとして求められる。   Further, the average value of these change rates is 1.5, and therefore, 1.5 is obtained as the average change rate v.

ステップS103の処理後は、ステップS104に進み、平均変化率vに、+の符号が付加されることにより、+vとされ、この+vが、第1の合成クラスコード#cのタップ係数のセットから、それに対応付けられた第2の合成クラスコード#c0のタップ係数のセットを生成する生成情報(第2の合成クラスコード#c0についての生成情報)とされ、処理を終了する。   After the processing in step S103, the process proceeds to step S104, in which a + sign is added to the average change rate v to make + v, and this + v is calculated from the set of tap coefficients of the first composite class code #c. , Generation information for generating a set of tap coefficients of the second composite class code # c0 associated therewith (generation information for the second composite class code # c0), and the process ends.

従って、上述の例では、+1.5が、第1の合成クラスコード#cのタップ係数のセットから、第2の合成クラスコード#c0のタップ係数のセットを生成する生成情報とされる。   Therefore, in the above example, +1.5 is the generation information for generating the set of tap coefficients of the second combined class code # c0 from the set of tap coefficients of the first combined class code #c.

一方、ステップS102において、第2の合成クラスコード#c0の中央タップ係数が、第1の合成クラスコード#cの中央タップ係数より大でないと判定された場合、ステップS105に進み、第2の合成クラスコード#c0のタップ係数のセットのうちの負のタップ係数それぞれについて、第1の合成クラスコード#cの対応するタップ係数に対する変化率(比)が求められる。さらに、ステップS105では、その変化率の平均値が求められ、平均変化率vとされる。   On the other hand, if it is determined in step S102 that the center tap coefficient of the second combined class code # c0 is not larger than the center tap coefficient of the first combined class code #c, the process proceeds to step S105, and the second combining For each of the negative tap coefficients of the set of tap coefficients of the class code # c0, the rate of change (ratio) of the first combined class code #c to the corresponding tap coefficient is determined. Further, in step S105, the average value of the change rate is obtained, and is set as the average change rate v.

ステップS105の処理後は、ステップS106に進み、平均変化率vに、−の符号が付加されることにより、−vとされ、この−vが、第1の合成クラスコード#cのタップ係数のセットから、それに対応付けられた第2の合成クラスコード#c0のタップ係数のセットを生成する生成情報とされ、処理を終了する。   After the process of step S105, the process proceeds to step S106, where the average change rate v is set to -v by adding a sign of-, and -v is the tap coefficient of the first combined class code #c. The set is set as generation information for generating a set of tap coefficients of the second composite class code # c0 associated with the set, and the process ends.

なお、例えば、図40に示した第1と第2のクラス分類による第2の合成クラスコード#c1のタップ係数のセットを生成するための生成情報を生成する場合においては、第2の合成クラスコード#c1のタップ係数のセットは、(0.17,-0.02,0.7,-0.02,0.17)であるから、その中央タップ係数が0.7であり、第1の合成クラスコード#cの中央タップ係数である0.8以下の値である。   For example, when generating generation information for generating a set of tap coefficients of the second combined class code # c1 based on the first and second class classifications illustrated in FIG. 40, the second combined class Since the set of tap coefficients of the code # c1 is (0.17, -0.02, 0.7, -0.02, 0.17), the center tap coefficient is 0.7, which is the center tap coefficient of the first composite class code #c. It is a value of 0.8 or less.

従って、この場合、第2の合成クラスコード#c1のタップ係数の負のタップ係数、即ち、2番目のタップ係数である-0.02、4番目のタップ係数である-0.02それぞれについて、第1の合成クラスコード#cの対応するタップ係数に対する変化率(比)が求められる(ステップS105)。   Accordingly, in this case, the first synthesis is performed for each of the negative tap coefficients of the tap coefficients of the second synthesis class code # c1, that is, -0.02 which is the second tap coefficient and -0.02 which is the fourth tap coefficient. A change rate (ratio) of the class code #c with respect to the corresponding tap coefficient is obtained (step S105).

いまの場合、第1の合成クラスコード#cの2番目、4番目のタップ係数は、それぞれ、-0.1,-0.1であるから、2番目のタップ係数については、0.02/0.1が、4番目のタップ係数については、0.02/0.1が、それぞれ変化率として求められる。   In this case, the second and fourth tap coefficients of the first composite class code #c are -0.1 and -0.1, respectively, so for the second tap coefficient, 0.02 / 0.1 is the fourth tap coefficient. For the tap coefficient, 0.02 / 0.1 is obtained as the change rate.

また、これらの変化率の平均値は、0.2であり、従って、この0.2が平均変化率vとして求められる(ステップS105)。   Further, the average value of these change rates is 0.2, and thus 0.2 is obtained as the average change rate v (step S105).

そして、この場合は、平均変化率vである0.2に、−の符号が付加された-0.2が、第1の合成クラスコード#cのタップ係数のセットから、第2の合成クラスコード#c1のタップ係数のセットを生成する生成情報(第2の合成クラスコード#c1についての生成情報)とされる(ステップS106)。   Then, in this case, −0.2, which is obtained by adding a sign of − to 0.2, which is the average change rate v, is obtained from the set of tap coefficients of the first combined class code #c, by the second combined class code # c1. This is set as generation information for generating a set of tap coefficients (generation information for the second composite class code # c1) (step S106).

次に、図42のフローチャートを参照して、第1のクラス分類による第1の合成クラスコード#cのタップ係数のセットと、図41の処理によって生成される生成情報から、第1と第2のクラス分類による第2の合成クラスコード#c0のタップ係数のセットを新たに生成する場合を例に、図32の係数生成部136の処理について説明する。   Next, referring to the flowchart of FIG. 42, the first and second sets of tap coefficients of the first composite class code #c according to the first class classification and the generation information generated by the processing of FIG. 41 will be described. The process of the coefficient generation unit 136 in FIG. 32 will be described with an example of newly generating a set of tap coefficients of the second composite class code # c0 according to the class classification of FIG.

係数生成部136は、ステップS111において、第2の合成クラスコード#c0についての生成情報の符号を判定し、+であると判定した場合は、ステップS112に進み、−であると判定した場合は、ステップS114に進む。   In step S111, the coefficient generation unit 136 determines the sign of the generation information for the second composite class code # c0, proceeds to step S112 when it is determined to be +, and proceeds to step S112 when it is determined to be-. The process proceeds to step S114.

ステップS112では、係数生成部136は、第2の合成クラスコード#c0に対応付けられた第1の合成クラスコード#cのタップ係数のセットのうち、正のタップ係数に、生成情報における平均変化率vを乗算し、その乗算結果のタップ係数のセットを、第2の合成クラスコード#c0のタップ係数のセットとして、ステップS113に進む。   In step S112, the coefficient generation unit 136 converts the average change in the generation information into a positive tap coefficient among the set of tap coefficients of the first composite class code #c associated with the second composite class code # c0. The ratio v is multiplied, and the set of tap coefficients resulting from the multiplication is set as the set of tap coefficients of the second composite class code # c0, and the process proceeds to step S113.

ステップS113では、係数生成部136は、ステップS112で求めた第2の合成クラスコード#c0のタップ係数のセットについて、ゲイン調整のための正規化処理を施し、処理を終了する。即ち、ステップS113では、係数生成部136は、ステップS112で求めた第2の合成クラスコード#c0のタップ係数のセットのうちの負のタップ係数を、全体の総和が1になるように調整する。   In step S113, the coefficient generator 136 performs a normalization process for gain adjustment on the set of tap coefficients of the second composite class code # c0 obtained in step S112, and ends the process. That is, in step S113, the coefficient generation unit 136 adjusts the negative tap coefficients in the set of tap coefficients of the second composite class code # c0 obtained in step S112 so that the total sum thereof becomes 1. .

一方、ステップS114では、係数生成部136は、第2の合成クラスコード#c0に対応付けられた第1の合成クラスコード#cのタップ係数のセットのうち、負のタップ係数に、生成情報における平均変化率vを乗算し、その乗算結果のタップ係数のセットを、第2の合成クラスコード#c0のタップ係数のセットとして、ステップS115に進む。   On the other hand, in step S114, the coefficient generation unit 136 sets the negative tap coefficient in the generation information in the set of tap coefficients of the first composite class code #c associated with the second composite class code # c0. The average coefficient of change v is multiplied, and the set of tap coefficients resulting from the multiplication is set as the set of tap coefficients of the second composite class code # c0, and the process proceeds to step S115.

ステップS115では、係数生成部136は、ステップS114で求めた第2の合成クラスコード#c0のタップ係数のセットについて、ゲイン調整のための正規化処理を施し、処理を終了する。即ち、ステップS115では、係数生成部136は、ステップS114で求めた第2の合成クラスコード#c0のタップ係数のセットのうちの正のタップ係数を、全体の総和が1になるように調整する。   In step S115, the coefficient generation unit 136 performs normalization processing for gain adjustment on the set of tap coefficients of the second combined class code # c0 obtained in step S114, and ends the processing. That is, in step S115, the coefficient generation unit 136 adjusts the positive tap coefficients of the set of tap coefficients of the second composite class code # c0 obtained in step S114 so that the total sum thereof becomes 1. .

図42の処理によれば、例えば、第1の合成クラスコード#cのタップ係数のセットが、図40に示したように、(0.2,-0.1,0.8,-0.1,0.2)であり、第2の合成クラスコード#c0についての生成情報が、図41で説明したように、+1.5である場合には、生成情報の符号が+であるから、第1の合成クラスコード#cのタップ係数のセット(0.2,-0.1,0.8,-0.1,0.2)のうちの正のタップ係数に、1.5が乗算され、その乗算結果(0.3,-0.1,1.2,-0.1,0.3)が、第2の合成クラスコード#c0のタップ係数のセットとされる(ステップS112)。さらに、その第2の合成クラスコード#c0のタップ係数のセット(0.3,-0.1,1.2,-0.1,0.3)のうちの負のタップ係数を調整することにより、全体の総和が1となるように調整される。即ち、いまの場合、(0.3,-0.1,1.2,-0.1,0.3)の総和は、1.6であるため、負のタップ係数である2番目と4番目のタップ係数が、例えば、-0.1から-0.4に、同一の量だけ調整されることにより、第2の合成クラスコード#c0のタップ係数のセットが、その総和が1となる(0.3,-0.4,1.2,-0.4,0.3)とされる。   According to the processing of FIG. 42, for example, the set of tap coefficients of the first composite class code #c is (0.2, -0.1, 0.8, -0.1, 0.2) as shown in FIG. When the generation information of the second composite class code # c0 is +1.5 as described with reference to FIG. 41, the sign of the generated information is +, so the tap coefficient of the first composite class code #c The positive tap coefficient of the set (0.2, -0.1, 0.8, -0.1, 0.2) is multiplied by 1.5, and the multiplication result (0.3, -0.1, 1.2, -0.1, 0.3) becomes the second The set of tap coefficients of the composite class code # c0 is set (step S112). Further, by adjusting the negative tap coefficients of the set of tap coefficients (0.3, -0.1, 1.2, -0.1, 0.3) of the second composite class code # c0, the total sum becomes 1 It is adjusted to. That is, in this case, since the sum of (0.3, -0.1, 1.2, -0.1, 0.3) is 1.6, the second and fourth tap coefficients that are negative tap coefficients are, for example, -0.1 to -0.1. By adjusting to the same amount to 0.4, the set of tap coefficients of the second composite class code # c0 is set to have a sum of 1 (0.3, -0.4, 1.2, -0.4, 0.3). .

この第2の合成クラスコード#c0のタップ係数のセット(0.3,-0.4,1.2,-0.4,0.3)は、図40に示した元のタップ係数のセットと一致しており、従って、第1の合成クラスコード#cのタップ係数のセット(0.2,-0.1,0.8,-0.1,0.2)と、生成情報である+1.5から、その第1の合成クラスコード#cに対応付けられている第2の合成クラスコード#c0のタップ係数のセット(0.3,-0.4,1.2,-0.4,0.3)を生成することができる。同様にして、第2の合成クラスコード#c1のタップ係数のセットも、それに対応付けられている第1の合成クラスコード#cのタップ係数のセットと、図41で説明したようにして生成される生成情報である−0.2から生成することができる。   The set of tap coefficients (0.3, -0.4, 1.2, -0.4, 0.3) of the second composite class code # c0 matches the set of original tap coefficients shown in FIG. From the set of tap coefficients (0.2, -0.1, 0.8, -0.1, 0.2) of the combined class code #c and the generation information +1.5, the first combination class code #c is associated with the first combined class code #c. A set of tap coefficients (0.3, -0.4, 1.2, -0.4, 0.3) of the second composite class code # c0 can be generated. Similarly, a set of tap coefficients of the second composite class code # c1 is generated as described with reference to FIG. 41 and a set of tap coefficients of the first composite class code #c associated therewith. Can be generated from the generated information -0.2.

ここで、画像処理カード133乃至136それぞれについても、上述の場合と同様に、その1つ上位の画像処理カード13iの生成情報から生成されるタップ係数とともに、新たなタップ係数を生成する生成情報を生成して記憶させることができる。 Here, the image processing cards 13 3 to 13 6, respectively, similarly to the case described above, together with the tap coefficients generated from the generation information of the image processing cards 13 i of the one upper, to generate a new tap coefficient Generation information can be generated and stored.

なお、図41の実施の形態では、+または−の符号に、平均変化率をそのまま付加したものを、第2の合成クラスコード#c0についての生成情報とするようにしたが、その他、例えば、平均変化率を、第2の合成クラスコード#c0や、それに対応付けられている第1の合成クラスコード#c、あるいは、第2の合成クラスコード#c0を生成するのに用いられる第1クラスコードや第2クラスコードなどに基づいて補正し、その補正後の平均変化率に、+または−の符号を付加したものを、第2の合成クラスコード#c0についての生成情報とすることが可能である。   In the embodiment of FIG. 41, the information obtained by adding the average rate of change to the plus or minus sign as it is is generated as the generation information for the second composite class code # c0. The average rate of change is calculated using the second composite class code # c0, the first composite class code #c associated therewith, or the first class used to generate the second composite class code # c0. A correction based on the code or the second class code and the like, and a value obtained by adding a plus or minus sign to the corrected average rate of change can be used as generation information for the second composite class code # c0. It is.

また、図41の実施の形態では、第2の合成クラスコード#c0の中央タップ係数が、第1の合成クラスコード#cの中央タップ係数より大きい場合は、第2の合成クラスコード#c0の正のタップ係数について、平均変化率vを求め、大きくない場合には、第2の合成クラスコード#c0の負のタップ係数について、平均変化率vを求め、その平均変化率vに、+または−の符号を付加して、生成情報(以下、適宜、第1の生成情報という)を生成するようにしたが、逆に、第2の合成クラスコード#c0の中央タップ係数が、第1の合成クラスコード#cの中央タップ係数より大きくない場合は、第2の合成クラスコード#c0の正のタップ係数について、平均変化率vを求め、大きい場合には、第2の合成クラスコード#c0の負のタップ係数について、平均変化率vを求め、その平均変化率vに、+または−の符号を付加して、生成情報(以下、適宜、第2の生成情報という)を生成するようにすることなどが可能である。   In the embodiment of FIG. 41, when the center tap coefficient of the second combined class code # c0 is larger than the center tap coefficient of the first combined class code #c, For a positive tap coefficient, an average change rate v is obtained. When the average change rate v is not large, an average change rate v is obtained for a negative tap coefficient of the second composite class code # c0. A minus sign is added to generate generation information (hereinafter, appropriately referred to as first generation information). Conversely, the center tap coefficient of the second composite class code # c0 is changed to the first If it is not larger than the center tap coefficient of the composite class code #c, the average change rate v is calculated for the positive tap coefficient of the second composite class code # c0. If it is larger, the second composite class code # c0 Negative of For the coefficient, an average rate of change v is obtained, and a sign of + or-is added to the average rate of change v to generate generated information (hereinafter, appropriately referred to as second generated information). Is possible.

即ち、第2の合成クラスコード#c0についての生成情報を用いて、図42の処理により、第2の合成クラスコード#c0のタップ係数のセットを求めた場合、元の値からずれることがある。そこで、第1と第2の生成情報のうち、それぞれから求められる第2の合成クラスコード#c0のタップ係数のセットの、元の値に対するずれ量(誤差)が小さくなる方を、第2の合成クラスコード#c0についての最終的な生成情報として採用することが可能である。なお、第1と第2の生成情報のうちのいずれを最終的な生成情報として採用するかは、第2の合成クラスコードや、それに対応付けられている第1の合成クラスコード、あるいは、第2の合成クラスコードを生成するのに用いられる第1クラスコードや第2クラスコードなどごとに設定することが可能である。   That is, when the set of tap coefficients of the second composite class code # c0 is obtained by the processing in FIG. 42 using the generation information on the second composite class code # c0, there may be deviation from the original value. . Therefore, of the first and second generation information, the one in which the amount of deviation (error) of the set of tap coefficients of the second combined class code # c0 obtained from each of them is smaller than the original value is determined by the second It can be adopted as final generation information for the composite class code # c0. It should be noted that which of the first and second generation information is adopted as the final generation information depends on the second composite class code, the first composite class code associated therewith, or the first composite class code. It can be set for each of the first class code and the second class code used to generate the second composite class code.

また、第1の合成クラスコード#cのタップ係数のセットから、それに対応付けられている第2の合成クラスコード#c0のタップ係数のセットを生成するための生成情報としては、図41の処理によって生成されるものの他、例えば、図9の学習装置において、第1の合成クラスコード#cのタップ係数のセットを生徒データとするとともに、第2の合成クラスコード#c0のタップ係数のセットを生徒データとして、学習を行い、その結果得られるタップ係数のセットを採用することなどが可能である。   The generation information for generating the set of tap coefficients of the second composite class code # c0 associated therewith from the set of tap coefficients of the first composite class code #c is the processing of FIG. For example, in the learning device of FIG. 9, a set of tap coefficients of the first combined class code #c is used as student data, and a set of tap coefficients of the second combined class code # c0 is Learning can be performed as student data, and a set of tap coefficients obtained as a result can be employed.

次に、図43は、図3の画像処理インタフェース40の第3の構成例を示している。なお、図中、図32における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図43の画像処理インタフェース40は、係数メモリ134に代えて、メモリ空間共有制御部141が設けられている他は、図32における場合と同様に構成されている。   Next, FIG. 43 shows a third configuration example of the image processing interface 40 of FIG. In the figure, portions corresponding to the case in FIG. 32 are denoted by the same reference numerals, and the description thereof will be appropriately omitted below. That is, the image processing interface 40 of FIG. 43 has the same configuration as that of FIG. 32 except that a memory space sharing control unit 141 is provided instead of the coefficient memory 134.

メモリ空間共有制御部141は、画像処理インタフェース40に装着された、後述する図44の画像処理カード13の係数メモリ94を対象として、図20のメモリ空間共有制御部100と同様に、係数生成部136が生成するタップ係数のセットを記憶させる仮想メモリ空間を確保し、その仮想メモリ空間に、タップ係数のセットを記憶させ、また、クラス分類部133が出力するクラスコードのタップ係数のセットを、仮想メモリ空間から読み出して、予測部135に供給する。   The memory space sharing control unit 141 targets a coefficient memory 94 of the image processing card 13 of FIG. 44, which will be described later, attached to the image processing interface 40, and operates similarly to the memory space sharing control unit 100 of FIG. A virtual memory space for storing a set of tap coefficients generated by the 136 is secured, a set of tap coefficients is stored in the virtual memory space, and a set of tap coefficients of a class code output by the class classification unit 133 is The data is read from the virtual memory space and supplied to the prediction unit 135.

即ち、図44は、画像処理インタフェース40が図43に示したように構成される場合の画像処理カード13の構成例を示している。なお、図中、図33における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図44の画像処理カード13は、図33の画像処理カード13に対して、図20に示した係数メモリ94を設けて構成されている。   That is, FIG. 44 shows a configuration example of the image processing card 13 when the image processing interface 40 is configured as shown in FIG. In the figure, portions corresponding to those in FIG. 33 are denoted by the same reference numerals, and description thereof will be omitted as appropriate below. That is, the image processing card 13 in FIG. 44 is configured by providing the coefficient memory 94 shown in FIG. 20 with respect to the image processing card 13 in FIG.

図36で説明したように、画像処理インタフェース40に装着される、有効カードとしての画像処理カード131乃至13iが増加すると、画像処理インタフェース40の係数生成部136で生成されるタップ係数のクラス数は増加し、従って、そのタップ係数のセット全体のサイズも増大する。 As described in FIG. 36, is mounted to the image processing interface 40, the the image processing card 131 to 13 i as an effective card is increased, the tap coefficients generated by the coefficient generation unit 136 of the image processing interface 40 Class The number increases, and so does the size of the entire set of tap coefficients.

図44の実施の形態では、画像処理カード131乃至13iが装着された場合に、その画像処理カード131乃至13iそれぞれの係数メモリ94の容量の総和が、画像処理インタフェース40の係数生成部136で生成されるタップ係数のセット全体のサイズと一致するように、画像処理カード13iの係数メモリ94の容量が設計されており、従って、画像処理カード131乃至13iの記憶内容を不正に読み出して、タップ係数のセットを生成しても、画像処理カード131乃至13iが画像処理インタフェース40に装着されていない限り、そのタップ係数のセットを記憶することができないようになっている。この場合、ユーザが、画像処理カード131乃至13iの記憶内容を不正に読み出し、タップ係数のセットを生成して使用することを防止することができる。 In the embodiment of Figure 44, if the image processing card 131 to 13 i is attached, the sum of the capacity of the image processing cards 13 1 through 13 i each coefficient memory 94, the coefficient of the image processing interface 40 generates to match the set overall size of the tap coefficients generated by the section 136, the capacity of the coefficient memory 94 of the image processing cards 13 i are designed, therefore, the stored contents of the image processing cards 13 1 through 13 i It reads illegally, and generate a set of tap coefficients, as long as the image processing card 131 to 13 i is not mounted to the image processing interface 40, so it is impossible to store a set of the tap coefficients I have. In this case, the user reads out the stored contents of the image processing cards 13 1 through 13 i illegally, and produces a set of tap coefficients can be prevented from being used.

ここで、図43のメモリ空間共有制御部141は、クラス分類部133、係数生成部136、および予測部135から、メモリ空間共有制御部141を見た場合に、画像処理インタフェース40に装着された有効カードとしての画像処理カード131乃至13iそれぞれのi個の係数メモリ94の実メモリ空間が、全体として、1つの連続したメモリ空間として見えるように、仮想メモリ空間を確保する。 Here, the memory space sharing control unit 141 of FIG. 43 is attached to the image processing interface 40 when the memory space sharing control unit 141 is viewed from the class classification unit 133, the coefficient generation unit 136, and the prediction unit 135. A virtual memory space is secured so that the real memory space of the i coefficient memories 94 of the image processing cards 13 1 to 13 i as valid cards can be viewed as one continuous memory space as a whole.

また、上述の場合には、画像処理インタフェース40に装着された画像処理カード131乃至13iの係数メモリ94の容量の総和が、生成されれるタップ係数のサイズと一致するように、係数メモリ94の容量を設計するようにしたが、係数メモリ94の容量は、画像処理カード131乃至13iが装着されたときに生成されるタップ係数のサイズが、i−1個の係数メモリ94の容量より大で、i個の係数メモリ94の容量以下となるような値とすることが可能である。 Also, as in the case described above, the sum of the capacity of the coefficient memory 94 of the image processing is attached to the image processing interface 40 cards 13 1 through 13 i coincides with the size of the tap coefficients is generated, the coefficient memory 94 of was to design the capacity, the capacity of the coefficient memory 94, the image processing card 131 to the size of the tap coefficient 13 i is generated when the mounted, i-1 one volume of the coefficient memory 94 It is possible to set the value to be larger and equal to or smaller than the capacity of the i coefficient memories 94.

なお、図33および図44の実施の形態では、各画像処理カード13iに、クラス分類部93を設けるようにしたが、この各画像処理カード13iに設けたクラス分類部93は、各画像処理カード13iではなく、図32または図43の画像処理インタフェース40に設けるようにすることが可能である。 In the embodiment of FIGS. 33 and 44, each image processing card 13 i, has been to provide a classification unit 93, the classification unit 93 provided in the respective image processing card 13 i, each image processing card 13 instead i, it is possible to be provided to the image processing interface 40 of FIG. 32 or FIG. 43.

次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by hardware or can be performed by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図45は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 45 illustrates a configuration example of an embodiment of a computer in which a program for executing the above-described series of processes is installed.

プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク305やROM303に予め記録しておくことができる。   The program can be recorded in advance on a hard disk 305 or a ROM 303 as a recording medium built in the computer.

あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体311に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体311は、いわゆるパッケージソフトウエアとして提供することができる。   Alternatively, the program may be temporarily or temporarily stored in a removable recording medium 311 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory. It can be stored (recorded) permanently. Such a removable recording medium 311 can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体311からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部308で受信し、内蔵するハードディスク305にインストールすることができる。   The program may be installed in the computer from the removable recording medium 311 as described above, or may be wirelessly transferred from the download site to the computer via a digital satellite broadcasting artificial satellite, or may be connected to a LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet by wire, and the computer can receive the transferred program by the communication unit 308 and install the program on the built-in hard disk 305.

コンピュータは、CPU(Central Processing Unit)302を内蔵している。CPU302には、バス301を介して、入出力インタフェース310が接続されており、CPU302は、入出力インタフェース310を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部307が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)303に格納されているプログラムを実行する。あるいは、また、CPU302は、ハードディスク305に格納されているプログラム、衛星若しくはネットワークから転送され、通信部308で受信されてハードディスク305にインストールされたプログラム、またはドライブ309に装着されたリムーバブル記録媒体311から読み出されてハードディスク305にインストールされたプログラムを、RAM(Random Access Memory)304にロードして実行する。これにより、CPU302は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU302は、その処理結果を、必要に応じて、例えば、入出力インタフェース310を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部306から出力、あるいは、通信部308から送信、さらには、ハードディスク305に記録等させる。   The computer includes a CPU (Central Processing Unit) 302. An input / output interface 310 is connected to the CPU 302 via a bus 301. The CPU 302 operates the input unit 307 including a keyboard, a mouse, and a microphone by the user via the input / output interface 310. When a command is input by the above operations, the program stored in the ROM (Read Only Memory) 303 is executed in accordance with the command. Alternatively, the CPU 302 may execute a program stored in the hard disk 305, a program transferred from a satellite or a network, received by the communication unit 308 and installed in the hard disk 305, or a removable recording medium 311 attached to the drive 309. The program read and installed in the hard disk 305 is loaded into a RAM (Random Access Memory) 304 and executed. Accordingly, the CPU 302 performs the processing according to the above-described flowchart or the processing performed by the configuration of the above-described block diagram. Then, the CPU 302 outputs the processing result from the output unit 306 composed of an LCD (Liquid CryStal Display) or a speaker, for example, via the input / output interface 310, or the communication unit 308 as necessary. The data is transmitted and further recorded on the hard disk 305.

ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Here, in the present specification, processing steps for describing a program for causing a computer to perform various processes do not necessarily need to be processed in a time series in the order described as a flowchart, and may be performed in parallel or individually. The processing to be executed (for example, parallel processing or processing by an object) is also included.

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   Further, the program may be processed by one computer, or may be processed in a distributed manner by a plurality of computers. Further, the program may be transferred to a remote computer and executed.

なお、本実施の形態では、本発明を、画像データの画質改善に適用した場合について説明したが、本発明は、音声(音響)データの音質改善に適用することも可能である。   In this embodiment, the case where the present invention is applied to the improvement of the image quality of image data has been described. However, the present invention can be applied to the improvement of the sound quality of audio (sound) data.

さらに、本実施の形態では、本発明を、アナログのテレビジョン受像機に適用した場合について説明したが、本発明は、その他、例えば、ディジタルのテレビジョン受像機、その他の画像データや音声データを処理するVTR(Video Tape Recoder)その他の装置に適用可能である。   Further, in the present embodiment, the case where the present invention is applied to an analog television receiver has been described. However, the present invention is applicable to, for example, a digital television receiver and other image data and audio data. The present invention can be applied to a VTR (Video Tape Recorder) for processing and other devices.

また、本実施の形態では、特に、ノイズ除去や、空間解像度を向上させるタップ係数を生成する生成情報を、画像処理カード13に記憶させておくようにしたが、画像処理カード13に記憶させる生成情報は、これらに限定されるものではない。即ち、画像処理カード13には、例えば、時間解像度を向上させるタップ係数や、画素の階調(画素値のビット数)を向上させるタップ係数、エッジを強調するタップ係数、画像を構成する画素数や画像のサイズを変換するタップ係数、その他の画質改善効果のあるタップ係数を生成する生成情報を記憶させることが可能である。   Further, in the present embodiment, in particular, the generation information for generating the tap coefficients for removing noise and improving the spatial resolution is stored in the image processing card 13. The information is not limited to these. That is, the image processing card 13 includes, for example, a tap coefficient for improving the time resolution, a tap coefficient for improving the gradation of the pixel (the number of bits of the pixel value), a tap coefficient for enhancing the edge, and the number of pixels constituting the image. And generation information for generating a tap coefficient for converting the size of an image and other tap coefficients having an effect of improving image quality.

さらに、画像処理カード131乃至136それぞれに記憶させる生成情報は、同種の画質改善であって、程度の異なるものを実現するタップ係数を生成するものであっても良いし、異なる画質改善を実現するタップ係数を生成するものであっても良い。 Furthermore, the generation information stored in each of the image processing cards 13 1 to 13 6 may be the same type of image quality improvement, and may be a type of generating a tap coefficient that realizes a different degree of image quality improvement. A tap coefficient to be realized may be generated.

また、本実施の形態では、画像処理カード13に、あらかじめ生成情報を記憶させておくようにしたが、各順位の画像処理カード13iは、生成情報を記憶させずに、販売することが可能である。この場合、生成情報は、生成情報を提供する生成情報サーバからダウンロードして、画像処理カード13iに記憶させるようにすることが可能である。即ち、画像処理インタフェース40に、画像処理カード13iが装着された場合には、図3のコントローラ37において、通信インタフェース38を制御することにより、生成情報サーバにアクセスし、相互認証を行った後に、生成情報サーバから、生成情報をダウンロードするようにすることができる。この場合、生成情報のダウンロードに対する対価は、そのダウンロードに対応して、ユーザの銀行口座等から引き落としするようにしても良いし、あらかじめ、画像処理カード13iの販売価格に含めておいても良い。 In the present embodiment, the generation information is stored in the image processing card 13 in advance. However, the image processing cards 13 i of each rank can be sold without storing the generation information. It is. In this case, the generation information can be downloaded from a generation information server that provides the generation information and stored in the image processing card 13i . That is, when the image processing card 13 i is mounted on the image processing interface 40, the controller 37 in FIG. 3 controls the communication interface 38 to access the generation information server and perform mutual authentication. The generated information can be downloaded from the generated information server. In this case, compensation for the download of the generated information, in response to the download, may be debited from the bank account of the user or the like, in advance, may have been included in the selling price of the image processing card 13 i .

なお、画像処理カード13は、より下位のものが装着されるほど、本体1の機能が高機能化することから、画像処理カード13iの販売価格、あるいは、生成情報のダウンロードに対する対価は、画像処理カード13iの順位が下がるほど、高価格にすることができる。 The lower the image processing card 13 is attached, the more advanced the function of the main body 1 becomes. Therefore, the selling price of the image processing card 13 i or the price for downloading the generated information is calculated as follows. as the order of processing card 13 i is lowered, it can be a high price.

また、本実施の形態では、テレビジョン受像機に、あらかじめ、最高順位の画像処理カード131が装着された状態となっているものとしたが、最高順位の画像処理カード131も、他の画像処理カード13iと同様に、テレビジョン受像機とは別売りにすることが可能である。但し、最初に、最高順位の画像処理カード131が装着された状態のテレビジョン受像機を購入したユーザについては、最高順位の画像処理カード131が装着されていない状態のテレビジョン受像機を購入したユーザよりも、下位の順位の画像処理カード13iの販売価格を低価格にすることが可能である。 Further, in the present embodiment, the television receiver, in advance, the image processing card 13 of the best rank is assumed that in a state of being mounted, the image processing card 13 1 of the highest order are also other as with the image processing card 13 i, the television receiver can be sold separately. However, first, for the user to image processing card 13 1 of the highest order has purchased the television receiver of the state, which is mounted, in a state in which image processing card 13 1 of the highest order has not been fitted with a television receiver than the user who has purchased, it is possible to make the image processing card 13 i selling price of the lower of the order to lower prices.

なお、図3に示したテレビジョン受像機の本体1は、大雑把には、例えば、一般的なアナログのテレビジョン受像機に、画像処理インタフェース40を追加するとともに、コントローラ37に実行させるプログラムを変更することで構成することが可能である。従って、図3のテレビジョン受像機の本体は、一般的なアナログのテレビジョン受像機を利用して、比較的容易に製造することができるので、画像処理カード13が装着されることにより提供される上述したような機能を考慮すれば、そのコストメリット(コストパフォーマンス)は高いと言うことができる。   In addition, the main body 1 of the television receiver shown in FIG. 3 roughly includes, for example, adding an image processing interface 40 to a general analog television receiver and changing a program to be executed by the controller 37. It is possible to configure by doing. Accordingly, the main body of the television receiver shown in FIG. 3 can be manufactured relatively easily using a general analog television receiver, and is provided by mounting the image processing card 13. Considering the functions described above, the cost merit (cost performance) can be said to be high.

本発明を適用したテレビジョン受像機の一実施の形態の構成例を示す斜視図である。FIG. 1 is a perspective view illustrating a configuration example of an embodiment of a television receiver to which the present invention has been applied. 本体1の背面図である。FIG. 3 is a rear view of the main body 1. 本体1の電気的構成例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of an electrical configuration of a main body 1. リモコン2の構成例を示す平面図である。FIG. 3 is a plan view showing a configuration example of a remote controller 2. 画像処理インタフェース40の第1の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a first configuration example of an image processing interface 40. 画像処理カード13の第1の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a first configuration example of an image processing card 13. 画像処理インタフェース40の処理を説明するフローチャートである。5 is a flowchart illustrating processing of an image processing interface. 画像処理カード13の処理を説明するフローチャートである。5 is a flowchart illustrating a process of the image processing card. タップ係数を求める学習装置の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a learning device that calculates tap coefficients. タップ係数を求める学習処理を説明するフローチャートである。It is a flowchart explaining the learning process which calculates | requires a tap coefficient. 係数種データを求める学習装置の構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of a learning device that obtains coefficient seed data. 係数種データを求める学習処理を説明するフローチャートである。It is a flowchart explaining the learning process which calculates | requires coefficient seed data. 生徒データと教師データから生成されるタップ係数と係数種データを示す図である。FIG. 6 is a diagram showing tap coefficients and coefficient seed data generated from student data and teacher data. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理カード131の処理を説明する図である。Is a diagram illustrating a process of an image processing card 13 1. 画像処理カード131と132の処理を説明する図である。FIG. 3 is a diagram for explaining processing of image processing cards 13 1 and 13 2 . 差分データから、係数種データを生成する生成方法を説明する図である。FIG. 9 is a diagram illustrating a generation method for generating coefficient seed data from difference data. 画像処理カード13の第2の構成例を示すブロック図である。FIG. 9 is a block diagram illustrating a second configuration example of the image processing card 13. 画像処理カード131の処理を説明する図である。Is a diagram illustrating a process of an image processing card 13 1. 画像処理カード131と132の処理を説明する図である。FIG. 3 is a diagram for explaining processing of image processing cards 13 1 and 13 2 . 画像処理カード131の実メモリ空間を示す図である。Is a diagram showing the real memory space of the image processing cards 13 1. 画像処理カード131の実メモリ空間を示す図である。Is a diagram showing the real memory space of the image processing cards 13 1. 画像処理カード132の実メモリ空間を示す図である。Is a diagram showing the real memory space of the image processing cards 13 2. 仮想メモリ空間に、タップ係数が記憶された状態を示す図である。FIG. 4 is a diagram illustrating a state in which tap coefficients are stored in a virtual memory space. 画像処理カード13の処理を説明するフローチャートである。5 is a flowchart illustrating a process of the image processing card. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理カード13に記憶される係数種データの生成方法を説明する図である。FIG. 4 is a diagram illustrating a method of generating coefficient seed data stored in an image processing card 13. 画像処理インタフェース40の第2の構成例を示すブロック図である。FIG. 4 is a block diagram illustrating a second configuration example of the image processing interface 40. 画像処理カード13の第3の構成例を示すブロック図である。FIG. 13 is a block diagram illustrating a third configuration example of the image processing card 13. 画像処理インタフェース40の処理を説明するフローチャートである。5 is a flowchart illustrating processing of an image processing interface. 画像処理カード13の処理を説明するフローチャートである。5 is a flowchart illustrating a process of the image processing card. 装着された画像処理カード13の数によって、クラス数が増加することを示す図である。FIG. 7 is a diagram showing that the number of classes increases according to the number of image processing cards 13 mounted. 画像処理カード131と画像処理インタフェース40の処理を説明する図である。It is a diagram illustrating a process of an image processing card 13 1 and the image processing interface 40. 画像処理カード131と132、および画像処理インタフェース40の処理を説明する図である。FIG. 3 is a diagram for explaining processing of the image processing cards 13 1 and 13 2 and the image processing interface 40. 画像処理カード131と132、および画像処理インタフェース40の処理を説明する図である。FIG. 3 is a diagram for explaining processing of the image processing cards 13 1 and 13 2 and the image processing interface 40. 第1の合成クラスコードのタップ係数と、第2の合成クラスコードのタップ係数との対応関係を示す図である。FIG. 7 is a diagram illustrating a correspondence relationship between tap coefficients of a first combined class code and tap coefficients of a second combined class code. 生成情報を生成する方法を説明するフローチャートである。9 is a flowchart illustrating a method for generating generation information. 画像処理インタフェース40の係数生成部136の処理を説明するフローチャートである。5 is a flowchart illustrating processing of a coefficient generation unit 136 of the image processing interface 40. 画像処理インタフェース40の第3の構成例を示すブロック図である。FIG. 13 is a block diagram illustrating a third configuration example of the image processing interface 40. 画像処理カード13の第4の構成例を示すブロック図である。FIG. 14 is a block diagram illustrating a fourth configuration example of the image processing card 13. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a computer according to an embodiment of the present invention.

符号の説明Explanation of reference numerals

1 本体, 2 リモコン, 11 CRT, 121乃至126 スロット, 13,131乃至136 画像処理カード, 21 アンテナ端子, 22 入力端子, 23 出力端子, 31 チューナ, 32 A/D変換器, 33 Y/C分離部, 34 セレクタ, 35 フレームメモリ, 36 マトリクス変換部, 37 コントローラ, 37A CPU, 37B EEPROM, 37C RAM, 38 通信インタフェース, 39 IRインタフェース, 40 画像処理インタフェース, 51 セレクトボタンスイッチ, 52 ボリウムボタンスイッチ, 53 チャンネルアップダウンボタンスイッチ, 54 メニューボタンスイッチ, 55 イグジットボタンスイッチ, 56 ディスプレイボタン, 57 エンタボタンスイッチ, 58 数字ボタン(テンキー)スイッチ, 59 テレビ/ビデオ切換ボタンスイッチ, 60 テレビ/DSS切換ボタンスイッチ, 61 ジャンプボタンスイッチ, 62 ランゲージボタン, 63 ガイドボタンスイッチ, 64 フェイバリットボタンスイッチ, 65 ケーブルボタンスイッチ, 66 テレビスイッチ, 67 DSSボタンスイッチ, 68乃至70 LED, 71 ケーブル電源ボタンスイッチ, 72 テレビ電源ボタンスイッチ, 73 DSS電源ボタンスイッチ, 74 ミューティングボタンスイッチ, 75 スリープボタンスイッチ, 76 発光部, 81 インタフェースコントローラ, 82 メモリインタフェース, 83 カードインタフェース, 84 接続検出部, 85 線順次変換部, 91,92 タップ抽出部, 93 クラス分類部, 94 係数メモリ, 95 予測部, 96 係数生成部, 97 生成情報記憶部, 98 カードコントローラ, 99 係数正規化部, 100 メモリ空間共有制御部, 111 教師データ生成部, 112 教師データ記憶部, 113 生徒データ生成部, 114 生徒データ記憶部, 115,116 タップ抽出部, 117 クラス分類部, 118 足し込み部, 119 タップ係数算出部, 120 処理情報生成部, 121 タップ係数メモリ, 122 足し込み部, 123 係数種算出部, 131,132 タップ抽出部, 133 クラス分類部, 134 係数メモリ, 135 予測部, 136 係数生成部, 141 メモリ空間共有制御部, 301 バス, 302 CPU, 303 ROM, 304 RAM, 305 ハードディスク, 306 出力部, 307 入力部, 308 通信部, 309 ドライブ, 310 入出力インタフェース, 311 リムーバブル記録媒体 1 body 2 remote control, 11 CRT, 12 1 to 12 6 slots 13 1 to 13 6 image processing card, 21 an antenna terminal, 22 an input terminal, 23 an output terminal, 31 a tuner, 32 A / D converter, 33 Y / C separation unit, 34 selector, 35 frame memory, 36 matrix conversion unit, 37 controller, 37A CPU, 37B EEPROM, 37C RAM, 38 communication interface, 39 IR interface, 40 image processing interface, 51 select button switch, 52 volume Button switch, 53 channel up / down button switch, 54 menu button switch, 55 exit button switch, 56 display button, 57 enter button switch, 58 numeric button (numeric keypad) switch, 59 TV / video switch button switch, 60 TV / DSS switch button switch, 61 jump button switch, 62 language button, 63 guide button switch, 64 favorite button switch, 65 cable button switch, 66 TV switch, 67 DSS button switch, 68 70 LED, 71 cable power button switch, 72 TV power button switch, 73 DSS power button switch, 74 muting button switch, 75 sleep button switch, 76 light emitting section, 81 interface controller, 82 memory interface, 83 card interface, 84 Connection detection unit, 85 line sequential conversion unit, 91, 92 tap extraction unit, 93 class classification unit, 94 coefficient memory, 95 prediction unit, 96 coefficient generation unit, 97 generation information storage unit, 98 card controller, 99 coefficient normalization unit, 100 memory space sharing control unit, 111 teacher data generation unit, 112 teacher data storage unit, 113 student data generation unit, 114 student data storage Section, 115, 116 tap extraction section, 117 class classification section, 118 addition section, 119 tap coefficient calculation section, 120 processing information generation section, 121 tap coefficient memory, 122 addition section, 123 coefficient type calculation section, 131, 132 Tap extraction unit, 133 class classification unit, 134 coefficient memory, 135 prediction unit, 136 coefficient generation unit, 141 memory space sharing control unit, 301 bus, 302 CPU, 303 ROM, 304 RAM, 305 hard disk, 306 output unit, 307 input Unit, 308 communication unit, 309 drive, 310 input / output interface, 311 removable recording medium

Claims (41)

データ処理装置に着脱可能な記憶装置において、
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する生成情報記憶手段と、
前記データ処理装置による制御にしたがって、前記生成情報から、前記タップ係数を生成するタップ係数生成手段と、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、前記データ処理装置から供給される前記第1のデータから抽出する予測タップ抽出手段と、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、前記データ処理装置から供給される前記第1のデータから抽出するクラスタップ抽出手段と、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類手段と、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測し、前記データ処理装置に供給する予測手段と
を備えることを特徴とする記憶装置。
In a storage device detachable from the data processing device,
Generation information storage for storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting first data into second data having higher quality than the first data. Means,
According to the control of the data processing device, from the generation information, a tap coefficient generation unit that generates the tap coefficient,
Prediction tap extraction means for extracting, from the first data supplied from the data processing device, a prediction tap used for predicting the data of interest of the second data,
Class tap extracting means for extracting a class tap used to perform a class classification for classifying the data of interest into any of a plurality of classes from the first data supplied from the data processing device;
Class classification means for classifying the data of interest based on the class tap;
A storage device, comprising: prediction means for predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap, and supplying the data to the data processing device.
前記生成情報記憶手段は、前記タップ係数の種となる係数種データを、前記生成情報として記憶する
ことを特徴とする請求項1に記載の記憶装置。
The storage device according to claim 1, wherein the generation information storage unit stores coefficient seed data serving as a seed of the tap coefficient as the generation information.
前記データ処理装置は、他の記憶装置も着脱可能であり、
前記生成情報記憶手段は、前記他の記憶装置に記憶された他の係数種データを用いて自身の係数種データを生成可能な情報を、前記生成情報として記憶する
ことを特徴とする請求項2に記載の記憶装置。
In the data processing device, other storage devices are also detachable,
The generation information storage unit stores, as the generation information, information capable of generating its own coefficient seed data using another coefficient seed data stored in the other storage device. A storage device according to claim 1.
前記生成情報記憶手段は、前記自身の係数種データと、前記他の記憶装置における他の係数種データとの差分を、前記生成情報として記憶する
ことを特徴とする請求項3に記載の記憶装置。
The storage device according to claim 3, wherein the generation information storage unit stores, as the generation information, a difference between the own coefficient seed data and another coefficient seed data in the another storage device. .
前記データ処理装置は、他の記憶装置も着脱可能であり、
前記タップ係数生成手段は、前記生成情報記憶手段に記憶された前記生成情報と、前記データ処理装置から供給される前記他の記憶装置に記憶された他の生成情報とから、前記タップ係数を生成する
ことを特徴とする請求項1に記載の記憶装置。
In the data processing device, other storage devices are also detachable,
The tap coefficient generation unit generates the tap coefficient from the generation information stored in the generation information storage unit and other generation information stored in the other storage device supplied from the data processing device. The storage device according to claim 1, wherein:
前記タップ係数を記憶するタップ係数記憶手段と、
前記タップ係数記憶手段に記憶されたタップ係数から、前記注目データについてのクラスのタップ係数を取得するタップ係数取得手段と
をさらに備える
ことを特徴とする請求項1に記載の記憶装置。
Tap coefficient storage means for storing the tap coefficient,
2. The storage device according to claim 1, further comprising: a tap coefficient acquisition unit configured to acquire a tap coefficient of a class of the data of interest from the tap coefficients stored in the tap coefficient storage unit. 3.
前記データ処理装置は、他の記憶装置も着脱可能であり、
前記タップ係数生成手段は、前記タップ係数記憶手段の記憶容量を超えるサイズの前記タップ係数を生成し、
前記タップ係数生成手段によって生成された前記タップ係数は、前記タップ係数記憶手段と、前記他の記憶装置とに記憶され、
前記タップ係数取得手段は、前記前記注目データについてのクラスのタップ係数を、前記タップ係数記憶手段または前記他の記憶装置から取得する
ことを特徴とする請求項6に記載の記憶装置。
In the data processing device, other storage devices are also detachable,
The tap coefficient generation unit generates the tap coefficient having a size exceeding the storage capacity of the tap coefficient storage unit,
The tap coefficient generated by the tap coefficient generation unit is stored in the tap coefficient storage unit and the other storage device,
The storage device according to claim 6, wherein the tap coefficient acquisition unit acquires a tap coefficient of a class of the data of interest from the tap coefficient storage unit or the other storage device.
前記タップ係数生成手段は、前記生成情報によって定義される所定の演算式にしたがって演算を行うことにより、前記タップ係数を生成する
ことを特徴とする請求項1に記載の記憶装置。
The storage device according to claim 1, wherein the tap coefficient generation unit generates the tap coefficient by performing an operation according to a predetermined operation expression defined by the generation information.
前記データ処理装置は、他の記憶装置も着脱可能であり、
前記タップ係数生成手段は、前記他の記憶装置で用いられる演算式よりも項数の多い前記所定の演算式にしたがって演算を行うことにより、前記タップ係数を生成する
ことを特徴とする請求項8に記載の記憶装置。
In the data processing device, other storage devices are also detachable,
The said tap coefficient generation means produces | generates the said tap coefficient by performing operation according to the said predetermined | prescribed arithmetic expression which has more terms than the arithmetic expression used by the said another memory | storage device. A storage device according to claim 1.
前記データ処理装置は、他の記憶装置も着脱可能であり、
前記タップ係数生成手段は、前記他の記憶装置で生成されるタップ係数のクラス数よりも多いクラス数のタップ係数を生成する
ことを特徴とする請求項1に記載の記憶装置。
In the data processing device, other storage devices are also detachable,
The storage device according to claim 1, wherein the tap coefficient generation unit generates a tap coefficient having a larger number of classes than the number of classes of the tap coefficient generated in the another storage device.
前記データ処理装置は、他の記憶装置も着脱可能であり、
前記生成情報記憶手段は、前記他の記憶装置で生成されるタップ係数とは異なる品質改善を行う前記データ変換処理を行うタップ係数を生成するための生成情報を記憶する
ことを特徴とする請求項1に記載の記憶装置。
In the data processing device, other storage devices are also detachable,
The generation information storage unit stores generation information for generating a tap coefficient for performing the data conversion process for performing a quality improvement different from a tap coefficient generated by the other storage device. 2. The storage device according to 1.
データ処理装置に着脱可能な記憶装置であって、第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する生成情報記憶手段を有する記憶装置のデータ処理方法において、
前記データ処理装置による制御にしたがって、前記生成情報から、前記タップ係数を生成するタップ係数生成ステップと、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、前記データ処理装置から供給される前記第1のデータから抽出する予測タップ抽出ステップと、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、前記データ処理装置から供給される前記第1のデータから抽出するクラスタップ抽出ステップと、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類ステップと、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測し、前記データ処理装置に供給する予測ステップと
を備えることを特徴とするデータ処理方法。
A storage device that is detachable from a data processing device, and is a tap coefficient for each predetermined class for performing a data conversion process of converting first data into second data having higher quality than the first data. In a data processing method of a storage device having generation information storage means for storing generation information for generating
According to the control of the data processing device, a tap coefficient generation step of generating the tap coefficient from the generation information,
A prediction tap extraction step of extracting, from the first data supplied from the data processing device, a prediction tap used to predict a target data of interest of the second data;
A class tap extraction step of extracting, from the first data supplied from the data processing device, a class tap used to perform a class classification for classifying the data of interest into any of a plurality of classes;
A class classification step of classifying the data of interest based on the class tap;
A data processing method, comprising: predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap, and supplying the data to the data processing device.
データ処理装置に着脱可能な記憶装置であって、第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する生成情報記憶手段を有する記憶装置におけるデータ処理を、コンピュータに行わせるプログラムにおいて、
前記データ処理装置による制御にしたがって、前記生成情報から、前記タップ係数を生成するタップ係数生成ステップと、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、前記データ処理装置から供給される前記第1のデータから抽出する予測タップ抽出ステップと、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、前記データ処理装置から供給される前記第1のデータから抽出するクラスタップ抽出ステップと、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類ステップと、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測し、前記データ処理装置に供給する予測ステップと
を備えることを特徴とするプログラム。
A storage device that is detachable from a data processing device, and is a tap coefficient for each predetermined class for performing a data conversion process of converting first data into second data having higher quality than the first data. In a program for causing a computer to perform data processing in a storage device having generation information storage means for storing generation information for generating
According to the control of the data processing device, a tap coefficient generation step of generating the tap coefficient from the generation information,
A prediction tap extraction step of extracting, from the first data supplied from the data processing device, a prediction tap used to predict a target data of interest of the second data;
A class tap extraction step of extracting, from the first data supplied from the data processing device, a class tap used to perform a class classification for classifying the data of interest into any of a plurality of classes;
A class classification step of classifying the data of interest based on the class tap;
A program for predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap, and supplying the predicted data to the data processing device.
データ処理装置に着脱可能な記憶装置であって、第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する生成情報記憶手段を有する記憶装置におけるデータ処理を、コンピュータに行わせるプログラムが記録されている記録媒体において、
前記データ処理装置による制御にしたがって、前記生成情報から、前記タップ係数を生成するタップ係数生成ステップと、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、前記データ処理装置から供給される前記第1のデータから抽出する予測タップ抽出ステップと、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、前記データ処理装置から供給される前記第1のデータから抽出するクラスタップ抽出ステップと、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類ステップと、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測し、前記データ処理装置に供給する予測ステップと
を備えるプログラムが記録されている
ことを特徴とする記録媒体。
A storage device that is detachable from a data processing device, and is a tap coefficient for each predetermined class for performing a data conversion process of converting first data into second data having higher quality than the first data. The data processing in the storage device having the generation information storage means for storing the generation information for generating the
According to the control of the data processing device, a tap coefficient generation step of generating the tap coefficient from the generation information,
A prediction tap extraction step of extracting, from the first data supplied from the data processing device, a prediction tap used to predict a target data of interest of the second data;
A class tap extraction step of extracting, from the first data supplied from the data processing device, a class tap used to perform a class classification for classifying the data of interest into any of a plurality of classes;
A class classification step of classifying the data of interest based on the class tap;
A recording medium recording a program comprising: a prediction step of predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap and supplying the data to the data processing device.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置において、
前記第1乃至第Nの記憶手段が装着される着脱手段と、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における、前記生成情報からの前記タップ係数の生成を制御するタップ係数生成制御手段と、
前記第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定手段と、
前記入出力ルート設定手段において設定された前記入出力ルートにしたがって、前記第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御手段と
を備えることを特徴とするデータ処理装置。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. In a data processing device to which the Nth storage device is detachable,
Attaching / detaching means to which the first to Nth storage means are attached;
Tap coefficient generation control means for controlling generation of the tap coefficient from the generation information in the first to N'th (≤N) storage devices attached to the attachment / detachment means;
Input / output route setting means for setting an input / output route of data for each of the first to N'th storage devices;
Data supply for controlling data supply from one of the first to N ′ storage units to another storage unit according to the input / output route set by the input / output route setting unit. A data processing device comprising: a control unit.
前記1つの記憶装置は、前記タップ係数の種となる係数種データを、前記生成情報として記憶し、
前記他の1つの記憶装置は、前記1つの記憶装置に記憶された係数種データを用いて自身の係数種データを生成可能な情報を、前記生成情報として記憶し、
前記タップ係数生成制御手段は、前記1つの記憶装置に記憶された係数種データと、前記他の1つの記憶装置に記憶された前記生成情報とを用いて、前記他の1つの記憶装置自身の係数種データを生成し、その係数種データからタップ係数を生成するように、前記他の1つの記憶装置を制御する
ことを特徴とする請求項15に記載のデータ処理装置。
The one storage device stores coefficient seed data serving as a seed of the tap coefficient as the generation information,
The other one storage device stores information capable of generating its own coefficient seed data using the coefficient seed data stored in the one storage device, as the generation information,
The tap coefficient generation control unit uses the coefficient seed data stored in the one storage device and the generation information stored in the another storage device to generate a value of the other storage device itself. The data processing apparatus according to claim 15, wherein the other one storage device is controlled so as to generate coefficient seed data and generate a tap coefficient from the coefficient seed data.
前記他の1つの記憶装置は、自身の係数種データと、前記1つの記憶装置における係数種データとの差分を、前記生成情報として記憶し、
前記タップ係数生成制御手段は、前記1つの記憶装置における係数種データと、前記他の1つの記憶装置に記憶された前記生成情報と加算することにより、自身の係数種データを生成し、その係数種データからタップ係数を生成するように、前記他の1つの記憶装置を制御する
ことを特徴とする請求項16に記載のデータ処理装置。
The other one storage device stores a difference between its own coefficient seed data and the coefficient seed data in the one storage device as the generation information,
The tap coefficient generation control means generates its own coefficient seed data by adding the coefficient seed data in the one storage device and the generation information stored in the other storage device, and generates the coefficient seed data. The data processing apparatus according to claim 16, wherein the other one storage device is controlled so as to generate a tap coefficient from the seed data.
前記タップ係数生成制御手段は、前記1つの記憶装置に記憶された生成情報と、前記他の1つの記憶装置に記憶された生成情報とから、前記タップ係数を生成するように、前記他の1つの記憶装置を制御する
ことを特徴とする請求項15に記載のデータ処理装置。
The tap coefficient generation control means is configured to generate the tap coefficient from the generation information stored in the one storage device and the generation information stored in the another storage device. The data processing device according to claim 15, wherein the data processing device controls two storage devices.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置であって、前記第1乃至第Nの記憶手段が装着される着脱手段を有するデータ処理装置のデータ処理方法において、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における、前記生成情報からの前記タップ係数の生成を制御するタップ係数生成制御ステップと、
前記第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定ステップと、
前記入出力ルート設定ステップにおいて設定された前記入出力ルートにしたがって、前記第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御ステップと
を備えることを特徴とするデータ処理方法。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. In the data processing method of a data processing device, wherein the N-th storage device is a detachable data processing device, and the first to N-th storage devices are attached and detached.
A tap coefficient generation control step of controlling generation of the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices attached to the attaching / detaching means;
An input / output route setting step of setting an input / output route of data for each of the first to N'th storage devices;
Data supply for controlling data supply from one storage device of the first to N ′ storage units to another storage device according to the input / output route set in the input / output route setting step. A data processing method, comprising: a control step.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置であって、前記第1乃至第Nの記憶手段が装着される着脱手段を有するデータ処理装置におけるデータ処理を、コンピュータに行わせるプログラムにおいて、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における、前記生成情報からの前記タップ係数の生成を制御するタップ係数生成制御ステップと、
前記第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定ステップと、
前記入出力ルート設定ステップにおいて設定された前記入出力ルートにしたがって、前記第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御ステップと
を備えることを特徴とするプログラム。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. A program for causing a computer to perform data processing in a data processing device in which the N-th storage device is a detachable data processing device, the data processing device having a detachable device to which the first to N-th storage devices are attached.
A tap coefficient generation control step of controlling generation of the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices attached to the attaching / detaching means;
An input / output route setting step of setting an input / output route of data for each of the first to N'th storage devices;
Data supply for controlling data supply from one storage device of the first to N ′ storage units to another storage device according to the input / output route set in the input / output route setting step. A program comprising: a control step.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置であって、前記第1乃至第Nの記憶手段が装着される着脱手段を有するデータ処理装置におけるデータ処理を、コンピュータに行わせるプログラムが記録されている記録媒体において、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における、前記生成情報からの前記タップ係数の生成を制御するタップ係数生成制御ステップと、
前記第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定ステップと、
前記入出力ルート設定ステップにおいて設定された前記入出力ルートにしたがって、前記第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御ステップと
を備えるプログラムが記録されている
ことを特徴とする記録媒体。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. A program for causing a computer to perform data processing in a data processing device in which the N-th storage device is a detachable data processing device and has a detachable device to which the first to N-th storage devices are attached is recorded. Recording media,
A tap coefficient generation control step of controlling generation of the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices attached to the attaching / detaching means;
An input / output route setting step of setting an input / output route of data for each of the first to N'th storage devices;
Data supply for controlling data supply from one storage device of the first to N ′ storage units to another storage device according to the input / output route set in the input / output route setting step. A recording medium characterized by recording a program comprising: a control step;
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置と、
前記第1乃至第Nの記憶装置が着脱可能なデータ処理装置と
からなるデータ処理システムにおいて、
前記第1乃至第Nの記憶装置それぞれは、
前記タップ係数を生成するための生成情報を記憶する生成情報記憶手段と、
前記データ処理装置による制御にしたがって、前記生成情報から、前記タップ係数を生成するタップ係数生成手段と、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップを、前記データ処理装置から供給される前記第1のデータから抽出する予測タップ抽出手段と、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップを、前記データ処理装置から供給される前記第1のデータから抽出するクラスタップ抽出手段と、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類手段と、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測し、前記データ処理装置に供給する予測手段と
を備え、
前記データ処理装置は、
前記第1乃至第Nの記憶手段が装着される着脱手段と、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における、前記生成情報からの前記タップ係数の生成を制御するタップ係数生成制御手段と、
前記第1乃至第N'の記憶装置それぞれに対するデータの入出力ルートを設定する入出力ルート設定手段と、
前記入出力ルート設定手段において設定された前記入出力ルートにしたがって、前記第1乃至N'の記憶手段のうちの1つの記憶装置から他の1つの記憶装置へのデータの供給を制御するデータ供給制御手段と
を備える
ことを特徴とするデータ処理システム。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. An N-th storage device;
A data processing system comprising the first to Nth storage devices and a detachable data processing device;
Each of the first to Nth storage devices includes:
Generation information storage means for storing generation information for generating the tap coefficient,
According to the control of the data processing device, from the generation information, a tap coefficient generation unit that generates the tap coefficient,
Prediction tap extraction means for extracting, from the first data supplied from the data processing device, a prediction tap used for predicting the data of interest of the second data,
Class tap extracting means for extracting a class tap used to perform a class classification for classifying the data of interest into any of a plurality of classes from the first data supplied from the data processing device;
Class classification means for classifying the data of interest based on the class tap;
Prediction means for predicting the data of interest from a tap coefficient of a class for the data of interest and the prediction tap, and supplying the data to the data processing device;
The data processing device includes:
Attaching / detaching means to which the first to Nth storage means are attached;
Tap coefficient generation control means for controlling generation of the tap coefficient from the generation information in the first to N'th (≤N) storage devices attached to the attachment / detachment means;
Input / output route setting means for setting an input / output route of data for each of the first to N'th storage devices;
Data supply for controlling data supply from one of the first to N ′ storage units to another storage unit according to the input / output route set by the input / output route setting unit. A data processing system comprising: control means;
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置において、
前記第1乃至第Nの記憶手段が装着される着脱手段と、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における前記生成情報から、前記タップ係数を生成するタップ係数生成手段と、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする前記第1のデータを抽出する予測タップ抽出手段と、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする前記第1のデータを抽出するクラスタップ抽出手段と、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類手段と、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測する予測手段と
を備えることを特徴とするデータ処理装置。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. In a data processing device to which the Nth storage device is detachable,
Attaching / detaching means to which the first to Nth storage means are attached;
Tap coefficient generation means for generating the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices attached to the attachment / detachment means;
Predictive tap extracting means for extracting the first data as a predictive tap used to predict target data of interest in the second data;
Class tap extracting means for extracting the first data as class taps used for performing class classification for classifying the data of interest into any of a plurality of classes;
Class classification means for classifying the data of interest based on the class tap;
A data processing apparatus comprising: a prediction unit configured to predict the data of interest from a tap coefficient of a class of the data of interest and the prediction tap.
前記第1乃至第N'の記憶装置における前記生成情報から生成される前記タップ係数を用いて求められる前記第2のデータは、前記第1乃至第N'−1の記憶装置における前記生成情報から生成される前記タップ係数を用いて求められる前記第2のデータよりも高品質のものである
ことを特徴とする請求項23に記載のデータ処理装置。
The second data obtained by using the tap coefficients generated from the generation information in the first to N′th storage devices is obtained from the generation information in the first to N′−1 storage devices. 24. The data processing device according to claim 23, wherein the data has higher quality than the second data obtained using the generated tap coefficient.
前記第1乃至第N'の記憶装置における前記生成情報から生成される前記タップ係数は、前記第1乃至第N'−1の記憶装置における前記生成情報から生成される前記タップ係数とは異なるものである
ことを特徴とする請求項23に記載のデータ処理装置。
The tap coefficients generated from the generation information in the first to N'th storage devices are different from the tap coefficients generated from the generation information in the first to N'-1 storage devices. The data processing device according to claim 23, wherein:
前記タップ係数生成手段は、前記第1乃至第N'の記憶装置における前記生成情報によって定義される所定の演算式にしたがって演算を行うことにより、前記タップ係数を生成する
ことを特徴とする請求項23に記載のデータ処理装置。
The tap coefficient generation means generates the tap coefficient by performing an operation according to a predetermined operation expression defined by the generation information in the first to N'th storage devices. 24. The data processing device according to 23.
前記第1乃至第N'の記憶装置における前記生成情報によって定義される演算式は、前記第1乃至第N'−1の記憶装置における前記生成情報によって定義される演算式よりも項数の多いものである
ことを特徴とする請求項26に記載のデータ処理装置。
The arithmetic expressions defined by the generation information in the first to N'th storage devices have more terms than the arithmetic expressions defined by the generation information in the first to N'-1 storage devices. The data processing device according to claim 26, wherein:
前記第1乃至第Nの記憶装置それぞれが、前記タップ係数生成手段が生成した前記タップ係数を記憶するタップ係数記憶手段を有する場合において、
前記第1乃至第N'の記憶装置における前記生成情報から生成される前記タップ係数は、前記第1乃至第N'−1の記憶装置それぞれが有する前記タップ係数記憶手段の記憶容量の総和よりも大で、かつ、前記第1乃至第N'の記憶装置それぞれが有する前記タップ係数記憶手段の記憶容量の総和以下のサイズである
ことを特徴とする請求項23に記載のデータ処理装置。
In a case where each of the first to Nth storage devices includes a tap coefficient storage unit that stores the tap coefficient generated by the tap coefficient generation unit,
The tap coefficients generated from the generation information in the first to N'th storage devices are larger than the sum of the storage capacities of the tap coefficient storage units of the first to N'-1 storage devices. 24. The data processing device according to claim 23, wherein the data processing device has a large size and is equal to or smaller than a total sum of storage capacities of the tap coefficient storage units included in the first to N'th storage devices.
前記第1乃至第Nの記憶装置それぞれが、前記タップ係数生成手段が生成した前記タップ係数を記憶するタップ係数記憶手段を有する場合において、
前記第1乃至第N'の記憶装置における前記生成情報から生成された前記タップ係数は、前記第1乃至第N'の記憶装置それぞれが有する前記タップ係数記憶手段に亘って記憶される
ことを特徴とする請求項28に記載のデータ処理装置。
In a case where each of the first to Nth storage devices includes a tap coefficient storage unit that stores the tap coefficient generated by the tap coefficient generation unit,
The tap coefficients generated from the generation information in the first to N'th storage devices are stored over the tap coefficient storage means included in each of the first to N'th storage devices. The data processing device according to claim 28, wherein
前記第1乃至第N'の記憶装置における前記生成情報から生成される前記タップ係数は、前記第1乃至第N'−1の記憶装置における前記生成情報から生成される前記タップ係数よりも、クラス数の多いものである
ことを特徴とする請求項23に記載のデータ処理装置。
The tap coefficients generated from the generation information in the first to N'th storage devices are more class than the tap coefficients generated from the generation information in the first to N'-1 storage devices. The data processing device according to claim 23, wherein the number is large.
前記タップ係数生成手段は、前記第1乃至第N'の記憶装置のうちの1つの記憶装置における前記生成情報から、1セットのタップ係数を生成する
ことを特徴とする請求項23に記載のデータ処理装置。
The data according to claim 23, wherein the tap coefficient generation unit generates a set of tap coefficients from the generation information in one of the first to N'th storage devices. Processing equipment.
前記第1の記憶装置のみが前記着脱手段に装着されている場合に、前記第1の記憶装置における前記生成情報から生成される前記1セットのタップ係数は、N種類の品質改善を行うものであり、
前記第1乃至第Nの記憶装置のうちの前記第1乃至第N'の記憶装置が前記着脱手段に装着されている場合に、前記第1乃至第Nの記憶装置における前記生成情報からそれぞれ生成されるNセットのタップ係数は、前記N種類の品質改善にそれぞれ対応するものである
ことを特徴とする請求項31に記載のデータ処理装置。
When only the first storage device is attached to the attaching / detaching means, the one set of tap coefficients generated from the generation information in the first storage device performs N kinds of quality improvement. Yes,
When the first to N′th storage devices of the first to Nth storage devices are mounted on the attaching / detaching means, the first to N′th storage devices are respectively generated from the generation information in the first to Nth storage devices. The data processing device according to claim 31, wherein the N sets of tap coefficients to be performed correspond to the N types of quality improvements, respectively.
前記第1乃至第N'の記憶装置における前記生成情報からそれぞれ生成されるN'種類のタップ係数を用いて、前記第1のデータを対象に、前記データ変換処理を、N'回行う
ことを特徴とする請求項31に記載のデータ処理装置。
Performing N ′ times the data conversion process on the first data by using N ′ types of tap coefficients generated from the generation information in the first to N′th storage devices. 32. The data processing device according to claim 31, wherein
前記タップ係数生成手段は、前記第1乃至第N'の記憶装置における前記生成情報を、前記タップ係数の種となる係数種データとして、その係数種データから、前記タップ係数を生成する
ことを特徴とする請求項23に記載のデータ処理装置。
The tap coefficient generation unit generates the tap coefficient from the coefficient seed data, using the generation information in the first to N′th storage devices as coefficient seed data serving as a seed of the tap coefficient. The data processing device according to claim 23, wherein
前記第N'の記憶装置には、前記第1乃至第N'−1の記憶装置における前記生成情報から求められる第N'−1の係数種データを用いて第N'の係数種データを生成可能な情報が、前記生成情報として記憶されており、
前記タップ係数生成手段は、前記第1乃至第N'の記憶装置における前記生成情報から、前記第N'の係数種データを生成し、さらに、その第N'の係数種データから、前記タップ係数を生成する
ことを特徴とする請求項34に記載のデータ処理装置。
The N′th storage device generates the N′th coefficient seed data using the N′−1th coefficient seed data obtained from the generation information in the first to N′−1th storage devices. Possible information is stored as the generation information,
The tap coefficient generating means generates the N'th coefficient seed data from the generation information in the first to N'th storage devices, and further generates the tap coefficient from the N'th coefficient seed data. 35. The data processing device according to claim 34, wherein:
前記第N'の記憶装置には、前記第N'の係数種データと、前記第N'−1の係数種データとの差分が、前記生成情報として記憶されており、
前記タップ係数生成手段は、前記第1乃至第N'−1の記憶装置における前記生成情報から求められる第N'−1の係数種データと、前記第N'の記憶装置における前記生成情報とを加算することにより、前記第N'の係数種データを生成する
ことを特徴とする請求項35に記載のデータ処理装置。
The difference between the N′th coefficient seed data and the N′−1th coefficient seed data is stored in the N′th storage device as the generation information,
The tap coefficient generation unit may calculate the N′−1th coefficient seed data obtained from the generation information in the first to N′−1th storage devices and the generation information in the N′th storage device. The data processing apparatus according to claim 35, wherein the N'th coefficient seed data is generated by adding.
前記第1乃至第N'の記憶装置に対して、前記注目データについてのクラス分類を要求するクラス分類要求手段をさらに備え、
前記クラス分類手段は、前記クラス分類の要求に応じて、前記第1乃至第N'の記憶装置それぞれから供給される前記注目データについてのクラスを表す情報を合成することにより、前記注目データの最終的なクラスを求める
ことを特徴とする請求項23に記載のデータ処理装置。
Classification requesting means for requesting the first to N'th storage devices to classify the data of interest,
The class classifying unit synthesizes information indicating the class of the data of interest supplied from each of the first to N'th storage devices in response to the request for the class classification, thereby obtaining the final data of the data of interest. The data processing apparatus according to claim 23, wherein a general class is obtained.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置のデータ処理方法において、
前記データ処理装置に装着された前記第1乃至第N'(≦N)の記憶装置における前記生成情報から、前記タップ係数を生成するタップ係数生成ステップと、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする前記第1のデータを抽出する予測タップ抽出ステップと、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする前記第1のデータを抽出するクラスタップ抽出ステップと、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類ステップと、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測する予測ステップと
を備えることを特徴とするデータ処理方法。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. In a data processing method of a data processing device in which an N-th storage device is detachable,
A tap coefficient generation step of generating the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices mounted on the data processing device;
A prediction tap extracting step of extracting the first data as a prediction tap used for predicting the noted data of interest in the second data;
A class tap extracting step of extracting the first data as a class tap used for performing a class classification for classifying the target data into any of a plurality of classes;
A class classification step of classifying the data of interest based on the class tap;
A data processing method, comprising: a prediction step of predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置におけるデータ処理を、コンピュータに行わせるプログラムにおいて、
前記データ処理装置に装着された前記第1乃至第N'(≦N)の記憶装置における前記生成情報から、前記タップ係数を生成するタップ係数生成ステップと、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする前記第1のデータを抽出する予測タップ抽出ステップと、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする前記第1のデータを抽出するクラスタップ抽出ステップと、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類ステップと、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測する予測ステップと
を備えることを特徴とするプログラム。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. In a program for causing a computer to perform data processing in a data processing device to which the Nth storage device is detachable,
A tap coefficient generation step of generating the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices mounted on the data processing device;
A prediction tap extracting step of extracting the first data as a prediction tap used for predicting the noted data of interest in the second data;
A class tap extracting step of extracting the first data as a class tap used for performing a class classification for classifying the target data into any of a plurality of classes;
A class classification step of classifying the data of interest based on the class tap;
A program for predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置が着脱可能なデータ処理装置におけるデータ処理を、コンピュータに行わせるプログラムが記録されている記録媒体において、
前記データ処理装置に装着された前記第1乃至第N'(≦N)の記憶装置における前記生成情報から、前記タップ係数を生成するタップ係数生成ステップと、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする前記第1のデータを抽出する予測タップ抽出ステップと、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする前記第1のデータを抽出するクラスタップ抽出ステップと、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類ステップと、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測する予測ステップと
を備えるプログラムが記録されている
ことを特徴とする記録媒体。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. In a recording medium storing a program for causing a computer to perform data processing in a data processing device to which the Nth storage device is detachable,
A tap coefficient generation step of generating the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices mounted on the data processing device;
A prediction tap extracting step of extracting the first data as a prediction tap used for predicting the noted data of interest in the second data;
A class tap extracting step of extracting the first data as a class tap used for performing a class classification for classifying the target data into any of a plurality of classes;
A class classification step of classifying the data of interest based on the class tap;
A recording medium storing a program comprising: a prediction step of predicting the data of interest from a tap coefficient of a class of the data of interest and the prediction tap.
第1のデータを、その第1のデータよりも高品質の第2のデータに変換するデータ変換処理を行うための所定のクラスごとのタップ係数を生成するための生成情報を記憶する第1乃至第Nの記憶装置と、
前記第1乃至第Nの記憶装置が着脱可能なデータ処理装置と
からなるデータ処理システムにおいて、
前記第1乃至第Nの記憶装置それぞれは、
前記生成情報であって、その生成情報と、他の記憶装置に記憶された生成情報とから前記タップ係数が求められるものを記憶する生成情報記憶手段と、
前記生成情報を、前記データ処理装置に供給する生成情報供給手段と
を備え、
前記データ処理装置は、
前記第1乃至第Nの記憶手段が装着される着脱手段と、
前記着脱手段に装着された前記第1乃至第N'(≦N)の記憶装置における前記生成情報から、前記タップ係数を生成するタップ係数生成手段と、
前記第2のデータのうちの注目している注目データを予測するのに用いられる予測タップとする前記第1のデータを抽出する予測タップ抽出手段と、
前記注目データを複数のクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いられるクラスタップとする前記第1のデータを抽出するクラスタップ抽出手段と、
前記クラスタップに基づいて、前記注目データをクラス分類するクラス分類手段と、
前記注目データについてのクラスのタップ係数と、前記予測タップとから、前記注目データを予測する予測手段と
を備える
ことを特徴とするデータ処理システム。
First to third information storing generation information for generating tap coefficients for each predetermined class for performing data conversion processing for converting the first data into second data having higher quality than the first data. An N-th storage device;
A data processing system comprising the first to Nth storage devices and a detachable data processing device;
Each of the first to Nth storage devices includes:
Generation information storage means for storing the generation information, the generation information and the generation information stored in another storage device, the tap coefficient is obtained from the generated information,
A generation information supply unit that supplies the generation information to the data processing device;
The data processing device includes:
Attaching / detaching means to which the first to Nth storage means are attached;
Tap coefficient generation means for generating the tap coefficient from the generation information in the first to N ′ (≦ N) storage devices attached to the attachment / detachment means;
Predictive tap extracting means for extracting the first data as a predictive tap used to predict target data of interest in the second data;
Class tap extracting means for extracting the first data as class taps used for performing class classification for classifying the data of interest into any of a plurality of classes;
Class classification means for classifying the data of interest based on the class tap;
A data processing system comprising: prediction means for predicting the data of interest from a tap coefficient of a class for the data of interest and the prediction tap.
JP2004045109A 2004-02-20 2004-02-20 Storage device, data processing device, data processing method, program, recording medium, and data processing system Expired - Fee Related JP3918191B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004045109A JP3918191B2 (en) 2004-02-20 2004-02-20 Storage device, data processing device, data processing method, program, recording medium, and data processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004045109A JP3918191B2 (en) 2004-02-20 2004-02-20 Storage device, data processing device, data processing method, program, recording medium, and data processing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001399869A Division JP3596770B2 (en) 2001-12-28 2001-12-28 Storage device, data processing device and data processing method, program and recording medium, and data processing system

Publications (2)

Publication Number Publication Date
JP2004229313A true JP2004229313A (en) 2004-08-12
JP3918191B2 JP3918191B2 (en) 2007-05-23

Family

ID=32906191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004045109A Expired - Fee Related JP3918191B2 (en) 2004-02-20 2004-02-20 Storage device, data processing device, data processing method, program, recording medium, and data processing system

Country Status (1)

Country Link
JP (1) JP3918191B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008124639A (en) * 2006-11-09 2008-05-29 Sony Corp Image processing apparatus, image processing method, learning apparatus, learning method, and program
US8208074B2 (en) 2008-09-26 2012-06-26 Sony Corporation Information processing apparatus and method, computer program, and information processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008124639A (en) * 2006-11-09 2008-05-29 Sony Corp Image processing apparatus, image processing method, learning apparatus, learning method, and program
US8208074B2 (en) 2008-09-26 2012-06-26 Sony Corporation Information processing apparatus and method, computer program, and information processing system

Also Published As

Publication number Publication date
JP3918191B2 (en) 2007-05-23

Similar Documents

Publication Publication Date Title
JP5263565B2 (en) Image processing apparatus, image processing method, and program
US8023045B2 (en) Storage device, data processing apparatus, data processing method, program, storage medium and data processing system
JP5093557B2 (en) Image processing apparatus, image processing method, and program
US7911533B2 (en) Method and apparatus for processing information, storage medium, and program
KR100913861B1 (en) Data processing apparatus, data processing method, data processing system and recording medium
WO2001093584A1 (en) Data processing system and method, communication system and method, and charging device and method
KR101239268B1 (en) Image processing apparatus, image processing method, and a recording medium
KR20060136335A (en) Image processing apparatus, image processing method, and program
JP3918191B2 (en) Storage device, data processing device, data processing method, program, recording medium, and data processing system
JP4038732B2 (en) Storage device
JP3918192B2 (en) Data processing apparatus and method, program, and recording medium
JP4803279B2 (en) Image signal processing apparatus and method, recording medium, and program
JP4329453B2 (en) Image signal processing apparatus and method, recording medium, and program
JP4560707B2 (en) Information management system and method, center processing apparatus and method, program, and recording medium
JP4314956B2 (en) Electronic device, information signal processing method therefor, program for executing the processing method, and information signal processing apparatus to which the program is connected
JP4655483B2 (en) Information signal processing apparatus and method, program, and recording medium
JP2003224830A (en) Information signal processing apparatus, information signal processing method, image display apparatus, generating apparatus and generating method for coefficient type data used therefor, generating apparatus and generating method for coefficient data, program for executing each method, and computer- readable medium recorded with the program
JP2007243633A (en) Signal processing apparatus and method, recording medium, and program
JP2002300540A (en) Image signal processor and its method, image display device using the same, program for its image signal processing method and computer-readable medium recorded with the program
JP2007243632A (en) Signal processing apparatus and method, recording medium, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100223

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110223

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120223

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130223

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140223

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees