JP2005236633A - Signal processing apparatus and method - Google Patents

Signal processing apparatus and method Download PDF

Info

Publication number
JP2005236633A
JP2005236633A JP2004042904A JP2004042904A JP2005236633A JP 2005236633 A JP2005236633 A JP 2005236633A JP 2004042904 A JP2004042904 A JP 2004042904A JP 2004042904 A JP2004042904 A JP 2004042904A JP 2005236633 A JP2005236633 A JP 2005236633A
Authority
JP
Japan
Prior art keywords
unit
signal
signal processing
image data
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004042904A
Other languages
Japanese (ja)
Other versions
JP4449489B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004042904A priority Critical patent/JP4449489B2/en
Priority to US11/050,275 priority patent/US7630576B2/en
Priority to EP20050250858 priority patent/EP1640907A3/en
Priority to CNB2005100093011A priority patent/CN100414966C/en
Priority to KR1020050013884A priority patent/KR101110209B1/en
Publication of JP2005236633A publication Critical patent/JP2005236633A/en
Application granted granted Critical
Publication of JP4449489B2 publication Critical patent/JP4449489B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G17/00Connecting or other auxiliary members for forms, falsework structures, or shutterings
    • E04G17/04Connecting or fastening means for metallic forming or stiffening elements, e.g. for connecting metallic elements to non-metallic elements
    • E04G17/045Connecting or fastening means for metallic forming or stiffening elements, e.g. for connecting metallic elements to non-metallic elements being tensioned by wedge-shaped elements
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G17/00Connecting or other auxiliary members for forms, falsework structures, or shutterings
    • E04G17/04Connecting or fastening means for metallic forming or stiffening elements, e.g. for connecting metallic elements to non-metallic elements
    • E04G17/042Connecting or fastening means for metallic forming or stiffening elements, e.g. for connecting metallic elements to non-metallic elements being tensioned by threaded elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Picture Signal Circuits (AREA)
  • Television Systems (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily realize many functions with single hardware. <P>SOLUTION: Receiving units 211 and 221 each receive a command sequence consisting of a plurality of commands to be transmitted from a control device 202, and supply it to R-ICs 212, 222, respectively. The R-IC 212 changes the internal structure in response to at least one command in the command sequence from the receiving unit 211, processes a first signal to be input thereinto, and outputs a second signal. The R-IC 222 changes the internal structure in response to at least one command in the command sequence from the receiving unit 221, processes a second signal to be output from the R-IC 212, and outputs a third signal. This apparatus is applicable to, for example, an IC (Integrated Circuit) chip and the like. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、信号処理装置および信号処理方法に関し、特に、複数のコマンドに応じて、ハードウェアの内部構造を切り換えることにより、単一のハードウェアで、多くの機能を、容易に実現することができるようにする信号処理装置および信号処理方法に関する。   The present invention relates to a signal processing apparatus and a signal processing method, and in particular, by switching the internal structure of hardware according to a plurality of commands, it is possible to easily realize many functions with a single hardware. The present invention relates to a signal processing apparatus and a signal processing method that can be performed.

近年、コンピュータの高速化、低価格化に伴い、各種の機能のソフトウェア化が進んでいる。即ち、汎用のコンピュータのみならず、携帯電話機その他のPDA(Personal Digital Assistant)、テレビジョン受像機などのAV(Audio Visual)機器、電子炊飯器などの家電機器などにおいて、各種の処理は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)などのプロセッサが、ソフトウェア(プログラム)を実行することで行われるようになっている。   In recent years, various functions have been made into software as computers become faster and cheaper. That is, not only for general-purpose computers, but also for cellular phones and other PDAs (Personal Digital Assistant), AV (Audio Visual) devices such as television receivers, and home appliances such as electronic rice cookers, various processes are performed by CPU ( A processor such as a central processing unit (DSP) or a digital signal processor (DSP) is executed by executing software (program).

このような機能のソフトウェア化に伴い、ソフトウェアも複雑で膨大なものとなってきており、コンピュータ(CPUやDSPなど)の負担が大になっている。そこで、コンピュータシステムにかかる処理負担を低減する新規なプロセッサを有する装置が提案されている(例えば、特許文献1参照)。   Along with the softwareization of such functions, the software has become complicated and enormous, increasing the burden on the computer (CPU, DSP, etc.). Thus, an apparatus having a novel processor that reduces the processing load on the computer system has been proposed (see, for example, Patent Document 1).

特開2002-358294号公報。JP 2002-358294 A.

上述のように、コンピュータにソフトウェアを実行させることで各種の処理を行う限り、今後、ますます複雑で膨大なソフトウェアの開発が必要となることが予想される。そして、かかるソフトウェアの開発には、多大な労力と時間を要することとなる。   As described above, as long as various processes are performed by causing a computer to execute software, it is expected that development of more and more complicated and enormous software will be required in the future. And development of such software requires a lot of labor and time.

特に、高速な処理が要求される場合には、例えば、複数のプロセッサによる並列処理が必要となる。並列処理のためのソフトウェアの製作にあたっては、複数のプロセッサの動作タイミングを考慮しながら、膨大なステップ数のプログラミングを行わなければならず、ソフトウェアの製作者(技術者)の負担は相当なものとなる。   In particular, when high-speed processing is required, for example, parallel processing by a plurality of processors is required. In the production of software for parallel processing, it is necessary to perform programming with a huge number of steps in consideration of the operation timing of multiple processors, and the burden on the software producer (engineer) is considerable. Become.

一方、ある処理を行うだけであれば、その処理を行う専用のハードウェアとしての、例えば、IC(Integraged Circuit)(LSI(Large Scale Integration))などを開発する方法がある。   On the other hand, if only a certain process is performed, there is a method of developing, for example, an IC (Integrated Circuit) (LSI (Large Scale Integration)) as dedicated hardware for performing the process.

しかしながら、ある処理を行う専用のハードウェアでは、その処理しか行うことができず、汎用性にかけることになる。   However, a dedicated hardware for performing a certain process can perform only that process, which is versatile.

本発明は、このような状況に鑑みてなされたものであり、膨大なステップ数のプログラミングを行わずに、単一のハードウェアで、多くの機能を、容易に実現することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to easily realize many functions with a single hardware without performing programming with a large number of steps. Is.

本発明の信号処理装置は、第1の信号処理手段が、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力し、第2の信号処理手段が、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第2の信号を信号処理して、第3の信号を出力することを特徴とする。   In the signal processing device of the present invention, the first signal processing means switches the internal structure in accordance with at least one command in the command sequence composed of a plurality of commands, performs signal processing on the first signal, The second signal is output, and the second signal processing means switches the internal structure according to at least one command in the command sequence, performs signal processing on the second signal, and outputs the third signal. It is characterized by outputting.

本発明の信号処理方法は、第1の信号処理手段が、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する第1の信号処理ステップと、第2の信号処理手段が、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第2の信号を信号処理して、第3の信号を出力する第2の信号処理ステップとを含むことを特徴とする。   In the signal processing method of the present invention, the first signal processing means switches the internal structure in accordance with at least one command in a command sequence composed of a plurality of commands, and performs signal processing on the first signal. The first signal processing step for outputting the second signal and the second signal processing means switch the internal structure in accordance with at least one command in the command sequence and perform signal processing on the second signal. And a second signal processing step of outputting a third signal.

本発明の他の信号処理装置は、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する第1の信号処理手段を備え、第2の信号は、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第2の信号処理手段において信号処理されることを特徴とする。   Another signal processing apparatus according to the present invention switches an internal structure in accordance with at least one command in a command string made up of a plurality of commands, performs signal processing on the first signal, and outputs a second signal. Wherein the second signal is signal-processed by the second signal processing means for switching the internal structure in accordance with at least one command in the command sequence. .

本発明のさらに他の信号処理装置は、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第1の信号処理手段が、第1の信号を信号処理して出力する第2の信号を信号処理する第2の信号処理手段を備え、第2の信号処理手段は、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第2の信号を信号処理して、第3の信号を出力することを特徴とする。   According to still another signal processing device of the present invention, the first signal processing means for switching the internal structure in accordance with at least one command in the command sequence including a plurality of commands processes the first signal. Second signal processing means for signal processing a second signal to be output, wherein the second signal processing means switches the internal structure according to at least one command in the command sequence, and Signal processing is performed, and a third signal is output.

本発明の信号処理装置および信号処理方法においては、第1の信号処理手段は、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する。そして、第2の信号処理手段は、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第2の信号を信号処理して、第3の信号を出力する。   In the signal processing device and the signal processing method of the present invention, the first signal processing means switches the internal structure in response to at least one command in a command sequence made up of a plurality of commands, and outputs the first signal. Signal processing is performed to output a second signal. Then, the second signal processing means switches the internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal.

本発明の他の信号処理装置においては、第1の信号処理手段は、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する。第2の信号は、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第2の信号処理手段において信号処理される。   In another signal processing apparatus of the present invention, the first signal processing means switches the internal structure in accordance with at least one command in a command string made up of a plurality of commands, and performs signal processing on the first signal. Then, the second signal is output. The second signal is signal-processed by second signal processing means for switching the internal structure in accordance with at least one command in the command sequence.

本発明のさらに他の信号処理装置においては、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第1の信号処理手段が、第1の信号を信号処理して出力する第2の信号を信号処理する第2の信号処理手段において、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造が切り換えられ、第2の信号が信号処理されて、第3の信号が出力される。   In still another signal processing device of the present invention, the first signal processing means for switching the internal structure in response to at least one command in a command sequence made up of a plurality of commands performs signal processing on the first signal. In the second signal processing means for signal processing the second signal to be output, the internal structure is switched in response to at least one command in the command sequence, and the second signal is signal-processed, A third signal is output.

本発明によれば、単一のハードウェアで、多くの機能を、容易に実現することが可能となる。   According to the present invention, it is possible to easily realize many functions with a single hardware.

まず、請求項に記載の構成要件(発明特定事項)と、発明の実施の形態における具体例との対応関係を例示する。なお、この記載は、請求項に記載されている発明をサポートする具体例が、発明の実施の形態に記載されていることを確認するためのものである。従って、発明の実施の形態中には記載されているが、構成要件に対応するものとして、ここには記載されていない具体例があったとしても、そのことは、その具体例が、その構成要件に対応するものではないことを意味するものではない。逆に、具体例が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その具体例が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   First, the correspondence between the constituent elements (invention specific items) described in the claims and the specific examples in the embodiments of the invention will be exemplified. In addition, this description is for confirming that the specific example which supports the invention described in the claim is described in the embodiment of the invention. Therefore, even if there are specific examples that are described in the embodiment of the invention but are not described here as corresponding to the configuration requirements, the specific examples are not included in the configuration. It does not mean that it does not correspond to a requirement. On the contrary, even if a specific example is described here as corresponding to a configuration requirement, this means that the specific example does not correspond to a configuration requirement other than the configuration requirement. not.

さらに、この記載は、発明の実施の形態に記載されている具体例に対応する発明が、請求項に全て記載されていることを意味するものではない。換言すれば、この記載は、発明の実施の形態に記載されている具体例に対応する発明であって、この出願の請求項には記載されていない発明の存在、すなわち、将来、分割出願されたり、補正により追加される発明の存在を否定するものではない。   Further, this description does not mean that all the inventions corresponding to the specific examples described in the embodiments of the invention are described in the claims. In other words, this description is an invention corresponding to the specific example described in the embodiment of the invention, and the existence of an invention not described in the claims of this application, that is, in the future, a divisional application will be made. Nor does it deny the existence of an invention added by amendment.

請求項1に記載の信号処理装置は、
第1と第2の信号処理手段(例えば、図14のR-IC212,222,232)を備える信号処理装置において、
前記第1の信号処理手段は、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力し、
前記第2の信号処理手段は、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前記第2の信号を信号処理して、第3の信号を出力する
ことを特徴とする。
The signal processing device according to claim 1 is:
In a signal processing apparatus including first and second signal processing means (for example, R-ICs 212, 222, and 232 in FIG. 14),
The first signal processing means switches the internal structure in accordance with at least one command of a command string made up of a plurality of commands, performs signal processing on the first signal, and outputs a second signal. ,
The second signal processing means switches an internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal. And

請求項3に記載の信号処理装置は、
外部からの信号に応じて、前記コマンド列を生成するコマンド列生成手段(例えば、図14の制御装置202)をさらに備える
ことを特徴とする。
The signal processing device according to claim 3 is:
It further comprises command sequence generation means (for example, the control device 202 in FIG. 14) that generates the command sequence in response to an external signal.

請求項6に記載の信号処理装置は、
前記第1の信号処理手段は、
前記注目信号を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いるクラスタップを、前記第1の信号から選択するクラスタップ選択手段(例えば、図27のタップ選択部253)と、
前記クラスタップに基づいて、前記注目信号をクラス分類するクラス分類手段(例えば、図27のクラス分類部254)と、
前記注目信号を求めるときの前記タップ係数との演算に用いる予測タップを、前記第1の信号から選択する予測タップ選択手段(例えば、図27のタップ選択部252)と、
前記注目信号のクラスのタップ係数を出力するタップ係数出力手段(例えば、図27の係数出力部255)と、
前記注目信号のクラスのタップ係数と、前記注目信号に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目信号を求める演算手段(例えば、図27の予測演算部256)と
を有する
ことを特徴とする。
The signal processing device according to claim 6 is:
The first signal processing means includes
Class tap selection means (for example, tap selection unit 253 in FIG. 27) for selecting a class tap used for classifying the signal of interest into any one of the plurality of classes from the first signal; ,
Class classification means for classifying the signal of interest based on the class tap (for example, the class classification unit 254 in FIG. 27);
A prediction tap selection unit (for example, a tap selection unit 252 in FIG. 27) that selects, from the first signal, a prediction tap used for calculation with the tap coefficient when obtaining the signal of interest;
Tap coefficient output means (for example, coefficient output unit 255 in FIG. 27) for outputting the tap coefficient of the class of the signal of interest;
Calculation means for obtaining the signal of interest by performing a calculation using the tap coefficient of the class of the signal of interest and the prediction tap selected for the signal of interest (for example, the prediction calculation unit 256 in FIG. 27). It is characterized by having and.

請求項9に記載の信号処理装置は、
前記第2の信号処理手段は、
前記注目信号を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いるクラスタップを、前記第2の信号から選択するクラスタップ選択手段(例えば、図27のタップ選択部253)と、
前記クラスタップに基づいて、前記注目信号をクラス分類するクラス分類手段(例えば、図27のクラス分類部254)と、
前記注目信号を求めるときの前記タップ係数との演算に用いる予測タップを、前記第2の信号から選択する予測タップ選択手段(例えば、図27のタップ選択部252)と、
前記注目信号のクラスのタップ係数を出力するタップ係数出力手段(例えば、図27の係数出力部255)と、
前記注目信号のクラスのタップ係数と、前記注目信号に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目信号を求める演算手段(例えば、図27の予測演算部256)と
を有する
ことを特徴とする。
The signal processing device according to claim 9 is:
The second signal processing means includes
Class tap selection means (for example, tap selection unit 253 in FIG. 27) for selecting a class tap used for classifying the signal of interest into any one of the plurality of classes from the second signal; ,
Class classification means for classifying the signal of interest based on the class tap (for example, the class classification unit 254 in FIG. 27);
A prediction tap selection unit (for example, a tap selection unit 252 in FIG. 27) that selects, from the second signal, a prediction tap used for calculation with the tap coefficient when obtaining the signal of interest;
Tap coefficient output means (for example, coefficient output unit 255 in FIG. 27) for outputting the tap coefficient of the class of the signal of interest;
Calculation means for obtaining the signal of interest by performing a calculation using the tap coefficient of the class of the signal of interest and the prediction tap selected for the signal of interest (for example, the prediction calculation unit 256 in FIG. 27). It is characterized by having and.

請求項12に記載の信号処理装置は、
放送信号を受信し、その放送信号から得られる前記第1の画像信号を出力する画像信号出力手段(例えば、図32のチューナ部311)をさらに備える
ことを特徴とする。
A signal processing device according to claim 12 is provided.
Image signal output means (for example, a tuner unit 311 in FIG. 32) for receiving a broadcast signal and outputting the first image signal obtained from the broadcast signal is further provided.

請求項13に記載の信号処理装置は、
前記コマンド列のうちの1つのコマンドに応じた動きベクトル検出処理を行う動きベクトル検出手段(例えば、図35の信号処理チップ334)をさらに備え、
前記第1または第2の信号処理手段は、前記動きベクトル検出処理によって検出された動きベクトルを用いて、信号処理を行う
ことを特徴とする。
A signal processing device according to claim 13 is provided.
A motion vector detection means (for example, a signal processing chip 334 in FIG. 35) that performs a motion vector detection process according to one command in the command sequence;
The first or second signal processing means performs signal processing using a motion vector detected by the motion vector detection processing.

請求項14に記載の信号処理装置は、
前記コマンド列のうちの1つのコマンドに応じて、前記第3の画像信号を記憶する画像信号記憶手段(例えば、図35のメモリ部333)をさらに備える
ことを特徴とする。
The signal processing device according to claim 14 comprises:
The image processing apparatus further includes image signal storage means (for example, a memory unit 333 in FIG. 35) that stores the third image signal in response to one command in the command sequence.

請求項15に記載の信号処理方法は、
第1と第2の信号処理手段を備える信号処理装置の信号処理方法において、
前記第1の信号処理手段が、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する第1の信号処理ステップ(例えば、図17のステップS215およびS2161)と、
前記第2の信号処理手段が、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前記第2の信号を信号処理して、第3の信号を出力する第2の信号処理ステップ(例えば、図17のステップS215およびS2162)と
を含むことを特徴とする。
The signal processing method according to claim 15 comprises:
In a signal processing method of a signal processing apparatus comprising first and second signal processing means,
The first signal processing means switches the internal structure in accordance with at least one command in a command string made up of a plurality of commands, performs signal processing on the first signal, and outputs a second signal. A first signal processing step (eg, steps S215 and S216 1 in FIG. 17);
The second signal processing means switches an internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal. And a signal processing step (for example, steps S215 and S216 2 in FIG. 17).

請求項16に記載の信号処理装置は、
複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する第1の信号処理手段(例えば、図14のR-IC212)を備え、
前記第2の信号は、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第2の信号処理手段(例えば、図14のR-IC222)において信号処理される
ことを特徴とする。
The signal processing device according to claim 16 comprises:
First signal processing means (for example, a first signal processing means for switching the internal structure in accordance with at least one command in a command sequence of a plurality of commands, signal-processing the first signal, and outputting the second signal) R-IC 212) of FIG.
The second signal is signal-processed by second signal processing means (for example, R-IC 222 in FIG. 14) that switches an internal structure in response to at least one command in the command sequence. And

請求項17に記載の信号処理装置は、
複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第1の信号処理手段(例えば、図14のR-IC212)が、第1の信号を信号処理して出力する第2の信号を信号処理する第2の信号処理手段(例えば、図14のR-IC222)を備え、
前記第2の信号処理手段は、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前記第2の信号を信号処理して、第3の信号を出力する
ことを特徴とする。
The signal processing device according to claim 17 comprises:
A first signal processing means (for example, the R-IC 212 in FIG. 14) that switches the internal structure in response to at least one command in a command sequence composed of a plurality of commands performs signal processing on the first signal. Second signal processing means (for example, R-IC 222 in FIG. 14) for processing the second signal to be output;
The second signal processing means switches an internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal. And

以下、本発明を適用した各種の装置(システム)の実施の形態について説明するが、その前に、その各種の装置が行う信号処理に利用するクラス分類適応処理について説明する。なお、クラス分類適応処理は、各種の装置が行う信号処理に利用する処理の一例であり、各種の装置が行う信号処理は、クラス分類適応処理を利用しないものであってもかまわない。   Hereinafter, embodiments of various apparatuses (systems) to which the present invention is applied will be described. Before that, class classification adaptive processing used for signal processing performed by the various apparatuses will be described. The class classification adaptive processing is an example of processing used for signal processing performed by various devices, and the signal processing performed by various devices may not use the class classification adaptive processing.

また、ここでは、第1の画像データ(画像信号)を第2の画像データ(画像信号)に変換する画像変換処理を例に、クラス分類適応処理について説明する。   Here, the class classification adaptation process will be described by taking an image conversion process for converting the first image data (image signal) to the second image data (image signal) as an example.

第1の画像データを第2の画像データに変換する画像変換処理は、その第1と第2の画像データの定義によって様々な信号処理となる。   The image conversion processing for converting the first image data into the second image data is various signal processing depending on the definition of the first and second image data.

即ち、例えば、第1の画像データを低空間解像度の画像データとするとともに、第2の画像データを高空間解像度の画像データとすれば、画像変換処理は、空間解像度を向上させる空間解像度創造(向上)処理ということができる。   That is, for example, if the first image data is image data with low spatial resolution and the second image data is image data with high spatial resolution, the image conversion process creates a spatial resolution that improves the spatial resolution ( (Improved) processing.

また、例えば、第1の画像データを低S/N(Siginal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、画像変換処理は、ノイズを除去するノイズ除去処理ということができる。   Further, for example, if the first image data is low S / N (Siginal / Noise) image data and the second image data is high S / N image data, the image conversion process may reduce noise. It can be referred to as noise removal processing to be removed.

さらに、例えば、第1の画像データを所定の画素数(サイズ)の画像データとするとともに、第2の画像データを、第1の画像データの画素数を多くまたは少なくした画像データとすれば、画像変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。   Further, for example, if the first image data is image data having a predetermined number of pixels (size) and the second image data is image data in which the number of pixels of the first image data is increased or decreased, The image conversion process can be referred to as a resizing process for resizing (enlarging or reducing) an image.

また、例えば、第1の画像データを低時間解像度の画像データとするとともに、第2の画像データを高時間解像度の画像データとすれば、画像変換処理は、時間解像度を向上させる時間解像度創造(向上)処理ということができる。   In addition, for example, if the first image data is image data with low time resolution and the second image data is image data with high time resolution, the image conversion process creates time resolution that improves the time resolution ( (Improved) processing.

さらに、例えば、第1の画像データを、MPEG(Moving Picture Experts Group)符号化などのブロック単位で符号化された画像データを復号することによって得られる復号画像データとするとともに、第2の画像データを、符号化前の画像データとすれば、画像変換処理は、MPEG符号化および復号によって生じるブロック歪み等の各種の歪みを除去する歪み除去処理ということができる。   Further, for example, the first image data is set as decoded image data obtained by decoding image data encoded in units of blocks such as MPEG (Moving Picture Experts Group) encoding, and the second image data. Is image data before encoding, it can be said that the image conversion process is a distortion removal process for removing various distortions such as block distortion caused by MPEG encoding and decoding.

なお、空間解像度創造処理において、低空間解像度の画像データである第1の画像データを、高空間解像度の画像データである第2の画像データに変換するにあたっては、第2の画像データを、第1の画像データと同一の画素数の画像データとすることもできるし、第1の画像データよりも画素数が多い画像データとすることもできる。第2の画像データを、第1の画像データよりも画素数が多い画像データとする場合、空間解像度創造処理は、空間解像度を向上させる処理であるとともに、画像サイズ(画素数)を拡大するリサイズ処理でもある。   In the spatial resolution creation process, when converting the first image data that is image data with low spatial resolution into the second image data that is image data with high spatial resolution, the second image data is converted into the second image data. The image data can have the same number of pixels as the one image data, or the image data can have more pixels than the first image data. When the second image data is image data having a larger number of pixels than the first image data, the spatial resolution creation process is a process for improving the spatial resolution and resizing to increase the image size (number of pixels). It is also a process.

以上のように、画像変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な信号処理を実現することができる。   As described above, according to the image conversion process, various signal processes can be realized depending on how the first and second image data are defined.

以上のような画像変換処理としてのクラス分類適応処理では、第2の画像データのうちの注目している注目画素(の画素値)を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、注目画素に対して選択される第1の画像データの画素(の画素値)とを用いた演算により、注目画素(の画素値)が求められる。   In the class classification adaptive processing as the image conversion processing as described above, the target pixel of interest (pixel value) in the second image data is classified into one of a plurality of classes. The pixel of interest (pixel value) is obtained by calculation using the tap coefficient of the class obtained by the above and the pixel (pixel value) of the first image data selected for the pixel of interest.

即ち、図1は、クラス分類適応処理による画像変換処理を行う画像変換装置1の構成例を示している。   That is, FIG. 1 shows a configuration example of an image conversion apparatus 1 that performs image conversion processing by class classification adaptation processing.

画像変換装置1では、そこに供給される画像データが、第1の画像データとして、タップ選択部12および13に供給される。   In the image conversion apparatus 1, the image data supplied thereto is supplied to the tap selection units 12 and 13 as the first image data.

注目画素選択部11は、第2の画像データを構成する画素を、順次、注目画素とし、その注目画素を表す情報を、必要なブロックに供給する。   The pixel-of-interest selection unit 11 sequentially sets pixels constituting the second image data as the pixel of interest, and supplies information representing the pixel of interest to a necessary block.

タップ選択部12は、注目画素(の画素値)を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして選択する。   The tap selection unit 12 selects some of the pixels (the pixel values) constituting the first image data used to predict the target pixel (the pixel values thereof) as prediction taps.

具体的には、タップ選択部12は、注目画素の時空間の位置から空間的または時間的に近い位置にある第1の画像データの複数の画素を、予測タップとして選択する。   Specifically, the tap selection unit 12 selects, as prediction taps, a plurality of pixels of the first image data that are spatially or temporally close to the temporal and spatial positions of the target pixel.

タップ選択部13は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして選択する。即ち、タップ選択部13は、タップ選択部12が予測タップを選択するのと同様にして、クラスタップを選択する。   The tap selection unit 13 selects some of the pixels constituting the first image data used for classifying the target pixel into any of several classes as class taps. That is, the tap selection unit 13 selects a class tap in the same manner as the tap selection unit 12 selects a prediction tap.

なお、予測タップとクラスタップは、同一のタップ構造を有するものであっても良いし、異なるタップ構造を有するものであっても良い。   Note that the prediction tap and the class tap may have the same tap structure or may have different tap structures.

タップ選択部12で得られた予測タップは、予測演算部16に供給され、タップ選択部13で得られたクラスタップは、クラス分類部14に供給される。   The prediction tap obtained by the tap selection unit 12 is supplied to the prediction calculation unit 16, and the class tap obtained by the tap selection unit 13 is supplied to the class classification unit 14.

クラス分類部14は、タップ選択部13からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数出力部15に供給する。   The class classification unit 14 classifies the target pixel based on the class tap from the tap selection unit 13 and supplies a class code corresponding to the resulting class to the coefficient output unit 15.

ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。   Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed.

ADRCを用いる方法では、クラスタップを構成する画素(の画素値)が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。   In the method using ADRC, the pixels constituting the class tap are subjected to ADRC processing, and the class of the pixel of interest is determined according to the ADRC code obtained as a result.

なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する各画素の画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(再量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。 In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel value of each pixel constituting the class tap is requantized to K bits. That is, the pixel value of each pixel forming the class taps, the minimum value MIN is subtracted, and the subtracted value is divided by DR / 2 K (requantization). A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code. Therefore, for example, when the class tap is subjected to 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is divided by the average value of the maximum value MAX and the minimum value MIN (rounded down). Thereby, the pixel value of each pixel is set to 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.

なお、クラス分類部14には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部14が出力するクラスコードの場合の数は、(2NK通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。 Note that, for example, the level distribution pattern of the pixel values of the pixels constituting the class tap may be output to the class classification unit 14 as it is as a class code. However, in this case, if the class tap is composed of pixel values of N pixels and K bits are assigned to the pixel values of each pixel, the number of class codes output by the class classification unit 14 Is (2 N ) K , which is a huge number that is exponentially proportional to the number K of bits of the pixel value of the pixel.

従って、クラス分類部14においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。   Accordingly, the class classification unit 14 preferably performs class classification by compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.

係数出力部15は、後述する学習によって求められたクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部14から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部14から供給されるクラスコードが表すクラスのタップ係数)を出力する。このタップ係数は、予測演算部16に供給される。   The coefficient output unit 15 stores tap coefficients for each class obtained by learning described later, and is further stored in an address corresponding to the class code supplied from the class classification unit 14 among the stored tap coefficients. The tap coefficient (the tap coefficient of the class represented by the class code supplied from the class classification unit 14) is output. This tap coefficient is supplied to the prediction calculation unit 16.

ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。   Here, the tap coefficient corresponds to a coefficient that is multiplied with input data in a so-called tap in the digital filter.

予測演算部16は、タップ選択部12が出力する予測タップと、係数出力部15が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測演算部16は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。   The prediction calculation unit 16 acquires the prediction tap output from the tap selection unit 12 and the tap coefficient output from the coefficient output unit 15, and uses the prediction tap and the tap coefficient to predict the true value of the target pixel. Predetermined calculation for obtaining is performed. Thereby, the prediction calculation unit 16 obtains and outputs the pixel value (predicted value) of the pixel of interest, that is, the pixel value of the pixels constituting the second image data.

次に、図2のフローチャートを参照して、図1の画像変換装置1による画像変換処理について説明する。   Next, image conversion processing by the image conversion apparatus 1 in FIG. 1 will be described with reference to the flowchart in FIG.

ステップS11において、注目画素選択部11は、画像変換装置1に入力される第1の画像データに対する第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択し、ステップS12に進む。即ち、注目画素選択部11は、例えば、第2の画像データを構成する画素のうち、ラスタスキャン順で、まだ、注目画素とされていないものが、注目画素として選択される。   In step S11, the pixel-of-interest selecting unit 11 selects one of the pixels constituting the second image data for the first image data input to the image conversion device 1 that has not yet been set as the pixel of interest. The pixel is selected as the target pixel, and the process proceeds to step S12. That is, for example, the pixel-of-interest selection unit 11 selects, as pixels of interest, pixels that have not yet been selected as pixels of interest in the raster scan order among the pixels constituting the second image data.

ステップS12において、タップ選択部12と13が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部12から予測演算部16に供給され、クラスタップは、タップ選択部13からクラス分類部14に供給される。   In step S12, the tap selection units 12 and 13 respectively select the prediction tap and the class tap for the pixel of interest from the first image data supplied thereto. The prediction tap is supplied from the tap selection unit 12 to the prediction calculation unit 16, and the class tap is supplied from the tap selection unit 13 to the class classification unit 14.

クラス分類部14は、タップ選択部13から、注目画素についてのクラスタップを受信し、ステップS13において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部14は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数出力部15に出力し、ステップS14に進む。   The class classification unit 14 receives the class tap for the target pixel from the tap selection unit 13, and classifies the target pixel based on the class tap in step S13. Further, the class classification unit 14 outputs a class code representing the class of the target pixel obtained as a result of the class classification to the coefficient output unit 15, and proceeds to step S14.

ステップS14では、係数出力部15が、クラス分類部14から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を取得して出力する。さらに、ステップS14では、予測演算部16が、係数出力部15が出力するタップ係数を取得し、ステップS15に進む。   In step S14, the coefficient output unit 15 acquires and outputs the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 14. Further, in step S14, the prediction calculation unit 16 acquires the tap coefficient output by the coefficient output unit 15, and the process proceeds to step S15.

ステップS15では、予測演算部16が、タップ選択部12が出力する予測タップと、係数出力部15から取得したタップ係数とを用いて、所定の予測演算を行う。これにより、予測演算部16は、注目画素の画素値を求めて出力し、ステップS16に進む。   In step S <b> 15, the prediction calculation unit 16 performs a predetermined prediction calculation using the prediction tap output from the tap selection unit 12 and the tap coefficient acquired from the coefficient output unit 15. Thereby, the prediction calculation part 16 calculates | requires and outputs the pixel value of an attention pixel, and progresses to step S16.

ステップS16では、注目画素選択部11が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS16において、まだ、注目画素としていない第2の画像データがあると判定された場合、ステップS11に戻り、以下、同様の処理が繰り返される。   In step S <b> 16, the target pixel selection unit 11 determines whether there is second image data that has not yet been set as the target pixel. If it is determined in step S16 that there is still second image data that is not the target pixel, the process returns to step S11, and the same processing is repeated thereafter.

また、ステップS16において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。   If it is determined in step S16 that there is no second image data that has not yet been set as the target pixel, the process ends.

次に、図1の予測演算部16における予測演算と、係数出力部15に記憶されたタップ係数の学習について説明する。   Next, the prediction calculation in the prediction calculation unit 16 of FIG. 1 and the learning of the tap coefficient stored in the coefficient output unit 15 will be described.

いま、例えば、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素(高画質画素)の画素値を、所定の予測演算によって求める(予測する)ことを考える。   Now, for example, the high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by an LPF (Low Pass Filter) to reduce the image quality (resolution). Using the low-quality image data (low-quality image data) as the first image data, a prediction tap is selected from the low-quality image data, and using the prediction tap and the tap coefficient, pixels (high-quality image data) Consider that the pixel value of (image quality pixel) is obtained (predicted) by a predetermined prediction calculation.

所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。   For example, when a linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.

Figure 2005236633
・・・(1)
Figure 2005236633
... (1)

但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。 In Equation (1), x n represents a pixel value of an nth low-quality image data pixel (hereinafter referred to as a low-quality pixel as appropriate) that constitutes a prediction tap for the high-quality pixel y, and w n represents the nth tap coefficient multiplied by the nth low image quality pixel (its pixel value). In equation (1), the prediction tap is assumed to be composed of N low image quality pixels x 1 , x 2 ,..., X N.

ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k Is expressed by the following equation.

Figure 2005236633
・・・(2)
Figure 2005236633
... (2)

いま、式(2)の予測値yk’は、式(1)にしたがって求められるため、式(2)のyk’を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Equation (2) is obtained according to Equation (1), the following equation is obtained by replacing y k ′ of Equation (2) according to Equation (1).

Figure 2005236633
・・・(3)
Figure 2005236633
... (3)

但し、式(3)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (3), x n, k represents the nth low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.

式(3)(または式(2))の予測誤差ekを0とするタップ係数wnが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのようなタップ係数wnを求めることは、一般には困難である。 Tap coefficient w n for the prediction error e k 0 of the formula (3) (or Equation (2)) is, is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such In general, it is difficult to obtain a large tap coefficient w n .

そこで、タップ係数wnが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適なタップ係数wnは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as the standard for indicating that the tap coefficient w n is optimal, for example, when adopting the method of least squares, optimal tap coefficient w n, the sum E of square errors expressed by the following formula It can be obtained by minimizing.

Figure 2005236633
・・・(4)
Figure 2005236633
... (4)

但し、式(4)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Equation (4), K is the high image quality pixel y k and the low image quality pixels x 1, k , x 2, k ,..., X N constituting the prediction tap for the high image quality pixel y k. , k represents the number of samples (the number of learning samples).

式(4)の自乗誤差の総和Eの最小値(極小値)は、式(5)に示すように、総和Eをタップ係数wnで偏微分したものを0とするwnによって与えられる。 The minimum value of the sum E of square errors of Equation (4) (minimum value), as shown in Equation (5), given that by partially differentiating the sum E with the tap coefficient w n by w n to 0.

Figure 2005236633

・・・(5)
Figure 2005236633

... (5)

そこで、上述の式(3)をタップ係数wnで偏微分すると、次式が得られる。 Therefore, when partial differentiation of above equation (3) with the tap coefficient w n, the following equation is obtained.

Figure 2005236633
・・・(6)
Figure 2005236633
... (6)

式(5)と(6)から、次式が得られる。   From the equations (5) and (6), the following equation is obtained.

Figure 2005236633

・・・(7)
Figure 2005236633

... (7)

式(7)のekに、式(3)を代入することにより、式(7)は、式(8)に示す正規方程式で表すことができる。 By substituting equation (3) into e k in equation (7), equation (7) can be expressed by the normal equation shown in equation (8).

Figure 2005236633
・・・(8)
Figure 2005236633
... (8)

式(8)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。 Normal equation of Equation (8), for example, by using a like sweeping-out method (Gauss-Jordan elimination method) can be solved for the tap coefficient w n.

式(8)の正規方程式を、クラスごとにたてて解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnを、クラスごとに求めることができる。 The normal equation of Equation (8), by solving for each class, the optimal tap coefficient (here, the tap coefficient that minimizes the sum E of square errors) to w n, can be found for each class .

次に、図3は、式(8)の正規方程式をたてて解くことによりタップ係数wnを求める学習を行う学習装置21の構成例を示している。 Next, FIG. 3 shows an example of the configuration of a learning apparatus 21 performs learning for determining the tap coefficient w n by solving the normal equations in equation (8).

学習用画像記憶部31は、タップ係数wnの学習に用いられる学習用画像データを記憶している。ここで、学習用画像データとしては、例えば、解像度の高い高画質画像データを用いることができる。 Learning image storage unit 31 stores the learning image data used for learning of the tap coefficient w n. Here, as the learning image data, for example, high-resolution image data with high resolution can be used.

教師データ生成部32は、学習用画像記憶部31から学習用画像データを読み出す。さらに、教師データ生成部32は、学習用画像データから、タップ係数の学習の教師(真値)、即ち、式(1)による予測演算としての写像の写像先の画素値となる教師データを生成し、教師データ記憶部33に供給する。ここでは、教師データ生成部32は、例えば、学習用画像データとしての高画質画像データを、そのまま教師データとして、教師データ記憶部33に供給する。   The teacher data generation unit 32 reads learning image data from the learning image storage unit 31. Further, the teacher data generation unit 32 generates, from the learning image data, teacher data for the tap coefficient learning (true value), that is, teacher data that becomes a pixel value of a mapping destination as a prediction calculation according to the equation (1). And supplied to the teacher data storage unit 33. Here, for example, the teacher data generation unit 32 supplies high-quality image data as learning image data to the teacher data storage unit 33 as teacher data as it is.

教師データ記憶部33は、教師データ生成部32から供給される教師データとしての高画質画像データを記憶する。   The teacher data storage unit 33 stores high-quality image data as teacher data supplied from the teacher data generation unit 32.

生徒データ生成部34は、学習用画像記憶部31から学習用画像データを読み出す。さらに、生徒データ生成部34は、学習用画像データから、タップ係数の学習の生徒、即ち、式(1)による予測演算としての写像による変換対象の画素値となる生徒データを生成し、生徒データ記憶部174に供給する。ここでは、生徒データ生成部34は、例えば、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部35に供給する。   The student data generation unit 34 reads learning image data from the learning image storage unit 31. Further, the student data generation unit 34 generates, from the learning image data, a student who learns the tap coefficient, that is, student data that is a pixel value to be converted by mapping as a prediction calculation according to Expression (1). The data is supplied to the storage unit 174. Here, the student data generation unit 34 generates low-quality image data by filtering the high-quality image data as the learning image data, for example, to reduce the resolution, and this low-quality image data is converted into the low-quality image data. , And supplied to the student data storage unit 35 as student data.

生徒データ記憶部35は、生徒データ生成部34から供給される生徒データを記憶する。   The student data storage unit 35 stores the student data supplied from the student data generation unit 34.

学習部36は、教師データ記憶部33に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目画素とし、その注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの、図1のタップ選択部12が選択するのと同一のタップ構造の低画質画素を、予測タップとして選択する。さらに、学習部36は、教師データを構成する各画素と、その画素が注目画素とされたときに選択された予測タップとを用い、クラスごとに、式(8)の正規方程式をたてて解くことにより、クラスごとのタップ係数を求める。   The learning unit 36 sequentially sets pixels constituting the high-quality image data as the teacher data stored in the teacher data storage unit 33 as the target pixel, and the student data stored in the student data storage unit 35 for the target pixel. Among the low image quality pixels constituting the low image quality image data, a low image quality pixel having the same tap structure as that selected by the tap selection unit 12 in FIG. 1 is selected as a prediction tap. Further, the learning unit 36 uses each pixel constituting the teacher data and the prediction tap selected when the pixel is the target pixel, and establishes a normal equation of Expression (8) for each class. By solving, the tap coefficient for each class is obtained.

即ち、図4は、図3の学習部36の構成例を示している。   That is, FIG. 4 shows a configuration example of the learning unit 36 of FIG.

注目画素選択部41は、教師データ記憶部33に記憶されている教師データを構成する画素を、順次、注目画素として選択し、その注目画素を表す情報を、必要なブロックに供給する。   The target pixel selection unit 41 sequentially selects pixels constituting the teacher data stored in the teacher data storage unit 33 as the target pixel, and supplies information representing the target pixel to a necessary block.

タップ選択部42は、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図1のタップ選択部12が選択するの同一の画素を選択し、これにより、タップ選択部12で得られるのと同一のタップ構造の予測タップを得て、足し込み部45に供給する。   The tap selection unit 42 selects the same pixel that is selected by the tap selection unit 12 in FIG. 1 from the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 35 for the target pixel. Thus, a prediction tap having the same tap structure as that obtained by the tap selection unit 12 is obtained and supplied to the adding unit 45.

タップ選択部43は、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図1のタップ選択部13が選択するのと同一の画素を選択し、これにより、タップ選択部13で得られるのと同一のタップ構造のクラスタップを得て、クラス分類部44に供給する。   The tap selection unit 43 is the same pixel as the pixel of interest selected by the tap selection unit 13 in FIG. 1 from the low image quality pixels constituting the low image quality image data as the student data stored in the student data storage unit 35. Thus, a class tap having the same tap structure as that obtained by the tap selection unit 13 is obtained and supplied to the class classification unit 44.

クラス分類部44は、タップ選択部43が出力するクラスタップに基づき、図1のクラス分類部14と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部45に出力する。   The class classification unit 44 performs the same class classification as the class classification unit 14 of FIG. 1 based on the class tap output from the tap selection unit 43, and adds the class code corresponding to the resulting class to the addition unit 45. Output.

足し込み部45は、教師データ記憶部33から、注目画素となっている教師データ(画素)を読み出し、その注目画素と、タップ選択部42から供給される注目画素についての予測タップを構成する生徒データ(画素)とを対象とした足し込みを、クラス分類部44から供給されるクラスコードごとに行う。   The adding unit 45 reads the teacher data (pixels) that are the target pixel from the teacher data storage unit 33, and configures the target pixel and the prediction tap for the target pixel supplied from the tap selection unit 42. Addition for data (pixels) is performed for each class code supplied from the class classification unit 44.

即ち、足し込み部45には、教師データ記憶部33に記憶された教師データyk、タップ選択部42が出力する予測タップxn,k、クラス分類部44が出力するクラスコードが供給される。 That is, the addition unit 45 is supplied with the teacher data y k stored in the teacher data storage unit 33, the prediction tap x n, k output from the tap selection unit 42, and the class code output from the class classification unit 44. .

そして、足し込み部45は、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 45 uses the prediction tap (student data) x n, k for each class corresponding to the class code supplied from the class classifying unit 44 , and uses the prediction data (student data) x n, k for the student data in the matrix on the left side of equation (8) (X n, k x n ′, k ) and computation corresponding to summation (Σ).

さらに、足し込み部45は、やはり、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the adding unit 45 also uses the prediction tap (student data) x n, k and the teacher data y k for each class corresponding to the class code supplied from the class classification unit 44, and the equation (8) Multiplication (x n, k y k ) of student data x n, k and teacher data y k in the vector on the right side and calculation corresponding to summation (Σ) are performed.

即ち、足し込み部45は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 That is, the adding unit 45 performs the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component ( Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y k) ), The corresponding component x n, k + 1 x n calculated using the teacher data y k + 1 and the student data x n, k + 1 for the teacher data newly set as the pixel of interest. ', k + 1 or x n, k + 1 y k + 1 is added (addition represented by the summation of equation (8) is performed).

そして、足し込み部45は、教師データ記憶部33(図3)に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部46に供給する。   Then, the addition unit 45 performs the above-described addition using all the teacher data stored in the teacher data storage unit 33 (FIG. 3) as the target pixel, so that the normality shown in Expression (8) is obtained for each class. When the equation is established, the normal equation is supplied to the tap coefficient calculation unit 46.

タップ係数算出部46は、足し込み部45から供給される各クラスについての正規方程式を解くことにより、各クラスについて、最適なタップ係数wnを求めて出力する。 Tap coefficient calculating section 46 solves the normal equations for each class supplied from the adder 45, for each class, and outputs the determined optimal tap coefficient w n.

図1の画像変換装置1における係数出力部15には、以上のようにして求められたクラスごとのタップ係数wnが記憶されている。 The coefficient output unit 15 in the image conversion apparatus 1 in FIG. 1, the tap coefficient w n for each class determined as described above is stored.

ここで、第1の画像データに対応する生徒データとする画像データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、タップ係数としては、上述したように、各種の画像変換処理を行うものを得ることができる。   Here, as described above, various tap coefficients may be used depending on how image data to be used as student data corresponding to the first image data and image data to be used as teacher data corresponding to the second image data are selected. What performs the image conversion process of this can be obtained.

即ち、上述のように、高画質画像データを、第2の画像データに対応する教師データとするとともに、その高画質画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から1番目に示すように、低画質画像データ(SD(Standard Definition)画像)である第1の画像データを、その空間解像度を向上させた高画質画像データ(HD(High Definition)画像データ)である第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。   That is, as described above, the high-quality image data is used as teacher data corresponding to the second image data, and the low-quality image data obtained by degrading the spatial resolution of the high-quality image data is used as the first image data. As a tap coefficient, the first image which is low-quality image data (SD (Standard Definition) image) is shown as the first tap coefficient from the top of FIG. It is possible to obtain what performs image conversion processing as spatial resolution creation processing for converting data into second image data that is high-quality image data (HD (High Definition) image data) with improved spatial resolution. .

なお、この場合、第1の画像データ(生徒データ)は、第2の画像データ(教師データ)と画素数が同一であっても良いし、少なくても良い。   In this case, the first image data (student data) may have the same or less number of pixels as the second image data (teacher data).

また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、ノイズを重畳した画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から2番目に示すように、低S/Nの画像データである第1の画像データを、そこに含まれるノイズを除去(低減)した高S/Nの画像データである第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。   Also, for example, the high-quality image data is used as teacher data, and the tap coefficient is learned by using, as the student data, image data on which noise is superimposed on the high-quality image data as the teacher data. As shown second from the top in FIG. 5, the first image data, which is low S / N image data, is high S / N image data obtained by removing (reducing) noise contained therein. What performs an image conversion process as a noise removal process converted into 2nd image data can be obtained.

さらに、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から3番目に示すように、画像データの一部である第1の画像データを、その第1の画像データを拡大した拡大画像データである第2の画像データに変換する拡大処理(リサイズ処理)としての画像変換処理を行うものを得ることができる。   Further, for example, by performing tap coefficient learning by using a certain piece of image data as teacher data and learning the tap coefficient using image data obtained by thinning out the number of pixels of the image data as the teacher data as the tap data, FIG. As shown in the third from the top, enlargement processing (resizing processing) for converting first image data that is a part of image data into second image data that is enlarged image data obtained by enlarging the first image data ) For performing the image conversion process.

なお、拡大処理を行うタップ係数は、高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、画素数を間引くことにより劣化させた低画質画像データを生徒データとして、タップ係数の学習を行うことによっても得ることができる。   Note that the tap coefficient for performing the enlargement processing is a tap using high-quality image data as teacher data and low-quality image data obtained by degrading the spatial resolution of the high-quality image data by thinning out the number of pixels as student data. It can also be obtained by learning coefficients.

また、例えば、高フレームレートの画像データを教師データとするとともに、その教師データとしての高フレームレートの画像データのフレームを間引いた画像データを生徒データとして、タップ係数の学習を行うことにより、タップ係数としては、図5上から4番目(1番下)に示すように、所定のフレームレートの第1の画像データを、高フレームレートの第2の画像データに変換する時間解像度創造処理としての画像変換処理を行うものを得ることができる。   In addition, for example, by using the high frame rate image data as the teacher data and learning the tap coefficient using the image data obtained by thinning out the frames of the high frame rate image data as the teacher data as the student data, taps are performed. As a coefficient, as shown in the fourth (first bottom) from the top in FIG. 5, as a time resolution creation process for converting the first image data having a predetermined frame rate into the second image data having a high frame rate. What performs an image conversion process can be obtained.

次に、図6のフローチャートを参照して、図3の学習装置21の処理(学習処理)について、説明する。   Next, processing (learning processing) of the learning device 21 in FIG. 3 will be described with reference to the flowchart in FIG.

まず最初に、ステップS21において、教師データ生成部32と生徒データ生成部34が、学習用画像記憶部31に記憶された学習用画像データから、教師データと生徒データを生成し、教師データ記憶部33と生徒データ生成部34にそれぞれ供給して記憶させる。   First, in step S21, the teacher data generation unit 32 and the student data generation unit 34 generate teacher data and student data from the learning image data stored in the learning image storage unit 31, and the teacher data storage unit 33 and the student data generation unit 34 are supplied and stored.

なお、教師データ生成部32と生徒データ生成部34において、それぞれ、どのような生徒データと教師データを生成するかは、上述したような種類の画像変換処理のうちのいずれの処理用のタップ係数の学習を行うかによって異なる。   Note that what kind of student data and teacher data are generated in the teacher data generation unit 32 and the student data generation unit 34, respectively, is a tap coefficient for which of the types of image conversion processing as described above. It depends on what you learn.

その後、ステップS22に進み、学習部36(図4)において、注目画素選択部41は、教師データ記憶部33に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として選択し、ステップS23に進む。ステップS23では、タップ選択部42が、注目画素について、生徒データ記憶部35に記憶された生徒データから予測タップとする生徒データとしての画素を選択し、足し込み部45に供給するとともに、タップ選択部43が、やはり、注目画素について、生徒データ記憶部35に記憶された生徒データからクラスタップとする生徒データを選択し、クラス分類部44に供給する。   Thereafter, the process proceeds to step S22, and in the learning unit 36 (FIG. 4), the target pixel selection unit 41 selects, as the target pixel, the teacher data stored in the teacher data storage unit 33 that has not yet been set as the target pixel. Then, the process proceeds to step S23. In step S23, the tap selection unit 42 selects a pixel as student data to be a prediction tap from the student data stored in the student data storage unit 35 for the target pixel, and supplies the selected pixel to the adding unit 45. Again, the unit 43 selects student data as class taps from the student data stored in the student data storage unit 35 for the pixel of interest, and supplies the selected class data to the class classification unit 44.

そして、ステップS24に進み、クラス分類部44は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部45に出力して、ステップS25に進む。   In step S24, the class classification unit 44 classifies the target pixel based on the class tap for the target pixel, and outputs the class code corresponding to the class obtained as a result to the addition unit 45. The process proceeds to step S25.

ステップS25では、足し込み部45は、教師データ記憶部33から、注目画素を読み出し、その注目画素と、タップ選択部42から供給される注目画素について選択された予測タップを構成する生徒データとを対象とした式(8)の足し込みを、クラス分類部44から供給されるクラスコードごとに行い、ステップS26に進む。   In step S <b> 25, the adding unit 45 reads the target pixel from the teacher data storage unit 33, and obtains the target pixel and student data constituting the prediction tap selected for the target pixel supplied from the tap selection unit 42. Addition of the target expression (8) is performed for each class code supplied from the class classification unit 44, and the process proceeds to step S26.

ステップS26では、注目画素選択部41が、教師データ記憶部33に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS26において、注目画素としていない教師データが、まだ、教師データ記憶部33に記憶されていると判定された場合、ステップS22に戻り、以下、同様の処理が繰り返される。   In step S <b> 26, the pixel-of-interest selection unit 41 determines whether teacher data that is not yet a pixel of interest is stored in the teacher data storage unit 33. If it is determined in step S26 that teacher data that is not a pixel of interest is still stored in the teacher data storage unit 33, the process returns to step S22, and the same processing is repeated thereafter.

また、ステップS26において、注目画素としていない教師データが、教師データ記憶部33に記憶されていないと判定された場合、足し込み部45は、いままでのステップS22乃至S26の処理によって得られたクラスごとの式(8)における左辺の行列と、右辺のベクトルを、タップ係数算出部46に供給し、ステップS27に進む。   If it is determined in step S26 that the teacher data that is not the pixel of interest is not stored in the teacher data storage unit 33, the adding unit 45 obtains the class obtained by the processes in steps S22 to S26 so far. The matrix on the left side and the vector on the right side in each equation (8) are supplied to the tap coefficient calculation unit 46, and the process proceeds to step S27.

ステップS27では、タップ係数算出部46は、足し込み部45から供給されるクラスごとの式(8)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、タップ係数wnを求めて出力し、処理を終了する。 In step S27, the tap coefficient calculation unit 46 solves each class by solving a normal equation for each class composed of a matrix on the left side and a vector on the right side in the equation (8) for each class supplied from the addition unit 45. each and determines and outputs the tap coefficient w n, the process ends.

なお、学習用画像データの数が十分でないこと等に起因して、タップ係数を求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、タップ係数算出部46は、例えば、デフォルトのタップ係数を出力するようになっている。   It should be noted that due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining the tap coefficient cannot be obtained. The tap coefficient calculation unit 46 outputs a default tap coefficient, for example.

次に、図7は、クラス分類適応処理による画像変換処理を行う他の画像変換装置である画像変換装置51の構成例を示している。   Next, FIG. 7 shows a configuration example of an image conversion device 51 that is another image conversion device that performs image conversion processing by class classification adaptation processing.

なお、図中、図1における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、画像変換装置51は、係数出力部15に代えて、係数出力部55が設けられている他は、図1の画像変換装置1と同様に構成されている。   In the figure, portions corresponding to those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the image conversion apparatus 51 is configured in the same manner as the image conversion apparatus 1 in FIG. 1 except that a coefficient output unit 55 is provided instead of the coefficient output unit 15.

係数出力部55には、クラス分類部14からクラス(クラスコード)が供給される他、例えば、ユーザの操作に応じて外部から入力されるパラメータzが供給されるようになっている。係数出力部55は、後述するようにして、パラメータzに対応するクラスごとのタップ係数を生成し、そのクラスごとのタップ係数のうちの、クラス分類部14からのクラスのタップ係数を、予測演算部16に出力する。   In addition to the class (class code) supplied from the class classification unit 14, the coefficient output unit 55 is supplied with, for example, a parameter z input from the outside in response to a user operation. The coefficient output unit 55 generates a tap coefficient for each class corresponding to the parameter z as will be described later, and predicts the tap coefficient of the class from the class classification unit 14 out of the tap coefficients for each class. To the unit 16.

図8は、図7の係数出力部55の構成例を示している。   FIG. 8 shows a configuration example of the coefficient output unit 55 of FIG.

係数生成部61は、係数種メモリ62に記憶されている係数種データと、パラメータメモリ63に記憶されたパラメータzとに基づいて、クラスごとのタップ係数を生成し、係数メモリ64に供給して上書きする形で記憶させる。   The coefficient generator 61 generates a tap coefficient for each class based on the coefficient seed data stored in the coefficient seed memory 62 and the parameter z stored in the parameter memory 63, and supplies the tap coefficient to the coefficient memory 64. Remember to overwrite.

係数種メモリ62は、後述する係数種データの学習によって得られるクラスごとの係数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば種になるデータである。   The coefficient seed memory 62 stores coefficient seed data for each class obtained by learning of coefficient seed data described later. Here, the coefficient seed data is so-called seed data that generates tap coefficients.

パラメータメモリ63は、ユーザの操作等に応じて外部から入力されるパラメータzを上書きする形で記憶する。   The parameter memory 63 stores the parameter z input from the outside in accordance with a user operation or the like in an overwritten form.

係数メモリ64は、係数生成部61から供給されるクラスごとのタップ係数(パラメータzに対応するクラスごとのタップ係数)を記憶する。そして、係数メモリ64は、クラス分類部14(図7)から供給されるクラスのタップ係数を読み出し、予測演算部16(図7)に出力する。   The coefficient memory 64 stores the tap coefficient for each class supplied from the coefficient generation unit 61 (the tap coefficient for each class corresponding to the parameter z). And the coefficient memory 64 reads the tap coefficient of the class supplied from the class classification | category part 14 (FIG. 7), and outputs it to the prediction calculating part 16 (FIG. 7).

図7の画像変換装置51では、外部から係数出力部55に対して、パラメータzが入力されると、係数出力部55(図8)のパラメータメモリ63において、そのパラメータzが、上書きする形で記憶される。   In the image conversion apparatus 51 of FIG. 7, when the parameter z is input from the outside to the coefficient output unit 55, the parameter z is overwritten in the parameter memory 63 of the coefficient output unit 55 (FIG. 8). Remembered.

パラメータメモリ63にパラメータzが記憶されると(パラメータメモリ63の記憶内容が更新されると)、係数生成部61は、係数種メモリ62からクラスごとの係数種データを読み出すとともに、パラメータメモリ63からパラメータzを読み出し、その係数種データとパラメータzに基づいて、クラスごとのタップ係数を求める。そして、係数生成部61は、そのクラスごとのタップ係数を、係数メモリ64に供給し、上書きする形で記憶させる。   When the parameter z is stored in the parameter memory 63 (when the storage content of the parameter memory 63 is updated), the coefficient generation unit 61 reads out the coefficient seed data for each class from the coefficient seed memory 62 and from the parameter memory 63. The parameter z is read, and the tap coefficient for each class is obtained based on the coefficient seed data and the parameter z. Then, the coefficient generation unit 61 supplies the tap coefficient for each class to the coefficient memory 64 and stores it in the form of overwriting.

画像変換装置51では、タップ係数を記憶しており、そのタップ係数を出力する係数出力部15に代えて設けられている係数出力部55において、パラメータzに対応するタップ係数を生成して出力することを除いて、図1の画像変換装置1が行う図2のフローチャートにしたがった処理と同様の処理が行われる。   The image conversion device 51 stores tap coefficients, and generates and outputs tap coefficients corresponding to the parameter z in a coefficient output unit 55 provided in place of the coefficient output unit 15 that outputs the tap coefficients. Except for this, processing similar to the processing according to the flowchart of FIG. 2 performed by the image conversion apparatus 1 of FIG. 1 is performed.

次に、図7の予測演算部16における予測演算、並びに図8の係数生成部61におけるタップ係数の生成および係数種メモリ62に記憶させる係数種データの学習について説明する。   Next, prediction calculation in the prediction calculation unit 16 in FIG. 7, generation of tap coefficients in the coefficient generation unit 61 in FIG. 8, and learning of coefficient seed data stored in the coefficient seed memory 62 will be described.

図1の実施の形態における場合のように、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データの空間解像度を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを選択し、その予測タップとタップ係数を用いて、高画質画像データの画素である高画質画素の画素値を、例えば、式(1)の線形1次予測演算によって求める(予測する)ことを考える。   As in the embodiment of FIG. 1, low-quality image data in which high-quality image data (high-quality image data) is used as second image data and the spatial resolution of the high-quality image data is reduced. (Low-quality image data) is the first image data, a prediction tap is selected from the low-quality image data, and the pixel value of the high-quality pixel that is a pixel of the high-quality image data is selected using the prediction tap and the tap coefficient. For example, consider obtaining (predicting) by linear primary prediction calculation of equation (1).

ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。   Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.

図8の実施の形態では、係数生成部61において、タップ係数wnが、係数種メモリ62に記憶された係数種データと、パラメータメモリ63に記憶されたパラメータzとから生成されるが、この係数生成部61におけるタップ係数wnの生成が、例えば、係数種データとパラメータzを用いた次式によって行われることとする。 In the embodiment of FIG. 8, the coefficient generation unit 61 generates the tap coefficient w n from the coefficient seed data stored in the coefficient seed memory 62 and the parameter z stored in the parameter memory 63. generating the tap coefficient w n in the coefficient generating unit 61, for example, to be performed by the following equation using the coefficient seed data and the parameter z.

Figure 2005236633
・・・(9)
Figure 2005236633
... (9)

但し、式(9)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表す。なお、式(9)では、タップ係数wnが、M個の係数種データβ1,n,β2,n,・・・,βM,nを用いて求められるようになっている。 However, in the equation (9), beta m, n denotes the m-th coefficient seed data used for determining the n-th tap coefficient w n. In the equation (9), the tap coefficient w n is obtained using M coefficient seed data β 1, n , β 2, n ,..., Β M, n .

ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(9)に限定されるものではない。 Here, the formula for obtaining the tap coefficient w n from the coefficient seed data β m, n and the parameter z is not limited to the formula (9).

いま、式(9)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。 Now, a value z m−1 determined by the parameter z in equation (9) is defined by the following equation by introducing a new variable t m .

Figure 2005236633
・・・(10)
Figure 2005236633
... (10)

式(10)を、式(9)に代入することにより、次式が得られる。   By substituting equation (10) into equation (9), the following equation is obtained.

Figure 2005236633
・・・(11)
Figure 2005236633
(11)

式(11)によれば、タップ係数wnは、係数種データβm,nと変数tmとの線形1次式によって求められることになる。 According to equation (11), the tap coefficient w n will be asked by the linear first-order equation of the coefficient seed data beta m, n and the variable t m.

ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。 Now, when the true value of the pixel value of the high-quality pixel of the k-th sample is expressed as y k and the predicted value of the true value y k obtained by the equation (1) is expressed as y k ′, the prediction error e k is expressed by the following equation.

Figure 2005236633
・・・(12)
Figure 2005236633
(12)

いま、式(12)の予測値yk’は、式(1)にしたがって求められるため、式(12)のyk’を、式(1)にしたがって置き換えると、次式が得られる。 Now, since the predicted value y k ′ of Expression (12) is obtained according to Expression (1), the following expression is obtained by replacing y k ′ of Expression (12) according to Expression (1).

Figure 2005236633
・・・(13)
Figure 2005236633
... (13)

但し、式(13)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。 In Equation (13), x n, k represents the n-th low-quality pixel that constitutes the prediction tap for the high-quality pixel of the k-th sample.

式(13)のwnに、式(11)を代入することにより、次式が得られる。 To w n of formula (13), by substituting equation (11), the following equation is obtained.

Figure 2005236633
・・・(14)
Figure 2005236633
(14)

式(14)の予測誤差ekを0とする係数種データβm,nが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような係数種データβm,nを求めることは、一般には困難である。 Prediction error e k coefficient seed data beta m, n to 0 in Equation (14), is the optimal for predicting the high-quality pixel, for all the high-quality pixel, such coefficient seed data It is generally difficult to obtain β m, n .

そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the coefficient seed data β m, n is optimal, for example, when the least square method is adopted, the optimal coefficient seed data β m, n is expressed by the following equation. It can be obtained by minimizing the sum E of square errors.

Figure 2005236633
・・・(15)
Figure 2005236633
... (15)

但し、式(15)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。 However, in Expression (15), K is a high-quality pixel y k and low-quality pixels x 1, k , x 2, k ,..., X N that constitute a prediction tap for the high-quality pixel y k. , k represents the number of samples (the number of learning samples).

式(15)の自乗誤差の総和Eの最小値(極小値)は、式(16)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。 The minimum value (minimum value) of the sum E of squared errors in Equation (15) is β m, where 0 is a partial differentiation of the sum E with coefficient seed data β m, n as shown in Equation (16) . given by n .

Figure 2005236633
・・・(16)
Figure 2005236633
... (16)

式(13)を、式(16)に代入することにより、次式が得られる。   By substituting equation (13) into equation (16), the following equation is obtained.

Figure 2005236633

・・・(17)
Figure 2005236633

... (17)

いま、Xi,p,j,qとYi,pを、式(18)と(19)に示すように定義する。 Now, X i, p, j, q and Y i, p are defined as shown in equations (18) and (19).

Figure 2005236633

・・・(18)
Figure 2005236633

... (18)

Figure 2005236633

・・・(19)
Figure 2005236633

... (19)

この場合、式(17)は、Xi,p,j,qとYi,pを用いた式(20)に示す正規方程式で表すことができる。 In this case, Expression (17) can be expressed by a normal equation shown in Expression (20) using X i, p, j, q and Y i, p .

Figure 2005236633
・・・(20)
Figure 2005236633
... (20)

式(20)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。 The normal equation of Expression (20) can be solved for the coefficient seed data β m, n by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like.

図7の画像変換装置51においては、多数の高画質画素y1,y2,・・・,yKを学習の教師となる教師データとするとともに、各高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kを学習の生徒となる生徒データとして、クラスごとに式(20)の正規方程式をたてて解く学習を行うことにより求められたクラスごとの係数種データβm,nが、係数出力部55(図8)の係数種メモリ62に記憶されており、係数生成部61では、その係数種データβm,nと、パラメータメモリ63に記憶されたパラメータzから、式(9)にしたがって、クラスごとのタップ係数wnが生成される。そして、予測演算部16において、そのタップ係数wnと、高画質画素としての注目画素についての予測タップを構成する低画質画素(第1の画像データの画素)xnを用いて、式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測値)が求められる。 In the image conversion device 51 of FIG. 7, a large number of high-quality pixels y 1 , y 2 ,..., Y K are used as teacher data for learning, and prediction taps for the respective high-quality pixels y k are used. low quality pixels x 1, k that constitute, x 2, k, ···, x N, as student data serving as a student learning k, the vertical and solves learning normal equation of formula (20) for each class The coefficient seed data β m, n for each class obtained by performing is stored in the coefficient seed memory 62 of the coefficient output unit 55 (FIG. 8), and the coefficient generation unit 61 stores the coefficient seed data β m, n. and n, from the stored parameter z in the parameter memory 63, according to equation (9), the tap coefficient w n for each class is generated. Then, the prediction calculation unit 16 uses the tap coefficient w n and the low image quality pixel (the pixel of the first image data) x n constituting the prediction tap for the pixel of interest as the high image quality pixel, and the equation (1) ) Is calculated, the pixel value of the target pixel as a high-quality pixel (predicted value close to it) is obtained.

次に、図9は、式(20)の正規方程式をクラスごとにたてて解くことにより、クラスごとの係数種データβm,nを求める学習を行う学習装置71の構成例を示している。 Next, FIG. 9 shows a configuration example of a learning device 71 that performs learning for obtaining coefficient seed data β m, n for each class by solving the normal equation of Expression (20) for each class. .

なお、図中、図3の学習装置21における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、学習装置71は、生徒データ生成部34と学習部36に代えて、生徒データ生成部74と学習部76がそれぞれ設けられているとともに、パラメータ生成部81が新たに設けられている他は、図3の学習装置21と同様に構成されている。   In the figure, portions corresponding to those in the learning device 21 of FIG. 3 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the learning device 71 is provided with a student data generation unit 74 and a learning unit 76 instead of the student data generation unit 34 and the learning unit 36, respectively, and a parameter generation unit 81 is newly provided. 3 is configured in the same manner as the learning device 21 in FIG.

生徒データ生成部74は、図3の生徒データ生成部34と同様に、学習用画像データから生徒データを生成し、生徒データ記憶部35に供給して記憶させる。   The student data generation unit 74 generates student data from the learning image data, and supplies the student data to the student data storage unit 35 to store the same as in the student data generation unit 34 of FIG.

但し、生徒データ生成部74には、学習用画像データの他、図8のパラメータメモリ63に供給されるパラメータzが取り得る範囲の幾つかの値が、パラメータ生成部81から供給されるようになっている。即ち、いま、パラメータzが取り得る値が0乃至Zの範囲の実数であるとすると、生徒データ生成部74には、例えば、z=0,1,2,・・・,Zが、パラメータ生成部81から供給されるようになっている。   However, in addition to the learning image data, the student data generation unit 74 is supplied with some values in the range that can be taken by the parameter z supplied to the parameter memory 63 of FIG. It has become. That is, assuming that the value that can be taken by the parameter z is a real number in the range of 0 to Z, the student data generation unit 74 has, for example, z = 0, 1, 2,. It is supplied from the section 81.

生徒データ生成部74は、学習用画像データとしての高画質画像データを、例えば、そこに供給されるパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、生徒データとしての低画質画像データを生成する。   The student data generation unit 74 filters low-quality image data as student data by filtering high-quality image data as learning image data using, for example, an LPF having a cutoff frequency corresponding to the parameter z supplied thereto. Is generated.

従って、生徒データ生成部74では、学習用画像データとしての高画質画像データについて、Z+1種類の、空間解像度の異なる生徒データとしての低画質画像データが生成される。   Accordingly, the student data generation unit 74 generates Z + 1 types of low-quality image data as student data having different spatial resolutions for the high-quality image data as the learning image data.

なお、ここでは、例えば、パラメータzの値が大きくなるほど、カットオフ周波数の高いLPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像データを生成するものとする。従って、ここでは、値の大きいパラメータzに対応する低画質画像データほど、空間解像度が高い。   Note that, here, for example, as the value of the parameter z increases, the high-quality image data is filtered by using an LPF with a high cutoff frequency, and low-quality image data as student data is generated. Therefore, here, the lower the image quality data corresponding to the larger parameter z, the higher the spatial resolution.

また、本実施の形態では、説明を簡単にするために、生徒データ生成部74において、高画質画像データの水平方向および垂直方向の両方向の空間解像度を、パラメータzに対応する分だけ低下させた低画質画像データを生成するものとする。   In the present embodiment, in order to simplify the explanation, the student data generation unit 74 reduces the spatial resolution of the high-quality image data in both the horizontal and vertical directions by an amount corresponding to the parameter z. Assume that low-quality image data is generated.

学習部76は、教師データ記憶部33に記憶された教師データ、生徒データ記憶部35に記憶された生徒データ、およびパラメータ生成部81から供給されるパラメータzを用いて、クラスごとの係数種データを求めて出力する。   The learning unit 76 uses the teacher data stored in the teacher data storage unit 33, the student data stored in the student data storage unit 35, and the parameter z supplied from the parameter generation unit 81, so that the coefficient seed data for each class. Is output.

パラメータ生成部81は、パラメータzが取り得る範囲の幾つかの値としての、例えば、上述したようなz=0,1,2,・・・,Zを生成し、生徒データ生成部74と学習部76に供給する。   The parameter generation unit 81 generates, for example, z = 0, 1, 2,..., Z as described above as several values in the range that the parameter z can take, and learns with the student data generation unit 74. To the unit 76.

次に、図10は、図9の学習部76の構成例を示している。なお、図中、図4の学習部36における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   Next, FIG. 10 shows a configuration example of the learning unit 76 of FIG. In the figure, portions corresponding to those in the learning unit 36 in FIG. 4 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

タップ選択部92は、図4のタップ選択部42と同様に、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図7のタップ選択部12が選択するのと同一のタップ構造の予測タップを選択し、足し込み部95に供給する。   As with the tap selection unit 42 in FIG. 4, the tap selection unit 92 performs the tap in FIG. 7 from the low quality pixels that constitute the low quality image data as the student data stored in the student data storage unit 35 for the target pixel. A prediction tap having the same tap structure as that selected by the selection unit 12 is selected and supplied to the addition unit 95.

タップ選択部93も、図4のタップ選択部43と同様に、注目画素について、生徒データ記憶部35に記憶された生徒データとしての低画質画像データを構成する低画質画素から、図7のタップ選択部13が選択するのと同一のタップ構造のクラスタップを選択し、クラス分類部44に供給する。   As with the tap selection unit 43 in FIG. 4, the tap selection unit 93 also taps the pixel of interest from the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 35 with respect to the target pixel. A class tap having the same tap structure as the selection unit 13 selects is selected and supplied to the class classification unit 44.

但し、図10では、タップ選択部42と43に、図9のパラメータ生成部81が生成するパラメータzが供給されるようになっており、タップ選択部42と43は、パラメータ生成部81から供給されるパラメータzに対応して生成された生徒データ(ここでは、パラメータzに対応するカットオフ周波数のLPFを用いて生成された生徒データとしての低画質画像データ)から、予測タップとクラスタップをそれぞれ選択する。   However, in FIG. 10, the parameter z generated by the parameter generation unit 81 in FIG. 9 is supplied to the tap selection units 42 and 43, and the tap selection units 42 and 43 are supplied from the parameter generation unit 81. Prediction taps and class taps are generated from student data generated corresponding to the parameter z to be generated (here, low-quality image data as student data generated using the LPF of the cutoff frequency corresponding to the parameter z). Select each one.

足し込み部95は、図9の教師データ記憶部33から、注目画素を読み出し、その注目画素、タップ選択部42から供給される注目画素について構成された予測タップを構成する生徒データ、およびその生徒データを生成したときのパラメータzを対象とした足し込みを、クラス分類部44から供給されるクラスごとに行う。   The adding unit 95 reads out the target pixel from the teacher data storage unit 33 in FIG. 9, student data constituting the target pixel, the prediction tap configured for the target pixel supplied from the tap selection unit 42, and the student The addition for the parameter z when the data is generated is performed for each class supplied from the class classification unit 44.

即ち、足し込み部95には、教師データ記憶部33に記憶された注目画素としての教師データyk、タップ選択部42が出力する注目画素についての予測タップxi,k(xj,k)、およびクラス分類部44が出力する注目画素のクラスが供給されるとともに、注目画素についての予測タップを構成する生徒データを生成したときのパラメータzが、パラメータ生成部81から供給される。 In other words, the addition unit 95 includes the teacher data y k as the target pixel stored in the teacher data storage unit 33 and the prediction tap x i, k (x j, k ) for the target pixel output from the tap selection unit 42. The class of the pixel of interest output from the class classification unit 44 is supplied, and the parameter z when the student data constituting the prediction tap for the pixel of interest is generated is supplied from the parameter generation unit 81.

そして、足し込み部95は、クラス分類部44から供給されるクラスごとに、予測タップ(生徒データ)xi,k(xj,k)とパラメータzを用い、式(20)の左辺の行列における、式(18)で定義されるコンポーネントXi,p,j,qを求めるための生徒データおよびパラメータzの乗算(xi,kpj,kq)と、サメーション(Σ)に相当する演算を行う。なお、式(18)のtpは、式(10)にしたがって、パラメータzから計算される。式(18)のtqも同様である。 Then, the adding unit 95 uses the prediction tap (student data) x i, k (x j, k ) and the parameter z for each class supplied from the class classification unit 44 , and the matrix on the left side of Expression (20). Of the student data and the parameter z for obtaining the component X i, p, j, q defined by the equation (18) (x i, k t p x j, k t q ) and summation (Σ ) Is performed. Incidentally, t p of formula (18), according to equation (10), is calculated from the parameter z. The same applies to tq in equation (18).

さらに、足し込み部95は、やはり、クラス分類部44から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k、教師データyk、およびパラメータzを用い、式(20)の右辺のベクトルにおける、式(19)で定義されるコンポーネントYi,pを求めるための生徒データxi,k、教師データyk、およびパラメータzの乗算(xi,kpk)と、サメーション(Σ)に相当する演算を行う。なお、式(19)のtpは、式(10)にしたがって、パラメータzから計算される。 Further, the adding unit 95 also uses the prediction tap (student data) x i, k , the teacher data y k , and the parameter z for each class corresponding to the class code supplied from the class classification unit 44, and uses the formula z Multiplication (x i, k t p ) of student data x i, k , teacher data y k , and parameter z for obtaining the component Y i, p defined by equation (19) in the vector on the right side of (20) y k ) and a calculation corresponding to summation (Σ). Incidentally, t p of formula (19), according to equation (10), is calculated from the parameter z.

即ち、足し込み部95は、前回、注目画素とされた教師データについて求められた式(20)における左辺の行列のコンポーネントXi,p,j,qと、右辺のベクトルのコンポーネントYi,pを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントXi,p,j,qまたはベクトルのコンポーネントYi,pに対して、新たに注目画素とされた教師データについて、その教師データyk、生徒データxi,k(xj,k)、およびパラメータzを用いて計算される、対応するコンポーネントxi,kpj,kqまたはxi,kpkを足し込む(式(18)のコンポーネントXi,p,j,qまたは式(19)のコンポーネントYi,pにおけるサメーションで表される加算を行う)。 That is, the adding unit 95 performs the left-side matrix component X i, p, j, q and the right-side vector component Y i, p in Expression (20) previously obtained for the teacher data set as the target pixel. Is stored in its built-in memory (not shown), and the teacher data newly set as the pixel of interest for the matrix component X i, p, j, q or the vector component Y i, p , The corresponding component x i, k t p x j, k t q or x i, calculated using the teacher data y k , student data x i, k (x j, k ), and parameter z k t p y k is added (addition represented by summation in the component X i, p, j, q in the equation (18) or the component Y i, p in the equation (19) is performed).

そして、足し込み部95は、0,1,・・・,Zのすべての値のパラメータzにつき、教師データ記憶部33に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、式(20)に示した正規方程式をたてると、その正規方程式を、係数種算出部96に供給する。   Then, the addition unit 95 performs the above-described addition for all the parameter data z of 0, 1,..., Z, using all the teacher data stored in the teacher data storage unit 33 as the target pixel. Thus, when the normal equation shown in the equation (20) is established for each class, the normal equation is supplied to the coefficient seed calculating unit 96.

係数種算出部96は、足し込み部95から供給されるクラスごとの正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。 The coefficient seed calculator 96 obtains and outputs coefficient seed data β m, n for each class by solving the normal equation for each class supplied from the adder 95.

次に、図11のフローチャートを参照して、図9の学習装置71の処理(学習処理)について、説明する。   Next, processing (learning processing) of the learning device 71 in FIG. 9 will be described with reference to the flowchart in FIG.

まず最初に、ステップS31において、教師データ生成部32と生徒データ生成部74が、学習用画像記憶部31に記憶された学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。即ち、教師データ生成部32は、学習用画像データを、例えば、そのまま、教師データとして出力する。また、生徒データ生成部74には、パラメータ生成部81が生成するZ+1個の値のパラメータzが供給される。生徒データ生成部74は、例えば、学習用画像データを、パラメータ生成部81からのZ+1個の値(0,1,・・・,Z)のパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像データ)について、Z+1フレームの生徒データを生成して出力する。   First, in step S31, the teacher data generation unit 32 and the student data generation unit 74 generate and output teacher data and student data from the learning image data stored in the learning image storage unit 31, respectively. . That is, the teacher data generation unit 32 outputs the learning image data as it is, for example, as teacher data. In addition, the student data generation unit 74 is supplied with a parameter z of Z + 1 values generated by the parameter generation unit 81. For example, the student data generation unit 74 filters the learning image data with an LPF having a cutoff frequency corresponding to the parameter z of Z + 1 values (0, 1,..., Z) from the parameter generation unit 81. Thus, the Z + 1 frame student data is generated and output for the teacher data (learning image data) of each frame.

教師データ生成部32が出力する教師データは、教師データ記憶部33に供給されて記憶され、生徒データ生成部74が出力する生徒データは、生徒データ記憶部35に供給されて記憶される。   The teacher data output from the teacher data generation unit 32 is supplied to and stored in the teacher data storage unit 33, and the student data output from the student data generation unit 74 is supplied to and stored in the student data storage unit 35.

その後、ステップS32に進み、パラメータ生成部81は、パラメータzを、初期値としての、例えば0にセットし、学習部76(図10)のタップ選択部42および43、並びに足し込み部95に供給して、ステップS33に進む。ステップS33では、注目画素選択部41は、教師データ記憶部33に記憶された教師データのうち、まだ、注目画素としていないものを、注目画素として、ステップS34に進む。   Thereafter, the process proceeds to step S32, and the parameter generation unit 81 sets the parameter z as an initial value, for example, 0, and supplies the parameter z to the tap selection units 42 and 43 and the addition unit 95 of the learning unit 76 (FIG. 10). Then, the process proceeds to step S33. In step S33, the pixel-of-interest selection unit 41 proceeds to step S34 using the teacher data stored in the teacher data storage unit 33 as the pixel of interest that has not yet been the pixel of interest.

ステップS34では、タップ選択部42が、注目画素について、生徒データ記憶部35に記憶された、パラメータ生成部81が出力するパラメータzに対する生徒データ(注目画素となっている教師データに対応する学習用画像データを、パラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより生成された生徒データ)から予測タップを選択し、足し込み部95に供給する。さらに、ステップS34では、タップ選択部43が、やはり、注目画素について、生徒データ記憶部35に記憶された、パラメータ生成部81が出力するパラメータzに対する生徒データからクラスタップを選択し、クラス分類部44に供給する。   In step S34, the tap selection unit 42 stores the student data corresponding to the parameter z output from the parameter generation unit 81 and stored in the student data storage unit 35 for the target pixel (for learning corresponding to the teacher data serving as the target pixel). A prediction tap is selected from the student data generated by filtering the image data with the LPF having the cutoff frequency corresponding to the parameter z, and supplied to the adding unit 95. Furthermore, in step S34, the tap selection unit 43 selects a class tap from the student data corresponding to the parameter z output from the parameter generation unit 81 and stored in the student data storage unit 35 for the target pixel, and the class classification unit. 44.

そして、ステップS35に進み、クラス分類部44は、注目画素についてのクラスタップに基づき、注目画素のクラス分類を行い、その結果得られる注目画素のクラスを、足し込み部95に出力して、ステップS36に進む。   In step S35, the class classification unit 44 classifies the pixel of interest based on the class tap for the pixel of interest, and outputs the class of the pixel of interest obtained as a result to the adding unit 95. Proceed to S36.

ステップS35では、足し込み部95は、教師データ記憶部33から注目画素を読み出し、その注目画素、タップ選択部42から供給される予測タップ、パラメータ生成部81が出力するパラメータzを用い、式(20)における左辺の行列のコンポーネントxi,Kpj,Kqと、右辺のベクトルのコンポーネントxi,KpKを計算する。さらに、足し込み部95は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部44からの注目画素のクラスに対応するものに対して、注目画素、予測タップ、およびパラメータzから求められた行列のコンポーネントxi,Kpj,Kqとベクトルのコンポーネントxi,KpKを足し込み、ステップS37に進む。 In step S <b> 35, the adding unit 95 reads the target pixel from the teacher data storage unit 33, uses the target pixel, the prediction tap supplied from the tap selection unit 42, and the parameter z output from the parameter generation unit 81. In step 20), the left side matrix component x i, K t p xj, K t q and the right side vector component x i, K t p y K are calculated. Further, the addition unit 95 applies the target pixel, the prediction tap, and the parameter z to the matrix component and the vector component that have already been obtained, corresponding to the class of the target pixel from the class classification unit 44. The matrix components x i, K t p x j, K t q obtained from the above are added to the vector components x i, K t p y K , and the process proceeds to step S37.

ステップS37では、パラメータ生成部81が、自身が出力しているパラメータzが、その取り得る値の最大値であるZに等しいかどうかを判定する。ステップS36において、パラメータ生成部81が出力しているパラメータzが最大値Zに等しくない(最大値Z未満である)と判定された場合、ステップS38に進み、パラメータ生成部81は、パラメータzに1を加算し、その加算値を新たなパラメータzとして、学習部76(図10)のタップ選択部42および43、並びに足し込み部95に出力する。そして、ステップS34に戻り、以下、同様の処理が繰り返される。   In step S37, the parameter generation unit 81 determines whether or not the parameter z output by itself is equal to Z which is the maximum value that can be taken. In step S36, when it is determined that the parameter z output from the parameter generation unit 81 is not equal to the maximum value Z (less than the maximum value Z), the process proceeds to step S38, and the parameter generation unit 81 sets the parameter z to 1 is added, and the added value is output as a new parameter z to the tap selection units 42 and 43 and the addition unit 95 of the learning unit 76 (FIG. 10). And it returns to step S34 and the same process is repeated hereafter.

また、ステップS37において、パラメータzが最大値Zに等しいと判定された場合、ステップS39に進み、注目画素選択部41が、教師データ記憶部33に、まだ、注目画素としていない教師データが記憶されているかどうかを判定する。ステップS38において、注目画素としていない教師データが、まだ、教師データ記憶部33に記憶されていると判定された場合、ステップS32に戻り、以下、同様の処理が繰り返される。   If it is determined in step S37 that the parameter z is equal to the maximum value Z, the process proceeds to step S39, where the pixel-of-interest selection unit 41 stores teacher data that is not yet a pixel of interest in the teacher-data storage unit 33. Determine whether or not. If it is determined in step S38 that teacher data that is not a pixel of interest is still stored in the teacher data storage unit 33, the process returns to step S32, and the same processing is repeated thereafter.

また、ステップS39において、注目画素としていない教師データが、教師データ記憶部33に記憶されていないと判定された場合、足し込み部95は、いままでの処理によって得られたクラスごとの式(20)における左辺の行列と、右辺のベクトルを、係数種算出部96に供給し、ステップS40に進む。   If it is determined in step S39 that the teacher data that is not the pixel of interest is not stored in the teacher data storage unit 33, the adding unit 95 calculates the formula (20) for each class obtained by the processing so far. The matrix on the left side and the vector on the right side in) are supplied to the coefficient seed calculating unit 96, and the process proceeds to step S40.

ステップS40では、係数種算出部96は、足し込み部95から供給されるクラスごとの式(20)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、係数種データβm,nを求めて出力し、処理を終了する。 In step S40, the coefficient seed calculation unit 96 solves each class by solving a normal equation for each class constituted by a matrix on the left side and a vector on the right side in the equation (20) for each class supplied from the addition unit 95. Each time, coefficient seed data β m, n is obtained and output, and the process is terminated.

なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、係数種算出部96は、例えば、デフォルトの係数種データを出力するようになっている。   In addition, due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining coefficient seed data cannot be obtained. The coefficient seed calculation unit 96 outputs default coefficient seed data, for example.

ところで、図9の学習装置71では、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データの空間解像度を、パラメータzに対応して劣化させた低画質画像データを生徒データとして、タップ係数wnおよび生徒データxnから式(1)の線形1次式で予測される教師データの予測値yの自乗誤差の総和を最小にする係数種データβm,nを直接求める学習を行うようにしたが、係数種データβm,nの学習は、その他、例えば、次のようにして行うことが可能である。 By the way, in the learning device 71 of FIG. 9, the high-quality image data as the learning image data is used as the teacher data, and the low-quality image data in which the spatial resolution of the high-quality image data is degraded in accordance with the parameter z. Is the coefficient seed data β m, n that minimizes the sum of the square error of the predicted value y of the teacher data predicted from the tap coefficient w n and the student data x n by the linear linear expression of Expression (1). However, the learning of the coefficient seed data β m, n can be performed as follows, for example.

即ち、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データを、パラメータzに対応したカットオフ周波数のLPFによってフィルタリングすることにより、その水平解像度および垂直解像度を低下させた低画質画像データを生徒データとして、まず最初に、タップ係数wnおよび生徒データxnを用いて式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和を最小にするタップ係数wnを、パラメータzの値(ここでは、z=0,1,・・・,Z)ごとに求める。そして、そのパラメータzの値ごとに求められたタップ係数wnを教師データとするとともに、パラメータzを生徒データとして、式(11)によって係数種データβm,nおよび生徒データであるパラメータzに対応する変数tmから予測される教師データとしてのタップ係数wnの予測値の自乗誤差の総和を最小にする係数種データβm,nを求める。 That is, the high-resolution image data as learning image data is used as teacher data, and the high-resolution image data is filtered by an LPF having a cutoff frequency corresponding to the parameter z, thereby reducing the horizontal resolution and the vertical resolution. First, the square error of the predicted value y of the teacher data predicted by the linear primary prediction expression of Expression (1) using the tap image w n and the student data x n as the student data as the low-quality image data thus made. the tap coefficient w n for the sum to a minimum (in this case, z = 0, 1, · · ·, Z) value of the parameter z seek each. Then, the tap coefficient w n which is determined for each value of the parameter z as well as the teaching data, a parameter z as the learner data, a parameter z is the coefficient seed data beta m, n and student data by equation (11) obtaining coefficient seed data beta m, n that minimizes the sum of square errors of the prediction value of the tap coefficient w n as a teacher data predicted from corresponding variable t m.

ここで、式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和Eを最小(極小)にするタップ係数wnは、図3の学習装置21における場合と同様に、式(8)の正規方程式をたてて解くことにより、各クラスについて、パラメータzの値(z=0,1,・・・,Z)ごとに求めることができる。 Here, the tap coefficient w n that minimizes the sum E of the squared errors of the predicted values y of the teacher data predicted by the linear primary prediction expression of Expression (1) is the case in the learning device 21 of FIG. Similarly to the above, by solving and solving the normal equation of the equation (8), each class can be obtained for each value of the parameter z (z = 0, 1,..., Z).

ところで、タップ係数は、式(11)に示したように、係数種データβm,nと、パラメータzに対応する変数tmとから求められる。そして、いま、この式(11)によって求められるタップ係数を、wn’と表すこととすると、次の式(21)で表される、最適なタップ係数wnと式(11)により求められるタップ係数wn’との誤差enを0とする係数種データβm,nが、最適なタップ係数wnを求めるのに最適な係数種データとなるが、すべてのタップ係数wnについて、そのような係数種データβm,nを求めることは、一般には困難である。 Incidentally, the tap coefficient is obtained from the coefficient seed data β m, n and the variable t m corresponding to the parameter z, as shown in the equation (11). Now, assuming that the tap coefficient obtained by this equation (11) is represented as w n ′, the optimum tap coefficient w n represented by the following equation (21) and equation (11) are obtained. coefficient seed data beta m, n of the error e n of the tap coefficient w n 'and 0, but the optimum coefficient seed data for determining the optimal tap coefficient w n, for all of the tap coefficients w n, It is generally difficult to obtain such coefficient seed data β m, n .

Figure 2005236633

・・・(21)
Figure 2005236633

(21)

なお、式(21)は、式(11)によって、次式のように変形することができる。   Equation (21) can be transformed into the following equation by Equation (11).

Figure 2005236633

・・・(22)
Figure 2005236633

(22)

そこで、係数種データβm,nが最適なものであることを表す規範として、例えば、やはり、最小自乗法を採用することとすると、最適な係数種データβm,nは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。 Therefore, as a standard indicating that the coefficient seed data β m, n is optimal, for example, if the least square method is adopted, the optimal coefficient seed data β m, n is expressed by the following equation. This can be obtained by minimizing the sum E of squared errors.

Figure 2005236633

・・・(23)
Figure 2005236633

(23)

式(23)の自乗誤差の総和Eの最小値(極小値)は、式(24)に示すように、総和Eを係数種データβm,nで偏微分したものを0とするβm,nによって与えられる。 The minimum value (minimum value) of the sum E of square errors in equation (23) is β m, where 0 is a partial differentiation of the sum E with coefficient seed data β m, n , as shown in equation (24) . given by n .

Figure 2005236633

・・・(24)
Figure 2005236633

... (24)

式(22)を、式(24)に代入することにより、次式が得られる。   By substituting equation (22) into equation (24), the following equation is obtained.

Figure 2005236633

・・・(25)
Figure 2005236633

... (25)

いま、Xi,j,とYiを、式(26)と(27)に示すように定義する。 Now, X i, j, and Y i are defined as shown in equations (26) and (27).

Figure 2005236633

・・・(26)
Figure 2005236633

... (26)

Figure 2005236633

・・・(27)
Figure 2005236633

... (27)

この場合、式(25)は、Xi,jとYiを用いた式(28)に示す正規方程式で表すことができる。 In this case, Expression (25) can be expressed by a normal equation shown in Expression (28) using X i, j and Y i .

Figure 2005236633

・・・(28)
Figure 2005236633

... (28)

式(28)の正規方程式も、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβm,nについて解くことができる。 The normal equation of Expression (28) can also be solved for the coefficient seed data β m, n by using, for example, a sweeping method (Gauss-Jordan elimination method).

次に、図12は、式(28)の正規方程式をたてて解くことにより係数種データβm,nを求める学習を行う学習装置101の構成例を示している。 Next, FIG. 12 shows a configuration example of the learning device 101 that performs learning for obtaining the coefficient seed data β m, n by building and solving the normal equation of Expression (28).

なお、図中、図3の学習装置21または図9の学習装置71における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、学習装置101は、学習部76に代えて、学習部106が設けられている他は、図9の学習装置71と同様に構成されている。   In the figure, portions corresponding to those in the learning device 21 of FIG. 3 or the learning device 71 of FIG. 9 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the learning device 101 is configured in the same manner as the learning device 71 in FIG. 9 except that a learning unit 106 is provided instead of the learning unit 76.

図13は、図12の学習部106の構成例を示している。なお、図中、図4の学習部36または図10の学習部76における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   FIG. 13 shows a configuration example of the learning unit 106 of FIG. In the figure, portions corresponding to those in the learning unit 36 of FIG. 4 or the learning unit 76 of FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

足し込み部115には、クラス分類部44が出力する注目画素のクラスと、パラメータ生成部81が出力するパラメータzが供給されるようになっている。そして、足し込み部115は、教師データ記憶部33から、注目画素を読み出し、その注目画素と、タップ選択部42から供給される注目画素についての予測タップを構成する生徒データとを対象とした足し込みを、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに行う。   The adding unit 115 is supplied with the class of the pixel of interest output from the class classification unit 44 and the parameter z output from the parameter generation unit 81. Then, the adding unit 115 reads out the target pixel from the teacher data storage unit 33, and adds the target pixel and the student data constituting the prediction tap for the target pixel supplied from the tap selection unit 42 as targets. Is performed for each class supplied from the class classification unit 44 and for each value of the parameter z output from the parameter generation unit 81.

即ち、足し込み部115には、教師データ記憶部33(図12)に記憶された教師データyk、タップ選択部42が出力する予測タップxn,k、クラス分類部44が出力するクラス、およびパラメータ生成部81(図12)が出力する、予測タップxn,kを構成する生徒データを生成したときのパラメータzが供給される。 That is, the adding unit 115 includes the teacher data y k stored in the teacher data storage unit 33 (FIG. 12), the prediction tap x n, k output from the tap selection unit 42, the class output from the class classification unit 44, And the parameter z when the student data which comprises the prediction tap xn, k which the parameter production | generation part 81 (FIG. 12) outputs is produced | generated is supplied.

そして、足し込み部115は、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kを用い、式(8)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。 Then, the adding unit 115 uses the prediction tap (student data) x n, k for each class supplied from the class classification unit 44 and for each value of the parameter z output from the parameter generation unit 81, 8) Multiply (x n, k x n ′, k ) between student data in the left-side matrix and an operation corresponding to summation (Σ).

さらに、足し込み部115は、やはり、クラス分類部44から供給されるクラスごとに、かつパラメータ生成部81が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(8)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。 Furthermore, the addition unit 115 also uses the prediction tap (student data) x n, k and the teacher data for each class supplied from the class classification unit 44 and for each value of the parameter z output from the parameter generation unit 81. with y k, performed student data x n in the vector of the right side of equation (8), k and multiplication of teacher data y k (x n, k y k) and, a calculation corresponding to summation (sigma).

即ち、足し込み部115は、前回、注目画素とされた教師データについて求められた式(8)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(8)のサメーションで表される加算を行う)。 That is, the adding unit 115 lastly calculates the left-side matrix component (Σx n, k x n ′, k ) and the right-side vector component ( Σx n, k y k ) is stored in its built-in memory (not shown), and the matrix component (Σx n, k x n ′, k ) or vector component (Σx n, k y k) ), The corresponding component x n, k + 1 x n calculated using the teacher data y k + 1 and the student data x n, k + 1 for the teacher data newly set as the pixel of interest. ', k + 1 or x n, k + 1 y k + 1 is added (addition represented by the summation of equation (8) is performed).

そして、足し込み部115は、教師データ記憶部33に記憶された教師データすべてを注目画素として、上述の足し込みを行うことにより、各クラスについて、パラメータzの各値ごとに、式(8)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部46に供給する。   Then, the adding unit 115 performs the above-described addition using all the teacher data stored in the teacher data storage unit 33 as the target pixel, thereby obtaining the equation (8) for each value of the parameter z for each class. When the normal equation shown in (2) is established, the normal equation is supplied to the tap coefficient calculation unit 46.

従って、足し込み部115は、図4の足し込み部45と同様に、各クラスについて、式(8)の正規方程式をたてる。但し、足し込み部115は、さらに、パラメータzの各値ごとにも、式(8)の正規方程式をたてる点で、図4の足し込み部45と異なる。   Therefore, the adding unit 115 forms the normal equation of the equation (8) for each class, similarly to the adding unit 45 of FIG. However, the addition unit 115 is further different from the addition unit 45 of FIG. 4 in that a normal equation of Expression (8) is established for each value of the parameter z.

タップ係数算出部46は、足し込み部115から供給される各クラスについての、パラメータzの値ごとの正規方程式を解くことにより、各クラスについて、パラメータzの値ごとの最適なタップ係数wnを求め、足し込み部121に供給する。 The tap coefficient calculation unit 46 solves a normal equation for each value of the parameter z for each class supplied from the adding unit 115, thereby obtaining an optimum tap coefficient w n for each value of the parameter z for each class. Obtained and supplied to the add-in unit 121.

足し込み部121は、パラメータ生成部81(図12)から供給されるパラメータz(に対応する変数tm)と、タップ係数算出部46から供給される最適なタップ係数wnを対象とした足し込みを、クラスごとに行う。 Adder 121 adds as a parameter generating unit 81 (variable t m corresponding to) the parameter z supplied from (12), directed to the optimum tap coefficients w n supplied from the tap coefficient calculating section 46 For each class.

即ち、足し込み部121は、パラメータ生成部81(図12)から供給されるパラメータzから式(10)によって求められる変数ti(tj)を用い、式(28)の左辺の行列における、式(26)で定義されるコンポーネントXi,jを求めるためのパラメータzに対応する変数ti(tj)どうしの乗算(tij)と、サメーション(Σ)に相当する演算を、クラスごとに行う。 That is, the adding unit 121 uses the variable t i (t j ) obtained by the equation (10) from the parameter z supplied from the parameter generating unit 81 (FIG. 12), and in the matrix on the left side of the equation (28), Multiplication (t i t j ) between variables t i (t j ) corresponding to the parameter z for obtaining the component X i, j defined by the equation (26), and an operation corresponding to summation (Σ) , For each class.

ここで、コンポーネントXi,jは、パラメータzによってのみ決まるものであり、クラスとは関係がないので、コンポーネントXi,jの計算は、実際には、クラスごとに行う必要はなく、1回行うだけで済む。 Here, since the component X i, j is determined only by the parameter z and has no relation to the class , the calculation of the component X i, j does not actually need to be performed for each class, and is performed once. Just do it.

さらに、足し込み部121は、パラメータ生成部81から供給されるパラメータzから式(10)によって求められる変数tiと、タップ係数算出部46から供給される最適なタップ係数wnとを用い、式(28)の右辺のベクトルにおける、式(27)で定義されるコンポーネントYiを求めるためのパラメータzに対応する変数tiおよび最適なタップ係数wnの乗算(tin)と、サメーション(Σ)に相当する演算を、クラスごとに行う。 Further, the adding unit 121 uses the variable t i obtained from the parameter z supplied from the parameter generating unit 81 by the equation (10) and the optimum tap coefficient w n supplied from the tap coefficient calculating unit 46, Multiplication (t i w n ) of the variable t i corresponding to the parameter z for obtaining the component Y i defined in the expression (27) and the optimum tap coefficient w n in the vector on the right side of the expression (28); An operation corresponding to summation (Σ) is performed for each class.

足し込み部121は、各クラスごとに、式(26)で表されるコンポーネントXi,jと、式(27)で表されるコンポーネントYiを求めることにより、各クラスについて、式(28)の正規方程式をたてると、その正規方程式を、係数種算出部122に供給する。 The adding unit 121 obtains the component X i, j represented by the equation (26) and the component Y i represented by the equation (27) for each class, thereby obtaining the equation (28) for each class. The normal equation is supplied to the coefficient seed calculation unit 122.

係数種算出部122は、足し込み部121から供給されるクラスごとの式(28)の正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。 The coefficient seed calculating unit 122 calculates and outputs coefficient seed data β m, n for each class by solving the normal equation of the equation (28) for each class supplied from the adding unit 121.

図8の係数出力部55における係数種メモリ62には、以上のようにして求められたクラスごとの係数種データβm,nを記憶させておくようにすることもできる。 The coefficient seed memory 62 in the coefficient output unit 55 of FIG. 8 may store the coefficient seed data β m, n for each class obtained as described above.

なお、係数種データの学習においても、図5で説明したタップ係数の学習における場合と同様に、第1の画像データに対応する生徒データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、係数種データとしては、各種の画像変換処理を行うものを得ることができる。   In the learning of the coefficient seed data, the student data corresponding to the first image data and the teacher data corresponding to the second image data are the same as in the tap coefficient learning described with reference to FIG. Depending on how the data is selected, the coefficient seed data can be obtained by performing various image conversion processes.

即ち、上述の場合には、学習用画像データを、そのまま第2の画像データに対応する教師データとするとともに、その学習用画像データの空間解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、係数種データの学習を行うようにしたことから、係数種データとしては、第1の画像データを、その空間解像度を向上させた第2の画像データに変換する空間解像度創造処理としての画像変換処理を行うものを得ることができる。   That is, in the above-described case, the learning image data is directly used as teacher data corresponding to the second image data, and the low-quality image data in which the spatial resolution of the learning image data is deteriorated is the first image data. Since the coefficient seed data is learned as the student data corresponding to the image data, the first image data is converted into the second image data with improved spatial resolution as the coefficient seed data. What can perform image conversion processing as spatial resolution creation processing can be obtained.

この場合、図7の画像変換装置51では、画像データの水平解像度および垂直解像度を、パラメータzに対応する解像度に向上させることができる。   In this case, the image conversion apparatus 51 in FIG. 7 can improve the horizontal resolution and vertical resolution of the image data to a resolution corresponding to the parameter z.

また、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、パラメータzに対応するレベルのノイズを重畳した画像データを生徒データとして、係数種データの学習を行うことにより、係数種データとしては、第1の画像データを、そこに含まれるノイズを除去(低減)した第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。この場合、図7の画像変換装置51では、パラメータzに対応するS/Nの画像データを得ることができる。   Further, for example, the high-quality image data is used as the teacher data, and the image data obtained by superimposing the noise corresponding to the parameter z on the high-quality image data as the teacher data is used as the student data. By performing learning, the coefficient seed data is obtained by performing image conversion processing as noise removal processing for converting the first image data into second image data from which the noise included therein is removed (reduced). Can be obtained. In this case, the image conversion apparatus 51 of FIG. 7 can obtain S / N image data corresponding to the parameter z.

また、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を、パラメータzに対応して間引いた画像データを生徒データとして、または、所定のサイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素をパラメータzに対応する間引き率で間引いた画像データを教師データとして、係数種データの学習を行うことにより、係数種データとしては、第1の画像データを、そのサイズを拡大または縮小した第2の画像データに変換するリサイズ処理としての画像変換処理を行うものを得ることができる。この場合、図7の画像変換装置51では、パラメータzに対応するサイズに拡大または縮小した画像データを得ることができる。   Further, for example, certain image data is used as teacher data, and image data obtained by thinning out the number of pixels of the image data as the teacher data in accordance with the parameter z is used as student data, or image data of a predetermined size is used. The coefficient seed data is obtained by performing the learning of the coefficient seed data by using the image data obtained by thinning out the pixels of the image data as the student data at the thinning rate corresponding to the parameter z as the teacher data. It is possible to obtain one that performs image conversion processing as resizing processing for converting one image data into second image data whose size is enlarged or reduced. In this case, the image conversion apparatus 51 in FIG. 7 can obtain image data enlarged or reduced to a size corresponding to the parameter z.

なお、上述の場合には、タップ係数wnを、式(9)に示したように、β1,n0+β2,n1+・・・+βM,nM-1で定義し、この式(9)によって、水平および垂直方向の空間解像度を、いずれも、パラメータzに対応して向上させるためのタップ係数wnを求めるようにしたが、タップ係数wnとしては、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるものを求めるようにすることも可能である。 Incidentally, in the above case, defines the tap coefficient w n, in as shown in Equation (9), β 1, n z 0 + β 2, n z 1 + ··· + β M, n z M-1 and, by the equation (9), the spatial resolution in the horizontal and vertical directions, both have been to obtain the tap coefficient w n for improving corresponding to the parameter z, the tap coefficient w n is horizontal It is also possible to obtain a resolution and a vertical resolution that are independently improved corresponding to the independent parameters z x and z y .

即ち、タップ係数wnを、式(9)に代えて、例えば、3次式β1,nx 0y 0+β2,nx 1y 0+β3,nx 2y 0+β4,nx 3y 0+β5,nx 0y 1+β6,nx 0y 2+β7,nx 0y 3+β8,nx 1y 1+β9,nx 2y 1+β10,nx 1y 2で定義するとともに、式(10)で定義した変数tmを、式(10)に代えて、例えば、t1=zx 0y 0,t2=zx 1y 0,t3=zx 2y 0,t4=zx 3y 0,t5=zx 0y 1,t6=zx 0y 2,t7=zx 0y 3,t8=zx 1y 1,t9=zx 2y 1,t10=zx 1y 2で定義する。この場合も、タップ係数wnは、最終的には、式(11)で表すことができ、従って、図9の学習装置71や、図12の学習装置101において、パラメータzxとzyに対応して、教師データの水平解像度と垂直解像度をそれぞれ劣化させた画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるタップ係数wnを求めることができる。 That is, the tap coefficients w n, instead of the equation (9), for example, cubic polynomial β 1, n z x 0 z y 0 + β 2, n z x 1 z y 0 + β 3, n z x 2 z y 0 + β 4, n z x 3 z y 0 + β 5, n z x 0 z y 1 + β 6, n z x 0 z y 2 + β 7, n z x 0 z y 3 + β 8, n z x 1 z y with defined 1 + β 9, n z x 2 z y 1 + β 10, n z x 1 z y 2, the variable t m defined in formula (10), in place of the equation (10), for example, t 1 = Z x 0 z y 0 , t 2 = z x 1 z y 0 , t 3 = z x 2 z y 0 , t 4 = z x 3 z y 0 , t 5 = z x 0 z y 1 , t 6 = Z x 0 z y 2 , t 7 = z x 0 z y 3 , t 8 = z x 1 z y 1 , t 9 = z x 2 z y 1 , t 10 = z x 1 z y 2 . Again, the tap coefficient w n is finally can be represented by the formula (11), therefore, and the learning device 71 in FIG. 9, in the learning apparatus 101 of FIG. 12, the parameter z x and z y Correspondingly, the horizontal resolution and the vertical resolution are obtained by performing learning using the image data obtained by degrading the horizontal resolution and the vertical resolution of the teacher data as student data, and obtaining the coefficient seed data β m, n . in response to independent parameters z x and z y, it can be determined tap coefficients w n to improve independently.

その他、例えば、水平解像度と垂直解像度それぞれに対応するパラメータzxとzyに加えて、さらに、時間方向の解像度に対応するパラメータztを導入することにより、水平解像度、垂直解像度、時間解像度を、独立のパラメータzx,zy,ztに対応して、それぞれ独立に向上させるタップ係数wnを求めることが可能となる。 In addition, for example, in addition to the parameters z x and z y corresponding to the horizontal resolution and the vertical resolution, respectively, by introducing a parameter z t corresponding to the resolution in the time direction, the horizontal resolution, the vertical resolution, and the time resolution are independent parameters z x, z y, corresponding to the z t, it is possible to determine the tap coefficient w n to improve independently.

また、リサイズ処理についても、空間解像度創造処理における場合と同様に、水平および垂直方向を、いずれもパラメータzに対応する拡大率(または縮小率)でリサイズするタップ係数wnの他、水平と垂直方向を、それぞれパラメータzxとzyに対応する拡大率で、独立にリサイズするタップ係数wnを求めることが可能である。 As for the resizing process, as in the spatial resolution creation processing, the horizontal and vertical directions, other tap coefficients w n to resize magnification of both corresponding to the parameter z (or reduction ratio), the horizontal and vertical It is possible to obtain a tap coefficient w n whose size is independently resized with an enlargement factor corresponding to the parameters z x and z y , respectively.

さらに、図9の学習装置71や、図12の学習装置101において、パラメータzxに対応して教師データの水平解像度および垂直解像度を劣化させるとともに、パラメータzyに対応して教師データにノイズを付加した画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、パラメータzxに対応して水平解像度および垂直解像度を向上させるとともに、パラメータzyに対応してノイズ除去を行うタップ係数wnを求めることができる。 Furthermore, and the learning device 71 in FIG. 9, in the learning apparatus 101 of FIG. 12, with deteriorating the horizontal resolution and vertical resolution of the teacher data corresponding to the parameter z x, the noise to the teacher data corresponding to the parameter z y the additional image data by performing learning by using as the student data, by obtaining the coefficient seed data beta m, n, improves the horizontal resolution and vertical resolution corresponding to the parameter z x, corresponding to the parameter z y it can be obtained tap coefficients w n to perform noise removal and.

次に、本発明の第1実施の形態について説明する。   Next, a first embodiment of the present invention will be described.

図14は、本発明の第1実施の形態としてのAVシステムの構成例を示している。   FIG. 14 shows an example of the configuration of an AV system as the first embodiment of the present invention.

図14において、AVシステムは、本体200とリモコン(リモートコマンダ)201とから構成されている。   In FIG. 14, the AV system is composed of a main body 200 and a remote controller (remote commander) 201.

本体200は、制御装置202、DVD(Digital Versatile Disc)レコーダ部203、HDD(Hard Disk Drive)レコーダ部204、およびテレビジョン受像機部205から構成されている。   The main body 200 includes a control device 202, a DVD (Digital Versatile Disc) recorder unit 203, an HDD (Hard Disk Drive) recorder unit 204, and a television receiver unit 205.

リモコン201は、操作部201Aおよび送信部201Bを有している。   The remote controller 201 includes an operation unit 201A and a transmission unit 201B.

操作部201Aは、本体200に対する各種の指令を入力するときに、ユーザによって操作される。送信部201Bは、操作部201Aの操作に対応する操作信号を、例えば、赤外線により射出する。なお、送信部201Bでは、その他、例えば、Bluetooth(商標)の規格等にしたがった無線により操作信号を送信することもできる。   The operation unit 201 </ b> A is operated by the user when inputting various commands to the main body 200. The transmission unit 201B emits an operation signal corresponding to the operation of the operation unit 201A, for example, by infrared rays. In addition, the transmission unit 201B can also transmit the operation signal by radio according to, for example, the Bluetooth (trademark) standard.

制御装置202は、送受信部202Aと制御部202Bから構成されている。   The control device 202 includes a transmission / reception unit 202A and a control unit 202B.

送受信部202Aは、リモコン201から赤外線で送信されてくる操作信号を受光(受信)し、制御部202Bに供給する。また、送受信部202Aは、制御部202Bから供給される1以上のコマンドのシーケンスであるコマンド列を、無線または有線で送信(放送)する。なお、ここでは、送受信部202Aは、コマンド列を無線で送信するものとする。   The transmission / reception unit 202A receives (receives) an operation signal transmitted from the remote controller 201 by infrared rays and supplies the operation signal to the control unit 202B. The transmission / reception unit 202A transmits (broadcasts) a command string, which is a sequence of one or more commands supplied from the control unit 202B, wirelessly or by wire. Here, it is assumed that the transmission / reception unit 202A transmits the command string wirelessly.

制御部202Bは、送受信部202Aから供給される操作信号に対応して、DVDレコーダ部203、HDDレコーダ部204、またはテレビジョン受像機部205に対する1以上のコマンドからなるコマンド列を生成し、送受信部202Aに供給する。   The control unit 202B generates a command sequence including one or more commands for the DVD recorder unit 203, the HDD recorder unit 204, or the television receiver unit 205 in response to the operation signal supplied from the transmission / reception unit 202A, and transmits / receives To the unit 202A.

DVDレコーダ部203は、受信部211、R-IC(Reconfigurable-IC)212、記録部213、DVD214、および再生部215から構成され、図示せぬチューナで受信されたテレビジョン放送番組の画像データや、図示せぬ外部端子を介して入力される画像データなどの外部から供給される画像データに対し、必要に応じて信号処理を施し、後段のHDDレコーダ部204に供給、またはDVD214に記録する。また、DVDレコーダ部203は、DVD214から画像データを再生し、必要に応じて信号処理を施し、後段のHDDレコーダ部204に供給する。   The DVD recorder unit 203 includes a receiving unit 211, an R-IC (Reconfigurable-IC) 212, a recording unit 213, a DVD 214, and a playback unit 215, and includes image data of a television broadcast program received by a tuner (not shown) The image data supplied from the outside, such as image data input via an external terminal (not shown), is subjected to signal processing as necessary and supplied to the HDD recorder unit 204 at the subsequent stage or recorded on the DVD 214. Also, the DVD recorder unit 203 reproduces image data from the DVD 214, performs signal processing as necessary, and supplies it to the HDD recorder unit 204 at the subsequent stage.

即ち、DVDレコーダ部203において、受信部211は、制御装置202の送受信部202Aから無線で送信されてくるコマンド列を受信し、R-IC212に供給する。   That is, in the DVD recorder unit 203, the reception unit 211 receives a command sequence transmitted wirelessly from the transmission / reception unit 202 </ b> A of the control device 202 and supplies it to the R-IC 212.

R-IC212は、その内部構造がリコンフィギュラブル(reconfigurable)な(再構成可能な)1チップのICで、受信部211から供給されるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、外部から供給される画像データ、または再生部215から供給される画像データを、必要に応じて信号処理(データ処理)して、HDDレコーダ部204または記録部213に供給する。   The R-IC 212 is a one-chip IC whose internal structure is reconfigurable (reconfigurable), and in accordance with at least one command in the command sequence supplied from the receiving unit 211. The structure is switched, and image data supplied from the outside or image data supplied from the playback unit 215 is subjected to signal processing (data processing) as necessary, and supplied to the HDD recorder unit 204 or the recording unit 213.

なお、受信部211とR-IC212の全体を、1チップのICとして構成することも可能である。後述する受信部221とR-IC222の全体、および受信部231とR-IC232の全体についても同様である。   Note that the entire receiving unit 211 and the R-IC 212 can be configured as a one-chip IC. The same applies to the entire receiving unit 221 and the R-IC 222 described later, and the entire receiving unit 231 and the R-IC 232.

記録部213は、R-IC212から供給される画像データに対して、MPEG符号化等の必要な処理を施することにより、その画像データをDVDの規格に準拠した記録データに変換し、DVD214に記録する。なお、DVD214は、DVDレコーダ部203に対して、容易に着脱可能となっている。   The recording unit 213 performs necessary processing such as MPEG encoding on the image data supplied from the R-IC 212 to convert the image data into recording data that conforms to the DVD standard, and stores it on the DVD 214. Record. The DVD 214 can be easily attached to and detached from the DVD recorder unit 203.

再生部215は、DVD214から記録データを読み出し、画像データに復号して(画像データを再生して)、R-IC212に供給する。   The playback unit 215 reads the recorded data from the DVD 214, decodes it into image data (plays back the image data), and supplies it to the R-IC 212.

HDDレコーダ部204は、受信部221、R-IC222、記録部223、HD224、および再生部225から構成され、前段のDVDレコーダ部203から供給される画像データに対し、必要に応じて信号処理を施し、後段のテレビジョン受像機部205に供給、またはHD224に記録する。また、HDDレコーダ部204は、HD224から画像データを再生し、必要に応じて信号処理を施し、後段のテレビジョン受像機部205に供給する。   The HDD recorder unit 204 includes a receiving unit 221, an R-IC 222, a recording unit 223, an HD 224, and a playback unit 225, and performs signal processing on image data supplied from the previous DVD recorder unit 203 as necessary. And supplied to the television receiver 205 at the subsequent stage or recorded on the HD 224. Also, the HDD recorder unit 204 reproduces image data from the HD 224, performs signal processing as necessary, and supplies it to the television receiver unit 205 at the subsequent stage.

即ち、HDDレコーダ部204において、受信部221は、制御装置202の送受信部202Aから無線で送信されてくるコマンド列を受信し、R-IC222に供給する。   That is, in the HDD recorder unit 204, the reception unit 221 receives a command string transmitted from the transmission / reception unit 202 </ b> A of the control device 202 wirelessly and supplies it to the R-IC 222.

R-IC222は、R-IC212と同様に、その内部構造がリコンフィギュラブルな1チップのICで、受信部221から供給されるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前段のDVDレコーダ部203から供給される画像データ、または再生部225から供給される画像データを、必要に応じて信号処理して、テレビジョン受像機部205または記録部223に供給する。   Similar to the R-IC 212, the R-IC 222 is a one-chip IC whose internal structure is reconfigurable, and the internal structure is changed according to at least one command in the command sequence supplied from the receiving unit 221. The image data supplied from the DVD recorder unit 203 at the previous stage or the image data supplied from the playback unit 225 is subjected to signal processing as necessary, and supplied to the television receiver unit 205 or the recording unit 223.

記録部223は、R-IC222から供給される画像データに対して必要な処理を施し、HD224に記録する。   The recording unit 223 performs necessary processing on the image data supplied from the R-IC 222 and records it in the HD 224.

再生部225は、HD224から記録データを読み出し(再生し)、R-IC222に供給する。   The playback unit 225 reads (plays back) the recording data from the HD 224 and supplies it to the R-IC 222.

テレビジョン受像機部205は、受信部231、R-IC232、ディスプレイ233から構成され、前段のHDレコーダ部204から供給される画像データに対し、必要に応じて信号処理を施し、ディスプレイ233に供給して表示させる。   The television receiver unit 205 includes a receiving unit 231, an R-IC 232, and a display 233. The television receiver unit 205 performs signal processing on the image data supplied from the preceding HD recorder unit 204 and supplies the image data to the display 233. To display.

即ち、テレビジョン受像機部205において、受信部231は、制御装置202の送受信部202Aから無線で送信されてくるコマンド列を受信し、R-IC232に供給する。   That is, in the television receiver unit 205, the receiving unit 231 receives a command sequence transmitted wirelessly from the transmission / reception unit 202 </ b> A of the control device 202 and supplies it to the R-IC 232.

R-IC232は、R-IC212と同様に、その内部構造がリコンフィギュラブルな1チップのICで、受信部231から供給されるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前段のHDレコーダ部204から供給される画像データを必要に応じて信号処理し、ディスプレイ233に供給する。   Similar to the R-IC 212, the R-IC 232 is a one-chip IC whose internal structure is reconfigurable, and the internal structure is changed according to at least one command in the command sequence supplied from the receiving unit 231. The image data supplied from the HD recorder unit 204 at the previous stage is subjected to signal processing as necessary and supplied to the display 233.

ディスプレイ233は、R-IC232から供給される画像データを表示する。   The display 233 displays the image data supplied from the R-IC 232.

なお、図14では、DVDレコーダ部203、HDDレコーダ部204、およびテレビジョン受像機部205が、本体200としての1つの筐体に収納されているものとしてあるが、DVDレコーダ部203、HDDレコーダ部204、テレビジョン受像機部205は、それぞれ単独の筐体に収納されている独立した装置であっても良い。この場合、DVDレコーダ部203、HDDレコーダ部204、テレビジョン受像機部205それぞれどうしでは、有線または無線で、必要なデータ(信号)のやりとりを行うことができる。   In FIG. 14, the DVD recorder unit 203, the HDD recorder unit 204, and the television receiver unit 205 are assumed to be housed in one casing as the main body 200, but the DVD recorder unit 203, HDD recorder The unit 204 and the television receiver unit 205 may be independent devices housed in a single casing. In this case, the DVD recorder unit 203, the HDD recorder unit 204, and the television receiver unit 205 can exchange necessary data (signals) in a wired or wireless manner.

また、図14では、制御装置202が、リモコン201からの操作信号に応じたコマンド列を生成し、DVDレコーダ部203、HDDレコーダ部204、およびテレビジョン受像機部205に、無線で送信することとしたが、その他、例えば、リモコン201において、操作信号に応じたコマンド列を生成し、DVDレコーダ部203、HDDレコーダ部204、およびテレビジョン受像機部205に、無線で送信するようにすることも可能である。   In FIG. 14, the control device 202 generates a command sequence corresponding to the operation signal from the remote controller 201 and transmits it to the DVD recorder unit 203, HDD recorder unit 204, and television receiver unit 205 wirelessly. However, for example, the remote controller 201 generates a command sequence corresponding to the operation signal and transmits it to the DVD recorder unit 203, the HDD recorder unit 204, and the television receiver unit 205 wirelessly. Is also possible.

次に、図15乃至図26を参照して、図14のAVシステムの本体200の動作について説明する。   Next, the operation of the main body 200 of the AV system shown in FIG. 14 will be described with reference to FIGS.

ユーザがリモコン201の操作部201Aを操作すると、送信部201Bは、その操作に対応した操作信号を送信する。   When the user operates the operation unit 201A of the remote controller 201, the transmission unit 201B transmits an operation signal corresponding to the operation.

そして、制御装置202では、その送受信部202Aが、リモコン201の送信部201Bからの操作信号を受信し、制御部202Bに供給する。   And in the control apparatus 202, the transmission / reception part 202A receives the operation signal from the transmission part 201B of the remote control 201, and supplies it to the control part 202B.

制御部202Bは、送受信部202Aからの操作信号を受信し、ステップS201において、その操作信号が、外部からの画像データの、DVD214への記録を指令するものであるかどうかを判定する。   The control unit 202B receives the operation signal from the transmission / reception unit 202A, and determines in step S201 whether or not the operation signal instructs recording of the image data from the outside onto the DVD 214.

ステップS201において、操作信号が、外部からの画像データの、DVD214への記録を指令するものであると判定された場合、ステップS202に進み、制御部202Bは、その操作信号に応じたコマンド列を生成する。   If it is determined in step S201 that the operation signal is for instructing recording of image data from the outside onto the DVD 214, the process proceeds to step S202, and the control unit 202B displays a command sequence corresponding to the operation signal. Generate.

ここで、図16は、制御部202Bが、図15のステップS202で生成するコマンド列の例を示している。   Here, FIG. 16 shows an example of a command string generated by the control unit 202B in step S202 of FIG.

図16のコマンド列は、1つのノイズ除去処理コマンドと2つのNullコマンドとから構成されている。   The command sequence in FIG. 16 is composed of one noise removal processing command and two Null commands.

図16のコマンド列のうちの、先頭(1番目)のノイズ除去処理コマンドは、DVDレコーダ部203(のR-IC212)に対し、信号処理として、ノイズを除去(低減)するノイズ除去処理を要求するものである。また、先頭から2番目のNullコマンドは、HDDレコーダ部204(のR-IC222)に対し、信号処理として、何もしないことを要求するものである。さらに、先頭から3番目のNullコマンドは、テレビジョン受像機部205(のR-IC232)に対し、信号処理として、何もしないことを要求するものである。   The first (first) noise removal processing command in the command sequence of FIG. 16 requests the DVD recorder unit 203 (R-IC 212) to perform noise removal processing to remove (reduce) noise as signal processing. To do. The second Null command from the head requests the HDD recorder unit 204 (the R-IC 222) to do nothing as signal processing. Further, the third Null command from the head requests the television receiver unit 205 (R-IC 232) to do nothing as signal processing.

なお、Nullコマンドは、なくてもよく、この場合、図16のコマンド列は、DVDレコーダ部203に対する1つのノイズ除去処理コマンドから構成されることになる。   Note that the Null command is not necessary, and in this case, the command sequence in FIG. 16 is composed of one noise removal processing command for the DVD recorder unit 203.

図15に戻り、ステップS202において、制御部202Bは、コマンド列を生成すると、そのコマンド列を、送受信部202Aに供給し、ステップS203に進む。ステップS203では、送受信部202Aは、制御部202Bからのコマンド列を送信(放送)し、ステップS204に進む。   Returning to FIG. 15, when the control unit 202B generates a command sequence in step S202, the control unit 202B supplies the command sequence to the transmission / reception unit 202A, and the process proceeds to step S203. In step S203, the transmission / reception unit 202A transmits (broadcasts) the command string from the control unit 202B, and the process proceeds to step S204.

ステップS204では、DVDレコーダ部203の受信部211、HDDレコーダ部204の受信部221、およびテレビジョン受像機部205の受信部231が、送受信部202AがステップS203で送信したコマンド列を受信する。さらに、ステップS204では、受信部211,221,231それぞれが、送受信部202Aから受信したコマンド列を、R-IC212,222,232にそれぞれ供給し、ステップS205に進む。   In step S204, the reception unit 211 of the DVD recorder unit 203, the reception unit 221 of the HDD recorder unit 204, and the reception unit 231 of the television receiver unit 205 receive the command sequence transmitted by the transmission / reception unit 202A in step S203. Further, in step S204, the receiving units 211, 221, and 231 supply the command strings received from the transmitting / receiving unit 202A to the R-ICs 212, 222, and 232, respectively, and the process proceeds to step S205.

ステップS205では、R-IC212,222,232それぞれが、受信部211,221,231から供給されたコマンド列のうちの、例えば、自身に対するコマンドに応じて、その内部構造を切り換え、ステップS206に進む。   In step S205, each of the R-ICs 212, 222, and 232 switches its internal structure in accordance with, for example, a command for itself among the command sequences supplied from the reception units 211, 211, and 231 and proceeds to step S206. .

即ち、いまの場合、DVDレコーダ部203のR-IC212は、図16のコマンド列のうちの先頭のノイズ除去処理コマンドに応じて、ノイズ除去処理を行うように、その内部構造を切り換える。また、HDDレコーダ部204のR-IC221とテレビジョン受像機部205のR-IC231は、図16のコマンド列のうちの2番目と3番目のNullコマンドに応じて、信号処理を行わないように、その内部構造を切り換える。   That is, in this case, the R-IC 212 of the DVD recorder unit 203 switches its internal structure to perform noise removal processing in accordance with the head noise removal processing command in the command sequence of FIG. Also, the R-IC 221 of the HDD recorder unit 204 and the R-IC 231 of the television receiver unit 205 do not perform signal processing in response to the second and third Null commands in the command sequence of FIG. , Switching its internal structure.

ステップS206では、R-IC212,222,232それぞれが、ステップS205で切り換えた内部構造によって行われるべき信号処理を行い、処理を終了する。   In step S206, each of the R-ICs 212, 222, and 232 performs signal processing to be performed by the internal structure switched in step S205, and ends the processing.

即ち、いまの場合、R-IC212は、DVDレコーダ部203の外部から入力される画像データに対して、ノイズ除去処理を施し、記録部213に供給する。記録部213は、R-IC212からの画像データをMPEG符号化等し、DVD214に記録する。即ち、DVD214には、外部から入力される画像データに対して、R-IC212がノイズ除去処理を施すことによって得られる画像データが記録される。   That is, in this case, the R-IC 212 performs noise removal processing on the image data input from the outside of the DVD recorder unit 203 and supplies it to the recording unit 213. The recording unit 213 performs MPEG encoding on the image data from the R-IC 212 and records it on the DVD 214. That is, the DVD 214 records image data obtained by the R-IC 212 performing noise removal processing on image data input from the outside.

従って、この場合、R-IC212,222,232のうちの、唯一、信号処理を行うR-IC212は、ノイズ除去処理を行う装置として機能することになる。   Accordingly, in this case, only the R-IC 212 that performs signal processing among the R-ICs 212, 222, and 232 functions as a device that performs noise removal processing.

一方、制御部202Bは、ステップS201において、操作信号が、外部からの画像データの、DVD214への記録を指令するものでないと判定した場合、図17のステップS211に進み、操作信号が、DVD214に記録された画像データの再生を指令するものであるかどうかを判定する。   On the other hand, if the control unit 202B determines in step S201 that the operation signal does not command recording of external image data onto the DVD 214, the control unit 202B proceeds to step S211 in FIG. It is determined whether or not it is an instruction to reproduce the recorded image data.

ステップS211において、操作信号が、DVD214に記録された画像データの再生を指令するものであると判定された場合、ステップS212に進み、制御部202Bは、その操作信号に応じたコマンド列を生成する。   If it is determined in step S211 that the operation signal is an instruction to reproduce the image data recorded on the DVD 214, the process proceeds to step S212, and the control unit 202B generates a command sequence corresponding to the operation signal. .

ここで、図18は、制御部202Bが、図17のステップS212で生成するコマンド列の例を示している。   Here, FIG. 18 shows an example of a command string generated by the control unit 202B in step S212 of FIG.

図18のコマンド列は、1つの歪み除去処理コマンド、1つの時間解像度創造処理コマンド、および1つの空間解像度創造処理コマンドから構成されている。   The command sequence in FIG. 18 includes one distortion removal processing command, one temporal resolution creation processing command, and one spatial resolution creation processing command.

図18のコマンド列のうちの、先頭の歪み除去処理コマンドは、DVDレコーダ部203のR-IC212に対し、信号処理として、MPEG符号化/復号により生じるブロック歪み等を除去する歪み除去処理を要求するものである。また、先頭から2番目の時間解像度創造処理コマンドは、HDDレコーダ部204のR-IC222に対し、信号処理として、画像データの時間解像度を向上させる時間解像度創造処理を要求するものである。さらに、先頭から3番目の空間解像度創造処理コマンドは、テレビジョン受像機部205のR-IC232に対し、信号処理として、画像データの空間解像度を向上させる空間解像度創造処理を要求するものである。   The leading distortion removal processing command in the command sequence of FIG. 18 requests the R-IC 212 of the DVD recorder unit 203 to perform distortion removal processing for removing block distortion or the like caused by MPEG encoding / decoding as signal processing. To do. The second time resolution creation processing command from the head requests the R-IC 222 of the HDD recorder unit 204 to perform time resolution creation processing for improving the time resolution of image data as signal processing. Furthermore, the third spatial resolution creation processing command from the head requests the R-IC 232 of the television receiver unit 205 to perform spatial resolution creation processing for improving the spatial resolution of image data as signal processing.

図17に戻り、ステップS212において、制御部202Bは、コマンド列を生成すると、そのコマンド列を、送受信部202Aに供給し、ステップS213に進む。ステップS213では、送受信部202Aは、制御部202Bからのコマンド列を送信(放送)し、ステップS214に進む。   Returning to FIG. 17, when the control unit 202B generates a command string in step S212, the command string is supplied to the transmission / reception unit 202A, and the process proceeds to step S213. In step S213, the transmission / reception unit 202A transmits (broadcasts) the command string from the control unit 202B, and the process proceeds to step S214.

ステップS214では、DVDレコーダ部203の受信部211、HDDレコーダ部204の受信部221、およびテレビジョン受像機部205の受信部231が、送受信部202AがステップS213で送信したコマンド列を受信する。さらに、ステップS214では、受信部211,221,231それぞれが、送受信部202Aから受信したコマンド列を、R-IC212,222,232にそれぞれ供給し、ステップS215に進む。   In step S214, the reception unit 211 of the DVD recorder unit 203, the reception unit 221 of the HDD recorder unit 204, and the reception unit 231 of the television receiver unit 205 receive the command sequence transmitted by the transmission / reception unit 202A in step S213. Furthermore, in step S214, each of the reception units 211, 211, and 231 supplies the command strings received from the transmission / reception unit 202A to the R-ICs 212, 222, and 232, respectively, and the process proceeds to step S215.

ステップS215では、R-IC212,222,232それぞれが、受信部211,221,231から供給されたコマンド列のうちの、例えば、自身に対するコマンドに応じて、その内部構造を切り換え、ステップS216に進む。   In step S215, each of the R-ICs 212, 222, and 232 switches the internal structure in accordance with, for example, a command for the command sequence supplied from the reception units 211, 211, and 231 and proceeds to step S216. .

即ち、いまの場合、DVDレコーダ部203のR-IC212は、図18のコマンド列のうちの先頭の歪み除去処理コマンドに応じて、歪み除去処理を行うように、その内部構造を切り換える。また、HDDレコーダ部204のR-IC221は、図18のコマンド列のうちの先頭から2番目の時間解像度創造処理コマンドに応じて、時間解像度創造処理を行うように、その内部構造を切り換える。さらに、テレビジョン受像機部205のR-IC231は、図18のコマンド列のうちの先頭から3番目の空間解像度創造処理コマンドに応じて、空間解像度創造処理を行うように、その内部構造を切り換える。   That is, in this case, the R-IC 212 of the DVD recorder unit 203 switches its internal structure so as to perform distortion removal processing in accordance with the first distortion removal processing command in the command sequence of FIG. Further, the R-IC 221 of the HDD recorder unit 204 switches its internal structure so as to perform the time resolution creation processing in accordance with the second time resolution creation processing command from the top of the command sequence of FIG. Further, the R-IC 231 of the television receiver unit 205 switches its internal structure so as to perform spatial resolution creation processing in accordance with the third spatial resolution creation processing command from the top of the command sequence of FIG. .

ステップS216では、R-IC212,222,232それぞれが、ステップS215で切り換えた内部構造によって行われるべき信号処理を行い、処理を終了する。   In step S216, each of the R-ICs 212, 222, and 232 performs signal processing that should be performed by the internal structure switched in step S215, and ends the processing.

即ち、いまの場合、DVDレコーダ部203において、再生部215が、DVD214から画像データを読み出し、MPEG復号して、R-IC212に供給する。R-IC212は、ステップS2161において、再生部215から供給される画像データ、即ち、MPEG符号化/復号によってブロック歪み等が生じている画像データに対して、歪み除去処理を施し、HDDレコーダ204部に出力する。 In other words, in this case, in the DVD recorder unit 203, the playback unit 215 reads out image data from the DVD 214, performs MPEG decoding, and supplies it to the R-IC 212. R-IC 212, in step S216 1, image data supplied from the reproducing unit 215, i.e., subjected to the image data block distortion or the like occurs, the distortion removal processing by the MPEG coding / decoding, HDD recorder 204 To the output.

HDDレコーダ部204では、DVDレコーダ部203のR-IC212からの画像データが、R-IC222に供給される。R-IC222は、ステップS2162において、R-IC212からの画像データに対して、時間解像度創造処理を施し、テレビジョン受像機部205に出力する。 In the HDD recorder unit 204, image data from the R-IC 212 of the DVD recorder unit 203 is supplied to the R-IC 222. R-IC 222, in step S216 2, the image data from the R-IC 212, subjected to temporal resolution creation processing, and outputs to the television receiver 205.

テレビジョン受像機部205では、HDDレコーダ部204のR-IC222からの画像データが、R-IC232に供給される。R-IC232は、ステップS2163において、R-IC222からの画像データに対して、空間解像度創造処理を施し、ディスプレイ233に供給する。 In the television receiver unit 205, image data from the R-IC 222 of the HDD recorder unit 204 is supplied to the R-IC 232. R-IC 232, in step S216 3, the image data from the R-IC 222, subjected to spatial resolution creation processing, and supplies the display 233.

従って、いまの場合、R-IC212は、歪み除去処理を行う装置(IC)として、R-IC222は、時間解像度創造処理を行う装置として、R-IC232は、空間解像度創造処理を行う装置として、それぞれ機能することになる。   Therefore, in this case, the R-IC 212 is a device (IC) that performs distortion removal processing, the R-IC 222 is a device that performs time resolution creation processing, and the R-IC 232 is a device that performs spatial resolution creation processing. Each will work.

以上のように、DVD214から再生された画像データを対象に、R-IC212で歪み除去処理が行われ、その処理結果を対象に、R-IC222で時間解像度創造処理が行われ、さらに、その処理結果を対象に、R-IC232で空間解像度創造処理が行われることにより、ディスプレイ233には、ブロック歪み等が除去(低減)され、時間解像度および空間解像度が高い画像が表示されることになる。   As described above, the distortion removal processing is performed by the R-IC 212 for the image data reproduced from the DVD 214, and the time resolution creation processing is performed by the R-IC 222 for the processing result. By performing the spatial resolution creation process with the R-IC 232 for the result, block distortion and the like are removed (reduced) on the display 233, and an image with high temporal resolution and spatial resolution is displayed.

ここで、DVD214に、例えば、映画の画像データが記録されているものとすると、映画を、テレビジョン方式の画像データに変換するときには、いわゆる2−3プルダウンが行われるため、DVD214に記録されている画像データは、その2−3プルダウンによって時間解像度が劣化したものとなっている。   Here, for example, assuming that image data of a movie is recorded on the DVD 214, so-called 2-3 pull-down is performed when converting a movie into image data of the television system. The image data is degraded in time resolution due to the 2-3 pulldown.

そこで、R-IC222において、上述のように、時間解像度創造処理を行うことにより、2−3プルダウンによって劣化した画像データの時間解像度を回復(時間解像度の劣化の程度を低減)することができる。   Therefore, the R-IC 222 can recover the time resolution of the image data degraded by 2-3 pulldown (reducing the degree of degradation of the time resolution) by performing the time resolution creation process as described above.

一方、制御部202Bは、ステップS211において、操作信号が、DVD214に記録された画像データの再生を指令するものでないと判定した場合、図19のステップS221に進み、操作信号が、外部からの画像データの、HD224への記録を指令するものであるかどうかを判定する。   On the other hand, if the control unit 202B determines in step S211 that the operation signal does not instruct the reproduction of the image data recorded on the DVD 214, the control unit 202B proceeds to step S221 in FIG. It is determined whether or not data is to be recorded on the HD 224.

ステップS221において、操作信号が、外部からの画像データの、HD224への記録を指令するものであると判定された場合、ステップS222に進み、制御部202Bは、その操作信号に応じたコマンド列を生成する。   If it is determined in step S221 that the operation signal is a command to record external image data to the HD 224, the process proceeds to step S222, and the control unit 202B displays a command sequence corresponding to the operation signal. Generate.

ここで、図20は、制御部202Bが、図19のステップS222で生成するコマンド列の例を示している。   Here, FIG. 20 shows an example of a command string generated by the control unit 202B in step S222 of FIG.

図20のコマンド列は、1つのノイズ除去処理コマンド、1つの空間解像度創造処理コマンド、および1つのNullコマンドから構成されている。   The command sequence in FIG. 20 includes one noise removal processing command, one spatial resolution creation processing command, and one Null command.

図20のコマンド列のうちの、先頭の歪み除去処理コマンドは、DVDレコーダ部203のR-IC212に対し、信号処理として、ノイズ除去処理を要求するものである。また、先頭から2番目の空間解像度創造処理コマンドは、HDDレコーダ部204のR-IC222に対し、信号処理として、空間解像度創造処理を要求するものである。さらに、先頭から3番目のNullコマンドは、テレビジョン受像機部205のR-IC232に対し、信号処理として、何もしないことを要求するものである。   The head distortion removal processing command in the command sequence in FIG. 20 requests the R-IC 212 of the DVD recorder unit 203 to perform noise removal processing as signal processing. The second spatial resolution creation processing command from the head requests the R-IC 222 of the HDD recorder unit 204 to perform spatial resolution creation processing as signal processing. Further, the third Null command from the head requests that the R-IC 232 of the television receiver unit 205 do nothing as signal processing.

図19に戻り、ステップS222において、制御部202Bは、コマンド列を生成すると、そのコマンド列を、送受信部202Aに供給し、ステップS223に進む。ステップS223では、送受信部202Aは、制御部202Bからのコマンド列を送信(放送)し、ステップS224に進む。   Returning to FIG. 19, when the control unit 202B generates a command sequence in step S222, the control unit 202B supplies the command sequence to the transmission / reception unit 202A, and proceeds to step S223. In step S223, the transmission / reception unit 202A transmits (broadcasts) the command string from the control unit 202B, and the process proceeds to step S224.

ステップS224では、DVDレコーダ部203の受信部211、HDDレコーダ部204の受信部221、およびテレビジョン受像機部205の受信部231が、送受信部202AがステップS223で送信したコマンド列を受信する。さらに、ステップS224では、受信部211,221,231それぞれが、送受信部202Aから受信したコマンド列を、R-IC212,222,232にそれぞれ供給し、ステップS225に進む。   In step S224, the reception unit 211 of the DVD recorder unit 203, the reception unit 221 of the HDD recorder unit 204, and the reception unit 231 of the television receiver unit 205 receive the command sequence transmitted by the transmission / reception unit 202A in step S223. Further, in step S224, each of the reception units 211, 211, and 231 supplies the command strings received from the transmission / reception unit 202A to the R-ICs 212, 222, and 232, respectively, and the process proceeds to step S225.

ステップS225では、R-IC212,222,232それぞれが、受信部211,221,231から供給されたコマンド列のうちの、例えば、自身に対するコマンドに応じて、その内部構造を切り換え、ステップS226に進む。   In step S225, each of the R-ICs 212, 222, 232 switches its internal structure in accordance with, for example, a command for itself in the command sequence supplied from the receiving units 211, 211, 231 and proceeds to step S226. .

即ち、いまの場合、DVDレコーダ部203のR-IC212は、図20のコマンド列のうちの先頭のノイズ除去処理コマンドに応じて、ノイズ除去処理を行うように、その内部構造を切り換える。また、HDDレコーダ部204のR-IC221は、図20のコマンド列のうちの先頭から2番目の空間解像度創造処理コマンドに応じて、空間解像度創造処理を行うように、その内部構造を切り換える。さらに、テレビジョン受像機部205のR-IC231は、図20のコマンド列のうちの先頭から3番目のNullコマンドに応じて、信号処理を行わないように、その内部構造を切り換える。   That is, in this case, the R-IC 212 of the DVD recorder unit 203 switches its internal structure so as to perform noise removal processing according to the head noise removal processing command in the command sequence of FIG. Further, the R-IC 221 of the HDD recorder unit 204 switches its internal structure so as to perform the spatial resolution creation processing in accordance with the second spatial resolution creation processing command from the top of the command sequence of FIG. Furthermore, the R-IC 231 of the television receiver unit 205 switches its internal structure so as not to perform signal processing in response to the third Null command from the top in the command sequence of FIG.

ステップS226では、R-IC212,222,232それぞれが、ステップS225で切り換えた内部構造によって行われるべき信号処理を行い、処理を終了する。   In step S226, each of the R-ICs 212, 222, and 232 performs signal processing to be performed by the internal structure switched in step S225, and ends the processing.

即ち、いまの場合、DVDレコーダ部203では、R-IC212は、DVDレコーダ部203の外部から入力される画像データに対して、ノイズ除去処理を施し、HDDレコーダ204に出力する。   That is, in this case, in the DVD recorder unit 203, the R-IC 212 performs noise removal processing on the image data input from the outside of the DVD recorder unit 203 and outputs it to the HDD recorder 204.

HDDレコーダ部204では、DVDレコーダ部203のR-IC212からの画像データが、R-IC222に供給される。R-IC222は、R-IC212からの画像データに対して、空間解像度創造処理を施し、記録部223に供給する。記録部223は、R-IC222からの画像データをMPEG符号化等し、HD224に記録する。即ち、HD224には、外部から入力される画像データに対して、R-IC212がノイズ除去処理を施し、さらに、その後、R-IC222が空間解像度創造処理を施すことによって得られる画像データが記録される。   In the HDD recorder unit 204, image data from the R-IC 212 of the DVD recorder unit 203 is supplied to the R-IC 222. The R-IC 222 performs spatial resolution creation processing on the image data from the R-IC 212 and supplies the image data to the recording unit 223. The recording unit 223 performs MPEG encoding on the image data from the R-IC 222 and records it in the HD 224. That is, the HD 224 records image data obtained by the R-IC 212 performing noise removal processing on the image data input from the outside, and then the R-IC 222 performing spatial resolution creation processing thereafter. The

従って、この場合、R-IC212は、歪み除去処理を行う装置として、R-IC222は、空間解像度創造処理を行う装置として、それぞれ機能することになる。   Therefore, in this case, the R-IC 212 functions as a device that performs distortion removal processing, and the R-IC 222 functions as a device that performs spatial resolution creation processing.

一方、制御部202Bは、ステップS221において、操作信号が、外部からの画像データの、HD224への記録を指令するものでないと判定した場合、図21のステップS231に進み、操作信号が、HD224に記録された画像データの再生を指令するものであるかどうかを判定する。   On the other hand, if the control unit 202B determines in step S221 that the operation signal does not command recording of image data from the outside to the HD 224, the control unit 202B proceeds to step S231 in FIG. It is determined whether or not it is an instruction to reproduce the recorded image data.

ステップS231において、操作信号が、HD224に記録された画像データの再生を指令するものであると判定された場合、ステップS232に進み、制御部202Bは、その操作信号に応じたコマンド列を生成する。   If it is determined in step S231 that the operation signal is an instruction to reproduce the image data recorded in the HD 224, the process proceeds to step S232, and the control unit 202B generates a command sequence corresponding to the operation signal. .

ここで、図22は、制御部202Bが、図21のステップS232で生成するコマンド列の例を示している。   Here, FIG. 22 shows an example of a command string generated by the control unit 202B in step S232 of FIG.

図22のコマンド列は、1つのNullコマンド、1つの歪み除去処理コマンド、および1つの空間解像度創造処理コマンドから構成されている。   The command sequence in FIG. 22 is composed of one Null command, one distortion removal processing command, and one spatial resolution creation processing command.

図22のコマンド列のうちの、先頭のNullコマンドは、DVDレコーダ部203のR-IC212に対し、信号処理として、何もしないことを要求するものである。また、先頭から2番目の歪み除去処理コマンドは、HDDレコーダ部204のR-IC222に対し、信号処理として、歪み除去処理を要求するものである。さらに、先頭から3番目の空間解像度創造処理コマンドは、テレビジョン受像機部205のR-IC232に対し、信号処理として、空間解像度創造処理を要求するものである。   The leading Null command in the command sequence in FIG. 22 requests the R-IC 212 of the DVD recorder unit 203 to do nothing as signal processing. Further, the second distortion removal processing command from the head requests the R-IC 222 of the HDD recorder unit 204 to perform distortion removal processing as signal processing. Further, the third spatial resolution creation processing command from the top requests the R-IC 232 of the television receiver unit 205 to perform spatial resolution creation processing as signal processing.

図21に戻り、ステップS232において、制御部202Bは、コマンド列を生成すると、そのコマンド列を、送受信部202Aに供給し、ステップS233に進む。ステップS233では、送受信部202Aは、制御部202Bからのコマンド列を送信(放送)し、ステップS234に進む。   Returning to FIG. 21, when the control unit 202B generates a command string in step S232, the control unit 202B supplies the command string to the transmission / reception unit 202A, and the process proceeds to step S233. In step S233, the transmission / reception unit 202A transmits (broadcasts) the command string from the control unit 202B, and the process proceeds to step S234.

ステップS234では、DVDレコーダ部203の受信部211、HDDレコーダ部204の受信部221、およびテレビジョン受像機部205の受信部231が、送受信部202AがステップS233で送信したコマンド列を受信する。さらに、ステップS234では、受信部211,221,231それぞれが、送受信部202Aから受信したコマンド列を、R-IC212,222,232にそれぞれ供給し、ステップS235に進む。   In step S234, the reception unit 211 of the DVD recorder unit 203, the reception unit 221 of the HDD recorder unit 204, and the reception unit 231 of the television receiver unit 205 receive the command sequence transmitted by the transmission / reception unit 202A in step S233. Furthermore, in step S234, each of the reception units 211, 211, and 231 supplies the command strings received from the transmission / reception unit 202A to the R-ICs 212, 222, and 232, respectively, and the process proceeds to step S235.

ステップS235では、R-IC212,222,232それぞれが、受信部211,221,231から供給されたコマンド列のうちの、例えば、自身に対するコマンドに応じて、その内部構造を切り換え、ステップS236に進む。   In step S235, each of the R-ICs 212, 222, and 232 switches its internal structure in accordance with, for example, a command for itself among the command sequences supplied from the reception units 211, 211, and 231 and proceeds to step S236. .

即ち、いまの場合、DVDレコーダ部203のR-IC212は、図22のコマンド列のうちの先頭のNullコマンドに応じて、信号処理を行わないように、その内部構造を切り換える。また、HDDレコーダ部204のR-IC221は、図22のコマンド列のうちの先頭から2番目の歪み除去処理コマンドに応じて、歪み除去処理を行うように、その内部構造を切り換える。さらに、テレビジョン受像機部205のR-IC231は、図22のコマンド列のうちの先頭から3番目の空間解像度創造処理コマンドに応じて、空間解像度創造処理を行うように、その内部構造を切り換える。   That is, in this case, the R-IC 212 of the DVD recorder unit 203 switches its internal structure so as not to perform signal processing in response to the first Null command in the command sequence of FIG. Further, the R-IC 221 of the HDD recorder unit 204 switches its internal structure so as to perform the distortion removal processing in accordance with the second distortion removal processing command from the top in the command sequence of FIG. Furthermore, the R-IC 231 of the television receiver unit 205 switches its internal structure so as to perform spatial resolution creation processing in accordance with the third spatial resolution creation processing command from the top of the command sequence of FIG. .

ステップS236では、R-IC212,222,232それぞれが、ステップS235で切り換えた内部構造によって行われるべき信号処理を行い、処理を終了する。   In step S236, each of the R-ICs 212, 222, and 232 performs signal processing to be performed by the internal structure switched in step S235, and ends the processing.

即ち、いまの場合、HDDレコーダ部204において、再生部225が、HD224から画像データを読み出し、MPEG復号して、R-IC222に供給する。R-IC222は、再生部225から供給される画像データ、即ち、MPEG符号化/復号によってブロック歪み等が生じている画像データに対して、歪み除去処理を施し、テレビジョン受像機部205に出力する。   That is, in this case, in the HDD recorder unit 204, the playback unit 225 reads out image data from the HD 224, performs MPEG decoding, and supplies the image data to the R-IC 222. The R-IC 222 performs distortion removal processing on the image data supplied from the reproduction unit 225, that is, image data in which block distortion or the like is generated by MPEG encoding / decoding, and outputs the processed image data to the television receiver unit 205. To do.

テレビジョン受像機部205では、HDDレコーダ部204のR-IC222からの画像データが、R-IC232に供給される。R-IC232は、R-IC222からの画像データに対して、空間解像度創造処理を施し、ディスプレイ233に供給する。   In the television receiver unit 205, image data from the R-IC 222 of the HDD recorder unit 204 is supplied to the R-IC 232. The R-IC 232 performs spatial resolution creation processing on the image data from the R-IC 222 and supplies the image data to the display 233.

従って、いまの場合、R-IC222は、歪み除去処理を行う装置として、R-IC232は、空間解像度創造処理を行う装置として、それぞれ機能することになる。   Therefore, in this case, the R-IC 222 functions as a device that performs distortion removal processing, and the R-IC 232 functions as a device that performs spatial resolution creation processing.

以上のように、HD224から再生された画像データを対象に、R-IC222で歪み除去処理が行われ、その処理結果を対象に、R-IC232で空間解像度創造処理が行われることにより、ディスプレイ233には、ブロック歪み等が除去(低減)され、空間解像度が高い画像が表示されることになる。   As described above, the distortion removal processing is performed by the R-IC 222 for the image data reproduced from the HD 224, and the spatial resolution creation processing is performed by the R-IC 232 for the processing result. In this case, the block distortion and the like are removed (reduced), and an image with a high spatial resolution is displayed.

一方、制御部202Bは、ステップS231において、操作信号が、HDD224に記録された画像データの再生を指令するものでないと判定した場合、図23のステップS241に進み、操作信号が、外部からの画像データの拡大(ズーム)表示を指令するものであるかどうかを判定する。   On the other hand, when the control unit 202B determines in step S231 that the operation signal does not instruct reproduction of the image data recorded in the HDD 224, the control unit 202B proceeds to step S241 in FIG. It is determined whether or not it is a command for enlarging (zooming) data.

ステップS241において、操作信号が、外部からの画像データの拡大表示を指令するものであると判定された場合、ステップS242に進み、制御部202Bは、その操作信号に応じたコマンド列を生成する。   If it is determined in step S241 that the operation signal is an instruction to enlarge the image data from the outside, the process proceeds to step S242, and the control unit 202B generates a command string corresponding to the operation signal.

ここで、図24は、制御部202Bが、図23のステップS242で生成するコマンド列の例を示している。   Here, FIG. 24 shows an example of a command string generated by the control unit 202B in step S242 of FIG.

図24のコマンド列は、3つの空間解像度創造処理コマンドから構成されている。   The command sequence in FIG. 24 is composed of three spatial resolution creation processing commands.

図24のコマンド列のうちの、先頭、2番目、3番目の空間解像度創造処理コマンドは、DVDレコーダ部203のR-IC212、HDDレコーダ部204のR-IC222、テレビジョン受像機部205のR-IC232に対し、それぞれ、信号処理として、空間解像度創造処理を要求するものである。   24, the first, second and third spatial resolution creation processing commands are the R-IC 212 of the DVD recorder unit 203, the R-IC 222 of the HDD recorder unit 204, and the R of the television receiver unit 205. -The IC 232 requests spatial resolution creation processing as signal processing.

図23に戻り、ステップS242において、制御部202Bは、コマンド列を生成すると、そのコマンド列を、送受信部202Aに供給し、ステップS243に進む。ステップS243では、送受信部202Aは、制御部202Bからのコマンド列を送信(放送)し、ステップS244に進む。   Returning to FIG. 23, when the control unit 202B generates a command sequence in step S242, the control unit 202B supplies the command sequence to the transmission / reception unit 202A, and proceeds to step S243. In step S243, the transmission / reception unit 202A transmits (broadcasts) the command string from the control unit 202B, and the process proceeds to step S244.

ステップS244では、DVDレコーダ部203の受信部211、HDDレコーダ部204の受信部221、およびテレビジョン受像機部205の受信部231が、送受信部202AがステップS243で送信したコマンド列を受信する。さらに、ステップS244では、受信部211,221,231それぞれが、送受信部202Aから受信したコマンド列を、R-IC212,222,232にそれぞれ供給し、ステップS245に進む。   In step S244, the reception unit 211 of the DVD recorder unit 203, the reception unit 221 of the HDD recorder unit 204, and the reception unit 231 of the television receiver unit 205 receive the command sequence transmitted by the transmission / reception unit 202A in step S243. Further, in step S244, each of the reception units 211, 211, and 231 supplies the command strings received from the transmission / reception unit 202A to the R-ICs 212, 222, and 232, respectively, and the process proceeds to step S245.

ステップS245では、R-IC212,222,232それぞれが、受信部211,221,231から供給されたコマンド列のうちの、例えば、自身に対するコマンドに応じて、その内部構造を切り換え、ステップS246に進む。   In step S245, each of the R-ICs 212, 222, and 232 switches its internal structure in accordance with, for example, a command for itself in the command sequence supplied from the receiving units 211, 211, and 231 and proceeds to step S246. .

即ち、いまの場合、DVDレコーダ部203のR-IC212は、図24のコマンド列のうちの先頭の空間解像度創造処理コマンドに応じて、空間解像度創造処理を行うように、その内部構造を切り換える。同様に、HDDレコーダ部204のR-IC221とテレビジョン受像機部205のR-IC231も、図24のコマンド列のうちの先頭から2番目と3番目の空間解像度創造処理コマンドにそれぞれ応じて、空間解像度創造処理を行うように、それぞれの内部構造を切り換える。   That is, in this case, the R-IC 212 of the DVD recorder unit 203 switches its internal structure so as to perform spatial resolution creation processing in accordance with the top spatial resolution creation processing command in the command sequence of FIG. Similarly, the R-IC 221 of the HDD recorder unit 204 and the R-IC 231 of the television receiver unit 205 also correspond to the second and third spatial resolution creation processing commands from the top in the command sequence of FIG. Each internal structure is switched to perform the spatial resolution creation process.

ステップS246では、R-IC212,222,232それぞれが、ステップS245で切り換えた内部構造によって行われるべき信号処理を行い、処理を終了する。   In step S246, each of the R-ICs 212, 222, and 232 performs signal processing that should be performed by the internal structure switched in step S245, and ends the processing.

即ち、いまの場合、DVDレコーダ部203では、R-IC212は、DVDレコーダ部203の外部から入力される画像データに対して、空間解像度創造処理を施し、HDDレコーダ204に出力する。   That is, in this case, in the DVD recorder unit 203, the R-IC 212 performs spatial resolution creation processing on the image data input from the outside of the DVD recorder unit 203 and outputs the image data to the HDD recorder 204.

HDDレコーダ204では、DVDレコーダ部203のR-IC212からの画像データが、R-IC222に供給される。R-IC222は、R-IC212からの画像データに対して、空間解像度創造処理を施し、テレビジョン受像機部205に出力する。   In the HDD recorder 204, image data from the R-IC 212 of the DVD recorder unit 203 is supplied to the R-IC 222. The R-IC 222 performs spatial resolution creation processing on the image data from the R-IC 212 and outputs the processed image data to the television receiver unit 205.

テレビジョン受像機部205では、HDDレコーダ部204のR-IC222からの画像データが、R-IC232に供給される。R-IC232は、R-IC222からの画像データに対して、空間解像度創造処理を施し、ディスプレイ233に供給する。   In the television receiver unit 205, image data from the R-IC 222 of the HDD recorder unit 204 is supplied to the R-IC 232. The R-IC 232 performs spatial resolution creation processing on the image data from the R-IC 222 and supplies the image data to the display 233.

従って、いまの場合、R-IC212,222,232は、いずれも、空間解像度創造処理を行う装置として機能することになる。   Therefore, in this case, each of the R-ICs 212, 222, and 232 functions as a device that performs a spatial resolution creation process.

いま、R-IC212,222,232それぞれで行われる空間解像度創造処理としての画像変換処理が、第1の画像データを、その第1の画像データよりも画素数が多い第2の画像データに変換するものでもあるとすると、即ち、R-IC212,222,232それぞれで行われる空間解像度創造処理がリサイズ処理でもあるとすると、R-IC212では、外部からの画像データを対象に、リサイズ処理でもある空間解像度創造処理が行われる。そして、R-IC222では、その空間解像度創造処理の結果を対象に、やはり、リサイズ処理でもある空間解像度創造処理が行われ、さらに、R-IC232でも、その空間解像度創造処理の結果を対象に、やはり、リサイズ処理でもある空間解像度創造処理が行われる。   Now, the image conversion process as the spatial resolution creation process performed in each of the R-ICs 212, 222, and 232 converts the first image data into the second image data having a larger number of pixels than the first image data. In other words, if the spatial resolution creation processing performed in each of the R-ICs 212, 222, and 232 is also resizing processing, the R-IC 212 is also resizing processing for image data from the outside. Spatial resolution creation processing is performed. The R-IC 222 performs the spatial resolution creation process, which is also the resizing process, for the result of the spatial resolution creation process. Further, the R-IC 232 targets the result of the spatial resolution creation process. The spatial resolution creation process, which is also the resizing process, is performed.

これにより、ディスプレイ233には、外部からの画像データが拡大された画像が表示されることになる。   As a result, an image obtained by enlarging image data from the outside is displayed on the display 233.

一方、制御部202Bは、ステップS241において、操作信号が、外部からの画像データの拡大表示を指令するものでないと判定した場合、図25のステップS251に進み、操作信号が、外部からの画像データのスローモーションでの表示を指令するものであるかどうかを判定する。   On the other hand, when the control unit 202B determines in step S241 that the operation signal does not instruct the enlargement display of the image data from the outside, the control unit 202B proceeds to step S251 in FIG. It is determined whether or not it is a command to display in slow motion.

ステップS251において、操作信号が、外部からの画像データのスローモーションでの表示を指令するものであると判定された場合、ステップS252に進み、制御部202Bは、その操作信号に応じたコマンド列を生成する。   If it is determined in step S251 that the operation signal is for instructing to display image data from the outside in slow motion, the process proceeds to step S252, and the control unit 202B displays a command sequence corresponding to the operation signal. Generate.

ここで、図26は、制御部202Bが、図25のステップS252で生成するコマンド列の例を示している。   Here, FIG. 26 shows an example of a command string generated by the control unit 202B in step S252 of FIG.

図26のコマンド列は、3つの時間解像度創造処理コマンドから構成されている。   The command sequence in FIG. 26 is composed of three time resolution creation processing commands.

図26のコマンド列のうちの、先頭、2番目、3番目の時間解像度創造処理コマンドは、DVDレコーダ部203のR-IC212、HDDレコーダ部204のR-IC222、テレビジョン受像機部205のR-IC232に対し、それぞれ、信号処理として、時間解像度創造処理を要求するものである。   26, the first, second and third temporal resolution creation processing commands are the R-IC 212 of the DVD recorder unit 203, the R-IC 222 of the HDD recorder unit 204, and the R of the television receiver unit 205. The IC 232 requests time resolution creation processing as signal processing.

図25に戻り、ステップS252において、制御部202Bは、コマンド列を生成すると、そのコマンド列を、送受信部202Aに供給し、ステップS253に進む。ステップS253では、送受信部202Aは、制御部202Bからのコマンド列を送信(放送)し、ステップS254に進む。   Returning to FIG. 25, when the control unit 202B generates a command sequence in step S252, the command sequence is supplied to the transmission / reception unit 202A, and the process proceeds to step S253. In step S253, the transmission / reception unit 202A transmits (broadcasts) the command string from the control unit 202B, and the process proceeds to step S254.

ステップS254では、DVDレコーダ部203の受信部211、HDDレコーダ部204の受信部221、およびテレビジョン受像機部205の受信部231が、送受信部202AがステップS253で送信したコマンド列を受信する。さらに、ステップS254では、受信部211,221,231それぞれが、送受信部202Aから受信したコマンド列を、R-IC212,222,232にそれぞれ供給し、ステップS255に進む。   In step S254, the reception unit 211 of the DVD recorder unit 203, the reception unit 221 of the HDD recorder unit 204, and the reception unit 231 of the television receiver unit 205 receive the command sequence transmitted by the transmission / reception unit 202A in step S253. Further, in step S254, each of the reception units 211, 221, and 231 supplies the command strings received from the transmission / reception unit 202A to the R-ICs 212, 222, and 232, respectively, and the process proceeds to step S255.

ステップS255では、R-IC212,222,232それぞれが、受信部211,221,231から供給されたコマンド列のうちの、例えば、自身に対するコマンドに応じて、その内部構造を切り換え、ステップS256に進む。   In step S255, each of the R-ICs 212, 222, and 232 switches its internal structure in accordance with, for example, a command for itself in the command sequence supplied from the receiving units 211, 221, and 231 and the process proceeds to step S256. .

即ち、いまの場合、DVDレコーダ部203のR-IC212は、図26のコマンド列のうちの先頭の時間解像度創造処理コマンドに応じて、時間解像度創造処理を行うように、その内部構造を切り換える。同様に、HDDレコーダ部204のR-IC221とテレビジョン受像機部205のR-IC231も、図26のコマンド列のうちの先頭から2番目と3番目の時間解像度創造処理コマンドにそれぞれ応じて、時間解像度創造処理を行うように、それぞれの内部構造を切り換える。   That is, in this case, the R-IC 212 of the DVD recorder unit 203 switches its internal structure so as to perform the time resolution creation process in accordance with the head time resolution creation process command in the command sequence of FIG. Similarly, the R-IC 221 of the HDD recorder unit 204 and the R-IC 231 of the television receiver unit 205 also correspond to the second and third temporal resolution creation processing commands from the top in the command sequence of FIG. Each internal structure is switched to perform the time resolution creation process.

ステップS256では、R-IC212,222,232それぞれが、ステップS255で切り換えた内部構造によって行われるべき信号処理を行い、処理を終了する。   In step S256, each of the R-ICs 212, 222, and 232 performs signal processing to be performed by the internal structure switched in step S255, and ends the processing.

即ち、いまの場合、DVDレコーダ部203では、R-IC212は、DVDレコーダ部203の外部から入力される画像データに対して、時間解像度創造処理を施し、HDDレコーダ204に出力する。   That is, in this case, in the DVD recorder unit 203, the R-IC 212 performs time resolution creation processing on the image data input from the outside of the DVD recorder unit 203 and outputs it to the HDD recorder 204.

HDDレコーダ204では、DVDレコーダ部203のR-IC212からの画像データが、R-IC222に供給される。R-IC222は、R-IC212からの画像データに対して、時間解像度創造処理を施し、テレビジョン受像機部205に出力する。   In the HDD recorder 204, image data from the R-IC 212 of the DVD recorder unit 203 is supplied to the R-IC 222. The R-IC 222 performs time resolution creation processing on the image data from the R-IC 212 and outputs the image data to the television receiver unit 205.

テレビジョン受像機部205では、HDDレコーダ部204のR-IC222からの画像データが、R-IC232に供給される。R-IC232は、R-IC222からの画像データに対して、時間解像度創造処理を施し、ディスプレイ233に供給する。   In the television receiver unit 205, image data from the R-IC 222 of the HDD recorder unit 204 is supplied to the R-IC 232. The R-IC 232 performs time resolution creation processing on the image data from the R-IC 222 and supplies it to the display 233.

従って、いまの場合、R-IC212,222,232は、いずれも、時間解像度創造処理を行う装置として機能することになる。   Therefore, in this case, each of the R-ICs 212, 222, and 232 functions as a device that performs time resolution creation processing.

いま、R-IC212,222,232それぞれで行われる時間解像度創造処理としての画像変換処理が、第1の画像データを、その第1の画像データよりもフレーム(またはフィールド)数が多い第2の画像データに変換するものでもあるとすると、R-IC212では、外部からの画像データを対象に、時間解像度創造処理が行われ、フレーム数が増加した画像データが得られる。そして、R-IC222では、R-IC212で得られたフレーム数が増加した画像データを対象に、やはり、時間解像度創造処理が行われ、フレーム数がさらに増加した画像データが得られる。その後、R-IC232でも、R-IC222で得られたフレーム数が増加した画像データを対象に、時間解像度創造処理が行われ、フレーム数がより増加した画像データが得られる。   Now, the image conversion process as the time resolution creation process performed by each of the R-ICs 212, 222, and 232 is the second image having the number of frames (or fields) larger than that of the first image data. Assuming that the image data is also converted, the R-IC 212 performs time resolution creation processing on image data from the outside, and obtains image data with an increased number of frames. Then, the R-IC 222 performs the time resolution creation process on the image data obtained by the R-IC 212 with the increased number of frames, and obtains image data with the number of frames further increased. Thereafter, the R-IC 232 also performs time resolution creation processing on the image data with the increased number of frames obtained by the R-IC 222 to obtain image data with an increased number of frames.

このように、フレーム数が増加した画像データがディスプレイ233に供給され、外部からの画像データを表示するときと同一のフレーム(フィールド)レートで表示されることにより、ディスプレイ233では、画像がスローモーションで表示されることになる。   As described above, the image data with the increased number of frames is supplied to the display 233 and displayed at the same frame (field) rate as when the image data from the outside is displayed. Will be displayed.

なお、図15、図17、図19、図21、図23、および図25のフローチャートで説明した各ステップの処理は、ハードウェアであるR-IC212,222、および232などにより行われる処理である。但し、図15のステップS201乃至S203の処理、図17のステップS211乃至S213の処理、図19のステップS221乃至S223の処理、図21のステップS231乃至S233の処理、図23のステップS241乃至S243の処理、および図25のステップS251乃至S253の処理は、マイクロコンピュータ等のコンピュータに、プログラムを実行させることで行うことも可能である。   Note that the processing of each step described in the flowcharts of FIGS. 15, 17, 19, 21, 23, and 25 is processing performed by the R-ICs 212, 222, and 232, which are hardware. . However, the processing in steps S201 through S203 in FIG. 15, the processing in steps S211 through S213 in FIG. 17, the processing in steps S221 through S223 in FIG. 19, the processing in steps S231 through S233 in FIG. 21, and the processing in steps S241 through S243 in FIG. The processing and the processing of steps S251 to S253 in FIG. 25 can also be performed by causing a computer such as a microcomputer to execute a program.

次に、図27は、図14のR-IC212の構成例を示している。なお、他のR-IC222および232も同様に構成される。   Next, FIG. 27 shows a configuration example of the R-IC 212 of FIG. The other R-ICs 222 and 232 are configured similarly.

R-IC212は、受信部211(図14)から供給されるコマンド列を構成するコマンドに応じて、その内部構造を切り換え、上述したクラス分類適応処理を利用した各種の信号処理を行う。   The R-IC 212 switches its internal structure in accordance with commands constituting the command sequence supplied from the receiving unit 211 (FIG. 14), and performs various signal processing using the above-described class classification adaptive processing.

即ち、R-IC212は、注目画素選択部251、タップ選択部252,253、クラス分類部254、係数出力部255、および予測演算部256で構成されている。これらの注目画素選択部251、タップ選択部252,253、クラス分類部254、係数出力部255、予測演算部256は、図1の注目画素選択部11、タップ選択部12,13、クラス分類部14、係数出力部15、予測演算部16にそれぞれ対応するものである。   That is, the R-IC 212 includes a target pixel selection unit 251, tap selection units 252 and 253, a class classification unit 254, a coefficient output unit 255, and a prediction calculation unit 256. These pixel-of-interest selection unit 251, tap selection units 252, 253, class classification unit 254, coefficient output unit 255, and prediction calculation unit 256 are the pixel-of-interest selection unit 11, tap selection units 12, 13, class classification unit of FIG. 14, the coefficient output unit 15, and the prediction calculation unit 16.

従って、R-IC212では、そこに供給される第1の画像データが、第2の画像データに変換されて出力される。   Therefore, the R-IC 212 converts the first image data supplied thereto into the second image data and outputs the second image data.

なお、係数出力部255には、受信部211(図14)で受信されたコマンド列のうちの、R-IC212(DVDレコーダ部203)に対するコマンドが供給されるようになっている。   The coefficient output unit 255 is supplied with commands for the R-IC 212 (DVD recorder unit 203) in the command sequence received by the receiving unit 211 (FIG. 14).

図28は、図27の係数出力部255の構成例を示している。   FIG. 28 shows a configuration example of the coefficient output unit 255 of FIG.

図28では、係数出力部255は、係数メモリ2611,2612,2613、および2614、並びに選択部262で構成されている。 In FIG. 28, the coefficient output unit 255 includes coefficient memories 261 1 , 261 2 , 261 3 , and 261 4 , and a selection unit 262.

係数メモリ2611,2612,2613、2614には、あらかじめ行われた学習により求められたノイズ除去処理用のタップ係数、歪み除去処理用のタップ係数、時間解像度創造処理用のタップ係数、空間解像度創造処理用のタップ係数が、それぞれ記憶されている。 In the coefficient memories 261 1 , 261 2 , 261 3 , and 261 4 , tap coefficients for noise removal processing, tap coefficients for distortion removal processing, tap coefficients for time resolution creation processing, which are obtained by learning performed in advance, Tap coefficients for spatial resolution creation processing are stored.

そして、係数メモリ2611乃至2614には、図27のクラス分類部254が出力するクラス(クラスコード)が供給される。係数メモリ2611乃至2614それぞれは、クラス分類部254からのクラスのタップ係数を読み出し、選択部262に出力する。 The coefficient memories 261 1 to 261 4 are supplied with classes (class codes) output from the class classification unit 254 in FIG. Each of the coefficient memories 261 1 to 261 4 reads out the tap coefficient of the class from the class classification unit 254 and outputs it to the selection unit 262.

選択部262には、上述したように、係数メモリ2611乃至2614それぞれから読み出されたタップ係数が供給される他、受信部211(図14)で受信されたコマンド列のうちの、R-IC212に対するコマンドが供給される。選択部262は、受信部211から供給されるコマンドに応じて、係数メモリ2611乃至2614のうちのいずれかの出力端を選択し、その選択した出力端を、予測演算部256(図27)の入力端に接続することで、R-IC212の内部構造を切り換える。 As described above, the selection unit 262 is supplied with the tap coefficient read from each of the coefficient memories 261 1 to 261 4 , and R of the command sequence received by the reception unit 211 (FIG. 14). -A command for IC 212 is supplied. The selection unit 262 selects any one of the output ends of the coefficient memories 261 1 to 261 4 according to the command supplied from the reception unit 211, and the selected output end is used as the prediction calculation unit 256 (FIG. 27). ), The internal structure of the R-IC 212 is switched.

ここで、選択部262が、係数メモリ2611乃至2614のうちの、例えば、係数メモリ2611の出力端を選択し、その選択した出力端を、予測演算部256の入力端に接続した場合、予測演算部256には、係数メモリ2611から読み出されるノイズ除去処理用のタップ係数が供給されることとなり、その結果、R-IC212は、ノイズ除去処理を行う装置として機能することになる。 Here, when the selection unit 262 selects, for example, the output end of the coefficient memory 261 1 among the coefficient memories 261 1 to 261 4 , and connects the selected output end to the input end of the prediction calculation unit 256 , the prediction computation unit 256, it is possible to tap coefficients for noise removal processing which is read out from the coefficient memory 261 1 is supplied, as a result, R-IC 212 will serve as a device for performing a noise removal process.

同様に、選択部262が、係数メモリ2611乃至2614のうちの、係数メモリ2612,2613,2614の出力端を選択し、その選択した出力端を、予測演算部256の入力端に接続した場合、予測演算部256には、係数メモリ2612,2613,2614から読み出される歪み除去処理用のタップ係数、時間解像度創造処理用のタップ係数、空間解像度創造処理用のタップ係数が、それぞれ供給される。その結果、選択部262が、係数メモリ2611乃至2614のうちの、係数メモリ2612,2613,2614の出力端を選択した場合には、R-IC212は、歪み除去処理を行う装置、時間解像度創造処理を行う装置、空間解像度創造処理を行う装置として、それぞれ機能することになる。 Similarly, the selection unit 262 selects the output ends of the coefficient memories 261 2 , 261 3 , and 261 4 among the coefficient memories 261 1 to 261 4 , and uses the selected output ends as the input ends of the prediction calculation unit 256. , The prediction calculation unit 256 has a distortion removal tap coefficient read from the coefficient memory 261 2 , 261 3 , 261 4 , a temporal resolution creation process tap coefficient, and a spatial resolution creation process tap coefficient. Are supplied respectively. As a result, when the selection unit 262 selects the output terminals of the coefficient memories 261 2 , 261 3 , and 261 4 among the coefficient memories 261 1 to 261 4 , the R-IC 212 performs a distortion removal process. It functions as a device for performing time resolution creation processing and a device for performing spatial resolution creation processing.

次に、図29のフローチャートを参照して、図27のR-IC212の処理について説明する。   Next, the processing of the R-IC 212 of FIG. 27 will be described with reference to the flowchart of FIG.

図14の受信部211からR-IC212に、R-IC212に対するコマンドが供給されると、R-IC212は、ステップS261において、そのコマンドに応じて、内部構造を切り換える。   When a command for the R-IC 212 is supplied from the reception unit 211 in FIG. 14 to the R-IC 212, the R-IC 212 switches the internal structure in accordance with the command in step S261.

即ち、受信部211からのコマンドは、係数出力部255に供給される。係数出力部255(図28)では、選択部262が、受信部211からのコマンドに応じて、係数メモリ2611乃至2614のうちの、受信部211からのコマンドに対応する信号処理用のタップ係数が記憶されているものの出力端を選択し、その選択した出力端を、予測演算部256(図27)の入力端に接続することで、R-IC212の内部構造を切り換える。 That is, the command from the receiving unit 211 is supplied to the coefficient output unit 255. In the coefficient output unit 255 (FIG. 28), the selection unit 262 performs a signal processing tap corresponding to the command from the reception unit 211 in the coefficient memories 261 1 to 261 4 in accordance with the command from the reception unit 211. The output end of the coefficient stored is selected, and the selected output end is connected to the input end of the prediction calculation unit 256 (FIG. 27), thereby switching the internal structure of the R-IC 212.

その後、ステップS262に進み、以下、ステップS262乃至S267において、図2のステップS11乃至S16における場合とそれぞれ同様の処理が行われる。   Thereafter, the process proceeds to step S262, and thereafter, in steps S262 to S267, the same processing as in steps S11 to S16 of FIG. 2 is performed.

即ち、ステップS262において、注目画素選択部251は、R-IC212に入力される第1の画像データに対する第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択し、ステップS263に進む。   That is, in step S262, the pixel-of-interest selecting unit 251 selects one of the pixels constituting the second image data corresponding to the first image data input to the R-IC 212 that has not yet been set as the pixel of interest. Then, the pixel of interest is selected and the process proceeds to step S263.

ステップS263において、タップ選択部252と253が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部252から予測演算部256に供給され、クラスタップは、タップ選択部253からクラス分類部254に供給される。   In step S263, the tap selection units 252 and 253 respectively select the prediction tap and the class tap for the target pixel from the first image data supplied thereto. The prediction tap is supplied from the tap selection unit 252 to the prediction calculation unit 256, and the class tap is supplied from the tap selection unit 253 to the class classification unit 254.

クラス分類部254は、タップ選択部253から、注目画素についてのクラスタップを受信し、ステップS264において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部254は、そのクラス分類の結果得られる注目画素のクラスを、係数出力部255に出力し、ステップS265に進む。   The class classification unit 254 receives the class tap for the target pixel from the tap selection unit 253, and classifies the target pixel based on the class tap in step S264. Further, the class classification unit 254 outputs the class of the target pixel obtained as a result of the class classification to the coefficient output unit 255, and the process proceeds to step S265.

ステップS265では、係数出力部255が、クラス分類部254から供給されるクラスのタップ係数を出力する。即ち、係数出力部255(図28)は、係数メモリ2611乃至2614のうちの、選択部262が出力端を選択しているものから、クラス分類部254から供給されるクラスのタップ係数を読み出し、予測演算部256に出力する。そして、ステップS265では、予測演算部256が、係数出力部255が出力するタップ係数を取得し、ステップS266に進む。 In step S265, the coefficient output unit 255 outputs the tap coefficient of the class supplied from the class classification unit 254. That is, the coefficient output unit 255 (FIG. 28) selects the tap coefficient of the class supplied from the class classification unit 254 from the coefficient memory 261 1 to 261 4 from which the selection unit 262 selects the output end. Read and output to the prediction calculation unit 256. In step S265, the prediction calculation unit 256 acquires the tap coefficient output by the coefficient output unit 255, and the process proceeds to step S266.

ステップS266では、予測演算部256が、タップ選択部252が出力する予測タップと、係数出力部255から取得したタップ係数とを用いて、式(1)の予測演算を行う。これにより、予測演算部256は、注目画素の画素値を求めて出力し、ステップS267に進む。   In step S266, the prediction calculation unit 256 performs the prediction calculation of Expression (1) using the prediction tap output from the tap selection unit 252 and the tap coefficient acquired from the coefficient output unit 255. Thereby, the prediction calculation unit 256 obtains and outputs the pixel value of the target pixel, and proceeds to step S267.

ステップS267では、注目画素選択部251が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS267において、まだ、注目画素としていない第2の画像データがあると判定された場合、ステップS262に戻り、以下、同様の処理が繰り返される。   In step S267, the pixel-of-interest selecting unit 251 determines whether there is second image data that has not yet been set as the pixel of interest. If it is determined in step S267 that there is still second image data that is not the pixel of interest, the process returns to step S262, and the same processing is repeated thereafter.

また、ステップS267において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。   If it is determined in step S267 that there is no second image data that has not yet been set as the target pixel, the process ends.

次に、図30は、図14のR-IC212の他の構成例を示している。なお、図中、図27における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図30のR-IC212は、係数出力部255に代えて、係数出力部275が設けられている他は、図27における場合と同様に構成されている。   Next, FIG. 30 shows another configuration example of the R-IC 212 of FIG. In the figure, portions corresponding to those in FIG. 27 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the R-IC 212 in FIG. 30 is configured in the same manner as in FIG. 27 except that a coefficient output unit 275 is provided instead of the coefficient output unit 255.

ここで、他のR-IC222および232も、図30に示すR-IC212と同様に構成することができる。   Here, the other R-ICs 222 and 232 can also be configured similarly to the R-IC 212 shown in FIG.

図30のR-IC212も、図27における場合と同様に、受信部211(図14)から供給されるコマンドに応じて、その内部構造を切り換え、上述したクラス分類適応処理を利用した各種の信号処理を行う。即ち、図30のR-IC212も、そこに供給される第1の画像データを、第2の画像データに変換して出力する。   Similarly to the case of FIG. 27, the R-IC 212 of FIG. 30 switches its internal structure in accordance with a command supplied from the reception unit 211 (FIG. 14), and various signals using the above-described class classification adaptive processing. Process. That is, the R-IC 212 in FIG. 30 also converts the first image data supplied thereto into the second image data and outputs it.

なお、受信部211(図14)からのコマンドは、係数出力部275に供給されるようになっている。さらに、係数出力部275には、R-IC212の外部からパラメータzが供給されるようになっている。   A command from the receiving unit 211 (FIG. 14) is supplied to the coefficient output unit 275. Further, the parameter z is supplied to the coefficient output unit 275 from the outside of the R-IC 212.

ここで、パラメータzは、例えば、ユーザがリモコン201(図14)の操作部201Aを操作することによって与えることができる。   Here, the parameter z can be given, for example, when the user operates the operation unit 201A of the remote controller 201 (FIG. 14).

即ち、ユーザは、リモコン201を操作することにより、本体200に対して、上述したように、DVD214やHD224に対する画像データの記録または再生、ディスプレイ233への画像の拡大表示、スローモーション表示などを指令することができる。そして、R-IC212では、その指令に応じて、そこに入力される第1の画像データを対象に、ノイズ除去処理、歪み除去処理、時間解像度創造処理、または空間解像度創造処理が行われ、その処理の結果得られる第2の画像データが出力される。   That is, the user operates the remote controller 201 to instruct the main body 200 to record or play back image data on the DVD 214 or HD 224, enlarge an image on the display 233, or display a slow motion as described above. can do. In response to the command, the R-IC 212 performs noise removal processing, distortion removal processing, temporal resolution creation processing, or spatial resolution creation processing on the first image data input thereto. Second image data obtained as a result of the processing is output.

図27に示した構成のR-IC212では、係数出力部255に固定のタップ係数が記憶されているため、例えば、ノイズ除去処理によるノイズ除去の程度(ノイズ除去処理により向上するS/Nの程度)や、歪み除去処理による歪み除去の程度、時間解像度創造処理および空間解像度創造処理により高周波数成分が増加する程度も固定となるが、これらの程度の好みは、一般に、ユーザごとに異なる。   In the R-IC 212 having the configuration shown in FIG. 27, since the fixed tap coefficient is stored in the coefficient output unit 255, for example, the degree of noise removal by the noise removal process (the degree of S / N improved by the noise removal process) ), The degree of distortion removal by the distortion removal process, and the degree to which the high-frequency component increases by the time resolution creation process and the spatial resolution creation process are also fixed, but the preference of these degrees generally differs for each user.

さらに、上述したように、画像のスローモーション表示は、時間解像度創造処理によって行われ、画像の拡大表示は、空間解像度創造処理によって行われるが、スローモーション表示を行うときの表示レート(フレームレート)や、拡大表示を行うときの拡大率を、ユーザが指定したいことがある。   Furthermore, as described above, the slow motion display of the image is performed by the temporal resolution creation process, and the enlarged display of the image is performed by the spatial resolution creation process, but the display rate (frame rate) when performing the slow motion display Or, there are cases where the user wants to specify an enlargement ratio when performing enlarged display.

そこで、図30の実施の形態では、ユーザが、リモコン201(図14)を操作して、DVD214やHD224に対する画像データの記録または再生、ディスプレイ233への画像の拡大表示、スローモーション表示などを指令するのとは別に、ノイズ除去処理によるノイズ除去の程度や、歪み除去処理による歪み除去の程度、時間解像度創造処理および空間解像度創造処理により高周波数成分が増加する程度、スローモーション表示を行うときの表示レート、拡大表示を行うときの拡大率を指定することができるようになっている。   Therefore, in the embodiment of FIG. 30, the user operates the remote controller 201 (FIG. 14) to instruct recording or playback of image data on the DVD 214 or HD 224, enlargement display of images on the display 233, slow motion display, and the like. Separately, the degree of noise removal by the noise removal process, the degree of distortion removal by the distortion removal process, the extent to which high frequency components increase by the time resolution creation process and the spatial resolution creation process, and when performing slow motion display A display rate and an enlargement rate for enlarging display can be specified.

この指定は、例えば、ユーザがリモコン201の操作部201Aを操作することにより行うことができる。即ち、ユーザがリモコン201の操作部201Aを操作することにより、ノイズ除去処理によるノイズ除去の程度や、歪み除去処理による歪み除去の程度、時間解像度創造処理および空間解像度創造処理により高周波数成分が増加する程度、スローモーション表示を行うときの表示レート、拡大表示を行うときの拡大率などの値を指定すると、送信部201Bは、その指定された値に対応するパラメータzを送信する。このパラメータzは、制御装置202を介して、受信部211,221,231でそれぞれ受信され、R-IC212,222,232に供給される。   This designation can be performed, for example, by the user operating the operation unit 201A of the remote controller 201. That is, when the user operates the operation unit 201A of the remote controller 201, the degree of noise removal by the noise removal process, the degree of distortion removal by the distortion removal process, the time resolution creation process, and the spatial resolution creation process increase high frequency components. When a value such as a display rate when performing slow motion display or an enlargement rate when performing enlarged display is designated, the transmission unit 201B transmits a parameter z corresponding to the designated value. The parameter z is received by the receiving units 211, 221, and 231 via the control device 202, and supplied to the R-ICs 212, 222, and 232, respectively.

そして、図30のR-IC212では、受信部211からのパラメータzが、係数出力部275に供給される。   In the R-IC 212 in FIG. 30, the parameter z from the reception unit 211 is supplied to the coefficient output unit 275.

図31は、図30の係数出力部275の構成例を示している。   FIG. 31 shows a configuration example of the coefficient output unit 275 of FIG.

係数出力部275は、係数生成部281、係数種出力部282、パラメータメモリ283、および係数メモリ284から構成される。これらの係数生成部281、係数種出力部282、パラメータメモリ283、係数メモリ284は、図8の係数出力部55を構成する係数生成部61、係数種メモリ62、パラメータメモリ63、係数メモリ64にそれぞれ対応する。   The coefficient output unit 275 includes a coefficient generation unit 281, a coefficient type output unit 282, a parameter memory 283, and a coefficient memory 284. The coefficient generation unit 281, coefficient type output unit 282, parameter memory 283, and coefficient memory 284 are stored in the coefficient generation unit 61, coefficient type memory 62, parameter memory 63, and coefficient memory 64 that constitute the coefficient output unit 55 of FIG. 8. Each corresponds.

図31の係数出力部275においては、受信部211(図14)からのパラメータzがパラメータメモリ283に供給されて記憶される。さらに、受信部211で受信されたコマンド列のうちの、R-IC212に対するコマンドが、係数種出力部282に供給される。また、クラス分類部254(図30)が出力するクラスが、係数メモリ284に供給される。   In the coefficient output unit 275 of FIG. 31, the parameter z from the reception unit 211 (FIG. 14) is supplied to and stored in the parameter memory 283. Further, commands for the R-IC 212 in the command sequence received by the receiving unit 211 are supplied to the coefficient seed output unit 282. The class output from the class classification unit 254 (FIG. 30) is supplied to the coefficient memory 284.

係数種出力部282は、係数種メモリ2911,2912,2913、および2914、並びに選択部292で構成されている。 The coefficient seed output unit 282 includes coefficient seed memories 291 1 , 291 2 , 291 3 , and 291 4 , and a selection unit 292.

係数種メモリ2911,2912,2913、2914には、あらかじめ行われた学習により求められたノイズ除去処理用の係数種データ、歪み除去処理用の係数種データ、時間解像度創造処理用の係数種データ、空間解像度創造処理用の係数種データが、それぞれ記憶されている。 The coefficient seed memories 291 1 , 291 2 , 291 3 , and 291 4 store coefficient seed data for noise removal processing, coefficient seed data for distortion removal processing, and time resolution creation processing that are obtained by learning performed in advance. Coefficient seed data and coefficient resolution data for spatial resolution creation processing are stored.

そして、係数種メモリ2911乃至2914は、それぞれが記憶しているクラスごとの係数種データを読み出し、選択部292に出力する。 Then, the coefficient seed memories 291 1 to 291 4 read out the coefficient seed data for each class stored therein and output them to the selection unit 292.

選択部292には、上述したように、係数種メモリ2911乃至2914それぞれから読み出された係数種データが供給される他、受信部211(図14)で受信されたコマンド列のうちの、R-IC212に対するコマンドが供給される。選択部292は、受信部211から供給されるコマンドに応じて、係数種メモリ2911乃至2914のうちのいずれかの出力端を選択し、その選択した出力端を、係数生成部281の入力端に接続することで、R-IC212の内部構造を切り換える。 As described above, the selection unit 292 is supplied with the coefficient seed data read from each of the coefficient seed memories 291 1 to 291 4 , and among the command strings received by the reception unit 211 (FIG. 14). , A command for the R-IC 212 is supplied. The selection unit 292 selects one of the output ends of the coefficient seed memories 291 1 to 291 4 in accordance with the command supplied from the reception unit 211, and the selected output end is input to the coefficient generation unit 281. By connecting to the end, the internal structure of the R-IC 212 is switched.

ここで、選択部292が、係数種メモリ2911乃至2914のうちの、例えば、係数種メモリ2911の出力端を選択し、その選択した出力端を、係数生成部281の入力端に接続した場合、係数生成部281には、係数種メモリ2911から読み出されるノイズ除去処理用の係数種データが供給される。 Here, connection selection unit 292, of the coefficient seed memory 291 1 to 291 4, for example, to select the output terminal of the coefficient seed memory 291 1, and the selected output terminal, the input terminal of the coefficient generator 281 If you, the coefficient generation unit 281, coefficient seed data for noise removal processing which is read out from the coefficient seed memory 291 1 is supplied.

同様に、選択部292が、係数種メモリ2911乃至2914のうちの、係数種メモリ2912,2913,2914の出力端を選択し、その選択した出力端を、係数生成部281の入力端に接続した場合、係数生成部281には、係数種メモリ2912,2913,2914から読み出される歪み除去処理用の係数種データ、時間解像度創造処理用の係数種データ、空間解像度創造処理用の係数種データが、それぞれ供給される。 Similarly, the selection unit 292 selects the output end of the coefficient type memories 291 2 , 291 3 , 291 4 from the coefficient type memories 291 1 to 291 4 , and the selected output end is used as the coefficient generation unit 281. When connected to the input terminal, the coefficient generation unit 281 has the coefficient seed data for distortion removal processing, the coefficient seed data for temporal resolution creation processing, and the spatial resolution creation read out from the coefficient seed memories 291 2 , 291 3 and 291 4. Coefficient seed data for processing is supplied.

係数生成部281は、係数種出力部282から供給される係数種データと、パラメータメモリ283に記憶されたパラメータzとに基づいて、式(9)を演算することにより、パラメータzに対応するタップ係数をクラスごとに生成し、係数メモリ284に供給して上書きする形で記憶させる。   The coefficient generation unit 281 calculates a tap corresponding to the parameter z by calculating Expression (9) based on the coefficient seed data supplied from the coefficient seed output unit 282 and the parameter z stored in the parameter memory 283. A coefficient is generated for each class, supplied to the coefficient memory 284, and stored in an overwritten form.

そして、係数メモリ284では、クラス分類部254(図30)からクラスが供給されると、そこに記憶している、パラメータzに対応するタップ係数のうちの、クラス分類部254からのクラスのタップ係数を読み出し、予測演算部256(図30)に出力する。   When the class is supplied from the class classification unit 254 (FIG. 30), the coefficient memory 284 taps the class from the class classification unit 254 among the tap coefficients corresponding to the parameter z stored therein. The coefficient is read and output to the prediction calculation unit 256 (FIG. 30).

以上のような係数出力部275を有する図30のR-IC212では、固定のタップ係数を記憶しており、そのタップ係数を出力する図27の係数出力部255に代えて設けられている係数出力部275において、パラメータzに対応するタップ係数を生成して出力することを除いて、図27における場合と同様の処理が行われる。   The R-IC 212 of FIG. 30 having the coefficient output unit 275 as described above stores a fixed tap coefficient, and a coefficient output provided in place of the coefficient output unit 255 of FIG. 27 that outputs the tap coefficient. The same process as in FIG. 27 is performed except that the unit 275 generates and outputs a tap coefficient corresponding to the parameter z.

従って、係数出力部275(図31)において、選択部292が、係数種メモリ2911乃至2914のうちの、例えば、係数種メモリ2911の出力端を選択し、これにより、係数生成部281に、係数種メモリ2911から読み出されたノイズ除去処理用の係数種データが供給された場合、係数生成部281では、その係数種データと、パラメータメモリ283に記憶されたパラメータzとから、そのパラメータzに対応するノイズ除去処理用のタップ係数が生成され、係数メモリ284に記憶される。従って、この場合、係数出力部275から予測演算部256には、ノイズ除去処理用のタップ係数が供給されることとなり、その結果、R-IC212は、ノイズ除去処理を行う装置として機能することになる。 Thus, in the coefficient output unit 275 (FIG. 31), the selection unit 292, of the coefficient seed memory 291 1 to 291 4, for example, to select the output terminal of the coefficient seed memory 291 1, thereby, the coefficient generation unit 281 When the coefficient seed data for noise removal processing read from the coefficient seed memory 291 1 is supplied to the coefficient generation unit 281, the coefficient seed data and the parameter z stored in the parameter memory 283 are used. A tap coefficient for noise removal processing corresponding to the parameter z is generated and stored in the coefficient memory 284. Accordingly, in this case, tap coefficients for noise removal processing are supplied from the coefficient output unit 275 to the prediction calculation unit 256, and as a result, the R-IC 212 functions as a device that performs noise removal processing. Become.

同様に、選択部292が、係数種メモリ2911乃至2914のうちの、係数種メモリ2912,2913、または2914の出力端を選択し、これにより、係数生成部281に、係数種メモリ2912,2913,または2914から読み出された歪み除去処理用の係数種データ、時間解像度創造処理用の係数種データ、または空間解像度創造処理用の係数種データが供給された場合、係数生成部281では、その係数種データと、パラメータメモリ283に記憶されたパラメータzとから、そのパラメータzに対応する歪み除去処理用のタップ係数、時間解像度創造処理用のタップ係数、または空間解像度創造処理用のタップ係数が生成され、係数メモリ284に記憶される。従って、選択部292が、係数種メモリ2911乃至2914のうちの、係数種メモリ2912,2913、または2914の出力端を選択した場合には、係数出力部275から予測演算部256には、歪み除去処理用のタップ係数、時間解像度創造処理用のタップ係数、または空間解像度創造処理用のタップ係数が供給されることとなり、その結果、R-IC212は、ノイズ除去処理を行う装置、時間解像度創造処理を行う装置、空間解像度創造処理を行う装置として、それぞれ機能することになる。 Similarly, the selection unit 292 selects the output end of the coefficient type memory 291 2 , 291 3 , or 291 4 from the coefficient type memories 291 1 to 291 4 , thereby causing the coefficient generation unit 281 to have the coefficient type stored in the coefficient type memory 281. When the coefficient seed data for distortion removal processing, the coefficient seed data for temporal resolution creation processing, or the coefficient seed data for spatial resolution creation processing read from the memory 291 2 , 291 3 , or 291 4 is supplied, In the coefficient generation unit 281, from the coefficient seed data and the parameter z stored in the parameter memory 283, the tap coefficient for distortion removal processing, the tap coefficient for temporal resolution creation processing, or the spatial resolution corresponding to the parameter z Tap coefficients for creation processing are generated and stored in the coefficient memory 284. Therefore, when the selection unit 292 selects the output end of the coefficient type memory 291 2 , 291 3 , or 291 4 among the coefficient type memories 291 1 to 291 4 , the coefficient calculation unit 256 outputs the prediction calculation unit 256. Is supplied with a tap coefficient for distortion removal processing, a tap coefficient for temporal resolution creation processing, or a tap coefficient for spatial resolution creation processing. As a result, the R-IC 212 is a device that performs noise removal processing. It functions as a device for performing time resolution creation processing and a device for performing spatial resolution creation processing.

さらに、図30のR-IC212では、係数出力部275(図31)の係数メモリ284に、パラメータzに対応するタップ係数が記憶されるので、ユーザは、リモコン201(図14)を操作することにより、ノイズ除去処理によるノイズ除去の程度や、歪み除去処理による歪み除去の程度、時間解像度創造処理および空間解像度創造処理により高周波数成分が増加する程度を、好みの程度とすることができる。また、スローモーション表示を行うときの表示レートや、拡大表示を行うときの拡大率を指定することができる。   Further, in the R-IC 212 of FIG. 30, since the tap coefficient corresponding to the parameter z is stored in the coefficient memory 284 of the coefficient output unit 275 (FIG. 31), the user operates the remote controller 201 (FIG. 14). Accordingly, the degree of noise removal by the noise removal process, the degree of distortion removal by the distortion removal process, and the degree of increase of the high frequency components by the time resolution creation process and the spatial resolution creation process can be set as desired. It is also possible to specify a display rate when performing slow motion display and an enlargement rate when performing enlarged display.

以上のように、R-IC212,222,232それぞれでは、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、そこに入力される画像データを信号処理して、その信号処理結果としての画像データを出力するので、単一のハードウェアで、複数の機能を、容易に実現することができる。   As described above, in each of the R-ICs 212, 222, and 232, the internal structure is switched in accordance with at least one command in the command sequence, the image data input thereto is subjected to signal processing, and the signal processing is performed. Since the resulting image data is output, a plurality of functions can be easily realized with a single hardware.

さらに、R-IC222では、R-IC212の信号処理結果を信号処理し、R-IC232では、R-IC222の信号処理結果を信号処理するので、R-IC212,222,232全体としては、より多くの機能を、容易に実現することができる。   Further, since the R-IC 222 performs signal processing on the signal processing result of the R-IC 212 and the R-IC 232 performs signal processing on the signal processing result of the R-IC 222, the R-IC 212, 222, 232 as a whole is more This function can be easily realized.

なお、図14のAVシステムには、3つのR-IC212,222,232を設けるようにしたが、AVシステムは、その他、1つや2つ、あるいは4以上のR-ICを設けて構成することが可能である。   The AV system in FIG. 14 is provided with three R-ICs 212, 222, and 232, but the AV system may be configured with one, two, or four or more R-ICs. Is possible.

次に、本発明の第2実施の形態について説明する。   Next, a second embodiment of the present invention will be described.

図32は、本発明の第2実施の形態としてのテレビジョン受像機301の構成例を示している。   FIG. 32 shows an example of the configuration of a television receiver 301 as a second embodiment of the present invention.

テレビジョン受像機301には、アンテナ302が接続されている。アンテナ302は、図示せぬ放送局から送信されてくる放送波(電波)としてのテレビジョン放送番組の伝送信号を受信し、テレビジョン受像機301に供給する。テレビジョン受像機301は、アンテナ301からの伝送信号を受信し、その伝送信号に含まれる所定のチャンネルのテレビジョン放送番組(の信号)を、リモコン(リモートコマンダ)303からの操作信号にしたがって選局して、そのテレビジョン放送番組としての画像を表示するとともに、音声を出力する。   An antenna 302 is connected to the television receiver 301. The antenna 302 receives a transmission signal of a television broadcast program as a broadcast wave (radio wave) transmitted from a broadcast station (not shown), and supplies it to the television receiver 301. The television receiver 301 receives a transmission signal from the antenna 301 and selects a television broadcast program (signal) of a predetermined channel included in the transmission signal in accordance with an operation signal from the remote controller (remote commander) 303. The station displays an image as the television broadcast program and outputs sound.

即ち、テレビジョン受像機301は、チューナ部311を有しており、アンテナ302からの伝送信号は、チューナ部311に供給される。チューナ部311は、アンテナ302からの伝送信号を受信し、システムコントローラ318の制御にしたがって、アンテナ302から受信した伝送信号から所定のチャンネルのテレビジョン放送番組としての画像(データ)および音声(データ)を選局することにより取得する。   That is, the television receiver 301 has a tuner unit 311, and a transmission signal from the antenna 302 is supplied to the tuner unit 311. The tuner unit 311 receives a transmission signal from the antenna 302, and according to control of the system controller 318, an image (data) and sound (data) as a television broadcast program of a predetermined channel from the transmission signal received from the antenna 302. Acquired by selecting a channel.

さらに、チューナ部311は、選局したチャンネルの音声を、増幅回路312に供給するとともに、画像のR(Red)信号、G(Green)信号、B(Blue)信号を、信号処理部314,315,316に、それぞれ供給する。   Further, the tuner unit 311 supplies the sound of the selected channel to the amplifier circuit 312 and also outputs the R (Red) signal, the G (Green) signal, and the B (Blue) signal of the image to the signal processing units 314 and 315. , 316 respectively.

増幅回路312は、チューナ部311からの音声を増幅し、スピーカ313に供給して出力させる。   The amplifier circuit 312 amplifies the sound from the tuner unit 311 and supplies the amplified sound to the speaker 313 for output.

信号処理部314乃至316は、システムコントローラ318からの制御にしたがい、チューナ部311からの画像のR信号、G信号、B信号を、それぞれ信号処理し、ディスプレイ317に供給して、対応する画像を表示させる。   In accordance with control from the system controller 318, the signal processing units 314 to 316 respectively process the R signal, G signal, and B signal of the image from the tuner unit 311, and supply them to the display 317 to display the corresponding image. Display.

システムコントローラ318は、リモコン受信部319から供給される操作信号にしたがって、チューナ部311および信号処理部314乃至316に制御信号を供給することにより、チューナ部311および信号処理部314乃至316を制御する。   The system controller 318 controls the tuner unit 311 and the signal processing units 314 to 316 by supplying control signals to the tuner unit 311 and the signal processing units 314 to 316 in accordance with the operation signal supplied from the remote control receiving unit 319. .

リモコン受信部319は、ユーザがリモコン303を操作することにより、リモコン303から送信されてくる操作信号としての、例えば、赤外線その他の無線信号を受信し、システムコントローラ318に供給する。   The remote control receiving unit 319 receives, for example, infrared or other wireless signals as operation signals transmitted from the remote control 303 when the user operates the remote control 303, and supplies them to the system controller 318.

以上のように構成されるテレビジョン受像機301では、チューナ部311は、アンテナ302からの伝送信号を受信し、システムコントローラ318の制御にしたがって、アンテナ302から受信した伝送信号から所定のチャンネルのテレビジョン放送番組としての画像および音声を選局する。そして、チューナ部311は、選局したチャンネルの音声を、増幅回路312に供給するとともに、画像のR信号、G信号、B信号(画像データ)を、信号処理部314乃至316に、それぞれ供給する。   In the television receiver 301 configured as described above, the tuner unit 311 receives a transmission signal from the antenna 302 and, according to the control of the system controller 318, the television of a predetermined channel from the transmission signal received from the antenna 302. Select the image and sound as a John broadcast program. The tuner unit 311 supplies the selected channel audio to the amplifier circuit 312 and also supplies the image R signal, G signal, and B signal (image data) to the signal processing units 314 to 316, respectively. .

増幅回路312では、チューナ部311からの音声が増幅され、スピーカ313に供給されて出力される。   In the amplifier circuit 312, the sound from the tuner unit 311 is amplified and supplied to the speaker 313 for output.

一方、信号処理部314乃至316では、システムコントローラ318からの制御にしたがい、チューナ部311からの画像のR信号、G信号、B信号(画像データ)が、それぞれ信号処理される。そして、信号処理部314乃至316では、それぞれの信号処理の結果得られる画像データが、ディスプレイ317に供給され、ディスプレイ317において、対応する画像が表示される。   On the other hand, the signal processing units 314 to 316 respectively perform signal processing on the R signal, G signal, and B signal (image data) of the image from the tuner unit 311 in accordance with control from the system controller 318. In the signal processing units 314 to 316, image data obtained as a result of each signal processing is supplied to the display 317, and a corresponding image is displayed on the display 317.

なお、テレビジョン受像機301において受信する放送は、特に限定されるものではない。即ち、テレビジョン受像機301では、例えば、衛星放送、地上波放送、アナログ放送、ディジタル放送、その他の任意の放送を受信することができる。   Note that the broadcast received by the television receiver 301 is not particularly limited. That is, the television receiver 301 can receive, for example, satellite broadcast, terrestrial broadcast, analog broadcast, digital broadcast, and other arbitrary broadcasts.

また、以下においては、音声に関する説明は、特に必要がない限り省略する。   Further, in the following description, the explanation about the sound is omitted unless particularly necessary.

次に、図32のシステムコントローラ318によるチューナ部311および信号処理部314乃至316の制御について説明する。   Next, control of the tuner unit 311 and the signal processing units 314 to 316 by the system controller 318 in FIG. 32 will be described.

ここで、信号処理部314乃至316では、それぞれで処理される信号が、R信号、G信号、B信号であることを除いて同一の処理が行われるため、以下では、信号処理部314乃至316のうちの、信号処理部314についてだけ説明する。   Here, in the signal processing units 314 to 316, the same processing is performed except that the signals processed in each are R signal, G signal, and B signal. Therefore, the signal processing units 314 to 316 are described below. Of these, only the signal processing unit 314 will be described.

また、以下においては、チューナ部311が出力する画像がプログレッシブ画像(ノンインタレース方式の画像)であるとして説明を行う。但し、チューナ部311が出力する画像は、インタレース方式の画像であっても良く、この場合、以下の第2実施の形態の説明における「フレーム」は、「フィールド」とすることができる。   In the following description, it is assumed that the image output from the tuner unit 311 is a progressive image (non-interlace image). However, the image output from the tuner unit 311 may be an interlaced image. In this case, the “frame” in the description of the second embodiment below can be a “field”.

システムコントローラ318は、リモコン303からリモコン受信部319を介して供給される操作信号にしたがい、テレビジョン受像機301の動作モードを、マルチ画面モードまたは通常画面モードに切り換える制御を行う。即ち、システムコントローラ318は、ユーザによるリモコン303の操作に応じて、テレビジョン受像機301の動作モードを、マルチ画面モードまたは通常画面モードに切り換え、その動作モードの処理を行うように、チューナ部311および信号処理部314乃至316を制御する。   The system controller 318 performs control to switch the operation mode of the television receiver 301 to the multi-screen mode or the normal screen mode in accordance with an operation signal supplied from the remote control 303 via the remote control receiving unit 319. That is, the system controller 318 switches the operation mode of the television receiver 301 to the multi-screen mode or the normal screen mode in accordance with the operation of the remote controller 303 by the user, and performs the processing of the operation mode. And controls the signal processing units 314 to 316.

そして、チューナ部311および信号処理部314乃至316は、システムコントローラ318の制御にしたがい、マルチ画面モードの処理、または通常画面モードの処理を行う。   The tuner unit 311 and the signal processing units 314 to 316 perform multi-screen mode processing or normal screen mode processing under the control of the system controller 318.

ここで、チューナ部311から信号処理部314に供給(入力)される画像データを、入力画像データというとともに、信号処理部314における信号処理の結果得られる画像データを、出力画像データというものとすると、マルチ画面モードとは、例えば、複数チャンネルの入力画像データそれぞれの同一フレームが、いわゆるマルチ画面表示された出力画像データを得て、ディスプレイ317に表示するモードであり、通常画面モードとは、1チャンネルの入力画像データに対応する出力画像データを得て、ディスプレイ317に表示するモードである。   Here, image data supplied (input) from the tuner unit 311 to the signal processing unit 314 is referred to as input image data, and image data obtained as a result of signal processing in the signal processing unit 314 is referred to as output image data. The multi-screen mode is a mode in which, for example, the same frame of each of the input image data of a plurality of channels obtains output image data displayed in a so-called multi-screen and displays it on the display 317. The normal screen mode is 1 In this mode, output image data corresponding to the input image data of the channel is obtained and displayed on the display 317.

マルチ画面モードにおいては、複数チャンネルの画像が、マルチ画面で表示されるので、ユーザは、そのマルチ画面の画像を見ることにより、所望の番組を放送しているチャンネルを、容易に選択することが可能となる。   In the multi-screen mode, since images of a plurality of channels are displayed on a multi-screen, the user can easily select a channel that broadcasts a desired program by viewing the multi-screen image. It becomes possible.

なお、マルチ画面モードにおいては、マルチ画面で表示されている複数チャンネルの画像のうちの任意のチャンネルの画像を指定するカーソル(例えば、枠)を表示し、そのカーソルを、ユーザによるリモコン303の操作に応じて移動させることができる。この場合、スピーカ313からは、カーソルによって指定されている画像のチャンネルの音声を出力するようにすることができる。   In the multi-screen mode, a cursor (for example, a frame) for designating an image of an arbitrary channel among the images of a plurality of channels displayed on the multi-screen is displayed, and the cursor is used to operate the remote controller 303 by the user. It can be moved according to. In this case, the sound of the channel of the image designated by the cursor can be output from the speaker 313.

図33は、図32のシステムコントローラ318によるチューナ部311の制御を説明するための図である。なお、図33では、縦軸が、画像の垂直方向を表し、横軸が時間(の経過)を表す。   FIG. 33 is a diagram for explaining control of the tuner unit 311 by the system controller 318 of FIG. In FIG. 33, the vertical axis represents the vertical direction of the image, and the horizontal axis represents time (elapsed time).

動作モードが通常画面モードの場合、システムコントローラ318は、ユーザによるリモコン303の操作に対応したチャンネルを選局するように、チューナ部311を制御する。   When the operation mode is the normal screen mode, the system controller 318 controls the tuner unit 311 so as to select a channel corresponding to the operation of the remote controller 303 by the user.

従って、例えば、いま、ユーザが、リモコン303を操作することにより、チャンネルCH1を選択しているものとすると、チューナ部311は、アンテナ302からの伝送信号から、チャンネルCH1を選局し続け、これにより、図33上側に示すように、フレーム周期で、チャンネルCH1の画像(データ)を、信号処理部314に供給する。   Therefore, for example, assuming that the user has selected channel CH1 by operating the remote controller 303, the tuner unit 311 continues to select channel CH1 from the transmission signal from the antenna 302. Thus, as shown in the upper side of FIG. 33, the image (data) of the channel CH1 is supplied to the signal processing unit 314 in the frame period.

一方、動作モードがマルチ画面モードの場合、システムコントローラ318は、例えば、フレーム周期で、選局するチャンネルを順次変更するように、チューナ部311を制御する。   On the other hand, when the operation mode is the multi-screen mode, the system controller 318 controls the tuner unit 311 so as to sequentially change the channel to be selected, for example, in the frame period.

従って、選局の変更対象のチャンネル数が、例えば、チャンネルCH1,CH2,CH3,CH4の4チャンネルであるとすると、チューナ部311は、例えば、図33下側に示すように、最初のフレームのタイミングで、チャンネルCH1を選局し、次のフレームのタイミングで、チャンネルCH2を選局し、以下、同様にして、チャンネルCH3,CH4を順次選局する。その後、チューナ部311は、再び、チャンネルCH1を選局し、以下、同様にして、チャンネルCH1乃至CH4それぞれを順次選局する。その結果、フレーム周期をT1で表すこととすると、チューナ部311から信号処理部314に対しては、チャンネルCH1の画像が、フレーム周期T1の4倍の周期で供給される。即ち、チューナ部311からは、フレーム周期T1の4倍の周期で、3フレームずつのコマ落ちが生じたチャンネルCH1の画像が出力される。他のチャンネルCH2乃至CH4それぞれの画像も、同様である。 Therefore, if the number of channels to be changed is, for example, four channels CH1, CH2, CH3, and CH4, the tuner unit 311 has the first frame as shown in the lower side of FIG. 33, for example. The channel CH1 is selected at the timing, the channel CH2 is selected at the timing of the next frame, and the channels CH3 and CH4 are sequentially selected in the same manner. After that, the tuner unit 311 selects the channel CH1 again, and subsequently selects the channels CH1 to CH4 sequentially in the same manner. As a result, assuming that the frame period is represented by T 1 , the image of the channel CH1 is supplied from the tuner unit 311 to the signal processing unit 314 at a period four times the frame period T 1 . That is, the tuner 311, at 4 times the period of a frame period T 1, the image of the channel CH1 dropped frames of every three frames has occurred is output. The same applies to the images of the other channels CH2 to CH4.

ここで、選局の変更対象のチャンネル数は、4チャンネルに限定されるものではない。選局の変更対象のチャンネル数をNで表すこととすると、マルチ画面モードでは、選局の変更対象のある1チャンネルの画像が、チューナ部311から信号処理部314に供給される周期は、フレーム周期T1のN倍になる。 Here, the number of channels to be changed is not limited to four channels. Assuming that the number of channels to be changed is represented by N, in the multi-screen mode, a cycle in which an image of one channel that is to be changed is supplied from the tuner 311 to the signal processor 314 is a frame. It becomes N times the period T 1.

また、マルチ画面モードでは、例えば、テレビジョン受像機301で受信可能なすべてのチャンネルを、選局の変更対象のチャンネルとすることもできるし、ユーザが選んだ複数のチャンネルを、選局の変更対象のチャンネルとすることもできる。さらに、マルチ画面モードにおいて、選局の変更対象のチャンネル数、即ち、1フレームに表示される画像のチャンネル数が所定の閾値より多い場合には、画像をスクロールして表示するようにすることが可能である。   In the multi-screen mode, for example, all the channels that can be received by the television receiver 301 can be set as channels to be selected, or a plurality of channels selected by the user can be changed. It can also be the target channel. Further, in the multi-screen mode, when the number of channels to be selected for channel selection, that is, the number of channels of an image displayed in one frame is larger than a predetermined threshold, the image may be scrolled and displayed. Is possible.

ここで、以下においては、説明を簡単にするために、マルチ画面モードにおけるチューナ部311の選局の変更対象のチャンネルが、上述したチャンネルCH1乃至CH4に固定されているものとする。   Here, in the following, in order to simplify the description, it is assumed that the channel to be changed in tuning of the tuner unit 311 in the multi-screen mode is fixed to the above-described channels CH1 to CH4.

次に、図34は、通常画面モードにおいてチューナ部311で得られた1つのチャンネルCH1の画像を単に表示した場合と、マルチ画面モードにおいてチューナ部311で得られた4チャンネルCH1乃至CH4の画像を、そのチャンネル数と等しい分割数のマルチ画面、即ち、4分割のマルチ画面で単に表示した場合とを示している。   Next, FIG. 34 shows a case where an image of one channel CH1 obtained by the tuner unit 311 in the normal screen mode is simply displayed and an image of four channels CH1 to CH4 obtained by the tuner unit 311 in the multi-screen mode. The multi-screen having the same number of divisions as the number of channels, that is, the case of simply displaying on the 4-screen multi-screen is shown.

なお、マルチ画面モードでは、1フレームが、例えば、2×2の4つの小画面に等分割されて、4チャンネルCH1乃至CH4の画像が、それぞれ表示されるものとする。即ち、ここでは、4分割のマルチ画面のうちの、左上、右上、左下、右下の小画面に、チャンネルCH1乃至CH4の画像が、それぞれ表示されるものとする。   In the multi-screen mode, one frame is equally divided into, for example, 4 × 2 small screens, and images of 4 channels CH1 to CH4 are respectively displayed. That is, here, it is assumed that images of channels CH1 to CH4 are displayed on the upper left, upper right, lower left, and lower right small screens of the four divided multi-screens.

通常画面モードでは、チューナ部311において、図33で説明したように、1チャンネルCH1の画像が、フレーム周期T1で得られる。従って、チューナ部311で得られた1つのチャンネルCH1の画像を単に表示した場合は、図34上側に示すように、フレーム周期T1で、チャンネルCH1の画像が表示される。 In normal screen mode, the tuner unit 311, as described with reference to FIG. 33, the image of one channel CH1 is obtained in the frame cycle T 1. Therefore, if you simply display one image channel CH1 obtained by the tuner section 311, as shown in FIG. 34 upper, a frame period T 1, the image of the channel CH1 is displayed.

一方、マルチ画面モードでは、チューナ部311において、図33で説明したように、4チャンネルCH1乃至CH4それぞれの画像が、フレーム周期T1の4倍の周期4T1で得られる。従って、チューナ部311で得られた4チャンネルCH1乃至CH4それぞれの画像を、4分割のマルチ画面で単に表示した場合には、図34下側に示すように、最初のフレームのタイミングで、マルチ画面の左上の小画面に、チューナ部311で得られたチャンネルCH1の画像の最初のフレームが表示され、2番目のフレームのタイミングで、マルチ画面の右上の小画面に、チューナ部311で得られたチャンネルCH2の画像の2番目のフレームが表示される。さらに、3番目のフレームのタイミングで、マルチ画面の左下の小画面に、チューナ部311で得られたチャンネルCH3の画像の3番目のフレームが表示され、4番目のフレームのタイミングで、マルチ画面の右下の小画面に、チューナ部311で得られたチャンネルCH4の画像の4番目のフレームが表示される。その後、5番目のフレームのタイミングで、マルチ画面の左上の小画面に、チューナ部311で得られたチャンネルCH1の画像の5番目のフレームが表示され、以下、同様にして、チューナ部311において、周期4T1で得られるチャンネルCH1乃至CH4それぞれの画像が、マルチ画面の対応する小画面に表示される。 On the other hand, in the multi-screen mode, as described with reference to FIG. 33, the tuner unit 311 obtains images of the four channels CH1 to CH4 with a period 4T 1 that is four times the frame period T 1 . Therefore, when the images of the four channels CH1 to CH4 obtained by the tuner unit 311 are simply displayed on a 4-screen multi-screen, the multi-screen is displayed at the timing of the first frame as shown in the lower side of FIG. The first frame of the image of the channel CH1 obtained by the tuner unit 311 is displayed on the upper left small screen, and at the timing of the second frame, the first frame obtained on the upper right small screen of the multi screen is obtained by the tuner unit 311. The second frame of the image of channel CH2 is displayed. Furthermore, at the timing of the third frame, the third frame of the image of the channel CH3 obtained by the tuner unit 311 is displayed on the lower left small screen of the multi screen, and at the timing of the fourth frame, the third frame of the multi screen is displayed. The fourth frame of the image of the channel CH4 obtained by the tuner 311 is displayed on the lower right small screen. After that, at the timing of the fifth frame, the fifth frame of the image of the channel CH1 obtained by the tuner unit 311 is displayed on the small screen at the upper left of the multi-screen. The images of the channels CH1 to CH4 obtained in the cycle 4T 1 are displayed on the corresponding small screens of the multi screen.

マルチ画面モードにおいて、チューナ部311であるチャンネルを選局された後、次にそのチャンネルが選局されるまでの間、そのチャンネルの画像を表示する小画面を、例えば、フリーズしておくものとすると、チューナ部311では、4チャンネルCH1乃至CH4それぞれが、時分割で、周期4T1で選局されるために、マルチ画面に表示される4チャンネルCH1乃至CH4の画像は、動きの粗い、見にくいものとなる。 In the multi-screen mode, after a channel that is the tuner unit 311 is selected, a small screen that displays an image of the channel is frozen until the next channel is selected, for example. Then, in the tuner unit 311, each of the four channels CH1 to CH4 is selected in a time-division manner with a period of 4T 1 , so the images of the four channels CH1 to CH4 displayed on the multi-screen are rough and difficult to see. It will be a thing.

図32のテレビジョン受像機301では、そのようなマルチ画面の表示を行うことも可能であるが、後述するように、信号処理部314において、動きの滑らかなマルチ画面を表示する出力画像を生成して表示することができるようになっている。   The television receiver 301 in FIG. 32 can display such a multi-screen. However, as described later, the signal processing unit 314 generates an output image that displays a smooth multi-screen. And can be displayed.

即ち、図35は、図32の信号処理部314の構成例を示している。   That is, FIG. 35 shows a configuration example of the signal processing unit 314 of FIG.

信号処理部314は、コマンド列生成部330、信号処理チップ331および332、メモリ部333、並びに信号処理チップ334で構成されている。   The signal processing unit 314 includes a command sequence generation unit 330, signal processing chips 331 and 332, a memory unit 333, and a signal processing chip 334.

ここで、コマンド列生成部330、信号処理チップ331,332、メモリ部333、信号処理チップ334は、それぞれ、例えば、1チップのICで構成されている。なお、信号処理部314全体を、1チップのICで構成することも可能であるし、コマンド列生成部330、信号処理チップ331および332、メモリ部333、並びに信号処理チップ334のうちの2以上を1チップのICとすることも可能である。   Here, the command sequence generation unit 330, the signal processing chips 331 and 332, the memory unit 333, and the signal processing chip 334 are each configured by, for example, a one-chip IC. Note that the entire signal processing unit 314 can be configured by a single-chip IC, or two or more of the command sequence generation unit 330, the signal processing chips 331 and 332, the memory unit 333, and the signal processing chip 334. Can be a one-chip IC.

コマンド列生成部330には、システムコントローラ318(図32)からの制御信号が供給される。コマンド列生成部330は、システムコントローラ318からの制御信号に応じて、複数のコマンドからなるコマンド列を生成し、例えば無線により、信号処理チップ331,332、メモリ部333、信号処理チップ334に送信する。   The command string generation unit 330 is supplied with a control signal from the system controller 318 (FIG. 32). The command sequence generation unit 330 generates a command sequence including a plurality of commands in response to a control signal from the system controller 318, and transmits the command sequence to the signal processing chips 331, 332, the memory unit 333, and the signal processing chip 334, for example, wirelessly. To do.

信号処理チップ331には、図32のチューナ部311が出力する画像としての入力画像データが供給される。また、信号処理チップ331には、信号処理チップ334の信号処理結果としての動きベクトルが供給される。   The signal processing chip 331 is supplied with input image data as an image output from the tuner unit 311 of FIG. Further, a motion vector as a signal processing result of the signal processing chip 334 is supplied to the signal processing chip 331.

信号処理チップ331は、コマンド列生成部330から送信されてくるコマンド列を受信し、そのコマンド列を構成するコマンドに応じて、第1実施の形態のR-IC212等と同様に、リコンフィギュラブルに内部構造を切り換える。さらに、信号処理チップ331は、チューナ部311からの入力画像データを、クラス分類適応処理における第1の画像データとして信号処理し、その結果得られる画像データ(クラス分類適応処理における第2の画像データ)を、信号処理チップ332に出力する。   The signal processing chip 331 receives the command sequence transmitted from the command sequence generation unit 330, and is reconfigurable in accordance with the commands constituting the command sequence, similar to the R-IC 212 of the first embodiment. The internal structure is switched to. Furthermore, the signal processing chip 331 performs signal processing on the input image data from the tuner unit 311 as first image data in the class classification adaptive processing, and the resulting image data (second image data in the class classification adaptive processing). Is output to the signal processing chip 332.

なお、信号処理チップ331では、信号処理チップ334から供給される動きベクトルを用いて、チューナ部311からの入力画像データが信号処理される。   In the signal processing chip 331, the input image data from the tuner unit 311 is signal-processed using the motion vector supplied from the signal processing chip 334.

また、信号処理チップ331は、その内部構造を切り換えることにより、信号処理として、例えば、画像の空間解像度を向上させる空間解像度創造処理、または画像をリサイズして縮小画像を生成するリサイズ処理(以下、縮小画像生成処理ともいう)を行う。   In addition, the signal processing chip 331 switches the internal structure thereof, and as signal processing, for example, spatial resolution creation processing that improves the spatial resolution of the image, or resizing processing that resizes the image to generate a reduced image (hereinafter, referred to as “processing”). (Also referred to as reduced image generation processing).

信号処理チップ332には、上述したように、信号処理チップ331の信号処理結果としての画像データが供給される他、信号処理チップ334の信号処理結果としての動きベクトルが供給される。   As described above, the signal processing chip 332 is supplied not only with image data as a signal processing result of the signal processing chip 331 but also with a motion vector as a signal processing result of the signal processing chip 334.

信号処理チップ332は、コマンド列生成部330から送信されてくるコマンド列を受信し、そのコマンド列を構成するコマンドに応じて、第1実施の形態のR-IC212等と同様に、リコンフィギュラブルに内部構造を切り換える。さらに、信号処理チップ332は、信号処理チップ331が出力する画像データを、クラス分類適応処理における第1の画像データとして信号処理し、その結果得られる画像データ(クラス分類適応処理における第2の画像データ)を、メモリ部333に出力する。   The signal processing chip 332 receives the command sequence transmitted from the command sequence generation unit 330, and is reconfigurable in accordance with the commands constituting the command sequence, similar to the R-IC 212 of the first embodiment. The internal structure is switched to. Further, the signal processing chip 332 performs signal processing on the image data output from the signal processing chip 331 as first image data in the class classification adaptive processing, and the resulting image data (second image in the class classification adaptive processing). Data) is output to the memory unit 333.

なお、信号処理チップ332でも、信号処理チップ334から供給される動きベクトルを用いて、信号処理チップ331からの画像データが信号処理される。   Note that also in the signal processing chip 332, image data from the signal processing chip 331 is signal-processed using the motion vector supplied from the signal processing chip 334.

また、信号処理チップ332は、その内部構造を切り換えることにより、信号処理として、例えば、画像のノイズを除去するノイズ除去処理、または画像の時間解像度を向上させる時間解像度創造処理を行う。   Further, the signal processing chip 332 performs, for example, noise removal processing for removing image noise or time resolution creation processing for improving the time resolution of the image as the signal processing by switching the internal structure.

メモリ部333は、コマンド列生成部330から送信されてくるコマンド列を受信し、そのコマンド列を構成するコマンドにしたがい、信号処理チップ332が出力する画像データを、その内蔵するメモリ(図示せず)に書き込むことにより記憶するとともに、メモリに記憶された画像データを読み出し、出力画像データとして、ディスプレイ317(図32)に供給する。   The memory unit 333 receives the command sequence transmitted from the command sequence generation unit 330, and stores the image data output from the signal processing chip 332 in a built-in memory (not shown) according to the commands constituting the command sequence. ) And the image data stored in the memory is read out and supplied as output image data to the display 317 (FIG. 32).

信号処理チップ334には、信号処理チップ331における場合と同様に、図32のチューナ部311が出力する画像としての入力画像データが供給される。   Similarly to the signal processing chip 331, the signal processing chip 334 is supplied with input image data as an image output from the tuner unit 311 in FIG.

信号処理チップ334は、コマンド列生成部330から送信されてくるコマンド列を受信し、そのコマンド列を構成するコマンドに応じて、第1実施の形態のR-IC212等と同様に、リコンフィギュラブルに内部構造を切り換える。さらに、信号処理チップ334は、チューナ部311からの入力画像データを信号処理することで、動きベクトルを検出し、その動きベクトルを、信号処理チップ331および332に供給する。   The signal processing chip 334 receives the command sequence transmitted from the command sequence generation unit 330, and is reconfigurable in accordance with the commands constituting the command sequence, similar to the R-IC 212 of the first embodiment. The internal structure is switched to. Further, the signal processing chip 334 detects the motion vector by performing signal processing on the input image data from the tuner unit 311, and supplies the motion vector to the signal processing chips 331 and 332.

なお、信号処理チップ334は、その内部構造を切り換えることにより、信号処理として、例えば、後述する通常画面用の動きベクトルを検出する動きベクトル処理、または後述するマルチ画面用の動きベクトルを検出する動きベクトル処理を行う。   Note that the signal processing chip 334 switches the internal structure, and as signal processing, for example, motion vector processing for detecting a motion vector for a normal screen described later, or motion for detecting a motion vector for a multi screen described later. Perform vector processing.

次に、図36を参照して、図35のコマンド列生成部330が生成するコマンド列について説明する。   Next, the command sequence generated by the command sequence generation unit 330 in FIG. 35 will be described with reference to FIG.

即ち、図36は、コマンド列生成部330が生成するコマンド列の例を示している。   That is, FIG. 36 illustrates an example of a command sequence generated by the command sequence generation unit 330.

システムコントローラ318(図32)からコマンド列生成部330に対しては、通常画面モードの処理、またはマルチ画面モードの処理を行うことを指令する制御信号が供給される。   The system controller 318 (FIG. 32) supplies a control signal instructing to perform the normal screen mode process or the multi-screen mode process to the command string generation unit 330.

コマンド列生成部330は、システムコントローラ318から供給された制御信号が、通常画面モードの処理を行うことを指令するものである場合、図36上に示すコマンド列(以下、適宜、通常モードコマンド列という)を生成する。また、コマンド列生成部330は、システムコントローラ318から供給された制御信号が、マルチ画面モードの処理を行うことを指令するものである場合、図36下に示すコマンド列(以下、適宜、マルチ画面モードコマンド列)を生成する。   When the control signal supplied from the system controller 318 instructs to perform normal screen mode processing, the command sequence generation unit 330 displays a command sequence shown in FIG. 36 (hereinafter referred to as normal mode command sequence as appropriate). Generated). When the control signal supplied from the system controller 318 instructs to perform the multi-screen mode processing, the command sequence generation unit 330 uses the command sequence shown in the lower part of FIG. Mode command sequence).

図36上に示す通常画面モードコマンド列は、その先頭から、通常画面用動きベクトル検出コマンド、空間解像度創造コマンド、ノイズ除去コマンド、および通常画面用メモリ制御コマンドが順次配置されて構成されている。また、図36下に示すマルチ画面モードコマンド列は、その先頭から、マルチ画面用動きベクトル検出コマンド、縮小画像生成コマンド、時間解像度創造コマンド、およびマルチ画面用メモリ制御コマンドが順次配置されて構成されている。   The normal screen mode command sequence shown in FIG. 36 includes a normal screen motion vector detection command, a spatial resolution creation command, a noise removal command, and a normal screen memory control command sequentially arranged from the top. In addition, the multi-screen mode command sequence shown in the lower part of FIG. 36 is configured by sequentially arranging a multi-screen motion vector detection command, a reduced image generation command, a time resolution creation command, and a multi-screen memory control command from the top. ing.

通常画面用動きベクトル検出コマンドは、画像から、通常画面用の動きベクトルを検出する動きベクトル検出処理の実行を要求するコマンドであり、空間解像度創造コマンドまたはノイズ除去コマンドは、それぞれ、上述したクラス分類適応処理による空間解像度創造処理またはノイズ除去処理の実行を要求するコマンドである。   The normal screen motion vector detection command is a command for requesting execution of a motion vector detection process for detecting a motion vector for a normal screen from an image. The spatial resolution creation command or the noise removal command is a class classification described above. This command requests execution of spatial resolution creation processing or noise removal processing by adaptive processing.

通常画面用メモリ制御コマンドは、1チャンネルの画像データを、ディスプレイ317の画面全体に表示するための、その1チャンネルの画像データのメモリへの読み書き処理の実行を要求するコマンドである。   The normal screen memory control command is a command for requesting execution of read / write processing to / from the memory of the one-channel image data for displaying the one-channel image data on the entire screen of the display 317.

マルチ画面用動きベクトル検出コマンドは、画像から、マルチ画面用の動きベクトルを検出する動きベクトル検出処理の実行を要求するコマンドであり、縮小画像生成コマンド、または時間解像度創造コマンドは、それぞれ、上述したクラス分類適応処理によるリサイズ処理としての縮小画像生成処理、または時間解像度創造処理の実行を要求するコマンドである。   The multi-screen motion vector detection command is a command for requesting execution of a motion vector detection process for detecting a multi-screen motion vector from an image, and the reduced image generation command or the temporal resolution creation command is described above. This is a command for requesting execution of reduced image generation processing or time resolution creation processing as resizing processing by class classification adaptation processing.

マルチ画面用メモリ制御コマンドは、複数チャンネルの画像データを、ディスプレイ317でマルチ画面表示するための、その複数チャンネルの画像データのメモリへの読み書き処理の実行を要求するコマンドである。   The multi-screen memory control command is a command for requesting execution of read / write processing of the multi-channel image data to the memory for displaying the multi-channel image data on the display 317.

ここで、図36のコマンド列は、単に、1以上のコマンドが、順次配置されて構成されているが、コマンド列を構成する各コマンドには、そのコマンドに対応する処理を実行すべきIC、即ち、図35の実施の形態では、信号処理チップ331,332、メモリ部333、または信号処理チップ334のうちのいずれかを特定するIC情報を付加することが可能である。この場合、信号処理チップ331,332、メモリ部333、または信号処理チップ334それぞれは、コマンド列生成部330から受信したコマンド列のうちの、自身を表すIC情報が付加されているコマンドに対応する処理を実行する。   Here, the command sequence in FIG. 36 is simply configured by sequentially arranging one or more commands, but each command configuring the command sequence includes an IC that is to execute processing corresponding to the command, That is, in the embodiment of FIG. 35, it is possible to add IC information for specifying any one of the signal processing chips 331 and 332, the memory unit 333, or the signal processing chip 334. In this case, each of the signal processing chips 331 and 332, the memory unit 333, or the signal processing chip 334 corresponds to a command to which IC information representing itself is added in the command sequence received from the command sequence generation unit 330. Execute the process.

なお、第2実施の形態では、コマンド列は、図36に示したように、単に、1以上のコマンドが、順次配置されて構成されるものとする。この場合、信号処理チップ331,332、メモリ部333、または信号処理チップ334それぞれは、コマンド列生成部330から受信したコマンド列のうちの、例えば、自身が実行可能なコマンドに対応する処理を実行する。   In the second embodiment, as shown in FIG. 36, the command sequence is simply configured by sequentially arranging one or more commands. In this case, each of the signal processing chips 331, 332, the memory unit 333, or the signal processing chip 334 executes, for example, a process corresponding to a command that can be executed in the command sequence received from the command sequence generation unit 330. To do.

即ち、図36上の通常画面モードコマンド列が、コマンド列生成部330(図35)によって送信された場合、信号処理チップ331,332、メモリ部333、または信号処理チップ334は、それぞれ、その通常画面モードコマンド列を受信し、その通常画面モードコマンド列のうちの、自身が実行可能なコマンドに対応する処理を実行する。   That is, when the normal screen mode command sequence in FIG. 36 is transmitted by the command sequence generation unit 330 (FIG. 35), the signal processing chips 331, 332, the memory unit 333, or the signal processing chip 334 respectively The screen mode command sequence is received, and the process corresponding to the command executable by itself in the normal screen mode command sequence is executed.

この場合、信号処理チップ334は、通常画面モードコマンド列のうちの、例えば、通常画面用動きベクトル検出コマンドに応じて、その内部構造を、信号処理として、通常画面モード用の動きベクトルを検出する動きベクトル検出処理を行うように切り換える。   In this case, the signal processing chip 334 detects the motion vector for the normal screen mode using the internal structure as signal processing in accordance with, for example, the normal screen motion vector detection command in the normal screen mode command sequence. Switch to perform motion vector detection processing.

そして、信号処理チップ334は、通常画面モード時にチューナ部311から供給される1チャンネルの画像データとしての、例えばチャンネルCH1の画像データから、通常画面モード用の動きベクトルを検出して、信号処理チップ331および332に供給する。   The signal processing chip 334 detects the motion vector for the normal screen mode from the image data of the channel CH1, for example, as the image data of one channel supplied from the tuner unit 311 in the normal screen mode, and the signal processing chip. 331 and 332 are supplied.

信号処理チップ331は、図36上の通常画面モードコマンド列のうちの、例えば、空間解像度創造コマンドに応じて、その内部構造を、信号処理として、空間解像度創造処理を行うように切り換える。   The signal processing chip 331 switches the internal structure of the normal screen mode command sequence in FIG. 36 to perform spatial resolution creation processing as signal processing, for example, according to the spatial resolution creation command.

そして、信号処理チップ331は、信号処理チップ334から供給される動きベクトルを用い、チューナ部311から供給されるチャンネルCH1の画像データに対して、空間解像度創造処理を施し、その結果得られる画像データを、信号処理チップ332に出力する。   Then, the signal processing chip 331 uses the motion vector supplied from the signal processing chip 334 to perform spatial resolution creation processing on the image data of the channel CH1 supplied from the tuner unit 311 and obtains the resulting image data Is output to the signal processing chip 332.

ここで、図37は、空間解像度創造処理を行う信号処理チップ331において入出力される画像データを示している。   Here, FIG. 37 shows image data input and output in the signal processing chip 331 that performs the spatial resolution creation processing.

なお、図37では、i番目のフレーム(の画像)を、tiと表してある。 In FIG. 37, the i-th frame (image thereof) is represented by t i .

コマンド列生成部330(図35)が、図36上の通常画面モードコマンド列を送信するのは、動作モードとして、通常画面モードが選択されたときである。そして、通常画面モードでは、チューナ部311(図32)が、所定のチャンネルとしての、例えば、チャンネルCH1を選局し、これにより、信号処理チップ331には、図37上側に示すように、チャンネルCH1の入力画像データのフレームtiがフレーム周期T1で順次入力される。 The command sequence generation unit 330 (FIG. 35) transmits the normal screen mode command sequence in FIG. 36 when the normal screen mode is selected as the operation mode. In the normal screen mode, the tuner unit 311 (FIG. 32) selects, for example, the channel CH1 as a predetermined channel, so that the signal processing chip 331 has a channel as shown in the upper side of FIG. frame t i of the input image data of CH1 is sequentially inputted at a frame period T 1.

信号処理チップ331は、そこに入力されるチャンネルCH1の入力画像データのフレームtiに対して、空間解像度創造処理を施し、図37下側に示すように、その空間解像度創造処理によって空間解像度が向上したチャンネルCH1の画像データのフレームtiをフレーム周期T1で順次出力する。 The signal processing chip 331 performs the spatial resolution creation process on the frame t i of the input image data of the channel CH1 input thereto, and the spatial resolution is generated by the spatial resolution creation process as shown in the lower side of FIG. Frames t i of the improved image data of channel CH1 are sequentially output at a frame period T 1 .

この空間解像度が向上したチャンネルCH1の画像のフレームtiは、順次、信号処理チップ332に供給される。 The frame t i of the image of the channel CH 1 whose spatial resolution is improved is sequentially supplied to the signal processing chip 332.

信号処理チップ332は、図36上の通常画面モードコマンド列のうちの、例えば、ノイズ除去コマンドに応じて、その内部構造を、信号処理として、ノイズ除去処理を行うように切り換える。   The signal processing chip 332 switches the internal structure of the normal screen mode command sequence in FIG. 36 to perform noise removal processing as signal processing in accordance with, for example, a noise removal command.

そして、信号処理チップ332は、信号処理チップ334から供給される動きベクトルを用い、信号処理チップ331から供給されるチャンネルCH1の画像データに対して、ノイズ除去処理を施し、その結果得られる画像データを、メモリ部333に出力する。   Then, the signal processing chip 332 uses the motion vector supplied from the signal processing chip 334 to perform noise removal processing on the image data of the channel CH1 supplied from the signal processing chip 331, and the resulting image data Is output to the memory unit 333.

ここで、図38は、ノイズ除去処理を行う信号処理チップ332において入出力される画像データを示している。   Here, FIG. 38 shows image data input and output in the signal processing chip 332 that performs noise removal processing.

なお、図38では、i番目のフレーム(の画像)を、tiと表してある。 In FIG. 38, the i-th frame (image thereof) is represented by t i .

信号処理チップ331から332に対しては、図38上側に示すように、空間解像度が向上したチャンネルCH1の画像データのフレームtiがフレーム周期T1で順次入力される。 For the signal processing chip 331 332, as shown in FIG. 38 upper, frame t i of the image data of the channel CH1 with improved spatial resolution is successively inputted at a frame period T 1.

信号処理チップ332は、そこに入力されるチャンネルCH1の画像データのフレームtiに対して、ノイズ除去処理を施し、図38下側に示すように、そのノイズ除去処理によってS/Nが向上したチャンネルCH1の画像データのフレームtiをフレーム周期T1で順次出力する。 The signal processing chip 332 performs noise removal processing on the frame t i of the image data of the channel CH1 input thereto, and the S / N is improved by the noise removal processing as shown in the lower side of FIG. and sequentially outputs the frames t i of the image data of the channel CH1 in a frame period T 1.

このS/Nが向上したチャンネルCH1の画像のフレームtiは、順次、メモリ部333に供給される。 The frame t i of the image of the channel CH1 with improved S / N is sequentially supplied to the memory unit 333.

メモリ部333は、図36上の通常画面モードコマンド列のうちの、例えば、通常画面用メモリ制御コマンドにしたがい、信号処理チップ332が出力する画像データの各フレームを、そのまま、その内蔵するメモリに書き込むことにより一時記憶し、そのメモリに記憶された画像データのフレームを、出力画像データのフレームとして読み出して、ディスプレイ317(図32)に供給する。   The memory unit 333 follows each frame of image data output from the signal processing chip 332 as it is in the built-in memory according to, for example, a normal screen memory control command in the normal screen mode command sequence in FIG. The image data frame temporarily stored by writing is read out as a frame of output image data and supplied to the display 317 (FIG. 32).

従って、図36上の通常画面モードコマンド列が、コマンド列生成部330(図35)によって送信された場合には、ディスプレイ317において、チューナ部311(図32)で受信されたCH1の画像データの空間解像度およびS/Nを向上させた画像が表示される。   Accordingly, when the normal screen mode command sequence in FIG. 36 is transmitted by the command sequence generation unit 330 (FIG. 35), the CH1 image data received by the tuner unit 311 (FIG. 32) is displayed on the display 317. An image with improved spatial resolution and S / N is displayed.

一方、図36下のマルチ画面モードコマンド列が、コマンド列生成部330(図35)によって送信された場合、信号処理チップ331,332、メモリ部333、または信号処理チップ334は、それぞれ、そのマルチ画面モードコマンド列を受信し、そのマルチ画面モードコマンド列のうちの、自身が実行可能なコマンドに対応する処理を実行する。   On the other hand, when the multi-screen mode command sequence in the lower part of FIG. 36 is transmitted by the command sequence generation unit 330 (FIG. 35), the signal processing chips 331 and 332, the memory unit 333, or the signal processing chip 334 respectively A screen mode command sequence is received, and processing corresponding to a command that can be executed by itself in the multi-screen mode command sequence is executed.

この場合、信号処理チップ334は、マルチ画面モードコマンド列のうちの、例えば、マルチ画面用動きベクトル検出コマンドに応じて、その内部構造を、信号処理として、マルチ画面モード用の動きベクトルを検出する動きベクトル検出処理を行うように切り換える。   In this case, the signal processing chip 334 detects a motion vector for the multi-screen mode using the internal structure as signal processing in response to, for example, a multi-screen motion vector detection command in the multi-screen mode command sequence. Switch to perform motion vector detection processing.

そして、信号処理チップ334は、マルチ画面モード時にチューナ部311から時分割で供給される複数チャンネルの画像データとしての、例えばチャンネルCH1乃至CH4の画像データから、マルチ画面モード用の動きベクトルを検出して、信号処理チップ331および332に供給する。   The signal processing chip 334 detects a motion vector for the multi-screen mode from, for example, image data of the channels CH1 to CH4 as the image data of a plurality of channels supplied in time division from the tuner unit 311 in the multi-screen mode. To the signal processing chips 331 and 332.

信号処理チップ331は、図36下のマルチ画面モードコマンド列のうちの、例えば、縮小画像生成コマンドに応じて、その内部構造を、信号処理として、縮小画像生成処理(サイズを縮小するリサイズを行うリサイズ処理)を行うように切り換える。   The signal processing chip 331 performs reduced image generation processing (resizing to reduce the size) using the internal structure as signal processing in accordance with, for example, a reduced image generation command in the multi-screen mode command sequence in the lower part of FIG. Switch to perform resizing.

そして、信号処理チップ331は、信号処理チップ334から供給される動きベクトルを用い、チューナ部311から時分割で供給されるチャンネルCH1乃至CH4の画像データに対して、縮小画像生成処理を施し、その結果得られるCH1乃至CH4の縮小画像データを、信号処理チップ332に出力する。   The signal processing chip 331 uses the motion vector supplied from the signal processing chip 334 to perform reduced image generation processing on the image data of the channels CH1 to CH4 supplied in a time division manner from the tuner unit 311. The resulting reduced image data of CH1 to CH4 is output to the signal processing chip 332.

ここで、図39は、縮小画像生成処理を行う信号処理チップ331において入出力される画像データを示している。   Here, FIG. 39 shows image data input and output in the signal processing chip 331 that performs reduced image generation processing.

なお、図39では、i番目のフレーム(の画像)を、tiと表してある。 In FIG. 39, the i-th frame (image thereof) is represented by t i .

コマンド列生成部330(図35)が、図36下のマルチ画面モードコマンド列を送信するのは、動作モードとして、マルチ画面モードが選択されたときである。そして、マルチ画面モードでは、チューナ部311(図32)が、複数のチャンネルとしての、例えば、チャンネルCH1乃至CH4を時分割で選局し、これにより、信号処理チップ331には、図39上側に示すように、チャンネルCH1乃至CH4の画像データのフレームtiが、時分割で入力される。 The command sequence generation unit 330 (FIG. 35) transmits the multi-screen mode command sequence in the lower part of FIG. 36 when the multi-screen mode is selected as the operation mode. In the multi-screen mode, the tuner unit 311 (FIG. 32) selects, for example, channels CH1 to CH4 as a plurality of channels in a time-sharing manner. As shown, frames t i of image data of channels CH1 to CH4 are input in a time division manner.

即ち、動作モードがマルチ画面モードの場合、チューナ部311は、上述したように、周期4T1で、3フレームずつのコマ落ちが生じた4チャンネルCH1乃至CH4の画像データを、信号処理部314(図35)に供給する。従って、信号処理部314の信号処理チップ331に供給される、4チャンネルCH1乃至CH4の画像データには、それぞれ、周期4T1で、3フレームずつのコマ落ちが生じている。 That is, when the operation mode is the multi-screen mode, as described above, the tuner unit 311 converts the image data of the four channels CH1 to CH4 in which frames are dropped every three frames in the cycle 4T 1 into the signal processing unit 314 ( FIG. 35). Thus, supplied to the signal processing chip 331 of the signal processing section 314, 4 to the image data of the channels CH1 to CH4, respectively, at a period 4T 1, it dropped frames every three frames occurs.

ここで、このようにコマ落ちが生じているフレーム、即ち、チューナ部311で受信されていないフレームを、以下、適宜、欠損フレームという。また、欠損フレームに対して、チューナ部311で受信されたフレームを、以下、適宜、非欠損フレームという。   Here, a frame in which frame dropping occurs, that is, a frame not received by the tuner unit 311 is hereinafter referred to as a missing frame as appropriate. In addition, a frame received by the tuner unit 311 with respect to a missing frame is hereinafter referred to as a non-missing frame as appropriate.

信号処理チップ331は、そこに供給されるチャンネルCH1乃至CH4の画像データのフレームtiに対して、縮小画像生成処理を施し、図39下側に示すように、その縮小画像生成処理によって得られた、チャンネルCH1乃至CH4の画像データを縮小した縮小画像データを出力する。 The signal processing chip 331 performs reduced image generation processing on the frames t i of the image data of the channels CH1 to CH4 supplied thereto, and is obtained by the reduced image generation processing as shown in the lower side of FIG. Further, reduced image data obtained by reducing the image data of channels CH1 to CH4 is output.

なお、信号処理チップ331が出力する縮小画像データの周期は、フレーム周期T1であるが、チャンネルCH1乃至CH4のうちのある1チャンネルの縮小画像データが出力される周期は、4T1である。即ち、チャンネルCH1乃至CH4の各チャンネルの縮小画像データには、欠損フレームが存在する。つまり、チャンネルCH1乃至CH4のあるチャンネルの縮小画像データに注目すると、ある非欠損フレームと、その次の非欠損フレームとの間には、3フレームの欠損フレームが存在する。 The period of the reduced image data signal processing chip 331 is output is a frame period T 1, the period in which the reduced image data is output for one channel certain of the channels CH1 through CH4 are 4T 1. That is, there is a missing frame in the reduced image data of each channel of the channels CH1 to CH4. That is, when attention is paid to the reduced image data of a certain channel of channels CH1 to CH4, there are three missing frames between a certain non-missing frame and the next non-missing frame.

チャンネルCH1乃至CH4の縮小画像データは、信号処理チップ331から信号処理チップ332に供給される。   The reduced image data of the channels CH1 to CH4 is supplied from the signal processing chip 331 to the signal processing chip 332.

信号処理チップ332は、図36下の通常画面モードコマンド列のうちの、例えば、時間解像度創造コマンドに応じて、その内部構造を、信号処理として、時間解像度創造処理を行うように切り換える。   The signal processing chip 332 switches the internal structure of the normal screen mode command sequence in the lower part of FIG. 36 to perform time resolution creation processing as signal processing, for example, in accordance with a time resolution creation command.

そして、信号処理チップ332は、信号処理チップ334から供給される動きベクトルを用い、信号処理チップ331から供給されるチャンネルCH1乃至CH4の縮小画像データに対して、時間解像度創造処理を施し、その結果得られる画像データを、メモリ部333に出力する。   Then, the signal processing chip 332 uses the motion vector supplied from the signal processing chip 334 to perform time resolution creation processing on the reduced image data of the channels CH1 to CH4 supplied from the signal processing chip 331, and as a result The obtained image data is output to the memory unit 333.

ここで、図40は、時間解像度創造処理を行う信号処理チップ332において入出力される画像データを示している。   Here, FIG. 40 shows image data input and output in the signal processing chip 332 that performs the time resolution creation processing.

なお、図40では、チャンネルCH#kのi番目のフレームを、CH#k(ti)と表してある。 In FIG. 40, the i-th frame of channel CH # k is represented as CH # k (t i ).

マルチ画面モードにおいては、チューナ部311が、チャンネルCH1乃至CH4を時分割で選局し、これにより、信号処理チップ331から332には、図40一番上に示すように、チャンネルCH1乃至CH4の縮小画像データのフレームそれぞれが、周期4T1で順次入力される。 In the multi-screen mode, the tuner unit 311 tunes the channels CH1 to CH4 in a time division manner, so that the signal processing chips 331 to 332 receive the channels CH1 to CH4 as shown at the top of FIG. each frame of the reduced image data are sequentially input at a period 4T 1.

即ち、図40では、フレームt1のタイミングで、チャンネルCH1の1番目のフレームであるフレームCH1(t1)が、フレームt2のタイミングで、チャンネルCH2の2番目のフレームであるフレームCH2(t2)が、フレームt3のタイミングで、チャンネルCH3の3番目のフレームであるフレームCH3(t3)が、フレームt4のタイミングで、チャンネルCH4の4番目のフレームであるフレームCH4(t4)が、フレームt5のタイミングで、チャンネルCH1の5番目のフレームであるフレームCH1(t5)が、信号処理チップ332に入力され、以下同様にして、チャンネルCH1乃至CH4のフレームそれぞれが、周期4T1で順次入力される。 That is, in FIG. 40, at the timing of the frame t 1, frame CH1 is the first frame of the channel CH1 (t 1) is, at the timing of the frame t 2, a second frame of the channel CH2 frame CH2 (t 2 ) is the timing of frame t 3 and frame CH 3 (t 3 ), which is the third frame of channel CH 3, and frame CH 4 (t 4 ), which is the fourth frame of channel CH 4 , at the timing of frame t 4 However, at the timing of frame t 5 , frame CH 1 (t 5 ), which is the fifth frame of channel CH 1, is input to signal processing chip 332, and in the same manner, each frame of channels CH 1 to CH 4 has a period of 4T. 1 is entered sequentially.

信号処理チップ332は、欠損フレームがあるチャンネルCH1乃至CH4それぞれの縮小画像データに対して、時間解像度創造処理を施すことにより、欠損フレームがないチャンネルCH1乃至CH4それぞれの縮小画像データを生成する。   The signal processing chip 332 generates reduced image data of each of the channels CH1 to CH4 having no missing frame by performing a time resolution creation process on the reduced image data of each of the channels CH1 to CH4 having the missing frame.

即ち、信号処理チップ332では、図40上から2番目に示すように、チャンネルCH1の欠損フレームとなっているフレーム(の画像)CH1(t2),CH1(t3),CH1(t4),CH1(t6),・・・が存在するチャンネルCH1の縮小画像データが生成され、さらに、チャンネルCH2の欠損フレームとなっているフレームCH2(t1),CH2(t3),CH2(t4),CH2(t5),・・・が存在するチャンネルCH2の縮小画像データが生成される。また、信号処理チップ332では、チャンネルCH3の欠損フレームとなっているフレームCH3(t1),CH3(t2),CH3(t4),CH3(t5),・・・が存在するチャンネルCH3の縮小画像データが生成され、さらに、チャンネルCH4の欠損フレームとなっているフレームCH4(t1),CH4(t2),CH4(t3),CH4(t5),・・・が存在するチャンネルCH4の縮小画像データが生成される。 That is, in the signal processing chip 332, as shown second from the top in FIG. 40, a frame (image) CH1 (t 2 ), CH1 (t 3 ), CH1 (t 4 ) that is a missing frame of the channel CH1. , CH1 (t 6 ),... Is generated, and the frame CH2 (t 1 ), CH2 (t 3 ), CH2 (t 4 ), reduced image data of the channel CH2 in which CH2 (t 5 ),... Exists is generated. Further, in the signal processing chip 332, a channel CH3 in which frames CH3 (t 1 ), CH3 (t 2 ), CH3 (t 4 ), CH3 (t 5 ),. Furthermore, there are frames CH4 (t 1 ), CH4 (t 2 ), CH4 (t 3 ), CH4 (t 5 ),... That are missing frames of the channel CH4. Reduced image data of channel CH4 is generated.

このようにして、信号処理チップ332は、4チャンネルCH1乃至CH4それぞれについて、フレーム周期T1でフレームが存在する縮小画像データを得て出力する。 In this way, the signal processing chip 332 obtains and outputs reduced image data in which a frame exists at the frame period T 1 for each of the four channels CH1 to CH4.

この欠損フレームがないチャンネルCH1乃至CH4の縮小画像データのフレームtiは、順次、メモリ部333に供給される。 The frame t i of the reduced image data of the lost frame is not the channel CH1 through CH4 are sequentially supplied to the memory unit 333.

メモリ部333は、図36下のマルチ画面モードコマンド列のうちの、例えば、マルチ画面用メモリ制御コマンドにしたがい、信号処理チップ332が出力するチャンネルCH1乃至CH4の縮小画像データを、その内蔵するメモリに書き込んで読み出すことにより、そのチャンネルCH1乃至CH4の縮小画像データの同一フレームを合成し、これにより、チャンネルCH1乃至CH4の縮小画像データそれぞれの同一フレームをマルチ画面表示する出力画像データのフレームを生成して、ディスプレイ317に供給する。   The memory unit 333 stores the reduced image data of the channels CH1 to CH4 output from the signal processing chip 332 in accordance with, for example, a multi-screen memory control command in the multi-screen mode command sequence in the lower part of FIG. The same frame of the reduced image data of the channels CH1 to CH4 is synthesized by writing to and reading from, thereby generating a frame of output image data for displaying the same frame of each of the reduced image data of the channels CH1 to CH4 on a multi-screen Then, it is supplied to the display 317.

即ち、メモリ部333は、図40一番下に示すように、マルチ画面用メモリ制御コマンドにしたがって、信号処理チップ332からのチャンネルCH1乃至CH4の同一フレームの縮小画像データを、マルチ画面の左上、右上、左下、右下の小画面に対応するメモリの記憶領域に書き込むことにより、チャンネルCH1乃至CH4の縮小画像データそれぞれの同一フレームをマルチ画面表示する出力画像データのフレームを生成(記憶)する。   That is, as shown at the bottom of FIG. 40, the memory unit 333 converts the reduced image data of the same frame of the channels CH1 to CH4 from the signal processing chip 332 into the upper left of the multi-screen, according to the multi-screen memory control command. By writing into the storage area of the memory corresponding to the upper right, lower left, and lower right small screens, a frame of output image data for displaying the same frame of each of the reduced image data of channels CH1 to CH4 on a multi-screen is generated (stored).

さらに、メモリ部333は、マルチ画面用メモリ制御コマンドにしたがって、メモリに記憶した出力画像データのフレームを読み出し、ディスプレイ317に供給する。   Further, the memory unit 333 reads out the frame of the output image data stored in the memory in accordance with the multi-screen memory control command and supplies it to the display 317.

従って、図36下のマルチ画面モードコマンド列が、コマンド列生成部330(図35)によって送信された場合には、ディスプレイ317において、欠損フレームがないチャンネルCH1乃至CH4の画像の動きを滑らかに表示するマルチ画面が表示される。   Accordingly, when the multi-screen mode command sequence in the lower part of FIG. 36 is transmitted by the command sequence generation unit 330 (FIG. 35), the display 317 smoothly displays the motion of the images of the channels CH1 to CH4 having no missing frame. A multi-screen is displayed.

次に、図41のフローチャートを参照して、図35の信号処理部314の処理について説明する。   Next, the processing of the signal processing unit 314 in FIG. 35 will be described with reference to the flowchart in FIG.

システムコントローラ318(図32)から、信号処理部314(乃至316)に対して制御信号が送信されてくると、信号処理部314では、ステップS301において、コマンド列生成部330が、その制御信号を受信し、ステップS302に進む。   When a control signal is transmitted from the system controller 318 (FIG. 32) to the signal processing unit 314 (or 316), in the signal processing unit 314, in step S301, the command sequence generation unit 330 outputs the control signal. Then, the process proceeds to step S302.

ステップS302では、コマンド列生成部330が、システムコントローラ318から受信した制御信号に応じた1以上のコマンドからなるコマンド列を生成し、無線によって送信して、ステップS303に進む。   In step S302, the command sequence generation unit 330 generates a command sequence including one or more commands corresponding to the control signal received from the system controller 318, transmits the command sequence wirelessly, and proceeds to step S303.

ステップS303では、信号処理部314を構成する各ブロック、即ち、信号処理チップ331,332、メモリ部333、および信号処理チップ334が、コマンド列生成部330から送信されてくるコマンド列を受信する。さらに、ステップS303では、信号処理チップ331,332,334それぞれが、コマンド列生成部330から受信したコマンド列の中のコマンドから、自身が実行可能なコマンドを認識し、そのコマンドに対応する処理(信号処理)を行うことを決定する。即ち、信号処理チップ331,332,334それぞれは、自身が実行可能なコマンドに応じて、自身の内部構造を切り換え、そのコマンドに対応する信号処理を行う状態となる。   In step S <b> 303, each block constituting the signal processing unit 314, that is, the signal processing chips 331 and 332, the memory unit 333, and the signal processing chip 334 receives the command sequence transmitted from the command sequence generation unit 330. Furthermore, in step S303, each of the signal processing chips 331, 332, and 334 recognizes a command that can be executed from the command in the command sequence received from the command sequence generation unit 330, and performs processing corresponding to the command ( Signal processing). That is, each of the signal processing chips 331, 332, and 334 switches to its own internal structure in accordance with a command that can be executed by itself, and performs signal processing corresponding to the command.

そして、ステップS303からS304に進み、信号処理チップ334が、チューナ部311(図32)から供給される画像データを対象に、ステップS303で決定した信号処理を実行し、その信号処理結果を、信号処理チップ331および332に供給して、ステップS305に進む。   Then, the process proceeds from step S303 to S304, and the signal processing chip 334 executes the signal processing determined in step S303 on the image data supplied from the tuner unit 311 (FIG. 32), and the signal processing result is obtained as a signal. The processing chips 331 and 332 are supplied, and the process proceeds to step S305.

ステップS305では、信号処理チップ331が、チューナ部311(図32)から供給される画像データを対象に、ステップS303で決定した信号処理を実行し、その信号処理結果としての画像データを、信号処理チップ332に供給して、ステップS306に進む。   In step S305, the signal processing chip 331 executes the signal processing determined in step S303 on the image data supplied from the tuner unit 311 (FIG. 32), and the image data as the signal processing result is subjected to signal processing. The chip 332 is supplied, and the process proceeds to step S306.

ステップS306では、信号処理チップ332が、信号処理チップ331から供給される画像データを対象に、ステップS303で決定した信号処理を実行し、その信号処理結果としての画像データを、メモリ部333に供給して、ステップS307に進む。   In step S306, the signal processing chip 332 executes the signal processing determined in step S303 on the image data supplied from the signal processing chip 331, and supplies the image data as the signal processing result to the memory unit 333. Then, the process proceeds to step S307.

ここで、信号処理チップ331と332とでは、信号処理チップ334の信号処理結果を用いて、信号処理が行われる。   Here, the signal processing chips 331 and 332 perform signal processing using the signal processing result of the signal processing chip 334.

ステップS307では、メモリ部333が、ステップS303でコマンド列生成部330から受信したコマンド列の中のコマンドのうちの自身が実行可能なコマンドにしたがって、信号処理チップ332から供給される画像データをメモリに書き込むとともに、その書き込んだ画像データを読み出し、ディスプレイ317(図32)に出力して、処理を終了する。   In step S307, the memory unit 333 stores the image data supplied from the signal processing chip 332 in accordance with a command that can be executed by the command in the command sequence received from the command sequence generation unit 330 in step S303. And the written image data is read out and output to the display 317 (FIG. 32), and the process is terminated.

なお、図41のステップS301乃至S307の処理それぞれは、ハードウェアとしての信号処理チップ331,332、メモリ部333、および信号処理チップ334などにより行われる処理である。但し、ステップS301乃至S303の処理は、マイクロコンピュータ等のコンピュータに、プログラムを実行させることで行うことも可能である。   Note that the processes in steps S301 to S307 in FIG. 41 are processes performed by the signal processing chips 331 and 332, the memory unit 333, the signal processing chip 334, and the like as hardware. However, the processing of steps S301 to S303 can also be performed by causing a computer such as a microcomputer to execute a program.

次に、図42は、図35の信号処理チップ334の構成例を示すブロック図である。   Next, FIG. 42 is a block diagram illustrating a configuration example of the signal processing chip 334 of FIG.

チューナ部311(図32)が出力する画像(入力画像)データは、フレームメモリ341および動き検出回路344に供給される。   Image (input image) data output from the tuner unit 311 (FIG. 32) is supplied to the frame memory 341 and the motion detection circuit 344.

受信部340は、コマンド列生成部330が送信してくるコマンド列を受信する。さらに、受信部340は、コマンド列生成部330から受信したコマンド列から、信号処理チップ334が実行可能なコマンドを認識し、そのコマンドを、セレクタ343および選択部345に供給する。   The receiving unit 340 receives the command sequence transmitted from the command sequence generating unit 330. Further, the reception unit 340 recognizes a command that can be executed by the signal processing chip 334 from the command sequence received from the command sequence generation unit 330, and supplies the command to the selector 343 and the selection unit 345.

フレームメモリ341は、そこに供給される入力画像データのフレームを一時記憶することにより、1フレーム分だけ遅延して、遅延回路342およびセレクタ343に供給する。従って、動き検出回路344に、第n+4フレームの入力画像データが供給されるとき、フレームメモリ341から遅延回路342およびセレクタ343には、その1フレーム前の第n+3フレームの入力画像データが供給される。   The frame memory 341 temporarily stores the frame of the input image data supplied thereto, thereby delaying it by one frame and supplying it to the delay circuit 342 and the selector 343. Therefore, when the input image data of the (n + 4) th frame is supplied to the motion detection circuit 344, the input image data of the (n + 3) th frame before that frame is supplied from the frame memory 341 to the delay circuit 342 and the selector 343. .

遅延回路342は、フレームメモリ341から供給される入力画像データのフレームを、3フレーム分だけ遅延して、セレクタ343に供給する。従って、チューナ部311から信号処理チップ334に供給される入力画像データのフレームは、フレームメモリ341および遅延回路342で、合計4フレーム分だけ遅延され、セレクタ343に供給されるから、動き検出回路344に、第n+4フレームの入力画像が供給されるとき、遅延回路342からセレクタ343には、その4フレーム前の第nフレームの入力画像データが供給される。   The delay circuit 342 delays the frame of the input image data supplied from the frame memory 341 by 3 frames and supplies the delayed image to the selector 343. Accordingly, the frame of the input image data supplied from the tuner unit 311 to the signal processing chip 334 is delayed by a total of four frames in the frame memory 341 and the delay circuit 342 and supplied to the selector 343, so that the motion detection circuit 344 When the input image of the (n + 4) th frame is supplied, the input image data of the nth frame before the 4th frame is supplied from the delay circuit 342 to the selector 343.

セレクタ343には、上述したように、フレームメモリ341から第n+3フレームの入力画像が供給されるとともに、遅延回路342から第nフレームの入力画像が供給される。セレクタ343は、受信部340から供給されるコマンドに応じて、フレームメモリ341の出力または遅延回路342の出力のうちのいずれか一方を、動き検出回路344への入力とするように、信号処理チップ334の内部構造を切り換える。   As described above, the selector 343 is supplied with the input image of the (n + 3) th frame from the frame memory 341 and the input image of the nth frame from the delay circuit 342. In response to the command supplied from the receiving unit 340, the selector 343 uses either the output of the frame memory 341 or the output of the delay circuit 342 as an input to the motion detection circuit 344. The internal structure of 334 is switched.

これにより、動き検出回路344には、フレームメモリ341が出力する第n+3フレームの入力画像データ、または遅延回路342が出力する第nフレームの入力画像データのうちの一方が、セレクタ343を介して供給される。   Accordingly, one of the n + 3th frame input image data output from the frame memory 341 or the nth frame input image data output from the delay circuit 342 is supplied to the motion detection circuit 344 via the selector 343. Is done.

動き検出回路344は、セレクタ343を介して供給される入力画像データのフレームの各画素の動きベクトルを、チューナ部311(図32)から供給される入力画像データを参照することにより検出し、選択部345に供給する。   The motion detection circuit 344 detects and selects the motion vector of each pixel of the frame of the input image data supplied via the selector 343 by referring to the input image data supplied from the tuner unit 311 (FIG. 32). Supplied to the unit 345.

選択部345は、受信部340から供給されるコマンドに応じて、動き検出回路344から供給される動きベクトルをそのまま、またはその大きさを1/2に縮小し、信号処理チップ331および332(図35)に供給する。   In response to the command supplied from the reception unit 340, the selection unit 345 directly or without reducing the size of the motion vector supplied from the motion detection circuit 344 to the signal processing chips 331 and 332 (FIG. 35).

次に、図43のフローチャートを参照して、図42の信号処理チップ334の処理について説明する。   Next, processing of the signal processing chip 334 of FIG. 42 will be described with reference to the flowchart of FIG.

信号処理チップ334では、コマンド列生成部330(図35)からコマンド列が送信されてくると、ステップS311において、受信部340が、そのコマンド列を受信する。さらに、受信部340は、コマンド列生成部330から受信したコマンド列から、信号処理チップ334が実行可能なコマンドを認識し、そのコマンドを、セレクタ343および選択部345に供給して、ステップS311からS312に進む。   In the signal processing chip 334, when a command sequence is transmitted from the command sequence generation unit 330 (FIG. 35), the reception unit 340 receives the command sequence in step S311. Further, the reception unit 340 recognizes a command that can be executed by the signal processing chip 334 from the command sequence received from the command sequence generation unit 330, supplies the command to the selector 343 and the selection unit 345, and starts from step S311. The process proceeds to S312.

ここで、第2実施の形態では、信号処理チップ334が実行可能なコマンドとしては、例えば、上述したように、図36上の通常画面モードコマンド列の中の通常画面用動きベクトル検出コマンドと、図36下のマルチ画面モードコマンド列の中のマルチ画面用動きベクトル検出コマンドとがある。   Here, in the second embodiment, as the commands that can be executed by the signal processing chip 334, for example, as described above, the normal screen motion vector detection command in the normal screen mode command sequence in FIG. There are multi-screen motion vector detection commands in the multi-screen mode command sequence at the bottom of FIG.

従って、受信部340は、図36上の通常画面モードコマンド列を受信した場合、その中の通常画面用動きベクトル検出コマンドを、セレクタ343および選択部345に供給する。また、受信部340は、図36下のマルチ画面モードコマンド列を受信した場合、その中のマルチ画面用動きベクトル検出コマンドを、セレクタ343および選択部345に供給する。   Therefore, when receiving the normal screen mode command sequence in FIG. 36, the receiving unit 340 supplies the normal screen motion vector detection command in the sequence to the selector 343 and the selection unit 345. When receiving the multi-screen mode command sequence in the lower part of FIG. 36, the receiving unit 340 supplies the multi-screen motion vector detection command in the multi-screen mode command sequence to the selector 343 and the selecting unit 345.

ステップS312では、セレクタ343は、受信部340から供給されたコマンドに応じて、フレームメモリ341の出力または遅延回路342の出力のうちのいずれか一方を、動き検出回路344への入力とするように、信号処理チップ334の内部構造を切り換える。さらに、ステップS312では、選択部345は、受信部340から供給されたコマンドに応じて、動き検出回路344から供給される動きベクトルをそのまま出力するように、またはその大きさを1/2に縮小するように、自身を設定し(自身の内部構造を切り換え)、ステップS313に進む。   In step S <b> 312, the selector 343 causes either the output of the frame memory 341 or the output of the delay circuit 342 to be input to the motion detection circuit 344 in accordance with the command supplied from the reception unit 340. The internal structure of the signal processing chip 334 is switched. Further, in step S312, the selection unit 345 outputs the motion vector supplied from the motion detection circuit 344 as it is or reduces the size thereof by half according to the command supplied from the reception unit 340. As such, it sets itself (switches its internal structure) and proceeds to step S313.

即ち、受信部340からセレクタ343および選択部345に供給されたコマンドが、通常画面用動きベクトル検出コマンドである場合、セレクタ343は、フレームメモリ341の出力を、動き検出回路344への入力とするようにし、これにより、信号処理チップ334の内部構造を、信号処理として、通常画面モード用の動きベクトルを検出する処理を行うように切り換える。さらに、選択部345は、動き検出回路344から供給される動きベクトルをそのまま出力するように、自身を設定する。   That is, when the command supplied from the reception unit 340 to the selector 343 and the selection unit 345 is a normal screen motion vector detection command, the selector 343 uses the output of the frame memory 341 as an input to the motion detection circuit 344. Thus, the internal structure of the signal processing chip 334 is switched to perform processing for detecting a motion vector for the normal screen mode as signal processing. Furthermore, the selection unit 345 sets itself so as to output the motion vector supplied from the motion detection circuit 344 as it is.

一方、受信部340からセレクタ343および選択部345に供給されたコマンドが、マルチ画面用動きベクトル検出コマンドである場合、セレクタ343は、遅延回路342の出力を、動き検出回路344への入力とするようにし、これにより、信号処理チップ334の内部構造を、信号処理として、マルチ画面モード用の動きベクトルを検出する処理を行うように切り換える。さらに、選択部345は、動き検出回路344から供給される動きベクトルを、その大きさを1/2に縮小するように、自身を設定する。   On the other hand, when the command supplied from the reception unit 340 to the selector 343 and the selection unit 345 is a multi-screen motion vector detection command, the selector 343 uses the output of the delay circuit 342 as an input to the motion detection circuit 344. Thus, the internal structure of the signal processing chip 334 is switched so as to perform processing for detecting a motion vector for the multi-screen mode as signal processing. Furthermore, the selection unit 345 sets itself so as to reduce the magnitude of the motion vector supplied from the motion detection circuit 344 to ½.

ステップS313では、信号処理チップ334は、チューナ部311(図32)から供給される入力画像データを対象として、ステップS312で切り換えた内部構造によって行われるべき信号処理、即ち、ここでは、通常画面用の動きベクトルを検出する処理、またはマルチ画面用の動きベクトルを検出する処理を行い、ステップS314に進む。   In step S313, the signal processing chip 334 performs signal processing to be performed by the internal structure switched in step S312 on the input image data supplied from the tuner unit 311 (FIG. 32), that is, here for the normal screen. The process of detecting the motion vector of the image or the process of detecting the motion vector for the multi-screen is performed, and the process proceeds to step S314.

ここで、コマンド列生成部330が図36上の通常画面モードコマンド列を送信する通常画面モードでは、入力画像データとしての、例えばチャンネルCH1の画像データに欠損フレームが存在しないことから、そのチャンネルCH1の画像データにおいて注目しているフレームが第nフレームであるとすると、その第nフレームの動きベクトルは、例えば、その次の第n+1フレームを参照することにより検出することができる。   Here, in the normal screen mode in which the command sequence generation unit 330 transmits the normal screen mode command sequence in FIG. 36, since there is no missing frame in the image data of the channel CH1, for example, as the input image data, the channel CH1 If the frame of interest in the image data is the nth frame, the motion vector of the nth frame can be detected by referring to the next n + 1th frame, for example.

一方、コマンド列生成部330が図36下のマルチ画面モードコマンド列を送信するマルチ画面モードでは、入力画像データとしての、例えばチャンネルCH1乃至CH4の画像データそれぞれには、4フレームに対して3フレームの欠損フレームが存在することから、そのチャンネルCH1乃至CH4の画像データにおいて注目している非欠損フレームが第nフレームであるとすると、第nフレームの動きベクトルは、例えば、その次の非欠損フレームである第n+4フレームを参照することにより検出する必要がある。   On the other hand, in the multi-screen mode in which the command sequence generation unit 330 transmits the multi-screen mode command sequence shown in the lower part of FIG. 36, the input image data, for example, image data of channels CH1 to CH4 has 3 frames for 4 frames. If the non-missing frame of interest in the image data of the channels CH1 to CH4 is the nth frame, the motion vector of the nth frame is, for example, the next non-missing frame. It is necessary to detect by referring to the (n + 4) th frame.

そこで、信号処理チップ334では、通常画面モードにおいては、通常画面モード用の動きベクトルの検出処理、即ち、第nフレームの動きベクトルを、その次の第n+1フレームを参照することにより検出する処理が行われ、マルチ画面モードにおいては、マルチ画面モード用の動きベクトルの検出処理、即ち、非欠損フレームである第nフレームの動きベクトルを、その次の非欠損フレームである第n+4フレームを参照することにより検出する処理が行われる。   Therefore, in the normal screen mode, the signal processing chip 334 detects the motion vector for the normal screen mode, that is, detects the motion vector of the nth frame by referring to the next n + 1th frame. In the multi-screen mode, motion vector detection processing for the multi-screen mode, that is, the n + 4th frame which is the next non-missing frame is used as the motion vector of the n-th frame which is a non-missing frame. The detection process is performed by referring to.

即ち、動作モードが通常画面モードの場合、信号処理チップ334には、図32のチューナ部311が出力する、例えば、チャンネルCH1の画像データが供給され、このチャンネルCH1の画像データは、フレームメモリ341および動きベクトル検出回路344に供給される。   That is, when the operation mode is the normal screen mode, the signal processing chip 334 is supplied with, for example, image data of the channel CH1 output from the tuner unit 311 of FIG. 32. The image data of the channel CH1 is stored in the frame memory 341. And supplied to the motion vector detection circuit 344.

フレームメモリ341は、そこに供給されるチャンネルCH1の画像データのフレームを一時記憶することにより、1フレーム分だけ遅延して、遅延回路342およびセレクタ343に供給する。通常画面モードにおいては、セレクタ343は、通常画面用動きベクトル検出コマンドに応じて、フレームメモリ341の出力を、動き検出回路344への入力とするようにしているので、フレームメモリ341からのチャンネルCH1の画像データのフレームは、セレクタ343を介して、動き検出回路344に供給される。   The frame memory 341 temporarily stores the frame of the image data of the channel CH1 supplied thereto, thereby delaying it by one frame and supplying it to the delay circuit 342 and the selector 343. In the normal screen mode, the selector 343 uses the output of the frame memory 341 as an input to the motion detection circuit 344 in accordance with the normal screen motion vector detection command. The frame of the image data is supplied to the motion detection circuit 344 via the selector 343.

ここで、上述したことから、動き検出回路344に、第n+4フレームのチャンネルCH1の画像データが供給されるとき、フレームメモリ341からセレクタ343には、その1フレーム前の第n+3フレームのチャンネルCH1の画像データが供給される。そして、いまの場合、セレクタ343は、フレームメモリ341からのチャンネルCH1の画像データのフレームを、動き検出回路344に供給するから、第n+3フレームと第n+4フレームのチャンネルCH1の画像データ、即ち、チャンネルCH1の画像データのあるフレームを注目フレームとすると、注目フレームと、その注目フレームの次のフレームが、動き検出回路344に供給される。   From the above, when the image data of the channel CH1 of the (n + 4) th frame is supplied to the motion detection circuit 344, the frame memory 341 sends to the selector 343 the channel CH1 of the (n + 3) th frame before that frame. Image data is supplied. In this case, since the selector 343 supplies the frame CH1 image data frame from the frame memory 341 to the motion detection circuit 344, the image data of the channel CH1 of the (n + 3) th frame and the (n + 4) th frame, that is, the channel Assuming that a frame having image data of CH1 is an attention frame, the attention frame and a frame next to the attention frame are supplied to the motion detection circuit 344.

動き検出回路344は、注目フレームのチャンネルCH1の画像データの各画素の動きベクトルを、その注目フレームの次のフレームのチャンネルCH1の画像データを参照することにより検出し、選択部345に供給する。   The motion detection circuit 344 detects the motion vector of each pixel of the image data of the channel CH1 of the frame of interest by referring to the image data of the channel CH1 of the next frame of the frame of interest, and supplies it to the selection unit 345.

通常画面モードにおいては、選択部345は、通常画面用動きベクトル検出コマンドに応じて、動き検出回路344から供給される動きベクトルをそのまま出力するように、自身を設定しているので、動き検出回路344から供給される動きベクトルを、そのまま、通常画面モード用の動きベクトルとして出力する。   In the normal screen mode, the selection unit 345 sets itself so as to output the motion vector supplied from the motion detection circuit 344 in response to the normal screen motion vector detection command. The motion vector supplied from 344 is output as it is as the motion vector for the normal screen mode.

一方、動作モードがマルチ画面モードの場合、信号処理チップ334には、図32のチューナ部311が出力する、例えば、チャンネルCH1乃至CH4それぞれの、欠損フレームがある画像データ(以下、適宜、欠損フレームあり画像データという)が供給され、このチャンネルCH1乃至CH4の欠損フレームあり画像データは、フレームメモリ341および動きベクトル検出回路344に供給される。   On the other hand, when the operation mode is the multi-screen mode, the signal processing chip 334 outputs to the signal processing chip 334 image data having a missing frame, for example, each of the channels CH1 to CH4 (hereinafter referred to as a missing frame as appropriate). The image data with missing frames of the channels CH1 to CH4 is supplied to the frame memory 341 and the motion vector detection circuit 344.

フレームメモリ341は、そこに供給されるチャンネルCH1乃至CH4の欠損フレームあり画像データのフレームを一時記憶することにより、1フレーム分だけ遅延して、遅延回路342およびセレクタ343に供給する。遅延回路342は、フレームメモリ341から供給されるチャンネルCH1乃至CH4の欠損フレームあり画像データのフレームを、さらに、3フレーム分だけ遅延し、セレクタ343に供給する。   The frame memory 341 temporarily stores the frames of the image data with the missing frames of the channels CH1 to CH4 supplied thereto, thereby delaying it by one frame and supplying it to the delay circuit 342 and the selector 343. The delay circuit 342 further delays the frames of image data with missing frames of the channels CH1 to CH4 supplied from the frame memory 341 by three frames, and supplies the delayed frames to the selector 343.

マルチ画面モードにおいては、セレクタ343は、マルチ画面用動きベクトル検出コマンドに応じて、遅延回路342の出力を、動き検出回路344への入力とするようにしているので、遅延回路342からのチャンネルCH1乃至CH4の欠損フレームあり画像データのフレームは、セレクタ343を介して、動き検出回路344に供給される。   In the multi-screen mode, the selector 343 uses the output of the delay circuit 342 as an input to the motion detection circuit 344 in response to the multi-screen motion vector detection command. The frame of image data with a missing frame of CH4 to CH4 is supplied to the motion detection circuit 344 via the selector 343.

ここで、上述したことから、動き検出回路344に、第n+4フレームの画像が供給されるとき、遅延回路342からセレクタ343には、その4フレーム前の第nフレームの画像が供給される。そして、いまの場合、セレクタ343は、遅延回路342からの第nフレームを、動き検出回路344に供給するから、動き検出回路344には、第nフレームと第n+4フレームの画像データが供給される。   Here, as described above, when an image of the (n + 4) th frame is supplied to the motion detection circuit 344, an image of the nth frame four frames before that is supplied from the delay circuit 342 to the selector 343. In this case, since the selector 343 supplies the nth frame from the delay circuit 342 to the motion detection circuit 344, the image data of the nth frame and the n + 4th frame is supplied to the motion detection circuit 344. .

また、マルチ画面モードにおいては、チューナ部311から信号処理チップ334には、上述したように、チャンネルCH1乃至CH4の欠損フレームあり画像データが供給される。このチャンネルCH1乃至CH4の欠損フレームあり画像は、あるチャンネルに注目すれば、非欠損フレームが4フレームごとに存在する画像であるから、動き検出回路344には、チャンネルCH1乃至CH4のうちのあるチャンネルの非欠損フレームを注目フレームとすると、そのチャンネルについて、非欠損フレームである注目フレームと、その注目フレームの次の非欠損フレーム(注目フレームの4フレーム後のフレーム)が、動き検出回路344に供給される。   In the multi-screen mode, the image data with missing frames of the channels CH1 to CH4 is supplied from the tuner unit 311 to the signal processing chip 334 as described above. The images with missing frames of the channels CH1 to CH4 are images in which there are non-missing frames every four frames if attention is paid to a certain channel. Therefore, the motion detection circuit 344 has a certain channel among the channels CH1 to CH4. If the non-defective frame is the target frame, the target frame that is the non-defective frame and the next non-defective frame (four frames after the target frame) are supplied to the motion detection circuit 344 for the channel. Is done.

動き検出回路344は、注目フレームの各画素の動きベクトルを、その注目フレームのチャンネルにおける次の非欠損フレームを参照することにより検出し、選択部345に供給する。   The motion detection circuit 344 detects the motion vector of each pixel of the frame of interest by referring to the next non-defective frame in the channel of the frame of interest, and supplies it to the selection unit 345.

マルチ画面モードにおいては、選択部345は、マルチ画面用動きベクトル検出コマンドに応じて、動き検出回路344から供給される動きベクトルを、1/2の大きさに縮小するように、自身を設定しているので、動き検出回路344から供給される動きベクトルを、1/2の大きさに縮小し、その縮小後の動きベクトルを、マルチ画面モード用の動きベクトルとして出力する。   In the multi-screen mode, the selection unit 345 sets itself so as to reduce the motion vector supplied from the motion detection circuit 344 to ½ in response to the multi-screen motion vector detection command. Therefore, the motion vector supplied from the motion detection circuit 344 is reduced to ½, and the reduced motion vector is output as a motion vector for the multi-screen mode.

なお、動作モードがマルチ画面モードの場合に、選択部345において、非欠損フレームの画素について検出した動きベクトルを、1/2の大きさにするのは、次のような理由による。   In addition, when the operation mode is the multi-screen mode, the reason why the motion vector detected by the selection unit 345 for the pixels of the non-defective frame is halved is as follows.

即ち、マルチ画面モードでは、コマンド列生成部330は、図36下のマルチ画面モードコマンド列を送信する。この場合、信号処理チップ331では、上述したように、マルチ画面モードコマンド列のうちの縮小画像生成コマンドに応じた縮小画像生成処理が、チャンネルCH1乃至CH4の欠損フレームあり画像データを対象に行われ、その欠損フレームあり画像データのサイズを、上述の小画面のサイズ(1フレームを2×2に等分割したサイズ)に縮小したチャンネルCH1乃至CH4の縮小画像データが得られる。   That is, in the multi-screen mode, the command sequence generation unit 330 transmits the multi-screen mode command sequence in the lower part of FIG. In this case, in the signal processing chip 331, as described above, the reduced image generation processing corresponding to the reduced image generation command in the multi-screen mode command sequence is performed on the image data with missing frames of the channels CH1 to CH4. Then, the reduced image data of the channels CH1 to CH4 obtained by reducing the size of the image data with the missing frame to the above-described small screen size (size obtained by equally dividing one frame into 2 × 2) is obtained.

なお、このチャンネルCH1乃至CH4の縮小画像データには、縮小画像生成処理が行われる前のチャンネルCH1乃至CH4の欠損フレームあり画像データと同様に欠損フレームが存在する。欠損フレームがある縮小画像データを、以下、適宜、欠損フレームあり縮小画像データという。   Note that, in the reduced image data of channels CH1 to CH4, there is a missing frame, similar to the image data with missing frames of channels CH1 to CH4 before the reduced image generation processing is performed. Hereinafter, the reduced image data having the missing frame is appropriately referred to as reduced image data having the missing frame.

信号処理チップ331において、上述したようにして得られたチャンネルCH1乃至CH4の欠損フレームあり縮小画像データは、信号処理チップ332に供給される。そして、マルチ画面モードでは、信号処理チップ332においては、信号処理チップ331から供給されるチャンネルCH1乃至CH4の欠損フレームあり縮小画像データを対象に、マルチ画面モードコマンド列(図36下)のうちの時間解像度創造コマンドに応じた時間解像度創造処理が行われ、チャンネルCH1乃至CH4の、欠損フレームがない縮小画像データ(以下、適宜、欠損フレームなし縮小画像データという)が得られる。   In the signal processing chip 331, the reduced image data with missing frames of the channels CH1 to CH4 obtained as described above is supplied to the signal processing chip 332. In the multi-screen mode, in the signal processing chip 332, the reduced image data with missing frames of the channels CH1 to CH4 supplied from the signal processing chip 331 is targeted for the reduced image data in the multi-screen mode command sequence (lower part of FIG. 36). Time resolution creation processing is performed in accordance with the time resolution creation command, and reduced image data with no missing frames (hereinafter, referred to as reduced image data without missing frames) of channels CH1 to CH4 is obtained.

以上のように、マルチ画面モードにおいては、信号処理チップ331および332において、小画面のサイズの縮小画像データ、即ち、1フレームの画像データの横と縦の画素数を、それぞれ1/2に縮小した(間引いた)サイズの縮小画像データを扱う信号処理が行われる。   As described above, in the multi-screen mode, the signal processing chips 331 and 332 reduce the reduced image data of the small screen size, that is, the number of horizontal and vertical pixels of the image data of one frame to 1/2. The signal processing for handling the reduced image data of the (thinned out) size is performed.

一方、信号処理チップ334では、チューナ部311が出力するチャンネルCH1乃至CH4の欠損フレームあり画像(縮小されていない画像)データを対象として動きベクトルが検出されるため、その動きベクトルの大きさは、理論的には、縮小画像データを対象として動きベクトルを検出した場合の大きさの2倍となる。このため、マルチ画面モードにおいては、信号処理チップ334の選択部345は、チャンネルCH1乃至CH4の画像(縮小されていない画像)データを対象に検出した動きベクトルを、縮小画像データを対象として検出した動きベクトルに対応させるために、1/2の大きさに縮小して、信号処理チップ331および332に供給する。   On the other hand, in the signal processing chip 334, since a motion vector is detected for image data with a missing frame of channels CH1 to CH4 output from the tuner unit 311 (unreduced image), the size of the motion vector is Theoretically, it is twice the size when a motion vector is detected for reduced image data. For this reason, in the multi-screen mode, the selection unit 345 of the signal processing chip 334 detects the motion vector detected for the image data (non-reduced image) data of the channels CH1 to CH4 for the reduced image data. In order to correspond to the motion vector, the signal is reduced to ½ and supplied to the signal processing chips 331 and 332.

ステップS314では、信号処理チップ334で信号処理の対象とすべき画像データが存在するかどうかが判定される。ステップS314において、信号処理チップ334で信号処理の対象とすべき画像データが存在すると判定された場合、即ち、チューナ部311から信号処理チップ334に対して入力画像データが供給されている場合、ステップS313に戻り、通常画面用の動きベクトルまたはマルチ画面用の動きベクトルを検出する処理が続行される。   In step S314, the signal processing chip 334 determines whether there is image data to be subjected to signal processing. If it is determined in step S314 that there is image data to be subjected to signal processing in the signal processing chip 334, that is, if input image data is supplied from the tuner 311 to the signal processing chip 334, step S314 is performed. Returning to S313, the process of detecting the motion vector for the normal screen or the motion vector for the multi-screen is continued.

また、ステップS314において、信号処理チップ334で信号処理の対象とすべき画像データが存在しないと判定された場合、即ち、チューナ部311から信号処理チップ334に対して入力画像データが供給されなくなった場合、処理を終了する。   If it is determined in step S314 that there is no image data to be subjected to signal processing in the signal processing chip 334, that is, input image data is no longer supplied from the tuner unit 311 to the signal processing chip 334. If so, the process ends.

なお、信号処理チップ334は、その他、例えば、コマンド列生成部330から、新たなコマンド列が送信されてきた場合も、図43のフローチャートにしたがった処理を一旦終了し、再度、ステップS311から処理を開始する。   Note that the signal processing chip 334 temporarily terminates the processing according to the flowchart of FIG. 43 even when, for example, a new command sequence is transmitted from the command sequence generation unit 330, and starts again from step S311. To start.

ここで、動きベクトル検出回路344における動きベクトルの検出方法としては、例えば、ブロックマッチング法や、勾配法、その他の任意の方法を採用することができる。   Here, as a motion vector detection method in the motion vector detection circuit 344, for example, a block matching method, a gradient method, or any other method can be employed.

また、上述の場合には、動きベクトルを、画素単位で検出することで、各画素に対する動きベクトルを得るようにしたが、動きベクトルの検出は、その他、例えば、所定の画素数おきや、所定の画素で構成されるブロック単位等で行うことができる。この場合、任意の画素に対する動きベクトルは、その近くにある他の画素に対して検出された動きベクトルや、その画素を含むブロックに対して検出された動きベクトルで代用することが可能である。   Further, in the above-described case, the motion vector is detected in units of pixels to obtain the motion vector for each pixel. However, the motion vector may be detected by, for example, a predetermined number of pixels or a predetermined number of pixels. This can be done in units of blocks composed of these pixels. In this case, a motion vector for an arbitrary pixel can be substituted with a motion vector detected for another nearby pixel or a motion vector detected for a block including the pixel.

次に、図44は、図35の信号処理チップ331の構成例を示している。   Next, FIG. 44 shows a configuration example of the signal processing chip 331 of FIG.

信号処理チップ331は、コマンド列生成部330(図35)から供給されるコマンド列を構成するコマンドに応じて、その内部構造を切り換え、上述したクラス分類適応処理を利用した空間解像度創造処理または縮小画像生成処理(リサイズ処理としての縮小画像生成処理)を行う。   The signal processing chip 331 switches the internal structure in accordance with commands composing the command sequence supplied from the command sequence generation unit 330 (FIG. 35), and performs spatial resolution creation processing or reduction using the class classification adaptive processing described above. Image generation processing (reduced image generation processing as resizing processing) is performed.

即ち、信号処理チップ331は、注目画素選択部351、タップ選択部352,353、クラス分類部354、係数出力部355、予測演算部356、受信部357、動き判定部358で構成されている。これらのうちの注目画素選択部351、タップ選択部352,353、クラス分類部354、係数出力部355、予測演算部356は、図1の注目画素選択部11、タップ選択部12,13、クラス分類部14、係数出力部15、予測演算部16にそれぞれ対応するものである。   That is, the signal processing chip 331 includes a target pixel selection unit 351, tap selection units 352 and 353, a class classification unit 354, a coefficient output unit 355, a prediction calculation unit 356, a reception unit 357, and a motion determination unit 358. Of these, the pixel-of-interest selection unit 351, tap selection units 352, 353, class classification unit 354, coefficient output unit 355, and prediction calculation unit 356 are the pixel-of-interest selection unit 11, tap selection units 12, 13 and class of FIG. These correspond to the classification unit 14, the coefficient output unit 15, and the prediction calculation unit 16, respectively.

従って、信号処理チップ331では、チューナ部311(図32)から供給される入力画像データとしてのクラス分類適応処理の第1の画像データが、クラス分類適応処理の第2の画像データに変換されて出力される。   Therefore, in the signal processing chip 331, the first image data of the class classification adaptive process as the input image data supplied from the tuner unit 311 (FIG. 32) is converted into the second image data of the class classification adaptive process. Is output.

但し、図44において、係数出力部355は、係数メモリ3611および3612並びに選択部362で構成されている。 However, in FIG. 44, the coefficient output unit 355 includes coefficient memories 361 1 and 361 2 and a selection unit 362.

係数メモリ3611,3612には、あらかじめ行われた学習により求められた空間解像度創造処理用のタップ係数、リサイズ処理としての縮小画像生成処理用のタップ係数が、それぞれ記憶されている。ここで、縮小画像生成処理用のタップ係数は、チューナ部311(図32)が出力する画像データのサイズを、小画面のサイズ(1フレームを2×2に等分割したサイズ)に縮小するものである。 In the coefficient memories 361 1 and 361 2 , tap coefficients for spatial resolution creation processing and tap coefficients for reduced image generation processing as resizing processing, which are obtained by learning performed in advance, are stored. Here, the tap coefficient for the reduced image generation processing is used to reduce the size of the image data output from the tuner unit 311 (FIG. 32) to the size of a small screen (size obtained by equally dividing one frame into 2 × 2). It is.

係数メモリ3611と3612には、クラス分類部354が出力するクラス(クラスコード)が供給される。係数メモリ3611と3612それぞれは、クラス分類部354からのクラスのタップ係数を読み出し、選択部362に出力する。 The class (class code) output from the class classification unit 354 is supplied to the coefficient memories 361 1 and 361 2 . Each of the coefficient memories 361 1 and 361 2 reads the tap coefficient of the class from the class classification unit 354 and outputs it to the selection unit 362.

選択部362には、上述したように、係数メモリ3611と3612それぞれから読み出されたタップ係数が供給される他、受信部357からコマンドが供給される。選択部362は、受信部357から供給されるコマンドに応じて、係数メモリ3611または3612のうちのいずれかの出力端を選択し、その選択した出力端を、予測演算部356の入力端に接続することで、信号処理チップ331の内部構造を切り換える。 As described above, the selection unit 362 is supplied with commands from the reception unit 357 in addition to the tap coefficients read from the coefficient memories 361 1 and 361 2 . The selection unit 362 selects one of the output ends of the coefficient memories 361 1 or 361 2 according to the command supplied from the reception unit 357, and uses the selected output end as the input end of the prediction calculation unit 356. By connecting to, the internal structure of the signal processing chip 331 is switched.

ここで、選択部362が、係数メモリ3611または3612のうちの、例えば、係数メモリ3611の出力端を選択し、その選択した出力端を、予測演算部356の入力端に接続した場合、予測演算部356には、係数メモリ3611から読み出される空間解像度創造処理用のタップ係数が供給されることとなり、その結果、信号処理チップ331は、空間解像度創造処理を行うICとして機能することになる。 Here, when the selection unit 362 selects, for example, the output end of the coefficient memory 361 1 out of the coefficient memory 361 1 or 361 2 and connects the selected output end to the input end of the prediction calculation unit 356 The tap coefficient for spatial resolution creation processing read from the coefficient memory 361 1 is supplied to the prediction calculation unit 356, and as a result, the signal processing chip 331 functions as an IC that performs spatial resolution creation processing. become.

一方、選択部362が、係数メモリ3611または3612のうちの、係数メモリ3612の出力端を選択し、その選択した出力端を、予測演算部356の入力端に接続した場合、予測演算部356には、係数メモリ3612から読み出される縮小画像生成処理用のタップ係数が供給されることとなり、その結果、信号処理チップ331は、縮小画像生成処理を行うICとして機能することになる。 On the other hand, when the selection unit 362 selects the output end of the coefficient memory 361 2 in the coefficient memory 361 1 or 361 2 and connects the selected output end to the input end of the prediction calculation unit 356, the prediction calculation is performed. the section 356, becomes the tap coefficients for the reduced image generation processing to be read out from the coefficient memory 361 2 is supplied, as a result, the signal processing chip 331 will serve as an IC for performing reduced image generation processing.

また、図44では、クラス分類部354には、タップ選択部353からクラスタップが供給される他、動き判定部358から後述する動き判定情報が供給されるようになっている。クラス分類部354は、注目画素について選択されたクラスタップに基づいてクラス分類を行うことにより得られるクラスコードの上位ビットまたは下位ビットとして、動き判定部358からの動き判定情報を表すビットを付加し、その結果得られるビット列を、最終的なクラスコードとして、係数出力部355に供給する。   In FIG. 44, the class classification unit 354 is supplied with class determination from the tap selection unit 353 and motion determination information described later from the movement determination unit 358. The class classification unit 354 adds a bit representing the motion determination information from the motion determination unit 358 as an upper bit or a lower bit of a class code obtained by performing class classification based on the class tap selected for the target pixel. The bit string obtained as a result is supplied to the coefficient output unit 355 as a final class code.

さらに、図44において、受信部357は、コマンド列生成部330(図35)から無線で送信されてくるコマンド列を受信し、コマンド列生成部330から受信したコマンド列の中から、信号処理チップ331が実行することができる信号処理のコマンドを認識して、選択部362に供給する。   Further, in FIG. 44, the receiving unit 357 receives the command sequence transmitted wirelessly from the command sequence generating unit 330 (FIG. 35), and from the command sequence received from the command sequence generating unit 330, the signal processing chip. A signal processing command that can be executed by the 331 is recognized and supplied to the selection unit 362.

即ち、受信部357は、図36上に示す通常画面モードコマンド列を受信した場合、その中の空間解像度創造コマンドを、信号処理チップ331が実行することができる信号処理のコマンドとして認識し、選択部362に供給する。この場合、選択部362は、係数メモリ3611の出力端を選択し、予測演算部356の入力端に接続する。 That is, when the receiving unit 357 receives the normal screen mode command sequence shown in FIG. 36, the receiving unit 357 recognizes the spatial resolution creation command therein as a signal processing command that can be executed by the signal processing chip 331 and selects it. Supplied to the unit 362. In this case, the selection unit 362 selects the output end of the coefficient memory 361 1 and connects it to the input end of the prediction calculation unit 356.

一方、受信部357は、図36下に示すマルチ画面モードコマンド列を受信した場合、その中の縮小画像生成コマンドを、信号処理チップ331が実行することができる信号処理のコマンドとして認識し、選択部362に供給する。この場合、選択部362は、係数メモリ3612の出力端を選択し、予測演算部356の入力端に接続する。 On the other hand, when receiving the multi-screen mode command sequence shown in the lower part of FIG. 36, the receiving unit 357 recognizes and selects a reduced image generation command as a signal processing command that can be executed by the signal processing chip 331. Supplied to the unit 362. In this case, selection section 362 selects the output terminal of the coefficient memory 361 2 are connected to the input terminal of the prediction computation unit 356.

また、図44において、動き判定部358には、チューナ部311(図32)から供給される入力画像データとしての第1の画像データを構成する各画素の動きベクトルが、信号処理チップ334(図35)から供給されるようになっている。動き判定部358は、信号処理チップ334からの、第1の画像データを構成する各画素の動きベクトルのうちの、注目画素に対応する第1の画像データの画素(例えば、注目画素のフレームにおける注目画素の時空間的位置に最も近い位置にある第1の画像データの画素)の動きベクトルの大きさまたは方向を判定し、その大きさや方向を表す1ビットまたは数ビットを、動き判定情報としてクラス分類部354に供給する。   In FIG. 44, the motion determination unit 358 receives the motion vector of each pixel constituting the first image data as the input image data supplied from the tuner unit 311 (FIG. 32) from the signal processing chip 334 (FIG. 44). 35). The motion determination unit 358 includes, from the signal processing chip 334, the pixel of the first image data corresponding to the pixel of interest (for example, in the frame of the pixel of interest) out of the motion vector of each pixel constituting the first image data. The magnitude or direction of the motion vector of the pixel of the first image data that is closest to the spatio-temporal position of the pixel of interest is determined, and 1 bit or several bits representing the size or direction is used as motion determination information The data is supplied to the class classification unit 354.

次に、図45のフローチャートを参照して、図44の信号処理チップ331の処理について説明する。   Next, the processing of the signal processing chip 331 in FIG. 44 will be described with reference to the flowchart in FIG.

図35のコマンド列生成部330からコマンド列が送信されてくると、ステップS321において、受信部357は、そのコマンド列を受信する。さらに、受信部357は、そのコマンド列の中から、信号処理チップ331が実行可能な信号処理のコマンドを認識し、そのコマンドを選択部362に供給して、ステップS322に進む。   When the command sequence is transmitted from the command sequence generation unit 330 in FIG. 35, in step S321, the reception unit 357 receives the command sequence. Further, the reception unit 357 recognizes a signal processing command that can be executed by the signal processing chip 331 from the command sequence, supplies the command to the selection unit 362, and proceeds to step S322.

ステップS322では、選択部362は、受信部357からのコマンドに応じて、信号処理チップ331の内部構造を切り換える。   In step S322, the selection unit 362 switches the internal structure of the signal processing chip 331 in accordance with a command from the reception unit 357.

即ち、選択部362は、受信部357からのコマンドに応じて、係数メモリ3611または3612のうちのいずれかの出力端を選択し、その選択した出力端を、予測演算部356(図44)の入力端に接続することで、信号処理チップ331の内部構造を切り換える。 In other words, the selection unit 362 selects one of the output ends of the coefficient memories 361 1 or 361 2 according to the command from the reception unit 357, and selects the selected output end as the prediction calculation unit 356 (FIG. 44). ), The internal structure of the signal processing chip 331 is switched.

その後、ステップS323に進み、以下、ステップS323乃至S328において、図2のステップS11乃至S16における場合とそれぞれ同様の処理が行われる。   Thereafter, the process proceeds to step S323, and thereafter, in steps S323 to S328, the same processing as in steps S11 to S16 of FIG. 2 is performed.

即ち、ステップS323において、注目画素選択部351は、信号処理チップ331に入力される第1の画像データに対する第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択し、ステップS324に進む。   That is, in step S323, the pixel-of-interest selecting unit 351 selects one of the pixels constituting the second image data corresponding to the first image data input to the signal processing chip 331 that has not yet been set as the pixel of interest. Are selected as the target pixel, and the process proceeds to step S324.

ステップS324において、タップ選択部352と353が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部352から予測演算部356に供給され、クラスタップは、タップ選択部353からクラス分類部354に供給される。   In step S324, the tap selection units 352 and 353 respectively select the prediction tap and the class tap for the target pixel from the first image data supplied thereto. The prediction tap is supplied from the tap selection unit 352 to the prediction calculation unit 356, and the class tap is supplied from the tap selection unit 353 to the class classification unit 354.

さらに、ステップS324では、動き判定部358が、信号処理チップ334からの、第1の画像データを構成する各画素の動きベクトルのうちの、注目画素に対応する第1の画像データの画素の動きベクトルの大きさまたは方向を判定し、その大きさや方向を表す1ビットまたは数ビットを、注目画素についての動き判定情報としてクラス分類部354に供給する。   Further, in step S324, the motion determination unit 358 moves the pixel of the first image data corresponding to the pixel of interest among the motion vectors of each pixel constituting the first image data from the signal processing chip 334. The size or direction of the vector is determined, and 1 bit or several bits representing the size or direction is supplied to the class classification unit 354 as motion determination information for the pixel of interest.

クラス分類部354は、タップ選択部353から、注目画素についてのクラスタップを受信するとともに、動き判定部358から、注目画素についての動き判定情報を受信し、ステップS325において、そのクラスタップと動き判定情報に基づき、注目画素をクラス分類する。さらに、クラス分類部354は、そのクラス分類の結果得られる注目画素のクラスを、係数出力部355に出力し、ステップS326に進む。   The class classification unit 354 receives the class tap for the target pixel from the tap selection unit 353, and also receives the motion determination information for the target pixel from the motion determination unit 358. In step S325, the class tap and the motion determination are received. Based on the information, the target pixel is classified. Furthermore, the class classification unit 354 outputs the class of the target pixel obtained as a result of the class classification to the coefficient output unit 355, and the process proceeds to step S326.

ステップS326では、係数出力部355が、クラス分類部354から供給されるクラスのタップ係数を出力する。即ち、係数出力部355は、係数メモリ3611または3612のうちの、選択部362が出力端を選択しているものから、クラス分類部354から供給されるクラスのタップ係数を読み出し、予測演算部356に出力する。そして、ステップS326では、予測演算部356が、係数出力部355が出力するタップ係数を取得し、ステップS327に進む。 In step S326, the coefficient output unit 355 outputs the class tap coefficient supplied from the class classification unit 354. That is, the coefficient output unit 355 reads the tap coefficient of the class supplied from the class classification unit 354 from the coefficient memory 361 1 or 361 2 from which the selection unit 362 has selected the output end, and performs the prediction calculation. Output to the unit 356. In step S326, the prediction calculation unit 356 acquires the tap coefficient output by the coefficient output unit 355, and the process proceeds to step S327.

ステップS327では、予測演算部356が、タップ選択部352が出力する予測タップと、係数出力部355から取得したタップ係数とを用いて、式(1)の予測演算を行う。これにより、予測演算部356は、注目画素の画素値を求めて出力し、ステップS328に進む。   In step S327, the prediction calculation unit 356 performs the prediction calculation of Expression (1) using the prediction tap output from the tap selection unit 352 and the tap coefficient acquired from the coefficient output unit 355. Thereby, the prediction calculation unit 356 calculates and outputs the pixel value of the target pixel, and proceeds to step S328.

ステップS328では、注目画素選択部351が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS328において、まだ、注目画素としていない第2の画像データがあると判定された場合、ステップS323に戻り、以下、同様の処理が繰り返される。   In step S328, the pixel-of-interest selecting unit 351 determines whether there is second image data that has not yet been set as the pixel of interest. If it is determined in step S328 that there is still the second image data that is not the pixel of interest, the process returns to step S323, and the same processing is repeated thereafter.

また、ステップS328において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。   If it is determined in step S328 that there is no second image data that has not yet been set as the pixel of interest, the process ends.

なお、受信部357は、コマンド列生成部330から、図36上に示す通常画面モードコマンド列を受信した場合、その中の空間解像度創造コマンドを、選択部362に供給する。この場合、選択部362は、係数メモリ3611の出力端を選択するから、その係数メモリ3611に記憶されている空間解像度創造処理用のタップ係数が、予測演算部356に供給される。 When receiving the normal screen mode command sequence shown in FIG. 36 from the command sequence generation unit 330, the reception unit 357 supplies the spatial resolution creation command therein to the selection unit 362. In this case, selection unit 362, to choose from the output terminal of the coefficient memory 361 1, the tap coefficients for the spatial resolution creation processing stored in the coefficient memory 361 1 is supplied to the prediction computation unit 356.

また、コマンド列生成部330が、図36上に示す通常画面モードコマンド列を送信する場合というのは、動作モードが通常画面モードである場合であり、この場合、チューナ部311(図32)は、所定のチャンネルとしての、例えば、チャンネルCH1を選局し、これにより、信号処理チップ331には、チャンネルCH1の欠損フレームがない画像データが供給される。   Further, the case where the command sequence generation unit 330 transmits the normal screen mode command sequence shown in FIG. 36 is a case where the operation mode is the normal screen mode. In this case, the tuner unit 311 (FIG. 32) As a predetermined channel, for example, the channel CH1 is selected, whereby the signal processing chip 331 is supplied with image data having no missing frame of the channel CH1.

従って、この場合、信号処理チップ331は、そこに供給されるチャンネルCH1の欠損フレームがない画像データを、第1の画像データとして、空間解像度創造処理を実行し、その空間解像度創造処理によって空間解像度が向上したチャンネルCH1の欠損フレームがない画像データ(以下、適宜、高解像度画像データともいう)を、第2の画像データとして、後段の信号処理チップ332(図35)に出力する。   Therefore, in this case, the signal processing chip 331 executes the spatial resolution creation process using the image data without the missing frame of the channel CH1 supplied thereto as the first image data, and the spatial resolution creation process performs the spatial resolution creation process. Is output to the subsequent signal processing chip 332 (FIG. 35) as the second image data.

一方、受信部357は、コマンド列生成部330から、図36下に示すマルチ画面モードコマンド列を受信した場合、その中の縮小画像生成コマンドを、選択部362に供給する。この場合、選択部362は、係数メモリ3612の出力端を選択するから、その係数メモリ3612に記憶されている縮小画像生成処理用のタップ係数が、予測演算部356に供給される。 On the other hand, when receiving the multi-screen mode command sequence shown in the lower part of FIG. 36 from the command sequence generation unit 330, the reception unit 357 supplies the reduced image generation command therein to the selection unit 362. In this case, selection unit 362, to choose from the output terminal of the coefficient memory 361 2, the tap coefficients for the reduced image generation processing, which is stored in the coefficient memory 361 2 are supplied to the prediction computation unit 356.

また、コマンド列生成部330が、図36下に示すマルチ画面モードコマンド列を送信する場合というのは、動作モードがマルチ画面モードである場合であり、この場合、チューナ部311(図32)は、複数のチャンネルとしての、例えば、チャンネルCH1乃至CH4を時分割で選局し、これにより、信号処理チップ331には、チャンネルCH1乃至CH4の欠損フレームあり画像データが供給される。   Further, the case where the command sequence generation unit 330 transmits the multi-screen mode command sequence shown in the lower part of FIG. 36 is a case where the operation mode is the multi-screen mode. In this case, the tuner unit 311 (FIG. 32) For example, channels CH1 to CH4 as a plurality of channels are selected in a time-sharing manner, whereby the image data with missing frames of channels CH1 to CH4 is supplied to the signal processing chip 331.

従って、この場合、信号処理チップ331は、そこに供給されるチャンネルCH1乃至CH4の欠損フレームあり画像データを、第1の画像データとして、縮小画像生成処理を実行し、その縮小画像生成処理によってサイズが縮小された(画素数が少なくされた)チャンネルCH1乃至CH4の欠損フレームあり縮小画像データを、第2の画像データとして、後段の信号処理チップ332(図35)に出力する。   Therefore, in this case, the signal processing chip 331 executes reduced image generation processing using the image data with missing frames of the channels CH1 to CH4 supplied thereto as the first image data, and performs size reduction by the reduced image generation processing. Is reduced (the number of pixels is reduced), and the reduced image data with missing frames of channels CH1 to CH4 is output as second image data to the signal processing chip 332 in the subsequent stage (FIG. 35).

次に、図46は、図35の信号処理チップ332の構成例を示している。   Next, FIG. 46 shows a configuration example of the signal processing chip 332 of FIG.

信号処理チップ332は、コマンド列生成部330(図35)から供給されるコマンド列を構成するコマンドに応じて、その内部構造を切り換え、上述したクラス分類適応処理を利用したノイズ除去処理または時間解像度創造処理を行う。   The signal processing chip 332 switches its internal structure in accordance with the commands constituting the command sequence supplied from the command sequence generation unit 330 (FIG. 35), and performs noise removal processing or time resolution using the above-described class classification adaptive processing. Perform creative processing.

即ち、信号処理チップ332は、メモリ370、注目画素選択部371、タップ選択部372,373、クラス分類部374、係数出力部375、予測演算部376、受信部377、タップ決定部378および379で構成されている。これらのうちの注目画素選択部371、タップ選択部372,373、クラス分類部374、係数出力部375、予測演算部376は、図1の注目画素選択部11、タップ選択部12,13、クラス分類部14、係数出力部15、予測演算部16にそれぞれ対応するものである。   That is, the signal processing chip 332 includes a memory 370, a target pixel selection unit 371, tap selection units 372 and 373, a class classification unit 374, a coefficient output unit 375, a prediction calculation unit 376, a reception unit 377, and tap determination units 378 and 379. It is configured. Of these, the target pixel selection unit 371, tap selection units 372 and 373, class classification unit 374, coefficient output unit 375, and prediction calculation unit 376 are the target pixel selection unit 11, tap selection units 12 and 13, and class in FIG. These correspond to the classification unit 14, the coefficient output unit 15, and the prediction calculation unit 16, respectively.

従って、信号処理チップ332では、信号処理チップ331(図35)から供給される、クラス分類適応処理の第1の画像データとしてのチャンネルCH1の欠損フレームがない高解像度画像データ、またはチャンネルCH1乃至CH4の欠損フレームあり縮小画像データが、クラス分類適応処理の第2の画像データに変換されて出力される。   Therefore, in the signal processing chip 332, the high-resolution image data without the missing frame of the channel CH1 or the channels CH1 to CH4 as the first image data of the class classification adaptive processing supplied from the signal processing chip 331 (FIG. 35). The reduced image data with missing frames is converted into second image data of the class classification adaptive processing and output.

但し、図46において、係数出力部375は、係数メモリ3811および3812並びに選択部382で構成されている。 However, in FIG. 46, the coefficient output unit 375 includes coefficient memories 381 1 and 381 2 and a selection unit 382.

係数メモリ3811,3812には、あらかじめ行われた学習により求められたノイズ除去処理用のタップ係数、時間解像度創造処理用のタップ係数が、それぞれ記憶されている。ここで、時間解像度創造処理用のタップ係数は、信号処理チップ331から供給されるチャンネルCH1乃至CH4それぞれの欠損フレームあり縮小画像データを、欠損フレームがない縮小画像データとするものである。 The coefficient memories 381 1 and 381 2 store tap coefficients for noise removal processing and tap coefficients for time resolution creation processing, which are obtained by learning performed in advance. Here, the tap coefficient for the time resolution creation processing is such that reduced image data with missing frames of the channels CH1 to CH4 supplied from the signal processing chip 331 is reduced image data without missing frames.

係数メモリ3811と3812には、クラス分類部374が出力するクラス(クラスコード)が供給される。係数メモリ3811と3812それぞれは、クラス分類部374からのクラスのタップ係数を読み出し、選択部382に出力する。 The class (class code) output from the class classification unit 374 is supplied to the coefficient memories 381 1 and 381 2 . Each of the coefficient memories 381 1 and 381 2 reads out the tap coefficient of the class from the class classification unit 374 and outputs it to the selection unit 382.

選択部382には、上述したように、係数メモリ3811と3812それぞれから読み出されたタップ係数が供給される他、受信部377からコマンドが供給される。選択部382は、受信部377から供給されるコマンドに応じて、係数メモリ3811または3812のうちのいずれかの出力端を選択し、その選択した出力端を、予測演算部376の入力端に接続することで、信号処理チップ332の内部構造を切り換える。 As described above, the selection unit 382 is supplied with commands from the reception unit 377 in addition to the tap coefficients read from the coefficient memories 381 1 and 381 2 . The selection unit 382 selects one of the output ends of the coefficient memories 3811 1 or 3812 2 in accordance with the command supplied from the reception unit 377, and selects the selected output end as the input end of the prediction calculation unit 376. By connecting to, the internal structure of the signal processing chip 332 is switched.

ここで、選択部382が、係数メモリ3811または3812のうちの、例えば、係数メモリ3811の出力端を選択し、その選択した出力端を、予測演算部376の入力端に接続した場合、予測演算部376には、係数メモリ3811から読み出されるノイズ除去処理用のタップ係数が供給されることとなり、その結果、信号処理チップ332は、ノイズ除去処理を行うICとして機能することになる。 Here, when the selection unit 382 selects, for example, the output end of the coefficient memory 3811 1 out of the coefficient memory 381 1 or 381 2 and connects the selected output end to the input end of the prediction calculation unit 376 , the prediction computation unit 376, it is possible to tap coefficients for noise removal processing which is read out from the coefficient memory 381 1 is supplied, as a result, the signal processing chip 332, will function as an IC for performing a noise removal process .

一方、選択部382が、係数メモリ3811または3812のうちの、係数メモリ3812の出力端を選択し、その選択した出力端を、予測演算部376の入力端に接続した場合、予測演算部376には、係数メモリ3812から読み出される時間解像度創造処理用のタップ係数が供給されることとなり、その結果、信号処理チップ332は、時間解像度創造処理を行うICとして機能することになる。 On the other hand, when the selection unit 382 selects the output terminal of the coefficient memory 3812 2 in the coefficient memory 381 1 or 381 2 and connects the selected output terminal to the input terminal of the prediction calculation unit 376, the prediction calculation is performed. the section 376, becomes the tap coefficients for the temporal resolution creation processing which is read out from the coefficient memory 381 2 is supplied, as a result, the signal processing chip 332, will function as an IC for performing time resolution creation processing.

また、図46において、受信部377は、コマンド列生成部330(図35)から無線で送信されてくるコマンド列を受信し、コマンド列生成部330から受信したコマンド列の中から、信号処理チップ332が実行することができる信号処理のコマンドを認識して、選択部382に供給する。   In FIG. 46, the receiving unit 377 receives the command sequence transmitted wirelessly from the command sequence generating unit 330 (FIG. 35), and from the command sequence received from the command sequence generating unit 330, the signal processing chip. A signal processing command that can be executed by the 332 is recognized and supplied to the selection unit 382.

即ち、受信部377は、図36上に示す通常画面モードコマンド列を受信した場合、その中のノイズ除去コマンドを、信号処理チップ332が実行することができる信号処理のコマンドとして認識し、選択部382に供給する。この場合、選択部382は、係数メモリ3811の出力端を選択し、予測演算部376の入力端に接続する。 That is, when receiving the normal screen mode command sequence shown in FIG. 36, the receiving unit 377 recognizes the noise removal command therein as a signal processing command that can be executed by the signal processing chip 332, and selects the selecting unit. 382. In this case, selection section 382 selects the output terminal of the coefficient memory 381 1 is connected to the input of the prediction computation unit 376.

一方、受信部377は、図36下に示すマルチ画面モードコマンド列を受信した場合、その中の時間解像度創造コマンドを、信号処理チップ332が実行することができる信号処理のコマンドとして認識し、選択部382に供給する。この場合、選択部382は、係数メモリ3812の出力端を選択し、予測演算部376の入力端に接続する。 On the other hand, when receiving the multi-screen mode command sequence shown in the lower part of FIG. 36, the receiving unit 377 recognizes the time resolution creation command therein as a signal processing command that can be executed by the signal processing chip 332 and selects it. Supplied to the unit 382. In this case, selection section 382 selects the output terminal of the coefficient memory 381 2 are connected to the input terminal of the prediction computation unit 376.

さらに、図46において、タップ決定部378および379には、信号処理チップ334(図35)から、チューナ部311(図32)が信号処理部314に供給する入力画像データを構成する各画素の動きベクトルが供給されるようになっている。   Further, in FIG. 46, the tap determination units 378 and 379 include movements of pixels constituting the input image data supplied from the signal processing chip 334 (FIG. 35) to the signal processing unit 314 by the tuner unit 311 (FIG. 32). Vectors are supplied.

タップ決定部378または379は、それぞれ、注目画素についての予測タップまたはクラスタップとする画素を、信号処理チップ334から供給される動きベクトルに基づいて決定する。   The tap determination unit 378 or 379 determines a pixel to be a prediction tap or a class tap for the target pixel based on the motion vector supplied from the signal processing chip 334, respectively.

即ち、注目画素についての予測タップやクラスタップ(以下、適宜、両方まとめて、単に、タップという)を、クラス分類適応処理の第1の画像データから、どのような画素を選択して構成するかは、特に限定されるものではない。   That is, what kind of pixel is selected and configured from the first image data of the class classification adaptation process for the prediction tap and the class tap (hereinafter, collectively referred to as “tap” as appropriate, as appropriate) for the target pixel. Is not particularly limited.

但し、図46の信号処理チップ332では、欠損フレームあり縮小画像データを第1の画像データとして、時間解像度創造処理用のタップ係数を用いたクラス分類適応処理を行うことにより、欠損フレームのない縮小画像データを、第2の画像データとして得る時間解像度創造処理が行われることがある。   However, in the signal processing chip 332 of FIG. 46, reduction without missing frames is performed by performing class classification adaptive processing using tap coefficients for temporal resolution creation processing using reduced image data with missing frames as first image data. Temporal resolution creation processing may be performed to obtain image data as second image data.

時間解像度創造処理では、4つのチャンネルCH1乃至CH4それぞれについて、フレーム周期T1の各フレームの縮小画像データが予測(生成)されるが、その予測には、ある1フレームの非欠損フレームの画素だけを用いるよりも、複数フレームの非欠損フレーム、即ち、例えば、注目画素(予測によって生成する画素)のフレームにより近い2つの非欠損フレーム、つまり、注目画素のフレームの直前の非欠損フレーム(但し、注目画素のフレームが非欠損フレームである場合は、その非欠損フレーム)と、直後の非欠損フレームの画素を用いるのが望ましい。さらに、時間解消度創造処理における注目画素の予測には、画像(被写体)の動きを考慮するのが望ましい。 In the temporal resolution creation process, reduced image data of each frame of the frame period T 1 is predicted (generated) for each of the four channels CH1 to CH4. For the prediction, only the pixels of one non-defective frame are used for the prediction. Than the non-defective frame of a plurality of frames, for example, two non-defective frames closer to the frame of the target pixel (the pixel generated by prediction), that is, the non-defective frame immediately before the frame of the target pixel (however, If the frame of the pixel of interest is a non-defective frame, it is desirable to use the non-defective frame) and the pixel of the non-defective frame immediately after that. Furthermore, it is desirable to consider the movement of the image (subject) in the prediction of the pixel of interest in the time resolution creation process.

そこで、タップ決定部378は、例えば、注目画素のフレームの直前の非欠損フレーム(以下、適宜、直前非欠損フレームという)の縮小画像データを構成する画素のうちの、注目画素に対応する画素の動きベクトルに基づき、直前非欠損フレームの縮小画像データを構成する画素と、注目画素のフレームの直後の非欠損フレーム(以下、適宜、直後非欠損フレームという)の縮小画像データを構成する画素とから、注目画素についての予測タップとなる画素を決定する。   Therefore, for example, the tap determination unit 378 selects a pixel corresponding to the target pixel from among the pixels constituting the reduced image data of the non-defective frame immediately before the frame of the target pixel (hereinafter, referred to as the previous non-defective frame as appropriate). Based on the motion vector, from the pixels constituting the reduced image data of the immediately preceding non-missing frame and the pixels constituting the reduced image data of the non-missing frame immediately after the frame of the target pixel (hereinafter referred to as the immediately following non-missing frame). Then, a pixel to be a prediction tap for the target pixel is determined.

即ち、タップ決定部378は、直前非欠損フレーム、注目画素のフレーム、直後非欠損フレームを時系列に並べ、注目画素に対応する直前非欠損フレームの画素の動きベクトルを、注目画素を通るように補正した場合に、その補正後の動きベクトルの始点を中心とする直前非欠損フレームの幾つかの画素と、補正後の動きベクトルの終点を中心とする直後非欠損フレームの幾つかの画素とを、注目画素についての予測タップとなる画素として決定する。   That is, the tap determination unit 378 arranges the immediately preceding non-missing frame, the frame of the target pixel, and the immediately following non-missing frame in time series so that the motion vector of the pixel of the immediately preceding non-missing frame corresponding to the target pixel passes through the target pixel. When corrected, some pixels of the immediately preceding non-missing frame centered on the start point of the corrected motion vector and some pixels of the immediately following non-missing frame centered on the end point of the corrected motion vector The pixel to be a prediction tap for the target pixel is determined.

ここで、信号処理チップ332において時間解像度創造処理が行われるときに信号処理チップ334から供給される動きベクトルは、直前非欠損フレームや直後非欠損フレームの縮小画像データの各画素の動きベクトルではなく、その縮小画像データに縮小される前の画像データ(以下、適宜、縮小前画像データという)の動きベクトル(の大きさを1/2にしたもの)である。このため、タップ決定部378は、縮小画像データの画素に対応する縮小前画像データの画素の動きベクトルを、その縮小画像データの画素(縮小画像データの画素の画枠における位置と同一の位置関係の、縮小前画像データの画枠の位置にある画素)の動きベクトルとして用いる。   Here, when the time resolution creation processing is performed in the signal processing chip 332, the motion vector supplied from the signal processing chip 334 is not the motion vector of each pixel of the reduced image data of the immediately preceding non-defective frame or the immediately following non-defective frame. The motion vector of the image data before being reduced to the reduced image data (hereinafter referred to as pre-reduction image data as appropriate) (the size of which is halved). Therefore, the tap determination unit 378 sets the motion vector of the pixel of the pre-reduction image data corresponding to the pixel of the reduced image data to the same positional relationship as the pixel of the reduced image data (the position of the pixel of the reduced image data in the image frame). Used as the motion vector of the pixel at the position of the image frame of the pre-reduction image data.

タップ決定部378は、注目画素についての予測タップとなる画素を決定した後、その画素を表す情報(以下、適宜、予測タップ情報という)を、タップ選択部372に供給する。そして、タップ選択部372は、タップ決定部378からの予測タップ情報にしたがって、メモリ370に記憶された画像データから予測タップとなる画素を選択する。   The tap determination unit 378 determines a pixel to be a prediction tap for the pixel of interest, and then supplies information representing the pixel (hereinafter, appropriately referred to as prediction tap information) to the tap selection unit 372. Then, the tap selection unit 372 selects a pixel to be a prediction tap from the image data stored in the memory 370 according to the prediction tap information from the tap determination unit 378.

タップ決定部379も、タップ決定部378と同様にして、注目画素についてのクラスタップとなる画素を決定し、その画素を表す情報(以下、適宜、クラスタップ情報という)を、タップ選択部373に供給する。そして、タップ選択部373は、タップ決定部379からのクラスタップ情報にしたがって、メモリ370に記憶された画像データからクラスタップとなる画素を選択する。   In the same manner as the tap determination unit 378, the tap determination unit 379 also determines a pixel to be a class tap for the pixel of interest, and transmits information representing the pixel (hereinafter referred to as class tap information as appropriate) to the tap selection unit 373. Supply. Then, the tap selection unit 373 selects a pixel to be a class tap from the image data stored in the memory 370 according to the class tap information from the tap determination unit 379.

ここで、図46の信号処理チップ332では、上述したことから、信号処理チップ331から供給される画像データの2フレームから、タップが選択される。このため、図46の信号処理チップ332には、信号処理チップ331から供給される画像データのフレームを一時記憶しておくメモリ370が設けられている。   Here, in the signal processing chip 332 of FIG. 46, from the above, a tap is selected from two frames of image data supplied from the signal processing chip 331. For this reason, the signal processing chip 332 in FIG. 46 is provided with a memory 370 for temporarily storing frames of image data supplied from the signal processing chip 331.

さらに、図46の信号処理チップ332では、時間解像度創造処理が、4つのチャンネルCH1乃至CH4それぞれについて行われる。この場合、チャンネルCH1乃至CH4のうちのいずれか1つのチャンネルについて時間解像度創造処理が行われている間、他の3つのチャンネルの画像データを保持しておく必要がある。メモリ370が設けられているのは、この画像データの保持のためでもある。   Further, in the signal processing chip 332 of FIG. 46, the time resolution creation processing is performed for each of the four channels CH1 to CH4. In this case, while the time resolution creation process is being performed for any one of the channels CH1 to CH4, it is necessary to hold the image data of the other three channels. The memory 370 is provided to hold the image data.

なお、図46の信号処理チップ332では、時間解像度創造処理の他、上述したように、ノイズ除去処理も行われる。ノイズ除去処理が行われる場合も、タップ決定部378および379は、時間解像度創造処理が行われる場合と同様に、タップとなる画素を決定する。   In addition to the time resolution creation process, the signal processing chip 332 in FIG. 46 performs the noise removal process as described above. Even when the noise removal process is performed, the tap determination units 378 and 379 determine the pixel to be the tap, as in the case where the time resolution creation process is performed.

但し、ノイズ除去処理は、チャンネルCH1の欠損フレームがない高解像度画像データを対象として行われるため、上述の直前非欠損フレームは、注目画素のフレームとなり、直後非欠損フレームは、注目画素のフレームの次のフレームとなる。   However, since the noise removal processing is performed on high-resolution image data without a missing frame of channel CH1, the immediately preceding non-missing frame is the frame of the target pixel, and the immediately following non-missing frame is the frame of the target pixel. Next frame.

次に、図47のフローチャートを参照して、図46の信号処理チップ332の処理について説明する。   Next, processing of the signal processing chip 332 in FIG. 46 will be described with reference to the flowchart in FIG.

図35のコマンド列生成部330からコマンド列が送信されてくると、ステップS331において、受信部377は、そのコマンド列を受信する。さらに、受信部377は、そのコマンド列の中から、信号処理チップ332が実行可能な信号処理のコマンドを認識し、そのコマンドを選択部382に供給して、ステップS332に進む。   When the command sequence is transmitted from the command sequence generation unit 330 in FIG. 35, in step S331, the reception unit 377 receives the command sequence. Further, the reception unit 377 recognizes a signal processing command that can be executed by the signal processing chip 332 from the command sequence, supplies the command to the selection unit 382, and proceeds to step S332.

ステップS332では、選択部382は、受信部377からのコマンドに応じて、信号処理チップ332の内部構造を切り換える。   In step S <b> 332, the selection unit 382 switches the internal structure of the signal processing chip 332 according to the command from the reception unit 377.

即ち、選択部382は、受信部377からのコマンドに応じて、係数メモリ3811または3812のうちのいずれかの出力端を選択し、その選択した出力端を、予測演算部376(図46)の入力端に接続することで、信号処理チップ332の内部構造を切り換える。 In other words, the selection unit 382 selects one of the output ends of the coefficient memories 381 1 or 381 2 according to the command from the reception unit 377, and selects the selected output end as the prediction calculation unit 376 (FIG. 46). ), The internal structure of the signal processing chip 332 is switched.

その後、ステップS333に進み、以下、ステップS333乃至S338において、図2のステップS11乃至S16における場合とそれぞれ同様の処理が行われる。   Thereafter, the process proceeds to step S333. Thereafter, in steps S333 to S338, the same processing as in steps S11 to S16 of FIG. 2 is performed.

即ち、信号処理チップ331から信号処理チップ332に入力されるチャンネルCH1の欠損フレームがない高解像度画像データ、またはCH1乃至CH4の欠損フレームあり縮小画像データは、クラス分類適応処理の第1の画像データとして、メモリ370に順次供給されて記憶される。   That is, the high-resolution image data without the missing frame of the channel CH1 input from the signal processing chip 331 to the signal processing chip 332 or the reduced image data with the missing frames of CH1 to CH4 is the first image data of the class classification adaptive processing. Are sequentially supplied to and stored in the memory 370.

そして、ステップS333において、注目画素選択部371は、クラス分類適応処理の第2の画像データを構成する画素のうち、まだ、注目画素とされていないものの1つを、注目画素として選択し、ステップS334に進む。   In step S333, the pixel-of-interest selecting unit 371 selects, as a pixel of interest, one of the pixels constituting the second image data of the class classification adaptation process that has not yet been selected as the pixel of interest. The process proceeds to S334.

ステップS334において、タップ決定部378または379が、信号処理チップ334(図35)から供給される動きベクトルに基づいて、予測タップまたはクラスタップとする第1の画像データの画素を決定し、その画素を表す予測タップ情報またはクラスタップ情報を、タップ選択部372または373に、それぞれ供給する。   In step S334, the tap determination unit 378 or 379 determines a pixel of the first image data to be a prediction tap or a class tap based on the motion vector supplied from the signal processing chip 334 (FIG. 35), and the pixel The prediction tap information or the class tap information representing is supplied to the tap selection unit 372 or 373, respectively.

さらに、ステップS334では、タップ選択部372と373が、タップ決定部378と379から供給される予測タップ情報とクラスタップ情報にしたがい、メモリ370に記憶された第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ選択する。そして、予測タップは、タップ選択部372から予測演算部376に供給され、クラスタップは、タップ選択部373からクラス分類部374に供給される。   Further, in step S334, the tap selection units 372 and 373 determine the target pixel from the first image data stored in the memory 370 according to the prediction tap information and the class tap information supplied from the tap determination units 378 and 379. Select the prediction taps and class taps. The prediction tap is supplied from the tap selection unit 372 to the prediction calculation unit 376, and the class tap is supplied from the tap selection unit 373 to the class classification unit 374.

クラス分類部374は、タップ選択部373から、注目画素についてのクラスタップを受信し、ステップS335において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部374は、そのクラス分類の結果得られる注目画素のクラスを、係数出力部375に出力し、ステップS336に進む。   The class classification unit 374 receives the class tap for the target pixel from the tap selection unit 373, and classifies the target pixel based on the class tap in step S335. Further, the class classification unit 374 outputs the class of the target pixel obtained as a result of the class classification to the coefficient output unit 375, and the process proceeds to step S336.

ステップS336では、係数出力部375が、クラス分類部374から供給されるクラスのタップ係数を出力する。即ち、係数出力部375は、係数メモリ3811または3812のうちの、選択部382が出力端を選択しているものから、クラス分類部374から供給されるクラスのタップ係数を読み出し、予測演算部376に出力する。そして、ステップS336では、予測演算部376が、係数出力部375が出力するタップ係数を取得し、ステップS337に進む。 In step S336, the coefficient output unit 375 outputs the tap coefficient of the class supplied from the class classification unit 374. That is, the coefficient output unit 375 reads out the tap coefficient of the class supplied from the class classification unit 374 from the coefficient memory 381 1 or 381 2 from which the selection unit 382 has selected the output terminal, and performs prediction calculation To the unit 376. In step S336, the prediction calculation unit 376 acquires the tap coefficient output by the coefficient output unit 375, and the process proceeds to step S337.

ステップS337では、予測演算部376が、タップ選択部372が出力する予測タップと、係数出力部375から取得したタップ係数とを用いて、式(1)の予測演算を行う。これにより、予測演算部376は、注目画素の画素値を求めて出力し、ステップS338に進む。   In step S <b> 337, the prediction calculation unit 376 performs the prediction calculation of Expression (1) using the prediction tap output from the tap selection unit 372 and the tap coefficient acquired from the coefficient output unit 375. Thereby, the prediction calculation part 376 calculates | requires and outputs the pixel value of an attention pixel, and progresses to step S338.

ステップS338では、注目画素選択部371が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS338において、まだ、注目画素としていない第2の画像データがあると判定された場合、ステップS333に戻り、以下、同様の処理が繰り返される。   In step S338, the pixel-of-interest selection unit 371 determines whether there is second image data that has not yet been set as the pixel of interest. If it is determined in step S338 that there is still second image data that is not the pixel of interest, the process returns to step S333, and the same processing is repeated thereafter.

また、ステップS338において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。   If it is determined in step S338 that there is no second image data that has not yet been set as the target pixel, the process ends.

なお、受信部377は、コマンド列生成部330から、図36上に示す通常画面モードコマンド列を受信した場合、その中のノイズ除去コマンドを、選択部382に供給する。この場合、選択部382は、係数メモリ3811の出力端を選択するから、その係数メモリ3811に記憶されているノイズ除去処理用のタップ係数が、予測演算部376に供給される。 When receiving the normal screen mode command sequence shown in FIG. 36 from the command sequence generation unit 330, the reception unit 377 supplies the noise removal command therein to the selection unit 382. In this case, selection unit 382, to choose from the output terminal of the coefficient memory 381 1, the tap coefficients for noise removal processing which is stored in the coefficient memory 381 1 is supplied to the prediction computation unit 376.

また、コマンド列生成部330が、図36上に示す通常画面モードコマンド列を送信する場合というのは、動作モードが通常画面モードである場合であり、この場合、チューナ部311(図32)は、所定のチャンネルとしての、例えば、チャンネルCH1を選局する。そして、信号処理チップ331(図35)において、そのチャンネルCH1の画像データが、高解像度画像データに変換され、これにより、信号処理チップ332には、チャンネルCH1の高解像度画像データが供給される。   Further, the case where the command sequence generation unit 330 transmits the normal screen mode command sequence shown in FIG. 36 is a case where the operation mode is the normal screen mode. In this case, the tuner unit 311 (FIG. 32) For example, channel CH1 is selected as a predetermined channel. Then, in the signal processing chip 331 (FIG. 35), the image data of the channel CH1 is converted into high-resolution image data, whereby the signal processing chip 332 is supplied with the high-resolution image data of the channel CH1.

従って、この場合、信号処理チップ332は、そこに供給されるチャンネルCH1の高解像度画像データを、第1の画像データとして、ノイズ除去処理を実行し、そのノイズ除去処理によってS/Nが向上したチャンネルCH1の高解像度画像データを、第2の画像データとして、後段のメモリ部333(図35)に出力する。   Therefore, in this case, the signal processing chip 332 executes the noise removal process using the high-resolution image data of the channel CH1 supplied thereto as the first image data, and the S / N is improved by the noise removal process. The high-resolution image data of the channel CH1 is output to the subsequent memory unit 333 (FIG. 35) as the second image data.

一方、受信部377は、コマンド列生成部330から、図36下に示すマルチ画面モードコマンド列を受信した場合、その中の時間解像度創造コマンドを、選択部382に供給する。この場合、選択部382は、係数メモリ3812の出力端を選択するから、その係数メモリ3812に記憶されている時間解像度創造処理用のタップ係数が、予測演算部376に供給される。 On the other hand, when receiving the multi-screen mode command sequence shown in the lower part of FIG. 36 from the command sequence generation unit 330, the reception unit 377 supplies the time resolution creation command therein to the selection unit 382. In this case, selection unit 382, to choose from the output terminal of the coefficient memory 381 2, the tap coefficients for the temporal resolution creation processing, which is stored in the coefficient memory 381 2 are supplied to the prediction computation unit 376.

また、コマンド列生成部330が、図36下に示すマルチ画面モードコマンド列を送信する場合というのは、動作モードがマルチ画面モードである場合であり、この場合、チューナ部311(図32)は、複数のチャンネルとしての、例えば、チャンネルCH1乃至CH4を時分割で選局する。そして、信号処理チップ331(図35)において、そのチャンネルCH1乃至CH4の欠損フレームあり画像データが、欠損フレームあり縮小画像データに変換され、これにより、信号処理チップ332には、チャンネルCH1乃至CH4の欠損フレームあり縮小画像データが供給される。   Further, the case where the command sequence generation unit 330 transmits the multi-screen mode command sequence shown in the lower part of FIG. 36 is a case where the operation mode is the multi-screen mode. In this case, the tuner unit 311 (FIG. 32) For example, channels CH1 to CH4 as a plurality of channels are selected in a time division manner. Then, in the signal processing chip 331 (FIG. 35), the image data with the missing frame of the channels CH1 to CH4 is converted into the reduced image data with the missing frame, whereby the signal processing chip 332 has the channels CH1 to CH4. Reduced image data with missing frames is supplied.

従って、この場合、信号処理チップ332は、そこに供給されるチャンネルCH1乃至CH4の欠損フレームあり縮小画像データを、第1の画像データとして、時間解像度創造処理を実行し、その時間解像度創造処理によって欠損フレームがないチャンネルCH1乃至CH4の縮小画像データを、第2の画像データとして得て、後段のメモリ部333(図35)に出力する。   Therefore, in this case, the signal processing chip 332 executes the time resolution creation process using the reduced image data with missing frames of the channels CH1 to CH4 supplied thereto as the first image data, and the time resolution creation process Reduced image data of channels CH1 to CH4 having no missing frame is obtained as second image data, and is output to the subsequent memory unit 333 (FIG. 35).

以上のように、図35の信号処理チップ331,332,334それぞれでは、コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、そこに入力される画像データを信号処理して、その信号処理結果としての画像データを出力するので、単一のハードウェアで、複数の機能を、容易に実現することができる。   As described above, in each of the signal processing chips 331, 332, and 334 of FIG. 35, the internal structure is switched in accordance with at least one command in the command sequence, and the image data input thereto is subjected to signal processing. Since the image data as a result of the signal processing is output, a plurality of functions can be easily realized with a single hardware.

さらに、信号処理チップ332では、信号処理チップ331の信号処理結果を信号処理するので、信号処理部314(図35)全体としては、より多くの機能を、容易に実現することができる。   Furthermore, since the signal processing chip 332 performs signal processing on the signal processing result of the signal processing chip 331, the signal processing unit 314 (FIG. 35) as a whole can easily realize more functions.

なお、信号処理部314は、信号処理チップ331や332と同様の信号処理チップを任意の個数だけ設けて構成することができる。   Note that the signal processing unit 314 can be configured by providing an arbitrary number of signal processing chips similar to the signal processing chips 331 and 332.

また、上述の場合には、信号処理チップ331(図44)の係数出力部355に、タップ係数を記憶させておくようにしたが、タップ係数に代えて、係数種データを記憶させておき、その係数種データからタップ係数を生成するようにすることが可能である。信号処理チップ332についても、同様である。   In the above case, the coefficient output unit 355 of the signal processing chip 331 (FIG. 44) stores the tap coefficient. However, instead of the tap coefficient, the coefficient seed data is stored. It is possible to generate a tap coefficient from the coefficient seed data. The same applies to the signal processing chip 332.

次に、本発明の第3実施の形態について説明する。   Next, a third embodiment of the present invention will be described.

図48は、本発明の第3実施の形態としてのテレビジョン受像機の構成例を示している。   FIG. 48 shows a configuration example of a television receiver as the third embodiment of the present invention.

チューナ601には、図示せぬアンテナが受信したディジタル放送の放送信号(伝送信号)が供給される。このディジタル放送の放送信号は、MPEG(Moving Picture Experts Group)-2等により規定されるディジタルデータであり、複数のTS(Transport Stream:トランスポートストリーム)パケットで構成されるトランスポートストリームとして送信されてくる。チューナ601は、コントローラ613の制御に基づいて、アンテナから供給される複数のチャンネルの放送信号の中から、所定のチャンネル(周波数)の放送信号を選択(選局)し、その選択したチャンネルの放送信号を復調部602に供給する。   The tuner 601 is supplied with a broadcast signal (transmission signal) of a digital broadcast received by an antenna (not shown). The broadcast signal of this digital broadcast is digital data defined by MPEG (Moving Picture Experts Group) -2, etc., and is transmitted as a transport stream composed of a plurality of TS (Transport Stream) packets. come. Based on the control of the controller 613, the tuner 601 selects (selects) a broadcast signal of a predetermined channel (frequency) from broadcast signals of a plurality of channels supplied from the antenna, and broadcasts the selected channel. The signal is supplied to the demodulator 602.

復調部602は、コントローラ613の制御に基づいて、チューナ601から供給される所定のチャンネルの放送信号のトランスポートストリームを、例えば、QPSK(Quadrature Phase Shift Keying)復調等で復調し、それにより得られたトランスポートストリームをエラー訂正部603に供給する。   Based on the control of the controller 613, the demodulator 602 demodulates the transport signal of the broadcast signal of the predetermined channel supplied from the tuner 601 by, for example, QPSK (Quadrature Phase Shift Keying) demodulation and the like. The transport stream is supplied to the error correction unit 603.

エラー訂正部603では、コントローラ613の制御に基づいて、復調部602から供給されたトランスポートストリームについて、エラーが検出、訂正される。そして、訂正処理後のトランスポートストリームが、デマルチプレクサ(DEM)604に供給される。   The error correction unit 603 detects and corrects an error in the transport stream supplied from the demodulation unit 602 based on the control of the controller 613. Then, the corrected transport stream is supplied to a demultiplexer (DEM) 604.

デマルチプレクサ604は、コントローラ613の制御に基づいて、エラー訂正部603から供給されるトランスポートストリームを、必要に応じて、デスクランブル処理する。また、デマルチプレクサ604は、コントローラ613の制御に基づいて、TSパケットのPID(Packet Identifier)を参照することにより、エラー訂正部603から供給されるトランスポートストリームから、所定の番組のTSパケットを抽出し、ビデオデータのTSパケットをビデオデコーダ605に、オーディオデータのTSパケットをオーディオデコーダ610に、それぞれ供給する。   The demultiplexer 604 descrambles the transport stream supplied from the error correction unit 603 as necessary based on the control of the controller 613. Further, the demultiplexer 604 extracts a TS packet of a predetermined program from the transport stream supplied from the error correction unit 603 by referring to the TS packet PID (Packet Identifier) based on the control of the controller 613. Then, the TS packet of video data is supplied to the video decoder 605, and the TS packet of audio data is supplied to the audio decoder 610, respectively.

ビデオデコーダ605は、デマルチプレクサ604から供給されるビデオデータ(のTSパケット)をMPEG-2方式でデコードし、LSI606または合成部607に供給する。   The video decoder 605 decodes the video data (its TS packet) supplied from the demultiplexer 604 using the MPEG-2 system, and supplies the decoded data to the LSI 606 or the combining unit 607.

LSI606は、コントローラ613から供給されるコマンド列を受信し、そのコマンド列に応じて、第1実施の形態のR-IC212等と同様に、リコンフィギュラブルに内部構造を切り換える。そして、LSI606は、ビデオデコーダ605が出力する画像データ(ビデオデータ)を信号処理し、その信号処理によって得られる画像データを、合成部607に供給(出力)する。   The LSI 606 receives the command sequence supplied from the controller 613, and switches the internal structure in a reconfigurable manner according to the command sequence, similar to the R-IC 212 of the first embodiment. The LSI 606 performs signal processing on the image data (video data) output from the video decoder 605 and supplies (outputs) the image data obtained by the signal processing to the combining unit 607.

合成部607は、LSI606から画像データが供給される場合は、その画像データを選択する。一方、LSI606から画像データが供給されない場合は、合成部607は、ビデオデコーダ605から供給される画像データを選択する。また、合成部607は、ビデオデコーダ605またはLSI606から供給される画像データのうちの選択した方にOSD(On Screen Display)部608から供給される画像データを重畳して、LCD(Liquid Crystal Display)609に供給して、表示させる。   When image data is supplied from the LSI 606, the combining unit 607 selects the image data. On the other hand, when image data is not supplied from the LSI 606, the synthesis unit 607 selects image data supplied from the video decoder 605. The synthesizing unit 607 superimposes the image data supplied from the OSD (On Screen Display) unit 608 on the selected one of the image data supplied from the video decoder 605 or the LSI 606, and displays an LCD (Liquid Crystal Display). 609 to display.

なお、OSD部608から画像データが供給されない場合には、合成部607は、ビデオデコーダ605またはLSI606から供給された画像データのうちの選択した方をそのままLCD609に供給する。   When image data is not supplied from the OSD unit 608, the synthesizing unit 607 supplies the selected one of the image data supplied from the video decoder 605 or the LSI 606 to the LCD 609 as it is.

ここで、OSD部608は、コントローラ613の制御に基づいて、例えば、現在選択されているチャンネルの番号や音量などの画像データを生成し、合成部607に供給する。   Here, the OSD unit 608 generates, for example, image data such as the number and volume of the currently selected channel based on the control of the controller 613, and supplies the image data to the combining unit 607.

一方、オーディオデコーダ610は、デマルチプレクサ604から供給されるオーディオデータ(のTSパケット)をMPEG-2方式でデコードし、図示せぬ出力端子に供給し、また、スピーカ611に供給して出力させる。   On the other hand, the audio decoder 610 decodes the audio data (its TS packet) supplied from the demultiplexer 604 by the MPEG-2 system, supplies it to an output terminal (not shown), and supplies it to the speaker 611 for output.

なお、コントローラ613は、チューナ601、復調部602、エラー訂正部603、デマルチプレクサ604、ビデオデコーダ605、オーディオデコーダ610、OSD部608を制御する。また、コントローラ613は、キー入力部614やリモコンI/F617から供給される、ユーザの操作に対応する操作信号に基づいて、各種の処理を実行する。   The controller 613 controls the tuner 601, the demodulator 602, the error corrector 603, the demultiplexer 604, the video decoder 605, the audio decoder 610, and the OSD unit 608. Further, the controller 613 executes various processes based on operation signals corresponding to user operations supplied from the key input unit 614 and the remote control I / F 617.

例えば、コントローラ613は、リモコンI/F617から供給される、ユーザの操作に対応する操作信号に応じて、1以上のコマンドからなるコマンド列を生成し、LSI606に送信(供給)する。   For example, the controller 613 generates a command sequence including one or more commands in response to an operation signal supplied from the remote control I / F 617 and corresponding to a user operation, and transmits (supplies) to the LSI 606.

キー入力部614は、例えば、スイッチボタンなどで構成され、ユーザが所望のチャンネルを選択する際の操作などを受け付け、そのユーザの操作に対応する操作信号をコントローラ613に供給する。表示部615は、コントローラ613から供給される制御信号に基づいて、例えば、チューナ601において選択されているチャンネルなどを表示する。   The key input unit 614 includes, for example, a switch button, receives an operation when the user selects a desired channel, and supplies an operation signal corresponding to the user's operation to the controller 613. The display unit 615 displays, for example, the channel selected by the tuner 601 based on the control signal supplied from the controller 613.

リモコンI/F(InterFace)617は、受光部616から供給される、ユーザの操作に対応する操作信号をコントローラ613に供給する。受光部616は、リモコン(リモートコマンダ618から送信されるユーザの操作に対応する操作信号を受信(受光)し、リモコンI/F617に供給する。   A remote control I / F (InterFace) 617 supplies an operation signal supplied from the light receiving unit 616 corresponding to a user operation to the controller 613. The light receiving unit 616 receives (receives) an operation signal corresponding to a user operation transmitted from the remote controller (remote commander 618), and supplies the received signal to the remote controller I / F 617.

次に、図49は、図48のリモコン618の構成例を示す平面図である。   Next, FIG. 49 is a plan view showing a configuration example of the remote control 618 of FIG.

リモコン618には、ユーザインタフェース部621とLCDパネル622とが設けられている。   The remote control 618 is provided with a user interface unit 621 and an LCD panel 622.

ユーザインタフェース部621としては、図48のテレビジョン受像機の電源をオン/オフするときに操作される電源ボタン612A、テレビジョン受像機への入力をテレビジョン放送や外部入力に切り換えるときに操作される入力ボタン621B、チャンネルを選択するときに操作されるチャンネルボタン621C、テレビジョン受像機(のLSI606)に対して所定の機能を要求するときに操作される機能ボタン621Dが設けられている。   The user interface unit 621 is operated when the power button 612A is operated when turning on / off the power of the television receiver in FIG. 48, and when the input to the television receiver is switched to television broadcasting or external input. An input button 621B, a channel button 621C that is operated when selecting a channel, and a function button 621D that is operated when a predetermined function is requested to the television receiver (LSI 606).

なお、図49では、機能ボタン621Dとして、機能A,B,C,Dの4つのボタンが設けられている。   In FIG. 49, four buttons of functions A, B, C, and D are provided as function buttons 621D.

LCDパネル622は、所定の情報、例えば、直前に操作されたユーザインタフェース部621のボタンを表す情報などが表示される。   The LCD panel 622 displays predetermined information, for example, information indicating a button of the user interface unit 621 operated immediately before.

次に、図50は、図49のリモコン618の電気的構成例を示している。   Next, FIG. 50 shows an example of the electrical configuration of the remote control 618 of FIG.

リモコン618は、ユーザインタフェース部621,LCDパネル622、制御部632、記憶部633、および送信部634が、バス631を介して相互に接続されて構成されている。   The remote control 618 includes a user interface unit 621, an LCD panel 622, a control unit 632, a storage unit 633, and a transmission unit 634 that are connected to each other via a bus 631.

制御部632は、例えば、CPUなどで構成され、記憶部633に記憶されているプログラムを実行することにより、リモコン618を構成する各ブロックを制御する。記憶部633は、制御部632が実行するプログラムや必要なデータを記憶している。また、記憶部633は、制御部632等が処理を行う上で必要なデータを記憶する。   The control unit 632 is configured by, for example, a CPU and controls each block configuring the remote controller 618 by executing a program stored in the storage unit 633. The storage unit 633 stores programs executed by the control unit 632 and necessary data. The storage unit 633 stores data necessary for the control unit 632 and the like to perform processing.

送信部634は、ユーザが、ユーザインタフェース部621を操作した場合に、その操作に対応する操作信号を、赤外線や電波で送信する。送信部634が送信する操作信号が、受光部616(図48)で受信される。   When the user operates the user interface unit 621, the transmission unit 634 transmits an operation signal corresponding to the operation by infrared rays or radio waves. The operation signal transmitted by the transmission unit 634 is received by the light receiving unit 616 (FIG. 48).

次に、図51のフローチャートを参照して、図48のコントローラ613の処理について概説する。   Next, the processing of the controller 613 in FIG. 48 will be outlined with reference to the flowchart in FIG.

コントローラ613は、ステップS601において、リモコン618のユーザインタフェース部621(図49)がユーザによって操作されたか否かを判定する。ステップS601において、ユーザインタフェース部621が操作されていないと判定された場合、ステップS601に戻る。   In step S601, the controller 613 determines whether the user interface unit 621 (FIG. 49) of the remote controller 618 has been operated by the user. If it is determined in step S601 that the user interface unit 621 has not been operated, the process returns to step S601.

また、ステップS601において、ユーザインタフェース部621が操作されたと判定された場合、即ち、ユーザが、ユーザインタフェース部621を操作し、その操作に対応する操作信号が、受光部616およびリモコンI/F617を介して、コントローラ613に供給された場合、ステップS602に進み、コントローラ613は、その操作信号に基づき、電源ボタン621A(図49)が操作されたか否かを判定する。   If it is determined in step S601 that the user interface unit 621 has been operated, that is, the user operates the user interface unit 621, and an operation signal corresponding to the operation causes the light receiving unit 616 and the remote control I / F 617 to operate. In step S602, the controller 613 determines whether the power button 621A (FIG. 49) has been operated based on the operation signal.

ステップS602において、電源ボタン621Aが操作されたと判定された場合、即ち、ユーザが、電源ボタン621Aを操作し、その操作に対応する操作信号が、受光部616およびリモコンI/F617を介して、コントローラ613に供給された場合、ステップS603に進み、コントローラ613は、図48のテレビジョン受像機の電源をオンまたはオフとする電源処理を行い、ステップS601に戻る。   When it is determined in step S602 that the power button 621A has been operated, that is, the user operates the power button 621A, and an operation signal corresponding to the operation is transmitted to the controller via the light receiving unit 616 and the remote control I / F 617. If the power is supplied to 613, the process proceeds to step S603, where the controller 613 performs power processing for turning on or off the power of the television receiver in FIG. 48, and returns to step S601.

また、ステップS602において、電源ボタン621Aが操作されていないと判定された場合、即ち、電源ボタン621A以外のボタンが操作された場合、ステップS604に進み、コントローラ613は、その操作されたボタンに対応する処理を行い、ステップS601に戻る。   If it is determined in step S602 that the power button 621A is not operated, that is, if a button other than the power button 621A is operated, the process proceeds to step S604, and the controller 613 corresponds to the operated button. To return to step S601.

ここで、リモコン618(図49)の機能ボタン621Dが操作され、コントローラ613が、その機能ボタン621Dの操作に対応した操作信号を、受光部616およびリモコンI/F617を介して受信した場合、コントローラ613は、その操作信号(操作された機能ボタン621D)に応じて、コマンド列を生成し、LSI606に送信する。   Here, when the function button 621D of the remote control 618 (FIG. 49) is operated and the controller 613 receives an operation signal corresponding to the operation of the function button 621D via the light receiving unit 616 and the remote control I / F 617, the controller In response to the operation signal (operated function button 621D), 613 generates a command string and transmits it to the LSI 606.

図52は、コントローラ613が生成するコマンド列のフォーマットを示している。   FIG. 52 shows the format of a command string generated by the controller 613.

コマンド列は、例えば、ヘッダ、1以上のコマンド、EOC(End Of Command)コードが順次配置されて構成される。   For example, the command string is configured by sequentially arranging a header, one or more commands, and an EOC (End Of Command) code.

次に、図53のフローチャートを参照して、コントローラ613による図51のステップS604の処理についてさらに説明する。   Next, with reference to the flowchart of FIG. 53, the process of step S604 of FIG. 51 by the controller 613 will be further described.

コントローラ613は、ステップS611において、機能ボタン621D(図49)のうちの機能Aのボタン(以下、適宜、Aボタンという)が操作されたかどうかを判定する。ステップS611において、Aボタンが操作されたと判定された場合、ステップS612に進み、コントローラ613は、図52に示したコマンド列における1以上のコマンドとして、1次元空間解像度創造コマンドまたは2次元空間解像度創造コマンドを配置したコマンド列を生成し、LSI606に送信して、リターンする。   In step S611, the controller 613 determines whether or not the function A button (hereinafter referred to as A button as appropriate) of the function buttons 621D (FIG. 49) has been operated. If it is determined in step S611 that the A button has been operated, the process proceeds to step S612, where the controller 613 generates a one-dimensional spatial resolution creation command or a two-dimensional spatial resolution creation command as one or more commands in the command sequence shown in FIG. A command sequence in which commands are arranged is generated, transmitted to the LSI 606, and the process returns.

また、ステップS611において、Aボタンが操作されていないと判定された場合、ステップS613に進み、コントローラ613は、機能ボタン621D(図49)のうちの機能Bのボタン(以下、適宜、Bボタンという)が操作されたかどうかを判定する。   If it is determined in step S611 that the A button has not been operated, the process proceeds to step S613, where the controller 613 calls the function B button (hereinafter referred to as the B button as appropriate) of the function buttons 621D (FIG. 49). ) Has been operated.

ステップS613において、Bボタンが操作されたと判定された場合、ステップS614に進み、コントローラ613は、図52に示したコマンド列における1以上のコマンドとして、ノイズ除去コマンドを配置したコマンド列を生成し、LSI606に送信して、リターンする。   If it is determined in step S613 that the B button has been operated, the process proceeds to step S614, where the controller 613 generates a command sequence in which a noise removal command is arranged as one or more commands in the command sequence shown in FIG. Transmit to LSI 606 and return.

また、ステップS613において、Bボタンが操作されていないと判定された場合、ステップS615に進み、コントローラ613は、機能ボタン621D(図49)のうちの機能Cのボタン(以下、適宜、Cボタンという)が操作されたかどうかを判定する。   If it is determined in step S613 that the B button has not been operated, the process proceeds to step S615, and the controller 613 determines that the function C button of the function buttons 621D (FIG. 49) (hereinafter referred to as C button as appropriate). ) Has been operated.

ステップS615において、Cボタンが操作されたと判定された場合、ステップS616に進み、コントローラ613は、図52に示したコマンド列における1以上のコマンドとして、1次元空間解像度創造コマンドと、ノイズ除去コマンドとを配置したコマンド列を生成し、LSI606に送信して、リターンする。   If it is determined in step S615 that the C button has been operated, the process proceeds to step S616, where the controller 613 performs a one-dimensional spatial resolution creation command, a noise removal command, and one or more commands in the command sequence shown in FIG. Is generated, transmitted to the LSI 606, and the process returns.

また、ステップS615において、Cボタンが操作されていないと判定された場合、ステップS617に進み、コントローラ613は、機能ボタン621D(図49)のうちの機能Dのボタン(以下、適宜、Dボタンという)が操作されたかどうかを判定する。   If it is determined in step S615 that the C button has not been operated, the process proceeds to step S617, where the controller 613 selects the function D button (hereinafter referred to as the D button as appropriate) of the function buttons 621D (FIG. 49). ) Has been operated.

ステップS617において、Dボタンが操作されたと判定された場合、ステップS618に進み、コントローラ613は、図52に示したコマンド列における1以上のコマンドとして、2次元空間解像度創造コマンドと、ノイズ除去コマンドとを配置したコマンド列を生成し、LSI606に送信して、リターンする。   If it is determined in step S617 that the D button has been operated, the process proceeds to step S618, where the controller 613 performs a two-dimensional spatial resolution creation command, a noise removal command, and one or more commands in the command sequence illustrated in FIG. Is generated, transmitted to the LSI 606, and the process returns.

また、ステップS617において、Dボタンが操作されていないと判定された場合、即ち、電源ボタン621Aおよび機能ボタン621D以外のボタンが操作された場合、ステップS619に進み、コントローラ613は、その操作されたボタンに対応する処理を行い、リターンする。   If it is determined in step S617 that the D button has not been operated, that is, if any button other than the power button 621A and the function button 621D has been operated, the process proceeds to step S619, and the controller 613 has been operated. Performs processing corresponding to the button and returns.

次に、図54は、コントローラ613が、機能ボタン621Dの操作に応じて生成し、LSI606に送信するコマンド列を示している。   Next, FIG. 54 shows a command sequence generated by the controller 613 in response to the operation of the function button 621D and transmitted to the LSI 606.

Aボタンが操作された場合、コントローラ613は、図54左側の上から1番目または2番目に示すように、1つのコマンドである1次元空間解像度創造コマンドまたは2次元空間解像度創造コマンドを配置したコマンド列であるAボタンコマンド列641または642を生成し、LSI606に送信する。   When the A button is operated, the controller 613 has a command in which a one-dimensional spatial resolution creation command or a two-dimensional spatial resolution creation command as one command is arranged, as shown first or second from the top on the left side of FIG. A button command sequence 641 or 642 as a sequence is generated and transmitted to the LSI 606.

また、Bボタンが操作された場合、コントローラ613は、図54左側の上から3番目に示すように、1つのコマンドであるノイズ除去コマンドを配置したコマンド列であるBボタンコマンド列643を生成し、LSI606に送信する。   When the B button is operated, the controller 613 generates a B button command sequence 643 that is a command sequence in which a noise removal command that is one command is arranged, as shown in the third from the upper left in FIG. , Transmitted to the LSI 606.

さらに、Cボタンが操作された場合、コントローラ613は、図54右側の上から1番目に示すように、2つのコマンドである1次元空間解像度創造コマンドとノイズ除去コマンドとを配置したコマンド列であるCボタンコマンド列644を生成し、LSI606に送信する。   Further, when the C button is operated, the controller 613 is a command sequence in which two commands, a one-dimensional spatial resolution creation command and a noise removal command, are arranged as shown first from the upper right in FIG. A C button command string 644 is generated and transmitted to the LSI 606.

また、Dボタンが操作された場合、コントローラ613は、図54右側の上から2番目に示すように、2つのコマンドである2次元空間解像度創造コマンドとノイズ除去コマンドとを配置したコマンド列であるDボタンコマンド列645を生成し、LSI606に送信する。   When the D button is operated, the controller 613 is a command sequence in which two commands, a two-dimensional spatial resolution creation command and a noise removal command, are arranged as shown in the second from the top in FIG. A D button command string 645 is generated and transmitted to the LSI 606.

次に、図55は、図48のLSI606の構成例を示している。   Next, FIG. 55 shows a configuration example of the LSI 606 of FIG.

受信部650は、コントローラ613(図48)から送信されてくるコマンド列を受信し、SW(スイッチ)回路654および655、並びに信号処理回路656に供給する。   The receiving unit 650 receives a command sequence transmitted from the controller 613 (FIG. 48) and supplies the command sequence to the SW (switch) circuits 654 and 655 and the signal processing circuit 656.

フレームメモリ651は、ビデオデコーダ605(図48)から供給される画像データ(画像入力信号)を、例えば、1フレーム単位で記憶し、SW回路654の入力端子654Aに供給する。   The frame memory 651 stores the image data (image input signal) supplied from the video decoder 605 (FIG. 48), for example, in units of one frame, and supplies it to the input terminal 654A of the SW circuit 654.

フレームメモリ652は、信号処理回路656からSW回路655の出力端子655Aを介して供給される画像データ(画像出力信号)を、例えば、1フレーム単位で記憶し、合成部607(図48)に供給する。   The frame memory 652 stores the image data (image output signal) supplied from the signal processing circuit 656 via the output terminal 655A of the SW circuit 655, for example, in units of one frame, and supplies it to the synthesis unit 607 (FIG. 48). To do.

フレームメモリ653は、SW回路655の出力端子655Bから供給される画像データを、例えば、1フレーム単位で記憶し、SW回路654の入力端子654Bに供給する。   The frame memory 653 stores the image data supplied from the output terminal 655B of the SW circuit 655, for example, in units of one frame, and supplies the image data to the input terminal 654B of the SW circuit 654.

SW回路654は、2つの入力端子654Aおよび654Bを有しており、入力端子654Aには、フレームメモリ651に記憶された画像データが供給され、入力端子654Bには、フレームメモリ653に記憶された画像データが供給されるようになっている。SW回路654は、例えば、受信部650から供給されるコマンド列等に応じて、入力端子654Aまたは654Bのうちの一方を選択し、その選択した方の入力端子から供給される画像データを、信号処理回路656に供給する。   The SW circuit 654 has two input terminals 654A and 654B. The input terminal 654A is supplied with image data stored in the frame memory 651, and the input terminal 654B is stored in the frame memory 653. Image data is supplied. For example, the SW circuit 654 selects one of the input terminals 654A or 654B in accordance with a command sequence supplied from the receiving unit 650, and the image data supplied from the selected input terminal is converted into a signal. This is supplied to the processing circuit 656.

SW回路655は、2つの出力端子655Aおよび655Bを有しており、出力端子655Aは、フレームメモリ652に、出力端子655Bは、フレームメモリ653に、それぞれ接続されている。SW回路655には、信号処理回路656から、信号処理後の画像データが供給されるようになっており、SW回路655は、例えば、受信部650から供給されるコマンド列等に応じて、出力端子655Aまたは655Bのうちの一方を選択し、その選択した方の出力端子に、信号処理回路656からの画像データを出力する。   The SW circuit 655 has two output terminals 655A and 655B. The output terminal 655A is connected to the frame memory 652, and the output terminal 655B is connected to the frame memory 653. The SW circuit 655 is supplied with the image data after the signal processing from the signal processing circuit 656, and the SW circuit 655 outputs, for example, according to the command string supplied from the receiving unit 650 or the like. One of the terminals 655A and 655B is selected, and the image data from the signal processing circuit 656 is output to the selected output terminal.

信号処理回路656は、受信部650からのコマンド列に応じて、その内部構造を、リコンフィギュラブルに切り換え、SW回路654から供給される画像データを信号処理し、その信号処理によって得られる画像データを、SW回路655に供給する。   The signal processing circuit 656 switches its internal structure to reconfigurable according to the command string from the receiving unit 650, performs signal processing on the image data supplied from the SW circuit 654, and obtains image data obtained by the signal processing. Is supplied to the SW circuit 655.

次に、図56のフローチャートを参照して、図55のLSI606の処理について説明する。   Next, processing of the LSI 606 in FIG. 55 will be described with reference to the flowchart in FIG.

コントローラ613(図48)からLSI606に対して、コマンド列が送信されてくると、受信部650は、ステップS631において、そのコマンド列を受信し、SW回路654および655、並びに信号処理回路656に供給して、ステップS632に進む。   When a command string is transmitted from the controller 613 (FIG. 48) to the LSI 606, the receiving unit 650 receives the command string and supplies it to the SW circuits 654 and 655 and the signal processing circuit 656 in step S631. Then, the process proceeds to step S632.

ここで、受信部650が受信したコマンド列は、N個のコマンドで構成されるものとする。但し、Nは、1以上の整数とする。   Here, the command sequence received by the receiving unit 650 is assumed to be composed of N commands. However, N is an integer of 1 or more.

ステップS632では、フレームメモリ651が、ビデオデコーダ605(図48)から供給される1フレーム(フィールド)の画像データを記憶し、ステップS633に進む。   In step S632, the frame memory 651 stores the image data of one frame (field) supplied from the video decoder 605 (FIG. 48), and the process proceeds to step S633.

ステップS633では、SW回路654および655が、受信部650から供給されたコマンド列を構成するコマンドが1つであるか、または複数であるかを判定する。   In step S633, the SW circuits 654 and 655 determine whether the command sequence supplied from the receiving unit 650 is one or a plurality of commands.

ステップS633において、コマンド列を構成するコマンドが1つであると判定された場合、ステップS634に進み、SW回路654が入力端子654Aを選択するとともに、SW回路655が出力端子655Aを選択し、ステップS635に進む。   If it is determined in step S633 that the number of commands constituting the command string is one, the process proceeds to step S634, where the SW circuit 654 selects the input terminal 654A and the SW circuit 655 selects the output terminal 655A. The process proceeds to S635.

ステップS635では、信号処理回路656が、受信部650からのコマンド列を構成するコマンドから、注目コマンドとするコマンドを選択する。ここで、いまの場合、コマンド列を構成するコマンドは1つであるので、その1つのコマンドが、注目コマンドとして選択される。   In step S635, the signal processing circuit 656 selects a command to be a command of interest from commands composing a command string from the receiving unit 650. Here, in this case, since there is one command constituting the command string, that one command is selected as the attention command.

さらに、ステップS635では、信号処理回路656が、注目コマンドに応じて、内部構造を切り換え、これにより、その注目コマンドに対応した信号処理を実行することが可能な状態となって、ステップS636に進む。   Further, in step S635, the signal processing circuit 656 switches the internal structure in accordance with the command of interest, so that the signal processing corresponding to the command of interest can be executed, and the process proceeds to step S636. .

ステップS636では、信号処理回路656は、SW回路654が選択している入力端子654Aを介して、フレームメモリ651から1フレームの画像データを読み出し、その1フレームの画像データを対象に、注目コマンドに対応した信号処理を行う。   In step S636, the signal processing circuit 656 reads out one frame of image data from the frame memory 651 via the input terminal 654A selected by the SW circuit 654, and uses the one frame of image data as a target command. Perform the corresponding signal processing.

ここで、ステップS636では、信号処理回路656は、受信部650から供給されたコマンド列を構成するコマンドの数Nに等しいN倍速で、信号処理を行う。いまの場合、コマンド列は、1つのコマンドで構成されるので、信号処理回路656は、1倍速、即ち、フレームレート(またはフィールドレート)に対応する処理速度(フレーム周期に等しい時間内に、1フレームの画像データの信号処理を終了する処理速度)で、1フレームの画像データを信号処理する。   Here, in step S636, the signal processing circuit 656 performs signal processing at an N-times speed equal to the number N of commands constituting the command sequence supplied from the receiving unit 650. In this case, since the command sequence is composed of one command, the signal processing circuit 656 has a 1 × speed, that is, a processing speed corresponding to the frame rate (or field rate) (within a time equal to the frame period, 1 The image data of one frame is signal-processed at a processing speed of completing the signal processing of the image data of the frame.

ステップS636において信号処理回路656が信号処理を行うことにより得られた画像データは、SW回路655に供給され、ステップS637に進む。   The image data obtained by the signal processing by the signal processing circuit 656 in step S636 is supplied to the SW circuit 655, and the process proceeds to step S637.

ここで、SW回路655は、ステップS634で、出力端子655Aを選択しているので、信号処理回路656がSW回路655に供給した画像データは、出力端子655Aからフレームメモリ652に供給される。   Here, since the SW circuit 655 selects the output terminal 655A in step S634, the image data supplied from the signal processing circuit 656 to the SW circuit 655 is supplied from the output terminal 655A to the frame memory 652.

ステップS637では、フレームメモリ652が、信号処理回路656から、SW回路655を介して供給される画像データを記憶し、その記憶した画像データを、合成回路607(図48)に出力して、ステップS650に進む。   In step S637, the frame memory 652 stores the image data supplied from the signal processing circuit 656 via the SW circuit 655, and outputs the stored image data to the synthesis circuit 607 (FIG. 48). The process proceeds to S650.

一方、ステップS633において、コマンド列を構成するコマンドが複数であると判定された場合、ステップS638に進み、SW回路654が入力端子654Aを選択するとともに、SW回路655が出力端子655Bを選択し、ステップS639に進む。   On the other hand, if it is determined in step S633 that there are a plurality of commands constituting the command sequence, the process proceeds to step S638, the SW circuit 654 selects the input terminal 654A, and the SW circuit 655 selects the output terminal 655B. The process proceeds to step S639.

ステップS639では、信号処理回路656が、受信部650からのコマンド列を構成するコマンドから、注目コマンドとするコマンドを選択する。即ち、信号処理回路656は、例えば、コマンド列を構成する複数のコマンドのうちの、まだ注目コマンドとしていない最も先頭寄りのコマンドを、注目コマンドとして選択する。   In step S639, the signal processing circuit 656 selects a command to be a command of interest from commands composing a command string from the receiving unit 650. That is, for example, the signal processing circuit 656 selects, as the attention command, the command closest to the head that has not yet been regarded as the attention command among the plurality of commands constituting the command string.

さらに、ステップS639では、信号処理回路656が、注目コマンドに応じて、内部構造を切り換え、これにより、その注目コマンドに対応した信号処理を実行することが可能な状態となって、ステップS640に進む。   Further, in step S639, the signal processing circuit 656 switches the internal structure in accordance with the command of interest, thereby enabling the signal processing corresponding to the command of interest to be executed, and the process proceeds to step S640. .

ステップS640では、信号処理回路656は、SW回路654が選択している端子654Aを介して、フレームメモリ651から1フレームの画像データを読み出し、その1フレームの画像データを対象に、注目コマンドに対応した信号処理を、コマンド列を構成するコマンドの数Nに等しいN倍速で行う。   In step S640, the signal processing circuit 656 reads one frame of image data from the frame memory 651 via the terminal 654A selected by the SW circuit 654, and responds to the command of interest for the one frame of image data. The signal processing is performed at N times speed equal to the number N of commands constituting the command sequence.

ステップS640において、信号処理回路656が信号処理を行うことにより得られた画像データは、SW回路655に供給され、ステップS641に進む。   In step S640, the image data obtained by the signal processing by the signal processing circuit 656 is supplied to the SW circuit 655, and the process proceeds to step S641.

ここで、SW回路655は、ステップS638で、出力端子655Bを選択しているので、信号処理回路656がSW回路655に供給した画像データは、出力端子655Bからフレームメモリ653に供給される。   Here, since the SW circuit 655 selects the output terminal 655B in step S638, the image data supplied from the signal processing circuit 656 to the SW circuit 655 is supplied from the output terminal 655B to the frame memory 653.

ステップS641では、フレームメモリ653が、信号処理回路656から、SW回路655を介して供給される画像データを記憶し、ステップS642に進む。   In step S641, the frame memory 653 stores the image data supplied from the signal processing circuit 656 via the SW circuit 655, and the process proceeds to step S642.

ステップS642では、SW回路654が、入力端子654Aから654Bに選択を切り換えて、ステップS643に進む。   In step S642, the SW circuit 654 switches the selection from the input terminal 654A to 654B, and proceeds to step S643.

ステップS643では、信号処理回路656が、ステップS639における場合と同様にして、受信部650からのコマンド列を構成するコマンドから、注目コマンドとするコマンドを、新たに選択する。   In step S643, the signal processing circuit 656 newly selects a command to be a command of interest from the commands constituting the command sequence from the reception unit 650, as in step S639.

さらに、ステップS643では、信号処理回路656が、新たな注目コマンドに応じて、内部構造を切り換え、これにより、その注目コマンドに対応した信号処理を実行することが可能な状態となって、ステップS644に進む。   Further, in step S643, the signal processing circuit 656 switches the internal structure in accordance with the new attention command, thereby enabling the signal processing corresponding to the attention command to be executed, and step S644. Proceed to

ステップS644では、信号処理回路656が、注目コマンドが、コマンド列を構成する最後のコマンドであるかどうかを判定する。   In step S644, the signal processing circuit 656 determines whether the command of interest is the last command constituting the command string.

ステップS644において、注目コマンドが、コマンド列を構成する最後のコマンドでないと判定された場合、即ち、コマンド列の中に、まだ注目コマンドとしていないコマンドが存在する場合、ステップS645に進み、信号処理回路656は、SW回路654が選択している入力端子654Bを介して、フレームメモリ653から画像データを読み出し、即ち、信号処理回路656による前回の信号処理によって得られた画像データを読み出し、その画像データを対象に、注目コマンドに対応した信号処理を、コマンド列を構成するコマンドの数Nに等しいN倍速で行う。   If it is determined in step S644 that the command of interest is not the last command constituting the command string, that is, if there is a command that has not yet been noticed in the command string, the process proceeds to step S645, where the signal processing circuit Reference numeral 656 reads out image data from the frame memory 653 via the input terminal 654B selected by the SW circuit 654, that is, reads out image data obtained by the previous signal processing by the signal processing circuit 656. , The signal processing corresponding to the command of interest is performed at an N-times speed equal to the number N of commands constituting the command sequence.

ステップS645において、信号処理回路656が信号処理を行うことにより得られた画像データは、SW回路655に供給され、ステップS646に進む。   In step S645, the image data obtained by the signal processing by the signal processing circuit 656 is supplied to the SW circuit 655, and the process proceeds to step S646.

ここで、SW回路655は、ステップS638で、出力端子655Bを選択したままとなっているので、信号処理回路656がSW回路655に供給した画像データは、出力端子655Bからフレームメモリ653に供給される。   Here, since the SW circuit 655 keeps selecting the output terminal 655B in step S638, the image data supplied from the signal processing circuit 656 to the SW circuit 655 is supplied from the output terminal 655B to the frame memory 653. The

ステップS646では、フレームメモリ653が、信号処理回路656から、SW回路655を介して供給される画像データを記憶する(上書きする)。そして、ステップS643に戻り、以下、同様の処理が繰り返される。   In step S646, the frame memory 653 stores (overwrites) the image data supplied from the signal processing circuit 656 via the SW circuit 655. Then, the process returns to step S643, and the same processing is repeated thereafter.

また、ステップS644において、注目コマンドが、コマンド列を構成する最後のコマンドであると判定された場合、ステップS647に進み、SW回路655が、出力端子655Bから655Aに選択を切り換えて、ステップS648に進む。   If it is determined in step S644 that the command of interest is the last command constituting the command string, the process proceeds to step S647, and the SW circuit 655 switches the selection from the output terminal 655B to 655A, and then proceeds to step S648. move on.

ステップS648では、信号処理回路656は、SW回路654が選択している端子654Bを介して、フレームメモリ653から画像データを読み出し、即ち、信号処理回路656による前回の信号処理によって得られた画像データを読み出し、その画像データを対象に、注目コマンドに対応した信号処理を、コマンド列を構成するコマンドの数Nに等しいN倍速で行う。   In step S648, the signal processing circuit 656 reads the image data from the frame memory 653 via the terminal 654B selected by the SW circuit 654, that is, the image data obtained by the previous signal processing by the signal processing circuit 656. And the signal processing corresponding to the command of interest is performed at the N-times speed equal to the number N of commands constituting the command sequence.

ステップS648において、信号処理回路656が信号処理を行うことにより得られた画像データは、SW回路655に供給され、ステップS649に進む。   In step S648, the image data obtained by the signal processing by the signal processing circuit 656 is supplied to the SW circuit 655, and the process proceeds to step S649.

ここで、SW回路655は、ステップS647で、出力端子655Aを選択しているので、信号処理回路656がSW回路655に供給した画像データは、出力端子655Aからフレームメモリ652に供給される。   Here, since the SW circuit 655 has selected the output terminal 655A in step S647, the image data supplied from the signal processing circuit 656 to the SW circuit 655 is supplied from the output terminal 655A to the frame memory 652.

ステップS649では、フレームメモリ652が、信号処理回路656から、SW回路655を介して供給される画像データを記憶し、その記憶した画像データを、合成回路607(図48)に出力して、ステップS650に進む。   In step S649, the frame memory 652 stores the image data supplied from the signal processing circuit 656 via the SW circuit 655, and outputs the stored image data to the synthesis circuit 607 (FIG. 48). The process proceeds to S650.

ステップS650では、次のフレームの画像データがフレームメモリ651に供給されたかどうかが判定される。ステップS650において、次のフレームの画像データがフレームメモリ651に供給されたと判定された場合、ステップS632に戻り、フレームメモリ651が、その画像データを記憶して、以下、同様の処理が繰り返される。なお、このとき、コマンド列を構成するコマンドは、すべて、まだ注目コマンドとされてないものとされる。   In step S650, it is determined whether the image data of the next frame has been supplied to the frame memory 651. If it is determined in step S650 that the image data of the next frame has been supplied to the frame memory 651, the process returns to step S632, the frame memory 651 stores the image data, and the same processing is repeated thereafter. At this time, it is assumed that all commands constituting the command sequence have not yet been set as the command of interest.

一方、ステップS650において、次のフレームの画像データがフレームメモリ651に供給されていないと判定された場合、処理を終了する。   On the other hand, if it is determined in step S650 that the image data of the next frame has not been supplied to the frame memory 651, the process ends.

以上のように、LSI606は、コマンド列が複数のコマンドから構成される場合、注目コマンドに応じて、内部構造を切り換え、その注目コマンドに対応した信号処理を、画像データを対象に実行し、その後、さらに、新たな注目コマンドに応じて、内部構造を切り換え、その新たな注目コマンドに対応した信号処理を、前回の信号処理によって得られた画像データを対象に実行する。従って、単一のハードウェアで、複数の機能を、容易に実現することができる。   As described above, when the command string is composed of a plurality of commands, the LSI 606 switches the internal structure according to the command of interest, executes signal processing corresponding to the command of interest on the image data, and thereafter Further, the internal structure is switched according to the new attention command, and the signal processing corresponding to the new attention command is executed on the image data obtained by the previous signal processing. Therefore, a plurality of functions can be easily realized with a single hardware.

次に、図57は、図55の信号処理回路656の構成例を示している。   Next, FIG. 57 shows a configuration example of the signal processing circuit 656 of FIG.

走査線変換回路521Aには、SW回路654(図55)から画像データが供給される。走査線変換回路521Bは、そこに供給される画像データの走査方向を変換し、切換回路662に供給する。   Image data is supplied from the SW circuit 654 (FIG. 55) to the scanning line conversion circuit 521A. The scanning line conversion circuit 521B converts the scanning direction of the image data supplied thereto and supplies it to the switching circuit 662.

走査線変換回路521Bには、切換回路664から、信号処理回路661による信号処理後の画像データが供給される。走査線変換回路521Bは、そこに供給される画像データの走査方向を変換し、切換回路663に供給する。   Image data after signal processing by the signal processing circuit 661 is supplied from the switching circuit 664 to the scanning line conversion circuit 521B. The scanning line conversion circuit 521B converts the scanning direction of the image data supplied thereto and supplies it to the switching circuit 663.

フレームメモリ523には、SW回路654(図55)から画像データが供給される。フレームメモリ523は、そこに供給される画像データを記憶することにより、1フレーム分の時間だけ遅延して、信号処理回路661の端子io2'に供給する。   Image data is supplied to the frame memory 523 from the SW circuit 654 (FIG. 55). The frame memory 523 stores the image data supplied thereto, delays it by a time corresponding to one frame, and supplies it to the terminal io2 ′ of the signal processing circuit 661.

信号処理回路661は、端子io1,io2,io2',io3,io4,io5を有している。端子io1には、切換回路662から画像データが供給され、端子io2には、切換回路663から画像データが供給される。端子io2'には、フレームメモリ523から画像データが供給される。端子io3またはio4からは、信号処理回路661で信号処理が行われることにより得られた画像データが出力され、この画像データは、切換回路664または665にそれぞれ供給される。端子io5には、受信部650(図55)からコマンド列が供給される。   The signal processing circuit 661 has terminals io1, io2, io2 ′, io3, io4, and io5. Image data is supplied from the switching circuit 662 to the terminal io1, and image data is supplied from the switching circuit 663 to the terminal io2. Image data is supplied from the frame memory 523 to the terminal io2 ′. From the terminal io3 or io4, image data obtained by performing signal processing in the signal processing circuit 661 is output, and this image data is supplied to the switching circuit 664 or 665, respectively. A command string is supplied to the terminal io5 from the receiving unit 650 (FIG. 55).

信号処理回路661は、端子io5に供給されるコマンド列に応じて、その内部構造を切り換え、端子io1,io2、またはio2'に供給される画像データを信号処理し、その結果得られる画像データを、端子io3またはio4から出力する。   The signal processing circuit 661 switches its internal structure in accordance with the command string supplied to the terminal io5, performs signal processing on the image data supplied to the terminal io1, io2, or io2 ′, and obtains the resulting image data as the result. , Output from terminal io3 or io4.

切換回路662には、受信部650(図55)からコマンド列が供給される。また、切換回路662には、SW回路654(図55)と走査線変換回路521Aから画像データが供給される。切換回路662は、受信部650からのコマンド列に応じて、SW回路654からの画像データ、または走査線変換回路521Aからの画像データを選択し、信号処理回路661の端子io1に供給する。   A command sequence is supplied to the switching circuit 662 from the receiving unit 650 (FIG. 55). The switching circuit 662 is supplied with image data from the SW circuit 654 (FIG. 55) and the scanning line conversion circuit 521A. The switching circuit 662 selects the image data from the SW circuit 654 or the image data from the scanning line conversion circuit 521A in accordance with the command string from the receiving unit 650, and supplies it to the terminal io1 of the signal processing circuit 661.

切換回路663には、受信部650(図55)からコマンド列が供給される。また、切換回路663には、SW回路654(図55)と走査線変換回路521Bから画像データが供給される。切換回路663は、受信部650からのコマンド列に応じて、SW回路654からの画像データ、または走査線変換回路521Bからの画像データを選択し、信号処理回路661の端子io2に供給する。   A command sequence is supplied to the switching circuit 663 from the receiving unit 650 (FIG. 55). The switching circuit 663 is supplied with image data from the SW circuit 654 (FIG. 55) and the scanning line conversion circuit 521B. The switching circuit 663 selects the image data from the SW circuit 654 or the image data from the scanning line conversion circuit 521B according to the command sequence from the receiving unit 650, and supplies the selected image data to the terminal io2 of the signal processing circuit 661.

切換回路664には、受信部650(図55)からコマンド列が供給される。また、切換回路664には、信号処理回路661の端子io3から、画像データが供給される。切換回路664は、受信部650からのコマンド列に応じて、切換回路665または走査線変換回路521Bを選択し、選択した方の回路に、端子io3からの画像データを供給する。   A command sequence is supplied to the switching circuit 664 from the receiving unit 650 (FIG. 55). The switching circuit 664 is supplied with image data from a terminal io3 of the signal processing circuit 661. The switching circuit 664 selects the switching circuit 665 or the scanning line conversion circuit 521B in accordance with the command string from the receiving unit 650, and supplies image data from the terminal io3 to the selected circuit.

切換回路665には、受信部650(図55)からコマンド列が供給される。また、切換回路665には、切換回路664と信号処理回路661の端子io4から画像データが供給される。切換回路665は、受信部650からのコマンド列に応じて、切換回路664からの画像データ、または信号処理回路661の端子io4からの画像データを選択し、SW回路655(図55)に供給する。   A command sequence is supplied to the switching circuit 665 from the receiving unit 650 (FIG. 55). The switching circuit 665 is supplied with image data from the switching circuit 664 and the terminal io4 of the signal processing circuit 661. The switching circuit 665 selects the image data from the switching circuit 664 or the image data from the terminal io4 of the signal processing circuit 661 according to the command sequence from the receiving unit 650, and supplies it to the SW circuit 655 (FIG. 55). .

図58は、図57の信号処理回路661の構成例を示している。   FIG. 58 shows a configuration example of the signal processing circuit 661 of FIG.

なお、信号処理回路661には、端子io1,io2,io2',io3,io4,io5が設けられている他、図示しないが、電源端子等も設けられている。   Note that the signal processing circuit 661 is provided with terminals io1, io2, io2 ′, io3, io4, and io5, as well as a power supply terminal and the like, although not shown.

図58において、信号処理回路661は、複数の回路群としての演算回路群411Aおよび411B、メモリ412Aおよび412B、積和演算回路群413Aおよび413B、アダー414Aおよび414B、乗算器415Aおよび415B、並びにレジスタ群416Aおよび416Bで構成されている。   58, a signal processing circuit 661 includes arithmetic circuit groups 411A and 411B as a plurality of circuit groups, memories 412A and 412B, product-sum arithmetic circuit groups 413A and 413B, adders 414A and 414B, multipliers 415A and 415B, and registers It consists of groups 416A and 416B.

そして、これらの回路群あるいは回路に対して、入力/出力あるいは相互間(回路群あるいは回路間の相互接続、および回路群の内部における回路間の相互接続の両者を意味する)の接続状態を切り換えるための切換回路が、信号処理回路661内に設けられている。   Then, for these circuit groups or circuits, the input / output or mutual connection state (which means both circuit groups or interconnections between circuits and interconnections between circuits within the circuit groups) is switched. A switching circuit for this purpose is provided in the signal processing circuit 661.

換言すると、信号処理回路661内のディジタル信号の流れと、各回路群の機能とが制御信号により制御可能となっている。すなわち、演算回路群411Aまたは411Bと関連して切換回路421Aまたは421Bがそれぞれ設けられている。また、メモリ412Aまたは412Bと関連して切換回路422Aまたは422Bがそれぞれ設けられている。さらに、積和演算回路群413Aまたは413Bと関連して切換回路423Aまたは423Bがそれぞれ設けられている。また、アダー414Aおよび414B、乗算器415Aおよび415B、並びにレジスタ群416Aおよび416Bと関連して切換回路424が設けられている。   In other words, the flow of the digital signal in the signal processing circuit 661 and the function of each circuit group can be controlled by the control signal. That is, a switching circuit 421A or 421B is provided in association with the arithmetic circuit group 411A or 411B, respectively. Further, a switching circuit 422A or 422B is provided in association with the memory 412A or 412B, respectively. Further, a switching circuit 423A or 423B is provided in association with the product-sum operation circuit group 413A or 413B, respectively. Further, a switching circuit 424 is provided in association with the adders 414A and 414B, the multipliers 415A and 415B, and the register groups 416A and 416B.

切換回路421A,421B,422A,422B,423A,423Bおよび424に対しては、端子io5からコマンド列comが供給される。切換回路421A,421B,422A,422B,423A,423Bおよび424は、コマンド列comに応じて、演算回路群411Aおよび411B、メモリ412Aおよび412B、積和演算回路群413Aおよび413B、アダー414Aおよび414B、乗算器415Aおよび415B、並びにレジスタ群416Aおよび416Bどうしの接続状態を切り換え、これにより、信号処理回路661の内部構造を切り換える。   A command string com is supplied from the terminal io5 to the switching circuits 421A, 421B, 422A, 422B, 423A, 423B, and 424. The switching circuits 421A, 421B, 422A, 422B, 423A, 423B, and 424 are arranged according to the command string com as arithmetic circuit groups 411A and 411B, memories 412A and 412B, product-sum arithmetic circuit groups 413A and 413B, adders 414A and 414B, The connection state between the multipliers 415A and 415B and the register groups 416A and 416B is switched, thereby switching the internal structure of the signal processing circuit 661.

図59は、図57の信号処理回路661の他の構成例を示している。   FIG. 59 shows another configuration example of the signal processing circuit 661 in FIG.

端子io1からの画像データが、クラス分類回路511A、遅延選択回路512Aおよびライン遅延回路517に供給される。   Image data from the terminal io1 is supplied to the class classification circuit 511A, the delay selection circuit 512A, and the line delay circuit 517.

クラス分類回路511Aは、図1のタップ選択部13およびクラス分類部14に対応する。クラス分類回路511Aは、端子io1からの画像データ、またはライン遅延回路517からの画像データから、幾つかの画素(の画素値)を選択し、その画素をクラスタップとして、クラス分類を行い、その結果得られるクラスコードを、切換回路513Aに供給する。   The class classification circuit 511A corresponds to the tap selection unit 13 and the class classification unit 14 of FIG. The class classification circuit 511A selects some pixels (pixel values thereof) from the image data from the terminal io1 or the image data from the line delay circuit 517, classifies the pixels as class taps, and performs class classification. The resulting class code is supplied to the switching circuit 513A.

但し、クラス分類回路511Aは、クラスタップとして、1次元の配列の複数の画素を選択することと、2次元の配列の複数の画素を選択することが可能になっている。ここで、1次元の配列の複数の画素としては、例えば、水平方向に並ぶ幾つかの画素や、垂直方向に並ぶ幾つかの画素がある。また、2次元の配列の複数の画素としては、例えば、ある画素を中心とする、水平方向にX個、垂直方向にY個の画素でなる長方形の領域内にある画素がある。   However, the class classification circuit 511A can select a plurality of pixels in a one-dimensional array and a plurality of pixels in a two-dimensional array as class taps. Here, as the plurality of pixels in the one-dimensional array, for example, there are some pixels arranged in the horizontal direction and some pixels arranged in the vertical direction. In addition, as the plurality of pixels in the two-dimensional array, for example, there is a pixel in a rectangular region having X pixels in the horizontal direction and Y pixels in the vertical direction with a certain pixel as the center.

従って、クラス分類回路511Aで行われるクラス分類には、1次元の配列の複数の画素をクラスタップとして行われるものと、2次元の配列の複数の画素をクラスタップとして行われるものがある。1次元の配列の複数の画素をクラスタップとして行われるクラス分類を、以下、適宜、1次元クラス分類という。また、2次元の配列の複数の画素をクラスタップとして行われるクラス分類を、以下、適宜、2次元クラス分類という。   Accordingly, the class classification performed by the class classification circuit 511A includes a classification performed by using a plurality of pixels in a one-dimensional array as a class tap and a classification performed by using a plurality of pixels in a two-dimensional array as a class tap. Class classification performed using a plurality of pixels in a one-dimensional array as class taps is hereinafter referred to as one-dimensional class classification as appropriate. Further, class classification performed using a plurality of pixels in a two-dimensional array as class taps is hereinafter referred to as two-dimensional class classification as appropriate.

なお、クラスタップは、3次元の配列の複数の画素で構成することも可能である。3次元の配列の複数の画素としては、例えば、ある画素を中心とする、水平方向にX個、垂直方向にY個、時間方向にT個の画素でなる直方体の領域内にある画素がある。3次元の配列の複数の画素をクラスタップとして行われるクラス分類を、以下、適宜、3次元クラス分類という。   Note that the class tap can also be composed of a plurality of pixels in a three-dimensional array. As the plurality of pixels in the three-dimensional array, for example, there is a pixel in a rectangular parallelepiped region having X pixels in the horizontal direction, Y pixels in the vertical direction, and T pixels in the time direction centering on a certain pixel. . Class classification performed using a plurality of pixels in a three-dimensional array as class taps is hereinafter referred to as three-dimensional class classification as appropriate.

クラス分類回路511Aは、1次元クラス分類と2次元クラス分類を行い、その1次元クラス分類と2次元クラス分類により得られる2つのクラスコードを、切換回路513Aに供給する。   The class classification circuit 511A performs one-dimensional class classification and two-dimensional class classification, and supplies two class codes obtained by the one-dimensional class classification and the two-dimensional class classification to the switching circuit 513A.

遅延選択回路512Aは、図1のタップ選択部12に対応する。遅延選択回路512Aは、端子io1からの画像データ、またはライン遅延回路517からの画像データから、幾つかの画素(の画素値)を選択し、その画素を予測タップとして、切換回路514Aに供給する。   The delay selection circuit 512A corresponds to the tap selection unit 12 in FIG. The delay selection circuit 512A selects some pixels (pixel values thereof) from the image data from the terminal io1 or the image data from the line delay circuit 517, and supplies these pixels as prediction taps to the switching circuit 514A. .

但し、遅延選択回路512Aは、予測タップとして、1次元の配列の複数の画素を選択することと、2次元の配列の複数の画素を選択することが可能になっている。1次元の配列の複数の画素で構成される予測タップを、以下、適宜、1次元予測タップといい、2次元の配列の複数の画素で構成される予測タップを、以下、適宜、2次元予測タップという。   However, the delay selection circuit 512A can select a plurality of pixels in a one-dimensional array and a plurality of pixels in a two-dimensional array as prediction taps. A prediction tap composed of a plurality of pixels in a one-dimensional array is hereinafter referred to as a one-dimensional prediction tap as appropriate, and a prediction tap composed of a plurality of pixels in a two-dimensional array is appropriately referred to below as two-dimensional prediction This is called a tap.

なお、予測タップは、3次元の配列の複数の画素で構成することも可能であり、3次元の配列の複数の画素で構成される予測タップを、以下、適宜、3次元予測タップという。   Note that the prediction tap can be composed of a plurality of pixels in a three-dimensional array, and a prediction tap composed of a plurality of pixels in a three-dimensional array is hereinafter referred to as a three-dimensional prediction tap as appropriate.

遅延選択回路512Aは、1次元予測タップと2次元予測タップを得て、切換回路514Aに供給する。   The delay selection circuit 512A obtains a one-dimensional prediction tap and a two-dimensional prediction tap and supplies them to the switching circuit 514A.

なお、遅延選択回路512Aは、予測演算回路516Aで演算されるべき予測タップとタップ係数とが、予測演算回路516Aに供給されるタイミングを調整する等のために、1次元予測タップと2次元予測タップとを、所定の時間だけ遅延して出力する。   Note that the delay selection circuit 512A uses a one-dimensional prediction tap and a two-dimensional prediction in order to adjust the timing at which the prediction tap and the tap coefficient to be calculated by the prediction calculation circuit 516A are supplied to the prediction calculation circuit 516A. The tap is output after being delayed by a predetermined time.

切換回路513Aは、端子io5からのコマンド列に応じて、クラス分類回路511Aが2つのクラスコードを出力する2つの出力端のうちの一方を選択し、係数出力回路515Aに接続する。その結果、クラス分類回路511Aから係数出力回路515Aに対しては、切換回路513Aを介して、1次元クラス分類の結果としてのクラスコードまたは2次元クラス分類の結果としてのクラスコードのうちの一方が供給される。   The switching circuit 513A selects one of the two output terminals from which the class classification circuit 511A outputs two class codes according to the command string from the terminal io5, and connects it to the coefficient output circuit 515A. As a result, either the class code as the result of the one-dimensional class classification or the class code as the result of the two-dimensional class classification is transmitted from the class classification circuit 511A to the coefficient output circuit 515A via the switching circuit 513A. Supplied.

切換回路514Aは、端子io5からのコマンド列に応じて、遅延選択回路512Aが2つの予測タップを出力する2つの出力端のうちの一方を選択し、予測演算回路516Aに接続する。その結果、遅延選択回路512Aから予測演算回路516Aに対しては、切換回路514Aを介して、1次元予測タップまたは2次元予測タップのうちの一方が供給される。   The switching circuit 514A selects one of the two output terminals from which the delay selection circuit 512A outputs two prediction taps according to the command string from the terminal io5, and connects it to the prediction calculation circuit 516A. As a result, one of the one-dimensional prediction tap and the two-dimensional prediction tap is supplied from the delay selection circuit 512A to the prediction calculation circuit 516A via the switching circuit 514A.

係数出力回路515Aは、図1の係数出力部15に対応し、あらかじめ行われた学習によって得られた、幾つかの異なる種類のタップ係数を記憶している。係数出力回路515Aは、端子io5からのコマンド列に応じた種類のタップ係数を選択し、さらに、そのタップ係数の中から、クラス分類回路511Aから切換回路513Aを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516Aに供給する。   The coefficient output circuit 515A corresponds to the coefficient output unit 15 in FIG. 1 and stores several different types of tap coefficients obtained by learning performed in advance. The coefficient output circuit 515A selects a tap coefficient of a type corresponding to the command string from the terminal io5, and further corresponds to the class code supplied from the class classification circuit 511A via the switching circuit 513A. The tap coefficient of the class to be read is read and supplied to the prediction calculation circuit 516A.

なお、係数出力回路515Aは、各種類のタップ係数として、予測タップが1次元予測タップである場合に用いられるべきものと、2次元予測タップである場合に用いられるべきものを記憶しており、さらに、それぞれのタップ係数として、クラス分類として1次元クラス分類が行われる場合に用いられるべきものと、2次元クラス分類が行われる場合に用いられるべきものを記憶している。このように、ある種類のタップ係数としては、複数パターンのタップ係数が存在することがあるが、以下では、この点の説明は省略する。   The coefficient output circuit 515A stores, as each type of tap coefficient, what should be used when the prediction tap is a one-dimensional prediction tap and what should be used when the prediction tap is a two-dimensional prediction tap. Further, as the tap coefficients, those to be used when the one-dimensional class classification is performed as the class classification and those to be used when the two-dimensional class classification is performed are stored. As described above, a tap coefficient of a plurality of patterns may exist as a certain type of tap coefficient, but the description of this point will be omitted below.

予測演算回路516Aは、図1の予測演算部16に対応する。予想演算回路516Aは、遅延選択回路512Aから切換回路514Aを介して供給される予測タップと、係数出力回路515Aから供給されるタップ係数とを用いて、式(1)の演算を行い、その演算結果を、注目画素(の画素値)として、積和演算回路518および切換回路519に供給する。   The prediction calculation circuit 516A corresponds to the prediction calculation unit 16 in FIG. Prediction operation circuit 516A performs the operation of equation (1) using the prediction tap supplied from delay selection circuit 512A via switching circuit 514A and the tap coefficient supplied from coefficient output circuit 515A, and the operation The result is supplied to the product-sum operation circuit 518 and the switching circuit 519 as the pixel of interest (pixel value thereof).

ここで、式(1)にしたがった予測タップとタップ係数との演算は、FIR(Finite Impulse Response)フィルタによる演算(フィルタリング)に等価である。そこで、1次元予測タップ、2次元予測タップ、または3次元予測タップを用いて行われる式(1)の演算を、以下、適宜、1次元フィルタ演算、2次元フィルタ演算、または3次元フィルタ演算と、それぞれいう。   Here, the calculation of the prediction tap and the tap coefficient according to the equation (1) is equivalent to the calculation (filtering) by the FIR (Finite Impulse Response) filter. Therefore, the calculation of the expression (1) performed using the one-dimensional prediction tap, the two-dimensional prediction tap, or the three-dimensional prediction tap is hereinafter appropriately referred to as a one-dimensional filter operation, a two-dimensional filter operation, or a three-dimensional filter operation. Each.

クラス分類回路511B、遅延選択回路512B、切換回路513B,514B、係数出力回路515B、予測演算回路516Bは、上述のクラス分類回路511A、遅延選択回路512A、切換回路513A,514A、係数出力回路515A、予測演算回路516Aとそれぞれ同様に構成される。そして、クラス分類回路511B乃至予測演算回路516Bは、クラス分類回路511A乃至予測演算回路516Aと同様の接続関係を有する。   The class classification circuit 511B, the delay selection circuit 512B, the switching circuits 513B and 514B, the coefficient output circuit 515B, and the prediction calculation circuit 516B are the above-described class classification circuit 511A, delay selection circuit 512A, switching circuits 513A and 514A, coefficient output circuit 515A, Each is configured in the same manner as the prediction calculation circuit 516A. The class classification circuits 511B to 516B have the same connection relationship as the class classification circuits 511A to 516A.

但し、クラス分類回路511Bおよび遅延選択回路512Bには、端子io2からの画像データ、端子io2'からの画像データ、およびライン遅延回路517からの画像データが供給されるようになっている。   However, the image data from the terminal io2, the image data from the terminal io2 ′, and the image data from the line delay circuit 517 are supplied to the class classification circuit 511B and the delay selection circuit 512B.

クラス分類回路511Bは、そこに供給される画像データから画素を選択することで、クラスタップを構成し、そのクラスタップに基づいて、1次元クラス分類、2次元クラス分類、3次元クラス分類を行う。さらに、クラス分類回路511Bは、その3つのクラス分類によって得られる3つのクラスコードを、切換回路513Bに供給する。   The class classification circuit 511B configures a class tap by selecting a pixel from the image data supplied thereto, and performs one-dimensional class classification, two-dimensional class classification, and three-dimensional class classification based on the class tap. . Furthermore, the class classification circuit 511B supplies three class codes obtained by the three class classifications to the switching circuit 513B.

なお、クラス分類回路511Bは、端子io2またはio2'から供給される画像データの動きも検出し、その動きを表す動き情報を、積和演算回路518に供給する。   The class classification circuit 511B also detects the motion of the image data supplied from the terminal io2 or io2 ′, and supplies motion information representing the motion to the product-sum operation circuit 518.

遅延選択回路512Bは、そこに供給される画像データから画素を選択することで、1次元予測タップ、2次元予測タップ、3次元予測タップを構成し、切換回路514Bに供給する。   The delay selection circuit 512B selects a pixel from the image data supplied thereto, thereby forming a one-dimensional prediction tap, a two-dimensional prediction tap, and a three-dimensional prediction tap, and supplies the switching circuit 514B.

切換回路513Bは、端子io5からのコマンド列に応じて、クラス分類回路511Bからの3つのクラスコードのうちのいずれかを選択し、係数出力回路515Bに供給する。   The switching circuit 513B selects one of the three class codes from the class classification circuit 511B according to the command string from the terminal io5, and supplies it to the coefficient output circuit 515B.

切換回路514Bは、端子io5からのコマンド列に応じて、遅延選択回路512Bからの3つの予測タップのうちのいずれかを選択し、予測演算回路516Bに供給する。   The switching circuit 514B selects one of the three prediction taps from the delay selection circuit 512B according to the command string from the terminal io5, and supplies the selected prediction tap to the prediction calculation circuit 516B.

係数出力回路515Bは、係数出力回路515Aと同様に、幾つかの異なる種類のタップ係数を記憶している。係数出力回路515Bは、端子io5からのコマンド列に応じた種類のタップ係数を選択し、さらに、そのタップ係数の中から、クラス分類回路511Bから切換回路513Bを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516Bに供給する。   Similar to the coefficient output circuit 515A, the coefficient output circuit 515B stores several different types of tap coefficients. The coefficient output circuit 515B selects a tap coefficient of a type corresponding to the command string from the terminal io5, and further corresponds to the class code supplied from the class classification circuit 511B via the switching circuit 513B from the tap coefficient. The tap coefficient of the class to be read is read and supplied to the prediction calculation circuit 516B.

予測演算回路516Aは、遅延選択回路512Bから切換回路514Bを介して供給される予測タップと、係数出力回路515Bから供給されるタップ係数とを用いて、式(1)の演算を行い、その演算結果を、注目画素(の画素値)として、端子io4と、積和演算回路518に供給する。   Prediction operation circuit 516A performs the operation of equation (1) using the prediction tap supplied from delay selection circuit 512B via switching circuit 514B and the tap coefficient supplied from coefficient output circuit 515B, and the operation The result is supplied to the terminal io4 and the product-sum operation circuit 518 as the pixel of interest (pixel value thereof).

ライン遅延回路517は、メモリで構成された1乃至数ライン分の遅延を生じさせる回路で、端子io1からの画像データを1乃至数ライン分だけ遅延して、クラス分類回路511Aおよび511B、並びに遅延選択回路512Aおよび512Bに供給する。   The line delay circuit 517 is a circuit that generates a delay of one to several lines configured by a memory, delays image data from the terminal io1 by one to several lines, class classification circuits 511A and 511B, and a delay This is supplied to the selection circuits 512A and 512B.

積和演算回路518は、予測演算回路516Aと516Bの出力どうしの重み付け加算を、クラス分類回路511Bから供給される動き情報を重みとして行い、その加算結果を、切換回路519に供給する。   The product-sum operation circuit 518 performs weighted addition between the outputs of the prediction operation circuits 516A and 516B using the motion information supplied from the class classification circuit 511B as a weight, and supplies the addition result to the switching circuit 519.

切換回路519は、端子io5からのコマンド列に応じて、予測演算回路516Aの出力または積和演算回路518の出力のうちの一方を選択し、端子io3に供給する。   The switching circuit 519 selects one of the output of the prediction calculation circuit 516A or the output of the product-sum calculation circuit 518 in accordance with the command string from the terminal io5, and supplies it to the terminal io3.

上述したように、図59において、クラス分類回路511Aと511Bは、図1のタップ選択部13およびクラス分類部14に対応し、遅延選択回路512Aと512Bは、図1のタップ選択部12に対応する。また、係数出力回路515Aと515Bは、図1の係数出力部15に対応し、予測演算回路516Aと516Bは、図1の予測演算部16に対応する。   As described above, in FIG. 59, the class classification circuits 511A and 511B correspond to the tap selection unit 13 and the class classification unit 14 in FIG. 1, and the delay selection circuits 512A and 512B correspond to the tap selection unit 12 in FIG. To do. The coefficient output circuits 515A and 515B correspond to the coefficient output unit 15 in FIG. 1, and the prediction calculation circuits 516A and 516B correspond to the prediction calculation unit 16 in FIG.

従って、クラス分類回路511A乃至予測演算回路516Aでは、端子io1から供給される画像データおよびライン遅延回路517から供給される画像データを、第1の画像データとして、クラス分類適応処理(としての画像変換処理)を行うことができ、予測演算回路516Aから出力される画像データが、そのクラス分類適応処理の結果としての第2の画像データである。   Therefore, in the class classification circuit 511A to the prediction calculation circuit 516A, the image data supplied from the terminal io1 and the image data supplied from the line delay circuit 517 are used as the first image data as the class classification adaptive processing (image conversion as The image data output from the prediction calculation circuit 516A is the second image data as a result of the class classification adaptation process.

また、クラス分類回路511B乃至予測演算回路516Bでも、端子io2から供給される画像データ、端子io2'から供給される画像データ、およびライン遅延回路517から供給される画像データを、第1の画像データとして、クラス分類適応処理(としての画像変換処理)を行うことができ、予測演算回路516Bから出力される画像データが、そのクラス分類適応処理の結果としての第2の画像データである。   The class classification circuit 511B through the prediction calculation circuit 516B also use the image data supplied from the terminal io2, the image data supplied from the terminal io2 ′, and the image data supplied from the line delay circuit 517 as the first image data. As described above, the class classification adaptive process (the image conversion process) can be performed, and the image data output from the prediction calculation circuit 516B is the second image data as a result of the class classification adaptive process.

次に、図60のフローチャートを参照して、クラス分類回路511A乃至予測演算回路516Aと、クラス分類回路511B乃至予測演算回路516Bとで行われるクラス分類適応処理としての画像変換処理について説明する。   Next, image conversion processing as class classification adaptive processing performed by the class classification circuits 511A to 516A and the class classification circuits 511B to 516B will be described with reference to the flowchart of FIG.

なお、以下、適宜、クラス分類回路511Aと511Bをクラス分類回路511と、遅延選択回路512Aと512Bを遅延選択回路512と、切換回路513Aと513Bを切換回路513と、切換回路514Aと514Bを切換回路514と、係数出力回路515Aと515Bを係数出力回路515と、予測演算回路516Aと516Bを予測演算回路516と、それぞれ記載する。   In the following description, class classification circuits 511A and 511B are switched as appropriate, class selection circuit 511, delay selection circuits 512A and 512B as delay selection circuit 512, switching circuits 513A and 513B as switching circuit 513, and switching circuits 514A and 514B as appropriate. The circuit 514, the coefficient output circuits 515A and 515B are described as the coefficient output circuit 515, and the prediction calculation circuits 516A and 516B are described as the prediction calculation circuit 516, respectively.

ステップS661において、クラス分類回路511および遅延選択回路512に対し、画像データが入力される。なお、クラス分類回路511および遅延選択回路512に入力された画像データが、クラス分類適応処理の第1の画像データであり、クラス分類適応処理では、その第1の画像データが、第2の画像データに変換される。   In step S 661, image data is input to the class classification circuit 511 and the delay selection circuit 512. Note that the image data input to the class classification circuit 511 and the delay selection circuit 512 is the first image data of the class classification adaptation process, and in the class classification adaptation process, the first image data is the second image data. Converted to data.

その後、第2の画像データのうちの、まだ注目画素としていない画素が、注目画素として選択され、ステップS662に進み、クラス分類回路511は、注目画素についてのクラスタップとなる画素を、第1の画像データから選択(抽出)して、ステップS663に進む。ステップS663では、クラス分類回路511が、クラスタップに基づいて、クラス分類を行い、その結果得られるクラスコードを、切換回路513を介して、係数出力回路515に出力する。   Thereafter, a pixel that has not yet been set as the target pixel in the second image data is selected as the target pixel, and the process proceeds to step S662. The class classification circuit 511 selects a pixel that is a class tap for the target pixel as the first pixel. After selecting (extracting) from the image data, the process proceeds to step S663. In step S663, the class classification circuit 511 performs class classification based on the class tap, and outputs the class code obtained as a result to the coefficient output circuit 515 via the switching circuit 513.

そして、ステップS664に進み、遅延選択回路512が、注目画素についての予測タップとなる画素を、第1の画像データから選択(抽出)し、予測演算回路516に供給して、ステップS665に進む。   Then, the process proceeds to step S664, and the delay selection circuit 512 selects (extracts) the pixel that becomes the prediction tap for the target pixel from the first image data, supplies the selected pixel to the prediction calculation circuit 516, and proceeds to step S665.

ステップS665では、係数出力回路515が、ステップS663でクラス分類回路511が出力したクラスコードに対応するクラスタップ係数を、予測演算回路516に出力し、ステップS666に進む。   In step S665, the coefficient output circuit 515 outputs the class tap coefficient corresponding to the class code output from the class classification circuit 511 in step S663 to the prediction calculation circuit 516, and proceeds to step S666.

ステップS666では、予測演算回路516が、遅延選択回路512からの予測タップと、係数出力回路515からのタップ係数とを用いて式(1)の演算(フィルタ演算)を行い、その演算結果を、注目画素(の画素値)として出力し、処理を終了する。   In step S666, the prediction calculation circuit 516 performs the calculation (filter calculation) of Expression (1) using the prediction tap from the delay selection circuit 512 and the tap coefficient from the coefficient output circuit 515, and the calculation result is The target pixel (its pixel value) is output, and the process ends.

なお、図60のステップS662乃至S666の処理は、第2の画像データの画素すべてを注目画素として行われる。   Note that the processing in steps S662 to S666 in FIG. 60 is performed using all pixels of the second image data as the target pixel.

次に、図59に示した構成の信号処理回路661を有する図57の信号処理回路656の処理について説明する。   Next, processing of the signal processing circuit 656 in FIG. 57 having the signal processing circuit 661 having the configuration shown in FIG. 59 will be described.

まず、リモコン618(図49)のAボタンが操作され、これにより、図54に示した1つのコマンドである1次元空間解像度創造コマンドが配置されたAボタンコマンド列641が、図55の受信部650で受信され、図57の信号処理回路656に供給された場合の処理について説明する。   First, the A button of the remote controller 618 (FIG. 49) is operated, whereby the A button command string 641 in which the one-dimensional spatial resolution creation command, which is one command shown in FIG. The processing when received at 650 and supplied to the signal processing circuit 656 of FIG. 57 will be described.

信号処理回路656(図57)に供給されたAボタンコマンド列641は、切換回路662乃至665、および信号処理回路661の端子io5に供給される。   The A button command string 641 supplied to the signal processing circuit 656 (FIG. 57) is supplied to the switching circuits 662 to 665 and the terminal io5 of the signal processing circuit 661.

切換回路662は、Aボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、走査線変換回路512Aの出力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663は、Aボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、走査線変換回路512Bの出力を選択して、信号処理回路661の端子io2に接続する。   The switching circuit 662 selects the output of the scanning line conversion circuit 512A in accordance with the one-dimensional spatial resolution creation command in the A button command string 641, and connects it to the terminal io1 of the signal processing circuit 661. The switching circuit 663 selects the output of the scanning line conversion circuit 512B in accordance with the one-dimensional spatial resolution creation command in the A button command string 641, and connects it to the terminal io2 of the signal processing circuit 661.

さらに、切換回路664は、Aボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、走査線変換回路512Bへの入力を選択して、信号処理回路661の端子io3を、走査線変換回路512Bに接続する。また、切換回路665は、Aボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、信号処理回路661の端子io4を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 selects an input to the scanning line conversion circuit 512B in accordance with the one-dimensional spatial resolution creation command in the A button command string 641, and converts the terminal io3 of the signal processing circuit 661 to the scanning line conversion. Connect to circuit 512B. The switching circuit 665 selects the terminal io4 of the signal processing circuit 661 in accordance with the one-dimensional spatial resolution creation command in the A button command string 641, and connects it to the SW circuit 655 (FIG. 55).

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Aボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、信号線の選択状態(各ブロックの接続状態)を、1次元空間解像度創造処理を行うように切り換える。   Further, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 (FIG. 59) change the signal line according to the one-dimensional spatial resolution creation command in the A button command row 641. The selection state (connection state of each block) is switched to perform the one-dimensional spatial resolution creation process.

ここで、1次元空間解像度創造処理とは、予測タップとして1次元予測タップを用いる空間解像度創造処理を意味する。   Here, the one-dimensional spatial resolution creation process means a spatial resolution creation process that uses a one-dimensional prediction tap as a prediction tap.

図61は、信号線の選択状態を、1次元空間解像度創造処理を行うように切り換えた信号処理回路661を含む図57の信号処理回路656を示している。   61 shows the signal processing circuit 656 of FIG. 57 including the signal processing circuit 661 in which the selection state of the signal line is switched to perform the one-dimensional spatial resolution creation processing.

図61において、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Aボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、信号線の選択状態を、図61に実線で示すように切り換え、これにより、信号処理として、1次元空間解像度創造処理が行われる。   In FIG. 61, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 are selected according to the one-dimensional spatial resolution creation command in the A button command string 641. Are switched as indicated by a solid line in FIG. 61, whereby a one-dimensional spatial resolution creation process is performed as a signal process.

なお、図61において、点線で示す信号線は、配線されているが、現在の信号処理回路661による信号処理に関係のない信号線を意味している。   In FIG. 61, a signal line indicated by a dotted line means a signal line that is wired but is not related to signal processing by the current signal processing circuit 661.

また、図61では、図57におけるフレームメモリ523、切換回路662乃至665の図示を省略してある。   In FIG. 61, the frame memory 523 and the switching circuits 662 to 665 in FIG. 57 are not shown.

図61の信号処理回路656では、例えば、そこに入力される、クラス分類適応処理の第1の画像データとしての標準解像度の画像データ(以下、適宜、SD画像データと称する)を、その水平方向と垂直方向の画素数をいずれも2倍にした、クラス分類適応処理の第2の画像データとしての高解像度の画像データ(以下、適宜、HD画像データと称する)に変換する空間解像度創造処理(1次元空間解像度創造処理)が行われる。   In the signal processing circuit 656 of FIG. 61, for example, standard resolution image data (hereinafter referred to as SD image data as appropriate) input as the first image data of the class classification adaptive processing is input in the horizontal direction. The spatial resolution creation process (hereinafter referred to as HD image data as appropriate) is converted to high-resolution image data as second image data of the class classification adaptive process, in which the number of pixels in the vertical direction is doubled. One-dimensional spatial resolution creation processing) is performed.

なお、ここでは、例えば、最初に、SD画像データ(第1の画像データ)の垂直方向の画素数を2倍とし、その後に水平方向の画素数を2倍とすることで、画素数が4倍のHD画像データ(第2の画像データ)を得るものとする。   Here, for example, first, the number of pixels in the vertical direction of the SD image data (first image data) is doubled, and then the number of pixels in the horizontal direction is doubled, so that the number of pixels is four. It is assumed that double HD image data (second image data) is obtained.

図61において、走査線変換回路521Aには、SD画像データが供給される。走査線変換回路521Aは、そこに供給されるSD画像データを対象に、水平走査(テレビジョンラスタの走査順序)から垂直走査への変換を行う。   In FIG. 61, SD image data is supplied to the scanning line conversion circuit 521A. The scanning line conversion circuit 521A performs conversion from horizontal scanning (television raster scanning order) to vertical scanning for the SD image data supplied thereto.

走査線変換521Aで走査方向が変換されたSD画像データは、信号処理回路661の端子io1に供給される。   The SD image data whose scanning direction is converted by the scanning line conversion 521A is supplied to the terminal io1 of the signal processing circuit 661.

端子io1に供給されたSD画像データは、クラス分類回路511Aと遅延選択回路512Aに供給される。   The SD image data supplied to the terminal io1 is supplied to the class classification circuit 511A and the delay selection circuit 512A.

クラス分類回路511Aは、端子io1からのSD画像データからクラスタップを選択し、そのクラスタップに基づいて、1次元クラス分類を行う。そして、クラス分類回路511Aは、1次元クラス分類によって得られるクラスコードを、切換回路513Aを介して、係数出力回路515Aに供給する。   The class classification circuit 511A selects a class tap from the SD image data from the terminal io1, and performs one-dimensional class classification based on the class tap. Then, the class classification circuit 511A supplies the class code obtained by the one-dimensional class classification to the coefficient output circuit 515A via the switching circuit 513A.

係数出力回路515Aは、少なくとも1次元空間解像度創造処理用のタップ係数を含む複数種類のタップ係数を記憶しており、端子io5から供給されるAボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、1次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路515Aは、クラス分類回路511Aから、切換回路513Aを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516Aに供給する。   The coefficient output circuit 515A stores at least a plurality of types of tap coefficients including tap coefficients for one-dimensional spatial resolution creation processing, and the one-dimensional spatial resolution creation command in the A button command string 641 supplied from the terminal io5. Accordingly, the tap coefficient for the one-dimensional spatial resolution creation process is selected. Then, the coefficient output circuit 515A reads out the tap coefficient of the class corresponding to the class code supplied via the switching circuit 513A from the class classification circuit 511A, and supplies it to the prediction calculation circuit 516A.

一方、遅延選択回路512Aは、端子io1からのSD画像データから1次元予測タップを選択し、切換回路514Aを介して、予測演算回路516Aに供給する。   On the other hand, the delay selection circuit 512A selects a one-dimensional prediction tap from the SD image data from the terminal io1, and supplies it to the prediction calculation circuit 516A via the switching circuit 514A.

予測演算回路516Aは、遅延選択回路512Aから切換回路514Aを介して供給される1次元予測タップとしてのSD画像データの複数の画素データと、係数出力回路515Aから供給されるタップ係数とを用いて、式(1)のフィルタ演算(1次元フィルタ演算)を行い、これにより、垂直方向の画素数が元のSD画像データの2倍となった画像データ(画素の画素値)を得て出力する。   Prediction operation circuit 516A uses a plurality of pixel data of SD image data as one-dimensional prediction taps supplied from delay selection circuit 512A via switching circuit 514A, and tap coefficients supplied from coefficient output circuit 515A. Then, the filter calculation (one-dimensional filter calculation) of Expression (1) is performed, and thereby, the image data (pixel value of the pixel) in which the number of pixels in the vertical direction is twice the original SD image data is obtained and output. .

予測演算回路516Aが出力する画像データは、切換回路119を介して、端子io3から出力され、さらに、切換回路664(図57)を介して、走査線変換回路521Bに供給される。   The image data output by the prediction calculation circuit 516A is output from the terminal io3 through the switching circuit 119, and is further supplied to the scanning line conversion circuit 521B through the switching circuit 664 (FIG. 57).

走査線変換回路521Bは、そこに供給される画像データを対象に、垂直走査から水平走査への変換を行う。そして、走査線変換回路521Bは、その変換によって、テレビジョンラスタと同様の走査の信号となった画像データを、端子io2に供給する。   The scanning line conversion circuit 521B performs conversion from vertical scanning to horizontal scanning for the image data supplied thereto. Then, the scanning line conversion circuit 521B supplies the image data that has become a scanning signal similar to the television raster to the terminal io2 by the conversion.

端子io2に供給された画像データは、クラス分類回路511Bと遅延選択回路512Bに供給される。   The image data supplied to the terminal io2 is supplied to the class classification circuit 511B and the delay selection circuit 512B.

クラス分類回路511Bは、端子io2からの画像データからクラスタップを選択し、そのクラスタップに基づいて、1次元クラス分類を行う。そして、クラス分類回路511Bは、1次元クラス分類によって得られるクラスコードを、切換回路513Bを介して、係数出力回路515Bに供給する。   The class classification circuit 511B selects a class tap from the image data from the terminal io2, and performs one-dimensional class classification based on the class tap. Then, the class classification circuit 511B supplies the class code obtained by the one-dimensional class classification to the coefficient output circuit 515B via the switching circuit 513B.

係数出力回路515Bは、少なくとも1次元空間解像度創造処理用のタップ係数を含む複数種類のタップ係数を記憶しており、端子io5から供給されるAボタンコマンド列641の中の1次元空間解像度創造コマンドに応じて、1次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路515Bは、クラス分類回路511Bから、切換回路513Bを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516Bに供給する。   The coefficient output circuit 515B stores a plurality of types of tap coefficients including tap coefficients for at least one-dimensional spatial resolution creation processing, and a one-dimensional spatial resolution creation command in the A button command string 641 supplied from the terminal io5. Accordingly, the tap coefficient for the one-dimensional spatial resolution creation process is selected. Then, the coefficient output circuit 515B reads the tap coefficient of the class corresponding to the class code supplied via the switching circuit 513B from the class classification circuit 511B, and supplies the read tap coefficient to the prediction calculation circuit 516B.

一方、遅延選択回路512Bは、端子io2からの画像データから1次元予測タップを選択し、切換回路514Bを介して、予測演算回路516Bに供給する。   On the other hand, the delay selection circuit 512B selects a one-dimensional prediction tap from the image data from the terminal io2, and supplies it to the prediction calculation circuit 516B via the switching circuit 514B.

予測演算回路516Bは、遅延選択回路512Bから切換回路514Bを介して供給される1次元予測タップとしての画像データの複数の画素データと、係数出力回路515Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(1次元フィルタ演算)を行い、これにより、垂直方向と水平方向の画素数がいずれも元の画像データの2倍となったHD画像データ(画素の画素値)を得て出力する。   The prediction calculation circuit 516B uses a plurality of pixel data of image data as a one-dimensional prediction tap supplied from the delay selection circuit 512B via the switching circuit 514B, and a tap coefficient supplied from the coefficient output circuit 515B. The filter operation (one-dimensional filter operation) of Expression (1) is performed, whereby HD image data (pixel value of a pixel) in which the number of pixels in the vertical direction and the horizontal direction are both double the original image data. Output.

予測演算回路516Bが出力する画像データは、端子io4から出力され、さらに、切換回路665(図57)を介して、SW回路655(図55)に供給される。   The image data output by the prediction calculation circuit 516B is output from the terminal io4, and further supplied to the SW circuit 655 (FIG. 55) via the switching circuit 665 (FIG. 57).

次に、リモコン618(図49)のAボタンが操作され、これにより、図54に示した1つのコマンドである2次元空間解像度創造コマンドが配置されたAボタンコマンド列642が、図55の受信部650で受信され、図57の信号処理回路656に供給された場合の処理について説明する。   Next, the A button of the remote control 618 (FIG. 49) is operated, whereby the A button command string 642 in which the two-dimensional spatial resolution creation command as one command shown in FIG. 54 is arranged is received in FIG. A process when received by the unit 650 and supplied to the signal processing circuit 656 of FIG. 57 will be described.

信号処理回路656(図57)に供給されたAボタンコマンド列642は、切換回路662乃至665、および信号処理回路661の端子io5に供給される。   The A button command string 642 supplied to the signal processing circuit 656 (FIG. 57) is supplied to the switching circuits 662 to 665 and the terminal io5 of the signal processing circuit 661.

切換回路662は、Aボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、走査線変換回路512Aの出力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663は、Aボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、走査線変換回路512Bの出力を選択して、信号処理回路661の端子io2に接続する。   The switching circuit 662 selects the output of the scanning line conversion circuit 512A in accordance with the two-dimensional spatial resolution creation command in the A button command string 642 and connects it to the terminal io1 of the signal processing circuit 661. Further, the switching circuit 663 selects the output of the scanning line conversion circuit 512B in accordance with the two-dimensional spatial resolution creation command in the A button command string 642 and connects it to the terminal io2 of the signal processing circuit 661.

さらに、切換回路664は、Aボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、走査線変換回路512Bへの入力を選択して、信号処理回路661の端子io3を、走査線変換回路512Bに接続する。また、切換回路665は、Aボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、信号処理回路661の端子io4を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 selects an input to the scanning line conversion circuit 512B in accordance with the two-dimensional spatial resolution creation command in the A button command string 642, and converts the terminal io3 of the signal processing circuit 661 to the scanning line conversion. Connect to circuit 512B. The switching circuit 665 selects the terminal io4 of the signal processing circuit 661 in accordance with the two-dimensional spatial resolution creation command in the A button command string 642, and connects it to the SW circuit 655 (FIG. 55).

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Aボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、信号線の選択状態を、2次元空間解像度創造処理を行うように切り換える。   Further, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 (FIG. 59) change the signal line according to the two-dimensional spatial resolution creation command in the A button command row 642. The selection state is switched to perform the two-dimensional spatial resolution creation process.

ここで、2次元空間解像度創造処理とは、予測タップとして2次元予測タップを用いる空間解像度創造処理を意味する。   Here, the two-dimensional spatial resolution creation process means a spatial resolution creation process that uses a two-dimensional prediction tap as a prediction tap.

図62は、信号線の選択状態を、2次元空間解像度創造処理を行うように切り換えた信号処理回路661を含む図57の信号処理回路656を示している。   FIG. 62 shows the signal processing circuit 656 of FIG. 57 including the signal processing circuit 661 in which the signal line selection state is switched to perform the two-dimensional spatial resolution creation processing.

図62において、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Aボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、信号線の選択状態を、図62に実線で示すように切り換え、これにより、信号処理として、2次元空間解像度創造処理が行われる。   In FIG. 62, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 change the signal line selection state according to the two-dimensional spatial resolution creation command in the A button command string 642. Are switched as indicated by a solid line in FIG. 62, whereby a two-dimensional spatial resolution creation process is performed as a signal process.

なお、図62において、点線で示す信号線は、配線されているが、現在の信号処理回路661による信号処理に関係のない信号線を意味している。   In FIG. 62, a signal line indicated by a dotted line means a signal line that is wired but is not related to signal processing by the current signal processing circuit 661.

また、図62では、図57におけるフレームメモリ523、切換回路662乃至665の図示を省略してある。   In FIG. 62, the frame memory 523 and the switching circuits 662 to 665 in FIG. 57 are not shown.

図62の信号処理回路656では、例えば、図61における場合と同様に、そこに入力される、クラス分類適応処理の第1の画像データとしてのSD画像データを、その水平方向と垂直方向の画素数をいずれも2倍にした、クラス分類適応処理の第2の画像データとしてのHD画像データに変換する空間解像度創造処理が行われる。但し、図62では、クラス分類として、2次元クラス分類が採用されるとともに、予測タップとして、2次元予測タップが採用される。   In the signal processing circuit 656 of FIG. 62, for example, as in the case of FIG. 61, the SD image data as the first image data of the class classification adaptive processing inputted thereto is converted into pixels in the horizontal and vertical directions. A spatial resolution creation process is performed in which the number is doubled and converted into HD image data as the second image data of the class classification adaptive process. However, in FIG. 62, the two-dimensional class classification is adopted as the class classification, and the two-dimensional prediction tap is adopted as the prediction tap.

なお、ここでも、例えば、最初に、SD画像データ(第1の画像データ)の垂直方向の画素数を2倍とし、その後に水平方向の画素数を2倍とすることで、画素数が4倍のHD画像データ(第2の画像データ)を得るものとする。   Here, for example, first, the number of pixels in the vertical direction of the SD image data (first image data) is doubled, and then the number of pixels in the horizontal direction is doubled. It is assumed that double HD image data (second image data) is obtained.

図62において、走査線変換回路521Aには、SD画像データが供給される。走査線変換回路521Aは、そこに供給されるSD画像データの走査方向を、水平走査から垂直走査に変換し、信号処理回路661の端子io1に供給する。   In FIG. 62, SD image data is supplied to the scanning line conversion circuit 521A. The scanning line conversion circuit 521A converts the scanning direction of the SD image data supplied thereto from horizontal scanning to vertical scanning, and supplies it to the terminal io1 of the signal processing circuit 661.

端子io1に供給されたSD画像データは、クラス分類回路511A、遅延選択回路512A、およびライン遅延回路517に供給される。   The SD image data supplied to the terminal io1 is supplied to the class classification circuit 511A, the delay selection circuit 512A, and the line delay circuit 517.

ライン遅延回路517は、そこに供給されるSD画像データを、1乃至数ライン分だけ遅延して、クラス分類回路511Aおよび511B、並びに遅延選択回路512Aおよび512Bに供給する。   The line delay circuit 517 delays the SD image data supplied thereto by one to several lines and supplies it to the class classification circuits 511A and 511B and the delay selection circuits 512A and 512B.

クラス分類回路511Aは、端子io1からのSD画像データと、ライン遅延回路517AからのSD画像データとからクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行う。そして、クラス分類回路511Aは、2次元クラス分類によって得られるクラスコードを、切換回路513Aを介して、係数出力回路515Aに供給する。   The class classification circuit 511A selects a class tap from the SD image data from the terminal io1 and the SD image data from the line delay circuit 517A, and performs two-dimensional class classification based on the class tap. Then, the class classification circuit 511A supplies the class code obtained by the two-dimensional class classification to the coefficient output circuit 515A via the switching circuit 513A.

係数出力回路515Aが記憶している複数種類のタップ係数には、2次元空間解像度創造処理用のタップ係数が含まれており、係数出力回路515Aは、端子io5から供給されるAボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、2次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路515Aは、クラス分類回路511Aから、切換回路513Aを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516Aに供給する。   The plurality of types of tap coefficients stored in the coefficient output circuit 515A include tap coefficients for two-dimensional spatial resolution creation processing, and the coefficient output circuit 515A receives the A button command string 642 supplied from the terminal io5. The tap coefficient for 2D spatial resolution creation processing is selected in accordance with the 2D spatial resolution creation command. Then, the coefficient output circuit 515A reads out the tap coefficient of the class corresponding to the class code supplied via the switching circuit 513A from the class classification circuit 511A, and supplies it to the prediction calculation circuit 516A.

一方、遅延選択回路512Aは、端子io1からのSD画像データと、ライン遅延回路517AからのSD画像データとから2次元予測タップを選択し、切換回路514Aを介して、予測演算回路516Aに供給する。   On the other hand, the delay selection circuit 512A selects a two-dimensional prediction tap from the SD image data from the terminal io1 and the SD image data from the line delay circuit 517A, and supplies it to the prediction calculation circuit 516A via the switching circuit 514A. .

予測演算回路516Aは、遅延選択回路512Aから切換回路514Aを介して供給される2次元予測タップとしてのSD画像データの複数の画素データと、係数出力回路515Aから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、垂直方向の画素数が元のSD画像データの2倍となった画像データ(画素の画素値)を得て出力する。   Prediction operation circuit 516A uses a plurality of pixel data of SD image data as two-dimensional prediction taps supplied from delay selection circuit 512A via switching circuit 514A, and tap coefficients supplied from coefficient output circuit 515A. Then, the filter operation (two-dimensional filter operation) of Expression (1) is performed, and thereby, the image data (pixel value of the pixel) in which the number of pixels in the vertical direction is twice the original SD image data is obtained and output. .

予測演算回路516Aが出力する画像データは、切換回路119を介して、端子io3から出力され、さらに、切換回路664(図57)を介して、走査線変換回路521Bに供給される。   The image data output by the prediction calculation circuit 516A is output from the terminal io3 through the switching circuit 119, and is further supplied to the scanning line conversion circuit 521B through the switching circuit 664 (FIG. 57).

走査線変換回路521Bは、そこに供給される画像データの走査方向を、垂直走査から水平走査に変換し、テレビジョンラスタと同様の走査の信号となった画像データを、端子io2に供給する。   The scanning line conversion circuit 521B converts the scanning direction of the image data supplied thereto from vertical scanning to horizontal scanning, and supplies the image data, which is a scanning signal similar to a television raster, to the terminal io2.

端子io2に供給された画像データは、クラス分類回路511Bと遅延選択回路512Bに供給される。   The image data supplied to the terminal io2 is supplied to the class classification circuit 511B and the delay selection circuit 512B.

クラス分類回路511Bは、端子io2からの画像データと、ライン遅延回路517からの画像データとからクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行う。そして、クラス分類回路511Bは、2次元クラス分類によって得られるクラスコードを、切換回路513Bを介して、係数出力回路515Bに供給する。   The class classification circuit 511B selects a class tap from the image data from the terminal io2 and the image data from the line delay circuit 517, and performs two-dimensional class classification based on the class tap. Then, the class classification circuit 511B supplies the class code obtained by the two-dimensional class classification to the coefficient output circuit 515B via the switching circuit 513B.

係数出力回路515Bが記憶している複数種類のタップ係数には、2次元空間解像度創造処理用のタップ係数が含まれており、係数出力回路515Bは、端子io5から供給されるAボタンコマンド列642の中の2次元空間解像度創造コマンドに応じて、2次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路515Bは、クラス分類回路511Bから、切換回路513Bを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516B供給する。   The plurality of types of tap coefficients stored in the coefficient output circuit 515B include tap coefficients for two-dimensional spatial resolution creation processing, and the coefficient output circuit 515B receives the A button command string 642 supplied from the terminal io5. The tap coefficient for 2D spatial resolution creation processing is selected in accordance with the 2D spatial resolution creation command. Then, the coefficient output circuit 515B reads the tap coefficient of the class corresponding to the class code supplied via the switching circuit 513B from the class classification circuit 511B, and supplies the prediction calculation circuit 516B.

一方、遅延選択回路512Bは、端子io2からの画像データと、ライン遅延回路517からの画像データとから2次元予測タップを選択し、切換回路514Bを介して、予測演算回路516Bに供給する。   On the other hand, the delay selection circuit 512B selects a two-dimensional prediction tap from the image data from the terminal io2 and the image data from the line delay circuit 517, and supplies it to the prediction calculation circuit 516B via the switching circuit 514B.

予測演算回路516Bは、遅延選択回路512Bから切換回路514Bを介して供給される2次元予測タップとしての画像データの複数の画素データと、係数出力回路515Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、垂直方向と水平方向の画素数がいずれも元の画像データの2倍となったHD画像データ(画素の画素値)を得て出力する。   The prediction calculation circuit 516B uses a plurality of pixel data of image data as a two-dimensional prediction tap supplied from the delay selection circuit 512B via the switching circuit 514B, and the tap coefficient supplied from the coefficient output circuit 515B, The filter operation (two-dimensional filter operation) of Expression (1) is performed, whereby HD image data (pixel values of pixels) in which the number of pixels in the vertical direction and the horizontal direction are both double the original image data. Output.

予測演算回路516Bが出力する画像データは、端子io4から出力され、さらに、切換回路665(図57)を介して、SW回路655(図55)に供給される。   The image data output by the prediction calculation circuit 516B is output from the terminal io4, and further supplied to the SW circuit 655 (FIG. 55) via the switching circuit 665 (FIG. 57).

次に、リモコン618(図49)のBボタンが操作され、これにより、図54に示した1つのコマンドであるノイズ除去コマンドが配置されたBボタンコマンド列643が、図55の受信部650で受信され、図57の信号処理回路656に供給された場合の処理について説明する。   Next, the B button of the remote control 618 (FIG. 49) is operated, and as a result, the B button command string 643 in which the noise removal command as one command shown in FIG. 54 is arranged is received by the receiving unit 650 in FIG. A process when received and supplied to the signal processing circuit 656 of FIG. 57 will be described.

信号処理回路656に供給されたBボタンコマンド列643は、切換回路662乃至665、および信号処理回路661の端子io5に供給される。   The B button command string 643 supplied to the signal processing circuit 656 is supplied to the switching circuits 662 to 665 and the terminal io5 of the signal processing circuit 661.

切換回路662は、Bボタンコマンド列643の中のノイズ除去コマンドに応じて、信号処理回路656への入力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663も、Bボタンコマンド列643の中のノイズ除去コマンドに応じて、信号処理回路656への入力を選択して、信号処理回路661の端子io2に接続する。   The switching circuit 662 selects the input to the signal processing circuit 656 according to the noise removal command in the B button command string 643 and connects it to the terminal io1 of the signal processing circuit 661. The switching circuit 663 also selects an input to the signal processing circuit 656 according to the noise removal command in the B button command string 643 and connects it to the terminal io2 of the signal processing circuit 661.

さらに、切換回路664は、Bボタンコマンド列643の中のノイズ除去コマンドに応じて、切換回路665への入力を選択して、信号処理回路661の端子io3を、切換回路665に接続する。また、切換回路665は、Bボタンコマンド列643の中のノイズ除去コマンドに応じて、切換回路664の出力を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 selects an input to the switching circuit 665 in accordance with the noise removal command in the B button command string 643 and connects the terminal io3 of the signal processing circuit 661 to the switching circuit 665. Further, the switching circuit 665 selects the output of the switching circuit 664 according to the noise removal command in the B button command string 643 and connects it to the SW circuit 655 (FIG. 55).

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Bボタンコマンド列643の中のノイズ除去コマンドに応じて、信号線の選択状態を、ノイズ除去処理を行うように切り換える。   Further, switching circuits 513A and 513B, switching circuits 514A and 514B, and switching circuit 519 of signal processing circuit 661 (FIG. 59) change the signal line selection state in accordance with the noise removal command in B button command sequence 643. Then, switch to perform noise removal processing.

ここで、信号処理回路661でのノイズ除去処理は、2次元ノイズ除去処理の処理結果と、3次元ノイズ除去処理の処理結果とを、画像の動きに応じて加算することによって行われる。なお、2次元ノイズ除去処理または3次元ノイズ除去処理とは、予測タップとして2次元予測タップまたは3次元予測タップを用いるノイズ除去処理を、それぞれ意味する。画像に動きがある場合には、2次元ノイズ除去処理が有効であり、画像に動きがない(動きが小さい)場合には、3次元ノイズ除去処理が有効である。   Here, the noise removal processing in the signal processing circuit 661 is performed by adding the processing result of the two-dimensional noise removal processing and the processing result of the three-dimensional noise removal processing according to the motion of the image. The two-dimensional noise removal process or the three-dimensional noise removal process means a noise removal process using a two-dimensional prediction tap or a three-dimensional prediction tap as a prediction tap. Two-dimensional noise removal processing is effective when there is motion in the image, and three-dimensional noise removal processing is effective when there is no motion in the image (small motion).

図63は、信号線の選択状態を、ノイズ除去処理を行うように切り換えた信号処理回路661を含む図57の信号処理回路656を示している。   FIG. 63 shows the signal processing circuit 656 of FIG. 57 including the signal processing circuit 661 in which the signal line selection state is switched to perform the noise removal processing.

図63において、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Bボタンコマンド列643の中のノイズ除去コマンドに応じて、信号線の選択状態を、図63に実線で示すように切り換え、これにより、信号処理として、ノイズ除去処理が行われる。   In FIG. 63, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 change the signal line selection state according to the noise removal command in the B button command string 643. As indicated by the solid line in FIG. 63, switching is performed, whereby noise removal processing is performed as signal processing.

なお、図63において、点線で示す信号線は、配線されているが、現在の信号処理回路661による信号処理に関係のない信号線を意味している。   In FIG. 63, a signal line indicated by a dotted line means a signal line that is wired but is not related to signal processing by the current signal processing circuit 661.

また、図63では、図57における走査線変換回路521Aおよび521B、並びに切換回路662乃至665の図示を省略してある。   In FIG. 63, the scanning line conversion circuits 521A and 521B and the switching circuits 662 to 665 in FIG. 57 are not shown.

図63の信号処理回路656では、そこに入力される、クラス分類適応処理の第1の画像データを、そのS/Nの向上した、クラス分類適応処理の第2の画像データに変換する2次元ノイズ除去処理と3次元ノイズ除去処理が行われ、さらに、その2次元ノイズ除去処理の処理結果と、3次元ノイズ除去処理の処理結果とを、画像の動きに応じて加算することにより、最終的な信号処理結果としての高S/Nの画像データを得るノイズ除去処理が行われる。   In the signal processing circuit 656 shown in FIG. 63, the first image data of the class classification adaptive processing input thereto is converted into the second image data of the class classification adaptive processing whose S / N is improved. A noise removal process and a three-dimensional noise removal process are performed, and the result of the two-dimensional noise removal process and the result of the three-dimensional noise removal process are added in accordance with the motion of the image, thereby obtaining a final result. Noise removal processing is performed to obtain high S / N image data as a result of simple signal processing.

図63において、信号処理回路656に入力された画像データは、フレームメモリ523、並びに信号処理回路661の端子io1およびio2に供給される。   In FIG. 63, the image data input to the signal processing circuit 656 is supplied to the frame memory 523 and the terminals io1 and io2 of the signal processing circuit 661.

フレームメモリ523は、そこに供給される画像データを記憶することにより、1フレーム(またはフィールド)分だけ遅延して、信号処理回路661の端子io2'に供給する。   The frame memory 523 stores the image data supplied thereto, delays it by one frame (or field), and supplies it to the terminal io2 ′ of the signal processing circuit 661.

ここで、端子io1およびio2に供給される画像データのフレームを、以下、適宜、現フレームという。また、フレームメモリ523から端子io2'に供給される、現フレームの1フレーム前のフレームを、前フレームという。   Here, the frame of the image data supplied to the terminals io1 and io2 is hereinafter referred to as a current frame as appropriate. Further, a frame one frame before the current frame supplied from the frame memory 523 to the terminal io2 ′ is referred to as a previous frame.

端子io1に供給された現フレームの画像データは、クラス分類回路511A、遅延選択回路512A、およびライン遅延回路517に供給される。また、端子io2に供給された現フレームの画像データは、クラス分類回路511Bおよび遅延選択回路512Bに供給される。さらに、端子io2'に供給された前フレームの画像データも、クラス分類回路511Bおよび遅延選択回路512Bに供給される。   The image data of the current frame supplied to the terminal io1 is supplied to the class classification circuit 511A, the delay selection circuit 512A, and the line delay circuit 517. The image data of the current frame supplied to the terminal io2 is supplied to the class classification circuit 511B and the delay selection circuit 512B. Further, the image data of the previous frame supplied to the terminal io2 ′ is also supplied to the class classification circuit 511B and the delay selection circuit 512B.

ライン遅延回路517は、そこに供給される現フレームの画像データを、1乃至数ライン分だけ遅延して、クラス分類回路511Aおよび511B、並びに遅延選択回路512Aおよび512Bに供給する。   The line delay circuit 517 delays the image data of the current frame supplied thereto by one to several lines and supplies it to the class classification circuits 511A and 511B and the delay selection circuits 512A and 512B.

クラス分類回路511Aは、端子io1からの現フレームの画像データと、ライン遅延回路517Aからの現フレームの画像データとからクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行う。そして、クラス分類回路511Aは、2次元クラス分類によって得られるクラスコードを、切換回路513Aを介して、係数出力回路515Aに供給する。   The class classification circuit 511A selects a class tap from the image data of the current frame from the terminal io1 and the image data of the current frame from the line delay circuit 517A, and performs two-dimensional class classification based on the class tap. Then, the class classification circuit 511A supplies the class code obtained by the two-dimensional class classification to the coefficient output circuit 515A via the switching circuit 513A.

係数出力回路515Aが記憶している複数種類のタップ係数には、2次元ノイズ除去処理用のタップ係数も含まれており、係数出力回路515Aは、端子io5から供給されるBボタンコマンド列643の中のノイズ除去コマンドに応じて、2次元ノイズ除去処理用のタップ係数を選択している。そして、係数出力回路515Aは、クラス分類回路511Aから、切換回路513Aを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516Aに供給する。   The plurality of types of tap coefficients stored in the coefficient output circuit 515A include a tap coefficient for two-dimensional noise removal processing, and the coefficient output circuit 515A stores the B button command string 643 supplied from the terminal io5. A tap coefficient for two-dimensional noise removal processing is selected according to the noise removal command in the middle. Then, the coefficient output circuit 515A reads out the tap coefficient of the class corresponding to the class code supplied via the switching circuit 513A from the class classification circuit 511A, and supplies it to the prediction calculation circuit 516A.

また、遅延選択回路512Aは、端子io1からの現フレームの画像データと、ライン遅延回路517Aからの現フレームの画像データとから2次元予測タップを選択し、切換回路514Aを介して、予測演算回路516Aに供給する。   The delay selection circuit 512A selects a two-dimensional prediction tap from the current frame image data from the terminal io1 and the current frame image data from the line delay circuit 517A, and the prediction calculation circuit via the switching circuit 514A. Supply to 516A.

予測演算回路516Aは、遅延選択回路512Aから切換回路514Aを介して供給される2次元予測タップとしての現フレームの画像データの複数の画素データと、係数出力回路515Aから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、2次元ノイズ除去処理が施された現フレームの画像データ(画素の画素値)を得て、積和演算回路518に出力する。   The prediction calculation circuit 516A receives a plurality of pixel data of image data of the current frame as a two-dimensional prediction tap supplied from the delay selection circuit 512A via the switching circuit 514A, and a tap coefficient supplied from the coefficient output circuit 515A. And performing the filter operation (two-dimensional filter operation) of the expression (1), thereby obtaining the image data (pixel value of the pixel) of the current frame subjected to the two-dimensional noise removal processing, and the product-sum operation circuit Output to 518.

一方、クラス分類回路511Bは、端子io2からの現フレームの画像データ、ライン遅延回路517からの現フレームの画像データ、および端子io2'からの前フレームの画像データからクラスタップを選択し、そのクラスタップに基づいて、3次元クラス分類を行う。そして、クラス分類回路511Bは、3次元クラス分類によって得られるクラスコードを、切換回路513Bを介して、係数出力回路515Bに供給する。   On the other hand, the class classification circuit 511B selects a class tap from the image data of the current frame from the terminal io2, the image data of the current frame from the line delay circuit 517, and the image data of the previous frame from the terminal io2 ′, and the class. Based on the tap, three-dimensional classification is performed. Then, the class classification circuit 511B supplies the class code obtained by the three-dimensional class classification to the coefficient output circuit 515B via the switching circuit 513B.

さらに、クラス分類回路511Bは、端子io2からの現フレームの画像データ、ライン遅延回路517からの現フレームの画像データ、および端子io2'からの前フレームの画像データから、現フレームの画像データの動きを検出し、その動きを表す動き情報Kを、積和演算回路118に供給する。   Further, the class classification circuit 511B moves the image data of the current frame from the image data of the current frame from the terminal io2, the image data of the current frame from the line delay circuit 517, and the image data of the previous frame from the terminal io2 ′. , And motion information K representing the motion is supplied to the product-sum operation circuit 118.

ここで、クラス分類回路511Bでの動きの検出方法としては、例えば、グラジェント法と称されるものを採用できる。グラジェント法は、動き領域中の画素についてのフレーム差と傾き情報(水平方向では、サンプリング差、垂直方向ではライン差)を用いて動き量を求めるものである。   Here, as a motion detection method in the class classification circuit 511B, for example, a so-called gradient method can be adopted. In the gradient method, the amount of motion is obtained using frame difference and tilt information (sampling difference in the horizontal direction and line difference in the vertical direction) for the pixels in the motion region.

即ち、グラジェント法によれば、フレーム差ΔF(現フレームの画素値から前フレームの対応画素値を減算したもの)と、サンプリング差ΔE(現フレームのある画素の値から、その左隣の画素の値を減算したもの)Eが求められる。そして、フレーム差ΔFの絶対値|ΔF|の動き領域中の積算値Σ|ΔF|と、サンプリング差ΔEの絶対値|ΔE|の動き領域中の積算値Σ|ΔE|とから、動きの水平方向成分v1の大きさ|v1|が、式|v1|=Σ|ΔF|/Σ|ΔE|によって求められる。なお、動きの水平方向成分v1の方向(右または左)は、フレーム差ΔFの極性とサンプリング差ΔEの極性との関係から求められる。動きの垂直方向成分v2についても同様して求めることができる。   That is, according to the gradient method, the frame difference ΔF (the pixel value of the current frame minus the corresponding pixel value of the previous frame) and the sampling difference ΔE (the value of a pixel in the current frame, E) is obtained. Then, from the integrated value Σ | ΔF | in the motion region of the absolute value | ΔF | of the frame difference ΔF and the integrated value Σ | ΔE | in the motion region of the absolute value | ΔE | The magnitude | v1 | of the direction component v1 is obtained by the expression | v1 | = Σ | ΔF | / Σ | ΔE |. The direction (right or left) of the horizontal component v1 of the motion is obtained from the relationship between the polarity of the frame difference ΔF and the polarity of the sampling difference ΔE. The vertical component v2 of motion can be obtained in the same manner.

クラス分類回路511Bは、動きの水平方向成分v1と垂直方向成分v2とから、画像の動きを求め、例えば、その動きの大きさを、所定ビット数で表した情報を、動き情報Kとして、積和演算回路118に供給する。   The class classification circuit 511B obtains the motion of the image from the horizontal component v1 and the vertical component v2 of the motion. For example, information representing the magnitude of the motion in a predetermined number of bits is used as the motion information K. This is supplied to the sum calculation circuit 118.

なお、クラス分類回路511Bでは、上述したように、3次元クラス分類を行う他、動きの水平方向成分v1と垂直方向成分v2とを用いたクラス分類を行うことも可能である。   As described above, the class classification circuit 511B can perform class classification using the horizontal component v1 and the vertical component v2 of motion in addition to performing three-dimensional class classification.

係数出力回路515Bが記憶している複数種類のタップ係数には、3次元ノイズ除去処理用のタップ係数も含まれており、係数出力回路515Bは、端子io5から供給されるBボタンコマンド列643の中のノイズ除去コマンドに応じて、3次元ノイズ除去処理用のタップ係数を選択している。そして、係数出力回路515Bは、クラス分類回路511Bから、切換回路513Bを介して供給されるクラスコードに対応するクラスのタップ係数を読み出し、予測演算回路516B供給する。   The plurality of types of tap coefficients stored in the coefficient output circuit 515B include a tap coefficient for three-dimensional noise removal processing, and the coefficient output circuit 515B uses the B button command string 643 supplied from the terminal io5. A tap coefficient for three-dimensional noise removal processing is selected according to the noise removal command in the middle. Then, the coefficient output circuit 515B reads the tap coefficient of the class corresponding to the class code supplied via the switching circuit 513B from the class classification circuit 511B, and supplies the prediction calculation circuit 516B.

また、遅延選択回路512Bは、端子io2からの現フレームの画像データ、ライン遅延回路517からの現フレームの画像データ、および端子io2'からの前フレームの画像データから3次元予測タップを選択し、切換回路514Bを介して、予測演算回路516Bに供給する。   The delay selection circuit 512B selects a three-dimensional prediction tap from the current frame image data from the terminal io2, the current frame image data from the line delay circuit 517, and the previous frame image data from the terminal io2 ′. This is supplied to the predictive arithmetic circuit 516B via the switching circuit 514B.

予測演算回路516Bは、遅延選択回路512Bから切換回路514Bを介して供給される3次元予測タップとしての画像データの複数の画素データと、係数出力回路515Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(3次元フィルタ演算)を行い、これにより、3次元ノイズ除去処理が施された現フレームの画像データ(画素の画素値)を得て、積和演算回路518に出力する。   The prediction calculation circuit 516B uses a plurality of pixel data of image data as a three-dimensional prediction tap supplied from the delay selection circuit 512B via the switching circuit 514B, and a tap coefficient supplied from the coefficient output circuit 515B. The filter operation (three-dimensional filter operation) of Expression (1) is performed, thereby obtaining the image data (pixel value of the pixel) of the current frame on which the three-dimensional noise removal processing has been performed, and outputting to the product-sum operation circuit 518 To do.

積和演算回路518は、予測演算回路516Aからの2次元ノイズ除去処理が施された現フレームの画像データと、予測演算回路516Bからの3次元ノイズ除去処理が施された現フレームの画像データとの重み付け加算を、クラス分類回路511Bから供給される動き情報Kを重み係数として行う。   The product-sum operation circuit 518 includes the current frame image data subjected to the two-dimensional noise removal processing from the prediction operation circuit 516A, and the current frame image data subjected to the three-dimensional noise removal processing from the prediction operation circuit 516B. Are added using the motion information K supplied from the class classification circuit 511B as a weighting coefficient.

即ち、2次元ノイズ除去処理または3次元ノイズ除去処理が施された現フレームの画像データを、それぞれP2またはP3とするとともに、動き情報Kが0乃至1の範囲の値をとするものとすると、積和演算回路518は、式P=K×P2+(1−K)×P3にしたがって、最終的なノイズ除去処理結果としての画像データPを求める。   That is, assuming that the image data of the current frame that has been subjected to the two-dimensional noise removal process or the three-dimensional noise removal process is P2 or P3, respectively, and the motion information K has a value in the range of 0 to 1. The product-sum operation circuit 518 obtains image data P as a final noise removal processing result according to the equation P = K × P2 + (1−K) × P3.

積和演算回路518が出力する画像データは、切換回路519を介して、端子io3から出力され、さらに、切換回路664および665(図57)を介して、SW回路655(図55)に供給される。   The image data output from the product-sum operation circuit 518 is output from the terminal io3 via the switching circuit 519, and further supplied to the SW circuit 655 (FIG. 55) via the switching circuits 664 and 665 (FIG. 57). The

次に、リモコン618(図49)のCボタンが操作され、これにより、図54に示した1次元空間解像度創造コマンドおよびノイズ除去コマンドが配置されたCボタンコマンド列644が、図55の受信部650で受信され、図57の信号処理回路656に供給された場合の処理について説明する。   Next, the C button of the remote control 618 (FIG. 49) is operated, whereby the C button command string 644 in which the one-dimensional spatial resolution creation command and the noise removal command shown in FIG. The processing when received at 650 and supplied to the signal processing circuit 656 of FIG. 57 will be described.

信号処理回路656(図57)に供給されたCボタンコマンド列644は、切換回路662乃至665、および信号処理回路661の端子io5に供給される。   The C button command string 644 supplied to the signal processing circuit 656 (FIG. 57) is supplied to the switching circuits 662 to 665 and the terminal io5 of the signal processing circuit 661.

切換回路662は、Cボタンコマンド列644の中の1番目の1次元空間解像度創造コマンドに応じて、走査線変換回路512Aの出力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663は、Cボタンコマンド列644の中の1番目の1次元空間解像度創造コマンドに応じて、走査線変換回路512Bの出力を選択して、信号処理回路661の端子io2に接続する。   The switching circuit 662 selects the output of the scanning line conversion circuit 512A in accordance with the first one-dimensional spatial resolution creation command in the C button command string 644 and connects it to the terminal io1 of the signal processing circuit 661. Further, the switching circuit 663 selects the output of the scanning line conversion circuit 512B in accordance with the first one-dimensional spatial resolution creation command in the C button command string 644 and connects it to the terminal io2 of the signal processing circuit 661. .

さらに、切換回路664は、Cボタンコマンド列644の中の1番目の1次元空間解像度創造コマンドに応じて、走査線変換回路512Bへの入力を選択して、信号処理回路661の端子io3を、走査線変換回路512Bに接続する。また、切換回路665は、Cボタンコマンド列644の中の1番目の1次元空間解像度創造コマンドに応じて、信号処理回路661の端子io4を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 selects the input to the scanning line conversion circuit 512B in response to the first one-dimensional spatial resolution creation command in the C button command string 644, and the terminal io3 of the signal processing circuit 661 is selected. Connected to the scanning line conversion circuit 512B. Further, the switching circuit 665 selects the terminal io4 of the signal processing circuit 661 in accordance with the first one-dimensional spatial resolution creation command in the C button command string 644 and connects it to the SW circuit 655 (FIG. 55). .

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Cボタンコマンド列644の中の1番目の1次元空間解像度創造コマンドに応じて、信号線の選択状態を、1次元空間解像度創造処理を行うように切り換える。   Further, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 (FIG. 59), according to the first one-dimensional spatial resolution creation command in the C button command sequence 644, The selection state of the signal line is switched to perform the one-dimensional spatial resolution creation process.

即ち、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Cボタンコマンド列644の中の1次元空間解像度創造コマンドに応じて、信号線の選択状態を、図61に実線で示したように切り換える。   That is, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 change the signal line selection state in accordance with the one-dimensional spatial resolution creation command in the C button command row 644. Switching is performed as shown by the solid line in FIG.

従って、信号処理回路656では、図61で説明したように、そこに入力される画像データを対象として、1次元解像度創造処理が行われ、その画像データの空間解像度を向上させた画像データが、端子io4から出力され、さらに、切換回路665(図57)を介して、SW回路655(図55)に供給される。   Therefore, as described with reference to FIG. 61, the signal processing circuit 656 performs one-dimensional resolution creation processing on the image data input thereto, and the image data whose spatial resolution of the image data is improved is The signal is output from the terminal io4 and further supplied to the SW circuit 655 (FIG. 55) via the switching circuit 665 (FIG. 57).

図56のフローチャートで説明したことから、図55のLSI606において、Cボタンコマンド列644の1番目の1次元空間解像度創造コマンドに対応する信号処理である1次元空間解像度創造処理が行われたとき、SW回路655は、信号処理回路656から供給される画像データを、フレームメモリ653に供給して記憶させる。さらに、SW回路654は、フレームメモリ654に記憶された画像データを、信号処理回路656に供給する。   As described with reference to the flowchart of FIG. 56, when the one-dimensional spatial resolution creation process, which is a signal process corresponding to the first one-dimensional spatial resolution creation command of the C button command string 644, is performed in the LSI 606 of FIG. The SW circuit 655 supplies the image data supplied from the signal processing circuit 656 to the frame memory 653 for storage. Further, the SW circuit 654 supplies the image data stored in the frame memory 654 to the signal processing circuit 656.

従って、信号処理回路656(図55)において1次元解像度創造処理が行われることにより得られた画像データは、切換回路665、フレームメモリ653、およびSW回路654を介して、信号処理回路656に再入力する。   Therefore, the image data obtained by performing the one-dimensional resolution creation processing in the signal processing circuit 656 (FIG. 55) is re-transmitted to the signal processing circuit 656 via the switching circuit 665, the frame memory 653, and the SW circuit 654. input.

その後、信号処理回路656(図57)において、切換回路662は、Cボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、信号処理回路656への入力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663も、Cボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、信号処理回路656への入力を選択して、信号処理回路661の端子io2に接続する。   Thereafter, in the signal processing circuit 656 (FIG. 57), the switching circuit 662 selects the input to the signal processing circuit 656 in accordance with the second noise removal command in the C button command string 644, and the signal processing circuit 661 is connected to terminal io1. The switching circuit 663 also selects an input to the signal processing circuit 656 according to the second noise removal command in the C button command string 644 and connects it to the terminal io2 of the signal processing circuit 661.

さらに、切換回路664も、Cボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、切換回路665への入力を選択して、信号処理回路661の端子io3を、切換回路665に接続する。また、切換回路665も、Cボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、切換回路664の出力を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 also selects the input to the switching circuit 665 in accordance with the second noise removal command in the C button command string 644 and connects the terminal io3 of the signal processing circuit 661 to the switching circuit 665. To do. The switching circuit 665 also selects the output of the switching circuit 664 according to the second noise removal command in the C button command string 644 and connects it to the SW circuit 655 (FIG. 55).

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Cボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、信号線の選択状態を、ノイズ除去処理を行うように切り換える。   Furthermore, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 (FIG. 59) change the signal line in accordance with the second noise removal command in the C button command string 644. The selected state is switched to perform noise removal processing.

即ち、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Cボタンコマンド列644の中のノイズ除去コマンドに応じて、信号線の選択状態を、図63に実線で示したように切り換える。   That is, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 change the signal line selection state in FIG. 63 according to the noise removal command in the C button command string 644. Switch as shown by the solid line.

従って、信号処理回路656では、図63で説明したように、そこに再入力される、1次元空間解像度創造処理によって空間解像度が向上した画像データを対象として、ノイズ除去処理が行われ、その画像データのS/Nを向上させた画像データが、端子io3から出力され、さらに、切換回路664および665(図57)を介して、SW回路655(図55)に供給される。   Therefore, as described with reference to FIG. 63, the signal processing circuit 656 performs noise removal processing on the image data whose spatial resolution has been improved by the one-dimensional spatial resolution creation processing that is re-input to the signal processing circuit 656. Image data whose data S / N is improved is output from the terminal io3, and further supplied to the SW circuit 655 (FIG. 55) via the switching circuits 664 and 665 (FIG. 57).

図56のフローチャートで説明したことから、図55のLSI606において、Cボタンコマンド列644の2番目、即ち、最後のノイズ除去コマンドに対応する信号処理であるノイズ除去処理が行われたとき、SW回路655は、信号処理回路656から供給される画像データを、フレームメモリ652を介して、合成部607(図48)に供給する。   As described with reference to the flowchart of FIG. 56, when the noise removal processing, which is the signal processing corresponding to the second noise removal command of the C button command sequence 644, that is, the last noise removal command is performed in the LSI 606 of FIG. 655 supplies the image data supplied from the signal processing circuit 656 to the synthesizing unit 607 (FIG. 48) via the frame memory 652.

従って、合成部607には、1次元空間解像度創造処理によって空間解像度が向上し、かつノイズ除去処理によってS/Nが向上した画像データが供給されることになる。   Therefore, image data whose spatial resolution has been improved by the one-dimensional spatial resolution creation process and whose S / N has been improved by the noise removal process is supplied to the synthesis unit 607.

次に、リモコン618(図49)のDボタンが操作され、これにより、図54に示した2次元空間解像度創造コマンドおよびノイズ除去コマンドが配置されたDボタンコマンド列644が、図55の受信部650で受信され、図57の信号処理回路656に供給された場合の処理について説明する。   Next, the D button of the remote control 618 (FIG. 49) is operated, whereby the D button command string 644 in which the two-dimensional spatial resolution creation command and the noise removal command shown in FIG. The processing when received at 650 and supplied to the signal processing circuit 656 of FIG. 57 will be described.

信号処理回路656(図57)に供給されたDボタンコマンド列644は、切換回路662乃至665、および信号処理回路661の端子io5に供給される。   The D button command string 644 supplied to the signal processing circuit 656 (FIG. 57) is supplied to the switching circuits 662 to 665 and the terminal io5 of the signal processing circuit 661.

切換回路662は、Dボタンコマンド列644の中の1番目の2次元空間解像度創造コマンドに応じて、走査線変換回路512Aの出力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663は、Dボタンコマンド列644の中の1番目の2次元空間解像度創造コマンドに応じて、走査線変換回路512Bの出力を選択して、信号処理回路661の端子io2に接続する。   The switching circuit 662 selects the output of the scanning line conversion circuit 512A in accordance with the first two-dimensional spatial resolution creation command in the D button command string 644 and connects it to the terminal io1 of the signal processing circuit 661. Further, the switching circuit 663 selects the output of the scanning line conversion circuit 512B in accordance with the first two-dimensional spatial resolution creation command in the D button command string 644 and connects it to the terminal io2 of the signal processing circuit 661. .

さらに、切換回路664は、Dボタンコマンド列644の中の1番目の2次元空間解像度創造コマンドに応じて、走査線変換回路512Bへの入力を選択して、信号処理回路661の端子io3を、走査線変換回路512Bに接続する。また、切換回路665は、Dボタンコマンド列644の中の1番目の2次元空間解像度創造コマンドに応じて、信号処理回路661の端子io4を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 selects an input to the scanning line conversion circuit 512B in response to the first two-dimensional spatial resolution creation command in the D button command string 644, and the terminal io3 of the signal processing circuit 661 is selected. Connected to the scanning line conversion circuit 512B. Further, the switching circuit 665 selects the terminal io4 of the signal processing circuit 661 in accordance with the first two-dimensional spatial resolution creation command in the D button command string 644 and connects it to the SW circuit 655 (FIG. 55). .

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Dボタンコマンド列644の中の1番目の2次元空間解像度創造コマンドに応じて、信号線の選択状態を、2次元空間解像度創造処理を行うように切り換える。   Further, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 (FIG. 59), according to the first two-dimensional spatial resolution creation command in the D button command sequence 644, The selection state of the signal line is switched to perform the two-dimensional spatial resolution creation process.

即ち、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Dボタンコマンド列644の中の2次元空間解像度創造コマンドに応じて、信号線の選択状態を、図62に実線で示したように切り換える。   That is, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 change the signal line selection state according to the two-dimensional spatial resolution creation command in the D button command row 644. Switching is performed as shown by the solid line in FIG.

従って、信号処理回路656では、図62で説明したように、そこに入力される画像データを対象として、2次元解像度創造処理が行われ、その画像データの空間解像度を向上させた画像データが、端子io4から出力され、さらに、切換回路665(図57)を介して、SW回路655(図55)に供給される。   Therefore, in the signal processing circuit 656, as described with reference to FIG. 62, two-dimensional resolution creation processing is performed on the image data input thereto, and image data whose spatial resolution of the image data is improved is obtained. The signal is output from the terminal io4 and further supplied to the SW circuit 655 (FIG. 55) via the switching circuit 665 (FIG. 57).

図56のフローチャートで説明したことから、図55のLSI606において、Dボタンコマンド列644の1番目の2次元空間解像度創造コマンドに対応する信号処理である2次元空間解像度創造処理が行われたとき、SW回路655は、信号処理回路656から供給される画像データを、フレームメモリ653に供給して記憶させる。さらに、SW回路654は、フレームメモリ654に記憶された画像データを、信号処理回路656に供給する。   As described with reference to the flowchart of FIG. 56, when the two-dimensional spatial resolution creation process, which is the signal processing corresponding to the first two-dimensional spatial resolution creation command of the D button command string 644, is performed in the LSI 606 of FIG. The SW circuit 655 supplies the image data supplied from the signal processing circuit 656 to the frame memory 653 for storage. Further, the SW circuit 654 supplies the image data stored in the frame memory 654 to the signal processing circuit 656.

従って、信号処理回路656(図55)において2次元解像度創造処理が行われることにより得られた画像データは、切換回路665、フレームメモリ653、およびSW回路654を介して、信号処理回路656に再入力する。   Therefore, the image data obtained by performing the two-dimensional resolution creation processing in the signal processing circuit 656 (FIG. 55) is re-transmitted to the signal processing circuit 656 via the switching circuit 665, the frame memory 653, and the SW circuit 654. input.

その後、信号処理回路656(図57)において、切換回路662は、Dボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、信号処理回路656への入力を選択して、信号処理回路661の端子io1に接続する。また、切換回路663も、Dボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、信号処理回路656への入力を選択して、信号処理回路661の端子io2に接続する。   Thereafter, in the signal processing circuit 656 (FIG. 57), the switching circuit 662 selects the input to the signal processing circuit 656 in accordance with the second noise removal command in the D button command string 644, and the signal processing circuit 661 is connected to terminal io1. The switching circuit 663 also selects an input to the signal processing circuit 656 according to the second noise removal command in the D button command string 644 and connects it to the terminal io2 of the signal processing circuit 661.

さらに、切換回路664も、Dボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、切換回路665への入力を選択して、信号処理回路661の端子io3を、切換回路665に接続する。また、切換回路665も、Dボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、切換回路664の出力を選択して、SW回路655(図55)に接続する。   Further, the switching circuit 664 also selects the input to the switching circuit 665 in response to the second noise removal command in the D button command string 644 and connects the terminal io3 of the signal processing circuit 661 to the switching circuit 665. To do. The switching circuit 665 also selects the output of the switching circuit 664 in accordance with the second noise removal command in the D button command string 644 and connects it to the SW circuit 655 (FIG. 55).

さらに、信号処理回路661(図59)の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Dボタンコマンド列644の中の2番目のノイズ除去コマンドに応じて、信号線の選択状態を、ノイズ除去処理を行うように切り換える。   Further, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 (FIG. 59) change the signal line according to the second noise removal command in the D button command string 644. The selected state is switched to perform noise removal processing.

即ち、信号処理回路661の切換回路513Aおよび513B、切換回路514Aおよび514B、並びに切換回路519は、Dボタンコマンド列644の中のノイズ除去コマンドに応じて、信号線の選択状態を、図63に実線で示したように切り換える。   That is, the switching circuits 513A and 513B, the switching circuits 514A and 514B, and the switching circuit 519 of the signal processing circuit 661 change the signal line selection state in FIG. 63 according to the noise removal command in the D button command string 644. Switch as shown by the solid line.

従って、信号処理回路656では、図63で説明したように、そこに再入力される、2次元空間解像度創造処理によって空間解像度が向上した画像データを対象として、ノイズ除去処理が行われ、その画像データのS/Nを向上させた画像データが、端子io3から出力され、さらに、切換回路664および665(図57)を介して、SW回路655(図55)に供給される。   Therefore, as described with reference to FIG. 63, the signal processing circuit 656 performs noise removal processing on the image data whose spatial resolution has been improved by the two-dimensional spatial resolution creation processing that is re-input to the signal processing circuit 656. Image data whose data S / N is improved is output from the terminal io3, and further supplied to the SW circuit 655 (FIG. 55) via the switching circuits 664 and 665 (FIG. 57).

図56のフローチャートで説明したことから、図55のLSI606において、Dボタンコマンド列644の2番目、即ち、最後のノイズ除去コマンドに対応する信号処理であるノイズ除去処理が行われたとき、SW回路655は、信号処理回路656から供給される画像データを、フレームメモリ652を介して、合成部607(図48)に供給する。   As described with reference to the flowchart of FIG. 56, when the noise removal processing, which is the signal processing corresponding to the second noise removal command in the D button command sequence 644, is performed in the LSI 606 of FIG. 655 supplies the image data supplied from the signal processing circuit 656 to the synthesizing unit 607 (FIG. 48) via the frame memory 652.

従って、合成部607には、2次元空間解像度創造処理によって空間解像度が向上し、かつノイズ除去処理によってS/Nが向上した画像データが供給されることになる。   Therefore, the image data whose spatial resolution is improved by the two-dimensional spatial resolution creation process and whose S / N is improved by the noise removal process is supplied to the synthesis unit 607.

以上のように、LSI606では、コマンド列が複数のコマンドを有している場合に、そのコマンド列の複数のコマンドとしての、例えば、第1および第2のコマンドのうちの第1のコマンドに応じて、内部構造を第1のコマンドに対応する第1の信号処理を実行する状態に切り換え、第1の信号処理を実行し、その後、さらに、コマンド列の複数のコマンドのうちの第2のコマンドに応じて、内部構造を第2のコマンドに対応する第2の信号処理を実行する状態に切り換え、第2の信号処理を実行する。従って、LSI606によれば、単一のハードウェアで、複数の機能を、容易に実現することができる。   As described above, in the LSI 606, when the command sequence has a plurality of commands, the command sequence corresponds to, for example, the first command of the first and second commands as the plurality of commands in the command sequence. Then, the internal structure is switched to a state in which the first signal processing corresponding to the first command is executed, the first signal processing is executed, and then the second command of the plurality of commands in the command sequence is further executed. In response, the internal structure is switched to a state in which the second signal processing corresponding to the second command is executed, and the second signal processing is executed. Therefore, according to the LSI 606, a plurality of functions can be easily realized with a single hardware.

次に、本発明の第4実施の形態について説明する。   Next, a fourth embodiment of the present invention will be described.

図64は、本発明の第4実施の形態としてのIC700の構成例を示している。   FIG. 64 shows an example of the configuration of an IC 700 as the fourth embodiment of the present invention.

なお、図64のIC700は、例えば、図48のテレビジョン受像機において、LSI606に代えて用いることができる。   Note that the IC 700 in FIG. 64 can be used in place of the LSI 606 in the television receiver in FIG. 48, for example.

IC700は、外部(例えば、図48のコントローラ613など)から供給される、1以上のコマンドからなるコマンド列を受信し、そのコマンド列の1以上のコマンドそれぞれに応じて、内部構造をリコンフィギュラブルに切り換える。   The IC 700 receives a command sequence including one or more commands supplied from the outside (for example, the controller 613 in FIG. 48), and reconfigurable the internal structure according to each of the one or more commands in the command sequence. Switch to.

そして、コマンド列が、例えば、複数のコマンドからなる場合は、IC700は、そのコマンド列の第1のコマンドに対応する第1の信号処理を実行し、その後、さらに、コマンド列の第2のコマンドに対応する第2の信号処理を実行する。   For example, when the command sequence is composed of a plurality of commands, the IC 700 executes the first signal processing corresponding to the first command in the command sequence, and then further performs the second command in the command sequence. The second signal processing corresponding to is performed.

即ち、図64において、クラス分類回路711A、遅延選択回路712A、切換回路713A,714A、係数出力回路715A、または予測演算回路716Aは、図59のクラス分類回路511A、遅延選択回路512A、切換回路513A,514A、係数出力回路515A、または予測演算回路516Aとそれぞれ同様に構成される。   That is, in FIG. 64, the class classification circuit 711A, the delay selection circuit 712A, the switching circuits 713A and 714A, the coefficient output circuit 715A, or the prediction calculation circuit 716A are the same as the class classification circuit 511A, the delay selection circuit 512A, and the switching circuit 513A in FIG. 514A, the coefficient output circuit 515A, or the prediction calculation circuit 516A.

また、図64において、クラス分類回路711B、遅延選択回路712B、切換回路713B,714B、係数出力回路715B、または予測演算回路716Bは、図59のクラス分類回路511B、遅延選択回路512B、切換回路513B,514B、係数出力回路515B、または予測演算回路516Bとそれぞれ同様に構成される。   64, the class classification circuit 711B, the delay selection circuit 712B, the switching circuits 713B and 714B, the coefficient output circuit 715B, or the prediction calculation circuit 716B are the same as the class classification circuit 511B, the delay selection circuit 512B, and the switching circuit 513B in FIG. , 514B, the coefficient output circuit 515B, or the prediction calculation circuit 516B.

さらに、図64において、ライン遅延回路717、積和演算回路718、または切換回路719も、図59のライン遅延回路517、積和演算回路518、または切換回路519とそれぞれ同様に構成される。   Further, in FIG. 64, the line delay circuit 717, the product-sum operation circuit 718, or the switching circuit 719 is configured similarly to the line delay circuit 517, the product-sum operation circuit 518, or the switching circuit 519 of FIG.

但し、図59のクラス分類回路511Bは、1次元クラス分類、2次元クラス分類、および3次元クラス分類を行い、切換回路513Bは、その3つのクラス分類によって得られるクラスコードのうちのいずれかを選択して、係数出力回路515Bに出力するようになっていたが、図64では、クラス分類回路711Bは、2次元クラス分類と3次元クラス分類を行い、切換回路713Bは、その2つのクラス分類によって得られるクラスコードのうちのいずれかを選択して、係数出力回路715Bに出力するようになっている。   However, the class classification circuit 511B of FIG. 59 performs one-dimensional class classification, two-dimensional class classification, and three-dimensional class classification, and the switching circuit 513B selects one of the class codes obtained by the three class classifications. In FIG. 64, the class classification circuit 711B performs the two-dimensional class classification and the three-dimensional class classification, and the switching circuit 713B performs the two class classifications. Any one of the class codes obtained by the above is selected and output to the coefficient output circuit 715B.

また、図59の遅延選択回路512Bは、1次元予測タップ、2次元予測タップ、および3次元予測タップを構成し、切換回路514Bは、その3つの予測タップのうちのいずれかを選択して、予測演算回路516Bに供給するようになっていたが、図64では、遅延選択回路712Bは、2次元予測タップと3次元予測タップを構成し、切換回路714Bは、その2つの予測タップのうちのいずれかを選択して、予測演算回路716Bに供給するようになっている。   Also, the delay selection circuit 512B of FIG. 59 constitutes a one-dimensional prediction tap, a two-dimensional prediction tap, and a three-dimensional prediction tap, and the switching circuit 514B selects any one of the three prediction taps, 64. In FIG. 64, the delay selection circuit 712B configures a two-dimensional prediction tap and a three-dimensional prediction tap, and the switching circuit 714B includes the two prediction taps. Either one is selected and supplied to the prediction calculation circuit 716B.

受信部720は、外部(例えば、図48のコントローラ613など)から供給される、1以上のコマンドからなるコマンド列を受信し、IC700を構成するブロックのうちの必要なものに供給する。   The receiving unit 720 receives a command sequence including one or more commands supplied from the outside (for example, the controller 613 in FIG. 48) and supplies the command string to necessary ones of the blocks constituting the IC 700.

フレームメモリ721には、IC700に入力される画像データが供給される。フレームメモリ721は、そこに供給される画像データを記憶することにより、例えば、1フレーム分だけ遅延し、クラス分類回路711Bおよび遅延選択回路712Bに供給する。   Image data input to the IC 700 is supplied to the frame memory 721. The frame memory 721 stores the image data supplied thereto, for example, delays by one frame, and supplies it to the class classification circuit 711B and the delay selection circuit 712B.

なお、IC700に入力される画像データ(以下、適宜、入力画像データという)は、フレームメモリ721の他、クラス分類回路711A、遅延選択回路712A、および切換回路724にも供給されるようになっている。   Note that image data input to the IC 700 (hereinafter referred to as input image data as appropriate) is supplied not only to the frame memory 721 but also to the class classification circuit 711A, the delay selection circuit 712A, and the switching circuit 724. Yes.

ブロック化回路722には、切換回路724から画像データが供給されるようになっている。ブロック化回路722は、そこに供給される画像データから、所定の点(画素)を中心(重心)とする長方形状のブロックを切り出し(抽出し)、切換回路726に出力する。   Image data is supplied from the switching circuit 724 to the blocking circuit 722. The blocking circuit 722 cuts out (extracts) a rectangular block having a predetermined point (pixel) as the center (center of gravity) from the image data supplied thereto, and outputs the extracted block to the switching circuit 726.

判定回路723には、予測演算回路716Bから、式(1)の予測演算を行うことにより得られる画像データが供給されるようになっている。判定回路723は、予測演算回路716Bから供給される画像データについて、後述する判定処理を行い、その判定処理の結果に応じて、予測演算回路716Bからの画像データを、切換回路727に出力し、またはIC700における処理結果として、外部に出力する。   The determination circuit 723 is supplied with image data obtained by performing the prediction calculation of Expression (1) from the prediction calculation circuit 716B. The determination circuit 723 performs determination processing described later on the image data supplied from the prediction calculation circuit 716B, and outputs the image data from the prediction calculation circuit 716B to the switching circuit 727 according to the result of the determination processing. Alternatively, the processing result in the IC 700 is output to the outside.

切換回路724には、入力画像データと、切換回路725が出力する画像データとが供給されるようになっている。切換回路724は、受信部720から供給されるコマンド列に応じて、入力画像データ、または切換回路725が出力する画像データを選択し、ブロック化回路722に出力する。   The switching circuit 724 is supplied with input image data and image data output from the switching circuit 725. The switching circuit 724 selects input image data or image data output from the switching circuit 725 according to the command sequence supplied from the receiving unit 720 and outputs the selected image data to the blocking circuit 722.

また、切換回路724は、受信部720から供給されるコマンド列に応じて、そこに供給される入力画像データを、切換回路725に出力する。   Further, the switching circuit 724 outputs the input image data supplied thereto to the switching circuit 725 according to the command sequence supplied from the receiving unit 720.

切換回路725には、上述したように、切換回路724が出力する画像データが供給される他、切換回路719が出力する画像データも供給されるようになっている。切換回路725は、受信部720から供給されるコマンド列に応じて、切換回路724が出力する画像データを、切換回路726に供給する。   As described above, the switching circuit 725 is supplied not only with the image data output from the switching circuit 724 but also with the image data output from the switching circuit 719. The switching circuit 725 supplies the image data output from the switching circuit 724 to the switching circuit 726 in accordance with the command sequence supplied from the receiving unit 720.

また、切換回路725は、受信部720から供給されるコマンド列に応じて、切換回路724または726のうちのいずれかを選択し、選択した方に対して、切換回路719から供給される画像データを出力する。   The switching circuit 725 selects either the switching circuit 724 or 726 according to the command sequence supplied from the receiving unit 720, and the image data supplied from the switching circuit 719 is selected for the selected one. Is output.

切換回路726は、受信部720から供給されるコマンド列に応じて、ブロック化回路722から供給される画像データ、または切換回路725から供給される画像データのうちのいずれかを選択し、クラス分類回路711Bおよび遅延選択回路712Bに供給する。   The switching circuit 726 selects either the image data supplied from the blocking circuit 722 or the image data supplied from the switching circuit 725 according to the command sequence supplied from the receiving unit 720, and classifies it. This is supplied to the circuit 711B and the delay selection circuit 712B.

切換回路727には、ライン遅延回路717が出力する画像データと、判定回路723が出力する画像データとが供給されるようになっている。切換回路727は、受信部720から供給されるコマンド列に応じて、ライン遅延回路717からの画像データ、または判定回路723からの画像データのうちのいずれかを選択し、クラス分類回路711Bおよび遅延選択回路712Bに出力する。   The switching circuit 727 is supplied with image data output from the line delay circuit 717 and image data output from the determination circuit 723. The switching circuit 727 selects either the image data from the line delay circuit 717 or the image data from the determination circuit 723 according to the command sequence supplied from the receiving unit 720, and selects the class classification circuit 711B and the delay The data is output to the selection circuit 712B.

次に、図65は、図64の受信部720が外部から受信し、IC700の必要なブロックに供給するコマンド列を構成するコマンドの例を示している。   Next, FIG. 65 shows an example of commands constituting a command string received by the receiving unit 720 of FIG. 64 from the outside and supplied to necessary blocks of the IC 700.

第4実施の形態では、コマンドとして、例えば、図65上側に示すような、「Kaizodo 1dimentional」、「Kaizodo 2dimentional」、「Kaizodo 3dimentional」、「Zoom ver1」、「Zoom ver2」などが用意されている。   In the fourth embodiment, for example, “Kaizodo 1dimentional”, “Kaizodo 2dimentional”, “Kaizodo 3dimentional”, “Zoom ver1”, “Zoom ver2”, etc., are prepared as shown in the upper part of FIG. .

コマンド「Kaizodo 1dimentional」、「Kaizodo 2dimentional」、または「Kaizodo 3dimentional」は、それぞれ、1次元空間解像度創造処理、2次元空間解像度創造処理、または3次元空間解像度創造処理、即ち、1次元予測タップ、2次元予測タップ、または3次元予測タップを用いた空間解像度創造処理を要求するコマンドである。   The commands “Kaizodo 1dimentional”, “Kaizodo 2dimentional”, or “Kaizodo 3dimentional” are respectively a one-dimensional spatial resolution creation process, a two-dimensional spatial resolution creation process, or a three-dimensional spatial resolution creation process, that is, a one-dimensional prediction tap, This command requests a spatial resolution creation process using a three-dimensional prediction tap or a three-dimensional prediction tap.

また、コマンド「Zoom ver1」は、ある一定倍率の拡大を行うリサイズ処理を繰り返し行う(再帰的に行う)ことで、所望の倍率に拡大した画像データを得る拡大処理を要求するコマンドである。さらに、コマンド「Zoom ver2」は、所望の倍率の拡大を行うリサイズ処理を1回だけ行うことで、その所望の倍率に拡大した画像データを得る拡大処理を要求するコマンドである。   The command “Zoom ver1” is a command for requesting an enlargement process for obtaining image data enlarged to a desired magnification by repeatedly (recursively) performing a resizing process for enlarging at a certain constant magnification. Further, the command “Zoom ver2” is a command for requesting an enlargement process for obtaining image data enlarged to the desired magnification by performing the resizing process for enlarging the desired magnification only once.

ここで、コマンド「Zoom ver1」に対応する拡大処理を、以下、適宜、再帰的拡大処理という。また、コマンド「Zoom ver2」に対応する拡大処理を、以下、適宜、1回拡大処理という。   Here, the enlargement process corresponding to the command “Zoom ver1” is hereinafter referred to as a recursive enlargement process as appropriate. The enlargement process corresponding to the command “Zoom ver2” is hereinafter referred to as a once enlargement process as appropriate.

受信部720は、以上のようなコマンドの1以上からなるコマンド列を、外部から受信し、IC700の必要なブロックに供給する。   The receiving unit 720 receives a command sequence including one or more of the above commands from the outside, and supplies the command block to a necessary block of the IC 700.

即ち、受信部720は、例えば、図65下側の左に示すように、1つのコマンド「Kaizodo 2dimentional」からなるコマンド列を、外部から受信し、IC700の必要なブロックに供給する。   That is, for example, as shown in the lower left part of FIG. 65, the receiving unit 720 receives a command sequence including one command “Kaizodo 2 dimension” from the outside and supplies the command block to a necessary block of the IC 700.

また、受信部720は、例えば、図65下側の右に示すように、2つのコマンド「Kaizodo 2dimentional」と「Zoom ver1」からなるコマンド列を、外部から受信し、IC700の必要なブロックに供給する。   In addition, the receiving unit 720 receives a command sequence including two commands “Kaizodo 2dimentional” and “Zoom ver1” from the outside as shown in the lower right of FIG. 65, for example, and supplies them to the necessary blocks of the IC 700 To do.

次に、図66は、図64の係数出力部715Aの構成例を示している。   Next, FIG. 66 shows a configuration example of the coefficient output unit 715A of FIG.

図66では、係数出力部715Aは、係数メモリ群731と選択部732で構成されている。   In FIG. 66, the coefficient output unit 715 </ b> A includes a coefficient memory group 731 and a selection unit 732.

係数メモリ群731は、複数の係数メモリで構成され、各係数メモリには、あらかじめ行われた学習により求められた1次元空間解像度創造処理用のタップ係数、2次元空間解像度創造処理用のタップ係数、3次元空間解像度創造処理用のタップ係数、画像のサイズを各種の倍率にリサイズするリサイズ処理用のタップ係数が記憶されている。   The coefficient memory group 731 includes a plurality of coefficient memories, and each coefficient memory includes a tap coefficient for a one-dimensional spatial resolution creation process and a tap coefficient for a two-dimensional spatial resolution creation process, which are obtained by learning performed in advance. A tap coefficient for three-dimensional spatial resolution creation processing and a tap coefficient for resizing processing for resizing the image size to various magnifications are stored.

そして、係数メモリ群731の各係数メモリには、図64のクラス分類回路711Aから切換回路713Aを介してクラスコードが供給される。各係数メモリは、そこに供給されるクラスコードに対応するクラスのタップ係数を読み出し、選択部732に出力する。   A class code is supplied to each coefficient memory of the coefficient memory group 731 from the class classification circuit 711A in FIG. 64 via the switching circuit 713A. Each coefficient memory reads the tap coefficient of the class corresponding to the class code supplied thereto and outputs it to the selection unit 732.

選択部732には、上述したように、係数メモリ群731の各係数メモリから読み出されたタップ係数が供給される他、受信部720からのコマンド列も供給される。選択部732は、受信部211から供給されるコマンド列に応じて、係数メモリ群731の各係数メモリから供給されるタップ係数のうちのいずれかを選択し、予測演算回路716Aに供給する。   As described above, the tap coefficient read from each coefficient memory of the coefficient memory group 731 is supplied to the selection unit 732, and the command string from the reception unit 720 is also supplied. The selection unit 732 selects one of tap coefficients supplied from each coefficient memory of the coefficient memory group 731 according to the command string supplied from the reception unit 211, and supplies the selected tap coefficient to the prediction calculation circuit 716A.

なお、図64の係数出力部715Bも、図66の係数出力回路715Aと同様に構成される。但し、係数出力部715Aと715Bを構成する係数メモリ群731の係数メモリは、同一である必要はない。即ち、係数出力部715Aと715Bには、一部異なる、またはすべて異なる種類のタップ係数を記憶させておくことができる。   Note that the coefficient output unit 715B of FIG. 64 is configured in the same manner as the coefficient output circuit 715A of FIG. However, the coefficient memories of the coefficient memory group 731 constituting the coefficient output units 715A and 715B do not have to be the same. That is, the coefficient output units 715A and 715B can store tap coefficients that are partially different or all different.

次に、図67のフローチャートを参照して、外部から、1つのコマンド「Kaizodo 1dimentional」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, with reference to the flowchart of FIG. 67, the processing of the IC 700 of FIG. 64 when a command sequence including one command “Kaizodo 1 dimension” is transmitted from the outside will be described.

まず、ステップS701において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS702に進む。   First, in step S701, the receiving unit 720 receives a command sequence from the outside, supplies it to the necessary blocks constituting the IC 700, and proceeds to step S702.

ステップS702では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS703に進む。   In step S702, the IC 700 switches its internal structure in accordance with the command string received by the receiving unit 720, and the process proceeds to step S703.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Kaizodo 1dimentional」に応じて、信号線の選択状態を、コマンド「Kaizodo 1dimentional」に対応する1次元空間解像度創造処理を行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) are connected to the signal line according to one command “Kaizodo 1dimentional” constituting the command string. Is switched to perform one-dimensional spatial resolution creation processing corresponding to the command “Kaizodo 1dimentional”.

図68は、信号線の選択状態を、1次元空間解像度創造処理を行うように切り換えたIC700を示している。   FIG. 68 shows an IC 700 in which the signal line selection state is switched to perform the one-dimensional spatial resolution creation process.

図68において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Kaizodo 1dimentional」に応じて、信号線の選択状態を、図68に実線で示すように切り換え、これにより、信号処理として、1次元空間解像度創造処理が行われる。   In FIG. 68, the switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of the IC 700 select a signal line according to one command “Kaizodo 1dimentional” that constitutes a command string. The state is switched as indicated by a solid line in FIG. 68, whereby a one-dimensional spatial resolution creation process is performed as signal processing.

なお、図68において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 68, a signal line indicated by a dotted line means a signal line that is wired but has nothing to do with signal processing by the current IC 700.

図68のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その空間解像度を向上させた、クラス分類適応処理の第2の画像データとしての高解像度の画像データを得る1次元空間解像度創造処理が行われる。   In the IC 700 of FIG. 68, the input image data input to the IC 700 is used as the first image data of the class classification adaptive process, and the spatial resolution is improved, and the high resolution as the second image data of the class classification adaptive process A one-dimensional spatial resolution creation process for obtaining the image data is performed.

以下、図67のフローチャートのステップS703以降の処理は、図68に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S703 in the flowchart of FIG. 67 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS703では、クラス分類適応処理の第2の画像データとしての高解像度の画像データを構成する画素のうち、まだ注目画素としていないものの1つが、注目画素として選択され、ステップS704に進む。   That is, in step S703, one of the pixels constituting the high-resolution image data as the second image data in the class classification adaptation process that has not yet been set as the target pixel is selected as the target pixel, and the process proceeds to step S704.

ステップS704では、クラス分類回路711Aは、クラス分類適応処理の第1の画像データとしての入力画像データから、注目画素についてのクラスタップを選択し、そのクラスタップに基づいて、1次元クラス分類を行う。そして、クラス分類回路711Aは、1次元クラス分類によって得られるクラスコードを、切換回路713Aを介して、係数出力回路715Aに供給し、ステップS704からS705に進む。   In step S704, the class classification circuit 711A selects a class tap for the pixel of interest from the input image data as the first image data of the class classification adaptation process, and performs one-dimensional class classification based on the class tap. . Then, the class classification circuit 711A supplies the class code obtained by the one-dimensional class classification to the coefficient output circuit 715A via the switching circuit 713A, and proceeds from step S704 to S705.

係数出力回路715Aは、受信部720から供給されるコマンド列を構成する1つのコマンド「Kaizodo 1dimentional」に応じて、図66で説明した複数種類のタップ係数のうちの、1次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路715Aは、ステップS705において、その選択しているタップ係数のうちの、クラス分類回路711Aから切換回路713Aを介して供給されるクラスコードに対応するクラスのタップ係数を読み出すことにより取得し、予測演算回路716Aに供給して、ステップS706に進む。   The coefficient output circuit 715A is for one-dimensional spatial resolution creation processing among a plurality of types of tap coefficients described with reference to FIG. 66 in response to one command “Kaizodo 1dimentional” constituting the command sequence supplied from the receiving unit 720. The tap coefficient is selected. In step S705, the coefficient output circuit 715A reads the tap coefficient of the class corresponding to the class code supplied from the class classification circuit 711A via the switching circuit 713A among the selected tap coefficients. Acquired and supplied to the prediction calculation circuit 716A, the process proceeds to step S706.

ステップS706では、遅延選択回路712Aは、クラス分類適応処理の第1の画像データとしての入力画像データから、注目画素についての1次元予測タップを選択し、切換回路714Aを介して、予測演算回路716Aに供給して、ステップS707に進む。   In step S706, the delay selection circuit 712A selects a one-dimensional prediction tap for the pixel of interest from the input image data as the first image data of the class classification adaptation process, and the prediction calculation circuit 716A via the switching circuit 714A. The process proceeds to step S707.

ステップS707では、予測演算回路716Aは、遅延選択回路712Aから切換回路714Aを介して供給される1次元予測タップと、係数出力回路715Aから供給されるタップ係数とを用いて、式(1)のフィルタ演算(1次元フィルタ演算)を行い、これにより、第1の画像データよりも空間解像度を向上させた第2の画像データの注目画素(の画素値)を得て出力する。   In step S707, the prediction calculation circuit 716A uses the one-dimensional prediction tap supplied from the delay selection circuit 712A via the switching circuit 714A and the tap coefficient supplied from the coefficient output circuit 715A, and uses Equation (1). A filter operation (one-dimensional filter operation) is performed, thereby obtaining and outputting a pixel of interest (pixel value) of the second image data in which the spatial resolution is improved as compared with the first image data.

従って、この場合、IC700は、1次元のタップ(予測タップ)を対象としてフィルタリングを行う1次元ディジタルフィルタとして機能することになる。   Therefore, in this case, the IC 700 functions as a one-dimensional digital filter that performs filtering on a one-dimensional tap (prediction tap).

予測演算回路716Aが出力する画像データは、切換回路719を介して、IC700の外部に出力される。   The image data output by the prediction calculation circuit 716A is output to the outside of the IC 700 via the switching circuit 719.

そして、ステップS708に進み、注目画素のフレーム(以下、適宜、注目フレームという)を構成する画素すべてを、注目画素としたかどうかが判定される。ステップS708において、注目フレームを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS703に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds to step S708, and it is determined whether or not all the pixels constituting the frame of the target pixel (hereinafter referred to as the target frame as appropriate) have been set as the target pixel. If it is determined in step S708 that all the pixels constituting the target frame have not yet been set as the target pixel, the process returns to step S703, and the same processing is repeated thereafter.

また、ステップS708において、注目フレームを構成する画素のすべてを、注目画素としたと判定された場合、処理を終了する。   If it is determined in step S708 that all of the pixels constituting the target frame are the target pixels, the process ends.

なお、IC700に対して、注目フレームの次のフレームの入力画像データが供給されている場合は、そのフレームを、新たに、注目フレームとして、ステップS703乃至S708の処理が繰り返される。   If input image data of a frame next to the frame of interest is supplied to the IC 700, the process of steps S703 to S708 is repeated with that frame as a new frame of interest.

次に、図69のフローチャートを参照して、外部から、1つのコマンド「Kaizodo 2dimentional」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, the processing of the IC 700 in FIG. 64 when a command sequence including one command “Kaizodo 2 dimension” is transmitted from the outside will be described with reference to the flowchart in FIG. 69.

まず、ステップS711において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS712に進む。   First, in step S711, the receiving unit 720 receives a command string from the outside, supplies it to the necessary blocks constituting the IC 700, and proceeds to step S712.

ステップS712では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS713に進む。   In step S712, the IC 700 switches its internal structure according to the command string received by the receiving unit 720, and the process proceeds to step S713.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Kaizodo 2dimentional」に応じて、信号線の選択状態を、コマンド「Kaizodo 2dimentional」に対応する2次元空間解像度創造処理を行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) Is switched to perform the two-dimensional spatial resolution creation process corresponding to the command “Kaizodo 2dimentional”.

図70は、信号線の選択状態を、2次元空間解像度創造処理を行うように切り換えたIC700を示している。   FIG. 70 shows an IC 700 in which the signal line selection state is switched to perform a two-dimensional spatial resolution creation process.

図70において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Kaizodo 2dimentional」に応じて、信号線の選択状態を、図70に実線で示すように切り換え、これにより、信号処理として、2次元空間解像度創造処理が行われる。   In FIG. 70, switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of IC 700 select a signal line in accordance with one command “Kaizodo 2dimentional” constituting a command sequence. The state is switched as indicated by a solid line in FIG. 70, whereby a two-dimensional spatial resolution creation process is performed as a signal process.

なお、図70において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 70, a signal line indicated by a dotted line means a signal line that is wired but is not related to signal processing by the current IC 700.

図70のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その空間解像度を向上させた、クラス分類適応処理の第2の画像データとしての高解像度の画像データを得る2次元空間解像度創造処理が行われる。   In the IC 700 of FIG. 70, the input image data input to the IC 700 is used as the first image data of the class classification adaptive process, and the spatial resolution is improved, and the high resolution as the second image data of the class classification adaptive process is improved. Two-dimensional spatial resolution creation processing for obtaining the image data is performed.

以下、図69のフローチャートのステップS713以降の処理は、図70に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S713 in the flowchart of FIG. 69 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS713では、クラス分類適応処理の第2の画像データとしての高解像度の画像データを構成する画素のうち、まだ注目画素としていないものの1つが、注目画素として選択され、ステップS714に進む。   That is, in step S713, one of the pixels constituting the high-resolution image data as the second image data of the class classification adaptive process that has not yet been set as the target pixel is selected as the target pixel, and the process proceeds to step S714.

ステップS714では、クラス分類回路711Aは、クラス分類適応処理の第1の画像データとしての入力画像データと、ライン遅延回路717がその入力画像データを遅延して出力する画像データとから、注目画素についてのクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行う。そして、クラス分類回路711Aは、2次元クラス分類によって得られるクラスコードを、切換回路713Aを介して、係数出力回路715Aに供給し、ステップS714からS715に進む。   In step S714, the class classification circuit 711A determines the target pixel from the input image data as the first image data of the class classification adaptation process and the image data output by the line delay circuit 717 after delaying the input image data. Class taps are selected, and two-dimensional classification is performed based on the class taps. Then, the class classification circuit 711A supplies the class code obtained by the two-dimensional class classification to the coefficient output circuit 715A via the switching circuit 713A, and proceeds from step S714 to S715.

係数出力回路715Aは、受信部720から供給されるコマンド列を構成する1つのコマンド「Kaizodo 2dimentional」に応じて、図66で説明した複数種類のタップ係数のうちの、2次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路715Aは、ステップS715において、その選択しているタップ係数のうちの、クラス分類回路711Aから切換回路713Aを介して供給されるクラスコードに対応するクラスのタップ係数を読み出すことにより取得し、予測演算回路716Aに供給して、ステップS716に進む。   The coefficient output circuit 715A is for two-dimensional spatial resolution creation processing among a plurality of types of tap coefficients described with reference to FIG. 66 in response to one command “Kaizodo 2dimentional” constituting the command sequence supplied from the receiving unit 720. The tap coefficient is selected. In step S715, the coefficient output circuit 715A reads the tap coefficient of the class corresponding to the class code supplied from the class classification circuit 711A via the switching circuit 713A among the selected tap coefficients. Acquired and supplied to the prediction calculation circuit 716A, the process proceeds to step S716.

ステップS716では、遅延選択回路712Aは、クラス分類適応処理の第1の画像データとしての入力画像データと、ライン遅延回路717がその入力画像データを遅延して出力する画像データとから、注目画素についての2次元予測タップを選択し、切換回路714Aを介して、予測演算回路716Aに供給して、ステップS717に進む。   In step S716, the delay selection circuit 712A determines the pixel of interest from the input image data as the first image data of the class classification adaptation process and the image data output by the line delay circuit 717 by delaying the input image data. The two-dimensional prediction tap is selected and supplied to the prediction calculation circuit 716A via the switching circuit 714A, and the process proceeds to step S717.

ステップS717では、予測演算回路716Aは、遅延選択回路712Aから切換回路714Aを介して供給される2次元予測タップと、係数出力回路715Aから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、第1の画像データよりも空間解像度を向上させた第2の画像データの注目画素(の画素値)を得て出力する。   In step S717, the prediction calculation circuit 716A uses the two-dimensional prediction tap supplied from the delay selection circuit 712A via the switching circuit 714A and the tap coefficient supplied from the coefficient output circuit 715A, and uses Equation (1). A filter calculation (two-dimensional filter calculation) is performed, thereby obtaining and outputting a pixel of interest (pixel value) of the second image data having a spatial resolution improved over that of the first image data.

予測演算回路716Aが出力する画像データは、切換回路719を介して、IC700の外部に出力される。   The image data output by the prediction calculation circuit 716A is output to the outside of the IC 700 via the switching circuit 719.

従って、この場合、IC700は、2次元のタップ(予測タップ)を対象としてフィルタリングを行う2次元ディジタルフィルタとして機能することになる。   Therefore, in this case, the IC 700 functions as a two-dimensional digital filter that performs filtering on a two-dimensional tap (prediction tap).

そして、ステップS718に進み、注目画素のフレーム(注目フレーム)を構成する画素すべてを、注目画素としたかどうかが判定される。ステップS718において、注目フレームを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS713に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds to step S718, where it is determined whether or not all the pixels constituting the target pixel frame (target frame) have been set as the target pixel. If it is determined in step S718 that all the pixels constituting the target frame have not yet been set as the target pixel, the process returns to step S713, and the same processing is repeated thereafter.

また、ステップS718において、注目フレームを構成する画素のすべてを、注目画素としたと判定された場合、処理を終了する。   If it is determined in step S718 that all the pixels constituting the target frame are the target pixels, the process ends.

なお、IC700に対して、注目フレームの次のフレームの入力画像データが供給されている場合は、そのフレームを、新たに、注目フレームとして、ステップS713乃至S718の処理が繰り返される。   If the input image data of the frame next to the target frame is supplied to the IC 700, the process of steps S713 to S718 is repeated with that frame as a new target frame.

次に、図71のフローチャートを参照して、外部から、1つのコマンド「Kaizodo 3dimentional」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, processing of the IC 700 in FIG. 64 when a command sequence including one command “Kaizodo 3 dimension” is transmitted from the outside will be described with reference to the flowchart in FIG. 71.

まず、ステップS721において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS722に進む。   First, in step S721, the receiving unit 720 receives a command string from the outside, supplies it to the necessary blocks constituting the IC 700, and proceeds to step S722.

ステップS722では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS723に進む。   In step S722, the IC 700 switches its internal structure according to the command string received by the receiving unit 720, and the process proceeds to step S723.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Kaizodo 3dimentional」に応じて、信号線の選択状態を、コマンド「Kaizodo 3dimentional」に対応する3次元空間解像度創造処理を行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) Is switched to perform the 3D spatial resolution creation process corresponding to the command “Kaizodo 3dimentional”.

図72は、信号線の選択状態を、3次元空間解像度創造処理を行うように切り換えたIC700を示している。   FIG. 72 shows an IC 700 in which the signal line selection state is switched to perform a three-dimensional spatial resolution creation process.

図72において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Kaizodo 3dimentional」に応じて、信号線の選択状態を、図72に実線で示すように切り換え、これにより、信号処理として、3次元空間解像度創造処理が行われる。   In FIG. 72, the switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of the IC 700 select a signal line according to one command “Kaizodo 3dimentional” that constitutes a command string. The state is switched as indicated by a solid line in FIG. 72, whereby a three-dimensional spatial resolution creation process is performed as signal processing.

なお、図72において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 72, a signal line indicated by a dotted line means a signal line that is wired but has nothing to do with signal processing by the current IC 700.

図72のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その空間解像度を向上させた、クラス分類適応処理の第2の画像データとしての高解像度の画像データを得る3次元空間解像度創造処理が行われる。   In the IC 700 of FIG. 72, the input image data input to the IC 700 is used as the first image data of the class classification adaptation process, and the spatial resolution is improved, and the high resolution as the second image data of the class classification adaptation process is improved. A three-dimensional spatial resolution creation process for obtaining the image data is performed.

以下、図71のフローチャートのステップS723以降の処理は、図72に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S723 in the flowchart of FIG. 71 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS723では、クラス分類適応処理の第2の画像データとしての高解像度の画像データを構成する画素のうち、まだ注目画素としていないものの1つが、注目画素として選択され、ステップS724に進む。   That is, in step S723, one of the pixels constituting the high-resolution image data as the second image data of the class classification adaptive process that has not yet been set as the target pixel is selected as the target pixel, and the process proceeds to step S724.

ステップS724では、クラス分類回路711Bは、注目画素についてのクラスタップを選択し、そのクラスタップに基づいて、3次元クラス分類を行う。   In step S724, the class classification circuit 711B selects a class tap for the pixel of interest, and performs three-dimensional class classification based on the class tap.

ここで、図72では、クラス分類回路711Bには、クラス分類適応処理の第1の画像データとしての入力画像データが、切換回路724,725、および726を介して供給される。さらに、クラス分類回路711Bには、入力画像データがライン遅延回路717で1乃至数ライン分だけ遅延され、切換回路727を介して供給される。また、クラス分類回路711Bには、入力画像データがフレームメモリ721で1フレーム分だけ遅延されて供給される。   Here, in FIG. 72, the input image data as the first image data of the class classification adaptive processing is supplied to the class classification circuit 711B via the switching circuits 724, 725, and 726. Further, the input image data is delayed by one or several lines by the line delay circuit 717 and supplied to the class classification circuit 711 B via the switching circuit 727. Also, the input image data is supplied to the class classification circuit 711B after being delayed by one frame in the frame memory 721.

クラス分類回路711Bは、これらの画像データから、クラスタップを選択し、そのクラスタップに基づいて、3次元クラス分類を行う。   The class classification circuit 711B selects a class tap from these image data, and performs three-dimensional class classification based on the class tap.

そして、クラス分類回路711Bは、3次元クラス分類によって得られるクラスコードを、切換回路713Bを介して、係数出力回路715Bに供給し、ステップS724からS725に進む。   Then, the class classification circuit 711B supplies the class code obtained by the three-dimensional class classification to the coefficient output circuit 715B via the switching circuit 713B, and proceeds from step S724 to S725.

係数出力回路715Bは、受信部720から供給されるコマンド列を構成する1つのコマンド「Kaizodo 3dimentional」に応じて、図66で説明した複数種類のタップ係数のうちの、3次元空間解像度創造処理用のタップ係数を選択している。そして、係数出力回路715Bは、ステップS725において、その選択しているタップ係数のうちの、クラス分類回路711Bから切換回路713Bを介して供給されるクラスコードに対応するクラスのタップ係数を読み出すことにより取得し、予測演算回路716Bに供給して、ステップS726に進む。   The coefficient output circuit 715B is for three-dimensional spatial resolution creation processing among a plurality of types of tap coefficients described in FIG. 66 in response to one command “Kaizodo 3dimentional” constituting the command sequence supplied from the receiving unit 720. The tap coefficient is selected. In step S725, the coefficient output circuit 715B reads out the tap coefficient of the class corresponding to the class code supplied from the class classification circuit 711B via the switching circuit 713B among the selected tap coefficients. Acquired and supplied to the prediction calculation circuit 716B, the process proceeds to step S726.

ステップS726では、遅延選択回路712Bは、注目画素についての3次元予測タップを選択し、切換回路714Bを介して、予測演算回路716Bに供給して、ステップS727に進む。   In step S726, the delay selection circuit 712B selects a three-dimensional prediction tap for the pixel of interest, supplies it to the prediction calculation circuit 716B via the switching circuit 714B, and proceeds to step S727.

ここで、図72では、遅延選択回路712Bには、クラス分類適応処理の第1の画像データとしての入力画像データが、切換回路724,725、および726を介して供給される。さらに、遅延選択回路712Bには、入力画像データがライン遅延回路717で1乃至数ライン分だけ遅延され、切換回路727を介して供給される。また、遅延選択回路712Bには、入力画像データがフレームメモリ721で1フレーム分だけ遅延されて供給される。   Here, in FIG. 72, the delay selection circuit 712B is supplied with the input image data as the first image data of the class classification adaptive processing via the switching circuits 724, 725, and 726. Further, the input image data is delayed by one or several lines by the line delay circuit 717 and supplied to the delay selection circuit 712 B via the switching circuit 727. The input image data is supplied to the delay selection circuit 712B after being delayed by one frame in the frame memory 721.

遅延選択回路712Bは、これらの画像データから、3次元予測タップを選択し、切換回路714Bを介して、予測演算回路716Bに供給する。   The delay selection circuit 712B selects a three-dimensional prediction tap from these image data, and supplies it to the prediction calculation circuit 716B via the switching circuit 714B.

ステップS727では、予測演算回路716Bは、遅延選択回路712Bから切換回路714Bを介して供給される3次元予測タップと、係数出力回路715Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(3次元フィルタ演算)を行い、これにより、第1の画像データよりも空間解像度を向上させた第2の画像データの注目画素(の画素値)を得て出力する。   In step S727, the prediction calculation circuit 716B uses the three-dimensional prediction tap supplied from the delay selection circuit 712B via the switching circuit 714B and the tap coefficient supplied from the coefficient output circuit 715B, and uses Equation (1). A filter calculation (three-dimensional filter calculation) is performed, thereby obtaining and outputting a pixel of interest (pixel value) of the second image data in which the spatial resolution is improved as compared with the first image data.

予測演算回路716Bが出力する画像データは、積和演算回路718および切換回路719を介して(バイパスして)、IC700の外部に出力される。   The image data output by the prediction calculation circuit 716B is output to the outside of the IC 700 via (bypass) the product-sum calculation circuit 718 and the switching circuit 719.

従って、この場合、IC700は、3次元のタップ(予測タップ)を対象としてフィルタリングを行う3次元ディジタルフィルタとして機能することになる。   Therefore, in this case, the IC 700 functions as a three-dimensional digital filter that performs filtering on a three-dimensional tap (prediction tap).

そして、ステップS728に進み、注目画素のフレーム(注目フレーム)を構成する画素すべてを、注目画素としたかどうかが判定される。ステップS728において、注目フレームを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS723に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds to step S728, and it is determined whether or not all the pixels constituting the target pixel frame (target frame) are set as the target pixels. If it is determined in step S728 that all the pixels constituting the target frame have not yet been set as the target pixel, the process returns to step S723, and the same processing is repeated thereafter.

また、ステップS728において、注目フレームを構成する画素のすべてを、注目画素としたと判定された場合、処理を終了する。   If it is determined in step S728 that all the pixels constituting the target frame are the target pixels, the process ends.

なお、IC700に対して、注目フレームの次のフレームの入力画像データが供給されている場合は、そのフレームを、新たに、注目フレームとして、ステップS723乃至S728の処理が繰り返される。   If the input image data of the frame next to the frame of interest is supplied to the IC 700, the process of steps S723 to S728 is repeated with that frame as a new frame of interest.

次に、図73のフローチャートを参照して、外部から、2つのコマンド「Kaizodo 2dimentional」および「Kaizodo 3dimentional」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, the processing of the IC 700 in FIG. 64 when a command sequence including two commands “Kaizodo 2dimentional” and “Kaizodo 3dimentional” is transmitted from the outside will be described with reference to the flowchart in FIG.

まず、ステップS731において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS732に進む。   First, in step S731, the receiving unit 720 receives a command string from the outside, supplies it to the necessary blocks that constitute the IC 700, and proceeds to step S732.

ステップS732では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS733に進む。   In step S732, the IC 700 switches its internal structure according to the command string received by the receiving unit 720, and the process proceeds to step S733.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する2つのコマンド「Kaizodo 2dimentional」と「Kaizodo 3dimentional」に応じて、信号線の選択状態を、コマンド「Kaizodo 2dimentional」に対応する2次元空間解像度創造処理を行うとともに、コマンド「Kaizodo 3dimentional」に対応する3次元空間解像度創造処理を行い、2次元空間解像度創造処理の結果得られる画像データと、3次元空間解像度創造処理の結果得られる画像データとを、動きに応じた重みで重み付け加算する処理(以下、適宜、適応的空間解像度創造処理という)を行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) Correspondingly, the 2D spatial resolution creation process corresponding to the command “Kaizodo 3dimentional” and the 2D spatial resolution creation process corresponding to the command “Kaizodo 3dimentional” are performed for the selection state of the signal line. A process of weighting and adding the image data obtained as a result of the processing and the image data obtained as a result of the three-dimensional spatial resolution creation process with a weight according to the motion (hereinafter referred to as adaptive spatial resolution creation process as appropriate) Switch to.

図74は、信号線の選択状態を、適応的空間解像度創造処理を行うように切り換えたIC700を示している。   FIG. 74 shows an IC 700 in which the selection state of signal lines is switched to perform adaptive spatial resolution creation processing.

図74において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する2つのコマンド「Kaizodo 2dimentional」と「Kaizodo 3dimentional」に応じて、信号線の選択状態を、図74に実線で示すように切り換え、これにより、信号処理として、適応的空間解像度創造処理が行われる。   In FIG. 74, the switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of the IC 700 correspond to two commands “Kaizodo 2dimentional” and “Kaizodo 3dimentional” constituting the command sequence. The selection state of the signal line is switched as indicated by a solid line in FIG. 74, whereby adaptive spatial resolution creation processing is performed as signal processing.

なお、図74において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 74, a signal line indicated by a dotted line means a signal line that is wired but is not related to the current signal processing by the IC 700.

図74のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その空間解像度を向上させた、クラス分類適応処理の第2の画像データとしての高解像度の画像データを得る2次元空間解像度創造処理と3次元空間解像度創造処理とが同時に行われる。そして、2次元空間解像度創造処理の結果得られる画像データと、3次元空間解像度創造処理の結果得られる画像データとが、画像の動きに応じた重みで重み付け加算される。   In the IC 700 of FIG. 74, the input image data input to the IC 700 is used as the first image data of the class classification adaptation process, and the spatial resolution is improved, and the high resolution as the second image data of the class classification adaptation process Two-dimensional spatial resolution creation processing and three-dimensional spatial resolution creation processing for obtaining the image data are performed simultaneously. Then, the image data obtained as a result of the two-dimensional spatial resolution creation process and the image data obtained as a result of the three-dimensional spatial resolution creation process are weighted and added with a weight according to the motion of the image.

以下、図73のフローチャートのステップS733以降の処理は、図74に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S733 in the flowchart of FIG. 73 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS733では、注目画素が選択され、ステップS734に進む。   That is, in step S733, the target pixel is selected, and the process proceeds to step S734.

ステップS734では、注目画素について、図69および図70で説明した2次元空間解像度創造処理と、図71および図72で説明した3次元空間解像度創造処理が行われる。そして、2次元空間解像度創造処理により得られる注目画素の画素値が、予測演算回路716Aから積和演算回路718に供給されるとともに、3次元空間解像度創造処理により得られる注目画素の画素値が、予測演算回路716Bから積和演算回路718に供給される。   In step S734, the two-dimensional spatial resolution creation process described with reference to FIGS. 69 and 70 and the three-dimensional spatial resolution creation process described with reference to FIGS. 71 and 72 are performed on the target pixel. Then, the pixel value of the target pixel obtained by the two-dimensional spatial resolution creation process is supplied from the prediction arithmetic circuit 716A to the product-sum operation circuit 718, and the pixel value of the target pixel obtained by the three-dimensional spatial resolution creation process is The prediction operation circuit 716 </ b> B supplies the product-sum operation circuit 718.

また、ステップS734では、クラス分類回路711Bが、第3実施の形態で説明した図59のクラス分類回路511Bにおける場合と同様にして、入力画像データの動きを検出し、その動きを表す動き情報Kを、積和演算回路718に供給する。   In step S734, the class classification circuit 711B detects the movement of the input image data in the same manner as in the class classification circuit 511B of FIG. 59 described in the third embodiment, and motion information K representing the movement is obtained. Is supplied to the product-sum operation circuit 718.

その後、ステップS734からS735に進み、積和演算回路718は、予測演算回路716Aからの2次元空間解像度創造処理によって得られた注目画素の画素値と、予測演算回路716Bからの3次元空間解像度創造処理によって得られた注目画素の画素値との重み付け加算を、クラス分類回路711Bから供給される、注目画素に対応する入力画像データの画素の動き情報Kを重み係数として行う。   Thereafter, the process proceeds from step S734 to S735, and the product-sum operation circuit 718 generates the pixel value of the target pixel obtained by the two-dimensional spatial resolution creation processing from the prediction calculation circuit 716A and the three-dimensional spatial resolution creation from the prediction calculation circuit 716B. Weighted addition with the pixel value of the target pixel obtained by the processing is performed using the pixel motion information K of the input image data corresponding to the target pixel supplied from the class classification circuit 711B as a weighting coefficient.

即ち、2次元空間解像度創造処理または3次元空間解像度創造処理によって得られた画素値を、それぞれP2またはP3とするとともに、動き情報Kが0乃至1の範囲の値をとするものとすると、積和演算回路718は、式P=K×P2+(1−K)×P3にしたがって、適応的空間解像度創造処理の結果としての画素値(注目画素の画素値)Pを求める。   That is, if the pixel values obtained by the two-dimensional spatial resolution creation process or the three-dimensional spatial resolution creation process are P2 and P3, respectively, and the motion information K has a value in the range of 0 to 1, The sum calculation circuit 718 obtains a pixel value (pixel value of the target pixel) P as a result of the adaptive spatial resolution creation process according to the equation P = K × P2 + (1−K) × P3.

積和演算回路718で求められた画素値は、切換回路719を介して、IC700の外部に出力される。   The pixel value obtained by the product-sum operation circuit 718 is output to the outside of the IC 700 via the switching circuit 719.

そして、ステップS735からS736に進み、注目画素のフレーム(注目フレーム)を構成する画素すべてを、注目画素としたかどうかが判定される。ステップS736において、注目フレームを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS733に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds from step S735 to S736, and it is determined whether or not all the pixels constituting the target pixel frame (target frame) are the target pixels. If it is determined in step S736 that all the pixels constituting the target frame have not yet been set as the target pixel, the process returns to step S733, and the same processing is repeated thereafter.

また、ステップS736において、注目フレームを構成する画素のすべてを、注目画素としたと判定された場合、処理を終了する。   If it is determined in step S736 that all the pixels constituting the target frame are the target pixels, the process ends.

なお、IC700に対して、注目フレームの次のフレームの入力画像データが供給されている場合は、そのフレームを、新たに、注目フレームとして、ステップS733乃至S736の処理が繰り返される。   If input image data of a frame next to the frame of interest is supplied to the IC 700, the process of steps S733 to S736 is repeated with that frame as a new frame of interest.

次に、図75のフローチャートを参照して、外部から、1つのコマンド「Zoom ver1」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, the processing of the IC 700 in FIG. 64 when a command sequence consisting of one command “Zoom ver1” is transmitted from the outside will be described with reference to the flowchart in FIG.

まず、ステップS741において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS742に進む。   First, in step S741, the receiving unit 720 receives a command string from the outside, supplies it to the necessary blocks that constitute the IC 700, and proceeds to step S742.

ステップS742では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS743に進む。   In step S742, the IC 700 switches the internal structure according to the command string received by the receiving unit 720, and the process proceeds to step S743.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Zoom ver1」に応じて、信号線の選択状態を、コマンド「Zoom ver1」に対応する再帰的拡大処理を行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) Is switched to perform recursive enlargement processing corresponding to the command “Zoom ver1”.

図76は、信号線の選択状態を、再帰的拡大処理を行うように切り換えたIC700を示している。   FIG. 76 shows an IC 700 in which the signal line selection state is switched to perform recursive enlargement processing.

図76において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Zoom ver1」に応じて、信号線の選択状態を、図76に実線で示すように切り換え、これにより、信号処理として、再帰的拡大処理が行われる。   In FIG. 76, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 select the signal line according to one command “Zoom ver1” that constitutes the command sequence. The state is switched as indicated by a solid line in FIG. 76, whereby recursive enlargement processing is performed as signal processing.

なお、図76において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 76, a signal line indicated by a dotted line means a signal line that is wired but has nothing to do with signal processing by the current IC 700.

図76のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その一部のブロックを、ユーザが要求する所望の(要求倍率)で倍率にリサイズした、クラス分類適応処理の第2の画像データとしてのサイズが拡大された画像データを得る再帰的拡大処理が行われる。   In the IC 700 of FIG. 76, the input image data input to the IC 700 is used as the first image data of the classification adaptation process, and a part of the blocks is resized to a magnification (desired magnification) desired by the user. Then, a recursive enlargement process is performed to obtain image data having an enlarged size as the second image data in the class classification adaptation process.

なお、所望の倍率は、例えば、コマンド「Zoom ver1」のパラメータp1として、コマンド列に含まれるものとする。さらに、コマンド列には、入力画像データを拡大するときに、その拡大の中心となる位置も、コマンド「Zoom ver1」のパラメータp2として含まれるものとする。   It is assumed that the desired magnification is included in the command string, for example, as the parameter p1 of the command “Zoom ver1”. Further, it is assumed that the position that becomes the center of enlargement when the input image data is enlarged is also included in the command string as the parameter p2 of the command “Zoom ver1”.

以下、図75のフローチャートのステップS743以降の処理は、図76に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S743 in the flowchart of FIG. 75 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS743では、ブロック化回路722が、切換回路724を介して供給される入力画像データの拡大の対象となるブロックを抽出する。   That is, in step S743, the blocking circuit 722 extracts a block that is an object of enlargement of input image data supplied via the switching circuit 724.

即ち、ブロック化回路722は、受信部720から供給されるコマンド列に含まれるコマンド「Zoom ver1」のパラメータp1が表す倍率と、入力画像データのサイズとから、パラメータp1が表す倍率だけ拡大することによって、入力画像データのサイズとなるブロックのサイズ(以下、適宜、抽出サイズという)を認識する。さらに、ブロック化回路722は、受信部720から供給されるコマンド列に含まれるコマンド「Zoom ver1」のパラメータp2が表す位置を中心(重心)として、抽出サイズのブロックの画像データを、入力画像データから抽出する。なお、ここでは、例えば、ブロックの水平および垂直方向の両方を、パラメータp1が表す倍率で拡大するものとする。   That is, the blocking circuit 722 expands by the magnification represented by the parameter p1 from the magnification represented by the parameter “p1” of the command “Zoom ver1” included in the command sequence supplied from the receiving unit 720 and the size of the input image data. Thus, the block size (hereinafter referred to as the extraction size as appropriate) that is the size of the input image data is recognized. Further, the blocking circuit 722 converts the image data of the extracted size block into the input image data with the position (center of gravity) represented by the parameter “p2” of the command “Zoom ver1” included in the command sequence supplied from the receiving unit 720 as the center (center of gravity). Extract from In this case, for example, both the horizontal and vertical directions of the block are enlarged at a magnification represented by the parameter p1.

抽出サイズのブロックの画像データは、ブロック化回路722から、切換回路726を介して、クラス分類回路711Bおよび遅延選択回路712Bに供給される。   Image data of the extracted size block is supplied from the blocking circuit 722 to the class classification circuit 711B and the delay selection circuit 712B via the switching circuit 726.

その後、ステップS743からS744に進み、抽出サイズのブロックの画像データを拡大することにより得られる、クラス分類適応処理の第2の画像データとしての拡大画像データを構成する画素のうち、まだ注目画素としていないものの1つが、注目画素として選択され、ステップS745に進む。   Thereafter, the process proceeds from step S743 to S744, and among the pixels constituting the enlarged image data as the second image data of the class classification adaptive process obtained by enlarging the image data of the extracted size block, it is still a target pixel. One that does not exist is selected as the target pixel, and the process proceeds to step S745.

ステップS745では、クラス分類回路711Bは、ブロック化回路722から切換回路726を介して供給される抽出サイズのブロックの画像データから、注目画素についてのクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行う。   In step S745, the class classification circuit 711B selects a class tap for the pixel of interest from the image data of the extracted size block supplied from the blocking circuit 722 via the switching circuit 726, and based on the class tap, Perform two-dimensional classification.

そして、クラス分類回路711Bは、2次元クラス分類によって得られるクラスコードを、切換回路713Bを介して、係数出力回路715Bに供給し、ステップS745からS746に進む。   Then, the class classification circuit 711B supplies the class code obtained by the two-dimensional class classification to the coefficient output circuit 715B via the switching circuit 713B, and proceeds from step S745 to S746.

係数出力回路715Bは、受信部720から供給されるコマンド列を構成する1つのコマンド「Zoom ver1」に応じて、図66で説明した複数種類のタップ係数のうちの、リサイズ処理用のタップ係数を選択している。   The coefficient output circuit 715B selects a tap coefficient for resizing processing from among a plurality of types of tap coefficients described with reference to FIG. 66 in response to one command “Zoom ver1” that configures a command sequence supplied from the receiving unit 720. Selected.

なお、係数出力回路715Bが、受信部720から供給されるコマンド列を構成する1つのコマンド「Zoom ver1」に応じて選択するリサイズ処理用のタップ係数は、画像を、あらかじめ定められた倍率(例えば、1.1倍などの比較的低い倍率)に拡大するものである。従って、係数出力回路715Bが、コマンド「Zoom ver1」に応じて選択するリサイズ処理用のタップ係数は、画像を、パラメータp1が表す倍率に拡大するものであるとは限らない。   The coefficient output circuit 715B selects a resizing process tap coefficient selected according to one command “Zoom ver1” constituting the command sequence supplied from the receiving unit 720, and the image is obtained by multiplying an image with a predetermined magnification (for example, , Relatively low magnification such as 1.1 times). Therefore, the tap coefficient for resizing processing selected by the coefficient output circuit 715B according to the command “Zoom ver1” does not necessarily expand the image to the magnification represented by the parameter p1.

但し、係数出力回路715Bにおいては、複数の倍率それぞれの拡大を行うリサイズ処理用の複数セットのタップ係数を用意しておき、その複数セットのタップ係数の中から、コマンド「Zoom ver1」に応じて、1セットのタップ係数(例えば、パラメータp1が表す倍率に最も近い倍率の拡大を行うものなど)を選択するようにしてもよい。   However, in the coefficient output circuit 715B, a plurality of sets of tap coefficients for resizing processing for enlarging each of a plurality of magnifications are prepared, and the command “Zoom ver1” is selected from the plurality of sets of tap coefficients. One set of tap coefficients (for example, one that enlarges the magnification closest to the magnification represented by the parameter p1) may be selected.

係数出力回路715Bは、ステップS746において、クラス分類回路711Bから切換回路713Bを介して供給されるクラスコードに対応するクラスのタップ係数を、コマンド「Zoom ver1」に応じて選択しているリサイズ処理用のタップ係数の中から読み出すことにより取得し、予測演算回路716Bに供給して、ステップS747に進む。   In step S746, the coefficient output circuit 715B selects the tap coefficient of the class corresponding to the class code supplied from the class classification circuit 711B via the switching circuit 713B according to the command “Zoom ver1”. Is obtained by reading from the tap coefficients, and is supplied to the prediction calculation circuit 716B, and the process proceeds to step S747.

ステップS747では、遅延選択回路712Bは、ブロック化回路722から切換回路726を介して供給される抽出サイズのブロックの画像データから、注目画素についての2次元予測タップを選択し、切換回路714Bを介して、予測演算回路716Bに供給して、ステップS748に進む。   In step S747, the delay selection circuit 712B selects a two-dimensional prediction tap for the pixel of interest from the image data of the extracted size block supplied from the blocking circuit 722 via the switching circuit 726, and passes through the switching circuit 714B. Is supplied to the prediction calculation circuit 716B, and the process proceeds to step S748.

ステップS748では、予測演算回路716Bは、遅延選択回路712Bから切換回路714Bを介して供給される2次元予測タップと、係数出力回路715Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、拡大画像データの注目画素(の画素値)を得て出力する。   In step S748, the prediction calculation circuit 716B uses the two-dimensional prediction tap supplied from the delay selection circuit 712B via the switching circuit 714B and the tap coefficient supplied from the coefficient output circuit 715B, and uses Equation (1). A filter operation (two-dimensional filter operation) is performed, and thereby a target pixel (pixel value) of the enlarged image data is obtained and output.

予測演算回路716Bが出力する拡大画像データは、判定回路723に供給される。   The enlarged image data output from the prediction calculation circuit 716B is supplied to the determination circuit 723.

そして、ステップS749に進み、拡大画像データを構成する画素すべてを、注目画素としたかどうかが判定される。ステップS749において、拡大画像データを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS744に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds to step S749, where it is determined whether or not all the pixels constituting the enlarged image data are the target pixel. If it is determined in step S749 that all the pixels constituting the enlarged image data have not yet been set as the target pixel, the process returns to step S744, and the same processing is repeated thereafter.

また、ステップS749において、拡大画像を構成する画素のすべてを、注目画素としたと判定された場合、ステップS750に進み、判定回路723は、予測演算回路716Bから供給された拡大画像データが、抽出サイズのブロックの画像データを、パラメータp1が表す倍率に拡大したサイズになっているかどうかを判定する。   If it is determined in step S749 that all the pixels constituting the enlarged image are the target pixels, the process proceeds to step S750, and the determination circuit 723 extracts the enlarged image data supplied from the prediction calculation circuit 716B. It is determined whether or not the size of the image data of the block is enlarged to the magnification indicated by the parameter p1.

ステップS750において、予測演算回路716Bからの拡大画像データが、抽出サイズのブロックの画像データを、パラメータp1が表す倍率に拡大したサイズになっていないと判定された場合、即ち、予測演算回路716Bからの拡大画像データのサイズが、抽出サイズのブロックの画像データを、パラメータp1が表す倍率に拡大したサイズよりも小さい場合、ステップS751に進み、判定回路723は、予測演算回路716Bからの拡大画像データを、切換回路727を介して、クラス分類回路711Bおよび選択遅延回路712Bにフィードバック(供給)し、ステップS744に戻る。   In step S750, when it is determined that the enlarged image data from the prediction calculation circuit 716B does not have a size obtained by enlarging the image data of the extracted size block to the magnification represented by the parameter p1, that is, from the prediction calculation circuit 716B. When the size of the enlarged image data is smaller than the size obtained by enlarging the image data of the extracted size block to the magnification represented by the parameter p1, the process proceeds to step S751, and the determination circuit 723 receives the enlarged image data from the prediction arithmetic circuit 716B. Is fed back (supplied) to the class classification circuit 711B and the selection delay circuit 712B via the switching circuit 727, and the process returns to step S744.

そして、判定回路723から、クラス分類回路711Bおよび選択遅延回路712Bに対してフィードバックされた拡大画像データ(以下、適宜、フィードバック画像データという)を対象として、ステップS744以降の処理が繰り返される。   Then, the processing from step S744 onward is repeated for the enlarged image data fed back from the determination circuit 723 to the class classification circuit 711B and the selection delay circuit 712B (hereinafter referred to as feedback image data as appropriate).

即ち、この場合、ステップS744において、フィードバック画像データを、パラメータp1が表す倍率だけ拡大することにより得られる、クラス分類適応処理の第2の画像データとしての拡大画像データを構成する画素のうち、まだ注目画素としていないものの1つが、注目画素として選択され、ステップS745に進む。   That is, in this case, in step S744, among the pixels constituting the enlarged image data as the second image data of the class classification adaptive processing obtained by enlarging the feedback image data by the magnification represented by the parameter p1, One of the pixels that is not the target pixel is selected as the target pixel, and the process proceeds to step S745.

ステップS745では、クラス分類回路711Bは、判定回路723からのフィードバック画像データから、注目画素についてのクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行い、その2次元クラス分類によって得られるクラスコードを、切換回路713Bを介して、係数出力回路715Bに供給して、ステップS745からS746に進む。   In step S745, the class classification circuit 711B selects a class tap for the target pixel from the feedback image data from the determination circuit 723, performs two-dimensional class classification based on the class tap, and performs the two-dimensional class classification. The obtained class code is supplied to the coefficient output circuit 715B via the switching circuit 713B, and the process proceeds from step S745 to S746.

係数出力回路715Bは、ステップS746において、クラス分類回路711Bから、切換回路713Bを介して供給されるクラスコードに対応するクラスのタップ係数を、コマンド「Zoom ver1」に応じて選択しているリサイズ処理用のタップ係数の中から読み出すことにより取得し、予測演算回路716Bに供給して、ステップS747に進む。   In step S746, the coefficient output circuit 715B selects the tap coefficient of the class corresponding to the class code supplied from the class classification circuit 711B via the switching circuit 713B according to the command “Zoom ver1”. Is obtained by reading from the tap coefficients for use, supplied to the prediction calculation circuit 716B, and the process proceeds to step S747.

ステップS747では、遅延選択回路712Bは、判定回路723からのフィードバック画像データから、注目画素についての2次元予測タップを選択し、切換回路714Bを介して、予測演算回路716Bに供給して、ステップS748に進む。   In step S747, the delay selection circuit 712B selects a two-dimensional prediction tap for the target pixel from the feedback image data from the determination circuit 723, and supplies the selected two-dimensional prediction tap to the prediction calculation circuit 716B via the switching circuit 714B. Proceed to

ステップS748では、予測演算回路716Bは、遅延選択回路712Bから切換回路714Bを介して供給される2次元予測タップと、係数出力回路715Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、拡大画像データの注目画素(の画素値)を得て、判定回路723に出力する。   In step S748, the prediction calculation circuit 716B uses the two-dimensional prediction tap supplied from the delay selection circuit 712B via the switching circuit 714B and the tap coefficient supplied from the coefficient output circuit 715B, and uses Equation (1). A filter operation (two-dimensional filter operation) is performed, whereby a target pixel (pixel value) of the enlarged image data is obtained and output to the determination circuit 723.

そして、ステップS749に進み、拡大画像データを構成する画素すべてを、注目画素としたかどうかが判定される。ステップS749において、拡大画像データを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS744に戻り、以下、同様の処理が繰り返される。   Then, the process proceeds to step S749, where it is determined whether or not all the pixels constituting the enlarged image data are the target pixel. If it is determined in step S749 that all the pixels constituting the enlarged image data have not yet been set as the target pixel, the process returns to step S744, and the same processing is repeated thereafter.

また、ステップS749において、拡大画像を構成する画素のすべてを、注目画素としたと判定された場合、ステップS750に進み、上述したように、判定回路723において、予測演算回路716Bから供給された拡大画像データが、抽出サイズのブロックの画像データを、パラメータp1が表す倍率に拡大したサイズになっているかどうかが判定される。   If it is determined in step S749 that all of the pixels constituting the enlarged image are the target pixel, the process proceeds to step S750, and as described above, in the determination circuit 723, the enlargement supplied from the prediction arithmetic circuit 716B. It is determined whether or not the image data has a size obtained by enlarging the image data of the extracted size block to the magnification represented by the parameter p1.

そして、ステップS750において、予測演算回路716Bからの拡大画像データが、抽出サイズのブロックの画像データを、パラメータp1が表す倍率に拡大したサイズになっていると判定された場合、判定回路723は、予測演算回路716Bからの拡大画像データを、IC700の外部に出力し、処理を終了する。   If it is determined in step S750 that the enlarged image data from the prediction calculation circuit 716B has a size obtained by enlarging the image data of the extracted size block to the magnification represented by the parameter p1, the determination circuit 723 The enlarged image data from the prediction calculation circuit 716B is output to the outside of the IC 700, and the process is terminated.

従って、この場合、IC700は、画像の拡大を行う拡大装置として機能することになる。   Therefore, in this case, the IC 700 functions as an enlargement device that enlarges an image.

なお、IC700に対して、次のフレームの入力画像データが供給されている場合は、その、次のフレームを対象として、ステップS743乃至S751の処理が繰り返される。   If input image data of the next frame is supplied to the IC 700, the processes of steps S743 to S751 are repeated for the next frame.

次に、図77のフローチャートを参照して、外部から、1つのコマンド「Zoom ver2」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, the processing of the IC 700 in FIG. 64 when a command sequence consisting of one command “Zoom ver2” is transmitted from the outside will be described with reference to the flowchart in FIG. 77.

まず、ステップS761において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS762に進む。   First, in step S761, the receiving unit 720 receives a command string from the outside, supplies it to the necessary blocks constituting the IC 700, and proceeds to step S762.

ステップS762では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS763に進む。   In step S762, the IC 700 switches the internal structure in accordance with the command string received by the receiving unit 720, and the process proceeds to step S763.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Zoom ver2」に応じて、信号線の選択状態を、コマンド「Zoom ver2」に対応する1回拡大処理を行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) are connected to the signal line according to one command “Zoom ver2” constituting the command sequence. The selection state of is switched so that the one-time enlargement process corresponding to the command “Zoom ver2” is performed.

図78は、信号線の選択状態を、1回拡大処理を行うように切り換えたIC700を示している。   FIG. 78 shows the IC 700 in which the signal line selection state is switched to perform the enlargement process once.

図78において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する1つのコマンド「Zoom ver2」に応じて、信号線の選択状態を、図78に実線で示すように切り換え、これにより、信号処理として、1回拡大処理を行う。   In FIG. 78, the switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of the IC 700 select the signal line according to one command “Zoom ver2” that constitutes a command string. The state is switched as indicated by a solid line in FIG. 78, and as a result, enlargement processing is performed once.

なお、図78において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 78, a signal line indicated by a dotted line means a signal line that is wired but is not related to the current signal processing by the IC 700.

図78のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その一部のブロックを、ユーザが要求する所望の倍率(要求倍率)でリサイズした、クラス分類適応処理の第2の画像データとしてのサイズが拡大された画像データを得る1回拡大処理が行われる。   In the IC 700 of FIG. 78, the input image data input to the IC 700 is used as the first image data of the class classification adaptation process, and a part of the blocks is resized at a desired magnification (request magnification) requested by the user. A one-time enlargement process is performed to obtain image data having an enlarged size as the second image data in the class classification adaptive process.

なお、所望の倍率は、例えば、コマンド「Zoom ver2」のパラメータp1として、コマンド列に含まれるものとする。さらに、コマンド列には、入力画像データを拡大するときに、その拡大の中心となる位置も、コマンド「Zoom ver2」のパラメータp2として含まれるものとする。   Note that the desired magnification is included in the command string, for example, as the parameter p1 of the command “Zoom ver2”. Further, it is assumed that the position that becomes the center of enlargement when the input image data is enlarged is also included in the command string as the parameter p2 of the command “Zoom ver2”.

以下、図77のフローチャートのステップS763以降の処理は、図78に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S763 in the flowchart of FIG. 77 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS763では、ブロック化回路722が、図75のステップS743における場合と同様に、切換回路724を介して供給される入力画像データの拡大の対象となるブロックを抽出する。   That is, in step S763, the blocking circuit 722 extracts a block that is an object of enlargement of input image data supplied via the switching circuit 724, as in step S743 of FIG.

即ち、ブロック化回路722は、受信部720から供給されるコマンド列に含まれるコマンド「Zoom ver2」のパラメータp1が表す倍率と、入力画像データのサイズとから、パラメータp1が表す倍率だけ拡大することによって、入力画像データのサイズとなるブロックのサイズ(抽出サイズ)を認識する。さらに、ブロック化回路722は、受信部720から供給されるコマンド列に含まれるコマンド「Zoom ver2」のパラメータp2が表す位置を中心(重心)として、抽出サイズのブロックの画像データを、入力画像データから抽出する。   That is, the blocking circuit 722 enlarges by the magnification represented by the parameter p1 from the magnification represented by the parameter “p1” of the command “Zoom ver2” included in the command sequence supplied from the receiving unit 720 and the size of the input image data. Thus, the block size (extraction size) that is the size of the input image data is recognized. Further, the blocking circuit 722 converts the image data of the extracted size block into the input image data with the position (center of gravity) indicated by the parameter “p2” of the command “Zoom ver2” included in the command sequence supplied from the receiving unit 720 as the center (center of gravity). Extract from

抽出サイズのブロックの画像データは、ブロック化回路722から、切換回路726を介して、クラス分類回路711Bおよび遅延選択回路712Bに供給される。   Image data of the extracted size block is supplied from the blocking circuit 722 to the class classification circuit 711B and the delay selection circuit 712B via the switching circuit 726.

その後、ステップS763からS764に進み、抽出サイズのブロックの画像データを拡大することにより得られる、クラス分類適応処理の第2の画像データとしての拡大画像データを構成する画素のうち、まだ注目画素としていないものの1つが、注目画素として選択され、ステップS765に進む。   After that, the process proceeds from step S763 to S764, and among the pixels constituting the enlarged image data as the second image data of the class classification adaptive processing obtained by enlarging the image data of the extracted size block, it is still a target pixel. One that does not exist is selected as the target pixel, and the process proceeds to step S765.

ステップS765では、クラス分類回路711Bは、ブロック化回路722から切換回路726を介して供給される抽出サイズのブロックの画像データから、注目画素についてのクラスタップを選択し、そのクラスタップに基づいて、2次元クラス分類を行う。   In step S765, the class classification circuit 711B selects a class tap for the pixel of interest from the image data of the extracted size block supplied from the blocking circuit 722 via the switching circuit 726, and based on the class tap, Perform two-dimensional classification.

そして、クラス分類回路711Bは、2次元クラス分類によって得られるクラスコードを、切換回路713Bを介して、係数出力回路715Bに供給し、ステップS765からS766に進む。   Then, the class classification circuit 711B supplies the class code obtained by the two-dimensional class classification to the coefficient output circuit 715B via the switching circuit 713B, and proceeds from step S765 to S766.

係数出力回路715Bは、受信部720から供給されるコマンド列を構成する1つのコマンド「Zoom ver2」に応じて、図66で説明した複数種類のタップ係数のうちの、画像をパラメータp1が表す倍率に拡大するリサイズ処理用のタップ係数を選択している。   The coefficient output circuit 715B, according to one command “Zoom ver2” configuring the command sequence supplied from the receiving unit 720, the magnification that the parameter p1 represents the image of the plural types of tap coefficients described in FIG. The tap coefficient for the resizing process to be enlarged is selected.

係数出力回路715Bは、ステップS766において、クラス分類回路711Bから、切換回路713Bを介して供給されるクラスコードに対応するクラスのタップ係数を、コマンド「Zoom ver2」に応じて選択しているリサイズ処理用のタップ係数の中から読み出すことにより取得し、予測演算回路716Bに供給して、ステップS767に進む。   In step S766, the coefficient output circuit 715B selects the tap coefficient of the class corresponding to the class code supplied from the class classification circuit 711B via the switching circuit 713B according to the command “Zoom ver2”. Is obtained by reading from the tap coefficients for use, supplied to the prediction calculation circuit 716B, and proceeds to step S767.

ステップS767では、遅延選択回路712Bは、ブロック化回路722から切換回路726を介して供給される抽出サイズのブロックの画像データから、注目画素についての2次元予測タップを選択し、切換回路714Bを介して、予測演算回路716Bに供給して、ステップS768に進む。   In step S767, the delay selection circuit 712B selects a two-dimensional prediction tap for the pixel of interest from the image data of the extracted size block supplied from the blocking circuit 722 via the switching circuit 726, and passes through the switching circuit 714B. Is supplied to the prediction calculation circuit 716B, and the process proceeds to step S768.

ステップS768では、予測演算回路716Bは、遅延選択回路712Bから切換回路714Bを介して供給される2次元予測タップと、係数出力回路715Bから供給されるタップ係数とを用いて、式(1)のフィルタ演算(2次元フィルタ演算)を行い、これにより、抽出サイズのブロックの画像データをパラメータp1が表す倍率で拡大した拡大画像データの注目画素(の画素値)を得て出力する。   In step S768, the prediction calculation circuit 716B uses the two-dimensional prediction tap supplied from the delay selection circuit 712B via the switching circuit 714B and the tap coefficient supplied from the coefficient output circuit 715B, and uses Equation (1). A filter operation (two-dimensional filter operation) is performed, thereby obtaining and outputting a pixel of interest (pixel value) of enlarged image data obtained by enlarging the image data of the extracted size block at a magnification represented by the parameter p1.

予測演算回路716Bが出力する拡大画像データは、判定回路723を介して、IC700の外部に出力される。   The enlarged image data output by the prediction calculation circuit 716B is output to the outside of the IC 700 via the determination circuit 723.

ステップS769に進み、拡大画像データを構成する画素すべてを、注目画素としたかどうかが判定される。ステップS769において、拡大画像データを構成する画素のすべてを、まだ、注目画素としていないと判定された場合、ステップS764に戻り、以下、同様の処理が繰り返される。   Proceeding to step S769, it is determined whether all the pixels constituting the enlarged image data have been set as the target pixel. If it is determined in step S769 that all the pixels constituting the enlarged image data have not yet been set as the target pixel, the process returns to step S764, and the same processing is repeated thereafter.

また、ステップS769において、拡大画像を構成する画素のすべてを、注目画素としたと判定された場合、処理を終了する。   If it is determined in step S769 that all the pixels constituting the enlarged image are the target pixels, the process is terminated.

従って、この場合も、IC700は、画像の拡大を行う拡大装置として機能することになる。   Therefore, in this case as well, the IC 700 functions as an enlargement device that enlarges an image.

なお、IC700に対して、次のフレームの入力画像データが供給されている場合は、その、次のフレームを対象として、ステップS764乃至S769の処理が繰り返される。   If input image data of the next frame is supplied to the IC 700, the processes of steps S764 to S769 are repeated for the next frame.

次に、図79のフローチャートを参照して、外部から、2つのコマンド「Kaizodo 2dimentional」および「Zoom ver1」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, with reference to the flowchart of FIG. 79, the processing of the IC 700 of FIG. 64 when a command sequence including two commands “Kaizodo 2 dimension” and “Zoom ver1” is transmitted from the outside will be described.

まず、ステップS781において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS782に進む。   First, in step S781, the receiving unit 720 receives a command sequence from the outside, supplies it to the necessary blocks that constitute the IC 700, and proceeds to step S782.

ステップS782では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS783に進む。   In step S782, the IC 700 switches the internal structure in accordance with the command string received by the receiving unit 720, and the process proceeds to step S783.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する2つのコマンド「Kaizodo 2dimentional」および「Zoom ver1」に応じて、信号線の選択状態を、コマンド「Kaizodo 2dimentional」に対応する2次元空間解像度創造処理と、コマンド「Zoom ver1」に対応する再帰的拡大処理とを行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) use two commands “Kaizodo 2dimentional” and “Zoom ver1” that constitute the command sequence. In response, the signal line selection state is switched to perform a two-dimensional spatial resolution creation process corresponding to the command “Kaizodo 2 dimension” and a recursive enlargement process corresponding to the command “Zoom ver1”.

図80は、信号線の選択状態を、2次元空間解像度創造処理を行い、さらに、その処理結果を対象として、再帰的拡大処理を行うように切り換えたIC700を示している。   FIG. 80 shows an IC 700 in which the signal line selection state is switched to perform a two-dimensional spatial resolution creation process and to perform a recursive enlargement process on the result of the process.

図80において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する2つのコマンド「Kaizodo 2dimentional」および「Zoom ver1」に応じて、信号線の選択状態を、図80に実線で示すように切り換え、これにより、信号処理として、2次元空間解像度創造処理を行い、さらに、その処理結果を対象として、再帰的拡大処理を行う。   In FIG. 80, switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of IC 700 correspond to two commands “Kaizodo 2dimentional” and “Zoom ver1” that constitute a command string. Then, the signal line selection state is switched as indicated by a solid line in FIG. 80, whereby a two-dimensional spatial resolution creation process is performed as a signal process, and a recursive enlargement process is performed on the process result.

なお、図80において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 80, a signal line indicated by a dotted line means a signal line that is wired but has nothing to do with signal processing by the current IC 700.

図80のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その空間解像度を向上させた、クラス分類適応処理の第2の画像データとしての高解像度の画像データを得る2次元空間解像度創造処理が行われる。さらに、図80のIC700では、その高解像度の画像データを、クラス分類適応処理の第1の画像データとして、そのサイズを拡大した、クラス分類適応処理の第2の画像データとしての拡大画像データを得る再帰的拡大処理が行われる。   In the IC 700 of FIG. 80, the input image data input to the IC 700 is used as the first image data of the class classification adaptation process, and the spatial resolution is improved, and the high resolution as the second image data of the class classification adaptation process is improved. Two-dimensional spatial resolution creation processing for obtaining the image data is performed. Further, in the IC 700 of FIG. 80, the high-resolution image data is used as the first image data for the class classification adaptation process, and the enlarged image data as the second image data for the class classification adaptation process is enlarged. The resulting recursive expansion process is performed.

以下、図79のフローチャートのステップS783以降の処理は、図80に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S783 in the flowchart of FIG. 79 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS783では、図69のステップS713乃至S718で説明した2次元空間解像度創造処理が行われる。この2次元空間解像度創造処理によって得られる高解像度の画像データは、予測演算回路716Aから、切換回路719,725、および724を介して、ブロック化回路722に供給される。   That is, in step S783, the two-dimensional spatial resolution creation process described in steps S713 to S718 of FIG. 69 is performed. High-resolution image data obtained by the two-dimensional spatial resolution creation processing is supplied from the prediction calculation circuit 716A to the blocking circuit 722 via the switching circuits 719, 725, and 724.

そして、ステップS784に進み、ブロック化回路722に供給された高解像度の画像データを対象として、図75のステップS743乃至S751で説明した再帰的拡大処理が行われる。そして、この再帰的拡大処理によって得られる拡大画像データは、判定回路723から、IC700の外部に出力される。   In step S784, the recursive enlargement process described in steps S743 to S751 in FIG. 75 is performed on the high-resolution image data supplied to the blocking circuit 722. The enlarged image data obtained by the recursive enlargement process is output from the determination circuit 723 to the outside of the IC 700.

この場合、IC700は、2次元のタップ(予測タップ)を対象としてフィルタリングを行う2次元ディジタルフィルタと、画像の拡大を行う拡大装置として機能することになる。   In this case, the IC 700 functions as a two-dimensional digital filter that performs filtering on a two-dimensional tap (prediction tap) and an enlargement device that performs image enlargement.

なお、IC700に対して、次のフレームの入力画像データが供給されている場合は、その、次のフレームを対象として、ステップS783およびS784の処理が繰り返される。   If input image data of the next frame is supplied to the IC 700, the processes of steps S783 and S784 are repeated for the next frame.

次に、図81のフローチャートを参照して、外部から、2つのコマンド「Kaizodo 2dimentional」および「Zoom ver2」からなるコマンド列が送信されてきた場合の、図64のIC700の処理について説明する。   Next, with reference to the flowchart of FIG. 81, the processing of the IC 700 of FIG. 64 when a command sequence including two commands “Kaizodo 2 dimension” and “Zoom ver2” is transmitted from the outside will be described.

まず、ステップS791において、受信部720は、外部からのコマンド列を受信し、IC700を構成する必要なブロックに供給して、ステップS792に進む。   First, in step S791, the receiving unit 720 receives an external command string, supplies it to the necessary blocks constituting the IC 700, and proceeds to step S792.

ステップS792では、IC700は、受信部720で受信されたコマンド列に応じ、その内部構造を切り換え、ステップS793に進む。   In step S792, the IC 700 switches its internal structure according to the command string received by the receiving unit 720, and the process proceeds to step S793.

即ち、IC700(図64)の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する2つのコマンド「Kaizodo 2dimentional」および「Zoom ver2」に応じて、信号線の選択状態を、コマンド「Kaizodo 2dimentional」に対応する2次元空間解像度創造処理と、コマンド「Zoom ver2」に対応する1回拡大処理とを行うように切り換える。   That is, the switching circuits 713A and 713B, the switching circuits 714A and 714B, the switching circuit 719, and the switching circuits 724 to 727 of the IC 700 (FIG. 64) use two commands “Kaizodo 2dimentional” and “Zoom ver2” that constitute the command sequence. Accordingly, the signal line selection state is switched so as to perform a two-dimensional spatial resolution creation process corresponding to the command “Kaizodo 2 dimension” and a one-time enlargement process corresponding to the command “Zoom ver2”.

図82は、信号線の選択状態を、2次元空間解像度創造処理を行い、さらに、その処理結果を対象として、1回拡大処理を行うように切り換えたIC700を示している。   FIG. 82 shows an IC 700 in which the signal line selection state is switched to perform a two-dimensional spatial resolution creation process and to perform a one-time enlargement process for the processing result.

図82において、IC700の切換回路713Aおよび713B、切換回路714Aおよび714B、切換回路719、並びに切換回路724乃至727は、コマンド列を構成する2つのコマンド「Kaizodo 2dimentional」および「Zoom ver2」に応じて、信号線の選択状態を、図82に実線で示すように切り換え、これにより、信号処理として、2次元空間解像度創造処理を行い、さらに、その処理結果を対象として、1回拡大処理を行う。   In FIG. 82, switching circuits 713A and 713B, switching circuits 714A and 714B, switching circuit 719, and switching circuits 724 to 727 of IC 700 correspond to two commands “Kaizodo 2dimentional” and “Zoom ver2” that constitute a command string. The signal line selection state is switched as shown by a solid line in FIG. 82, whereby a two-dimensional spatial resolution creation process is performed as a signal process, and an enlargement process is performed once for the process result.

なお、図82において、点線で示す信号線は、配線されているが、現在のIC700による信号処理に関係のない信号線を意味している。   In FIG. 82, a signal line indicated by a dotted line means a signal line that is wired but has nothing to do with signal processing by the current IC 700.

図82のIC700では、IC700に入力される入力画像データを、クラス分類適応処理の第1の画像データとして、その空間解像度を向上させた、クラス分類適応処理の第2の画像データとしての高解像度の画像データを得る2次元空間解像度創造処理が行われる。さらに、図82のIC700では、その高解像度の画像データを、クラス分類適応処理の第1の画像データとして、そのサイズを拡大した、クラス分類適応処理の第2の画像データとしての拡大画像データを得る1回拡大処理が行われる。   In the IC 700 of FIG. 82, the input image data input to the IC 700 is used as the first image data of the class classification adaptive process, and the spatial resolution is improved, and the high resolution as the second image data of the class classification adaptive process is improved. Two-dimensional spatial resolution creation processing for obtaining the image data is performed. Further, in the IC 700 of FIG. 82, the high-resolution image data is used as the first image data for the class classification adaptation process, and the enlarged image data as the second image data for the class classification adaptation process is enlarged. The obtained one-time enlargement process is performed.

以下、図81のフローチャートのステップS793以降の処理は、図82に示したように内部構造が切り換えられたIC700において行われる。   Hereinafter, the processing after step S793 in the flowchart of FIG. 81 is performed in the IC 700 whose internal structure is switched as shown in FIG.

即ち、ステップS793では、図69のステップS713乃至S718で説明した2次元空間解像度創造処理が行われる。この2次元空間解像度創造処理によって得られる高解像度の画像データは、予測演算回路716Aから、切換回路719,725、および724を介して、ブロック化回路722に供給される。   That is, in step S793, the two-dimensional spatial resolution creation process described in steps S713 to S718 of FIG. 69 is performed. High-resolution image data obtained by the two-dimensional spatial resolution creation processing is supplied from the prediction calculation circuit 716A to the blocking circuit 722 via the switching circuits 719, 725, and 724.

そして、ステップS794に進み、ブロック化回路722に供給された高解像度の画像データを対象として、図77のステップS743乃至S751で説明した1回拡大処理が行われる。そして、この1回拡大処理によって得られる拡大画像データは、判定回路723から、IC700の外部に出力される。   Then, the process proceeds to step S794, and the one-time enlargement process described in steps S743 to S751 in FIG. 77 is performed on the high-resolution image data supplied to the blocking circuit 722. The enlarged image data obtained by this one-time enlargement process is output from the determination circuit 723 to the outside of the IC 700.

この場合も、IC700は、2次元のタップ(予測タップ)を対象としてフィルタリングを行う2次元ディジタルフィルタと、画像の拡大を行う拡大装置として機能することになる。   Also in this case, the IC 700 functions as a two-dimensional digital filter that performs filtering on a two-dimensional tap (prediction tap) and an enlargement device that performs image enlargement.

なお、IC700に対して、次のフレームの入力画像データが供給されている場合は、その、次のフレームを対象として、ステップS793およびS794の処理が繰り返される。   If input image data of the next frame is supplied to the IC 700, the processes of steps S793 and S794 are repeated for the next frame.

以上のように、IC700では、コマンド列が複数のコマンドとしての、例えば、第1と第2のコマンドを有している場合に、そのコマンド列の複数のコマンドに応じて、内部構造を、第1のコマンドに対応する第1の信号処理および第2のコマンドに対応する第2の信号処理を実行する状態に切り換え、第1の信号処理を実行し、その後、さらに、第2の信号処理を実行する。従って、IC700によれば、単一のハードウェアで、複数の機能を、容易に実現することができる。   As described above, in the IC 700, when the command sequence includes, for example, the first and second commands as a plurality of commands, the internal structure is changed according to the plurality of commands in the command sequence. The first signal processing corresponding to the first command and the second signal processing corresponding to the second command are switched to the execution state, the first signal processing is performed, and then the second signal processing is further performed. Execute. Therefore, according to the IC 700, a plurality of functions can be easily realized with a single hardware.

なお、本明細書において、フローチャートを参照して説明した各ステップの処理は、必ずしもフローチャートに記載された順序に沿って時系列に行う必要はなく、また、可能であれば、並列的に行ってもよい。   In this specification, the processing of each step described with reference to the flowchart is not necessarily performed in time series in the order described in the flowchart, and is performed in parallel if possible. Also good.

また、本実施の形態では、画像データを対象として、信号処理を行うこととしたが、信号処理の対象は、画像データに限られるものではなく、例えば、音声データなどであっても良い。   In the present embodiment, the signal processing is performed on the image data. However, the signal processing target is not limited to the image data, and may be audio data, for example.

クラス分類適応処理による画像変換処理を行う画像変換装置1の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image conversion apparatus 1 which performs the image conversion process by a class classification adaptive process. 画像変換装置1による画像変換処理を説明するフローチャートである。4 is a flowchart for explaining image conversion processing by the image conversion apparatus 1. タップ係数を学習する学習装置21の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus 21 which learns a tap coefficient. 学習装置21の学習部36の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a learning unit 36 of the learning device 21. FIG. 各種の画像変換処理を説明するための図である。It is a figure for demonstrating various image conversion processes. 学習装置21による学習処理を説明するフローチャートである。It is a flowchart explaining the learning process by the learning apparatus. クラス分類適応処理による画像変換処理を行う画像変換装置51の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image conversion apparatus 51 which performs the image conversion process by a class classification adaptive process. 画像変換装置51の係数出力部55の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a coefficient output unit 55 of the image conversion apparatus 51. FIG. 係数種データを学習する学習装置71の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus 71 which learns coefficient seed data. 学習装置71の学習部76の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning part 76 of the learning apparatus 71. FIG. 学習装置71による学習処理を説明するフローチャートである。It is a flowchart explaining the learning process by the learning apparatus 71. FIG. 係数種データを学習する学習装置101の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus 101 which learns coefficient seed data. 学習装置101の学習部106の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a learning unit 106 of the learning device 101. FIG. 本発明を適用したAVシステムの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the AV system to which this invention is applied. AVシステムの本体200の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main body 200 of an AV system. コマンド列の例を示す図である。It is a figure which shows the example of a command sequence. AVシステムの本体200の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main body 200 of an AV system. コマンド列の例を示す図である。It is a figure which shows the example of a command sequence. AVシステムの本体200の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main body 200 of an AV system. コマンド列の例を示す図である。It is a figure which shows the example of a command sequence. AVシステムの本体200の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main body 200 of an AV system. コマンド列の例を示す図である。It is a figure which shows the example of a command sequence. AVシステムの本体200の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main body 200 of an AV system. コマンド列の例を示す図である。It is a figure which shows the example of a command sequence. AVシステムの本体200の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the main body 200 of an AV system. コマンド列の例を示す図である。It is a figure which shows the example of a command sequence. R-IC212の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of an R-IC 212. FIG. 係数出力部255の構成例を示すブロック図である。4 is a block diagram illustrating a configuration example of a coefficient output unit 255. FIG. R-IC212の処理を説明するフローチャートである。It is a flowchart explaining the process of R-IC212. R-IC212の他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of R-IC212. 係数出力部275の構成例を示すブロック図である。4 is a block diagram illustrating a configuration example of a coefficient output unit 275. FIG. 本発明を適用したテレビジョン受像機301の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the television receiver 301 to which this invention is applied. システムコントローラ318によるチューナ部311の制御を説明するための図である。6 is a diagram for explaining control of a tuner unit 311 by a system controller 318. FIG. 通常画面モードの画面表示と、マルチ画面モードの画面表示とを説明するための図である。It is a figure for demonstrating the screen display of normal screen mode, and the screen display of multi-screen mode. 信号処理部314の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a signal processing unit 314. FIG. コマンド列生成部330が生成するコマンド列を示す図である。It is a figure which shows the command sequence which the command sequence production | generation part 330 produces | generates. 信号処理チップ331に対して入出力される画像データを説明する図である。It is a figure explaining the image data input / output with respect to the signal processing chip 331. 信号処理チップ332に対して入出力される画像データを説明する図である。It is a figure explaining the image data input / output with respect to the signal processing chip 332. 信号処理チップ331に対して入出力される画像データを説明する図である。It is a figure explaining the image data input / output with respect to the signal processing chip 331. 信号処理チップ332に対して入出力される画像データを説明する図である。It is a figure explaining the image data input / output with respect to the signal processing chip 332. 信号処理部314の処理を説明するフローチャートである。It is a flowchart explaining the process of the signal processing part 314. FIG. 信号処理チップ334の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a signal processing chip 334. FIG. 信号処理チップ334の処理を説明するフローチャートである。3 is a flowchart illustrating processing of a signal processing chip 334. 信号処理チップ331の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a signal processing chip 331. FIG. 信号処理チップ331の処理を説明するフローチャートである。4 is a flowchart illustrating processing of a signal processing chip 331. 信号処理チップ332の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a signal processing chip 332. FIG. 信号処理チップ332の処理を説明するフローチャートである。It is a flowchart explaining the process of the signal processing chip 332. 本発明を適用したテレビジョン受像機の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the television receiver to which this invention is applied. リモコン618の外観構成例を示す平面図である。FIG. 38 is a plan view showing an example of an external configuration of a remote control 618. リモコン618の電気的構成例を示すブロック図である。3 is a block diagram illustrating an example of an electrical configuration of a remote control 618. FIG. コントローラ613の処理を説明するフローチャートである。6 is a flowchart illustrating processing of a controller 613. コントローラ613が生成するコマンド列のフォーマットを示す図である。It is a figure which shows the format of the command sequence which the controller 613 produces | generates. コントローラ613の処理を説明するフローチャートである。6 is a flowchart illustrating processing of a controller 613. コントローラ613が機能ボタン621Dの操作に応じて生成するコマンド列の例を示す図である。It is a figure which shows the example of the command sequence which the controller 613 produces | generates according to operation of the function button 621D. LSI606の構成例を示すブロック図である。2 is a block diagram illustrating a configuration example of an LSI 606. FIG. LSI606の処理を説明するフローチャートである。5 is a flowchart for explaining processing of an LSI 606. 信号処理回路656の構成例を示すブロック図である。6 is a block diagram illustrating a configuration example of a signal processing circuit 656. FIG. 信号処理回路661の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration example of a signal processing circuit 661. 信号処理回路661の他の構成例を示すブロック図である。FIG. 10 is a block diagram illustrating another configuration example of the signal processing circuit 661. クラス分類回路511A乃至予測演算回路516Aと、クラス分類回路511B乃至予測演算回路516Bとで行われるクラス分類適応処理としての画像変換処理を説明するフローチャートである。It is a flowchart explaining the image conversion process as a class classification adaptive process performed with the class classification circuit 511A thru | or the prediction arithmetic circuit 516A, and the class classification circuit 511B thru | or the prediction arithmetic circuit 516B. 信号線の選択状態を、1次元空間解像度創造処理を行うように切り換えた信号処理回路661を含む信号処理回路656の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of the signal processing circuit 656 containing the signal processing circuit 661 which switched the selection state of the signal line | wire so that a one-dimensional spatial resolution creation process might be performed. 信号線の選択状態を、2次元空間解像度創造処理を行うように切り換えた信号処理回路661を含む信号処理回路656の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of the signal processing circuit 656 containing the signal processing circuit 661 which switched the selection state of the signal line | wire so that a two-dimensional spatial resolution creation process might be performed. 信号線の選択状態を、ノイズ除去処理を行うように切り換えた信号処理回路661を含む信号処理回路656の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of the signal processing circuit 656 containing the signal processing circuit 661 which switched the selection state of the signal line | wire so that a noise removal process might be performed. 本発明を適用したIC700の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of IC700 to which this invention is applied. 図64の受信部720が外部から受信するコマンド列を説明する図である。FIG. 65 is a diagram for explaining a command sequence received by the receiving unit 720 in FIG. 64 from the outside. 係数出力回路715Aの構成例を示すブロック図である。It is a block diagram which shows the structural example of coefficient output circuit 715A. コマンド「Kaizodo 1dimentional」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Kaizodo 1dimentional" is transmitted. 信号線の選択状態を、1次元空間解像度創造処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which switched the selection state of the signal line | wire so that a one-dimensional spatial resolution creation process may be performed. コマンド「Kaizodo 2dimentional」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Kaizodo 2dimentional" is transmitted. 信号線の選択状態を、2次元空間解像度創造処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which switched the selection state of the signal line | wire so that a two-dimensional spatial resolution creation process might be performed. コマンド「Kaizodo 3dimentional」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Kaizodo 3dimentional" is transmitted. 信号線の選択状態を、3次元空間解像度創造処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which switched the selection state of the signal line | wire so that a three-dimensional spatial resolution creation process might be performed. コマンド「Kaizodo 2dimentional」および「Kaizodo 3dimentional」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Kaizodo 2dimentional" and "Kaizodo 3dimentional" is transmitted. 信号線の選択状態を、適応的空間解像度創造処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which switched the selection state of the signal line | wire so that an adaptive spatial resolution creation process may be performed. コマンド「Zoom ver1」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Zoom ver1" is transmitted. 信号線の選択状態を、再帰的拡大処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which switched the selection state of the signal line | wire so that a recursive expansion process might be performed. コマンド「Zoom ver2」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Zoom ver2" is transmitted. 信号線の選択状態を、1回拡大処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which changed the selection state of the signal line | wire so that it might enlarge once. コマンド「Kaizodo 2dimentional」および「Zoom ver1」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Kaizodo 2dimentional" and "Zoom ver1" is transmitted. 信号線の選択状態を、2次元空間解像度創造処理を行い、さらに、その処理結果を対象として、再帰的拡大処理を行うように切り換えたIC700の内部構造を示すブロック図である。It is a block diagram which shows the internal structure of IC700 which switched the selection state of a signal line | wire to perform a two-dimensional spatial resolution creation process, and also to perform a recursive expansion process for the process result. コマンド「Kaizodo 2dimentional」および「Zoom ver2」からなるコマンド列が送信されてきた場合のIC700の処理を説明するフローチャートである。It is a flowchart explaining the process of IC700 when the command sequence which consists of command "Kaizodo 2dimentional" and "Zoom ver2" is transmitted. 信号線の選択状態を、2次元空間解像度創造処理を行い、さらに、その処理結果を対象として、1回拡大処理を行うように切り換えたIC700の内部構造を示すブロック図である。FIG. 11 is a block diagram showing an internal structure of an IC 700 in which a signal line selection state is switched to perform a two-dimensional spatial resolution creation process and to perform a one-time enlargement process for the processing result.

符号の説明Explanation of symbols

200 本体, 201 リモコン, 201A 操作部, 201B 送信部, 202 制御装置, 202A 送受信部, 202B 制御部, 203 DVDレコーダ部, 204 HDDレコーダ部, 205 テレビジョン受像機部, 211 受信部, 212 R-IC, 213 記録部, 214 DVD, 215 再生部, 221 受信部, 222 R-IC, 223 記録部, 224 HDD, 225 再生部, 231 受信部, 232 R-IC, 233 ディスプレイ, 251 注目画素選択部, 252,253 タップ選択部, 254 クラス分類部, 255 係数出力部, 256 予測演算部, 2611乃至2614 係数メモリ, 262 選択部, 275 係数出力部, 281 係数生成部, 282 係数種出力部, 283 パラメータメモリ, 284 係数メモリ, 2911乃至2914 係数種メモリ, 292 選択部, 301 テレビジョン受像機, 302 アンテナ, 303 リモコン, 311 チューナ部, 312 増幅回路, 313 スピーカ, 314乃至316 信号処理部, 317 ディスプレイ, 318 コントローラ, 319 リモコン受信部, 330 コマンド列生成部, 331,332 信号処理チップ, 333 メモリ部, 334 信号処理チップ, 340 受信部, 341 フレームメモリ, 342 遅延回路, 343 セレクタ, 344 動き検出回路, 345 選択部, 351 注目画素選択部, 352,353 タップ選択部, 354 クラス分類部, 355 係数出力部, 356 予測演算部, 357 受信部, 358 動き判定部, 3611,3612 係数メモリ, 362 選択部, 371 注目画素選択部, 372,373 タップ選択部, 374 クラス分類部, 375 係数出力部, 376 予測演算部, 377 受信部, 378,379 タップ決定部, 3811,3812 係数メモリ, 382 選択部, 411A,411B 演算回路群, 412A,412B メモリ, 413A,413B 積和演算回路群, 414A,414B アダー, 415A,415B 乗算器, 416A,415B レジスタ群, 421A乃至423A,421B乃至423B,424 切換回路, 511A,511B クラス分類回路, 512A,512B 遅延選択回路, 513A,513B,514A,514B 切換回路, 515A,515B 係数出力回路, 516A,516B 予測演算回路, 517 ライン遅延回路, 518 積和演算回路, 519 切換回路, 521A,521B 走査線変換回路, 523 フレームメモリ, 601 チューナ, 602 復調部, 603 エラー訂正部, 604 デマルチプレクサ, 605 ビデオデコーダ, 606 LSI, 607 合成部, 608 OSD部, 609 LCD, 610 オーディオデコーダ, 611 スピーカ, 613 コントローラ, 614 キー入力部, 615 表示部, 616 受光部, 617 リモコンI/F, 618 リモコン, 621 ユーザインタフェース部, 621A 電源ボタン, 621B 入力ボタン, 621C チャンネルボタン, 621D 機能ボタン, 622 LCDパネル, 631 バス, 632 制御部, 633 記憶部, 634 送信部, 650 受信部, 651乃至653 フレームメモリ, 654 SW回路, 654A,654B 入力端子, 655 SW回路, 655A,655B 出力端子, 656,661 信号処理回路, 662乃至665 切換回路, 711A,711B クラス分類回路, 712A,712B 遅延選択回路, 713A,713B,714A,714B 切換回路, 715A,715B 係数出力回路, 716A,716B 予測演算回路, 717 ライン遅延回路, 718 積和演算回路, 719 切換回路, 721 フレームメモリ, 722 ブロック化回路, 723 判定回路, 724乃至727 切換回路, 731 メモリ群, 732 選択部 200 main body, 201 remote controller, 201A operation unit, 201B transmission unit, 202 control device, 202A transmission / reception unit, 202B control unit, 203 DVD recorder unit, 204 HDD recorder unit, 205 television receiver unit, 211 reception unit, 212 R- IC, 213 recording unit, 214 DVD, 215 playback unit, 221 reception unit, 222 R-IC, 223 recording unit, 224 HDD, 225 playback unit, 231 reception unit, 232 R-IC, 233 display, 251 pixel-of-interest selection unit , 252, 253 tap selection unit, 254 class classification unit, 255 coefficient output unit, 256 prediction calculation unit, 261 1 to 261 4 coefficient memory, 262 selection unit, 275 coefficient output unit, 281 coefficient generation unit, 282 coefficient seed output unit , 283 parameter memory 284 coefficient memory, 291 1 to 291 4 coefficients Memory, 292 selection unit, 301 television receiver, 302 antenna, 303 remote controller, 311 tuner unit, 312 amplifier circuit, 313 speaker, 314 to 316 signal processing unit, 317 display, 318 controller, 319 remote control reception unit, 330 command sequence Generation unit, 331, 332 signal processing chip, 333 memory unit, 334 signal processing chip, 340 reception unit, 341 frame memory, 342 delay circuit, 343 selector, 344 motion detection circuit, 345 selection unit, 351 attention pixel selection unit, 352 , 353 tap selector, 354 classification unit, 355 the coefficient output unit, 356 prediction calculation unit, 357 reception unit, 358 motion determination unit, 361 1, 361 2 coefficient memory, 362 selector, 371 a target pixel selecting section, 372 373 tap selector, 374 classification unit, 375 the coefficient output unit, 376 prediction calculation unit, 377 reception unit, 378, 379 tap determination unit, 381 1, 381 2 coefficient memory, 382 selector, 411A, 411B arithmetic circuit group, 412A, 412B memory, 413A, 413B product-sum operation circuit group, 414A, 414B adder, 415A, 415B multiplier, 416A, 415B register group, 421A to 423A, 421B to 423B, 424 switching circuit, 511A, 511B class classification circuit, 512A, 512B delay selection circuit, 513A, 513B, 514A, 514B switching circuit, 515A, 515B coefficient output circuit, 516A, 516B prediction operation circuit, 517 line delay circuit, 518 product-sum operation circuit, 519 switching circuit, 521 , 521B scanning line conversion circuit, 523 frame memory, 601 tuner, 602 demodulation unit, 603 error correction unit, 604 demultiplexer, 605 video decoder, 606 LSI, 607 synthesis unit, 608 OSD unit, 609 LCD, 610 audio decoder, 611 Speaker, 613 controller, 614 key input unit, 615 display unit, 616 light receiving unit, 617 remote control I / F, 618 remote control, 621 user interface unit, 621A power button, 621B input button, 621C channel button, 621D function button, 622 LCD Panel, 631 bus, 632 control unit, 633 storage unit, 634 transmission unit, 650 reception unit, 651 to 653 frame memory, 654 SW circuit, 654A, 654B input terminal, 655 SW circuit, 55A, 655B output terminal, 656, 661 signal processing circuit, 662 to 665 switching circuit, 711A, 711B class classification circuit, 712A, 712B delay selection circuit, 713A, 713B, 714A, 714B switching circuit, 715A, 715B coefficient output circuit, 716A, 716B Prediction operation circuit, 717 line delay circuit, 718 product-sum operation circuit, 719 switching circuit, 721 frame memory, 722 block circuit, 723 determination circuit, 724 to 727 switching circuit, 731 memory group, 732 selection unit

Claims (17)

第1と第2の信号処理手段を備える信号処理装置において、
前記第1の信号処理手段は、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力し、
前記第2の信号処理手段は、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前記第2の信号を信号処理して、第3の信号を出力する
ことを特徴とする信号処理装置。
In a signal processing apparatus comprising first and second signal processing means,
The first signal processing means switches the internal structure in accordance with at least one command of a command string made up of a plurality of commands, performs signal processing on the first signal, and outputs a second signal. ,
The second signal processing means switches an internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal. A signal processing device.
前記第1または第2の信号処理手段は、1チップのIC(Integraged Circuit)である
ことを特徴とする請求項1に記載の信号処理装置。
The signal processing apparatus according to claim 1, wherein the first or second signal processing means is a one-chip IC (Integrated Circuit).
外部からの信号に応じて、前記コマンド列を生成するコマンド列生成手段をさらに備える
ことを特徴とする請求項1に記載の信号処理装置。
The signal processing apparatus according to claim 1, further comprising command sequence generation means for generating the command sequence in response to an external signal.
前記第1または第2の信号処理手段は、内部構造を切り換えることにより、信号に含まれるノイズを除去するノイズ除去処理、信号に生じている歪みを除去する歪み除去処理、画像の空間解像度を向上させる空間解像度創造処理、または画像の時間解像度を向上させる時間解像度創造処理を行う
ことを特徴とする請求項1に記載の信号処理装置。
The first or second signal processing means switches the internal structure, thereby removing noise contained in the signal, removing distortion generated in the signal, and improving the spatial resolution of the image. The signal processing apparatus according to claim 1, wherein a spatial resolution creation process to be performed or a temporal resolution creation process to improve the temporal resolution of an image is performed.
前記第1の信号処理手段は、前記第2の信号のうちの注目している注目信号を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、前記注目信号に対して選択される前記第1の信号とを用いた演算により、前記注目信号を求める
ことを特徴とする請求項1に記載の信号処理装置。
The first signal processing means includes a class tap coefficient obtained by classifying a signal of interest of interest in the second signal into one of a plurality of classes, and the attention signal The signal processing apparatus according to claim 1, wherein the signal of interest is obtained by an operation using the first signal selected for a signal.
前記第1の信号処理手段は、
前記注目信号を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いるクラスタップを、前記第1の信号から選択するクラスタップ選択手段と、
前記クラスタップに基づいて、前記注目信号をクラス分類するクラス分類手段と、
前記注目信号を求めるときの前記タップ係数との演算に用いる予測タップを、前記第1の信号から選択する予測タップ選択手段と、
前記注目信号のクラスのタップ係数を出力するタップ係数出力手段と、
前記注目信号のクラスのタップ係数と、前記注目信号に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目信号を求める演算手段と
を有する
ことを特徴とする請求項5に記載の信号処理装置。
The first signal processing means includes
Class tap selection means for selecting, from the first signal, a class tap used for classifying the signal of interest into any one of the plurality of classes;
Class classification means for classifying the signal of interest based on the class tap;
A prediction tap selection means for selecting, from the first signal, a prediction tap used for calculation with the tap coefficient when obtaining the signal of interest;
Tap coefficient output means for outputting a tap coefficient of the class of the signal of interest;
6. An arithmetic unit that obtains the target signal by performing a calculation using a tap coefficient of the class of the target signal and the prediction tap selected for the target signal. A signal processing device according to 1.
前記第1の信号処理手段は、前記タップ係数出力手段が出力するタップ係数の種類が変更されるように、内部構造を切り換える
ことを特徴とする請求項6に記載の信号処理装置。
The signal processing apparatus according to claim 6, wherein the first signal processing unit switches an internal structure so that a type of a tap coefficient output from the tap coefficient output unit is changed.
前記第2の信号処理手段は、前記第3の信号のうちの注目している注目信号を複数のクラスのうちのいずれかのクラスにクラス分類することにより得られるクラスのタップ係数と、前記注目信号に対して選択される前記第2の信号とを用いた演算により、前記注目信号を求める
ことを特徴とする請求項1に記載の信号処理装置。
The second signal processing means includes a class tap coefficient obtained by classifying a signal of interest of interest in the third signal into one of a plurality of classes, and the attention The signal processing apparatus according to claim 1, wherein the signal of interest is obtained by an operation using the second signal selected for the signal.
前記第2の信号処理手段は、
前記注目信号を前記複数のクラスのうちのいずれかのクラスにクラス分類するのに用いるクラスタップを、前記第2の信号から選択するクラスタップ選択手段と、
前記クラスタップに基づいて、前記注目信号をクラス分類するクラス分類手段と、
前記注目信号を求めるときの前記タップ係数との演算に用いる予測タップを、前記第2の信号から選択する予測タップ選択手段と、
前記注目信号のクラスのタップ係数を出力するタップ係数出力手段と、
前記注目信号のクラスのタップ係数と、前記注目信号に対して選択された前記予測タップとを用いた演算を行うことにより、前記注目信号を求める演算手段と
を有する
ことを特徴とする請求項8に記載の信号処理装置。
The second signal processing means includes
Class tap selection means for selecting a class tap used for classifying the signal of interest into any one of the plurality of classes from the second signal;
Class classification means for classifying the signal of interest based on the class tap;
A prediction tap selection means for selecting a prediction tap used for calculation with the tap coefficient when obtaining the signal of interest from the second signal;
Tap coefficient output means for outputting a tap coefficient of the class of the signal of interest;
The calculation unit for calculating the signal of interest by performing calculation using the tap coefficient of the class of the signal of interest and the prediction tap selected for the signal of interest. A signal processing device according to 1.
前記第2の信号処理手段は、前記タップ係数出力手段が出力するタップ係数の種類が変更されるように、内部構造を切り換える
ことを特徴とする請求項9に記載の信号処理装置。
The signal processing apparatus according to claim 9, wherein the second signal processing unit switches an internal structure so that a type of a tap coefficient output from the tap coefficient output unit is changed.
前記第1乃至第3の信号は、画像信号であり、
前記第1の信号処理手段は、内部構造を切り換えることにより、前記第1の信号である第1の画像信号に対して、空間解像度を向上させる空間解像度創造処理、またはサイズを縮小する画像縮小処理を施し、前記第2の信号である第2の画像信号を出力し、
前記第2の信号処理手段は、内部構造を切り換えることにより、前記第2の画像信号に対して、ノイズを除去するノイズ除去処理、または時間解像度を向上させる時間解像度創造処理を施し、前記第3の信号である第3の画像信号を出力する
ことを特徴とする請求項1に記載の信号処理装置。
The first to third signals are image signals,
The first signal processing means switches the internal structure to change the spatial resolution creation process for improving the spatial resolution or the image reduction process for reducing the size of the first image signal that is the first signal. And outputting a second image signal which is the second signal,
The second signal processing means performs a noise removal process for removing noise or a time resolution creation process for improving time resolution on the second image signal by switching an internal structure, and the third signal processing means. The signal processing apparatus according to claim 1, wherein a third image signal that is a signal of the first signal is output.
放送信号を受信し、その放送信号から得られる前記第1の画像信号を出力する画像信号出力手段をさらに備える
ことを特徴とする請求項11に記載の信号処理装置。
The signal processing apparatus according to claim 11, further comprising an image signal output unit that receives a broadcast signal and outputs the first image signal obtained from the broadcast signal.
前記コマンド列のうちの1つのコマンドに応じた動きベクトル検出処理を行う動きベクトル検出手段をさらに備え、
前記第1または第2の信号処理手段は、前記動きベクトル検出処理によって検出された動きベクトルを用いて、信号処理を行う
ことを特徴とする請求項11に記載の信号処理装置。
A motion vector detection means for performing a motion vector detection process according to one command of the command sequence;
The signal processing apparatus according to claim 11, wherein the first or second signal processing unit performs signal processing using a motion vector detected by the motion vector detection processing.
前記コマンド列のうちの1つのコマンドに応じて、前記第3の画像信号を記憶する画像信号記憶手段をさらに備える
ことを特徴とする請求項11に記載の信号処理装置。
The signal processing apparatus according to claim 11, further comprising an image signal storage unit that stores the third image signal in response to one command in the command sequence.
第1と第2の信号処理手段を備える信号処理装置の信号処理方法において、
前記第1の信号処理手段が、複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する第1の信号処理ステップと、
前記第2の信号処理手段が、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前記第2の信号を信号処理して、第3の信号を出力する第2の信号処理ステップと
を含むことを特徴とする信号処理方法。
In a signal processing method of a signal processing apparatus comprising first and second signal processing means,
The first signal processing means switches the internal structure in accordance with at least one command in a command string made up of a plurality of commands, performs signal processing on the first signal, and outputs a second signal. A first signal processing step;
The second signal processing means switches an internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal. A signal processing method comprising: a signal processing step.
複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、第1の信号を信号処理して、第2の信号を出力する第1の信号処理手段を備え、
前記第2の信号は、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第2の信号処理手段において信号処理される
ことを特徴とする信号処理装置。
A first signal processing means for switching the internal structure in accordance with at least one command of a command sequence of a plurality of commands, performing signal processing on the first signal, and outputting a second signal;
The signal processing apparatus, wherein the second signal is signal-processed by second signal processing means for switching an internal structure in accordance with at least one command in the command sequence.
複数のコマンドからなるコマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換える第1の信号処理手段が、第1の信号を信号処理して出力する第2の信号を信号処理する第2の信号処理手段を備え、
前記第2の信号処理手段は、前記コマンド列のうちの、少なくとも1つのコマンドに応じて、内部構造を切り換え、前記第2の信号を信号処理して、第3の信号を出力する
ことを特徴とする信号処理装置。
The first signal processing means for switching the internal structure in response to at least one command in the command sequence made up of a plurality of commands processes the second signal output by processing the first signal. Comprising second signal processing means;
The second signal processing means switches an internal structure in accordance with at least one command in the command sequence, performs signal processing on the second signal, and outputs a third signal. A signal processing device.
JP2004042904A 2004-02-19 2004-02-19 Signal processing apparatus and signal processing method Expired - Fee Related JP4449489B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2004042904A JP4449489B2 (en) 2004-02-19 2004-02-19 Signal processing apparatus and signal processing method
US11/050,275 US7630576B2 (en) 2004-02-19 2005-02-04 Signal processing apparatus and method, and command-sequence data structure
EP20050250858 EP1640907A3 (en) 2004-02-19 2005-02-15 Signal processing apparatus and method, and command-sequence data structure
CNB2005100093011A CN100414966C (en) 2004-02-19 2005-02-18 Signal processing device and method,command sequence data structure
KR1020050013884A KR101110209B1 (en) 2004-02-19 2005-02-19 Signal processing apparatus and signal processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004042904A JP4449489B2 (en) 2004-02-19 2004-02-19 Signal processing apparatus and signal processing method

Publications (2)

Publication Number Publication Date
JP2005236633A true JP2005236633A (en) 2005-09-02
JP4449489B2 JP4449489B2 (en) 2010-04-14

Family

ID=35011087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004042904A Expired - Fee Related JP4449489B2 (en) 2004-02-19 2004-02-19 Signal processing apparatus and signal processing method

Country Status (3)

Country Link
JP (1) JP4449489B2 (en)
KR (1) KR101110209B1 (en)
CN (1) CN100414966C (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787047B2 (en) 2008-08-04 2010-08-31 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110025123A (en) * 2009-09-02 2011-03-09 삼성전자주식회사 Method and apparatus for multiple-speed reproduction of video image
CN102194235B (en) * 2010-03-16 2016-05-11 北京中星微电子有限公司 Movement detection systems based on gradient direction angle and method
CN104126167B (en) * 2011-12-23 2018-05-11 英特尔公司 Apparatus and method for being broadcasted from from general register to vector registor
CN107995514B (en) * 2017-12-28 2021-06-25 北京四达时代软件技术股份有限公司 Transmission method and device for digital television integrated machine control command

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318745A (en) * 2000-05-11 2001-11-16 Sony Corp Data processor, data processing method and recording medium
JP4582681B2 (en) 2001-04-12 2010-11-17 ソニー株式会社 Signal processing apparatus, signal processing method, program, recording medium, and signal processing system
AU2002248023B2 (en) * 2001-04-12 2007-04-26 Sony Corporation Signal processing device, housing rack, and connector
US7170422B2 (en) * 2002-06-24 2007-01-30 Matsushita Electric Industrial Co., Ltd. Personal programmable universal remote control

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7787047B2 (en) 2008-08-04 2010-08-31 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP4449489B2 (en) 2010-04-14
KR20060042124A (en) 2006-05-12
KR101110209B1 (en) 2012-04-12
CN1662037A (en) 2005-08-31
CN100414966C (en) 2008-08-27

Similar Documents

Publication Publication Date Title
EP1640907A2 (en) Signal processing apparatus and method, and command-sequence data structure
JP5263565B2 (en) Image processing apparatus, image processing method, and program
US20100202711A1 (en) Image processing apparatus, image processing method, and program
JP5288214B2 (en) Data processing apparatus, data processing method, and program
JP2008098800A (en) Image processing apparatus, image processing method and program
US20030086003A1 (en) Video data processing apparatus and method, data distributing apparatus and method, data receiving apparatus and method, storage medium, and computer program
JP2001086507A (en) Image coder, image coding method, image decoder, image decoding method, medium and image processor
US8358363B2 (en) Video-processing apparatus, method and system
JPH1175180A (en) Image processing device and method, and transmission medium and method
KR101110209B1 (en) Signal processing apparatus and signal processing method
CA3048382A1 (en) Image processing apparatus and image processing method
US7602442B2 (en) Apparatus and method for processing information signal
US7679675B2 (en) Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium
KR20070000365A (en) Image processing apparatus, image processing method, and program
JPH11112871A (en) Image extraction device, image extraction method, image encoder, image encoding method, image decoder, image decoding method, image recorder, image recording method, image reproducing device and image producing method
JP4674439B2 (en) Signal processing apparatus, signal processing method, and information recording medium
JP2005159830A (en) Apparatus and method of signal processing, recording medium and program
JP4512978B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4120898B2 (en) Image processing apparatus and image processing method
US20090226145A1 (en) Data processing device, data processing method, and program
JP4803279B2 (en) Image signal processing apparatus and method, recording medium, and program
JP4470324B2 (en) Image signal conversion apparatus and method
JP4329453B2 (en) Image signal processing apparatus and method, recording medium, and program
JP4042121B2 (en) Image information processing apparatus and image information processing method
JP4120095B2 (en) Image information conversion apparatus and conversion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090611

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090810

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100118

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees