JPH10336598A - Converter for image signal, conversion method, generator for coupling coefficient of neural network used for the conversion and generating method - Google Patents

Converter for image signal, conversion method, generator for coupling coefficient of neural network used for the conversion and generating method

Info

Publication number
JPH10336598A
JPH10336598A JP14280397A JP14280397A JPH10336598A JP H10336598 A JPH10336598 A JP H10336598A JP 14280397 A JP14280397 A JP 14280397A JP 14280397 A JP14280397 A JP 14280397A JP H10336598 A JPH10336598 A JP H10336598A
Authority
JP
Japan
Prior art keywords
signal
pixel
class
neural network
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP14280397A
Other languages
Japanese (ja)
Other versions
JP4447671B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yasushi Noide
泰史 野出
Takeharu Nishikata
丈晴 西片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP14280397A priority Critical patent/JP4447671B2/en
Publication of JPH10336598A publication Critical patent/JPH10336598A/en
Application granted granted Critical
Publication of JP4447671B2 publication Critical patent/JP4447671B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method by which a pixel signal is predicted optimally at all times. SOLUTION: An NTSC system video signal is converted into a High Vision video signal. A ROM table 107 stores coupling coefficients of a neural network for each class generated by learning, in advance. A class code CL denoting a class (spatial class and motion class), to which HD pixel data (y) to be predicted belongs, is fed to the ROM table 107 as read address information. A neural network prediction circuit 109 uses a neural network which is based on a coupling coefficient Wi read from the ROM table 107 and SD pixel data xi segmented corresponding to the HD pixel data (y) to be predicted to obtain the HD pixel data (y). Since nonlinear (including linear) prediction is conducted, the pixel signal can be predicted optimally at all times, in comparison with a conventional linear prediction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、例えばNTSC
方式のビデオ信号をハイビジョンのビデオ信号に変換す
る画像信号の変換装置および変換方法、並びにそれに使
用されるニューラルネットワークの結合係数の生成装置
および生成方法に関する。詳しくは、画素信号を予測す
る際に、ニューラルネットワークを使用することによっ
て、非線形な予測を行うことができ、常に最適な画素信
号の予測を行い得るようにした画像信号変換装置に係る
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention
The present invention relates to an image signal conversion device and a conversion method for converting a video signal of a system into a high-definition video signal, and a generation device and a generation method of a coupling coefficient of a neural network used for the same. More specifically, the present invention relates to an image signal conversion device that can perform nonlinear prediction by using a neural network when predicting a pixel signal, and can always perform optimal pixel signal prediction. .

【0002】[0002]

【従来の技術】近年、オーディオ・ビジュアル指向の高
まりから、より高解像度の画像を得ることができるよう
なテレビ受信機の開発が望まれ、この要望に応えて、い
わゆるハイビジョンが開発された。ハイビジョンの走査
線数は、NTSC方式の走査線数が525本であるのに
対して、2倍以上の1125本である。また、ハイビジ
ョンの縦横比は、NTSC方式の縦横比が3:4である
のに対して、9:16となっている。このため、ハイビ
ジョンでは、NTSC方式に比べて、高解像度で臨場感
のある画像を表示することができる。
2. Description of the Related Art In recent years, with the increase in audio-visual orientation, it has been desired to develop a television receiver capable of obtaining a higher-resolution image. In response to this demand, a so-called Hi-Vision has been developed. The number of scanning lines for Hi-Vision is 1125, which is more than double that of 525 for the NTSC system. In addition, the aspect ratio of Hi-Vision is 9:16, while the aspect ratio of NTSC is 3: 4. For this reason, high-definition images can be displayed with higher resolution and a sense of realism as compared with the NTSC system.

【0003】ハイビジョンはこのように優れた特性を有
するが、NTSC方式のビデオ信号をそのまま供給して
も、ハイビジョン方式による画像表示を行うことはでき
ない。これは、上述のようにNTSC方式とハイビジョ
ンとでは規格が異なるからである。
[0003] Hi-Vision has such excellent characteristics, but it is impossible to display an image by the Hi-Vision system even if the video signal of the NTSC system is supplied as it is. This is because the standards differ between the NTSC system and Hi-Vision as described above.

【0004】そこで、NTSC方式のビデオ信号に応じ
た画像をハイビジョン方式で表示するため、本出願人
は、先に、NTSC方式のビデオ信号をハイビジョンの
ビデオ信号に変換するための変換装置を提案した(特願
平6−205934号参照)。この変換装置では、ハイ
ビジョンのビデオ信号を構成する各画素の信号を、NT
SC方式の所定領域の画素の信号と係数データ(予測係
数値)とから線形1次式を使用して予測するようになっ
ている。
Therefore, in order to display an image corresponding to an NTSC system video signal in a high-vision system, the present applicant has previously proposed a conversion device for converting an NTSC system video signal into a high-vision video signal. (See Japanese Patent Application No. 6-205934). In this converter, a signal of each pixel constituting a high-definition video signal is converted into an NT signal.
Prediction is performed using a linear linear expression from a signal of a pixel in a predetermined area of the SC system and coefficient data (prediction coefficient value).

【0005】[0005]

【発明が解決しようとする課題】上述した変換装置にお
いては、ハイビジョンのビデオ信号を構成する各画素の
信号を線形1次式によって予測するものであり、最適な
画素信号を求めることができない場合がある。
In the above-described conversion apparatus, the signal of each pixel constituting a high-definition video signal is predicted by a linear linear equation. In some cases, an optimum pixel signal cannot be obtained. is there.

【0006】そこで、この発明では、常に最適な画素信
号の予測を行い得る画像信号変換装置等を提供すること
を目的とする。
Accordingly, an object of the present invention is to provide an image signal conversion device and the like which can always perform optimal prediction of a pixel signal.

【0007】[0007]

【課題を解決するための手段】この発明に係る画像信号
変換装置は、第1の画像信号を、この第1の画像信号と
同じあるいはそれより多い画素数の第2の画像信号に変
換するようにした画像信号変換装置において、第1の画
像信号から第1の領域の画素の信号を切り出す第1の画
素切り出し手段と、この第1の画素切り出し手段により
切り出された第1の領域の画素の信号のレベル分布パタ
ーンを検出し、このパターンに基づいて予測しようとす
る第2の画像信号を構成する所定画素の信号が属するク
ラスを決定してクラス情報を出力するクラス決定手段
と、クラス情報で示される各クラスに対応したニューラ
ルネットワークの結合係数を記憶しておく結合係数記憶
手段と、クラス決定手段より出力されるクラス情報に対
応して結合係数記憶手段より結合係数を読み出す結合係
数読み出し手段と、第1の画像信号から第1の領域と同
じあるいは異なる第2の領域の画素の信号を切り出す第
2の画素切り出し手段と、結合係数記憶手段より読み出
された結合係数と、第2の画素切り出し手段により切り
出された第2の領域の画素の信号とから、ニューラルネ
ットワークを使用して第2の画像信号を構成する所定画
素の信号を予測するニューラルネット予測手段とを備え
るものである。
An image signal conversion device according to the present invention converts a first image signal into a second image signal having the same or more pixels than the first image signal. In the image signal conversion device described above, a first pixel cutout unit that cuts out a signal of a pixel in a first region from the first image signal, and a pixel of the first region cut out by the first pixel cutout unit Class determining means for detecting a level distribution pattern of a signal, determining a class to which a signal of a predetermined pixel constituting a second image signal to be predicted based on the pattern belongs, and outputting class information; Coupling coefficient storage means for storing coupling coefficients of the neural network corresponding to each class shown, and coupling coefficient storage corresponding to class information output from the class determination means A coupling coefficient reading unit for reading a coupling coefficient from a stage, a second pixel extracting unit for extracting a signal of a pixel in a second region that is the same as or different from the first region from the first image signal, and a reading from the coupling coefficient storing unit. Neural network for predicting a signal of a predetermined pixel forming a second image signal using a neural network based on the extracted coupling coefficient and a signal of a pixel in a second region extracted by the second pixel extracting unit. And a net prediction unit.

【0008】ここで、第1および第2の画素切り出し手
段が共通であってもよく、この場合第1および第2の領
域は同じくなる。また、ニューラルネット予測手段は、
例えばバックプロパゲーションネットワークを使用して
構成される。さらに、ニューラルネット予測手段は、そ
の出力部に、ニューラルネットワークの出力層のユニッ
トより得られる結合の度合いを示す値を画素信号値に変
換する正規化手段を有していてもよい。
Here, the first and second pixel cutout means may be common, and in this case, the first and second regions are the same. Also, the neural network prediction means
For example, it is configured using a back propagation network. Further, the neural network prediction means may have, at its output, normalization means for converting a value indicating the degree of coupling obtained from a unit in the output layer of the neural network into a pixel signal value.

【0009】また、この発明に係る画像信号変換方法
は、第1の画像信号を、この第1の画像信号と同じある
いはそれより多い画素数の第2の画像信号に変換するよ
うにした画像信号変換方法において、第1の画像信号か
ら第1の領域の画素の信号を切り出す第1のステップ
と、この第1のステップで切り出された第1の領域の画
素の信号のレベル分布パターンを検出し、このパターン
に基づいて予測しようとする第2の画像信号を構成する
所定画素の信号が属するクラスを決定してクラス情報を
出力する第2のステップと、この第2のステップで出力
されるクラス情報で示される各クラスに対応したニュー
ラルネットワークの結合係数を記憶手段より読み出す第
3のステップと、第1の画像信号から第1の領域と同じ
あるいは異なる第2の領域の画素の信号を切り出す第4
のステップと、第3のステップで読み出された結合係数
と、第4のステップで切り出された第2の領域の画素の
信号とから、ニューラルネットワークを使用して第2の
画像信号を構成する所定画素の信号を予測する第5のス
テップとを備えるものである。
Further, in the image signal conversion method according to the present invention, the image signal is configured to convert the first image signal into a second image signal having the same number of pixels or more than the first image signal. In the conversion method, a first step of cutting out a signal of a pixel in a first area from a first image signal, and a level distribution pattern of a signal of a pixel in the first area cut out in the first step are detected. A second step of determining a class to which a signal of a predetermined pixel constituting a second image signal to be predicted based on the pattern belongs and outputting class information; and a class output in the second step. A third step of reading out from the storage means a coupling coefficient of the neural network corresponding to each class indicated by the information, and a second step which is the same as or different from the first area from the first image signal. 4 for cutting out the signals of pixels of the band
, The coupling coefficient read out in the third step, and the pixel signal of the second region cut out in the fourth step, a second image signal is formed using a neural network. A fifth step of predicting a signal of a predetermined pixel.

【0010】予測しようとする第2の画像信号を構成す
る所定画素に対応して第1の画像信号から第1の領域の
画素の信号が切り出され、そのレベル検出パターンに基
づいて上述した第2の画像信号を構成する所定画素の信
号が属するクラスが決定されてクラス情報が出力され
る。このクラス情報に対応して結合係数記憶手段より結
合係数が読み出される。また、上述した第2の画像信号
を構成する所定画素に対応して第1の画像信号から第2
の領域の画素の信号が切り出される。そして、この第2
の領域の画素の信号と結合係数記憶手段より読み出され
た結合係数とから、ニューラルネットワークを使用し
て、上述した第2の画像信号を構成する所定画素の信号
が求められる。このように、画素信号をニューラルネッ
トワークを使用して予測することで、非線形な予測が行
われこととなり、線形1次式によって予測するものと比
べて、常に最適な画素信号の予測を行うことが可能とな
る。
A signal of a pixel in a first region is cut out from the first image signal corresponding to a predetermined pixel constituting a second image signal to be predicted, and the second signal is extracted based on the level detection pattern. , The class to which the signal of the predetermined pixel constituting the image signal belongs is determined, and the class information is output. The coupling coefficient is read from the coupling coefficient storage means in accordance with the class information. Further, the second image signal is converted from the first image signal to the second image signal corresponding to a predetermined pixel constituting the second image signal.
The signal of the pixel in the region is cut out. And this second
Using the neural network, the signal of the predetermined pixel constituting the above-described second image signal is obtained from the signal of the pixel in the region and the coupling coefficient read from the coupling coefficient storage means. As described above, by predicting a pixel signal using a neural network, nonlinear prediction is performed, and it is possible to always perform optimal prediction of a pixel signal as compared with that predicted by a linear linear expression. It becomes possible.

【0011】また、この発明に係る結合係数生成装置
は、第1の画像信号を、この第1の画像信号と同じある
いはそれより多い画素数の第2の画像信号に変換する際
に使用されるニューラルネットワークの結合係数を生成
する装置において、第2の画像信号に対応する教師信号
を処理して第1の画像信号に対応する入力信号を得る信
号処理手段と、教師信号を構成する複数の画素の信号に
それぞれ対応して、入力信号より第1の領域の画素の信
号を順次切り出す第1の画素切り出し手段と、この第1
の画素切り出し手段により順次切り出された第1の領域
の画素の信号のレベル分布のパターンを検出し、このパ
ターンに基づいて教師信号を構成する複数の画素の信号
がそれぞれ属するクラスを決定してクラス情報を出力す
るクラス決定手段と、教師信号を構成する複数の画素の
信号にそれぞれ対応して、入力信号より第1の領域と同
じあるいは異なる第2の領域の画素の信号を順次切り出
す第2の画素切り出し手段と、クラス決定手段より出力
される、教師信号を構成する複数の画素の信号がそれぞ
れ属するクラスを示すクラス情報と、教師信号を構成す
る複数の画素の信号と、第2の画素切り出し手段により
順次切り出された第2の領域の画素の信号とから、ニュ
ーラルネットワークによる学習によって各クラス毎にニ
ューラルネットワークの結合係数を得るニューラルネッ
トワーク学習手段とを備えるものである。
Further, the coupling coefficient generation device according to the present invention is used when converting a first image signal into a second image signal having the same or more pixels as the first image signal. A device for generating a coupling coefficient of a neural network, a signal processing means for processing a teacher signal corresponding to a second image signal to obtain an input signal corresponding to the first image signal, and a plurality of pixels constituting the teacher signal A first pixel cutout means for sequentially cutting out the signals of the pixels in the first area from the input signal in correspondence with the signals of
A pattern of the level distribution of the signals of the pixels in the first region sequentially cut out by the pixel cutout means, and a class to which the signals of a plurality of pixels constituting the teacher signal belong is determined based on the pattern. A class determining means for outputting information, and a second signal for sequentially cutting out signals of pixels in a second area which is the same as or different from the first area from the input signal in correspondence with signals of a plurality of pixels constituting the teacher signal, respectively. A pixel cutout unit, class information output from the class determination unit and indicating a class to which each of a plurality of pixels constituting the teacher signal belongs, a signal of the plurality of pixels constituting the teacher signal, and a second pixel cutout Means for each class from the signal of the pixels in the second area sequentially cut out by the means by learning using a neural network. In which and a neural network learning means for obtaining a coupling coefficient of click.

【0012】ここで、第1および第2の画素切り出し手
段は共通でもよく、この場合第1および第2の領域は同
じくなる。また、例えば、ニューラルネット学習手段
は、バックプロパゲーションネットワークを使用して構
成される。
Here, the first and second pixel cutout means may be common, and in this case, the first and second regions are the same. Further, for example, the neural network learning means is configured using a back propagation network.

【0013】ニューラルネット学習手段は、例えば入力
層、隠れ層、出力層の各ユニットからなり、第2の画素
切り出し手段により順次切り出された第2の領域の画素
の信号が入力層のユニットに供給されるニューラルネッ
トワーク部と、このニューラルネットワーク部の出力層
のユニットより得られる結合の度合いを示す値を画素信
号値に変換する正規化手段と、この正規化手段より出力
される画素信号値と、ニュラルネットワーク部の入力層
に供給される第2の領域の画素の信号に対応した教師信
号を構成する所定画素の信号とを比較して誤差を検出す
る誤差検出手段と、クラス情報で示される各クラス毎
に、第2の画素切り出し手段により順次切り出された第
2の領域の画素の信号とそれに対応した教師信号を構成
する所定画素の信号との組み合わせでなる学習データに
対し、誤差検出手段で検出される誤差が所定範囲内に入
る方向にニューラルネットワーク部の出力層および隠れ
層のユニットにおける結合係数を変更する結合係数変更
手段と、誤差が所定範囲内に入ったときのニューラルネ
ットワーク部の出力層および隠れ層のユニットにおける
結合係数を学習結果とする結合係数決定手段とを有して
いる。
The neural network learning means comprises, for example, each unit of an input layer, a hidden layer, and an output layer, and supplies the signals of the pixels in the second area sequentially cut out by the second pixel cutout means to the units of the input layer. A neural network unit, a normalization unit that converts a value indicating the degree of coupling obtained from a unit of an output layer of the neural network unit into a pixel signal value, a pixel signal value output from the normalization unit, Error detection means for comparing the signal of a predetermined pixel constituting the teacher signal corresponding to the signal of the pixel in the second area supplied to the input layer of the neural network unit to detect an error, and indicated by class information For each class, the signal of the pixel of the second area sequentially cut out by the second pixel cutout means and the signal of the predetermined pixel constituting the teacher signal corresponding thereto A coupling coefficient changing unit that changes a coupling coefficient in a unit of an output layer and a hidden layer of the neural network unit in a direction in which an error detected by the error detection unit falls within a predetermined range with respect to the learning data formed by the combination of A coupling coefficient determining unit that uses a coupling coefficient in a unit of an output layer and a hidden layer of the neural network unit when the value falls within a predetermined range as a learning result.

【0014】また、この発明に係る結合係数生成方法
は、第1の画像信号を、この第1の画像信号と同じある
いはそれより多い画素数の第2の画像信号に変換する際
に使用されるニューラルネットワークの結合係数を生成
する方法において、第2の画像信号に対応する教師信号
を処理して第1の画像信号に対応する入力信号を得る第
1のステップと、教師信号を構成する複数の画素の信号
にそれぞれ対応して、入力信号より第1の領域の画素の
信号を順次切り出す第2のステップと、この第2のステ
ップで順次切り出された第1の領域の画素の信号のレベ
ル分布のパターンを検出し、このパターンに基づいて教
師信号を構成する複数の画素の信号がそれぞれ属するク
ラスを決定してクラス情報を出力する第3のステップ
と、教師信号を構成する複数の画素の信号にそれぞれ対
応して、入力信号より第1の領域と同じあるいは異なる
第2の領域の画素の信号を順次切り出す第4のステップ
と、第3のステップで出力される教師信号を構成する複
数の画素の信号がそれぞれ属するクラスを示すクラス情
報と、教師信号を構成する複数の画素の信号と、第4の
ステップで順次切り出された第2の領域の画素の信号と
から、ニューラルネットワークによる学習によって各ク
ラス毎に結合係数を得る第5のステップとを備えるもの
である。
Further, the coupling coefficient generation method according to the present invention is used when converting a first image signal into a second image signal having the same or more pixels as the first image signal. In a method for generating a coupling coefficient of a neural network, a first step of processing a teacher signal corresponding to a second image signal to obtain an input signal corresponding to the first image signal; A second step of sequentially cutting out the signal of the pixel in the first area from the input signal corresponding to the signal of the pixel, and a level distribution of the signal of the pixel in the first area sequentially cut out in the second step And a third step of determining a class to which each of signals of a plurality of pixels constituting the teacher signal belongs based on the pattern and outputting class information, and forming the teacher signal. A teacher signal output in the fourth step and a teacher signal output in the third step for sequentially cutting out the signal of the pixel in the second area which is the same as or different from the first area from the input signal corresponding to the signals of the plurality of pixels, respectively. Neural information is derived from class information indicating the class to which the signals of the constituent pixels belong, the signals of the constituent pixels of the teacher signal, and the signals of the pixels in the second region sequentially cut out in the fourth step. A fifth step of obtaining a coupling coefficient for each class by learning through a network.

【0015】第2の画像信号、例えばハイビジョンのビ
デオ信号に対応する教師信号が処理されて第1の画像信
号、例えばNTSC方式のビデオ信号に対応する入力信
号が得られる。教師信号を構成する複数の画素の信号に
それぞれ対応して、入力信号より第1の領域の画素の信
号が順次切り出され、その第1の領域の画素の信号のレ
ベル分布パターンに基づいて教師信号を構成する複数の
画素の信号がそれぞれ属するクラスが決定されてクラス
情報が出力される。
A second image signal, for example, a teacher signal corresponding to a high definition video signal is processed to obtain an input signal corresponding to a first image signal, for example, an NTSC video signal. The signals of the pixels in the first area are sequentially cut out from the input signal corresponding to the signals of the plurality of pixels constituting the teacher signal, and the teacher signal is extracted based on the level distribution pattern of the signals of the pixels in the first area. Are determined, and the class information to which the signals of the plurality of pixels each belong is determined and class information is output.

【0016】また、教師信号を構成する複数の画素の信
号にそれぞれ対応して、入力信号より第2の領域の画素
の信号が順次切り出される。そして、この第2の領域の
画素の信号と、教師信号を構成する複数の画素の信号が
それぞれ属するクラスを示すクラス情報と、教師信号を
構成する複数の画素の信号とから、ニューラルネットワ
ークによる学習によって、各クラス毎に結合係数が求め
られる。
Further, the signals of the pixels in the second area are sequentially cut out from the input signal in correspondence with the signals of the plurality of pixels constituting the teacher signal. Then, learning by a neural network is performed based on the pixel signals of the second region, class information indicating a class to which the signals of the pixels constituting the teacher signal belong, and the signals of the pixels constituting the teacher signal. Thus, a coupling coefficient is obtained for each class.

【0017】[0017]

【発明の実施の形態】以下、図面を参照しながら、この
発明の実施の形態について説明する。図1は実施の形態
としての画像信号変換装置100の構成を示している。
この画像信号変換装置100は、NTSC方式のビデオ
信号を構成する画素データ(以下、「SD画素データ」
という)からハイビジョンのビデオ信号を構成する画素
データ(以下、「HD画素データ」という)を得るため
のものである。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration of an image signal conversion device 100 as an embodiment.
The image signal conversion apparatus 100 includes a pixel data (hereinafter, referred to as “SD pixel data”) constituting an NTSC video signal.
To obtain pixel data (hereinafter, referred to as “HD pixel data”) constituting a high-definition video signal.

【0018】この画像信号変換装置100は、SD画素
データが供給される入力端子101と、この入力端子1
01に供給されるSD画素データより、予測しようとす
る所定のHD画素データに対応した領域のSD画素デー
タを切り出す画素切り出し手段としての領域切り出し回
路102と、この領域切り出し回路102で切り出され
たSD画素データに対してADRC(Adaptive Dynamic
Range Coding)処理を適用して、主に空間内の波形を
表すクラス(空間クラス)を決定してクラス情報を出力
するADRC回路103とを有している。
The image signal conversion apparatus 100 has an input terminal 101 to which SD pixel data is supplied, and an input terminal 1
01, an area extracting circuit 102 as a pixel extracting means for extracting SD pixel data of an area corresponding to predetermined HD pixel data to be predicted from the SD pixel data to be predicted, and an SD extracted by the area extracting circuit 102. ADRC (Adaptive Dynamic
An ADRC circuit 103 that applies a range coding process to determine a class (space class) mainly representing a waveform in space and outputs class information.

【0019】図4および図5は、SD画素とHD画素の
位置関係を示している。領域切り出し回路102では、
例えば図6に示すように、HD画素データyを予測しよ
うとする場合、これらHD画素データyの近傍に位置す
るSD画素データk1〜k5が切り出される。
FIGS. 4 and 5 show the positional relationship between SD pixels and HD pixels. In the region extraction circuit 102,
For example, as shown in FIG. 6, when trying to predict the HD pixel data y, the SD pixel data k 1 to k 5 located in the vicinity of HD pixel data y is cut out.

【0020】ADRC回路103では、領域切り出し回
路102で切り出されたSD画素データのレベル分布の
パターン化を目的として、各SD画素データを、例えば
8ビットデータから2ビットデータに圧縮するような演
算が行われる。そして、ADRC回路103からは、各
SD画素データに対応した圧縮データ(再量子化コー
ド)qiが空間クラスのクラス情報として出力される。
The ADRC circuit 103 performs an operation for compressing each SD pixel data from, for example, 8-bit data to 2-bit data for the purpose of patterning the level distribution of the SD pixel data extracted by the area extraction circuit 102. Done. Then, the ADRC circuit 103 outputs compressed data (requantized code) qi corresponding to each SD pixel data as class information of the space class.

【0021】本来ADRCは、VTR(Video Tape Rec
order)向け高性能符号化用に開発された適応的再量子
化法であるが、信号レベルの局所的なパターンを短い語
長で効率的に表現できるので、本実施の形態では、領域
切り出し回路102で切り出されたSD画素データのレ
ベル分布のパターン化に使用している。
Originally, ADRC is a VTR (Video Tape Rec)
order), which is an adaptive requantization method developed for high-performance coding. Since the local pattern of the signal level can be efficiently expressed with a short word length, the region cutout circuit is used in this embodiment. It is used for patterning the level distribution of the SD pixel data cut out at 102.

【0022】ADRC回路103では、領域内のSD画
素データの最大値をMAX、その最小値をMIN、領域
内のダイナミックレンジをDR(=MAX−MIN+
1)、再量子化ビット数をpとすると、領域内の各SD
画素データkiに対して、(1)式の演算により再量子
化コードqiが得られる。ただし、(1)式において、
〔 〕は切り捨て処理を意味している。領域切り出し回
路102で、Na個のSD画素データが切り出されると
き、i=1〜Naである。 qi=〔(ki−MIN+0.5)・2p /DR〕 ・・・(1)
In the ADRC circuit 103, the maximum value of the SD pixel data in the area is MAX, the minimum value is MIN, and the dynamic range in the area is DR (= MAX−MIN +
1) Assuming that the number of requantization bits is p, each SD in the area
A re-quantization code qi is obtained from the pixel data ki by the operation of equation (1). However, in equation (1),
[] Means truncation processing. When the area cutout circuit 102 cuts out Na SD pixel data, i = 1 to Na. qi = [(ki−MIN + 0.5) · 2 p / DR] (1)

【0023】また、画像信号変換装置100は、入力端
子101に供給されるSD画素データより、予測しよう
とする所定のHD画素データに対応した領域のSD画素
データを切り出す領域切り出し回路104と、この領域
切り出し回路104で切り出されたSD画素データよ
り、主に動きの程度を表すためのクラス(動きクラス)
を決定してクラス情報を出力する動きクラス決定回路1
05とを有している。
The image signal converting apparatus 100 further includes an area extracting circuit 104 for extracting SD pixel data of an area corresponding to predetermined HD pixel data to be predicted from the SD pixel data supplied to the input terminal 101; A class (motion class) mainly representing the degree of motion from the SD pixel data cut out by the region cutout circuit 104
Class determining circuit 1 for determining class and outputting class information
05.

【0024】領域切り出し回路104では、例えば図7
に示すように、HD画素データyを予測しようとする場
合、これらHD画素データyの近傍に位置する10個の
SD画素データm1〜m5,n1〜n5が切り出される。
In the area extracting circuit 104, for example, FIG.
As shown in (1), when trying to predict HD pixel data y, ten SD pixel data m 1 to m 5 and n 1 to n 5 located near these HD pixel data y are cut out.

【0025】動きクラス決定回路105では、領域切り
出し回路104で切り出されたSD画素データmi,ni
からフレーム間差分が算出され、さらにその差分の絶対
値の平均値に対してしきい値処理が行われて動きの指標
である動きクラスのクラス情報MVが出力される。
In the motion class determining circuit 105, the SD pixel data mi and ni extracted by the area extracting circuit 104
, A threshold value process is performed on the average value of the absolute value of the difference, and class information MV of a motion class, which is a motion index, is output.

【0026】すなわち、動きクラス決定回路105で
は、(2)式によって、差分の絶対値の平均値AVが算
出される。領域切り出し回路104で、例えば上述した
ように10個のSD画素データm1〜m5,n1〜n5が切
り出されるとき、(2)式におけるNbは5である。
That is, the motion class determination circuit 105 calculates the average value AV of the absolute value of the difference by the equation (2). When the area cutout circuit 104 cuts out, for example, ten pieces of SD pixel data m 1 to m 5 and n 1 to n 5 as described above, Nb in equation (2) is 5.

【0027】[0027]

【数1】 (Equation 1)

【0028】そして、動きクラス決定回路105では、
上述したように算出された平均値AVが1個または複数
個のしきい値と比較されてクラス情報MVが得られる。
例えば、3個のしきい値th1,th2,th3(th1
th2<th3)が用意され、4つの動きクラスを決定す
る場合、AV≦th1のときはMV=0、th1<AV≦
th2のときはMV=1、th2<AV≦th3のときは
MV=2、th3<AVのときはMV=3とされる。
Then, in the motion class determination circuit 105,
The average value AV calculated as described above is compared with one or more threshold values to obtain class information MV.
For example, three thresholds th 1 , th 2 , th 3 (th 1 <
th 2 <th 3) are prepared, when determining the four motion classes, if the AV ≦ th 1 MV = 0, th 1 <AV ≦
When the th 2 when the MV = 1, th 2 <AV ≦ th 3 when the MV = 2, th 3 <AV are MV = 3.

【0029】また、画像信号変換装置100は、ADR
C回路103より出力される空間クラスのクラス情報と
しての再量子化コードqiと、動きクラス決定回路10
5より出力される動きクラスの情報MVに基づき、予測
しようとするHD画素データが属するクラスを示すクラ
スコードCLを得るためのクラスコード発生回路106
を有している。クラスコード発生回路106では、
(3)式によって、クラスコードCLの演算が行われ
る。なお、(3)式において、Naは領域切り出し回路
102で切り出されるSD画素データの個数、pはAD
RC回路103における再量子化ビット数を示してい
る。
The image signal conversion device 100 is an ADR.
The requantization code qi as the class information of the space class output from the C circuit 103 and the motion class determination circuit 10
5, a class code generating circuit 106 for obtaining a class code CL indicating the class to which the HD pixel data to be predicted belongs, based on the motion class information MV outputted from 5
have. In the class code generation circuit 106,
The calculation of the class code CL is performed by the equation (3). In equation (3), Na is the number of SD pixel data cut out by the area cutout circuit 102, and p is AD
4 shows the number of requantization bits in the RC circuit 103.

【0030】[0030]

【数2】 (Equation 2)

【0031】また、画像信号変換装置100は、後述ニ
ューラルネットワーク予測回路で使用されるニューラル
ネットワークの結合係数が各クラス毎に記憶されている
記憶手段としてのROMテーブル107を有している。
ROMテーブル107にはクラスコード発生回路106
より出力されるクラスコードCLが読み出しアドレス情
報として供給され、このROMテーブル107からはク
ラスコードCLに対応した結合係数Wiが読み出され
る。
The image signal conversion device 100 also has a ROM table 107 as storage means in which coupling coefficients of a neural network used in a neural network prediction circuit described later are stored for each class.
The class code generation circuit 106 is stored in the ROM table 107.
The output class code CL is supplied as read address information, and a coupling coefficient Wi corresponding to the class code CL is read from the ROM table 107.

【0032】また、画像信号変換装置100は、入力端
子101に供給されるSD画素データより、予測しよう
とする所定のHD画素データに対応した領域のSD画素
データを切り出す領域切り出し回路108と、この領域
切り出し回路108で切り出されたSD画素データと、
上述したROMテーブル107より読み出される結合係
数Wiとから、ニューラルネットワークを使用して、予
測しようとするHD画素データを求めるニューラルネッ
ト予測回路109と、このニューラルネット予測回路1
09で求められたHD画素データを導出する出力端子1
10とを有している。
The image signal conversion apparatus 100 further includes an area extracting circuit 108 for extracting SD pixel data of an area corresponding to predetermined HD pixel data to be predicted from the SD pixel data supplied to the input terminal 101, SD pixel data extracted by the area extraction circuit 108;
A neural network predicting circuit 109 for obtaining HD pixel data to be predicted from the coupling coefficient Wi read from the ROM table 107 using a neural network;
Output terminal 1 for deriving HD pixel data determined in step 09
10 is provided.

【0033】領域切り出し回路108では、例えば図8
に示すように、HD画素データyを予測しようとする場
合、このHD画素データyの近傍に位置する25個のS
D画素データx1〜x25が切り出される。ここで、領域
切り出し回路108は、上記した領域切り出し回路10
2と共通であってもよい。
In the area extracting circuit 108, for example, FIG.
As shown in the figure, when the HD pixel data y is to be predicted, 25 S pixels located near the HD pixel data y
D pixel data x 1 to x 25 are cut out. Here, the region cutout circuit 108 is the same as the region cutout circuit 10 described above.
2 and may be common.

【0034】図2は、ニューラルネット予測回路109
の要部構成例を示しており、バックプロバゲーションニ
ューラルネットワークを使用した例である。このニュー
ラルネット予測回路109は、ニューラルネットワーク
部121と、このニューラルネットワーク部121の出
力層のユニットより得られる結合の度合いを示す値を画
素信号値に変換して出力する正規化部122とを有して
構成されている。
FIG. 2 shows a neural network prediction circuit 109.
Is an example in which a back propagation neural network is used. The neural network prediction circuit 109 includes a neural network unit 121 and a normalization unit 122 that converts a value indicating the degree of coupling obtained from a unit in an output layer of the neural network unit 121 into a pixel signal value and outputs the pixel signal value. It is configured.

【0035】ニューラルネットワーク部121は、3階
層で構成され、入力層にn個のユニット、隠れ層に4個
のユニット、出力層に1個のユニットが配されている。
この場合、入力層の各ユニットには、上述した領域切り
出し回路108で切り出されるn個のSD画素データx
1〜xnがそれぞれ供給される。そして、この入力層の各
ユニットは、それぞれ供給されたSD画素データx1
nを何等変更せずに、隠れ層の各ユニットに分配す
る。
The neural network unit 121 is composed of three layers. The input layer has n units, the hidden layer has four units, and the output layer has one unit.
In this case, each unit of the input layer includes n pieces of SD pixel data x extracted by the above-described area extraction circuit 108.
1 ~x n are supplied. Each unit of the input layer receives the supplied SD pixel data x 1 to x 1 .
Distribute x n to each unit in the hidden layer without any change.

【0036】また、隠れ層の各ユニットは、入力層の各
ユニットと結合係数で結合されている。そして、隠れ層
の各ユニットより出力される結合の度合いを示す値は出
力層のユニットに供給される。さらに、出力層のユニッ
トは、隠れ層の各ユニットと結合係数で結合されてい
る。そして、出力層のユニットより出力される結合の度
合いを示す値はニューラルネットワーク部121の出力
値として正規化部122に供給される。
Each unit in the hidden layer is connected to each unit in the input layer by a coupling coefficient. Then, a value indicating the degree of coupling output from each unit in the hidden layer is supplied to the unit in the output layer. Further, the units of the output layer are connected to the units of the hidden layer by a coupling coefficient. Then, a value indicating the degree of coupling output from the unit of the output layer is supplied to the normalization unit 122 as an output value of the neural network unit 121.

【0037】図3は、隠れ層および出力層のユニットの
構成例を示している。前層のユニットの個数がm個であ
るとして、前層の各ユニットの出力値をA1〜Amとし、
また前層の各ユニットとの結合における結合係数をW1
〜Wmとするとき、ユニットの出力値Uは、(4)式で
表される。そして、この(4)式において、f( )は非
線形要素としての伝達関数であり、例えば(5)式のよ
うな関数がよく使用される。この(5)式で、aは適当
な実数である。
FIG. 3 shows an example of the configuration of the units of the hidden layer and the output layer. As the number of units of the previous layer is m-number, the output value of each unit of the prior layer and A 1 to A m,
Also, the coupling coefficient in coupling with each unit of the preceding layer is W 1
When と す る W m , the output value U of the unit is expressed by equation (4). In the equation (4), f () is a transfer function as a non-linear element, and a function such as the equation (5) is often used. In the equation (5), a is an appropriate real number.

【0038】[0038]

【数3】 (Equation 3)

【0039】なお、上述したようにROMテーブル10
7よりクラスコードCLに対応して読み出される結合係
数Wiが、隠れ層および出力層のユニットにおける結合
係数W1〜Wmとして使用されることになる。
As described above, the ROM table 10
Coupling coefficient Wi read out in response from 7 to the class code CL is to be used as a coupling coefficient W 1 to W-m in units of the hidden layer and output layer.

【0040】また、ニューラルネットワーク部121の
出力層のユニットより得られる結合の度合いを示す値は
0より大きく、かつ1より小さな値となる。そのため、
正規化部122では、例えば画素信号値が8ビットで表
される場合には、結合の度合いを示す値に「256」を
かけ算して、予測対象画素値としてのHD画素データy
を得るようにされる。
The value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 121 is a value larger than 0 and smaller than 1. for that reason,
For example, when the pixel signal value is represented by 8 bits, the normalization unit 122 multiplies the value indicating the degree of combination by “256” to obtain the HD pixel data y as the prediction target pixel value.
To get

【0041】図2に示すニューラルネット予測回路10
9は一例であって、これに限定されるものではない。例
えば、ニューラルネットワーク部121を、隠れ層を増
やすことで4層以上の構成とすることもできる。また、
隠れ層および出力層のユニットの個数も任意に設定でき
る。
The neural network prediction circuit 10 shown in FIG.
9 is an example and is not limited to this. For example, the neural network unit 121 can be configured to have four or more layers by increasing the number of hidden layers. Also,
The number of units in the hidden layer and the output layer can be arbitrarily set.

【0042】図1に示す画像信号変換装置100の動作
を説明する。予測しようとする所定のHD画素データy
に対応して、入力端子101に供給されるSD画素デー
タより領域切り出し回路102で所定領域のSD画素デ
ータkiが切り出され、この切り出された各SD画素デ
ータkiに対してADRC回路103でADRC処理が
施されて空間クラス(主に空間内の波形表現のためのク
ラス分類)のクラス情報としての再量子化コードqiが
得られる。
The operation of the image signal converter 100 shown in FIG. 1 will be described. Predetermined HD pixel data y to be predicted
In response to the above, SD pixel data ki of a predetermined area is cut out from the SD pixel data supplied to the input terminal 101 by the area cutout circuit 102, and the ADRC circuit 103 performs ADRC processing on each of the cut out SD pixel data ki. To obtain a requantization code qi as class information of a space class (mainly a class classification for representing a waveform in space).

【0043】また、上述した予測しようとするHD画素
データyに対応して、入力端子101に供給されるSD
画素データより領域切り出し回路104で所定領域のS
D画素データmi,niが切り出され、この切り出された
各SD画素データmi,niより動きクラス決定回路10
5で動きクラス(主に動きの程度を表すためのクラス分
類)を示すクラス情報MVが得られる。
Also, the SD supplied to the input terminal 101 corresponding to the HD pixel data y to be predicted
The region extraction circuit 104 extracts the S of a predetermined region from the pixel data.
D pixel data mi and ni are cut out, and a motion class determination circuit 10 is obtained from each of the cut out SD pixel data mi and ni.
5 obtains class information MV indicating a motion class (mainly a class classification for representing the degree of motion).

【0044】この動きクラス情報MVと上述したADR
C回路103で得られる再量子化コードqiとから、ク
ラスコード発生回路106で予測しようとするHD画素
データyが属するクラスを示すクラス情報としてのクラ
スコードCLが得られる。そして、このクラスコードC
LがROMテーブル107に読み出しアドレス情報とし
て供給され、このROMテーブル107より予測しよう
とするHD画素データyが属するクラスに対応したニュ
ーラルネットワークの結合係数Wiが読み出される。
The motion class information MV and the above-mentioned ADR
From the requantized code qi obtained by the C circuit 103, a class code CL as class information indicating a class to which the HD pixel data y to be predicted by the class code generation circuit 106 belongs is obtained. And this class code C
L is supplied as read address information to the ROM table 107, and the coupling coefficient Wi of the neural network corresponding to the class to which the HD pixel data y to be predicted belongs is read from the ROM table 107.

【0045】また、上述した予測しようとするHD画素
データyに対応して、入力端子101に供給されるSD
画素データより領域切り出し回路108で所定領域のS
D画素データxiが切り出される。そして、ニューラル
ネット予測回路109では、その切り出されたSD画素
データxiと、上述したようにROMテーブル107よ
り読み出された結合係数Wiとから、ニューラルネット
ワークを使用して、予測しようとするHD画素データy
が求められる。そして、このニューラルネット予測回路
109より順次出力されるHD画素データyが出力端子
110に導出される。
The SD supplied to the input terminal 101 corresponding to the HD pixel data y to be predicted as described above.
The area extraction circuit 108 extracts the S of a predetermined area from the pixel data.
D pixel data xi is cut out. Then, the neural network predicting circuit 109 uses the neural network to predict the HD pixel to be predicted from the extracted SD pixel data xi and the coupling coefficient Wi read from the ROM table 107 as described above. Data y
Is required. Then, the HD pixel data y sequentially output from the neural network prediction circuit 109 is derived to an output terminal 110.

【0046】図1に示す画像信号変換装置100におい
ては、HD画素データyをニューラルネットワークを使
用して予測するものであり、非線形な予測(線形な予測
を含む)が行われるため、従来の線形1次式によって予
測するものと比べて、常に最適なHD画素データyの予
測を行うことが可能となる。
The image signal conversion apparatus 100 shown in FIG. 1 predicts HD pixel data y using a neural network, and performs nonlinear prediction (including linear prediction). It is possible to always optimally predict the HD pixel data y as compared with the prediction by the linear expression.

【0047】ところで、画像信号変換装置100のRO
Mテーブル107には、上述したように各クラスに対応
したニューラルネットワークの結合係数が記憶されてい
る。この係数データは、予め学習によって生成されたも
のである。図9は、学習によって、各クラス毎にニュー
ラルネットワークの結合係数を生成する結合係数生成装
置200の構成例を示している。
The RO of the image signal conversion device 100
As described above, the coupling coefficient of the neural network corresponding to each class is stored in the M table 107. The coefficient data is generated in advance by learning. FIG. 9 shows a configuration example of a coupling coefficient generation device 200 that generates coupling coefficients of a neural network for each class by learning.

【0048】この結合係数生成装置200は、教師信号
としてのハイビジョンのビデオ信号を構成するHD画素
データが供給される入力端子201と、このHD画素デ
ータに対して水平および垂直の間引きフィルタ処理を行
って、入力信号としてのNTSC方式のビデオ信号を構
成するSD画素データを得る信号処理部202とを有し
ている。信号処理部202では、HD画素データに対し
て、垂直間引きフィルタによってフィールド内の垂直方
向のライン数が1/2となるように間引き処理されると
共に、さらに水平間引きフィルタによって水平方向の画
素数が1/2となるように間引き処理される。したがっ
て、SD画素とHD画素の位置関係は、図4および図5
に示すようになる。
The coupling coefficient generator 200 performs an input terminal 201 to which HD pixel data constituting a HDTV video signal as a teacher signal is supplied, and performs horizontal and vertical thinning filter processing on the HD pixel data. A signal processing unit 202 for obtaining SD pixel data constituting an NTSC video signal as an input signal. In the signal processing unit 202, the HD pixel data is thinned by a vertical thinning filter so that the number of lines in the vertical direction in the field is halved, and the number of pixels in the horizontal direction is further thinned by the horizontal thinning filter. The thinning processing is performed so as to reduce to 2. Therefore, the positional relationship between the SD pixel and the HD pixel is shown in FIGS.
It becomes as shown in.

【0049】また、結合係数生成装置200は、入力端
子201に供給されるHD画素データより得られる予測
対象画素値としての複数個のHD画素データにそれぞれ
対応して、信号処理部202より出力されるSD画素デ
ータより所定領域のSD画素データを順次切り出す領域
切り出し回路203と、この領域切り出し回路203で
順次切り出されたSD画素データに対してADRC処理
を適用して、主に空間内の波形を表すクラス(空間クラ
ス)を決定してクラス情報を出力するADRC回路20
4とを有している。
The coupling coefficient generation device 200 outputs a signal from the signal processing unit 202 corresponding to each of a plurality of HD pixel data as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201. A region extracting circuit 203 for sequentially extracting SD pixel data of a predetermined region from the SD pixel data to be extracted, and ADRC processing is applied to the SD pixel data sequentially extracted by the region extracting circuit 203 to mainly generate a waveform in space. ADRC circuit 20 for determining a class to be represented (space class) and outputting class information
And 4.

【0050】領域切り出し回路203は、上述した画像
信号変換装置100の領域切り出し回路102と同様に
構成される。この領域切り出し回路203からは、例え
ば図6に示すように、予測対象画素値としてのHD画素
データyに対応して、このHD画素データyの近傍に位
置するSD画素データk1〜k5が切り出される。また、
ADRC回路204も、上述した画像信号変換装置10
0のADRC回路103と同様に構成される。このAD
RC回路204からは、予測対象値としての各HD画素
データにそれぞれ対応して切り出された所定領域のSD
画素データ毎に再量子化コードqiが空間クラスを示す
クラス情報として出力される。
The area cutout circuit 203 has the same configuration as the area cutout circuit 102 of the image signal conversion apparatus 100 described above. For example, as shown in FIG. 6, SD pixel data k 1 to k 5 located near the HD pixel data y corresponding to the HD pixel data y as the prediction target pixel value are output from the area cutout circuit 203. It is cut out. Also,
The ADRC circuit 204 is also used for the image signal converter 10 described above.
The configuration is the same as that of the 0 ADRC circuit 103. This AD
From the RC circuit 204, the SD of the predetermined area cut out corresponding to each HD pixel data as the prediction target value is
The requantization code qi is output as class information indicating a space class for each pixel data.

【0051】また、結合係数生成装置200は、上述し
た予測対象画素値としての各HD画素データにそれぞれ
対応して、信号処理部202より出力されるSD画素デ
ータより所定領域のSD画素データを順次切り出す領域
切り出し回路205と、この領域切り出し回路205で
切り出されたSD画素データより、主に動きの程度を表
すためのクラス(動きクラス)を決定してクラス情報を
出力する動きクラス決定回路206とを有している。
The coupling coefficient generation device 200 sequentially converts the SD pixel data in a predetermined area from the SD pixel data output from the signal processing unit 202 in correspondence with each of the HD pixel data as the above-described prediction target pixel values. An area extracting circuit 205 for extracting, and a motion class determining circuit 206 for determining a class (motion class) mainly representing the degree of motion and outputting class information based on the SD pixel data extracted by the area extracting circuit 205; have.

【0052】領域切り出し回路205は、上述した画像
信号変換装置100の領域切り出し回路104と同様に
構成される。この領域切り出し回路205からは、例え
ば図7に示すように、予測対象画素値としてのHD画素
データyに対応して、このHD画素データyの近傍に位
置する10個のSD画素データm1〜m5,n1〜n5が切
り出される。また、動きクラス決定回路206も、上述
した画像信号変換装置100の動きクラス決定回路10
5と同様に構成される。この動きクラス決定回路206
からは、予測対象画素値としての各HD画素データにそ
れぞれ対応して切り出された所定領域のSD画素データ
毎に動きの指標である動きクラスのクラス情報MVが出
力される。
The area cutout circuit 205 is configured similarly to the area cutout circuit 104 of the image signal conversion device 100 described above. As shown in FIG. 7, for example, as shown in FIG. 7, the area cutout circuit 205 generates ten SD pixel data m 1 to m 10 located in the vicinity of the HD pixel data y corresponding to the HD pixel data y as the prediction target pixel value. m 5 and n 1 to n 5 are cut out. The motion class determination circuit 206 of the image signal conversion device 100 described above
5 is configured in the same manner. This motion class determination circuit 206
, The motion class information MV, which is a motion index, is output for each of the SD pixel data of the predetermined region cut out corresponding to each HD pixel data as the prediction target pixel value.

【0053】また、結合係数生成装置200は、ADR
C回路204より出力される空間クラスのクラス情報と
しての再量子化コードqiと、動きクラス決定回路20
6より出力される動きクラスのクラス情報MVに基づい
てクラスコードCLを得るためのクラスコード発生回路
207を有している。このクラスコード発生回路207
は、上述した画像信号変換装置100のクラスコード発
生回路106と同様に構成される。このクラスコード発
生回路207からは、予測対象画素値としての各HD画
素データにそれぞれ対応して、そのHD画素データが属
するクラスを示すクラスコードCLが出力される。
Further, the coupling coefficient generating device 200 is adapted to execute the ADR
The requantization code qi as the class information of the space class output from the C circuit 204 and the motion class determination circuit 20
6 has a class code generation circuit 207 for obtaining a class code CL based on the class information MV of the motion class output from the control unit 6. This class code generation circuit 207
Has the same configuration as the class code generation circuit 106 of the image signal conversion device 100 described above. The class code generation circuit 207 outputs a class code CL indicating a class to which the HD pixel data belongs, corresponding to each HD pixel data as a prediction target pixel value.

【0054】また、結合係数生成装置200は、上述し
た予測対象画素値としての各HD画素データにそれぞれ
対応して、信号処理部202より出力されるSD画素デ
ータより所定領域のSD画素データを順次切り出す領域
切り出し回路208を有している。領域切り出し回路2
08は、上述した画像信号変換装置100の領域切り出
し回路108と同様に構成される。この領域切り出し回
路208からは、例えば図8に示すように、予測対象画
素値としてのHD画素データyに対応して、このHD画
素データyの近傍に位置する25個のSD画素データx
1〜x25が切り出される。
The coupling coefficient generation device 200 sequentially converts the SD pixel data in a predetermined area from the SD pixel data output from the signal processing unit 202 in correspondence with each of the HD pixel data as the above-described pixel values to be predicted. An area extracting circuit 208 is provided. Area extraction circuit 2
08 is configured in the same manner as the above-described area cutout circuit 108 of the image signal conversion device 100. As shown in FIG. 8, for example, as shown in FIG. 8, from the area cutout circuit 208, 25 SD pixel data x located near the HD pixel data y corresponding to the HD pixel data y as the prediction target pixel value
1 ~x 25 is cut out.

【0055】また、結合係数生成装置200は、入力端
子201に供給されるHD画素データより得られる予測
対象画素値としての各HD画素データyと、予測対象画
素値としての各HD画素データyにそれぞれ対応して領
域切り出し回路208で順次切り出されたSD画素デー
タxiと、予測対象画素値としての各HD画素データy
にそれぞれ対応してクラスコード発生回路207より出
力されるクラスコードCLとから、ニューラルネットワ
ークによる学習によって、各クラス毎に結合係数を得る
ニューラルネット学習回路209と、このニューラルネ
ット学習回路209で得られた各クラス毎の結合係数W
iを記憶するためのメモリ210とを有している。
Further, the coupling coefficient generation device 200 converts each HD pixel data y as the prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201 and each HD pixel data y as the prediction target pixel value. The SD pixel data xi sequentially cut out by the area cutout circuit 208 and the HD pixel data y as the prediction target pixel value respectively.
, A neural network learning circuit 209 that obtains a coupling coefficient for each class by learning using a neural network from the class code CL output from the class code generation circuit 207, and a neural network learning circuit 209 that obtains a coupling coefficient for each class. Coupling coefficient W for each class
and a memory 210 for storing i.

【0056】図10は、ニューラルネット学習回路20
9の要部構成例を示しており、図2示すニューラルネッ
ト予測回路109と同様に、バックプロバゲーションニ
ューラルネットワークを使用した例である。このニュー
ラルネット学習回路209は、ニューラルネットワーク
部221と、このニューラルネットワーク部221の出
力層のユニットより出力される結合の度合いを示す値を
画素信号値に変換して出力する正規化部222と、この
正規化部222より出力される画素信号値yoと予測対
象画素値としてのHD画素データyとを比較して誤差ε
を検出する誤差検出部223とを有して構成されてい
る。ニューラルネットワーク部221および正規化部2
22は、それぞれは図2に示すニューラルネット予測回
路109のニューラルネットワーク部121および正規
化部122と同様に構成されている。
FIG. 10 shows a neural network learning circuit 20.
9 shows an example of the configuration of the main part of FIG. 9, in which a back propagation neural network is used as in the neural network prediction circuit 109 shown in FIG. The neural network learning circuit 209 includes a neural network unit 221, a normalization unit 222 that converts a value indicating the degree of coupling output from a unit of the output layer of the neural network unit 221 into a pixel signal value and outputs the pixel signal value. The pixel signal value yo output from the normalization unit 222 is compared with the HD pixel data y as the pixel value to be predicted, and an error ε is calculated.
And an error detection unit 223 that detects Neural network unit 221 and normalization unit 2
22 has the same configuration as the neural network unit 121 and the normalization unit 122 of the neural network prediction circuit 109 shown in FIG.

【0057】このニューラルネット学習回路209で
は、各クラス毎に、複数個の学習データを用いて結合係
数が生成される。ここで、1個の学習データは、予測対
象画素値としての1個のHD画素データyとそれに対応
するn個のSD画素データx1〜xnとの組み合わせで構
成されている。
In the neural network learning circuit 209, a coupling coefficient is generated for each class using a plurality of learning data. Here, one piece of learning data is composed of a combination of one piece of HD pixel data y as a prediction target pixel value and n pieces of corresponding SD pixel data x 1 to x n .

【0058】ここで、あるクラスにおける結合係数の生
成は、以下のように行われる。まず、ニューラルネット
ワーク部221の隠れ層および出力層のユニットにおけ
る結合係数が初期値の状態で、あるクラスの複数個の学
習データのうち1番目の学習データを構成するn個のS
D画素データx1〜xnをニューラルネットワーク部22
1の入力層のユニットに供給する。この状態で、出力層
のユニットより得られる結合の度合いを示す値を正規化
部222で画素信号値yoに変換する。そして、誤差検
出部223で、この画素信号値yoと上述の1番目の学
習データを構成する1個のHD画素データyとを比較し
て誤差εを検出する。この誤差εが充分小さな一定範囲
内にあるときは、この状態での隠れ層および出力層のユ
ニットにおける結合係数をあるクラスの結合係数Wiと
してメモリ210に供給して記憶させ、あるクラスにお
ける結合係数の生成動作を終了する。
Here, the generation of the coupling coefficient in a certain class is performed as follows. First, in the state where the coupling coefficients in the units of the hidden layer and the output layer of the neural network unit 221 are initial values, n pieces of S constituting the first learning data among a plurality of learning data of a certain class are set.
The D pixel data x 1 to x n are sent to the neural network unit 22
1 input layer unit. In this state, the value indicating the degree of coupling obtained from the unit of the output layer is converted into the pixel signal value yo by the normalization unit 222. Then, the error detection unit 223 detects the error ε by comparing the pixel signal value yo with one piece of HD pixel data y constituting the first learning data. When this error ε is within a sufficiently small fixed range, the coupling coefficient in the unit of the hidden layer and the output layer in this state is supplied to the memory 210 as the coupling coefficient Wi of a certain class and stored therein. Is completed.

【0059】一方、誤差εが一定範囲内にないときは、
この誤差εが一定範囲内に入る方向にニューラルネット
ワーク部221の出力層、さらには隠れ層のユニットに
おける結合係数を変更する。つまり、ニューラルネット
ワーク部221の出力層での誤差を入力層に向かって伝
搬させて学習を行うものである。そして、このように出
力層および隠れ層のユニットにおける結合係数を変更し
た後に、あるクラスの複数個の学習データのうち2番目
の学習データを構成するn個のSD画素データx1〜xn
をニューラルネットワーク部221の入力層のユニット
に供給する。
On the other hand, when the error ε is not within a certain range,
The coupling coefficient in the output layer of the neural network unit 221 and further in the unit of the hidden layer is changed so that the error ε falls within a certain range. That is, learning is performed by propagating an error in the output layer of the neural network unit 221 toward the input layer. Then, after changing the coupling coefficient in the unit of the thus output layer and the hidden layer, the second n pieces of SD pixel data x 1 constituting the training data ~x n among the plurality of training data of a class
To the input layer unit of the neural network unit 221.

【0060】この状態で、出力層のユニットより得られ
る結合の度合いを示す値を正規化部222で画素信号値
yoに変換する。そして、誤差検出部223で、この画
素信号値yoと上述の2番目の学習データを構成する1
個のHD画素データyとを比較して誤差εを検出する。
この誤差εが充分小さな一定範囲内にあるときは、この
状態での隠れ層および出力層のユニットにおける結合係
数をあるクラスの結合係数Wiとしてメモリ210に供
給して記憶させ、あるクラスにおける結合係数の生成動
作を終了する。一方、誤差εが一定範囲内にないとき
は、この誤差εが一定範囲内に入る方向にニューラルネ
ットワーク部221の出力層、さらには隠れ層のユニッ
トにおける結合係数を変更する。
In this state, the value indicating the degree of coupling obtained from the unit of the output layer is converted into a pixel signal value yo by the normalization section 222. Then, the error detection unit 223 calculates the pixel signal value yo and the 1 that constitutes the second learning data described above.
The error .epsilon. Is detected by comparing with the HD pixel data y.
When this error ε is within a sufficiently small fixed range, the coupling coefficient in the unit of the hidden layer and the output layer in this state is supplied to the memory 210 as the coupling coefficient Wi of a certain class and stored therein. Is completed. On the other hand, when the error ε is not within the certain range, the coupling coefficient in the output layer of the neural network unit 221 and further, the unit of the hidden layer is changed so that the error ε falls within the certain range.

【0061】以下、同様にして、誤差εが一定範囲内に
入るまで、順次次の学習データを使用し、ニューラルネ
ットワーク部221の出力層、隠れ層のユニットにおけ
る結合係数を変更していく。ただし、あるクラスの複数
個の学習データを全て使用しても、誤差εが一定範囲内
に入らないときは、最終的に出力層、隠れ層のユニット
で使用された結合係数をあるクラスの結合係数Wiとし
てメモリ210に供給して記憶させ、あるクラスにおけ
る結合係数の生成動作を終了する。
In the same manner, the coupling coefficient in the unit of the output layer and the hidden layer of the neural network unit 221 is sequentially changed using the next learning data until the error ε falls within a certain range. However, if the error ε does not fall within a certain range even when all of a plurality of learning data of a certain class are used, the coupling coefficients finally used in the units of the output layer and the hidden layer are combined into a certain class. The coefficient Wi is supplied to and stored in the memory 210, and the operation of generating the coupling coefficient in a certain class is completed.

【0062】なお、あるクラスの複数個の学習データを
全て使用しても、誤差εが一定範囲内に入らないとき
は、出力層、隠れ層のユニットにおける結合係数の初期
値や(5)式の伝達関数における実数aを変更して、上
述した生成動作を最初からやり直すようにしてもよい。
If the error ε does not fall within a certain range even when all of a plurality of learning data of a certain class are used, the initial value of the coupling coefficient in the unit of the output layer and the hidden layer and the equation (5) May be changed from the beginning by changing the real number a in the transfer function.

【0063】図9に示す結合係数生成装置200の動作
を説明する。入力端子201には教師信号としてのハイ
ビジョンのビデオ信号を構成するHD画素データが供給
され、そしてこのHD画素データに対して信号処理部2
02で水平および垂直の間引き処理等が行われて入力信
号としてのNTSC方式のビデオ信号を構成するSD画
素データが得られる。
The operation of the coupling coefficient generator 200 shown in FIG. 9 will be described. The input terminal 201 is supplied with HD pixel data constituting a high definition video signal as a teacher signal, and the signal processing unit 2
In step 02, the horizontal and vertical decimation processes are performed to obtain SD pixel data constituting an NTSC video signal as an input signal.

【0064】また、入力端子201に供給されるHD画
素データより得られる予測対象画素値としての各HD画
素データyにそれぞれ対応して、信号処理部202より
出力されるSD画素データから領域切り出し回路203
で所定領域のSD画素データkiが順次切り出され、こ
の切り出された各SD画素データkiに対してADRC
回路204でADRC処理が施されて空間クラス(主に
空間内の波形表現のためのクラス分類)のクラス情報と
しての再量子化コードqiが得られる。
Also, an area extracting circuit from the SD pixel data output from the signal processing unit 202 corresponding to each HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201. 203
, The SD pixel data ki of the predetermined area is sequentially cut out, and ADRC is performed on each of the cut out SD pixel data ki.
The circuit 204 performs an ADRC process to obtain a requantized code qi as class information of a space class (mainly a class classification for representing a waveform in space).

【0065】また、予測対象画素値としての各HD画素
データyにそれぞれ対応して、信号処理部202より出
力されるSD画素データから領域切り出し回路205で
所定領域のSD画素データmi,niが順次切り出され、
この切り出された各SD画素データmi,niより動きク
ラス決定回路206で動きクラス(主に動きの程度を表
すためのクラス分類)を示すクラス情報MVが得られ
る。そして、このクラス情報MVと上述したADRC回
路204で得られる再量子化コードqiとからクラスコ
ード発生回路207で、予測対象画素値としての各HD
画素データyが属するクラスを示すクラス情報としての
クラスコードCLが得られる。
Further, in correspondence with each of the HD pixel data y as the pixel value to be predicted, the SD pixel data mi and ni of the predetermined area are sequentially extracted from the SD pixel data output from the signal processing unit 202 by the area extracting circuit 205. Cut out,
From the extracted SD pixel data mi and ni, the motion class determination circuit 206 obtains class information MV indicating a motion class (mainly a class classification for representing the degree of motion). Then, based on the class information MV and the requantized code qi obtained by the above-described ADRC circuit 204, each of the HD
A class code CL is obtained as class information indicating the class to which the pixel data y belongs.

【0066】また、予測対象画素値としての各HD画素
データyにそれぞれ対応して、信号処理部202より出
力されるSD画素データから領域切り出し回路208で
所定領域のSD画素データxiが順次切り出される。そ
して、入力端子201に供給されるHD画素データより
得られる予測対象画素値としての各HD画素データy
と、予測対象画素値としての各HD画素データyにそれ
ぞれ対応して領域切り出し回路208で順次切り出され
たSD画素データxiと、予測対象画素値としての各H
D画素データyにそれぞれ対応してクラスコード発生回
路207より出力されるクラスコードCLとから、ニュ
ーラルネットワークによる学習によって、各クラス毎に
結合係数Wiが生成される。そして、この結合係数Wi
は、クラス別にアドレス分割されたメモリ210に記憶
される。
Further, in accordance with each HD pixel data y as a prediction target pixel value, SD pixel data xi of a predetermined area is sequentially cut out from the SD pixel data output from the signal processing unit 202 by the area cutout circuit 208. . Then, each HD pixel data y as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201
And SD pixel data xi sequentially cut out by the area cutout circuit 208 in correspondence with each HD pixel data y as a prediction target pixel value, and each H as a prediction target pixel value.
From the class code CL output from the class code generation circuit 207 corresponding to each of the D pixel data y, a coupling coefficient Wi is generated for each class by learning using a neural network. Then, the coupling coefficient Wi
Are stored in the memory 210 divided into addresses by class.

【0067】図11は、ニューラルネット学習回路20
9における結合係数の学習フローを示している。まず、
ステップST1で、入力端子201に供給されるHD画
素データより得られる予測対象画素値としての1個のH
D画素データyと、それに対応して領域切り出し回路2
08で切り出されるn個のSD画素データx1〜xnとの
組み合わせで、1個の学習データを生成する。次に、ス
テップST2で、クラスコード発生回路207より供給
されるクラスコードCLによって、ステップST1で生
成された学習データのクラス分類をする。
FIG. 11 shows a neural network learning circuit 20.
9 shows a learning flow of a coupling coefficient in No. 9; First,
In step ST1, one H as a prediction target pixel value obtained from the HD pixel data supplied to the input terminal 201 is output.
D pixel data y and the corresponding region extracting circuit 2
In combination with the n pieces of SD pixel data x 1 ~x n cut out 08, it produces one of the learning data. Next, in step ST2, the class classification of the learning data generated in step ST1 is performed based on the class code CL supplied from the class code generation circuit 207.

【0068】次に、ステップST3で、入力端子201
に供給されるHD画素データより得られる予測対象画素
値としての各HD画素データyの全てに対応した学習デ
ータの生成が終了したか否かを判定し、学習データの生
成が終了していないときは、ステップST1に戻って、
学習データの生成を続ける。一方、学習データの生成が
終了したときは、ステップST4で、N=1とし、ステ
ップST5で、Nクラスに分類された複数個の学習デー
タを使用して、このNクラスの結合係数Wiを生成する
処理をする。
Next, in step ST3, the input terminal 201
It is determined whether or not the generation of the learning data corresponding to all of the HD pixel data y as the prediction target pixel values obtained from the HD pixel data supplied to is completed, and the generation of the learning data is not completed Returns to step ST1,
Continue generating learning data. On the other hand, when the generation of the learning data is completed, N = 1 is set in step ST4, and in step ST5, the N-class coupling coefficients Wi are generated by using a plurality of learning data classified into N classes. Process.

【0069】次に、ステップST6で、全てのクラスの
結合係数Wiの生成が終了したか否かを判定する。終了
していないときは、ステップST7で、Nを1だけ増
し、その後にステップST5に戻って、上述したように
Nクラスの結合係数Wiを生成する処理をする。一方、
終了したときは、結合係数の学習フローを終了する。
Next, in step ST6, it is determined whether or not the generation of the coupling coefficients Wi of all the classes has been completed. If not completed, N is incremented by 1 in step ST7, and thereafter, the process returns to step ST5 to perform processing for generating the N-class coupling coefficient Wi as described above. on the other hand,
When completed, the learning flow of the coupling coefficient is terminated.

【0070】また、図12は、Nクラスの結合係数生成
処理フローを示している。まず、ステップST11で、
M=1とする。次に、ステップST12で、Nクラスの
M番目の学習データを構成するn個のSD画素データを
ニューラルネットワーク部221の入力層のユニットに
供給し、この状態で出力層のユニットより結合の度合い
を示す値を得る。
FIG. 12 shows an N class coupling coefficient generation processing flow. First, in step ST11,
It is assumed that M = 1. Next, in step ST12, n SD pixel data constituting the M-th learning data of the N class is supplied to the unit of the input layer of the neural network unit 221. In this state, the degree of connection is determined by the unit of the output layer. Get the value shown.

【0071】次に、ステップST13で、ニューラルネ
ットワーク部221の出力層のユニットとより得られる
結合の度合いを示す値を正規化部222に供給して正規
化することで画素信号値yoを得る。そして、ステップ
ST14で、NクラスのM番目の学習データを構成する
1個のHD画素データyと、ステップST13で得られ
た画素信号値yoとを誤差検出部223で比較して誤差
εを検出する。
Next, in step ST13, a value indicating the degree of coupling obtained from the unit of the output layer of the neural network unit 221 is supplied to the normalization unit 222 and normalized to obtain a pixel signal value yo. Then, in step ST14, one HD pixel data y constituting the M-th learning data of the N class is compared with the pixel signal value yo obtained in step ST13 by the error detection section 223 to detect the error ε. I do.

【0072】次に、ステップST15で、ステップST
14で検出される誤差εが充分小さな一定範囲内に入っ
ているか否かを判定する。誤差εが一定範囲内に入って
いるときは、ステップST16で、その状態での隠れ層
および出力層のユニットにおける結合係数をNクラスの
結合係数Wiとしてメモリ210に供給して記憶させ、
その後にNクラスにおける結合係数の生成動作を終了す
る。
Next, in step ST15, step ST
It is determined whether the error ε detected in step 14 is within a sufficiently small fixed range. When the error ε is within a certain range, in step ST16, the coupling coefficient in the unit of the hidden layer and the output layer in that state is supplied to the memory 210 as an N-class coupling coefficient Wi and stored therein.
Thereafter, the operation of generating the coupling coefficient in the N class is completed.

【0073】一方、誤差εが一定範囲内にないときは、
ステップST17で、この誤差εが一定範囲内に入る方
向にニューラルネットワーク部221の出力層および隠
れ層のユニットにおける結合係数を変更する。そして、
ステップST18で、Mを1だけ増やし、その後にステ
ップST19で、MがNクラスに分類された学習データ
の個数Mnより大きいか否かを判定する。
On the other hand, when the error ε is not within a certain range,
In step ST17, the coupling coefficient in the unit of the output layer and the hidden layer of the neural network unit 221 is changed so that the error ε falls within a certain range. And
In step ST18, M is incremented by 1, and then in step ST19, it is determined whether M is greater than the number Mn of learning data classified into N classes.

【0074】M>Mnであるときは、Nクラスに分類さ
れた学習データの全てを使用したことになるので、ステ
ップST16で、その状態での隠れ層および出力層のユ
ニットにおける結合係数をNクラスの結合係数Wiとし
てメモリ210に供給して記憶させ、その後にNクラス
における結合係数の生成動作を終了する。一方、M>M
nでないときは、ステップST12に戻って、上述した
動作を繰り返し行う。
When M> Mn, it means that all the learning data classified into N classes have been used. In step ST16, the coupling coefficient in the unit of the hidden layer and the output layer in that state is determined by the N class. Is supplied to and stored in the memory 210 as the coupling coefficient Wi, and then the generation operation of the coupling coefficient in the N class is terminated. On the other hand, M> M
If it is not n, the process returns to step ST12, and the above operation is repeated.

【0075】なお、図12には図示していないが、学習
データを全て使用しても誤差εが一定範囲内に入らない
とき、出力層、隠れ層のユニットにおける結合係数の初
期値や(5)式の伝達関数における実数aを変更して、
上述した生成動作を最初からやり直す場合には、ステッ
プST19でM>Mnであるとき、結合係数の初期値や
伝達関数の実数aを変更して、ステップST11に戻る
ようにすればよい。
Although not shown in FIG. 12, if the error ε does not fall within a certain range even when all the learning data are used, the initial value of the coupling coefficient in the unit of the output layer and the hidden layer and (5 )), Changing the real number a in the transfer function
To restart the above-described generation operation from the beginning, when M> Mn in step ST19, the initial value of the coupling coefficient or the real number a of the transfer function may be changed, and the process may return to step ST11.

【0076】なお、上述実施の形態においては、空間波
形を少ないビット数でパターン化する情報圧縮手段とし
て、ADRC回路103(図1)、204(図9)を設
けることにしたが、これはほんの一例であり、信号波形
のパターンの少ないクラスで表現できるような情報圧縮
手段であれば何を設けるかは自由であり、例えばDPC
M(Differential Pulse Code Modulation)やVQ(Ve
ctor Quantization )等の圧縮手段を用いてもよい。
In the above-described embodiment, the ADRC circuits 103 (FIG. 1) and 204 (FIG. 9) are provided as information compression means for patterning a spatial waveform with a small number of bits. This is merely an example, and any information compression means can be provided as long as it can be represented by a class having a small number of signal waveform patterns.
M (Differential Pulse Code Modulation) or VQ (Ve
Compression means such as ctor Quantization) may be used.

【0077】また、上述実施の形態では、SD画素デー
タよりHD画素データを得るものを示したが、例えばあ
るSD画素データより解像度を増した他のSD画素デー
タを得る場合、あるいはあるHD画素データより解像度
を増した他のHD画素データを得る場合にも同様に適用
できる。この場合には、変換前と変換後の画素数は同じ
となる。
In the above-described embodiment, the HD pixel data is obtained from the SD pixel data. However, for example, when obtaining other SD pixel data having a higher resolution than a certain SD pixel data, or obtaining a certain HD pixel data, The same applies to the case of obtaining other HD pixel data with a higher resolution. In this case, the number of pixels before and after the conversion is the same.

【0078】また、上述実施の形態においては、NTS
C方式のビデオ信号をハイビジョンのビデオ信号に変換
する例を示したが、この発明はそれに限定されるもので
なく、第1の画像信号をこの第1の画像信号と同じある
いはそれより多い画素数の第2の画像信号に変換する場
合に同様に適用できることは勿論である。
In the above embodiment, the NTS
Although an example in which a C-system video signal is converted to a Hi-Vision video signal has been described, the present invention is not limited to this, and the first image signal may have the same or a larger number of pixels as the first image signal. It is needless to say that the present invention can be similarly applied to the case of converting into the second image signal.

【0079】[0079]

【発明の効果】この発明によれば、第1の画像信号をこ
の第1の画像信号と同じあるいはそれより多い画素数の
第2の画像信号に変換する際、ニューラルネットワーク
を使用して第2の画像信号を構成する画素信号を予測す
るものであり、非線形な予測(線形な予測を含む)が行
われるため、従来の線形1次式によって予測するものと
比べて、常に最適な画素信号の予測を行うことができ
る。
According to the present invention, when a first image signal is converted into a second image signal having the same or larger number of pixels as the first image signal, the second image signal is converted to a second image signal using a neural network. And predicts a pixel signal that constitutes the image signal of the above. Since nonlinear prediction (including linear prediction) is performed, an optimal pixel signal is always obtained as compared with the conventional linear linear prediction. You can make predictions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施の形態としての画像信号変換装置の構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image signal conversion device according to an embodiment.

【図2】画像信号変換装置のニューラルネット予測回路
の要部構成例を示す図である。
FIG. 2 is a diagram illustrating a configuration example of a main part of a neural network prediction circuit of the image signal conversion device.

【図3】ニューラルネットワークを構成する隠れ層、出
力層のユニットの構成例を示す図である。
FIG. 3 is a diagram illustrating a configuration example of units of a hidden layer and an output layer that constitute a neural network.

【図4】SD画素とHD画素の位置関係を説明するため
の略線図である。
FIG. 4 is a schematic diagram for explaining a positional relationship between SD pixels and HD pixels.

【図5】SD画素とHD画素の位置関係を説明するため
の略線図である。
FIG. 5 is a schematic diagram for explaining a positional relationship between SD pixels and HD pixels.

【図6】空間クラス分類に使用するSD画素データを説
明するための略線図である。
FIG. 6 is a schematic diagram for explaining SD pixel data used for space class classification.

【図7】動きクラス分類に使用するSD画素データを説
明するための略線図である。
FIG. 7 is a schematic diagram for explaining SD pixel data used for motion class classification.

【図8】ニューラルネットワークを使用したHD画素デ
ータの予測に用いるSD画素データを説明するための略
線図である。
FIG. 8 is a schematic diagram for explaining SD pixel data used for prediction of HD pixel data using a neural network.

【図8】ニューラルネット予測回路で使用される結合係
数を学習によって生成する結合係数生成装置の構成例を
示すブロック図である。
FIG. 8 is a block diagram illustrating a configuration example of a coupling coefficient generation device that generates coupling coefficients used in a neural network prediction circuit by learning;

【図10】結合係数生成装置のニューラルネット学習回
路の要部構成例を示す図である。
FIG. 10 is a diagram illustrating a configuration example of a main part of a neural network learning circuit of the coupling coefficient generation device.

【図11】結合係数の学習フローを示すフローチャート
である。
FIG. 11 is a flowchart showing a learning flow of a coupling coefficient.

【図12】学習フローにおけるNクラスの結合係数生成
処理を説明するためのフローチャートである。
FIG. 12 is a flowchart for explaining N class coupling coefficient generation processing in a learning flow.

【符号の説明】[Explanation of symbols]

100・・・画像信号変換装置、101,201・・・
入力端子、102,104,108,203,205,
208・・・領域切り出し回路、103,204・・・
ADRC回路、105,206・・・動きクラス決定回
路、106,207・・・クラスコード発生回路、10
7・・・ROMテーブル、109・・・ニューラルネッ
ト予測回路、110・・・出力端子、121,221・
・・ニューラルネットワーク部、122,222・・・
正規化部、209・・・ニューラルネット学習回路、2
10・・・メモリ、223・・・誤差検出部
100 ... image signal conversion device, 101, 201 ...
Input terminals, 102, 104, 108, 203, 205,
208 ... area cutout circuit, 103, 204 ...
ADRC circuit, 105, 206: motion class determination circuit, 106, 207: class code generation circuit, 10
7 ROM table, 109 neural network prediction circuit, 110 output terminal, 121, 221
..Neural network sections, 122, 222, etc.
Normalization unit, 209 ... Neural network learning circuit, 2
10 memory, 223 error detection unit

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成9年7月11日[Submission date] July 11, 1997

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】図面の簡単な説明[Correction target item name] Brief description of drawings

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施の形態としての画像信号変換装置の構成を
示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image signal conversion device according to an embodiment.

【図2】画像信号変換装置のニューラルネット予測回路
の要部構成例を示す図である。
FIG. 2 is a diagram illustrating a configuration example of a main part of a neural network prediction circuit of the image signal conversion device.

【図3】ニューラルネットワークを構成する隠れ層、出
力層のユニットの構成例を示す図である。
FIG. 3 is a diagram illustrating a configuration example of units of a hidden layer and an output layer that constitute a neural network.

【図4】SD画素とHD画素の位置関係を説明するため
の略線図である。
FIG. 4 is a schematic diagram for explaining a positional relationship between SD pixels and HD pixels.

【図5】SD画素とHD画素の位置関係を説明するため
の略線図である。
FIG. 5 is a schematic diagram for explaining a positional relationship between SD pixels and HD pixels.

【図6】空間クラス分類に使用するSD画素データを説
明するための略線図である。
FIG. 6 is a schematic diagram for explaining SD pixel data used for space class classification.

【図7】動きクラス分類に使用するSD画素データを説
明するための略線図である。
FIG. 7 is a schematic diagram for explaining SD pixel data used for motion class classification.

【図8】ニューラルネットワークを使用したHD画素デ
ータの予測に用いるSD画素データを説明するための略
線図である。
FIG. 8 is a schematic diagram for explaining SD pixel data used for prediction of HD pixel data using a neural network.

【図9】ニューラルネット予測回路で使用される結合係
数を学習によって生成する結合係数生成装置の構成例を
示すブロック図である。
FIG. 9 is a block diagram illustrating a configuration example of a coupling coefficient generation device that generates coupling coefficients used in a neural network prediction circuit by learning;

【図10】結合係数生成装置のニューラルネット学習回
路の要部構成例を示す図である。
FIG. 10 is a diagram illustrating a configuration example of a main part of a neural network learning circuit of the coupling coefficient generation device.

【図11】結合係数の学習フローを示すフローチャート
である。
FIG. 11 is a flowchart showing a learning flow of a coupling coefficient.

【図12】学習フローにおけるNクラスの結合係数生成
処理を説明するためのフローチャートである。
FIG. 12 is a flowchart for explaining N class coupling coefficient generation processing in a learning flow.

【符号の説明】 100・・・画像信号変換装置、101,201・・・
入力端子、102,104,108,203,205,
208・・・領域切り出し回路、103,204・・・
ADRC回路、105,206・・・動きクラス決定回
路、106,207・・・クラスコード発生回路、10
7・・・ROMテーブル、109・・・ニューラルネッ
ト予測回路、110・・・出力端子、121,221・
・・ニューラルネットワーク部、122,222・・・
正規化部、209・・・ニューラルネット学習回路、2
10・・・メモリ、223・・・誤差検出部
[Description of Signs] 100: Image signal conversion device, 101, 201 ...
Input terminals, 102, 104, 108, 203, 205,
208 ... area cutout circuit, 103, 204 ...
ADRC circuit, 105, 206: motion class determination circuit, 106, 207: class code generation circuit, 10
7 ROM table, 109 neural network prediction circuit, 110 output terminal, 121, 221
..Neural network sections, 122, 222, etc.
Normalization unit, 209 ... Neural network learning circuit, 2
10 memory, 223 error detection unit

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 第1の画像信号を、この第1の画像信号
と同じあるいはそれより多い画素数の第2の画像信号に
変換するようにした画像信号変換装置において、 上記第1の画像信号から第1の領域の画素の信号を切り
出す第1の画素切り出し手段と、 上記第1の画素切り出し手段により切り出された上記第
1の領域の画素の信号のレベル分布パターンを検出し、
このパターンに基づいて予測しようとする上記第2の画
像信号を構成する所定画素の信号が属するクラスを決定
してクラス情報を出力するクラス決定手段と、 上記クラス情報で示される各クラスに対応したニューラ
ルネットワークの結合係数を記憶しておく結合係数記憶
手段と、 上記クラス決定手段より出力される上記クラス情報に対
応して上記結合係数記憶手段より上記結合係数を読み出
す結合係数読み出し手段と、 上記第1の画像信号から上記第1の領域と同じあるいは
異なる第2の領域の画素の信号を切り出す第2の画素切
り出し手段と、 上記結合係数記憶手段より読み出された上記結合係数
と、上記第2の画素切り出し手段により切り出された上
記第2の領域の画素の信号とから、上記ニューラルネッ
トワークを使用して上記第2の画像信号を構成する所定
画素の信号を予測するニューラルネット予測手段とを備
えることを特徴とする画像信号変換装置。
1. An image signal conversion device for converting a first image signal into a second image signal having the same or more pixels as the first image signal, wherein the first image signal is A first pixel cutout unit that cuts out a signal of a pixel in a first region from a first pixel, and a level distribution pattern of a signal of a pixel in the first region cut out by the first pixel cutout unit,
Class determining means for determining a class to which a signal of a predetermined pixel constituting the second image signal to be predicted based on the pattern belongs and outputting class information; and a class corresponding to each class indicated by the class information. Coupling coefficient storage means for storing a coupling coefficient of the neural network; coupling coefficient reading means for reading the coupling coefficient from the coupling coefficient storage means in accordance with the class information output from the class determining means; A second pixel extracting unit for extracting a signal of a pixel in a second region that is the same as or different from the first region from one image signal; a coupling coefficient read from the coupling coefficient storage unit; From the signals of the pixels in the second region cut out by the pixel cutout means of (2), using the neural network, And a neural network predicting means for predicting a signal of a predetermined pixel forming the image signal.
【請求項2】 上記ニューラルネット予測手段は、バッ
クプロパゲーションネットワークを使用して構成される
ことを特徴とする請求項1に記載の画像信号変換装置。
2. The image signal conversion device according to claim 1, wherein said neural network prediction means is configured using a back propagation network.
【請求項3】 上記ニューラルネット予測手段は、その
出力部に、ニューラルネットワークの出力層のユニット
より得られる結合の度合いを示す値を画素信号値に変換
する正規化手段を有することを特徴とする請求項1に記
載の画像信号変換装置。
3. The neural network predicting means includes a normalizing means at an output part thereof for converting a value indicating a degree of coupling obtained from a unit of an output layer of the neural network into a pixel signal value. The image signal conversion device according to claim 1.
【請求項4】 第1の画像信号を、この第1の画像信号
と同じあるいはそれより多い画素数の第2の画像信号に
変換するようにした画像信号変換方法において、 上記第1の画像信号から第1の領域の画素の信号を切り
出す第1のステップと、 上記第1のステップで切り出された上記第1の領域の画
素の信号のレベル分布パターンを検出し、このパターン
に基づいて予測しようとする第2の画像信号を構成する
所定画素の信号が属するクラスを決定してクラス情報を
出力する第2のステップと、 上記第2のステップで出力されるクラス情報で示される
各クラスに対応したニューラルネットワークの結合係数
を記憶手段より読み出す第3のステップと、 上記第1の画像信号から上記第1の領域と同じあるいは
異なる第2の領域の画素の信号を切り出す第4のステッ
プと、 上記第3のステップで読み出された上記結合係数と、上
記第4のステップで切り出された上記第2の領域の画素
の信号とから、上記ニューラルネットワークを使用して
上記第2の画像信号を構成する所定画素の信号を予測す
る第5のステップとを備えることを特徴とする画像信号
変換方法。
4. An image signal conversion method for converting a first image signal into a second image signal having the same or more pixels as the first image signal, wherein the first image signal is A first step of cutting out the signal of the pixel in the first area from, detecting the level distribution pattern of the signal of the pixel in the first area cut out in the first step, and making a prediction based on this pattern. A second step of determining a class to which a signal of a predetermined pixel constituting a second image signal belongs and outputting class information; and a class corresponding to each class indicated by the class information output in the second step. A third step of reading out the obtained coupling coefficient of the neural network from the storage means, and disconnecting a signal of a pixel in a second area which is the same as or different from the first area from the first image signal. Using the neural network from a fourth step of outputting, the coupling coefficient read in the third step, and a signal of a pixel in the second region extracted in the fourth step. A fifth step of predicting a signal of a predetermined pixel constituting the second image signal.
【請求項5】 第1の画像信号を、この第1の画像信号
と同じあるいはそれより多い画素数の第2の画像信号に
変換する際に使用されるニューラルネットワークの結合
係数を生成する装置において、 上記第2の画像信号に対応する教師信号を処理して上記
第1の画像信号に対応する入力信号を得る信号処理手段
と、 上記教師信号を構成する複数の画素の信号にそれぞれ対
応して、上記入力信号より第1の領域の画素の信号を順
次切り出す第1の画素切り出し手段と、 上記第1の画素切り出し手段により順次切り出された上
記第1の領域の画素の信号のレベル分布のパターンを検
出し、このパターンに基づいて上記教師信号を構成する
上記複数の画素の信号がそれぞれ属するクラスを決定し
てクラス情報を出力するクラス決定手段と、 上記教師信号を構成する上記複数の画素の信号にそれぞ
れ対応して、上記入力信号より上記第1の領域と同じあ
るいは異なる第2の領域の画素の信号を順次切り出す第
2の画素切り出し手段と、 上記クラス決定手段より出力される上記教師信号を構成
する上記複数の画素の信号がそれぞれ属するクラスを示
すクラス情報と、上記教師信号を構成する上記複数の画
素の信号と、上記第2の画素切り出し手段により順次切
り出された上記第2の領域の画素の信号とから、ニュー
ラルネットワークによる学習によって各クラス毎に上記
ニューラルネットワークの結合係数を得るニューラルネ
ット学習手段とを備えることを特徴とする結合係数生成
装置。
5. An apparatus for generating a coupling coefficient of a neural network used in converting a first image signal into a second image signal having the same or more pixels than the first image signal. Signal processing means for processing a teacher signal corresponding to the second image signal to obtain an input signal corresponding to the first image signal; and a signal processing means corresponding to a plurality of pixels constituting the teacher signal. A first pixel extracting means for sequentially extracting a signal of a pixel in a first area from the input signal; and a pattern of a level distribution of a signal of a pixel in the first area sequentially extracted by the first pixel extracting means. Class determining means for determining a class to which each of the plurality of pixels constituting the teacher signal belongs based on the pattern and outputting class information; and A second pixel cutout unit for sequentially cutting out signals of pixels in a second region that is the same as or different from the first region from the input signal, respectively, corresponding to the signals of the plurality of pixels constituting the signal; Class information indicating a class to which the signals of the plurality of pixels constituting the teacher signal output from the determining unit belong; signals of the plurality of pixels constituting the teacher signal; and a second pixel cutout unit A coupling coefficient generation device comprising: a neural network learning unit that obtains coupling coefficients of the neural network for each class by learning using a neural network from sequentially extracted pixel signals of the second region.
【請求項6】 上記ニューラルネット学習手段は、バッ
クプロパゲーションネットワークを使用して構成される
ことを特徴とする請求項5に記載の結合係数生成装置。
6. The coupling coefficient generation apparatus according to claim 5, wherein said neural network learning means is configured using a back propagation network.
【請求項7】 上記ニューラルネット学習手段は、 入力層、隠れ層、出力層の各ユニットからなり、上記第
2の画素切り出し手段により順次切り出された上記第2
の領域の画素の信号が上記入力層に供給されるニューラ
ルネットワーク部と、 上記ニューラルネットワーク部の出力層のユニットに得
られる結合の度合いを示す値を画素信号値に変換する正
規化手段と、 上記正規化手段より出力される画素信号値と、上記ニュ
ラルネットワーク部の上記入力層に供給される上記第2
の領域の画素の信号に対応した上記教師信号を構成する
所定画素の信号とを比較して誤差を検出する誤差検出手
段と、 上記クラス情報で示される各クラス毎に、上記第2の画
素切り出し手段により順次切り出された上記第2の領域
の画素の信号とそれに対応した上記教師信号を構成する
所定画素の信号との組み合わせでなる学習データに対
し、上記誤差検出手段で検出される誤差が充分小さな一
定範囲内に入る方向に上記ニューラルネットワーク部の
出力層および隠れ層のユニットにおける結合係数を変更
する結合係数変更手段と、 上記誤差が上記一定範囲内に入ったときの上記ニューラ
ルネットワーク部の出力層および隠れ層のユニットにお
ける結合係数を学習結果とする結合係数決定手段とを有
することを特徴とする請求項6に記載の結合係数生成装
置。
7. The neural network learning means comprises units of an input layer, a hidden layer, and an output layer, and the second pixel extracting means sequentially cuts the second pixel.
A neural network unit in which a signal of a pixel in the region of the above is supplied to the input layer; The pixel signal value output from the normalizing means and the second signal supplied to the input layer of the neural network unit.
Error detecting means for detecting an error by comparing a signal of a predetermined pixel constituting the teacher signal corresponding to a signal of a pixel in the area, and extracting the second pixel for each class indicated by the class information The error detected by the error detecting means is sufficient for the learning data formed by the combination of the signal of the pixel of the second area sequentially cut out by the means and the signal of the predetermined pixel constituting the teacher signal corresponding thereto. Coupling coefficient changing means for changing a coupling coefficient in a unit of an output layer and a hidden layer of the neural network unit in a direction falling within a small fixed range; and an output of the neural network unit when the error is within the fixed range. 7. A coupling coefficient determining unit that uses a coupling coefficient in a unit of a layer and a hidden layer as a learning result. If coefficient generating device.
【請求項8】 第1の画像信号を、この第1の画像信号
と同じあるいはそれより多い画素数の第2の画像信号に
変換する際に使用されるニューラルネットワークの結合
係数を生成する方法において、 上記第2の画像信号に対応する教師信号を処理して上記
第1の画像信号に対応する入力信号を得る第1のステッ
プと、 上記教師信号を構成する複数の画素の信号にそれぞれ対
応して、上記入力信号より第1の領域の画素の信号を順
次切り出す第2のステップと、 上記第2のステップで順次切り出された上記第1の領域
の画素の信号のレベル分布のパターンを検出し、このパ
ターンに基づいて上記教師信号を構成する上記複数の画
素の信号がそれぞれ属するクラスを決定してクラス情報
を出力する第3のステップと、 上記教師信号を構成する上記複数の画素の信号にそれぞ
れ対応して、上記入力信号より上記第1の領域と同じあ
るいは異なる第2の領域の画素の信号を順次切り出す第
4のステップと、 上記第3のステップで出力される上記教師信号を構成す
る上記複数の画素の信号がそれぞれ属するクラスを示す
クラス情報と、上記教師信号を構成する上記複数の画素
の信号と、上記第4のステップで順次切り出された上記
第2の領域の画素の信号とから、ニューラルネットワー
クによる学習によって各クラス毎に上記結合係数を得る
第5のステップとを備えることを特徴とする結合係数生
成方法。
8. A method for generating a coupling coefficient of a neural network used in converting a first image signal into a second image signal having the same or more pixels than the first image signal. A first step of processing a teacher signal corresponding to the second image signal to obtain an input signal corresponding to the first image signal, and respectively corresponding to signals of a plurality of pixels constituting the teacher signal. A second step of sequentially cutting out signals of pixels of a first area from the input signal; and detecting a level distribution pattern of the signals of the pixels of the first area sequentially cut out in the second step. A third step of determining a class to which each of the signals of the plurality of pixels constituting the teacher signal belongs based on this pattern and outputting class information; and A fourth step of sequentially cutting out signals of pixels in a second area, which is the same as or different from the first area, from the input signal, corresponding to signals of a plurality of pixels, respectively, and is output in the third step. Class information indicating a class to which each of the signals of the plurality of pixels constituting the teacher signal belongs; signals of the plurality of pixels constituting the teacher signal; and the second signal sequentially cut out in the fourth step A fifth step of obtaining the above-mentioned coupling coefficient for each class from the signals of the pixels of the area by learning using a neural network.
JP14280397A 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor Expired - Fee Related JP4447671B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14280397A JP4447671B2 (en) 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14280397A JP4447671B2 (en) 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor

Publications (2)

Publication Number Publication Date
JPH10336598A true JPH10336598A (en) 1998-12-18
JP4447671B2 JP4447671B2 (en) 2010-04-07

Family

ID=15324007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14280397A Expired - Fee Related JP4447671B2 (en) 1997-05-30 1997-05-30 Image signal converting apparatus and method, and neural network coupling coefficient generating apparatus and generating method used therefor

Country Status (1)

Country Link
JP (1) JP4447671B2 (en)

Also Published As

Publication number Publication date
JP4447671B2 (en) 2010-04-07

Similar Documents

Publication Publication Date Title
US7688383B2 (en) Information signal processor, method for processing information signal, image signal processor and image display apparatus using the same, coefficient seed data production device used in the same, method for producing coefficient seed data set and information-providing medium
EP1335597A1 (en) Information signal processing device, information signal processing method, image signal processing device and image display device using it, coefficient type data creating device used therein and creating method, coefficient data creating device and creating method, and information providing medium
EP0843475A1 (en) Device and method for converting image information and circuit and method for operating sum of products
US6466269B1 (en) Video signal converter, conversion method of video signal, image display unit using them and television receiver
JPH04302272A (en) Image processing method
KR20070000365A (en) Image processing apparatus, image processing method, and program
KR20060136335A (en) Image processing apparatus, image processing method, and program
US7061539B2 (en) Information signal processing device, information signal processing method, image signal processing device, image display comprising the same, and information providing medium
WO1998030028A1 (en) Picture coding device, picture coding method, picture decoding device, picture decoding method, and recording medium
US11790501B2 (en) Training method for video stabilization and image processing device using the same
JP3723995B2 (en) Image information conversion apparatus and method
JPH10336598A (en) Converter for image signal, conversion method, generator for coupling coefficient of neural network used for the conversion and generating method
US8228995B2 (en) Image processing apparatus, image processing method, and program
JPH10136317A (en) Device and method for converting image signal
JPH07193789A (en) Picture information converter
JPH0888849A (en) Picture signal processing method and picture signal transmitter
JP2000092455A (en) Image information converter and image information conversion method
JPH06178277A (en) Picture information converter
JPH09186608A (en) Device for converting quantization bit number and its device
JPH08130744A (en) Television receiver
JPH11355731A (en) Converting device and converting method for image signal and device and method for generating coefficient data used for them
JP4062326B2 (en) Coefficient generation apparatus and method
JP4649786B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, and coefficient seed data generating apparatus and generating method used therefor
JPH0785287A (en) Predictive coding device and its decoding device
JP4692800B2 (en) Coefficient data generating apparatus and generating method, information signal processing apparatus and processing method using the same, coefficient seed data generating apparatus and generating method used therefor, and recording medium

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070123

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070424

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees