JP2003169350A - Image processor and image processing method, storage medium, and its program - Google Patents

Image processor and image processing method, storage medium, and its program

Info

Publication number
JP2003169350A
JP2003169350A JP2001363806A JP2001363806A JP2003169350A JP 2003169350 A JP2003169350 A JP 2003169350A JP 2001363806 A JP2001363806 A JP 2001363806A JP 2001363806 A JP2001363806 A JP 2001363806A JP 2003169350 A JP2003169350 A JP 2003169350A
Authority
JP
Japan
Prior art keywords
video signal
composite video
data
feature amount
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001363806A
Other languages
Japanese (ja)
Other versions
JP3777593B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Tsutomu Watanabe
勉 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001363806A priority Critical patent/JP3777593B2/en
Publication of JP2003169350A publication Critical patent/JP2003169350A/en
Application granted granted Critical
Publication of JP3777593B2 publication Critical patent/JP3777593B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)
  • Color Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a component video signal precisely from a composite video signal under consideration of a motion vector. <P>SOLUTION: A motion vector detecting part 2 detects a motion vector based on a featured amount to be calculated from a composite video signal of a point under consideration and the periphery of the point under consideration and the phase information of the composite video signal. An arithmetic part 4 classifies the composite video signal of the point under consideration into one of a plurality of classes based on at least one of the composite video signal, the featured amount, the phase information, and the detected motion vector. The arithmetic part 4 extracts a prediction tap including at least one of the composite video signal and the featured amount, and generates a component video signal corresponding to the composite video signal under consideration based on a prediction coefficient and the extracted prediction tap. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置およ
び方法、記録媒体、並びにプログラムに関し、特に、コ
ンポジットビデオ信号を基に、コンポーネントビデオ信
号を生成するか、コンポーネントビデオ信号を生成する
処理に使用される係数を生成する画像処理装置および方
法、記録媒体、並びにプログラムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method, a recording medium, and a program, and more particularly, to a component video signal based on a composite video signal or a process for generating a component video signal. The present invention relates to an image processing device and method, a recording medium, and a program for generating a specified coefficient.

【0002】[0002]

【従来の技術】いわゆる3次元YC分離において、動き量
を検出し、検出された動き量を基に、2次元フィルタ処
理、および3次元フィルタ処理のいずれか一方を選択し
て実行することにより、NTSC(National Television Sys
tem Committee)コンポジットビデオ信号が、輝度信号お
よび色信号などからなるコンポーネントビデオ信号に分
離される。
2. Description of the Related Art In so-called three-dimensional YC separation, a motion amount is detected, and based on the detected motion amount, either one of two-dimensional filter processing and three-dimensional filter processing is selected and executed. NTSC (National Television Sys
tem Committee) A composite video signal is separated into component video signals including a luminance signal and a color signal.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来、
動きベクトルを考慮して、コンポジットビデオ信号をコ
ンポーネントビデオ信号に分離することは考えられてい
なかった。
[Problems to be Solved by the Invention] However, in the past,
It has not been considered to separate the composite video signal into the component video signals in consideration of the motion vector.

【0004】本発明はこのような状況に鑑みてなされた
ものであり、動きベクトルを考慮して、コンポジットビ
デオ信号から、より精度良く、コンポーネントビデオ信
号を生成できるようにすることを目的とする。
The present invention has been made in view of such circumstances, and an object of the present invention is to enable a component video signal to be generated from a composite video signal more accurately in consideration of a motion vector.

【0005】[0005]

【課題を解決するための手段】本発明の第1の画像処理
装置は、注目点および注目点の周辺のコンポジットビデ
オ信号から求まる第1の特徴量、およびコンポジットビ
デオ信号の位相情報を基に、動きベクトルを検出する検
出手段と、コンポジットビデオ信号、注目点および注目
点の周辺のコンポジットビデオ信号から求まる第1の特
徴量、コンポジットビデオ信号の位相情報、および検出
された動きベクトルのうちの少なくとも1つを基に、注
目点のコンポジットビデオ信号を複数のクラスのうちの
1つのクラスに分類するクラス分類手段と、分類された
クラスに対応し、コンポジットビデオ信号および第1の
特徴量の少なくとも一方を含む予測タップを抽出する抽
出手段と、予測係数および抽出された予測タップを基
に、注目点のコンポジットビデオ信号に対応するコンポ
ーネントビデオ信号を生成する生成手段とを含むことを
特徴とする。
A first image processing apparatus of the present invention, based on a first feature amount obtained from a point of interest and a composite video signal around the point of interest, and phase information of the composite video signal, At least one of a detection means for detecting a motion vector, a composite video signal, a first feature amount obtained from a point of interest and a composite video signal around the point of interest, phase information of the composite video signal, and a detected motion vector. Class classifying means for classifying the composite video signal of interest into one of a plurality of classes based on the above, and at least one of the composite video signal and the first feature quantity corresponding to the classified class. Based on the extraction means that extracts the prediction taps that include the prediction coefficient and the extracted prediction taps, Characterized in that it comprises a generating means for generating a component video signal corresponding to Ttobideo signal.

【0006】抽出手段は、さらに、コンポジットビデオ
信号のダイナミックレンジ、またはコンポジットビデオ
信号に対応する第1の特徴量のダイナミックレンジを基
に、予測タップを抽出するようにすることができる。
[0006] The extracting means may further extract the prediction tap based on the dynamic range of the composite video signal or the dynamic range of the first characteristic amount corresponding to the composite video signal.

【0007】クラス分類手段は、コンポーネントビデオ
信号を構成する輝度信号または色信号に対応して、個々
に、注目点のコンポジットビデオ信号を複数のクラスの
うちの1つのクラスに分類するようにすることができ
る。
The class classification means individually classifies the composite video signal of the point of interest into one of a plurality of classes corresponding to the luminance signal or the chrominance signal forming the component video signal. You can

【0008】抽出手段は、コンポーネントビデオ信号を
構成する輝度信号または色信号に対応して、個々に予測
タップを抽出するようにすることができる。
The extracting means may individually extract the prediction taps corresponding to the luminance signal or the chrominance signal forming the component video signal.

【0009】検出手段は、コンポジットビデオ信号を基
に、注目点における色信号の位相に対応し、第2の特徴
量を生成する第1の特徴量生成手段と、第2の特徴量を
基に、動きベクトルに近似する第1のベクトルを検出す
る第1のベクトル検出手段と、動きベクトルの検出の演
算の対象となる対象点および対象点の周辺のコンポジッ
トビデオ信号を基に、対象点に対応する第3の特徴量を
生成する第2の特徴量生成手段と、第1のベクトルに対
応する第3の特徴量の演算により、第2のベクトルとし
て動きベクトルを検出する第2のベクトル検出手段とを
設けることができる。
The detecting means, based on the composite video signal, corresponds to the phase of the color signal at the point of interest and generates the second characteristic quantity by the first characteristic quantity generating means and the second characteristic quantity based on the second characteristic quantity. Corresponding to a target point based on first vector detecting means for detecting a first vector approximate to the motion vector, and a target point which is a target of calculation of motion vector and a composite video signal around the target point. Second feature amount generating means for generating a third feature amount, and second vector detecting means for detecting a motion vector as the second vector by calculating the third feature amount corresponding to the first vector. And can be provided.

【0010】第1のベクトル検出手段は、注目点の属す
る動画像の画面である注目画面の第2の特徴量と、注目
画面に隣接する動画像の画面である隣接画面の第2の特
徴量との相関を基に、動きベクトルに近似する第1のベ
クトルを検出するようにすることができる。
The first vector detecting means includes a second feature amount of a target screen which is a screen of a moving image to which the target point belongs, and a second feature amount of an adjacent screen which is a screen of a moving image adjacent to the target screen. It is possible to detect the first vector that is close to the motion vector based on the correlation with.

【0011】第2のベクトル検出手段は、注目点の属す
る動画像の画面である注目画面における、注目点を含む
第1の範囲の第3の特徴量と、注目画面に隣接する動画
像の画面である隣接画面における、第1のベクトルに対
応する第2の範囲の第3の特徴量との相関の演算によ
り、第2のベクトルとして動きベクトルを検出するよう
にすることができる。
The second vector detecting means is the screen of the moving image which is adjacent to the target screen and the third feature amount of the first range including the target point in the target screen which is the screen of the moving image to which the target point belongs. It is possible to detect the motion vector as the second vector by calculating the correlation with the third feature amount in the second range corresponding to the first vector in the adjacent screen.

【0012】第2のベクトル検出手段は、第3の特徴量
にクラス分類適応処理を適用し、第2のベクトルとして
動きベクトルを検出するようにすることができる。
The second vector detecting means may apply the class classification adaptive processing to the third feature quantity and detect the motion vector as the second vector.

【0013】第2のベクトル検出手段は、注目点におけ
る色信号の位相を基に、注目点のコンポジットビデオ信
号をクラス分類するようにすることができる。
The second vector detecting means may classify the composite video signal of the point of interest based on the phase of the color signal at the point of interest.

【0014】第2のベクトル検出手段は、過去に検出さ
れた第2のベクトルに対応する第3の特徴量に適応処理
を適用するようにすることができる。
The second vector detecting means can apply the adaptive processing to the third feature quantity corresponding to the second vector detected in the past.

【0015】本発明の第1の画像処理方法は、注目点お
よび注目点の周辺のコンポジットビデオ信号から求まる
特徴量、およびコンポジットビデオ信号の位相情報を基
に、動きベクトルを検出する検出ステップと、コンポジ
ットビデオ信号、注目点および注目点の周辺のコンポジ
ットビデオ信号から求まる特徴量、コンポジットビデオ
信号の位相情報、および検出された動きベクトルのうち
の少なくとも1つを基に、注目点のコンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、分類されたクラスに対応し、コン
ポジットビデオ信号および特徴量の少なくとも一方を含
む予測タップを抽出する抽出ステップと、予測係数およ
び抽出された予測タップを基に、注目点のコンポジット
ビデオ信号に対応するコンポーネントビデオ信号を生成
する生成ステップとを含むことを特徴とする。
A first image processing method of the present invention comprises a detection step of detecting a motion vector based on a feature point obtained from a point of interest and a composite video signal around the point of interest and phase information of the composite video signal, Based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, the composite video signal of the point of interest is determined. A class classification step of classifying into one of a plurality of classes; an extraction step of extracting a prediction tap corresponding to the classified class, the prediction tap including at least one of a composite video signal and a feature amount; Supports the composite video signal of interest based on the predicted taps Characterized in that it comprises a generation step of generating a component video signal that.

【0016】本発明の第1の記録媒体のプログラムは、
注目点および注目点の周辺のコンポジットビデオ信号か
ら求まる特徴量、およびコンポジットビデオ信号の位相
情報を基に、動きベクトルを検出する検出ステップと、
コンポジットビデオ信号、注目点および注目点の周辺の
コンポジットビデオ信号から求まる特徴量、コンポジッ
トビデオ信号の位相情報、および検出された動きベクト
ルのうちの少なくとも1つを基に、注目点のコンポジッ
トビデオ信号を複数のクラスのうちの1つのクラスに分
類するクラス分類ステップと、分類されたクラスに対応
し、コンポジットビデオ信号および特徴量の少なくとも
一方を含む予測タップを抽出する抽出ステップと、予測
係数および抽出された予測タップを基に、注目点のコン
ポジットビデオ信号に対応するコンポーネントビデオ信
号を生成する生成ステップとを含むことを特徴とする。
The program of the first recording medium of the present invention is
A detection step of detecting a motion vector based on the feature amount obtained from the attention point and the composite video signal around the attention point, and the phase information of the composite video signal,
Based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, the composite video signal of the point of interest is determined. A class classification step of classifying into one of a plurality of classes; an extraction step of extracting a prediction tap corresponding to the classified class, the prediction tap including at least one of a composite video signal and a feature amount; Generating a component video signal corresponding to the composite video signal of the point of interest based on the prediction tap.

【0017】本発明の第1のプログラムは、注目点およ
び注目点の周辺のコンポジットビデオ信号から求まる特
徴量、およびコンポジットビデオ信号の位相情報を基
に、動きベクトルを検出する検出ステップと、コンポジ
ットビデオ信号、注目点および注目点の周辺のコンポジ
ットビデオ信号から求まる特徴量、コンポジットビデオ
信号の位相情報、および検出された動きベクトルのうち
の少なくとも1つを基に、注目点のコンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、分類されたクラスに対応し、コン
ポジットビデオ信号および特徴量の少なくとも一方を含
む予測タップを抽出する抽出ステップと、予測係数およ
び抽出された予測タップを基に、注目点のコンポジット
ビデオ信号に対応するコンポーネントビデオ信号を生成
する生成ステップとをコンピュータに実行させることを
特徴とする。
A first program of the present invention comprises a detection step of detecting a motion vector based on a feature amount obtained from a point of interest and a composite video signal around the point of interest, and phase information of the composite video signal, and a composite video. Based on at least one of the signal, the feature point obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, a plurality of composite video signals of the point of interest are selected. A class classification step of classifying into one of the classes, an extraction step of extracting a prediction tap corresponding to the classified class and including at least one of a composite video signal and a feature amount, a prediction coefficient and the extracted prediction Supports the composite video signal of interest based on the tap. Characterized in that to execute a generating step of generating a component video signal to the computer.

【0018】本発明の第2の画像処理装置は、注目点お
よび注目点の周辺のコンポジットビデオ信号から求まる
第1の特徴量、およびコンポジットビデオ信号の位相情
報を基に、動きベクトルを検出する検出手段と、コンポ
ジットビデオ信号、注目点および注目点の周辺のコンポ
ジットビデオ信号から求まる第1の特徴量、コンポジッ
トビデオ信号の位相情報、および検出された動きベクト
ルのうちの少なくとも1つを基に、注目点のコンポジッ
トビデオ信号を複数のクラスのうちの1つのクラスに分
類するクラス分類手段と、分類されたクラスに対応し、
コンポジットビデオ信号および第1の特徴量の少なくと
も一方を含む予測タップを抽出する抽出手段と、コンポ
ーネントビデオ信号、および抽出された予測タップを基
に、係数を演算する演算手段とを含むことを特徴とす
る。
The second image processing apparatus of the present invention detects the motion vector based on the first feature quantity obtained from the point of interest and the composite video signal around the point of interest and the phase information of the composite video signal. And at least one of the composite video signal, the first feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector. Class classification means for classifying the point composite video signal into one of a plurality of classes, and corresponding to the classified class,
An extraction unit that extracts a prediction tap including at least one of the composite video signal and the first feature amount; and a calculation unit that calculates a coefficient based on the component video signal and the extracted prediction tap. To do.

【0019】抽出手段は、さらに、コンポジットビデオ
信号のダイナミックレンジ、またはコンポジットビデオ
信号に対応する第1の特徴量のダイナミックレンジを基
に、予測タップを抽出するようにすることができる。
The extracting means may further extract the prediction taps based on the dynamic range of the composite video signal or the dynamic range of the first characteristic amount corresponding to the composite video signal.

【0020】クラス分類手段は、コンポーネントビデオ
信号を構成する輝度信号または色信号に対応して、個々
に、注目点のコンポジットビデオ信号を複数のクラスの
うちの1つのクラスに分類するようにすることができ
る。
The class classification means individually classifies the composite video signal of the attention point into one of a plurality of classes corresponding to the luminance signal or the chrominance signal forming the component video signal. You can

【0021】抽出手段は、コンポーネントビデオ信号を
構成する輝度信号または色信号に対応して、個々に予測
タップを抽出するようにすることができる。
The extraction means can individually extract the prediction taps corresponding to the luminance signal or the chrominance signal forming the component video signal.

【0022】検出手段は、コンポジットビデオ信号を基
に、注目点における色信号の位相に対応し、第2の特徴
量を生成する第1の特徴量生成手段と、第2の特徴量を
基に、動きベクトルに近似する第1のベクトルを検出す
る第1のベクトル検出手段と、動きベクトルの検出の演
算の対象となる対象点および対象点の周辺のコンポジッ
トビデオ信号を基に、対象点に対応する第3の特徴量を
生成する第2の特徴量生成手段と、第1のベクトルに対
応する第3の特徴量の演算により、第2のベクトルとし
て動きベクトルを検出する第2のベクトル検出手段とを
設けることができる。
The detecting means, based on the composite video signal, corresponds to the phase of the color signal at the point of interest, and generates the second characteristic quantity by the first characteristic quantity generating means and the second characteristic quantity based on the second characteristic quantity. Corresponding to a target point based on first vector detecting means for detecting a first vector approximate to the motion vector, and a target point which is a target of calculation of motion vector and a composite video signal around the target point. Second feature amount generating means for generating a third feature amount, and second vector detecting means for detecting a motion vector as the second vector by calculating the third feature amount corresponding to the first vector. And can be provided.

【0023】第1のベクトル検出手段は、注目点の属す
る動画像の画面である注目画面の第2の特徴量と、注目
画面に隣接する動画像の画面である隣接画面の第2の特
徴量との相関を基に、動きベクトルに近似する第1のベ
クトルを検出するようにすることができる。
The first vector detecting means includes a second feature amount of a target screen which is a screen of a moving image to which the target point belongs, and a second feature amount of an adjacent screen which is a screen of a moving image adjacent to the target screen. It is possible to detect the first vector that is close to the motion vector based on the correlation with.

【0024】第2のベクトル検出手段は、注目点の属す
る動画像の画面である注目画面における、注目点を含む
第1の範囲の第3の特徴量と、注目画面に隣接する動画
像の画面である隣接画面における、第1のベクトルに対
応する第2の範囲の第3の特徴量との相関の演算によ
り、第2のベクトルとして動きベクトルを検出するよう
にすることができる。
The second vector detecting means is a moving image screen adjacent to the target screen, and a third feature amount of the first range including the target point in the target screen which is the screen of the moving image to which the target point belongs. It is possible to detect the motion vector as the second vector by calculating the correlation with the third feature amount in the second range corresponding to the first vector in the adjacent screen.

【0025】第2のベクトル検出手段は、第3の特徴量
にクラス分類適応処理を適用し、第2のベクトルとして
動きベクトルを検出するようにすることができる。
The second vector detecting means may apply the class classification adaptive processing to the third feature quantity and detect the motion vector as the second vector.

【0026】第2のベクトル検出手段は、注目点におけ
る色信号の位相を基に、注目点のコンポジットビデオ信
号をクラス分類するようにすることができる。
The second vector detecting means can classify the composite video signal of the point of interest based on the phase of the color signal at the point of interest.

【0027】第2のベクトル検出手段は、過去に検出さ
れた第2のベクトルに対応する第3の特徴量に適応処理
を適用するようにすることができる。
The second vector detecting means can apply the adaptive processing to the third feature quantity corresponding to the second vector detected in the past.

【0028】本発明の第2の画像処理方法は、注目点お
よび注目点の周辺のコンポジットビデオ信号から求まる
特徴量、およびコンポジットビデオ信号の位相情報を基
に、動きベクトルを検出する検出ステップと、コンポジ
ットビデオ信号、注目点および注目点の周辺のコンポジ
ットビデオ信号から求まる特徴量、コンポジットビデオ
信号の位相情報、および検出された動きベクトルのうち
の少なくとも1つを基に、注目点のコンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、分類されたクラスに対応し、コン
ポジットビデオ信号および特徴量の少なくとも一方を含
む予測タップを抽出する抽出ステップと、コンポーネン
トビデオ信号、および抽出された予測タップを基に、係
数を演算する演算ステップとを含むことを特徴とする。
A second image processing method of the present invention comprises a detection step of detecting a motion vector based on a feature point obtained from a point of interest and a composite video signal around the point of interest and phase information of the composite video signal, Based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, the composite video signal of the point of interest is determined. A class classification step of classifying the class into one of a plurality of classes; an extraction step of extracting a prediction tap corresponding to the classified class and including at least one of a composite video signal and a feature amount; a component video signal; A calculation that calculates the coefficient based on the extracted prediction taps Characterized in that it comprises a step.

【0029】本発明の第2の記録媒体のプログラムは、
注目点および注目点の周辺のコンポジットビデオ信号か
ら求まる特徴量、およびコンポジットビデオ信号の位相
情報を基に、動きベクトルを検出する検出ステップと、
コンポジットビデオ信号、注目点および注目点の周辺の
コンポジットビデオ信号から求まる特徴量、コンポジッ
トビデオ信号の位相情報、および検出された動きベクト
ルのうちの少なくとも1つを基に、注目点のコンポジッ
トビデオ信号を複数のクラスのうちの1つのクラスに分
類するクラス分類ステップと、分類されたクラスに対応
し、コンポジットビデオ信号および特徴量の少なくとも
一方を含む予測タップを抽出する抽出ステップと、コン
ポーネントビデオ信号、および抽出された予測タップを
基に、係数を演算する演算ステップとを含むことを特徴
とする。
The program of the second recording medium of the present invention is
A detection step of detecting a motion vector based on the feature amount obtained from the attention point and the composite video signal around the attention point, and the phase information of the composite video signal,
Based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, the composite video signal of the point of interest is determined. A class classification step of classifying the class into one of a plurality of classes; an extraction step of extracting a prediction tap corresponding to the classified class and including at least one of a composite video signal and a feature amount; a component video signal; And a calculation step for calculating a coefficient based on the extracted prediction taps.

【0030】本発明の第2のプログラムは、注目点およ
び注目点の周辺のコンポジットビデオ信号から求まる特
徴量、およびコンポジットビデオ信号の位相情報を基
に、動きベクトルを検出する検出ステップと、コンポジ
ットビデオ信号、注目点および注目点の周辺のコンポジ
ットビデオ信号から求まる特徴量、コンポジットビデオ
信号の位相情報、および検出された動きベクトルのうち
の少なくとも1つを基に、注目点のコンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、分類されたクラスに対応し、コン
ポジットビデオ信号および特徴量の少なくとも一方を含
む予測タップを抽出する抽出ステップと、コンポーネン
トビデオ信号、および抽出された予測タップを基に、係
数を演算する演算ステップとをコンピュータに実行させ
ることを特徴とする。
A second program of the present invention comprises a detection step of detecting a motion vector based on a feature point obtained from a point of interest and a composite video signal around the point of interest and phase information of the composite video signal, and a composite video. Based on at least one of the signal, the feature point obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, a plurality of composite video signals of the point of interest are selected. A class classification step of classifying into one of the classes; an extraction step of extracting a prediction tap corresponding to the classified class, the prediction tap including at least one of a composite video signal and a feature amount; Based on the prediction taps Characterized in that to execute a-up the computer.

【0031】本発明の第1の画像処理装置および方法、
記録媒体、並びにプログラムにおいては、注目点および
注目点の周辺のコンポジットビデオ信号から求まる特徴
量、およびコンポジットビデオ信号の位相情報を基に、
動きベクトルが検出され、コンポジットビデオ信号、注
目点および注目点の周辺のコンポジットビデオ信号から
求まる特徴量、コンポジットビデオ信号の位相情報、お
よび検出された動きベクトルのうちの少なくとも1つを
基に、注目点のコンポジットビデオ信号が複数のクラス
のうちの1つのクラスに分類され、分類されたクラスに
対応し、コンポジットビデオ信号および特徴量の少なく
とも一方を含む予測タップが抽出され、予測係数および
抽出された予測タップを基に、注目点のコンポジットビ
デオ信号に対応するコンポーネントビデオ信号が生成さ
れる。
A first image processing apparatus and method of the present invention;
In the recording medium and the program, based on the feature amount obtained from the attention point and the composite video signal around the attention point, and the phase information of the composite video signal,
A motion vector is detected, and based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, The point composite video signal is classified into one of a plurality of classes, the prediction tap corresponding to the classified class and including the composite video signal and / or the feature amount is extracted, the prediction coefficient and the extracted A component video signal corresponding to the composite video signal of interest is generated based on the prediction taps.

【0032】本発明の第2の画像処理装置および方法、
記録媒体、並びにプログラムにおいては、注目点および
注目点の周辺のコンポジットビデオ信号から求まる特徴
量、およびコンポジットビデオ信号の位相情報を基に、
動きベクトルが検出され、コンポジットビデオ信号、注
目点および注目点の周辺のコンポジットビデオ信号から
求まる特徴量、コンポジットビデオ信号の位相情報、お
よび検出された動きベクトルのうちの少なくとも1つを
基に、注目点のコンポジットビデオ信号が複数のクラス
のうちの1つのクラスに分類され、分類されたクラスに
対応し、コンポジットビデオ信号および特徴量の少なく
とも一方を含む予測タップが抽出され、コンポーネント
ビデオ信号、および抽出された予測タップを基に、係数
が演算される。
A second image processing apparatus and method of the present invention,
In the recording medium and the program, based on the feature amount obtained from the attention point and the composite video signal around the attention point, and the phase information of the composite video signal,
A motion vector is detected, and based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, A point composite video signal is classified into one of a plurality of classes, a prediction tap corresponding to the classified class and including at least one of the composite video signal and a feature is extracted, a component video signal, and an extraction Coefficients are calculated based on the predicted taps.

【0033】[0033]

【発明の実施の形態】図1は、本発明に係る画像処理装
置の実施の形態の構成を示すブロック図である。
1 is a block diagram showing the configuration of an embodiment of an image processing apparatus according to the present invention.

【0034】NTSCデコーダ1は、入力された、NTSC方式
のコンポジットビデオ信号である画像信号を基に、画像
信号に対応する、デジタルデータである画像信号を生成
すると共に、デジタルデータである画像信号に対応する
サブキャリア位相情報を生成する。NTSCデコーダ1は、
生成したデジタルデータである画像信号およびサブキャ
リア位相情報を動きベクトル検出部2、クラスタップ抽
出部3、および演算部4に供給する。
The NTSC decoder 1 generates an image signal which is digital data corresponding to the image signal based on the input image signal which is the composite video signal of the NTSC system, and converts the image signal into digital image signal. Generate corresponding subcarrier phase information. NTSC decoder 1
The image signal and the subcarrier phase information, which are the generated digital data, are supplied to the motion vector detection unit 2, the class tap extraction unit 3, and the calculation unit 4.

【0035】NTSCデコーダ1により生成されるデジタル
データである画像信号は、例えば、輝度を示すY信号の
値から色を示すI信号の値を減算した結果、Y信号の値
から色を示す他の信号であるQ信号の値を減算した結
果、Y信号の値にI信号の値を加算した結果、およびY
信号の値にQ信号の値を加算した結果のいずれかの値か
らなる。
The image signal which is digital data generated by the NTSC decoder 1 is, for example, the result of subtracting the value of the I signal indicating the color from the value of the Y signal indicating the brightness, and the other value indicating the color from the value of the Y signal. The result of subtracting the value of the Q signal, which is a signal, the result of adding the value of the I signal to the value of the Y signal, and Y
It consists of any of the values obtained by adding the value of the Q signal to the value of the signal.

【0036】NTSCデコーダ1により生成されるサブキャ
リア位相情報は、NTSCデコーダ1により生成されたデジ
タルデータである画像信号に含まれる値が、Y信号の値
からI信号の値を減算した結果であるか、Y信号の値か
らQ信号の値を減算した結果であるか、Y信号の値にI
信号の値を加算した結果であるか、またはY信号の値に
Q信号の値を加算した結果であるかを示す情報である。
The subcarrier phase information generated by the NTSC decoder 1 is the result of subtracting the value of the I signal from the value of the Y signal, the value included in the image signal being the digital data generated by the NTSC decoder 1. Is it the result of subtracting the value of the Q signal from the value of the Y signal?
This is information indicating whether the result is the result of adding the value of the signal or the result of adding the value of the Q signal to the value of the Y signal.

【0037】図2は、NTSCデコーダ1により生成される
デジタルデータである画像信号およびサブキャリア位相
情報を説明する図である。
FIG. 2 is a diagram for explaining an image signal and subcarrier phase information which are digital data generated by the NTSC decoder 1.

【0038】以下、この明細書において、フィールド#
−1は、フィールド#0の前のフィールドを示し、フィ
ールド#−2は、フィールド#−1の前のフィールドを
示す。フィールド#+1は、フィールド#0の次(後)
のフィールドを示し、フィールド#+2は、フィールド
#+1の次のフィールドを示す。
Hereinafter, in this specification, field #
-1 indicates a field before field # 0, and field # -2 indicates a field before field # -1. Field # + 1 is (after) field # 0
, And field # + 2 indicates the field next to field # + 1.

【0039】フィールド#0および番号の絶対値が偶数
であるフィールドは、いわゆるトップフィールドであ
る。番号の絶対値が奇数であるフィールドは、いわゆる
ボトムフィールドである。
The field # 0 and the field whose absolute value is an even number are so-called top fields. A field having an odd number absolute value is a so-called bottom field.

【0040】例えば、フィールド#−1は、ボトムフィ
ールドであり、ライン2、ライン4、およびライン6な
どに対応する画像信号を含む。フィールド#0は、いわ
ゆるトップフィールドであり、ライン1、ライン3、お
よびライン5などに対応する画像信号を含む。
For example, field # -1 is a bottom field and contains image signals corresponding to line 2, line 4, line 6 and the like. Field # 0 is a so-called top field and includes image signals corresponding to line 1, line 3, line 5 and the like.

【0041】例えば、フレーム#−1は、フィールド#
−2および図示せぬフィールド#−3により構成され
る。フレーム#0は、フィールド#0およびフィールド
#−1により構成される。フレーム#+1は、フィール
ド#+2およびフィールド#+1により構成される。
For example, frame # -1 is field #
-2 and a field # -3 (not shown). Frame # 0 is composed of field # 0 and field # -1. Frame # + 1 is composed of field # + 2 and field # + 1.

【0042】従って、例えば、フレーム#0には、フィ
ールド#0のライン1、フィールド#−1のライン2、
フィールド#0のライン3、フィールド#−1のライン
4、フィールド#0のライン5、およびフィールド#−
1のライン6が、画面の上から順に並び、さらに、フィ
ールド#0のラインおよびフィールド#−1のラインが
交互に並ぶ。
Therefore, for example, in frame # 0, line 1 of field # 0, line 2 of field # -1,
Line # 3 of field # 0, line 4 of field # -1, line 5 of field # 0, and field #-
The lines 6 of 1 are arranged in order from the top of the screen, and the lines of field # 0 and the lines of field # -1 are alternately arranged.

【0043】NTSCデコーダ1により生成されるデジタル
データは、NTSC方式のコンポジットビデオ信号のうち
の、輝度信号および色信号により平衡変調されている部
分の位相が変化する周期に対応し、フィールドにおいて
空間方向に離散的なデータである。NTSCデコーダ1によ
り生成されるデジタルデータを構成する、いわゆる画素
に対応する個々の値は、NTSC方式のコンポジットビデオ
信号を量子化することにより生成され、1つの輝度およ
び色に対応する。
The digital data generated by the NTSC decoder 1 corresponds to the period in which the phase of the portion of the composite video signal of the NTSC system that is balanced-modulated by the luminance signal and the chrominance signal changes, and the spatial direction in the field. It is a discrete data. Individual values corresponding to so-called pixels, which form the digital data generated by the NTSC decoder 1, are generated by quantizing an NTSC composite video signal and correspond to one luminance and one color.

【0044】図2において、白い四角、白い丸、黒い四
角、および黒い丸は、デジタルデータである画像信号を
構成し、1つの画素に対応する、それぞれ1つの値を示
す。
In FIG. 2, white squares, white circles, black squares, and black circles constitute an image signal which is digital data, and each represent one value corresponding to one pixel.

【0045】白い四角は、輝度を示すY信号の値に、色
を示すI信号の値を加算した結果に対応する値であるこ
とを示す。白い丸は、Y信号の値に、色を示す他の信号
であるQ信号の値を加算した結果に対応する値であるこ
とを示す。
A white square indicates that the value corresponds to the result of adding the value of the I signal indicating the color to the value of the Y signal indicating the luminance. A white circle indicates that the value corresponds to the result of adding the value of the Q signal, which is another signal indicating color, to the value of the Y signal.

【0046】黒い四角は、Y信号の値からI信号の値を
減算した結果に対応する値であることを示す。黒い丸
は、Y信号の値からQ信号の値を減算した結果に対応す
る値であることを示す。
A black square indicates that the value corresponds to the result of subtracting the value of the I signal from the value of the Y signal. A black circle indicates that the value corresponds to the result of subtracting the value of the Q signal from the value of the Y signal.

【0047】NTSCデコーダ1により生成されるデジタル
データである画像信号の値における、Y信号の値および
I信号の値の加算若しくは減算、またはY信号の値およ
びQ信号の値の加算若しくは減算は、NTSCデコーダ1に
入力されるNTSC方式のコンポジットビデオ信号におけ
る、サブキャリアが平衡変調されてなる色信号成分に対
応するI信号およびQ信号の位相の反転に対応する。
The addition or subtraction of the value of the Y signal and the value of the I signal or the addition or subtraction of the value of the Y signal and the value of the Q signal in the value of the image signal which is digital data generated by the NTSC decoder 1 It corresponds to the inversion of the phase of the I signal and the Q signal corresponding to the color signal component in which the subcarriers are balanced-modulated in the NTSC composite video signal input to the NTSC decoder 1.

【0048】サブキャリア位相情報は、NTSCデコーダ1
により生成されるデジタルデータである画像信号の値の
それぞれが、Y信号の値からI信号の値を減算した値、
Y信号の値からQ信号の値を減算した値、Y信号の値に
I信号の値を加算した値、およびY信号の値にQ信号の
値を加算した値のいずれに対応するかを示す情報であ
る。
The subcarrier phase information is sent to the NTSC decoder 1
Each of the values of the image signal, which is digital data generated by, is a value obtained by subtracting the value of the I signal from the value of the Y signal,
Indicates which of a value obtained by subtracting the value of the Q signal from the value of the Y signal, a value obtained by adding the value of the I signal to the value of the Y signal, and a value obtained by adding the value of the Q signal to the value of the Y signal. Information.

【0049】動きベクトル検出部2は、画像処理装置の
外部から供給されるパラメータAおよびパラメータB、
並びにNTSCデコーダ1から供給された画像信号およびサ
ブキャリア位相情報を基に、上位階層特徴量および下位
階層特徴量を生成する。動きベクトル検出部2は、上位
階層特徴量および下位階層特徴量を基に、NTSCデコーダ
1から供給された画像信号のそれぞれ値に対応する、注
目しているフィールドと次のフィールドとの間の動きベ
クトルを生成する。上位階層特徴量および下位階層特徴
量の詳細については、後述する。
The motion vector detecting section 2 includes a parameter A and a parameter B supplied from the outside of the image processing apparatus.
Also, based on the image signal and the subcarrier phase information supplied from the NTSC decoder 1, an upper layer characteristic amount and a lower layer characteristic amount are generated. The motion vector detection unit 2 detects the motion between the field of interest and the next field corresponding to each value of the image signal supplied from the NTSC decoder 1 based on the upper layer feature amount and the lower layer feature amount. Generate a vector. Details of the upper layer feature amount and the lower layer feature amount will be described later.

【0050】動きベクトル検出部2は、生成した、上位
階層特徴量、下位階層特徴量、および動きベクトルをク
ラスタップ抽出部3および演算部4に供給する。動きベ
クトル検出部2は、上位階層特徴量、下位階層特徴量、
および動きベクトルと共に、動きベクトルのブロックマ
ッチングの処理において算出される残差などの他の特徴
量を、クラスタップ抽出部3および演算部4に供給す
る。
The motion vector detection unit 2 supplies the generated upper layer feature amount, lower layer feature amount, and motion vector to the class tap extraction unit 3 and the calculation unit 4. The motion vector detection unit 2 uses the upper layer feature amount, the lower layer feature amount,
And other motion vectors such as residuals calculated in the motion vector block matching process are supplied to the class tap extraction unit 3 and the calculation unit 4.

【0051】パラメータAおよびパラメータBは、動き
ベクトル検出部2における処理の内容を指定するパラメ
ータであり、例えば、動きベクトル検出部2の動きベク
トルの検出の処理における相関の算出方式、マッチング
をとるブロックの大きさ、または探索(サーチ)領域の
大きさなどを指定する。
The parameters A and B are parameters that specify the contents of the processing in the motion vector detecting unit 2, and, for example, a correlation calculation method in the motion vector detecting process of the motion vector detecting unit 2 and a block to be matched. Specify the size of, or the size of the search area.

【0052】クラスタップ抽出部3は、NTSCデコーダ1
から供給されたサブキャリア位相情報、および動きベク
トル検出部2から供給された動きベクトルを基に、画像
信号のデータ、上位階層特徴量のデータ、および下位階
層特徴量のデータからなるクラスタップを抽出する。詳
細は後述するが、クラスタップは、注目しているデータ
に対応してクラス分類するためのデータである。
The class tap extraction unit 3 is the NTSC decoder 1
A class tap composed of image signal data, upper layer feature amount data, and lower layer feature amount data is extracted based on the subcarrier phase information supplied from To do. Although the details will be described later, the class tap is data for classifying the class according to the data of interest.

【0053】クラスタップ抽出部3は、抽出したクラス
タップを演算部4に供給する。
The class tap extracting section 3 supplies the extracted class taps to the calculating section 4.

【0054】演算部4は、クラスタップ抽出部3から供
給されたクラスタップを基に、クラス分類し、NTSCデコ
ーダ1から供給されたサブキャリア位相情報、および動
きベクトル検出部2から供給された動きベクトルを基
に、NTSCデコーダ1から供給された画像信号、並びに動
きベクトル検出部2から供給された上位階層特徴量およ
び下位階層特徴量に適応処理を適用して、コンポジット
ビデオ信号である画像信号に対応する、例えば、Y信
号、U信号、およびV信号からなるコンポーネントビデ
オ信号を生成する。演算部4は、生成したコンポーネン
トビデオ信号を出力する。クラス分類の処理、および適
応処理の詳細は、後述する。
The calculation unit 4 classifies the class based on the class taps supplied from the class tap extraction unit 3, and the subcarrier phase information supplied from the NTSC decoder 1 and the motion supplied from the motion vector detection unit 2. Based on the vector, adaptive processing is applied to the image signal supplied from the NTSC decoder 1 and the upper layer feature amount and the lower layer feature amount supplied from the motion vector detection unit 2 to obtain a composite video signal image signal. A corresponding component video signal consisting of, for example, a Y signal, a U signal, and a V signal is generated. The calculation unit 4 outputs the generated component video signal. Details of the class classification process and the adaptation process will be described later.

【0055】このように、本発明に係る画像処理装置
は、入力された、コンポジットビデオ信号である画像信
号に対応するコンポーネントビデオ信号を生成し、生成
したコンポーネントビデオ信号を出力する。
As described above, the image processing apparatus according to the present invention generates the component video signal corresponding to the input image signal which is the composite video signal, and outputs the generated component video signal.

【0056】図3は、動きベクトル検出部2の構成を示
すブロック図である。NTSCデコーダ1から供給された画
像信号およびサブキャリア位相情報は、バッファ21、
特徴量変換部23、および特徴量変換部24に入力され
る。
FIG. 3 is a block diagram showing the configuration of the motion vector detecting section 2. The image signal and the subcarrier phase information supplied from the NTSC decoder 1 are stored in the buffer 21,
It is input to the feature amount conversion unit 23 and the feature amount conversion unit 24.

【0057】バッファ21は、NTSCデコーダ1から供給
された画像信号およびサブキャリア位相情報を記憶し、
記憶している画像信号およびサブキャリア位相情報を特
徴量変換部23およびバッファ22に供給する。すなわ
ち、バッファ21は、入力された画像信号およびサブキ
ャリア位相情報を1つのフィールドに対応する期間遅延
させ、遅延された画像信号およびサブキャリア位相情報
を特徴量変換部23およびバッファ22に供給する。
The buffer 21 stores the image signal and subcarrier phase information supplied from the NTSC decoder 1,
The stored image signal and subcarrier phase information are supplied to the feature amount conversion unit 23 and the buffer 22. That is, the buffer 21 delays the input image signal and subcarrier phase information for a period corresponding to one field, and supplies the delayed image signal and subcarrier phase information to the feature amount conversion unit 23 and the buffer 22.

【0058】バッファ22は、バッファ21から供給さ
れた画像信号およびサブキャリア位相情報を記憶し、記
憶している画像信号およびサブキャリア位相情報を特徴
量変換部24に供給する。すなわち、バッファ22は、
バッファ21から供給された画像信号およびサブキャリ
ア位相情報を1つのフィールドに対応する期間遅延さ
せ、遅延された画像信号およびサブキャリア位相情報を
特徴量変換部24に供給する。
The buffer 22 stores the image signal and subcarrier phase information supplied from the buffer 21, and supplies the stored image signal and subcarrier phase information to the feature amount conversion section 24. That is, the buffer 22 is
The image signal and subcarrier phase information supplied from the buffer 21 are delayed for a period corresponding to one field, and the delayed image signal and subcarrier phase information are supplied to the feature amount conversion unit 24.

【0059】特徴量変換部23は、NTSCデコーダ1から
入力された画像信号およびサブキャリア位相情報、並び
にバッファ21から供給された画像信号およびサブキャ
リア位相情報を基に、上位階層特徴量を生成し、生成し
た上位階層特徴量を動きベクトル検出部2の外部に出力
すると共に、上位階層特徴量を上位階層動きベクトル検
出部25に供給する。
The feature amount conversion unit 23 generates a higher-layer feature amount based on the image signal and subcarrier phase information input from the NTSC decoder 1 and the image signal and subcarrier phase information supplied from the buffer 21. The generated upper layer feature amount is output to the outside of the motion vector detection unit 2, and the upper layer feature amount is supplied to the upper layer motion vector detection unit 25.

【0060】特徴量変換部24は、NTSCデコーダ1から
入力された画像信号およびサブキャリア位相情報、並び
にバッファ22から供給された画像信号およびサブキャ
リア位相情報を基に、下位階層特徴量を生成し、サブキ
ャリア位相情報と共に、生成した上位階層特徴量を下位
階層動きベクトル検出部26に供給する。また、特徴量
変換部24は、生成した下位階層特徴量を動きベクトル
検出部2の外部に出力する。
The feature amount conversion unit 24 generates a lower layer feature amount based on the image signal and subcarrier phase information input from the NTSC decoder 1 and the image signal and subcarrier phase information supplied from the buffer 22. , Sub-carrier phase information and the generated upper layer feature amount are supplied to the lower layer motion vector detection unit 26. Further, the feature amount conversion unit 24 outputs the generated lower layer feature amount to the outside of the motion vector detection unit 2.

【0061】なお、特徴量変換部23および特徴量変換
部24は、入力された画像信号およびサブキャリア位相
信号を基に、リアルタイムに上位階層特徴量または下位
階層特徴量を生成して、順次出力するようにしても、フ
ィールド毎に、生成した上位階層特徴量または下位階層
特徴量を一時的に記憶し、フィールドを単位として上位
階層特徴量または下位階層特徴量をまとめて出力するよ
うにしてもよい。
The feature amount conversion unit 23 and the feature amount conversion unit 24 generate an upper layer feature amount or a lower layer feature amount in real time based on the input image signal and subcarrier phase signal, and sequentially output them. Even in this case, the generated upper layer feature amount or lower layer feature amount is temporarily stored for each field, and the upper layer feature amount or the lower layer feature amount is collectively output for each field. Good.

【0062】上位階層動きベクトル検出部25は、パラ
メータAで指定された演算方式等により、特徴量変換部
23から供給された上位階層特徴量を基に、最終的に検
出される動きベクトルに近似し、フィールド間のおおま
かな動きを示す上位階層ベクトルを生成し、生成した上
位階層ベクトルを下位階層動きベクトル検出部26に供
給する。
The upper layer motion vector detection unit 25 approximates to the finally detected motion vector based on the upper layer feature amount supplied from the feature amount conversion unit 23 by the calculation method specified by the parameter A or the like. Then, an upper layer vector indicating a rough motion between fields is generated, and the generated upper layer vector is supplied to the lower layer motion vector detection unit 26.

【0063】下位階層動きベクトル検出部26は、パラ
メータBで指定された演算方式等により、特徴量変換部
24から供給された下位階層特徴量およびサブキャリア
位相情報、並びに上位階層動きベクトル検出部25から
供給された上位階層ベクトルを基に、上位階層ベクトル
に比較して、より精度の高い下位階層ベクトルを生成
し、生成した下位階層ベクトルを動きベクトルとして出
力する。
The lower layer motion vector detecting section 26 uses the calculation method specified by the parameter B or the like to supply the lower layer characteristic amount and subcarrier phase information supplied from the characteristic amount converting section 24, and the upper layer motion vector detecting section 25. Based on the upper layer vector supplied from the above, the higher layer vector is compared with the upper layer vector to generate a more accurate lower layer vector, and the generated lower layer vector is output as a motion vector.

【0064】図4は、上位階層動きベクトル検出部25
の構成を示すブロック図である。ベクトル生成部31
は、生成するベクトルの大きさおよび方向の範囲を示
す、パラメータAに含まれるデータを基に、所定の範囲
の大きさおよび方向を有するベクトルを順次生成し、生
成したベクトルを相関値算出部32および判定部33に
供給する。
FIG. 4 shows the upper layer motion vector detecting unit 25.
3 is a block diagram showing the configuration of FIG. Vector generator 31
Based on the data included in the parameter A, which indicates the range of the magnitude and the direction of the vector to be generated, sequentially generates the vector having the size and the direction of the predetermined range, and the generated vector is used as the correlation value calculation unit 32. And the determination unit 33.

【0065】相関値算出部32は、相関値の算出方式を
指定するパラメータAに含まれるデータを基に、ベクト
ル生成部31から供給されたベクトルで指定される、1
つのフィールドに対応する上位階層特徴量と、他のフィ
ールドに対応する上位階層特徴量との相関値を算出し、
算出した相関値を判定部33に供給する。例えば、相関
値は、上位階層特徴量の差分の絶対値の和である。相関
値は、上位階層特徴量の差分の絶対値の2乗の和とする
ことができる。または、相関値は、1つのフィールドに
対応する上位階層特徴量と、他のフィールドに対応する
上位階層特徴量とを、2つの確率変数の数列とする相
関、すなわち、上位階層特徴量の相互相関とすることが
できる。
The correlation value calculation unit 32 is designated by the vector supplied from the vector generation unit 31 based on the data included in the parameter A designating the correlation value calculation method.
Calculate the correlation value between the upper layer feature amount corresponding to one field and the upper layer feature amount corresponding to another field,
The calculated correlation value is supplied to the determination unit 33. For example, the correlation value is the sum of the absolute values of the differences between the upper layer feature amounts. The correlation value can be the sum of the squares of the absolute values of the differences between the upper layer feature amounts. Alternatively, the correlation value is a correlation in which an upper layer feature amount corresponding to one field and an upper layer feature amount corresponding to another field are a sequence of two random variables, that is, a cross correlation of the upper layer feature amount. Can be

【0066】相関値算出部32は、元の画像信号のデー
タに比較して疎である上位階層特徴量を用いた、疎であ
るブロックを用いて相関値の算出の処理を実行する。従
って、上位階層動きベクトル検出部25における演算量
を少なくすることができる。
The correlation value calculation unit 32 executes the processing of calculating the correlation value by using the sparse block using the upper layer feature amount that is sparse as compared with the original image signal data. Therefore, the amount of calculation in the upper layer motion vector detection unit 25 can be reduced.

【0067】判定部33は、ベクトル生成部31から供
給されたベクトルに対応させて、相関値算出部32から
供給された相関値を記憶する。所定の範囲の大きさおよ
び方向を有するベクトルに対応する相関値が算出された
とき、判定部33は、相関値の算出方式を指定するパラ
メータAに含まれるデータを基に、記憶している相関値
のうち、最も相関の強い相関値を選択し、選択した相関
値に対応するベクトルを上位階層ベクトルとして出力す
る。例えば、相関値が上位階層特徴量の差分の絶対値の
2乗の和であるとき、判定部33は、最小の相関値に対
応するベクトルを上位階層ベクトルとして出力する。
The determination unit 33 stores the correlation value supplied from the correlation value calculation unit 32 in association with the vector supplied from the vector generation unit 31. When the correlation value corresponding to the vector having the size and direction of the predetermined range is calculated, the determination unit 33 determines the stored correlation value based on the data included in the parameter A that specifies the calculation method of the correlation value. Among the values, the correlation value having the strongest correlation is selected, and the vector corresponding to the selected correlation value is output as the upper layer vector. For example, when the correlation value is the sum of the squares of the absolute values of the differences in the upper layer feature values, the determination unit 33 outputs the vector corresponding to the minimum correlation value as the upper layer vector.

【0068】図5は、下位階層動きベクトル検出部26
の構成を示すブロック図である。ベクトル生成部41
は、上位階層動きベクトル検出部25から供給された上
位階層ベクトル、および生成するベクトルの大きさおよ
び方向の範囲を示す、パラメータBに含まれるデータを
基に、所定の範囲の大きさおよび方向を有するベクトル
を順次生成し、生成したベクトルを相関値算出部42お
よび判定部43に供給する。
FIG. 5 shows the lower layer motion vector detecting section 26.
3 is a block diagram showing the configuration of FIG. Vector generator 41
Is the size and direction of the predetermined range based on the data included in the parameter B, which indicates the range of the size and direction of the upper layer vector supplied from the upper layer motion vector detection unit 25 and the generated vector. The generated vector is sequentially generated, and the generated vector is supplied to the correlation value calculation unit 42 and the determination unit 43.

【0069】相関値算出部42は、相関値の算出方式を
指定するパラメータBに含まれるデータを基に、ベクト
ル生成部41から供給されたベクトルで指定される1つ
のフィールドに対応する下位階層特徴量と、他のフィー
ルドに対応する下位階層特徴量との相関値を算出し、算
出した相関値を判定部43に供給する。例えば、相関値
は、下位階層特徴量の差分の絶対値の和である。相関値
は、下位階層特徴量の差分の絶対値の2乗の和とするこ
とができる。または、相関値は、1つのフィールドに対
応する下位階層特徴量と、他のフィールドに対応する下
位階層特徴量とを、2つの確率変数の数列とする相関、
すなわち、下位階層特徴量の相互相関とすることができ
る。
The correlation value calculation unit 42, based on the data included in the parameter B that specifies the calculation method of the correlation value, the lower layer feature corresponding to one field specified by the vector supplied from the vector generation unit 41. The correlation value between the amount and the lower layer feature amount corresponding to another field is calculated, and the calculated correlation value is supplied to the determination unit 43. For example, the correlation value is the sum of the absolute values of the differences between the lower layer feature amounts. The correlation value can be the sum of squares of the absolute values of the differences in the lower layer feature amounts. Alternatively, the correlation value is a correlation in which a lower layer feature amount corresponding to one field and a lower layer feature amount corresponding to another field are two random variable sequences,
That is, it can be a cross-correlation of the lower layer feature amount.

【0070】相関値算出部42は、元の画像信号のデー
タと同等の密度の下位階層特徴量を用いた、密なブロッ
クを用いて相関値の算出の処理を実行する。
The correlation value calculating unit 42 executes the processing of calculating the correlation value by using the dense blocks using the lower layer feature amount having the same density as the data of the original image signal.

【0071】判定部43は、ベクトル生成部41から供
給されたベクトルに対応させて、相関値算出部42から
供給された相関値を記憶する。所定の範囲の大きさおよ
び方向を有するベクトルに対応する相関値が算出された
とき、判定部43は、相関値の算出方式を指定するパラ
メータBに含まれるデータを基に、記憶している相関値
のうち、最も相関の強い相関値を選択し、選択した相関
値に対応するベクトルを下位階層ベクトルとして出力す
る。例えば、相関値が下位階層特徴量の差分の絶対値の
和であるとき、判定部43は、最小の相関値に対応する
ベクトルを下位階層ベクトルとして出力する。
The determination unit 43 stores the correlation value supplied from the correlation value calculation unit 42 in association with the vector supplied from the vector generation unit 41. When the correlation value corresponding to the vector having the size and direction of the predetermined range is calculated, the determination unit 43 determines the stored correlation based on the data included in the parameter B that specifies the calculation method of the correlation value. Among the values, the correlation value having the strongest correlation is selected, and the vector corresponding to the selected correlation value is output as the lower layer vector. For example, when the correlation value is the sum of the absolute values of the differences of the lower layer feature amounts, the determination unit 43 outputs the vector corresponding to the minimum correlation value as the lower layer vector.

【0072】図6乃至図9を参照して、動きベクトル検
出部2が実行する処理の詳細な例について説明する。
A detailed example of the process executed by the motion vector detecting section 2 will be described with reference to FIGS. 6 to 9.

【0073】図6は、上位階層動きベクトル検出部25
による上位階層ベクトルの検出の処理に使用される上位
階層特徴量、下位階層動きベクトル検出部26による下
位階層ベクトルの検出の処理に使用される下位階層特徴
量、および下位階層動きベクトル検出部26のサーチ領
域の例を示す図である。
FIG. 6 shows the upper layer motion vector detecting section 25.
Of the upper layer feature amount used for the process of detecting the upper layer vector by the lower layer motion vector detecting unit 26, the lower layer feature amount used for the process of detecting the lower layer vector by the lower layer motion vector detecting unit 26, and the lower layer motion vector detecting unit 26. It is a figure which shows the example of a search area.

【0074】図6の数字は、重みを表す。例えば、重み
の全てが1であるとき、特徴量変換部23は、画像信号
に含まれる所定の位相のデータを、そのまま上位階層特
徴量として出力する。
The numbers in FIG. 6 represent weights. For example, when all the weights are 1, the feature amount conversion unit 23 outputs the data of the predetermined phase included in the image signal as it is as the upper layer feature amount.

【0075】例えば、上位階層動きベクトル検出部25
は、注目データと位相が同一であるデータからなる上位
階層特徴量のうち、動きベクトルを検出しようとしてい
る注目点に対応する注目データと、注目データの周辺の
6つのデータを1つのブロックとし、他のフィールドに
おける、注目データと位相が同一であるデータとのマッ
チングをとる。すなわち、上位階層動きベクトル検出部
25は、注目しているフィールドの1つのブロックに属
している、所定の数の特徴量の配置とその値が最も近似
している、他のフィールドの特徴量の位置を検出する。
上位階層ベクトルは、注目しているフィールドの注目デ
ータの位置から、他のフィールドの、配置および値が最
も近似している特徴量の位置を示す。
For example, the upper layer motion vector detecting section 25
Is one block including the attention data corresponding to the attention point for which the motion vector is to be detected, and the six data around the attention data, among the higher-layer feature quantities made up of the data having the same phase as the attention data, Matching is performed with data having the same phase as the target data in other fields. That is, the higher-layer motion vector detection unit 25 determines the arrangement of the predetermined number of feature quantities belonging to one block of the field of interest and the feature quantities of other fields whose values are closest to each other. Detect the position.
The upper hierarchy vector indicates the position of the feature amount of the other field that has the closest arrangement and value from the position of the data of interest of the field of interest.

【0076】ここで、データの位相が同一であるとは、
データの算出の元になった信号が同一であり、かつ、加
算または減算である、データの算出の方式が同一である
ことをいう。
Here, the fact that the data phases are the same means
It means that the signals that are the basis of data calculation are the same and that the data calculation method of addition or subtraction is the same.

【0077】例えば、1つのデータがY信号の値からI
信号の値を減算した値を有し、他のデータがY信号の値
からI信号の値を減算した値を有するとき、この2つの
データの位相は同一である。1つのデータがY信号の値
からQ信号の値を減算した値を有し、他のデータがY信
号の値からQ信号の値を減算した値を有するとき、この
2つのデータの位相は同一である。
For example, one piece of data is converted from the value of the Y signal to I.
When the value of the signal is subtracted and the value of the other data is the value of the Y signal minus the value of the I signal, the phases of the two data are the same. When one data has a value obtained by subtracting the value of the Q signal from the value of the Y signal and another data has a value obtained by subtracting the value of the Q signal from the value of the Y signal, the phases of the two data are the same. Is.

【0078】同様に、1つのデータがY信号の値にI信
号の値を加算した値を有し、他のデータがY信号の値に
I信号の値を加算した値を有するとき、この2つのデー
タの位相は同一である。1つのデータがY信号の値にQ
信号の値を加算した値を有し、他のデータがY信号の値
にQ信号の値を加算した値を加算した値を有するとき、
この2つのデータの位相は同一である。
Similarly, when one data has a value obtained by adding the value of the I signal to the value of the Y signal and another data has a value obtained by adding the value of the I signal to the value of the Y signal, the two The phases of the two data are the same. One data is Q in the value of Y signal
When it has a value obtained by adding the value of the signal, and the other data has a value obtained by adding the value of the Y signal to the value of the Q signal,
The phases of these two data are the same.

【0079】一方、Y信号の値からI信号の値を減算し
た値を有するデータ、Y信号の値にI信号の値を加算し
た値を有するデータ、Y信号の値からQ信号の値を減算
した値を有するデータ、およびY信号の値にQ信号の値
を加算した値を有するデータは、互いに位相が異なる。
On the other hand, data having a value obtained by subtracting the value of the I signal from the value of the Y signal, data having a value obtained by adding the value of the I signal to the value of the Y signal, and subtracting the value of the Q signal from the value of the Y signal. The data having the above value and the data having the value obtained by adding the value of the Q signal to the value of the Y signal have mutually different phases.

【0080】特徴量変換部23は、2つのデータの位相
が同一であるか否かを、サブキャリア位相情報を基に知
ることができる。
The feature quantity conversion section 23 can know whether or not the phases of two data are the same based on the subcarrier phase information.

【0081】図7に示すように、例えば、上位階層動き
ベクトル検出部25は、注目するフィールドであるフィ
ールド#−1において、注目データと、白丸で示す注目
データの周辺の、注目データと位相が同一である、6角
形の頂点に位置する白丸に対応する6つのデータとから
なる、上位階層特徴量のブロックを単位として、対応す
るフィールドであるフィールド#0とのマッチングをと
る。より具体的には、上位階層動きベクトル検出部25
は、注目するフィールドの上位階層特徴量のブロック
と、対応するフィールドであるフィールド#0におい
て、サーチの対象となる対象点に対応する対象データに
ついて、対象データと、白丸で示す対象データの周辺
の、対象データと位相が同一である、6角形の頂点に位
置する白丸に対応する6つのデータとからなる、上位階
層特徴量のブロックとの相関を算出し、マッチングを判
定する。
As shown in FIG. 7, for example, in the upper layer motion vector detection unit 25, in the field # -1 which is the field of interest, the phase of the data of interest and the phase of the data of interest around the data of interest indicated by a white circle are Matching is performed with a corresponding field, field # 0, in units of blocks of higher layer feature amounts, which are composed of the same six data items corresponding to white circles located at the vertices of a hexagon. More specifically, the upper layer motion vector detection unit 25
Is the target data corresponding to the target point to be searched in field # 0, which is the field corresponding to the block of the upper hierarchy feature amount of the field of interest, and the target data around the target data indicated by white circles. , The correlation with the block of the upper layer feature amount, which is composed of the six data corresponding to the white circles located at the vertices of the hexagon and having the same phase as the target data, is calculated, and the matching is determined.

【0082】次に、図6に戻り、下位階層特徴量の例に
ついて説明する。
Next, returning to FIG. 6, an example of the lower layer feature amount will be described.

【0083】特徴量変換部24は、例えば、注目してい
るフィールドの、注目データの周辺のデータを基に、注
目データに対応する下位階層特徴量を算出する。特徴量
変換部24は、例えば、注目しているフィールドの、注
目データに隣接する4つのデータのそれぞれに重み1を
乗算して、注目データに重み4を乗算して、乗算した結
果を加算して下位階層特徴量とする。
The feature amount conversion unit 24 calculates the lower layer feature amount corresponding to the target data, for example, based on the data around the target data in the target field. The feature amount conversion unit 24 multiplies each of the four pieces of data adjacent to the target data of the field of interest by a weight of 1, the target data by a weight of 4, and adds the results of the multiplication. As the lower layer feature amount.

【0084】同様に、特徴量変換部24は、注目してい
るフィールドに対応するフィールドのサーチの対象とな
る対象点に対応する対象データについて、対象データの
周辺のデータを基に、対象データに対応する下位階層特
徴量を算出する。
Similarly, the feature quantity conversion unit 24 converts the target data corresponding to the target point to be searched for in the field corresponding to the field of interest into the target data based on the data around the target data. The corresponding lower layer feature amount is calculated.

【0085】また、特徴量変換部24は、例えば、図8
に示すように、注目しているフィールド#−1におい
て、注目データから2つ上側のデータ、注目データから
2つ下側のデータ、注目データから2つ右側のデータ、
および注目データから2つ左側のデータのそれぞれに重
み1を乗算して、注目データに重み4を乗算して、乗算
した結果を加算して下位階層特徴量とする。
Further, the feature quantity conversion unit 24 is, for example, as shown in FIG.
As shown in, in the field # -1 of interest, two data above the attention data, two data below the attention data, and two data right from the attention data,
Then, each of the two data on the left side of the target data is multiplied by a weight of 1, the target data is multiplied by a weight of 4, and the multiplication result is added to obtain a lower layer feature amount.

【0086】特徴量変換部24は、対応するフィールド
#0において、対象データから2つ上側のデータ、対象
データから2つ下側のデータ、対象データから2つ右側
のデータ、および対象データから2つ左側のデータのそ
れぞれに重み1を乗算して、対象データに重み4を乗算
して、乗算した結果を加算して下位階層特徴量とする。
In the corresponding field # 0, the feature quantity conversion section 24 determines that the data two levels above the target data, the data two levels below the target data, the two data right from the target data, and two from the target data. Each of the data on the left side is multiplied by a weight of 1, the target data is multiplied by a weight of 4, and the multiplication results are added to obtain a lower layer feature amount.

【0087】下位階層動きベクトル検出部26は、上位
階層動きベクトル検出部25から供給された上位階層ベ
クトルで指定されるデータの位置を中心とした、対応す
るフィールドの特徴量の所定の範囲のサーチする領域に
おいて、注目しているフィールドの所定の数の下位階層
特徴量からなるブロックと、相関が最も強い、所定の数
の下位階層特徴量からなるブロックの位置を検出する。
下位階層動きベクトル検出部26は、注目しているフィ
ールドの注目データの位置から、対応するフィールドの
検出されたブロックの中心位置を示す下位階層ベクトル
を動きベクトルとして出力する。
The lower layer motion vector detecting section 26 searches for a predetermined range of the characteristic amount of the corresponding field centered on the position of the data designated by the upper layer vector supplied from the upper layer motion vector detecting section 25. In the area, the position of the block including the predetermined number of lower layer feature amounts of the field of interest and the position of the block including the predetermined number of lower layer feature amounts having the highest correlation are detected.
The lower layer motion vector detection unit 26 outputs, as a motion vector, a lower layer vector indicating the center position of the detected block of the corresponding field from the position of the data of interest of the field of interest.

【0088】図9は、下位階層動きベクトル検出部26
がサーチする領域およびブロックの例を示す図である。
図9において、三角は、下位階層特徴量を示す。
FIG. 9 shows the lower layer motion vector detecting section 26.
It is a figure which shows the example of the area | region and block which are searched.
In FIG. 9, triangles indicate lower layer feature amounts.

【0089】図9に示す例において、サーチされる領域
は、横に7つの下位階層特徴量が並び、縦に7つの下位
階層特徴量が並ぶ矩形の領域である。サーチするブロッ
クは、横に5つの下位階層特徴量が並び、縦に5つの下
位階層特徴量が並ぶ矩形の領域である。
In the example shown in FIG. 9, the area to be searched is a rectangular area in which seven lower layer characteristic amounts are arranged horizontally and seven lower layer characteristic amounts are arranged vertically. The block to be searched is a rectangular area in which five lower layer feature amounts are arranged horizontally and five lower layer feature amounts are arranged vertically.

【0090】図10は、マッチングを判定する、上位階
層特徴量の他のブロックの例を示す図である。図10に
おいて、三角は、注目データと位相が同一であるデータ
を示す。
FIG. 10 is a diagram showing an example of another block of the upper layer characteristic amount for judging matching. In FIG. 10, triangles indicate data having the same phase as the target data.

【0091】図10に示すように、例えば、上位階層動
きベクトル検出部25は、注目するフィールドであるフ
ィールド#−1において、黒い三角で示す注目データ
と、白い三角で示す注目データの周辺の、注目データと
位相が同一である、6角形の頂点に位置する白い三角に
対応する6つのデータとからなる、上位階層特徴量のブ
ロックを単位として、対応するフィールドであるフィー
ルド#0における、最も相関の強いブロックを検出す
る。
As shown in FIG. 10, for example, the upper layer motion vector detection unit 25, in the field # -1 which is the field of interest, shows the data of interest indicated by a black triangle and the data of interest indicated by a white triangle. The highest correlation in the corresponding field, field # 0, in units of blocks of the higher-level feature quantity, which is composed of the data of interest and the six data corresponding to the white triangles located at the vertices of the hexagon Detects strong blocks.

【0092】特徴量変換部23が、注目データと同位相
の画像信号のデータからなる上位階層特徴量を出力する
とき、上位階層特徴量のデータの数は、元の画像信号の
データの4分の1となる。
When the feature quantity conversion section 23 outputs the upper layer feature quantity consisting of the image signal data having the same phase as the data of interest, the number of the upper layer feature quantity data is 4 times the original image signal data. It will be 1.

【0093】図11および図12は、上位階層特徴量の
他の例を示す図である。
FIG. 11 and FIG. 12 are diagrams showing other examples of the higher layer feature amount.

【0094】図11に示すように、特徴量変換部23
は、例えば、所定のフィールドの1つのライン上の、そ
れぞれ異なる位相の4つのデータの平均値を算出し、算
出された平均値を上位階層特徴量として出力する。
As shown in FIG. 11, the feature quantity conversion unit 23
For example, calculates an average value of four data of different phases on one line of a predetermined field, and outputs the calculated average value as an upper layer feature amount.

【0095】図12に示すように、特徴量変換部23
は、例えば、所定のフィールドの上下に隣接する2つの
ライン上の、上下および左右に相互に隣接する、それぞ
れ異なる位相の4つのデータの平均値を算出し、算出さ
れた平均値を上位階層特徴量として出力する。
As shown in FIG. 12, the feature quantity conversion unit 23
Is, for example, an average value of four pieces of data adjacent to each other vertically and horizontally on two lines adjacent to each other above and below a predetermined field and having different phases. Output as a quantity.

【0096】特徴量変換部23が、それぞれ異なる位相
の4つのデータの平均値を算出し、上位階層特徴量を出
力するとき、上位階層特徴量のデータの数は、元の画像
信号のデータの4分の1となる。
When the feature quantity conversion unit 23 calculates the average value of four data having different phases and outputs the upper hierarchy feature quantity, the number of data of the upper hierarchy feature quantity is the same as that of the original image signal data. It becomes 1/4.

【0097】図13乃至図17は、下位階層特徴量の他
の例を示す図である。
13 to 17 are diagrams showing other examples of the lower layer feature amount.

【0098】図13に示すように、特徴量変換部24
は、注目しているフィールド#−1の、注目データの上
側のデータおよび下側のデータ、並びに注目データから
左側に2つめのデータおよび注目データから右側に2つ
めのデータを基に、下位階層特徴量を算出する。例え
ば、注目データをp2とし、上側のデータをp0とし、左側
に2つめのデータをp1とし、右側に2つめのデータをp3
とし、下側のデータをp4としたとき、注目データp2に対
応する下位階層特徴量yは、式(1)で算出される。 y=p0+p1+4*p2+p3+p4 (1)
As shown in FIG. 13, the feature amount conversion unit 24
Is based on the data above and below the data of interest, and the second data to the left of the data of interest and the second data to the right of the data of interest in field # -1 of interest. The feature amount is calculated. For example, let p2 be the data of interest, p0 be the upper data, p1 be the second data on the left, and p3 be the second data on the right.
When the lower data is p4, the lower layer feature amount y corresponding to the target data p2 is calculated by the equation (1). y = p0 + p1 + 4 * p2 + p3 + p4 (1)

【0099】特徴量変換部24は、対応するフィールド
#0の、対象データの上側のデータおよび下側のデー
タ、並びに対象データから左側に2つめのデータおよび
対象データから右側に2つめのデータを基に、下位階層
特徴量を算出する。例えば、対象データをp2とし、上側
のデータをp0とし、左側に2つめのデータをp1とし、右
側に2つめのデータをp3とし、下側のデータをp4とした
とき、対象データp2に対応する下位階層特徴量yは、式
(1)で算出される。
The feature quantity conversion unit 24 outputs the upper data and the lower data of the target data of the corresponding field # 0, the second data on the left side of the target data and the second data on the right side of the target data. Based on this, the lower layer feature amount is calculated. For example, if the target data is p2, the upper data is p0, the second data is p1 on the left, the second data is p3 on the right, and the lower data is p4. The lower layer feature amount y to be calculated is calculated by Expression (1).

【0100】図13を参照して説明した下位階層特徴量
は、注目データまたは対象データの周辺の、それぞれ位
相が異なる4つのデータを基に算出されるので、サブキ
ャリアの変動成分の影響を少なくすることができ、よっ
て、より精度の高い動きベクトルを検出することができ
るようになる。
The lower layer feature amount described with reference to FIG. 13 is calculated on the basis of four data having different phases around the target data or the target data, so that the influence of the variation component of the subcarrier is reduced. Therefore, it becomes possible to detect a motion vector with higher accuracy.

【0101】図14に示すように、特徴量変換部24
は、注目フィールドであるフィールド#−1の注目デー
タに対応する下位階層特徴量を算出するとき、注目デー
タ、注目フィールドの前のフィールドであるフィールド
#−2のラインであって、注目データが位置するライン
の上側および下側のライン上の、注目データの上側のデ
ータおよび下側のデータ、並びに、注目データから左側
に2つめのデータおよび注目データから右側に2つめの
データを基に、下位階層特徴量を算出する。例えば、注
目データをp2とし、注目データが位置するライン4の上
側の、前のフィールド#−2のライン3における、注目
データの上側のデータをp0とし、ライン4の左側に2つ
めのデータをp1とし、ライン4の右側に2つめのデータ
をp3とし、注目データが位置するライン4の下側の、前
のフィールド#−2のライン5における、注目データの
下側のデータをp4とし、注目データp2に対応する下位階
層特徴量yは、式(2)で算出される。 y=p0+p1+4*p2+p3+p4 (2)
As shown in FIG. 14, the feature quantity conversion unit 24
Is the line of the target data and the field # -2, which is the field preceding the target field, when the lower layer feature amount corresponding to the target data of the target field, field # -1, is calculated. Based on the data above and below the data of interest on the lines above and below the line to be recorded, and the second data to the left of the data of interest and the second data to the right of the data of interest Calculate the hierarchical feature amount. For example, let p2 be the target data, p0 be the data above the target data in line 3 of the previous field # -2 above line 4 where the target data is located, and the second data to the left of line 4. Let p1 be the second data on the right side of line 4 be p3, and let the data below the target data in line 5 of the previous field # -2 below line 4 where the target data is located be p4, The lower layer feature amount y corresponding to the attention data p2 is calculated by the equation (2). y = p0 + p1 + 4 * p2 + p3 + p4 (2)

【0102】特徴量変換部24は、対応するフィールド
であるフィールド#0の対象データに対応する下位階層
特徴量を算出するとき、対象データ、フィールド#0の
次のフィールドであるフィールド#+1のラインであっ
て、対象データが位置するラインの上側および下側のラ
イン上の、対象データの上側のデータおよび下側のデー
タ、並びに、対象データから左側に2つめのデータおよ
び対象データから右側に2つめのデータを基に、下位階
層特徴量を算出する。例えば、対象データをp2とし、対
象データが位置するライン3の上側の、次のフィールド
#+1のライン2における、対象データの上側のデータ
をp0とし、ライン3の左側に2つめのデータをp1とし、
ライン3の右側に2つめのデータをp3とし、対象データ
が位置するライン3の下側の、次のフィールド#+1の
ライン4における、対象データの下側のデータをp4と
し、対象データp2に対応する下位階層特徴量yは、式
(2)で算出される。
When calculating the lower layer feature quantity corresponding to the target data of the field # 0 which is the corresponding field, the feature quantity conversion unit 24 calculates the line of the field # + 1 which is the field next to the target data and field # 0. In addition, on the upper and lower lines of the line where the target data is located, the upper data and the lower data of the target data, and the second data on the left side of the target data and the second data on the right side of the target data. The lower layer feature amount is calculated based on the third data. For example, the target data is p2, the data above the target data in line 2 of the next field # + 1 above line 3 where the target data is located is p0, and the second data on the left side of line 3 is p1. age,
The second data on the right side of line 3 is p3, and the lower data of the target data in line 4 of the next field # + 1 on the lower side of line 3 where the target data is located is p4. The corresponding lower layer feature amount y is calculated by equation (2).

【0103】図15に示すように、特徴量変換部24
は、注目しているフィールド#−1の、注目データ、注
目データの上側のデータおよび下側のデータ、並びに注
目データの左側に隣接するデータおよび注目データの右
側に隣接するデータを基に、注目データに対応する下位
階層特徴量を算出する。例えば、注目データをp2とし、
注目データの上側のデータをp0とし、注目データの左側
に隣接するデータをp1とし、注目データの右側に隣接す
るデータをp3とし、注目データの下側のデータをp4とし
たとき、注目データp2に対応する下位階層特徴量yは、
式(3)で算出される。 y=p0+p1+4*p2+p3+p4 (3)
As shown in FIG. 15, the feature quantity conversion unit 24
Is based on the data of interest, the data above and below the data of interest, and the data adjacent to the left side of the data of interest and the data adjacent to the right side of the data of interest in field # -1 of interest. The lower layer feature amount corresponding to the data is calculated. For example, if the attention data is p2,
When the data above the data of interest is p0, the data adjacent to the left of the data of interest is p1, the data adjacent to the right of the data of interest is p3, and the data below the data of interest is p4, the data of interest p2 The lower layer feature amount y corresponding to
It is calculated by the equation (3). y = p0 + p1 + 4 * p2 + p3 + p4 (3)

【0104】特徴量変換部24は、対応しているフィー
ルド#0の、対象データ、対象データの上側のデータお
よび下側のデータ、並びに対象データの左側に隣接する
データおよび対象データの右側に隣接するデータを基
に、対象データに対応する下位階層特徴量を算出する。
例えば、対象データをp2とし、対象データの上側のデー
タをp0とし、対象データの左側に隣接するデータをp1と
し、対象データの右側に隣接するデータをp3とし、対象
データの下側のデータをp4としたとき、対象データp2に
対応する下位階層特徴量yは、式(3)で算出される。
The feature quantity conversion unit 24 determines the target data, the data above and below the target data, and the data adjacent to the left side of the target data and the right side of the target data of the corresponding field # 0. The lower layer feature amount corresponding to the target data is calculated based on the data.
For example, the target data is p2, the data above the target data is p0, the data adjacent to the left side of the target data is p1, the data adjacent to the right side of the target data is p3, and the data below the target data is When p4 is set, the lower layer feature amount y corresponding to the target data p2 is calculated by Expression (3).

【0105】図16に示すように、特徴量変換部24
は、注目しているフィールド#−1の、注目データ、注
目データの左側に隣接するデータおよび注目データの右
側に隣接するデータ、並びに注目データから左側に2つ
めのデータおよび注目データから右側に2つめのデータ
を基に、注目データに対応する下位階層特徴量を算出す
る。例えば、注目データをp2とし、注目データの左側に
2つめのデータをp0とし、注目データの左側に隣接する
データをp1とし、注目データの右側に隣接するデータを
p3とし、注目データの右側に2つめのデータをp4とした
とき、注目データp2に対応する下位階層特徴量yは、式
(4)で算出される。 y=p0+p1+2*p2+2*p3+p4 (4)
As shown in FIG. 16, the feature amount conversion unit 24
Is the data of interest, the data adjacent to the left side of the data of interest and the data adjacent to the right of the data of interest, and the second data to the left of the data of interest and 2 to the right of the data of interest. The lower layer feature amount corresponding to the data of interest is calculated based on the third data. For example, let the data of interest be p2, the second data to the left of the data of interest be p0, the data adjacent to the left of the data of interest be p1, and the data adjacent to the right of the data of interest.
When p3 is set and p2 is the second data on the right side of the target data, the lower layer feature amount y corresponding to the target data p2 is calculated by the equation (4). y = p0 + p1 + 2 * p2 + 2 * p3 + p4 (4)

【0106】特徴量変換部24は、対象しているフィー
ルド#0の、対象データ、対象データの左側に隣接する
データおよび対象データの右側に隣接するデータ、並び
に対象データから左側に2つめのデータおよび対象デー
タから右側に2つめのデータを基に、対象データに対応
する下位階層特徴量を算出する。例えば、対象データを
p2とし、対象データの左側に2つめのデータをp0とし、
対象データの左側に隣接するデータをp1とし、対象デー
タの右側に隣接するデータをp3とし、対象データの右側
に2つめのデータをp4としたとき、対象データp2に対応
する下位階層特徴量yは、式(4)で算出される。
The feature amount conversion unit 24 determines the target data of the target field # 0, the data adjacent to the left side of the target data and the data adjacent to the right side of the target data, and the second data to the left side of the target data. And the lower layer feature amount corresponding to the target data is calculated based on the second data on the right side of the target data. For example, target data
p2, the second data on the left side of the target data is p0,
When the data adjacent to the left side of the target data is p1, the data adjacent to the right side of the target data is p3, and the second data is p4 on the right side of the target data, the lower layer feature amount y corresponding to the target data p2 Is calculated by the equation (4).

【0107】図17に示すように、特徴量変換部24
は、注目フィールドであるフィールド#−1の下位階層
特徴量を算出するとき、注目データ、注目データから左
側に2つめのデータ、および注目データから右側に2つ
めのデータ、並びに注目フィールドの前のフィールドで
あるフィールド#−2のラインであって、注目データが
位置するラインの上側および下側のライン上の、注目デ
ータ、注目データから左側に2つめのデータ、並びに注
目データから右側に2つめのデータのそれぞれの上側の
データおよび下側のデータを基に、下位階層特徴量を算
出する。
As shown in FIG. 17, the feature quantity conversion unit 24
When calculating the lower layer feature amount of the field # -1 which is the attention field, the attention data, the second data on the left side of the attention data, the second data on the right side of the attention data, and the front of the attention field The lines of the field # -2, which is a field, on the lines above and below the line on which the target data is located, the target data, the second data to the left of the target data, and the second data to the right of the target data. The lower layer feature amount is calculated based on the upper data and the lower data of each of the above data.

【0108】例えば、注目データをp4とし、左側に2つ
めのデータをp3とし、右側に2つめのデータをp5とし、
注目データが位置するライン4の上側の、前のフィール
ド#−2のライン3における、注目データの上側のデー
タをp1とし、p3の上側のデータをp0とし、p5の上側のデ
ータをp2とし、注目データが位置するライン4の下側
の、前のフィールド#−2のライン5における、注目デ
ータの下側のデータをp7とし、p3の下側のデータをp6と
し、p5の下側のデータをp8とし、注目データp4に対応す
る下位階層特徴量yは、式(5)で算出される。 y=p0+(-2)*p1+p2+(-2)*p3+4*p4+(-2)*p5+p6+(-2)*p7+p8 (5)
For example, the target data is p4, the second data on the left side is p3, and the second data on the right side is p5.
In line 3 of the previous field # -2 above line 4 where the data of interest is located, the data above the data of interest is p1, the data above p3 is p0, and the data above p5 is p2, In line 5 of the previous field # -2 below line 4 where the data of interest is located, the data below the data of interest is p7, the data below p3 is p6, and the data below p5. Is set to p8, and the lower layer feature amount y corresponding to the attention data p4 is calculated by the equation (5). y = p0 + (-2) * p1 + p2 + (-2) * p3 + 4 * p4 + (-2) * p5 + p6 + (-2) * p7 + p8 (5)

【0109】特徴量変換部24は、対応するフィールド
であるフィールド#0の下位階層特徴量を算出すると
き、対象データ、対象データから左側に2つめのデー
タ、および対象データから右側に2つめのデータ、並び
に対象フィールドの次のフィールドであるフィールド#
+1のラインであって、対象データが位置するラインの
上側および下側のライン上の、対象データ、対象データ
から左側に2つめのデータ、並びに対象データから右側
に2つめのデータのそれぞれの上側のデータおよび下側
のデータを基に、下位階層特徴量を算出する。
When calculating the lower layer feature quantity of the corresponding field, field # 0, the feature quantity conversion unit 24 selects the target data, the second data on the left side of the target data, and the second data on the right side of the target data. Field # which is the next field of data and target field
+1 line, on the upper and lower lines of the line where the target data is located, the upper side of each of the target data, the second data to the left of the target data, and the second data to the right of the target data. The lower layer feature amount is calculated on the basis of the above data and the lower data.

【0110】例えば、対象データをp4とし、左側に2つ
めのデータをp3とし、右側に2つめのデータをp5とし、
対象データが位置するライン3の上側の、次のフィール
ド#+1のライン2における、対象データの上側のデー
タをp1とし、p3の上側のデータをp0とし、p5の上側のデ
ータをp2とし、対象データが位置するライン3の下側
の、次のフィールド#+1のライン4における、対象デ
ータの下側のデータをp7とし、p3の下側のデータをp6と
し、p5の下側のデータをp8とし、対象データp4に対応す
る下位階層特徴量yは、式(5)で算出される。
For example, the target data is p4, the second data on the left side is p3, the second data on the right side is p5,
In line 2 of the next field # + 1 above line 3 where the target data is located, the upper data of the target data is p1, the upper data of p3 is p0, and the upper data of p5 is p2. In line 4 of the next field # + 1 below line 3 where the data is located, the lower data of the target data is p7, the lower data of p3 is p6, and the lower data of p5 is p8. Then, the lower layer feature amount y corresponding to the target data p4 is calculated by the equation (5).

【0111】以上に例示した上位階層特徴量および下位
階層特徴量は、それぞれ特徴量間で演算が実行されるの
で、正規化していない。勿論、上位階層特徴量および下
位階層特徴量を正規化するようにしてもよい。
The upper layer feature amount and the lower layer feature amount exemplified above are not normalized because the respective feature amounts are calculated. Of course, the upper layer feature amount and the lower layer feature amount may be normalized.

【0112】次に、クラス分類適応処理による下位階層
ベクトルの検出について説明する。
Next, the detection of the lower hierarchy vector by the class classification adaptive processing will be described.

【0113】ここで、クラス分類処理について簡単に説
明する。
Here, the class classification process will be briefly described.

【0114】いま、例えば、下位階層特徴量において、
ある注目データと、それに隣接する3つのデータによ
り、2×2データでなるクラスタップを構成し、また、
各データは、1ビットで表現される(0または1のうち
のいずれかのレベルをとる)ものとする。この場合、注
目データを含む2×2の4データのブロックは、各デー
タのレベル分布により、16(=(214)パターンに
分類することができる。従って、いまの場合、注目デー
タは、16のパターンに分類することができ、このよう
なパターン分けが、クラス分類処理である。
Now, for example, in the lower layer feature quantity,
A certain tapped data and three data adjacent to it form a class tap consisting of 2 × 2 data, and
Each data is expressed by 1 bit (takes either 0 or 1 level). In this case, the 2 × 2 4-data block including the target data can be classified into 16 (= (2 1 ) 4 ) patterns according to the level distribution of each data. Therefore, in the present case, the data of interest can be classified into 16 patterns, and such pattern classification is the class classification processing.

【0115】ここで、通常、各データには、例えば8ビ
ット程度が割り当てられる。また、クラスタップを、3
×3の9データで構成すると、このようなクラスタップ
を対象にクラス分類処理を行ったのでは、(289とい
う膨大な数のクラスに分類されることになる。
Here, normally, for example, about 8 bits are assigned to each data. Also, class tap 3
With 9 data of × 3, if the class classification processing is performed on such a class tap, the class will be classified into a huge number of classes (2 8 ) 9 .

【0116】そこで、本実施の形態においては、クラス
タップに対して、ADRC(Adaptive Dynamic Range Co
ding)処理が施され、これにより、クラスタップを構成
するデータのビット数を小さくすることで、クラス数を
削減する。
Therefore, in the present embodiment, an ADRC (Adaptive Dynamic Range Co
ding) processing is performed, and thereby, the number of classes is reduced by reducing the number of bits of the data forming the class tap.

【0117】説明を簡単にするため、下位階層特徴量
の、1つのライン上に並んだ4データで構成されるクラ
スタップを考えると、ADRC処理においては、そのデ
ータ値の最大値MAXと最小値MINが検出される。そ
して、DR=MAX−MINを、クラスタップで構成さ
れるブロックの局所的なダイナミックレンジとし、この
ダイナミックレンジDRに基づいて、クラスタップのブ
ロックを構成するデータのデータ値がKビットに再量子
化される。
To simplify the explanation, consider a class tap composed of four data of lower layer feature values arranged on one line. In ADRC processing, the maximum value MAX and the minimum value of the data values are considered. MIN is detected. Then, DR = MAX-MIN is set as a local dynamic range of the block composed of the class taps, and the data value of the data composing the block of the class taps is requantized into K bits based on the dynamic range DR. To be done.

【0118】即ち、ブロック内の各データ値から、最小
値MINを減算し、その減算値をDR/2Kで除算す
る。そして、その結果得られる除算値に対応するコード
(ADRCコード)に変換される。具体的には、例え
ば、K=2とした場合、除算値が、ダイナミックレンジ
DRを4(=22)等分して得られるいずれの範囲に属
するかが判定され、除算値が、最も下のレベルの範囲、
下から2番目のレベルの範囲、下から3番目のレベルの
範囲、または最も上のレベルの範囲に属する場合には、
それぞれ、例えば、00B,01B,10B、または1
1Bなどの2ビットにコード化される(Bは2進数であ
ることを表す)。そして、復号側においては、ADRC
コード00B,01B,10B、または11Bは、ダイ
ナミックレンジDRを4等分して得られる最も下のレベ
ルの範囲の中心値L00、下から2番目のレベルの範囲の
中心値L01、下から3番目のレベルの範囲の中心値
10、または最も上のレベルの範囲の中心値L11に変換
され、その値に、最小値MINが加算されることで復号
が行われる。
That is, the minimum value MIN is subtracted from each data value in the block, and the subtracted value is divided by DR / 2 K. Then, it is converted into a code (ADRC code) corresponding to the division value obtained as a result. Specifically, for example, when K = 2, it is determined to which range the divided value is obtained by equally dividing the dynamic range DR into 4 (= 2 2 ), and the divided value is the lowest. Range of levels of
If it belongs to the range of the second lowest level, the range of the third lowest level, or the range of the highest level,
For example, 00B, 01B, 10B, or 1 respectively
It is encoded into 2 bits such as 1B (B represents a binary number). Then, on the decoding side, ADRC
The code 00B, 01B, 10B, or 11B is obtained by dividing the dynamic range DR into four equal to the central value L 00 of the range of the lowest level, the central value L 01 of the range of the second lowest level, and from the bottom. Decoding is performed by converting the value to the central value L 10 of the range of the third level or the central value L 11 of the range of the uppermost level and adding the minimum value MIN to the value.

【0119】ここで、このようなADRC処理はノンエ
ッジマッチングと呼ばれる。
Here, such ADRC processing is called non-edge matching.

【0120】なお、ADRC処理については、本件出願
人が先に出願した、例えば、特開平3−53778号公
報などに、その詳細が開示されている。
Details of the ADRC processing are disclosed in, for example, Japanese Patent Application Laid-Open No. 3-53778 filed by the applicant of the present application.

【0121】クラスタップを構成するデータに割り当て
られているビット数より少ないビット数で再量子化を行
うADRC処理を施すことにより、上述したように、ク
ラス数を削減することができる。
As described above, the number of classes can be reduced by performing the ADRC process of requantizing with the number of bits smaller than the number of bits assigned to the data forming the class tap.

【0122】なお、本実施の形態では、ADRCコード
に基づいて、クラス分類処理が行われるが、クラス分類
処理は、その他、例えば、DPCM(予測符号化)や、
BTC(Block Truncation Coding)、VQ(ベクトル
量子化)、DCT(離散コサイン変換)、アダマール変
換などを施したデータを対象に行うようにすることも可
能である。
In this embodiment, the class classification process is performed based on the ADRC code. However, the class classification process may be performed by other methods such as DPCM (predictive coding) and
It is also possible to perform data for which BTC (Block Truncation Coding), VQ (Vector Quantization), DCT (Discrete Cosine Transform), Hadamard Transform and the like have been performed.

【0123】本実施の形態において、このように分類さ
れたクラス毎に適応処理を実行する。適応処理として
は、予め学習された予測係数を用いた予測演算を行う方
式と、重心法により予測値を学習しておく方式がある。
また、学習を行うための条件としては、画像信号および
動きベクトルからなる、目標となる教師信号を用意して
おく必要がある。
In the present embodiment, the adaptive process is executed for each class thus classified. As the adaptive processing, there are a method of performing a prediction calculation using a prediction coefficient learned in advance and a method of learning a predicted value by the center of gravity method.
Further, as a condition for learning, it is necessary to prepare a target teacher signal including an image signal and a motion vector.

【0124】次に、この教師信号を用いて、予め学習に
より生成されたクラス毎の予測係数を用いた予測演算を
行う適応処理について説明する。例えば、5×5の下位
階層特徴量E0乃至E24の25タップにより予測タップを
構成し、動き評価値E'を予測することを考える。
Next, an adaptive process for performing a prediction calculation using a prediction coefficient for each class generated in advance by learning using this teacher signal will be described. For example, consider that a prediction tap is configured by 25 taps of 5 × 5 lower layer feature amounts E0 to E24 and the motion evaluation value E ′ is predicted.

【0125】動き評価値の予測値E'は、式(6)により
算出される。
The predicted value E'of the motion evaluation value is calculated by the equation (6).

【0126】[0126]

【数1】 Eiは、下位階層特徴量を示する。wiは、予測係数を示
す。
[Equation 1] Ei indicates a lower layer feature amount. wi indicates a prediction coefficient.

【0127】例えば、9つのデータに、上述の1ビット
ADRCを適用し、512クラスに分類したとき、各ク
ラス毎に生成された予測係数と下位階層特徴量との積和
演算により動き評価値E'が予測される。
For example, when the above-mentioned 1-bit ADRC is applied to nine pieces of data and the data is classified into 512 classes, the motion evaluation value E is calculated by multiplying and summing the prediction coefficient and the lower layer feature quantity generated for each class. 'Is predicted.

【0128】例えば、直交する2つの動き評価値E'を算
出し、それぞれ動きベクトルのx成分およびy成分と
し、動きベクトルを算出することができる。また、例え
ば、n個の動き評価値E'を算出し、それぞれが方向が異
なるn個の単位ベクトルの大きさを示すものとし、n個
の動き評価値E'のそれぞれを、n個の単位ベクトルのそ
れぞれに乗算して、乗算された結果を加算することによ
り、動きベクトルを算出することができる。
For example, two orthogonal motion evaluation values E'can be calculated and used as the x and y components of the motion vector to calculate the motion vector. Further, for example, n motion evaluation values E ′ are calculated, and the magnitudes of n unit vectors having different directions are shown, and each of the n motion evaluation values E ′ is converted into n units. The motion vector can be calculated by multiplying each of the vectors and adding the multiplied results.

【0129】また、適応処理により、動きベクトルに限
らず、例えば、コンポーネントビデオ信号を予測すると
き、式(6)に基づく演算により、Y信号に対応する評
価値E'、U信号に対応する評価値E'、V信号に対応する
評価値E'を個々に算出することができる。
Further, not only the motion vector but also the evaluation value E'corresponding to the Y signal and the evaluation corresponding to the U signal are calculated by the calculation based on the equation (6) when predicting not only the motion vector but also the component video signal by the adaptive processing. The value E ′ and the evaluation value E ′ corresponding to the V signal can be calculated individually.

【0130】上述の予測係数は、予め学習により生成し
ておくため、ここで、その学習について説明する。
Since the above-described prediction coefficient is generated by learning in advance, the learning will be described here.

【0131】式(6)のモデルに基づく予測係数を最小
自乗法により生成する例を示す。
An example of generating the prediction coefficient based on the model of equation (6) by the method of least squares will be shown.

【0132】最小自乗法は、次のように適用される。一
般化した例として、Xを入力データ、Wを予測係数、Yを
予測値として式(7)を考える。 観測方程式:XW=Y (7)
The least squares method is applied as follows. As a generalized example, Equation (7) is considered, where X is input data, W is a prediction coefficient, and Y is a prediction value. Observation equation: XW = Y (7)

【0133】[0133]

【数2】 [Equation 2]

【0134】上述の観測方程式により収集されたデータ
に最小自乗法を適用する。式(6)の例においては、n
は、25であり、mは、学習データの数である。
The least squares method is applied to the data collected by the above observation equation. In the example of Expression (6), n
Is 25 and m is the number of training data.

【0135】式(7)の観測方程式を基に、式(9)の
残差方程式を考える。
Consider the residual equation of equation (9) based on the observation equation of equation (7).

【0136】[0136]

【数3】 [Equation 3]

【0137】式(9)の残差方程式から、各wiの最確値
は、式(10)に示す値を最小にする条件が成り立つ場
合に対応する。
From the residual equation of equation (9), the most probable value of each wi corresponds to the case where the condition for minimizing the value shown in equation (10) is satisfied.

【0138】[0138]

【数4】 [Equation 4]

【0139】すなわち、式(11)の条件を考慮すれば
よい。
That is, the condition of equation (11) may be taken into consideration.

【0140】[0140]

【数5】 [Equation 5]

【0141】式(11)のiに基づくn個の条件を満たす
w1乃至wnを算出すればよい。そこで、残差方程式(9)
から式(12)が得られる。
N conditions based on i in equation (11) are satisfied.
It is sufficient to calculate w1 to wn. Therefore, the residual equation (9)
Equation (12) is obtained from

【0142】[0142]

【数6】 [Equation 6]

【0143】式(11)および式(12)により、式
(13)が得られる。
From equations (11) and (12), equation (13) is obtained.

【0144】[0144]

【数7】 [Equation 7]

【0145】式(10)および式(13)から、正規方
程式(14)が得られる。
A normal equation (14) is obtained from the equations (10) and (13).

【0146】[0146]

【数8】 [Equation 8]

【0147】式(14)の正規方程式において、未知数
の数nと同じ数の方程式を立てることが可能であるの
で、確wiの最確値を求めることができる。例えば、掃き
出し法(Gauss-Jordanの消去法)を用いて、式(14)
が解かれる。
Since it is possible to set up the same number of equations as the number n of unknowns in the normal equation of the equation (14), the most probable value of the certainty wi can be obtained. For example, using the sweeping method (Gauss-Jordan elimination method), equation (14)
Is solved.

【0148】以上のようにして、クラスごとに最適な予
測係数wを求め、さらに、その予測係数wを用い、式
(6)により、教師信号の動きベクトルに近いベクトル
を示す予測値E'を求めるのが適応処理である。
As described above, the optimum prediction coefficient w is obtained for each class, and the prediction value w is used to calculate a prediction value E'indicating a vector close to the motion vector of the teacher signal by the equation (6). It is the adaptive processing that is required.

【0149】なお、コンポーネントビデオ信号を予測す
るとき、コンポーネントビデオ信号を予測するための、
クラスごとに最適な予測係数wを求める必要がある。
When predicting the component video signal,
It is necessary to find the optimum prediction coefficient w for each class.

【0150】また、適応処理は、式(6)だけを見る限
りは、いわゆる補間フィルタを用いての補間処理と同一
であるが、その補間フィルタのタップ係数に相当する予
測係数wが、教師信号を用いての、いわば学習により求
められるため、元の動きベクトルを再現することができ
る。このことから、適応処理は、いわば創造作用がある
処理ということができる。
The adaptive processing is the same as the interpolation processing using a so-called interpolation filter as far as only the equation (6) is seen, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter is the teacher signal. It is possible to reproduce the original motion vector because it is obtained by learning, so to speak. From this, it can be said that the adaptive process is, so to speak, a process having a creative action.

【0151】図18は、クラス分類適応処理により下位
階層ベクトルを検出する、下位階層動きベクトル検出部
26の他の構成を示すブロック図である。
FIG. 18 is a block diagram showing another configuration of the lower hierarchical motion vector detecting unit 26 for detecting the lower hierarchical vector by the class classification adaptive processing.

【0152】クラス分類部51は、サブキャリア位相情
報、および下位階層特徴量を基に、クラス分類し、分類
されたクラスを示すクラスコードを予測タップ抽出部5
2に供給する。例えば、クラス分類部51は、注目デー
タの位相に対応して、クラス分類する。また、例えば、
クラス分類部51は、注目データに対応する、所定の数
の下位階層特徴量にADRC処理を適用し、クラス分類
する。
The class classification unit 51 classifies the class based on the subcarrier phase information and the lower layer feature amount, and predicts the class code indicating the classified class into the prediction tap extraction unit 5.
Supply to 2. For example, the class classification unit 51 classifies the class according to the phase of the data of interest. Also, for example,
The class classification unit 51 applies ADRC processing to a predetermined number of lower layer feature amounts corresponding to the data of interest to perform class classification.

【0153】予測タップ抽出部52は、クラスコードで
示されるクラス、メモリ55から供給される、前のフィ
ールドに対応する下位階層ベクトル、および上位階層ベ
クトルを基に、所定の位置の、所定の数の下位階層特徴
量を抽出して、抽出した下位階層特徴量を予測タップと
して演算部53に供給する。
The predictive tap extracting unit 52 determines a predetermined number at a predetermined position based on the class indicated by the class code, the lower layer vector corresponding to the previous field and the upper layer vector supplied from the memory 55. The lower layer feature amount of is extracted, and the extracted lower layer feature amount is supplied to the calculation unit 53 as a prediction tap.

【0154】演算部53は、予測係数メモリ54から供
給される、所定の数の予測係数からなる係数セットを基
に、例えば、式(6)に示す演算を実行して、下位階層
ベクトルを予測する。演算部53は、予測された下位階
層ベクトルをメモリ55に供給するとともに、外部に出
力する。
The calculation unit 53 predicts the lower hierarchy vector by executing, for example, the calculation shown in the equation (6) based on the coefficient set including a predetermined number of prediction coefficients supplied from the prediction coefficient memory 54. To do. The calculation unit 53 supplies the predicted lower layer vector to the memory 55 and outputs it to the outside.

【0155】メモリ55は、演算部53から供給された
下位階層ベクトルを記憶し、記憶している下位階層ベク
トルを予測タップ抽出部52に供給する。
The memory 55 stores the lower layer vector supplied from the calculation unit 53, and supplies the stored lower layer vector to the prediction tap extracting unit 52.

【0156】このように、動きベクトル検出部2は、精
度の高い動きベクトルを検出して、検出した動きベクト
ルをクラスタップ抽出部3および演算部4に供給するこ
とができる。
As described above, the motion vector detecting section 2 can detect a highly accurate motion vector and supply the detected motion vector to the class tap extracting section 3 and the calculating section 4.

【0157】クラスタップ抽出部3は、NTSCデコーダ1
から供給されたサブキャリア位相情報、および動きベク
トル検出部2から供給された動きベクトルを基に、クラ
ス分類のためのデータのセットである、画像信号のデー
タ、上位階層特徴量のデータ、および下位階層特徴量の
データからなるクラスタップを抽出する。
The class tap extraction unit 3 is the NTSC decoder 1
Based on the subcarrier phase information supplied from the motion vector detection unit 2 and the motion vector supplied from the motion vector detection unit 2, the data of the image signal, the data of the upper layer feature quantity, and the lower layer which are a set of data for class classification. A class tap composed of hierarchical feature data is extracted.

【0158】図19は、演算部4の構成を示すブロック
図である。
FIG. 19 is a block diagram showing the structure of the arithmetic unit 4.

【0159】クラス分類部71−1は、動きベクトル検
出部2から供給された動きベクトル、上位階層特徴量、
および下位階層特徴量、並びにクラスタップ抽出部3か
ら供給されたクラスタップ、NTSCデコーダ1から供給さ
れたサブキャリア位相情報を基に、クラス分類し、クラ
ス分類の結果を示すクラスコードを予測タップ抽出部7
2−1および係数メモリ73−1に供給する。
The class classification unit 71-1 has a motion vector supplied from the motion vector detection unit 2, an upper layer feature amount,
Based on the lower layer feature amount, the class tap supplied from the class tap extraction unit 3, and the subcarrier phase information supplied from the NTSC decoder 1, the class code indicating the result of the class classification is predicted tap extracted. Part 7
2-1 and coefficient memory 73-1.

【0160】例えば、クラス分類部71−1は、NTSCデ
コーダ1から供給されたサブキャリア位相情報を基に、
クラス分類する。また、クラス分類部71−1は、NTSC
デコーダ1から供給されたサブキャリア位相情報により
示される、注目データを基準に、動きベクトルにより指
定されるデータの位相を基に、クラス分類する。従っ
て、分類されるクラスの数は、4のべき乗となる。
For example, the class classification unit 71-1 uses the subcarrier phase information supplied from the NTSC decoder 1 as the basis.
Classify. Also, the class classification unit 71-1 is NTSC.
Based on the data of interest indicated by the subcarrier phase information supplied from the decoder 1, the class is classified based on the phase of the data designated by the motion vector. Therefore, the number of classified classes is a power of four.

【0161】また、クラス分類部71−1は、動きベク
トル検出部2から供給された上位階層特徴量、および下
位階層特徴量を基に、クラス分類する。すなわち、例え
ば、クラス分類部71−1は、動きベクトル検出部2か
ら供給された上位階層特徴量に、ADRC処理を適用
し、上位階層特徴量を所定のビット数のクラスコードに
量子化する。クラス分類部71−1は、動きベクトル検
出部2から供給された下位階層特徴量に、ADRC処理
を適用し、下位階層特徴量を所定のビット数のクラスコ
ードに量子化する。閾値判定により量子化するとき、閾
値判定による量子化は、ベクトルの信頼性をクラスコー
ド化することと等価である。
Further, the class classification unit 71-1 classifies the class based on the upper layer feature amount and the lower layer feature amount supplied from the motion vector detection unit 2. That is, for example, the class classification unit 71-1 applies ADRC processing to the upper layer feature amount supplied from the motion vector detection unit 2 and quantizes the upper layer feature amount into a class code having a predetermined number of bits. The class classification unit 71-1 applies ADRC processing to the lower layer feature amount supplied from the motion vector detection unit 2, and quantizes the lower layer feature amount into a class code having a predetermined number of bits. When quantizing by threshold judgment, quantizing by threshold judgment is equivalent to class coding the reliability of a vector.

【0162】図20は、上位階層特徴量に対応するクラ
スタップおよび予測タップの例を説明する図である。
FIG. 20 is a diagram for explaining an example of class taps and prediction taps corresponding to the upper layer feature amount.

【0163】図20Aに示すように、注目データが白丸
で示される位相であるとき、例えば、上位階層特徴量
は、図20Bに示すように、白丸で示される、注目デー
タと同相のデータのみから構成される。このとき、例え
ば、上位階層特徴量に対応するクラスタップは、注目デ
ータp5、および注目データp5の2つ上側のデータp
1、注目データp5の1つ上側であって、2つ左側のデ
ータp2、注目データp5の1つ上側であって、2つ右
側のデータp3、注目データp5の4つ左側のデータp
4、注目データp5の4つ右側のデータp6、注目デー
タp5の1つ下側であって、2つ左側のデータp7、注
目データp5の1つ下側であって、2つ右側のデータp
8、注目データp5の2つ下側のデータp9から構成さ
れる。
When the data of interest has a phase indicated by a white circle as shown in FIG. 20A, for example, the upper layer feature amount is calculated from only the data of the same phase as the data of interest indicated by a white circle as shown in FIG. 20B. Composed. At this time, for example, the class tap corresponding to the higher-level feature amount is the attention data p5 and the data p two higher than the attention data p5.
1, data p2 on the one side above the attention data p5, data p2 on the two left side, data p3 on the one side above the attention data p5, and data p3 on the four left side of the attention data p5
4, data p6 on the four right side of the data of interest p5, one data below the data of interest p5, two data p7 on the left side and one data below the data of interest p5, two data p on the right side
8 and the data p9 that is two lower than the target data p5.

【0164】例えば、上位階層特徴量は、図20Cに示
すように、三角で示される、上下に2つ、および左右に
2つの合計4つのデータの平均値から構成される。平均
値から構成される上位階層特徴量の上下方向の位置は、
元の画像信号のデータの位置に対して、ラインの幅の半
分だけ、ずれると共に、平均値から構成される上位階層
特徴量の左右方向の位置は、元の画像信号のデータの位
置に対して、データの間隔の半分だけ、ずれる。
For example, as shown in FIG. 20C, the upper layer feature amount is composed of an average value of a total of four data, which are indicated by triangles, that is, two vertically and two horizontally. The vertical position of the upper layer feature amount composed of the average value is
With respect to the position of the original image signal data, the horizontal position of the upper layer feature amount, which is displaced from the original image signal data by half the line width, and is composed of the average value , It is shifted by half the data interval.

【0165】注目データをp11としたとき、上位階層
特徴量に対応するクラスタップは、例えば、注目データ
p11に対して、ラインが2つと半分上側であって、元
のデータの間隔の半分だけ左側のデータA1、注目デー
タp11に対して、ラインが2つと半分上側であって、
元のデータの間隔の1つと半分だけ右側のデータA2、
ラインが1つと半分上側であって、元のデータの間隔の
1つと半分だけ左側のデータA3、ラインが1つと半分
上側であって、元のデータの間隔の半分だけ右側のデー
タA4、ラインが1つと半分上側であって、元のデータ
の間隔の2つと半分だけ右側のデータA5、ラインが半
分上側であって、元のデータの間隔の半分だけ左側のデ
ータA6、ラインが半分上側であって、元のデータの間
隔の1つと半分だけ右側のデータA7、ラインが半分下
側であって、元のデータの間隔の1つと半分だけ左側の
データA8、ラインが半分下側であって、元のデータの
間隔の半分だけ右側のデータA9、ラインが半分下側で
あって、元のデータの間隔の2つと半分だけ右側のデー
タA10、ラインが1つと半分下側であって、元のデー
タの間隔の半分だけ左側のデータA11、ラインが1つ
と半分下側であって、元のデータの間隔の1つと半分だ
け右側のデータA12、ラインが2つと半分下側であっ
て、元のデータの間隔の1つと半分だけ左側のデータA
13、ラインが2つと半分下側であって、元のデータの
間隔の半分だけ右側のデータA14、ラインが2つと半
分下側であって、および元のデータの間隔の2つと半分
だけ左側のデータA15から構成される。
When the attention data is p11, the class tap corresponding to the higher layer feature amount is, for example, two lines and half upper side with respect to the attention data p11, and is on the left side by half the interval of the original data. 2 lines and half upper side of the data A1 of FIG.
Data A2 on the right side of one and half of the original data interval,
The line is one and half above and the data A3 on the left one and half of the original data interval, the line one and half above and the data A4 and line A4 on the right one half the original data interval One half above, the data A5 to the right of two and half of the original data interval, the line half above, and half the original data left data A6, the line half above. Then, one and half of the original data interval is on the right side of the data A7, the line is half down, and one and half of the original data interval is on the left side of data A8, and the line is half down. The data A9 on the right side by half of the interval of the original data, the line is half down, and the data A10 on the right side by two and half of the interval of the original data, and one and half down on the line of original data Half the data interval Data A11 on the left side, one line and one half lower side, and one half of the original data interval and half data on the right side A12, two lines and half lower side, and one original data interval Data A on the left half
13, data is two and half down and data A14 on the right side of half of the original data interval, two and half lines on the right side, and two and half of the original data interval on the left It is composed of data A15.

【0166】図21は、下位階層特徴量に対応するクラ
スタップおよび予測タップの例を説明する図である。
FIG. 21 is a diagram for explaining an example of class taps and prediction taps corresponding to the lower layer feature amount.

【0167】現在のフィールド#−1に対応するクラス
タップは、注目データに対応する下位階層特徴量のデー
タを中心とする、3×3のデータ、すなわち、注目デー
タに対応する下位階層特徴量のデータ、注目データに対
応する下位階層特徴量のデータの上側のデータ、注目デ
ータに対応する下位階層特徴量のデータの上側であっ
て、左側のデータ、注目データに対応する下位階層特徴
量のデータの上側であって、右側のデータ、注目データ
に対応する下位階層特徴量のデータの左側のデータ、注
目データに対応する下位階層特徴量のデータの右側のデ
ータ、注目データに対応する下位階層特徴量のデータの
下側であって、左側のデータ、注目データに対応する下
位階層特徴量のデータの下側であって、右側のデータで
構成される。
The class tap corresponding to the current field # -1 is 3 × 3 data centered on the lower layer feature amount data corresponding to the target data, that is, the lower layer feature amount corresponding to the target data. Data, data above the lower layer feature amount data corresponding to the target data, above the lower layer feature amount data corresponding to the target data, left side data, lower layer feature amount data corresponding to the target data Data on the right side, data on the left side of the lower layer feature amount data corresponding to the target data, data on the right side of the lower layer feature amount data corresponding to the target data, and the lower layer feature corresponding to the target data It is composed of the data on the left side of the amount data, the data on the left side, and the data on the right side of the lower layer feature amount data corresponding to the target data.

【0168】対応するフィールド#0のクラスタップ
は、注目データから動きベクトルで指定される下位階層
特徴量のデータを中心とする、3×3のデータ、すなわ
ち、注目データから動きベクトルで指定される下位階層
特徴量のデータ、注目データから動きベクトルで指定さ
れる下位階層特徴量のデータの上側のデータ、注目デー
タから動きベクトルで指定される下位階層特徴量のデー
タの上側であって、左側のデータ、注目データから動き
ベクトルで指定される下位階層特徴量のデータの上側で
あって、右側のデータ、注目データから動きベクトルで
指定される下位階層特徴量のデータの左側のデータ、注
目データから動きベクトルで指定される下位階層特徴量
のデータの右側のデータ、注目データから動きベクトル
で指定される下位階層特徴量のデータの下側であって、
左側のデータ、注目データから動きベクトルで指定され
る下位階層特徴量のデータの下側であって、右側のデー
タで構成される。
The class tap of the corresponding field # 0 is 3 × 3 data centered on the data of the lower layer feature amount designated by the motion vector from the target data, that is, designated by the motion vector from the target data. The lower layer feature amount data, the upper data of the lower layer feature amount data specified by the motion vector from the target data, the upper layer data of the lower layer feature amount specified by the motion vector from the target data, From the data, the data on the right side of the lower layer feature amount specified by the motion vector from the attention data, and the data on the left side of the data of the lower layer feature amount specified by the motion vector from the attention data, from the attention data Data on the right side of the lower layer feature amount data specified by the motion vector, lower floor specified by the motion vector from the data of interest A lower data of the feature quantity,
It is composed of the data on the right side, which is below the data on the left side and the data of the lower layer feature amount designated by the motion vector from the data of interest.

【0169】クラス分類部71−1は、画像信号の注目
データ、および注目データの周辺の周辺データを基に、
空間クラスにクラス分類する。すなわち、例えば、クラ
ス分類部71−1は、画像信号の注目データ、および周
辺データに、ADRC処理を適用し、注目データ、およ
び周辺データを、所定のビット数のクラスコードに量子
化する。
The class classification unit 71-1 uses the attention data of the image signal and the peripheral data around the attention data as a basis.
Classify into spatial classes. That is, for example, the class classification unit 71-1 applies the ADRC processing to the target data of the image signal and the peripheral data, and quantizes the target data and the peripheral data into a class code having a predetermined number of bits.

【0170】クラス分類部71−1は、注目フィールド
の注目データから動きベクトルで示される、対応フィー
ルドの対象データ、および対象データの周辺の周辺デー
タを基に、クラス分類する。すなわち、例えば、クラス
分類部71−1は、注目フィールドの注目データから動
きベクトルで示される、対応フィールドの対象データ、
および対象データの周辺の周辺データに、ADRC処理
を適用し、対象データ、および周辺データを、所定のビ
ット数のクラスコードに量子化する。
The class classification unit 71-1 performs class classification based on the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data. That is, for example, the class classification unit 71-1 uses the target data of the corresponding field, which is indicated by the motion vector from the target data of the target field,
And ADRC processing is applied to peripheral data around the target data, and the target data and peripheral data are quantized into a class code having a predetermined number of bits.

【0171】クラス分類部71−1は、動き量を基に、
クラス分類するようにしてもよい。
The class classification unit 71-1 uses the amount of movement as a basis.
You may classify.

【0172】クラス分類部71−1は、所定のブロック
に属する、画像信号の注目データおよび周辺データのデ
ータ値の最大値と最小値の差であるダイナミックレンジ
を予測タップ抽出部72−1に供給する。
The class classification unit 71-1 supplies the dynamic range, which is the difference between the maximum value and the minimum value of the data values of the image data of interest and the peripheral data belonging to a predetermined block, to the prediction tap extraction unit 72-1. To do.

【0173】なお、クラス分類部71−1は、図21に
例を示す、注目フィールドの下位階層特徴量のクラスタ
ップを基に、ダイナミックレンジを算出するようにして
もよい。
The class classification unit 71-1 may calculate the dynamic range based on the class tap of the lower layer feature amount of the field of interest, an example of which is shown in FIG.

【0174】また、クラス分類部71−1は、クラスタ
ップに含まれる、上位階層特徴量を基に、クラス分類す
るようにしてもよい。
Further, the class classification unit 71-1 may classify the class based on the upper layer feature amount included in the class tap.

【0175】予測タップ抽出部72−1は、動きベクト
ル検出部2から供給された動きベクトル、および残差な
どの特徴量、並びにクラス分類部71−1から供給され
たクラスコードおよびダイナミックレンジを基に、画像
信号のデータ、上位階層特徴量、および下位階層特徴量
から所定のデータを抽出して、抽出したデータを予測タ
ップとして予測演算部74−1に供給する。
The predictive tap extraction unit 72-1 is based on the motion vector supplied from the motion vector detection unit 2 and the feature amount such as the residual, and the class code and the dynamic range supplied from the class classification unit 71-1. Further, predetermined data is extracted from the image signal data, the upper layer feature amount, and the lower layer feature amount, and the extracted data is supplied to the prediction calculation unit 74-1 as a prediction tap.

【0176】予測タップ抽出部72−1は、クラス分類
部71−1から供給されたダイナミックレンジが大きい
とき、近傍に画像のエッジが含まれているので予測タッ
プを近傍のデータで構成するため、空間的に広がりの小
さい予測タップを抽出する。一方、予測タップ抽出部7
2−1は、クラス分類部71−1から供給されたダイナ
ミックレンジが小さいとき、画像が平坦部なので予測タ
ップを広範囲のデータで構成するため、空間的に広がり
の大きい予測タップを抽出する。
When the dynamic range supplied from the class classification unit 71-1 is large, the prediction tap extraction unit 72-1 includes the edge of the image in the vicinity, and thus the prediction tap is composed of the data in the vicinity. Extract prediction taps with a small spatial spread. On the other hand, the prediction tap extraction unit 7
In 2-1, when the dynamic range supplied from the class classification unit 71-1 is small, since the image is a flat portion, the prediction taps are composed of a wide range of data, and thus the prediction taps having a large spatial spread are extracted.

【0177】予測タップ抽出部72−1は、動きベクト
ル検出部2から供給された特徴量である残差が大きいと
き、動きベクトルが誤っている可能性が大きいため、空
間的に広がりの大きい予測タップを抽出する。一方、予
測タップ抽出部72−1は、動きベクトル検出部2から
供給された特徴量である残差が小さいとき、動きベクト
ルが誤っている可能性が小さいため、空間的に広がりの
小さい予測タップを抽出する。
The prediction tap extraction unit 72-1 has a large possibility that the motion vector is erroneous when the residual which is the feature amount supplied from the motion vector detection unit 2 is large. Extract taps. On the other hand, the prediction tap extracting unit 72-1 has a small possibility that the motion vector is erroneous when the residual, which is the feature amount supplied from the motion vector detecting unit 2, is small, and thus the prediction tap having a small spatial spread. To extract.

【0178】なお、予測タップ抽出部72−1は、クラ
スコードのみを基に、予測タップを抽出するようにして
もよい。
The predictive tap extracting unit 72-1 may extract predictive taps based on only the class code.

【0179】図20Aに示すように、注目データが白丸
で示される位相であるとき、例えば、上位階層特徴量
は、図20Bに示すように、白丸で示される、注目デー
タと同相のデータのみから構成される。このとき、例え
ば、上位階層特徴量に対応する予測タップは、注目デー
タp5、および注目データp5の2つ上側のデータp
1、注目データp5の1つ上側であって、2つ左側のデ
ータp2、注目データp5の1つ上側であって、2つ右
側のデータp3、注目データp5の4つ左側のデータp
4、注目データp5の4つ右側のデータp6、注目デー
タp5の1つ下側であって、2つ左側のデータp7、注
目データp5の1つ下側であって、2つ右側のデータp
8、注目データp5の2つ下側のデータp9から構成さ
れる。
When the data of interest has a phase indicated by a white circle as shown in FIG. 20A, for example, the upper layer feature amount is calculated from only the data of the same phase as the data of interest indicated by a white circle as shown in FIG. 20B. Composed. At this time, for example, the prediction tap corresponding to the upper layer feature amount is the attention data p5, and the data p two higher than the attention data p5.
1, data p2 on the one side above the attention data p5, data p2 on the two left side, data p3 on the one side above the attention data p5, and data p3 on the four left side of the attention data p5
4, data p6 on the four right side of the data of interest p5, one data below the data of interest p5, two data p7 on the left side and one data below the data of interest p5, two data p on the right side
8 and the data p9 that is two lower than the target data p5.

【0180】例えば、上位階層特徴量は、図20Cに示
すように、三角で示される、上下に2つ、および左右に
2つの合計4つのデータの平均値から構成される。平均
値から構成される上位階層特徴量の上下の位置は、元の
画像信号のデータの位置に対して、ラインの幅の半分だ
け、ずれる。また、平均値から構成される上位階層特徴
量の左右の位置は、元の画像信号のデータの位置に対し
て、データの間隔の半分だけ、ずれる。
For example, as shown in FIG. 20C, the upper layer feature amount is composed of an average value of a total of four data, which are indicated by triangles, two vertically and two horizontally. The upper and lower positions of the upper layer feature amount formed by the average value are displaced from the position of the data of the original image signal by half the line width. Further, the left and right positions of the upper layer feature amount formed of the average value are displaced from the position of the data of the original image signal by half the data interval.

【0181】このとき、注目データをp11とした場
合、上位階層特徴量に対応する予測タップは、例えば、
注目データp11に対して、ラインが2つと半分上側で
あって、元のデータの間隔の半分だけ左側のデータA
1、注目データp11に対して、ラインが2つと半分上
側であって、元のデータの間隔の1つと半分だけ右側の
データA2、ラインが1つと半分上側であって、元のデ
ータの間隔の1つと半分だけ左側のデータA3、ライン
が1つと半分上側であって、元のデータの間隔の半分だ
け右側のデータA4、ラインが1つと半分上側であっ
て、元のデータの間隔の2つと半分だけ右側のデータA
5、ラインが半分上側であって、元のデータの間隔の半
分だけ左側のデータA6、ラインが半分上側であって、
元のデータの間隔の1つと半分だけ右側のデータA7、
ラインが半分下側であって、元のデータの間隔の1つと
半分だけ左側のデータA8、ラインが半分下側であっ
て、元のデータの間隔の半分だけ右側のデータA9、ラ
インが半分下側であって、元のデータの間隔の2つと半
分だけ右側のデータA10、ラインが1つと半分下側で
あって、元のデータの間隔の半分だけ左側のデータA1
1、ラインが1つと半分下側であって、元のデータの間
隔の1つと半分だけ右側のデータA12、ラインが2つ
と半分下側であって、元のデータの間隔の1つと半分だ
け左側のデータA13、ラインが2つと半分下側であっ
て、元のデータの間隔の半分だけ右側のデータA14、
ラインが2つと半分下側であって、および元のデータの
間隔の2つと半分だけ左側のデータA15から構成され
る。
At this time, when the attention data is p11, the prediction tap corresponding to the higher layer feature amount is, for example,
The data A is two lines and half above the target data p11, and is on the left side by half the interval of the original data.
1. The data A2 is two and a half upper side of the target data p11, and the data A2 is one and a half right of the original data interval, and the line is one and a half upper side of the original data interval. One and half left data A3, one line and one half upper side, and half the original data interval on the right side data A4, one line and one half upper side, and two original data intervals Data A on the right half
5, the line is half upper side, the data A6 on the left side by half the interval of the original data, the line is half upper side,
Data A7 on the right side of one and half of the original data interval,
The line is half down, one half of the original data interval and half the left data A8, the line is half down, half the original data interval on the right data A9, half the line is half down Data A10 on the right side by two and half of the original data interval and data A1 on the left side by one and half lines and half the original data interval
1, data is one and a half downside, and data A12 on the right side of one and half of the original data interval, and two and half lines on the right side of the original data interval, and left side is one and a half of the original data interval Data A13, two lines and two half lines on the lower side, and data A14 on the right side by half the interval of the original data,
The line is two and half down and consists of data A15 two and half the original data spacing to the left.

【0182】図21に示すように、下位階層特徴量にお
ける、現在のフィールド#−1に対応する予測タップ
は、注目データに対応する下位階層特徴量のデータを中
心とする、5×5のデータで構成される。
As shown in FIG. 21, the prediction tap corresponding to the current field # -1 in the lower layer feature amount is 5 × 5 data centered on the lower layer feature amount data corresponding to the data of interest. Composed of.

【0183】下位階層特徴量における、対応するフィー
ルド#0の予測タップは、注目データから動きベクトル
で指定される下位階層特徴量のデータを中心とする、5
×5のデータで構成される。
The predictive tap of the corresponding field # 0 in the lower layer feature amount is centered on the data of the lower layer feature amount designated by the motion vector from the target data, and is 5
It consists of × 5 data.

【0184】係数メモリ73−1は、クラス分類部71
−1から供給されたクラスコードを基に、予め記憶して
いる係数セットのうち、クラスコードで指定されるクラ
スに対応する係数セットを選択し、選択したクラスコー
ドを予測演算部74−1に供給する。
The coefficient memory 73-1 includes a class classification unit 71.
Based on the class code supplied from -1, the coefficient set corresponding to the class specified by the class code is selected from the coefficient sets stored in advance, and the selected class code is sent to the prediction calculation unit 74-1. Supply.

【0185】予測演算部74−1は、予測タップ抽出部
72−1から供給された予測タップ、および係数メモリ
73−1から供給された係数セットを基に、例えば、式
(6)に対応する演算をより、Y信号を予測し、予測さ
れたY信号を出力する。
The prediction calculation unit 74-1 corresponds to, for example, the equation (6) based on the prediction tap supplied from the prediction tap extraction unit 72-1 and the coefficient set supplied from the coefficient memory 73-1. The Y signal is predicted by calculation, and the predicted Y signal is output.

【0186】クラス分類部71−2は、動きベクトル検
出部2から供給された動きベクトル、上位階層特徴量、
および下位階層特徴量、並びにクラスタップ抽出部3か
ら供給されたクラスタップ、NTSCデコーダ1から供給さ
れたサブキャリア位相情報を基に、クラス分類し、クラ
ス分類の結果を示すクラスコードを予測タップ抽出部7
2−2および係数メモリ73−2に供給する。
The class classification unit 71-2 includes the motion vector supplied from the motion vector detection unit 2, the upper layer feature amount,
Based on the lower layer feature amount, the class tap supplied from the class tap extraction unit 3, and the subcarrier phase information supplied from the NTSC decoder 1, the class code indicating the result of the class classification is predicted tap extracted. Part 7
2-2 and coefficient memory 73-2.

【0187】例えば、クラス分類部71−2は、NTSCデ
コーダ1から供給されたサブキャリア位相情報を基に、
クラス分類する。また、クラス分類部71−2は、NTSC
デコーダ1から供給されたサブキャリア位相情報により
示される、注目データを基準に、動きベクトルにより指
定されるデータの位相を基に、クラス分類する。
For example, the class classification unit 71-2 uses the subcarrier phase information supplied from the NTSC decoder 1 as the basis.
Classify. Also, the class classification unit 71-2 is NTSC.
Based on the data of interest indicated by the subcarrier phase information supplied from the decoder 1, the class is classified based on the phase of the data designated by the motion vector.

【0188】クラス分類部71−2は、動きベクトル検
出部2から供給された上位階層特徴量、および下位階層
特徴量を基に、クラス分類する。すなわち、例えば、ク
ラス分類部71−2は、動きベクトル検出部2から供給
された上位階層特徴量に、ADRC処理を適用し、上位
階層特徴量を所定のビット数のクラスコードに量子化す
る。クラス分類部71−2は、動きベクトル検出部2か
ら供給された下位階層特徴量に、ADRC処理を適用
し、下位階層特徴量を所定のビット数のクラスコードに
量子化する。
The class classifying unit 71-2 classifies the class based on the upper layer feature amount and the lower layer feature amount supplied from the motion vector detecting unit 2. That is, for example, the class classification unit 71-2 applies the ADRC process to the upper layer feature amount supplied from the motion vector detection unit 2, and quantizes the upper layer feature amount into a class code having a predetermined number of bits. The class classification unit 71-2 applies the ADRC process to the lower layer feature amount supplied from the motion vector detection unit 2, and quantizes the lower layer feature amount into a class code having a predetermined number of bits.

【0189】クラス分類部71−2は、画像信号の注目
データ、および注目データの周辺の周辺データを基に、
空間クラスにクラス分類する。すなわち、例えば、クラ
ス分類部71−2は、画像信号の注目データ、および周
辺データに、ADRC処理を適用し、注目データ、およ
び周辺データを、所定のビット数のクラスコードに量子
化する。
The class classification unit 71-2 determines, based on the attention data of the image signal and the peripheral data around the attention data,
Classify into spatial classes. That is, for example, the class classification unit 71-2 applies the ADRC processing to the target data of the image signal and the peripheral data, and quantizes the target data and the peripheral data into a class code having a predetermined number of bits.

【0190】クラス分類部71−2は、注目フィールド
の注目データから動きベクトルで示される、対応フィー
ルドの対象データ、および対象データの周辺の周辺デー
タを基に、クラス分類する。すなわち、例えば、クラス
分類部71−2は、注目フィールドの注目データから動
きベクトルで示される、対応フィールドの対象データ、
および対象データの周辺の周辺データに、ADRC処理
を適用し、対象データ、および周辺データを、所定のビ
ット数のクラスコードに量子化する。
The class classification unit 71-2 performs class classification based on the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data. That is, for example, the class classification unit 71-2 uses the target data of the corresponding field, which is indicated by a motion vector from the target data of the target field,
And ADRC processing is applied to peripheral data around the target data, and the target data and peripheral data are quantized into a class code having a predetermined number of bits.

【0191】クラス分類部71−2は、動き量を基に、
クラス分類するようにしてもよい。
The class classification unit 71-2, based on the amount of movement,
You may classify.

【0192】クラス分類部71−2は、所定のブロック
の、画像信号の注目データおよび周辺データのデータ値
の最大値と最小値の差であるダイナミックレンジを予測
タップ抽出部72−2に供給する。
The class classification unit 71-2 supplies the dynamic range, which is the difference between the maximum value and the minimum value of the data values of the target data of the image signal and the peripheral data of the predetermined block, to the prediction tap extraction unit 72-2. .

【0193】なお、クラス分類部71−2は、図21に
例を示す、注目フィールド下位階層特徴量のクラスタッ
プを基に、ダイナミックレンジを算出するようにしても
よい。
Note that the class classification unit 71-2 may calculate the dynamic range based on the class tap of the attention field lower layer feature amount, an example of which is shown in FIG.

【0194】また、クラス分類部71−2は、クラスタ
ップに含まれる、上位階層特徴量を基に、クラス分類す
るようにしてもよい。
Further, the class classification unit 71-2 may classify the class based on the higher layer feature amount included in the class tap.

【0195】予測タップ抽出部72−2は、動きベクト
ル検出部2から供給された動きベクトル、および残差な
どの特徴量、並びにクラス分類部71−2から供給され
たクラスコードおよびダイナミックレンジを基に、画像
信号のデータ、上位階層特徴量、および下位階層特徴量
から所定のデータを抽出して、抽出したデータを予測タ
ップとして予測演算部74−2に供給する。
The predictive tap extracting unit 72-2 is based on the motion vector supplied from the motion vector detecting unit 2 and the feature amount such as the residual, and the class code and the dynamic range supplied from the class classifying unit 71-2. Further, predetermined data is extracted from the image signal data, the upper layer feature amount, and the lower layer feature amount, and the extracted data is supplied to the prediction calculation unit 74-2 as a prediction tap.

【0196】なお、予測タップ抽出部72−2は、クラ
スコードのみを基に、予測タップを抽出するようにして
もよい。
The predictive tap extracting section 72-2 may extract predictive taps based on only the class code.

【0197】係数メモリ73−2は、クラス分類部71
−2から供給されたクラスコードを基に、予め記憶して
いる係数セットのうち、クラスコードで指定されるクラ
スに対応する係数セットを選択し、選択しクラスコード
を予測演算部74−2に供給する。
The coefficient memory 73-2 includes a class classification unit 71.
-2, a coefficient set corresponding to the class specified by the class code is selected from the coefficient sets stored in advance based on the class code supplied from -2, and the selected class code is selected by the prediction calculation unit 74-2. Supply.

【0198】予測演算部74−2は、予測タップ抽出部
72−2から供給された予測タップ、および係数メモリ
73−2から供給された係数セットを基に、例えば、式
(6)に対応する演算をより、U信号を予測し、予測さ
れたU信号を出力する。
The prediction calculation unit 74-2 corresponds to, for example, the expression (6) based on the prediction tap supplied from the prediction tap extraction unit 72-2 and the coefficient set supplied from the coefficient memory 73-2. The operation is used to predict the U signal, and the predicted U signal is output.

【0199】クラス分類部71−3は、動きベクトル検
出部2から供給された動きベクトル、上位階層特徴量、
および下位階層特徴量、並びにクラスタップ抽出部3か
ら供給されたクラスタップ、NTSCデコーダ1から供給さ
れたサブキャリア位相情報を基に、クラス分類し、クラ
ス分類の結果を示すクラスコードを予測タップ抽出部7
2−3および係数メモリ73−3に供給する。
The class classification unit 71-3 has the motion vector supplied from the motion vector detection unit 2, the upper layer feature amount,
Based on the lower layer feature amount, the class tap supplied from the class tap extraction unit 3, and the subcarrier phase information supplied from the NTSC decoder 1, the class code indicating the result of the class classification is predicted tap extracted. Part 7
2-3 and the coefficient memory 73-3.

【0200】例えば、クラス分類部71−3は、NTSCデ
コーダ1から供給されたサブキャリア位相情報を基に、
クラス分類する。また、クラス分類部71−3は、NTSC
デコーダ1から供給されたサブキャリア位相情報により
示される、注目データを基準に、動きベクトルにより指
定されるデータの位相を基に、クラス分類する。
For example, the class classification unit 71-3, based on the subcarrier phase information supplied from the NTSC decoder 1,
Classify. Also, the class classification unit 71-3 is an NTSC
Based on the data of interest indicated by the subcarrier phase information supplied from the decoder 1, the class is classified based on the phase of the data designated by the motion vector.

【0201】クラス分類部71−3は、動きベクトル検
出部2から供給された上位階層特徴量、および下位階層
特徴量を基に、クラス分類する。すなわち、例えば、ク
ラス分類部71−3は、動きベクトル検出部2から供給
された上位階層特徴量に、ADRC処理を適用し、上位
階層特徴量を所定のビット数のクラスコードに量子化す
る。クラス分類部71−3は、動きベクトル検出部2か
ら供給された下位階層特徴量に、ADRC処理を適用
し、下位階層特徴量を所定のビット数のクラスコードに
量子化する。
The class classifying unit 71-3 classifies the class based on the upper layer characteristic amount and the lower layer characteristic amount supplied from the motion vector detecting unit 2. That is, for example, the class classification unit 71-3 applies the ADRC process to the upper layer feature amount supplied from the motion vector detection unit 2, and quantizes the upper layer feature amount into a class code having a predetermined number of bits. The class classification unit 71-3 applies the ADRC process to the lower layer feature amount supplied from the motion vector detection unit 2, and quantizes the lower layer feature amount into a class code having a predetermined number of bits.

【0202】クラス分類部71−3は、画像信号の注目
データ、および注目データの周辺の周辺データを基に、
空間クラスにクラス分類する。すなわち、例えば、クラ
ス分類部71−3は、画像信号の注目データ、および周
辺データに、ADRC処理を適用し、注目データ、およ
び周辺データを、所定のビット数のクラスコードに量子
化する。
The class classification unit 71-3, based on the attention data of the image signal and the peripheral data around the attention data,
Classify into spatial classes. That is, for example, the class classification unit 71-3 applies the ADRC processing to the target data of the image signal and the peripheral data, and quantizes the target data and the peripheral data into a class code having a predetermined number of bits.

【0203】クラス分類部71−3は、注目フィールド
の注目データから動きベクトルで示される、対応フィー
ルドの対象データ、および対象データの周辺の周辺デー
タを基に、クラス分類する。すなわち、例えば、クラス
分類部71−3は、注目フィールドの注目データから動
きベクトルで示される、対応フィールドの対象データ、
および対象データの周辺の周辺データに、ADRC処理
を適用し、対象データ、および周辺データを、所定のビ
ット数のクラスコードに量子化する。
The class classification unit 71-3 performs class classification based on the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data. That is, for example, the class classification unit 71-3, the target data of the corresponding field, which is indicated by the motion vector from the target data of the target field,
And ADRC processing is applied to peripheral data around the target data, and the target data and peripheral data are quantized into a class code having a predetermined number of bits.

【0204】クラス分類部71−3は、動き量を基に、
クラス分類するようにしてもよい。
The class classification unit 71-3, based on the amount of movement,
You may classify.

【0205】クラス分類部71−3は、所定のブロック
の、画像信号の注目データおよび周辺データのデータ値
の最大値と最小値の差であるダイナミックレンジを予測
タップ抽出部72−3に供給する。
The class classification unit 71-3 supplies the prediction tap extraction unit 72-3 with the dynamic range which is the difference between the maximum value and the minimum value of the data values of the image data of interest and the peripheral data of the predetermined block. .

【0206】なお、クラス分類部71−3は、図21に
例を示す、注目フィールド下位階層特徴量のクラスタッ
プを基に、ダイナミックレンジを算出するようにしても
よい。
Note that the class classification unit 71-3 may calculate the dynamic range based on the class tap of the attention field lower layer feature amount, an example of which is shown in FIG.

【0207】また、クラス分類部71−3は、クラスタ
ップに含まれる、上位階層特徴量を基に、クラス分類す
るようにしてもよい。
Further, the class classification unit 71-3 may classify the class based on the higher layer feature amount included in the class tap.

【0208】予測タップ抽出部72−3は、動きベクト
ル検出部2から供給された動きベクトル、および残差な
どの特徴量、並びにクラス分類部71−3から供給され
たクラスコードおよびダイナミックレンジを基に、画像
信号のデータ、上位階層特徴量、および下位階層特徴量
から所定のデータを抽出して、抽出したデータを予測タ
ップとして予測演算部74−3に供給する。
The prediction tap extraction unit 72-3 is based on the motion vector supplied from the motion vector detection unit 2, the feature amount such as the residual, and the class code and the dynamic range supplied from the class classification unit 71-3. Then, predetermined data is extracted from the image signal data, the upper layer feature amount, and the lower layer feature amount, and the extracted data is supplied to the prediction calculation unit 74-3 as a prediction tap.

【0209】なお、予測タップ抽出部72−3は、クラ
スコードのみを基に、予測タップを抽出するようにして
もよい。
The predictive tap extracting section 72-3 may extract predictive taps based on only the class code.

【0210】係数メモリ73−3は、クラス分類部71
−3から供給されたクラスコードを基に、予め記憶して
いる係数セットのうち、クラスコードで指定されるクラ
スに対応する係数セットを選択し、選択しクラスコード
を予測演算部74−3に供給する。
The coefficient memory 73-3 includes a class classification unit 71.
-3, the coefficient set corresponding to the class specified by the class code is selected from the coefficient sets stored in advance based on the class code supplied from -3, and the selected class code is selected by the prediction calculation unit 74-3. Supply.

【0211】予測演算部74−3は、予測タップ抽出部
72−3から供給された予測タップ、および係数メモリ
73−3から供給された係数セットを基に、例えば、式
(6)に対応する演算をより、V信号を予測し、予測さ
れたV信号を出力する。
The prediction calculation unit 74-3 corresponds to, for example, the expression (6) based on the prediction tap supplied from the prediction tap extraction unit 72-3 and the coefficient set supplied from the coefficient memory 73-3. The V signal is predicted by calculation, and the predicted V signal is output.

【0212】このように、演算部4は、クラス分類適応
処理により、従来に比較して、より精度の高いコンポー
ネントビデオ信号である、Y信号、U信号、およびV信
号を予測し、予測したY信号、U信号、およびV信号を
出力することができる。
As described above, the operation unit 4 predicts the Y signal, the U signal, and the V signal, which are more accurate component video signals than the conventional one, by the class classification adaptive processing, and predicts the predicted Y. Signals, U signals, and V signals can be output.

【0213】以下、クラス分類部71−1乃至71−3
を個々に区別する必要がないとき、単に、クラス分類部
71と称する。
Below, the class classification units 71-1 to 71-3
When there is no need to distinguish each of them, they are simply referred to as a class classification unit 71.

【0214】以下、予測タップ抽出部72−1乃至72
−3を個々に区別する必要がないとき、単に、予測タッ
プ抽出部72と称する。
Hereinafter, the prediction tap extracting units 72-1 to 72
-3 is simply referred to as a prediction tap extracting unit 72 when it is not necessary to individually distinguish it.

【0215】以下、係数メモリ73−1乃至73−3を
個々に区別する必要がないとき、単に、係数メモリ73
と称する。
Hereinafter, when it is not necessary to individually distinguish the coefficient memories 73-1 to 73-3, the coefficient memories 73-1 to 73-3 are simply used.
Called.

【0216】以下、予測演算部74−1乃至74−3を
個々に区別する必要がないとき、単に、予測演算部74
と称する。
Hereinafter, when it is not necessary to individually distinguish the prediction calculation units 74-1 to 74-3, the prediction calculation unit 74 is simply used.
Called.

【0217】図22は、演算部4の他の構成を示すブロ
ック図である。図19に示す場合と同様の部分には同一
の番号を付してあり、その説明は省略する。
FIG. 22 is a block diagram showing another configuration of the arithmetic unit 4. The same parts as those shown in FIG. 19 are designated by the same reference numerals, and the description thereof will be omitted.

【0218】セレクタ81は、クラス分類部71−1乃
至71−3から個々に供給された3つのクラスコードお
よびダイナミックレンジの内、1つのクラスコードおよ
びダイナミックレンジを選択し、選択したクラスコード
およびダイナミックレンジを予測タップ抽出部82に供
給する。
The selector 81 selects one of the three class codes and the dynamic range individually supplied from the class classification units 71-1 to 71-3, and selects the selected class code and dynamic range. The range is supplied to the prediction tap extracting unit 82.

【0219】セレクタ81は、係数メモリ73−1乃至
73−3から個々に供給された3つの係数セットの内、
1つの係数セットを選択し、選択した係数セットを予測
演算部83に供給する。
The selector 81 selects from among the three coefficient sets individually supplied from the coefficient memories 73-1 to 73-3.
One coefficient set is selected, and the selected coefficient set is supplied to the prediction calculation unit 83.

【0220】予測タップ抽出部82は、動きベクトル検
出部2から供給された動きベクトル、上位階層特徴量、
および下位階層特徴量、並びにセレクタ81から供給さ
れたクラスコードおよびダイナミックレンジを基に、予
測タップを抽出し、抽出した予測タップを予測演算部8
3に供給する。
The predictive tap extracting unit 82 receives the motion vector supplied from the motion vector detecting unit 2, the upper layer feature amount,
A prediction tap is extracted based on the lower layer feature amount, the class code and the dynamic range supplied from the selector 81, and the extracted prediction tap is calculated by the prediction calculation unit 8
Supply to 3.

【0221】予測タップ抽出部82は、セレクタ81を
介して、クラス分類部71−1からに出力されたクラス
コードおよびダイナミックレンジが供給されたとき、Y
信号に対応する予測タップを抽出し、抽出した予測タッ
プを予測演算部83に供給する。予測タップ抽出部82
は、セレクタ81を介して、クラス分類部71−2から
に出力されたクラスコードおよびダイナミックレンジが
供給されたとき、U信号に対応する予測タップを抽出
し、抽出した予測タップを予測演算部83に供給する。
予測タップ抽出部82は、セレクタ81を介して、クラ
ス分類部71−3からに出力されたクラスコードおよび
ダイナミックレンジが供給されたとき、V信号に対応す
る予測タップを抽出し、抽出した予測タップを予測演算
部83に供給する。
When the class code and the dynamic range output from the class classification unit 71-1 are supplied via the selector 81 to the prediction tap extraction unit 82, Y is output.
The prediction tap corresponding to the signal is extracted, and the extracted prediction tap is supplied to the prediction calculation unit 83. Prediction tap extraction unit 82
When the class code and the dynamic range output from the class classification unit 71-2 are supplied through the selector 81, the prediction tap corresponding to the U signal is extracted, and the extracted prediction tap is calculated by the prediction calculation unit 83. Supply to.
The prediction tap extraction unit 82 extracts the prediction tap corresponding to the V signal when the class code and the dynamic range output from the class classification unit 71-3 are supplied via the selector 81, and the extracted prediction tap. Is supplied to the prediction calculation unit 83.

【0222】予測演算部83は、予測タップ抽出部82
からY信号に対応する予測タップが供給されたとき、セ
レクタ81を介して、係数メモリ73−1から供給され
た係数セットを基に、Y信号を予測して、予測したY信
号を出力する。予測演算部83は、予測タップ抽出部8
2からU信号に対応する予測タップが供給されたとき、
セレクタ81を介して、係数メモリ73−2から供給さ
れた係数セットを基に、U信号を予測して、予測したU
信号を出力する。予測演算部83は、予測タップ抽出部
82からV信号に対応する予測タップが供給されたと
き、セレクタ81を介して、係数メモリ73−3から供
給された係数セットを基に、V信号を予測して、予測し
たV信号を出力する。
The prediction calculation unit 83 has a prediction tap extraction unit 82.
When the prediction tap corresponding to the Y signal is supplied from, the Y signal is predicted based on the coefficient set supplied from the coefficient memory 73-1 via the selector 81, and the predicted Y signal is output. The prediction calculation unit 83 includes the prediction tap extraction unit 8
2 when the prediction tap corresponding to the U signal is supplied,
The U signal is predicted via the selector 81 based on the coefficient set supplied from the coefficient memory 73-2, and the predicted U signal is calculated.
Output a signal. When the prediction tap extraction unit 82 supplies the prediction tap corresponding to the V signal, the prediction calculation unit 83 predicts the V signal based on the coefficient set supplied from the coefficient memory 73-3 via the selector 81. Then, the predicted V signal is output.

【0223】図23は、演算部4の他の構成を示すブロ
ック図である。図19に示す場合と同様の部分には同一
の番号を付してあり、その説明は省略する。
FIG. 23 is a block diagram showing another structure of the arithmetic unit 4. The same parts as those shown in FIG. 19 are designated by the same reference numerals, and the description thereof will be omitted.

【0224】クラス分類部91は、動きベクトル検出部
2から供給された動きベクトル、上位階層特徴量、およ
び下位階層特徴量、並びにクラスタップ抽出部3から供
給されたクラスタップ、NTSCデコーダ1から供給された
サブキャリア位相情報を基に、クラス分類し、クラス分
類の結果を示すクラスコードを予測タップ抽出部72−
1乃至72−3および係数メモリ73−1乃至73−3
に供給する。
The class classification unit 91 supplies the motion vector supplied from the motion vector detection unit 2, the upper layer feature amount and the lower layer feature amount, the class tap supplied from the class tap extraction unit 3, and the NTSC decoder 1. Based on the generated subcarrier phase information, the class is classified, and the class code indicating the result of the class classification is predicted tap extraction unit 72-
1 to 72-3 and coefficient memories 73-1 to 73-3
Supply to.

【0225】予測タップ抽出部72−1乃至72−3
は、例えば、それぞれ異なる閾値を基に、異なる予測タ
ップを抽出する。
Prediction tap extraction units 72-1 to 72-3
For example, different prediction taps are extracted based on different thresholds.

【0226】図24は、演算部4の他の構成を示すブロ
ック図である。図19に示す場合と同様の部分には同一
の番号を付してあり、その説明は省略する。図22に示
す場合と同様の部分には同一の番号を付してあり、その
説明は省略する。
FIG. 24 is a block diagram showing another structure of the arithmetic unit 4. The same parts as those shown in FIG. 19 are designated by the same reference numerals, and the description thereof will be omitted. The same parts as those shown in FIG. 22 are designated by the same reference numerals, and the description thereof will be omitted.

【0227】クラス分類部91は、動きベクトル検出部
2から供給された動きベクトル、上位階層特徴量、およ
び下位階層特徴量、並びにクラスタップ抽出部3から供
給されたクラスタップ、NTSCデコーダ1から供給された
サブキャリア位相情報を基に、クラス分類し、クラス分
類の結果を示すクラスコードを予測タップ抽出部82お
よび係数メモリ73−1乃至73−3に供給する。
The class classification unit 91 supplies the motion vector supplied from the motion vector detection unit 2, the upper layer feature amount and the lower layer feature amount, the class tap supplied from the class tap extraction unit 3, and the NTSC decoder 1. Classifying is performed based on the obtained subcarrier phase information, and a class code indicating the result of classifying is supplied to the prediction tap extracting unit 82 and the coefficient memories 73-1 to 73-3.

【0228】セレクタ101は、係数メモリ73−1乃
至73−3から個々に供給された3つの係数セットの
内、1つの係数セットを選択し、選択した係数セットを
予測演算部83に供給する。
The selector 101 selects one coefficient set from the three coefficient sets individually supplied from the coefficient memories 73-1 to 73-3, and supplies the selected coefficient set to the prediction calculation section 83.

【0229】図25は、本発明に係る画像処理装置の実
施の形態の構成の一例の詳細を示すブロック図である。
画像処理装置に入力されたNTSCコンポジット信号は、サ
ブキャリア位相情報検出回路121、フィールドメモリ
122−1、動きベクトル検出回路123、および遅延
回路124−1に供給される。
FIG. 25 is a block diagram showing details of an example of the configuration of the embodiment of the image processing apparatus according to the present invention.
The NTSC composite signal input to the image processing device is supplied to the subcarrier phase information detection circuit 121, the field memory 122-1, the motion vector detection circuit 123, and the delay circuit 124-1.

【0230】サブキャリア位相情報検出回路121は、
入力されたNTSCコンポジット信号から位相を検出し、検
出された位相の情報を動きベクトル検出回路123、サ
ブキャリア位相情報検出回路125、およびクラス分類
部127に供給する。
The subcarrier phase information detection circuit 121 has
The phase is detected from the input NTSC composite signal, and the information on the detected phase is supplied to the motion vector detection circuit 123, the subcarrier phase information detection circuit 125, and the class classification unit 127.

【0231】フィールドメモリ122−1は、入力され
たNTSCコンポジット信号を記憶し、1つのフィールドに
対応する期間遅延させ、記憶しているNTSCコンポジット
信号をフィールドメモリ122−2、動きベクトル検出
回路123、および遅延回路124−2に供給する。
The field memory 122-1 stores the input NTSC composite signal, delays it for a period corresponding to one field, and stores the stored NTSC composite signal in the field memory 122-2, the motion vector detection circuit 123, And the delay circuit 124-2.

【0232】フィールドメモリ122−2は、フィール
ドメモリ122−1から供給されたNTSCコンポジット信
号を記憶し、1つのフィールドに対応する期間遅延さ
せ、記憶しているNTSCコンポジット信号を動きベクトル
検出回路123、および遅延回路124−3に供給す
る。
The field memory 122-2 stores the NTSC composite signal supplied from the field memory 122-1 and delays it for a period corresponding to one field, and stores the stored NTSC composite signal in the motion vector detection circuit 123. And the delay circuit 124-3.

【0233】従って、動きベクトル検出回路123に
は、基準となるフィールドの信号、基準となるフィール
ドの次(未来)のフィールドの信号、および基準となる
フィールドの前(過去)のフィールドの信号が同時に供
給される。動きベクトル検出回路123は、基準となる
フィールドの信号、基準となるフィールドの次のフィー
ルドの信号、および基準となるフィールドの前のフィー
ルドの信号を基に、基準となるフィールドと前のフィー
ルドに対応するベクトル(t−1)、および基準となる
フィールドと次のフィールドに対応するベクトル(t+
1)を生成する。
Therefore, the motion vector detection circuit 123 simultaneously receives the signal of the reference field, the signal of the next (future) field of the reference field, and the signal of the previous (past) field of the reference field. Supplied. The motion vector detection circuit 123 corresponds to the reference field and the previous field based on the signal of the reference field, the signal of the field next to the reference field, and the signal of the field before the reference field. Vector (t-1) and the vector (t +) corresponding to the reference field and the next field.
1) is generated.

【0234】動きベクトル検出回路123は、基準とな
るフィールドと前のフィールドに対応するベクトル(t
−1)、および基準となるフィールドと次のフィールド
に対応するベクトル(t+1)をサブキャリア位相情報
検出回路125に供給する。
The motion vector detection circuit 123 determines the vector (t) corresponding to the reference field and the previous field.
−1), and a vector (t + 1) corresponding to the reference field and the next field are supplied to the subcarrier phase information detection circuit 125.

【0235】動きベクトル検出回路123は、基準とな
るフィールドと前のフィールドに対応するベクトル(t
−1)を領域切出回路126−3および領域切出回路1
28−3に供給すると共に、および基準となるフィール
ドと次のフィールドに対応するベクトル(t+1)を領
域切出回路126−1および領域切出回路128−1に
供給する。
The motion vector detection circuit 123 uses the vector (t) corresponding to the reference field and the previous field.
-1) is the area cutting circuit 126-3 and the area cutting circuit 1
28-3, and the vector (t + 1) corresponding to the reference field and the next field is supplied to the area cutting circuit 126-1 and the area cutting circuit 128-1.

【0236】動きベクトル検出回路123は、ベクトル
(t−1)およびベクトル(t+1)の検出の処理で算
出された特徴量をクラス分類部127に供給する。
The motion vector detection circuit 123 supplies the feature amount calculated by the process of detecting the vector (t-1) and the vector (t + 1) to the class classification unit 127.

【0237】遅延回路124−1は、動きベクトル検出
回路123の処理時間に対応させて、基準となるフィー
ルドの次のフィールドの信号を遅延させ、遅延した基準
となるフィールドの次のフィールドの信号を領域切出回
路126−1に供給する。
The delay circuit 124-1 delays the signal of the field next to the reference field in accordance with the processing time of the motion vector detection circuit 123, and outputs the signal of the field next to the delayed reference field. It is supplied to the area cutout circuit 126-1.

【0238】遅延回路124−2は、動きベクトル検出
回路123の処理時間に対応させて、基準となるフィー
ルドの信号を遅延させ、遅延した基準となるフィールド
の信号を領域切出回路126−1に供給する。
The delay circuit 124-2 delays the signal of the reference field in correspondence with the processing time of the motion vector detection circuit 123, and sends the delayed signal of the reference field to the area cutout circuit 126-1. Supply.

【0239】遅延回路124−3は、動きベクトル検出
回路123の処理時間に対応させて、基準となるフィー
ルドの前のフィールドの信号を遅延させ、遅延した基準
となるフィールドの前のフィールドの信号を領域切出回
路126−1に供給する。
The delay circuit 124-3 delays the signal of the field before the reference field in accordance with the processing time of the motion vector detection circuit 123, and outputs the signal of the field before the delayed reference field. It is supplied to the area cutting circuit 126-1.

【0240】サブキャリア位相情報検出回路125は、
サブキャリア位相情報検出回路121から供給された位
相の情報、および動きベクトル検出回路123から供給
された基準となるフィールドと前のフィールドに対応す
るベクトル(t−1)、および基準となるフィールドと
次のフィールドに対応するベクトル(t+1)を基に、
前のフィールドに対応する位相情報および次のフィール
ドに対応する位相情報を生成する。サブキャリア位相情
報検出回路125は、前のフィールドに対応する位相情
報および次のフィールドに対応する位相情報をクラス分
類部127に供給する。
The subcarrier phase information detection circuit 125
The phase information supplied from the subcarrier phase information detection circuit 121, the reference field supplied from the motion vector detection circuit 123 and the vector (t-1) corresponding to the previous field, and the reference field and the next field. Based on the vector (t + 1) corresponding to the field of
The phase information corresponding to the previous field and the phase information corresponding to the next field are generated. The subcarrier phase information detection circuit 125 supplies the phase information corresponding to the previous field and the phase information corresponding to the next field to the class classification unit 127.

【0241】領域切出回路126−1は、動きベクトル
検出回路123から供給された、基準となるフィールド
と次のフィールドに対応するベクトル(t+1)を基
に、遅延回路124−1から供給された、基準となるフ
ィールドの次のフィールドの信号に含まれる所定のデー
タを切り出して、切り出したデータをクラス分類部12
7に供給する。
The area extraction circuit 126-1 is supplied from the delay circuit 124-1 based on the vector (t + 1) corresponding to the reference field and the next field supplied from the motion vector detection circuit 123. , The predetermined data included in the signal of the field next to the reference field is cut out, and the cut-out data is classified into
Supply to 7.

【0242】領域切出回路126−2は、動きベクトル
検出回路123から供給された、基準となるフィールド
と前のフィールドに対応するベクトル(t−1)を基
に、遅延回路124−2から供給された、基準となるフ
ィールドの信号に含まれる所定のデータを切り出して、
切り出したデータをクラス分類部127に供給する。
The area cutout circuit 126-2 is supplied from the delay circuit 124-2 based on the vector (t-1) corresponding to the reference field and the previous field supplied from the motion vector detection circuit 123. Cut out the specified data included in the signal of the reference field,
The cut out data is supplied to the class classification unit 127.

【0243】領域切出回路126−3は、遅延回路12
4−3から供給された、基準となるフィールドの前のフ
ィールドの信号に含まれる所定のデータを切り出して、
切り出したデータをクラス分類部127に供給する。
The area cutout circuit 126-3 is the delay circuit 12
The predetermined data included in the signal of the field before the reference field supplied from 4-3 is cut out,
The cut out data is supplied to the class classification unit 127.

【0244】クラス分類部127は、サブキャリア位相
情報検出回路121から供給された位相の情報、動きベ
クトル検出回路123から供給された特徴量、サブキャ
リア位相情報検出回路125から供給された前のフィー
ルドに対応する位相情報および次のフィールドに対応す
る位相情報、領域切出回路126−1から供給された、
基準となるフィールドの次のフィールドの信号から切り
出されたデータ、領域切出回路126−2から供給され
た、基準となるフィールドの信号から切り出されたデー
タ、および領域切出回路126−3から供給された、基
準となるフィールドの前のフィールドの信号から切り出
されたデータを基に、クラス分類し、クラス分類の結果
を示すクラスコードを領域切出回路128−1、領域切
出回路128−2、領域切出回路128−3、係数メモ
リ129、および予測部130に供給する。
The class classification unit 127 includes the phase information supplied from the subcarrier phase information detection circuit 121, the feature amount supplied from the motion vector detection circuit 123, and the previous field supplied from the subcarrier phase information detection circuit 125. , The phase information corresponding to the next field, and the phase information corresponding to the next field, supplied from the area cutting circuit 126-1,
Data cut out from the signal of the field next to the reference field, data cut out from the signal of the reference field supplied from the area cutting circuit 126-2, and supplied from the area cutting circuit 126-3 Based on the data cut out from the signal of the field before the reference field, the class code indicating the result of the class classification is extracted by the area cutting circuit 128-1 and the area cutting circuit 128-2. , Region extraction circuit 128-3, coefficient memory 129, and prediction unit 130.

【0245】クラス分類部127は、例えば、位相情報
検出回路125から供給された前のフィールドに対応す
る位相情報を基に、4クラスに分類する。クラス分類部
127は、例えば、位相情報検出回路121から供給さ
れた基準となるフィールドに対応する位相情報を基に、
4クラスに分類する。クラス分類部127は、例えば、
位相情報検出回路125から供給された次のフィールド
に対応する位相情報を基に、4クラスに分類する。
The class classifying section 127 classifies into four classes based on the phase information corresponding to the previous field supplied from the phase information detecting circuit 125, for example. The class classification unit 127, for example, based on the phase information corresponding to the reference field supplied from the phase information detection circuit 121,
Classify into 4 classes. The class classification unit 127, for example,
Based on the phase information corresponding to the next field supplied from the phase information detection circuit 125, it is classified into four classes.

【0246】クラス分類部127は、例えば、基準とな
るフィールドの次のフィールドの信号から切り出された
データ、基準となるフィールドの信号から切り出された
データ、および基準となるフィールドの前のフィールド
の信号から切り出されたデータである5つのデータに、
ADRC処理を適用して、32クラスに分類する。
The class categorizing unit 127, for example, outputs the data cut out from the signal in the field next to the reference field, the data cut out from the signal in the reference field, and the signal in the field before the reference field. 5 data that are data cut out from
ADRC processing is applied to classify into 32 classes.

【0247】クラス分類部127は、例えば、動きベク
トル検出回路123から供給された特徴量を基に、所定
の閾値と比較判定し、基準となるフィールドの次のフィ
ールドに対して、2クラスに分類し、基準となるフィー
ルドの前のフィールドに対して、2クラスに分類する。
The class classification unit 127, for example, based on the feature amount supplied from the motion vector detection circuit 123, compares and determines with a predetermined threshold value and classifies the field next to the reference field into two classes. Then, the field before the reference field is classified into two classes.

【0248】クラス分類部127は、例えば、以上のク
ラス分類を掛け合わせて、最終的に、8192クラスに
分類する。
The class classification unit 127, for example, multiplies the above class classifications and finally classifies them into 8192 classes.

【0249】クラス分類部127は、サブキャリア位相
情報検出回路121から供給された位相の情報、動きベ
クトル検出回路123から供給された特徴量、サブキャ
リア位相情報検出回路125前のフィールドに対応する
位相情報および次のフィールドに対応する位相情報、領
域切出回路126−1から供給された、基準となるフィ
ールドの次のフィールドの信号から切り出されたデー
タ、領域切出回路126−2から供給された、基準とな
るフィールドの信号から切り出されたデータ、および領
域切出回路126−3から供給された、基準となるフィ
ールドの前のフィールドの信号から切り出されたデータ
を基に、予測タップの構造を指定する構造可変情報を生
成し、生成した構造可変情報を領域切出回路128−
1、領域切出回路128−2、および領域切出回路12
8−3に供給する。
The class classification unit 127 has the phase information supplied from the subcarrier phase information detection circuit 121, the feature quantity supplied from the motion vector detection circuit 123, and the phase corresponding to the field before the subcarrier phase information detection circuit 125. Information and phase information corresponding to the next field, data extracted from the signal of the field next to the reference field supplied from the area extraction circuit 126-1, and supplied from the area extraction circuit 126-2 The structure of the prediction tap is based on the data cut out from the signal of the reference field and the data cut out from the signal of the field before the reference field, which is supplied from the region cutting circuit 126-3. The structure variable information to be designated is generated, and the generated structure variable information is subjected to the area extraction circuit 128-
1, area cutout circuit 128-2, and area cutout circuit 12
8-3.

【0250】領域切出回路128−1は、動きベクトル
検出回路123から供給された、基準となるフィールド
と次のフィールドに対応するベクトル(t+1)、並び
にクラス分類部127から供給されたクラスコードおよ
び構造可変情報を基に、遅延回路124−1から供給さ
れた、基準となるフィールドの次のフィールドの信号に
含まれる所定のデータを切り出して、切り出したデータ
を予測部130に供給する。
The area cutout circuit 128-1 supplies the vector (t + 1) corresponding to the reference field and the next field supplied from the motion vector detection circuit 123, and the class code and the class code supplied from the class classification unit 127. Based on the structure variable information, predetermined data included in the signal of the field next to the reference field supplied from the delay circuit 124-1 is cut out, and the cut out data is supplied to the prediction unit 130.

【0251】領域切出回路128−2は、クラス分類部
127から供給されたクラスコードおよび構造可変情報
を基に、遅延回路124−2から供給された、基準とな
るフィールドの信号に含まれる所定のデータを切り出し
て、切り出したデータを予測部130に供給する。
The area cutout circuit 128-2 includes a predetermined code contained in the signal of the reference field supplied from the delay circuit 124-2 based on the class code and the structure variable information supplied from the class classification unit 127. Data is cut out and the cut out data is supplied to the prediction unit 130.

【0252】領域切出回路128−3は、動きベクトル
検出回路123から供給された、基準となるフィールド
と前のフィールドに対応するベクトル(t−1)、並び
にクラス分類部127から供給されたクラスコードおよ
び構造可変情報を基に、遅延回路124−3から供給さ
れた、基準となるフィールドの前のフィールドの信号に
含まれる所定のデータを切り出して、切り出したデータ
を予測部130に供給する。
The area cutout circuit 128-3 supplies the vector (t-1) corresponding to the reference field and the previous field supplied from the motion vector detection circuit 123, and the class supplied from the class classification unit 127. Based on the code and the structure variable information, predetermined data included in the signal of the field before the reference field supplied from the delay circuit 124-3 is cut out, and the cut out data is supplied to the prediction unit 130.

【0253】係数メモリ129は、外部から供給された
予測モード設定信号、およびクラスコードを基に、分類
されたクラスに対応する所定の係数セットを予測部13
0に供給する。
The coefficient memory 129 predicts a predetermined coefficient set corresponding to the classified class on the basis of the prediction mode setting signal supplied from the outside and the class code.
Supply to 0.

【0254】予測部130は、クラス分類部127から
供給されたクラスコード、係数メモリ129から供給さ
れた係数セット、領域切出回路128−1から供給され
た、基準となるフィールドの次のフィールドの信号から
切り出されたデータ、領域切出回路128−2から供給
された、基準となるフィールドの信号から切り出された
データ、領域切出回路128−3から供給された、基準
となるフィールドの前のフィールドの信号から切り出さ
れたデータを基に、例えば、Y信号、U信号、およびV
信号からなるコンポーネントビデオ信号を予測する。
The predicting unit 130 selects the class code supplied from the class classifying unit 127, the coefficient set supplied from the coefficient memory 129, and the field next to the reference field supplied from the area extracting circuit 128-1. The data cut out from the signal, the data cut out from the signal of the reference field supplied from the area cutout circuit 128-2, and the data before the reference field supplied from the area cutout circuit 128-3 Based on the data cut out from the field signal, for example, Y signal, U signal, and V signal
Predict a component video signal consisting of signals.

【0255】このように、本発明に係る画像処理装置
は、入力されたコンポジット信号に対応する、より正確
なコンポーネントビデオ信号を生成することができる。
As described above, the image processing apparatus according to the present invention can generate a more accurate component video signal corresponding to the input composite signal.

【0256】図26は、本発明に係る画像処理装置によ
る、コンポーネントビデオ信号の生成の処理を説明する
フローチャートである。
FIG. 26 is a flow chart for explaining the process of generating a component video signal by the image processing apparatus according to the present invention.

【0257】ステップS1において、動きベクトル検出
部2は、NTSCデコーダ1から供給された画像信号および
サブキャリア位相情報を基に、動きベクトルを検出す
る。動きベクトルの検出の処理の詳細は、後述する。
In step S1, the motion vector detecting section 2 detects a motion vector based on the image signal and subcarrier phase information supplied from the NTSC decoder 1. Details of the motion vector detection process will be described later.

【0258】ステップS2において、クラスタップ抽出
部3は、NTSCデコーダ1から供給されたサブキャリア位
相情報、および動きベクトル検出部2から供給された動
きベクトルを基に、画像信号のデータ、上位階層特徴量
のデータ、および下位階層特徴量のデータからなるクラ
スタップを抽出する。
In step S2, the class tap extracting unit 3 determines the image signal data and the upper layer feature based on the subcarrier phase information supplied from the NTSC decoder 1 and the motion vector supplied from the motion vector detecting unit 2. Extract class taps consisting of quantity data and lower layer feature quantity data.

【0259】ステップS3において、演算部4は、NTSC
デコーダ1から供給された画像信号およびサブキャリア
位相情報、動きベクトル検出部2から供給された動きベ
クトル、上位階層特徴量のデータ、および下位階層特徴
量のデータ、並びにクラスタップ抽出部3から供給され
たクラスタップを基に、クラス分類する。例えば、図1
9に示す、演算部4のクラス分類部71−1乃至71−
3は、NTSCデコーダ1から供給された画像信号およびサ
ブキャリア位相情報、動きベクトル検出部2から供給さ
れた動きベクトル、上位階層特徴量のデータ、および下
位階層特徴量のデータ、並びにクラスタップ抽出部3か
ら供給されたクラスタップを基に、クラス分類する。
At step S3, the operation section 4 determines the NTSC
The image signal and subcarrier phase information supplied from the decoder 1, the motion vector supplied from the motion vector detection unit 2, the data of the upper layer feature amount and the data of the lower layer feature amount, and the class tap extraction unit 3 are supplied. Classify based on the class tap. For example, in FIG.
9, the class classification units 71-1 to 71- of the calculation unit 4 are shown.
Reference numeral 3 denotes the image signal and subcarrier phase information supplied from the NTSC decoder 1, the motion vector supplied from the motion vector detection unit 2, the upper layer feature amount data, the lower layer feature amount data, and the class tap extraction unit. Classifying is performed based on the class taps supplied from 3.

【0260】ステップS4において、演算部4は、分類
されたクラス、および動きベクトル検出部2から供給さ
れた動きベクトルを基に、画像信号のデータ、上位階層
特徴量のデータ、および下位階層特徴量のデータからな
る予測タップを抽出する。例えば、図19に示す予測タ
ップ抽出部72−1乃至72−3は、分類されたクラス
を示すクラスコード、ダイナミックレンジ、および動き
ベクトル検出部2から供給された動きベクトルを基に、
画像信号のデータ、上位階層特徴量のデータ、および下
位階層特徴量のデータからなる予測タップを抽出する。
In step S4, the calculation unit 4 uses the classified classes and the motion vector supplied from the motion vector detection unit 2 to calculate the image signal data, the upper layer feature amount data, and the lower layer feature amount. Extract the prediction tap consisting of the data of. For example, the prediction tap extracting units 72-1 to 72-3 illustrated in FIG. 19 are based on the class code indicating the classified class, the dynamic range, and the motion vector supplied from the motion vector detecting unit 2,
A prediction tap composed of image signal data, upper layer feature amount data, and lower layer feature amount data is extracted.

【0261】ステップS5において、演算部4は、抽出
された予測タップ、および予め記憶されている係数セッ
トを基に、コンポーネントビデオ信号を予測し、処理は
終了する。例えば、図19に示す演算部4の予測演算部
74−1乃至74−3は、予測タップおよび係数メモリ
73−1乃至73−3から供給された係数セットを基
に、それぞれ、Y信号、U信号、およびV信号を予測す
る。
In step S5, the operation section 4 predicts the component video signal based on the extracted prediction tap and the coefficient set stored in advance, and the processing ends. For example, the prediction calculation units 74-1 to 74-3 of the calculation unit 4 illustrated in FIG. 19 are based on the coefficient set supplied from the prediction taps and the coefficient memories 73-1 to 73-3, respectively. Predict the signal and the V signal.

【0262】図27は、ステップS1に対応する、動き
ベクトル検出部2による、動きベクトルの検出の処理を
説明するフローチャートである。ステップS11におい
て、動きベクトル検出部2は、NTSCデコーダ1を介し
て、NTSCデコーダ1から供給されたサブキャリア位相情
報を基に、注目データのサブキャリアの位相を取得す
る。
FIG. 27 is a flow chart for explaining the motion vector detection processing by the motion vector detection unit 2 corresponding to step S1. In step S11, the motion vector detection unit 2 acquires the phase of the subcarrier of the data of interest based on the subcarrier phase information supplied from the NTSC decoder 1 via the NTSC decoder 1.

【0263】ステップS12において、特徴量変換部2
3は、画像信号および取得したサブキャリアの位相を基
に、注目フィールドおよび対応するフィールドについ
て、上位階層の特徴量を算出し、算出された特徴量を上
位階層特徴量として出力する。
In step S12, the feature quantity conversion unit 2
3 calculates the characteristic amount of the upper layer for the field of interest and the corresponding field based on the image signal and the acquired phase of the subcarrier, and outputs the calculated characteristic amount as the upper layer characteristic amount.

【0264】ステップS13において、上位階層動きベ
クトル検出部25は、特徴量変換部23から供給された
上位階層特徴量を基に、動きベクトルに近似する近似ベ
クトルである、上位階層ベクトルを検出する。上位階層
ベクトルの検出の処理の詳細は、後述する。
In step S13, the upper layer motion vector detection unit 25 detects the upper layer vector, which is an approximate vector approximate to the motion vector, based on the upper layer feature amount supplied from the feature amount conversion unit 23. Details of the process of detecting the upper layer vector will be described later.

【0265】ステップS14において、特徴量変換部2
4は、画像信号および取得したサブキャリアの位相を基
に、注目フィールドおよび対応するフィールドについ
て、下位階層の特徴量を算出し、算出された特徴量を下
位階層特徴量として出力する。
In step S14, the feature quantity conversion unit 2
4 calculates the characteristic amount of the lower layer for the field of interest and the corresponding field based on the image signal and the acquired phase of the subcarrier, and outputs the calculated characteristic amount as the lower layer characteristic amount.

【0266】ステップS15において、下位階層動きベ
クトル検出部26は、特徴量変換部24から供給された
下位階層特徴量、および上位階層動きベクトル検出部2
5から供給された上位階層ベクトルを基に、下位階層ベ
クトルを検出する。下位階層ベクトルの検出の処理の詳
細は、後述する。
In step S15, the lower layer motion vector detecting unit 26 detects the lower layer characteristic amount supplied from the characteristic amount converting unit 24 and the upper layer motion vector detecting unit 2.
The lower layer vector is detected based on the upper layer vector supplied from No. 5. Details of the process of detecting the lower layer vector will be described later.

【0267】ステップS16において、下位階層動きベ
クトル検出部26は、動きベクトルを出力して、処理は
終了する。すなわち、下位階層動きベクトル検出部26
は、検出した下位階層動きベクトルを動きベクトルとし
て出力する。
In step S16, the lower layer motion vector detection unit 26 outputs the motion vector, and the process ends. That is, the lower layer motion vector detection unit 26
Outputs the detected lower layer motion vector as a motion vector.

【0268】図28は、ステップS13に対応する、上
位階層動きベクトル検出部25による、上位階層ベクト
ルの検出の処理の詳細を説明するフローチャートであ
る。ステップS21において、上位階層動きベクトル検
出部25のベクトル生成部31は、パラメータAを基
に、所定のベクトルを生成し、相関値算出部32および
判定部33に供給する。ステップS22において、相関
値算出部32は、注目フィールドの注目データに対応す
る上位階層特徴量を中心とし、所定の数の上位階層特徴
量からなるブロックと、対応するフィールドの、ベクト
ル生成部31から供給されたベクトルで指定される位置
を中心とし、所定の数の上位階層特徴量からなるブロッ
クとの相関値を算出する。相関値算出部32は、例え
ば、相関値として、注目フィールドのブロックに属する
上位階層特徴量と、対応するフィールドのブロックに属
する上位階層特徴量との差分の絶対値の和を算出する。
FIG. 28 is a flow chart for explaining the details of the process of detecting the upper layer vector by the upper layer motion vector detecting unit 25, which corresponds to step S13. In step S21, the vector generation unit 31 of the higher layer motion vector detection unit 25 generates a predetermined vector based on the parameter A and supplies it to the correlation value calculation unit 32 and the determination unit 33. In step S22, the correlation value calculation unit 32 determines, from the vector generation unit 31 of a block including a predetermined number of upper layer feature values centering on the upper layer feature value corresponding to the attention data of the attention field, and the corresponding field. A correlation value with a block composed of a predetermined number of upper layer feature values centering on the position specified by the supplied vector is calculated. The correlation value calculation unit 32 calculates, for example, as the correlation value, the sum of the absolute values of the differences between the upper layer feature amount belonging to the block of the field of interest and the upper layer feature amount belonging to the block of the corresponding field.

【0269】ステップS23において、判定部33は、
ベクトル生成部31から供給されたベクトルに対応させ
て、相関値算出部32から供給された相関値を記憶す
る。
At step S23, the judging section 33
The correlation value supplied from the correlation value calculation unit 32 is stored in association with the vector supplied from the vector generation unit 31.

【0270】ステップS24において、上位階層動きベ
クトル検出部25は、パラメータAにより指定された、
所定の範囲の相関値を算出したか否かを判定し、所定の
範囲の相関値を算出していないと判定された場合、ステ
ップS21に戻り、次のベクトルに対応して、相関値の
演算の処理を繰り返す。
In step S24, the upper layer motion vector detection unit 25 specifies the parameter A,
It is determined whether or not the correlation value in the predetermined range has been calculated, and when it is determined that the correlation value in the predetermined range has not been calculated, the process returns to step S21, and the correlation value is calculated corresponding to the next vector. The process of is repeated.

【0271】ステップS24において、パラメータAに
含まれるデータで指定される、所定の範囲の相関値を算
出したと判定された場合、ステップS25に進み、判定
部33は、記憶している相関値のうち、最も強い相関に
対応するベクトルを選択する。例えば、相関値算出部3
2が、相関値として、注目フィールドのブロックに属す
る上位階層特徴量と、対応するフィールドのベクトルに
指定される位置のブロックに属する上位階層特徴量との
差分の絶対値の和を算出するとき、判定部33は、最小
の相関値を選択する。
If it is determined in step S24 that the correlation value in the predetermined range designated by the data included in the parameter A has been calculated, the process proceeds to step S25, and the determination unit 33 determines the stored correlation value. Of these, the vector corresponding to the strongest correlation is selected. For example, the correlation value calculation unit 3
2 calculates, as a correlation value, the sum of the absolute values of the differences between the upper layer feature amount belonging to the block of the field of interest and the upper layer feature amount belonging to the block at the position specified by the vector of the corresponding field, The determination unit 33 selects the smallest correlation value.

【0272】ステップS26において、判定部33は、
上位階層ベクトルとして、ステップS25の処理で選択
したベクトルを出力して、処理は終了する。
At step S26, the judgment section 33
The vector selected in the process of step S25 is output as the upper layer vector, and the process ends.

【0273】図29は、ステップS15に対応する下位
階層ベクトルの検出の処理の詳細を説明するフローチャ
ートである。ステップS31において、下位階層動きベ
クトル検出部26のベクトル生成部41は、上位階層ベ
クトルおよびパラメータBを基に、所定のベクトルを生
成し、相関値算出部42および判定部43に供給する。
ステップS32において、相関値算出部42は、注目フ
ィールドの注目データに対応する下位階層特徴量を中心
とし、所定の数の下位階層特徴量からなるブロックと、
対応するフィールドの、上位階層ベクトル、およびベク
トル生成部41から供給されたベクトルで指定される位
置を中心とし、所定の数の下位階層特徴量からなるブロ
ックとの相関値を算出する。相関値算出部42は、例え
ば、相関値として、注目フィールドのブロックに属する
下位階層特徴量と、対応するフィールドのベクトルで指
定される位置のブロックに属する下位階層特徴量との相
互相関を算出する。
FIG. 29 is a flow chart for explaining the details of the process of detecting the lower hierarchy vector corresponding to step S15. In step S31, the vector generation unit 41 of the lower layer motion vector detection unit 26 generates a predetermined vector based on the upper layer vector and the parameter B, and supplies it to the correlation value calculation unit 42 and the determination unit 43.
In step S32, the correlation value calculation unit 42 has a block composed of a predetermined number of lower layer feature values centering on the lower layer feature values corresponding to the attention data in the attention field,
A correlation value with a block composed of a predetermined number of lower layer feature values centering on the position designated by the upper layer vector of the corresponding field and the vector supplied from the vector generation unit 41 is calculated. The correlation value calculation unit 42 calculates, for example, as the correlation value, the cross-correlation between the lower layer feature amount belonging to the block of the field of interest and the lower layer feature amount belonging to the block specified by the vector of the corresponding field. .

【0274】ステップS33において、判定部43は、
ベクトル生成部41から供給されたベクトルに対応させ
て、相関値算出部42から供給された相関値を記憶す
る。
At step S33, the judging section 43
The correlation value supplied from the correlation value calculation unit 42 is stored in association with the vector supplied from the vector generation unit 41.

【0275】ステップS34において、下位階層動きベ
クトル検出部26は、パラメータBに含まれるデータに
より指定された、所定の範囲の相関値を算出したか否か
を判定し、所定の範囲の相関値を算出していないと判定
された場合、ステップS31に戻り、相関値の演算の処
理を繰り返す。
[0275] In step S34, the lower hierarchical motion vector detection unit 26 determines whether or not the correlation value in the predetermined range designated by the data included in the parameter B has been calculated, and the correlation value in the predetermined range is determined. If it is determined that the correlation value has not been calculated, the process returns to step S31 and the correlation value calculation process is repeated.

【0276】ステップS34において、所定の範囲の相
関値を算出したと判定された場合、ステップS35に進
み、判定部43は、記憶している相関値のうち、最も強
い相関に対応するベクトルを選択する。例えば、相関値
算出部42が、相関値として、注目フィールドのブロッ
クに属する下位階層特徴量と、対応するフィールドのベ
クトルに指定される位置のブロックに属する下位階層特
徴量との相互相関を算出するとき、判定部33は、最大
の相関値を選択する。
If it is determined in step S34 that the correlation value within the predetermined range has been calculated, the process proceeds to step S35, and the determination section 43 selects the vector corresponding to the strongest correlation among the stored correlation values. To do. For example, the correlation value calculation unit 42 calculates, as the correlation value, the cross-correlation between the lower layer feature amount belonging to the block of the field of interest and the lower layer feature amount belonging to the block specified by the vector of the corresponding field. At this time, the determination unit 33 selects the maximum correlation value.

【0277】ステップS36において、判定部43は、
下位階層ベクトルとして、ステップS35の処理で選択
したベクトルを出力して、処理は終了する。
At step S36, the judging section 43
The vector selected in the process of step S35 is output as the lower layer vector, and the process ends.

【0278】このように、動きベクトル検出部2は、よ
り精度の高い動きベクトルを検出することができる。
In this way, the motion vector detecting section 2 can detect a motion vector with higher accuracy.

【0279】動きベクトル検出部2は、2つの階層にお
いて動きベクトルを検出する処理を実行するようにした
ので、回路規模を大きくすることなく、また、複雑な演
算を必要とすることなく、より精度の高い動きベクトル
を検出できる。
Since the motion vector detecting section 2 is adapted to execute the process of detecting the motion vector in the two layers, it is possible to increase the accuracy without increasing the circuit scale and the complicated operation. Of high motion vector can be detected.

【0280】図30は、ステップS15の処理に対応す
る、図18に構成を示す下位階層動きベクトル検出部2
6による、下位階層ベクトルの検出の他の処理の詳細を
説明するフローチャートである。
FIG. 30 corresponds to the processing of step S15, and the lower hierarchical motion vector detecting section 2 having the configuration shown in FIG.
11 is a flowchart illustrating details of another process of detecting a lower layer vector according to No. 6;

【0281】ステップS41において、クラス分類部5
1は、サブキャリア位相情報および下位階層特徴量を基
に、注目データに対応してクラス分類する。
In step S41, the class classification unit 5
1 classifies the data corresponding to the data of interest based on the subcarrier phase information and the lower layer feature amount.

【0282】ステップS42において、予測タップ抽出
部52は、分類されたクラス、メモリ55から供給され
た、前のフィールドに対応する下位階層ベクトル、およ
び上位階層ベクトルに対応する、所定の数の、所定の下
位階層特徴量である予測タップを抽出する。
In step S42, the prediction tap extracting unit 52 determines a predetermined number of classified classes, which corresponds to the lower layer vector corresponding to the previous field and the upper layer vector supplied from the memory 55. The prediction tap which is the lower layer feature amount of is extracted.

【0283】ステップS43において、演算部53は、
予測係数メモリ54に記憶されている係数セット、およ
び予測タップを基に、下位階層ベクトルを演算する。
In step S43, the calculation section 53
The lower hierarchy vector is calculated based on the coefficient set and the prediction tap stored in the prediction coefficient memory 54.

【0284】ステップS44において、演算部53は、
下位階層ベクトルをメモリ55に記憶させると共に、下
位階層ベクトルを出力して、処理は終了する。
At step S44, the calculation section 53
The lower layer vector is stored in the memory 55, the lower layer vector is output, and the process ends.

【0285】このように、図18に構成を示す下位階層
動きベクトル検出部26は、下位階層特徴量にクラス分
類適応処理を適用して、より精度の高い動きベクトルを
生成することができる。
As described above, the lower layer motion vector detecting unit 26 having the configuration shown in FIG. 18 can apply the class classification adaptive processing to the lower layer feature amount to generate a more accurate motion vector.

【0286】以上のように、本発明に係る画像処理装置
は、コンポジットビデオ信号から、動きベクトルを考慮
して、従来に比較して、より精度の良い、コンポーネン
トビデオ信号を生成することができる。
As described above, the image processing apparatus according to the present invention can generate a more accurate component video signal from a composite video signal in consideration of a motion vector as compared with the conventional one.

【0287】図31は、コンポーネントビデオ信号の予
測の処理に使用される予測係数を生成する、本発明に係
る画像処理装置の実施の形態の構成を示すブロック図で
ある。
FIG. 31 is a block diagram showing the configuration of the embodiment of the image processing apparatus according to the present invention for generating the prediction coefficient used for the prediction processing of the component video signal.

【0288】図1に示す画像処理装置と同様の部分に
は、同一の番号を付してあり、その説明は省略する。
The same parts as those of the image processing apparatus shown in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted.

【0289】画像処理装置に入力されたコンポーネント
ビデオ信号は、NTSCエンコーダ201および係数算出部
202に供給される。
The component video signal input to the image processing apparatus is supplied to the NTSC encoder 201 and the coefficient calculation section 202.

【0290】NTSCエンコーダ201は、入力されたコン
ポーネントビデオ信号を基に、NTSCコンポジット信号を
生成し、生成したNTSCコンポジット信号をNTSCデコーダ
1に供給する。
[0290] The NTSC encoder 201 generates an NTSC composite signal based on the input component video signal, and supplies the generated NTSC composite signal to the NTSC decoder 1.

【0291】係数算出部202は、NTSCデコーダ1から
供給されたサブキャリア位相情報、動きベクトル検出部
2から供給された動きベクトル、およびクラスタップ抽
出部3から供給されたクラスタップを基に、入力された
コンポーネントビデオ信号、NTSCデコーダ1から供給さ
れた画像信号、並びに動きベクトル検出部2から供給さ
れた上位階層特徴量および下位階層特徴量に、式(1
4)に例を示す演算を適用して、コンポーネントビデオ
信号を予測するための予測係数を生成する。演算部4
は、生成した予測係数を係数メモリ203に供給する。
The coefficient calculation unit 202 inputs based on the subcarrier phase information supplied from the NTSC decoder 1, the motion vector supplied from the motion vector detection unit 2, and the class tap supplied from the class tap extraction unit 3. The component video signal that is generated, the image signal that is supplied from the NTSC decoder 1, and the upper layer feature amount and the lower layer feature amount that are supplied from the motion vector detection unit 2 are given by the formula (1
4) is applied to generate prediction coefficients for predicting a component video signal. Arithmetic unit 4
Supplies the generated prediction coefficient to the coefficient memory 203.

【0292】係数メモリ203は、係数算出部202か
ら供給された予測係数を記憶する。
The coefficient memory 203 stores the prediction coefficient supplied from the coefficient calculation unit 202.

【0293】図32は、係数算出部202の構成を示す
ブロック図である。図19に示す場合と同様の部分には
同一の番号を付してあり、その説明は省略する。
FIG. 32 is a block diagram showing the structure of the coefficient calculation unit 202. The same parts as those shown in FIG. 19 are designated by the same reference numerals, and the description thereof will be omitted.

【0294】予測係数算出部221−1は、予測タップ
抽出部72−1から供給された予測タップ、および入力
されたコンポーネントビデオ信号に含まれるY信号に、
例えば、式(14)に示す演算を適用して、Y信号を予
測するための予測係数を算出し、算出した予測係数を出
力する。
The prediction coefficient calculation unit 221-1 converts the prediction tap supplied from the prediction tap extraction unit 72-1 and the Y signal included in the input component video signal into
For example, the calculation shown in Expression (14) is applied to calculate the prediction coefficient for predicting the Y signal, and the calculated prediction coefficient is output.

【0295】予測係数算出部221−2は、予測タップ
抽出部72−2から供給された予測タップ、および入力
されたコンポーネントビデオ信号に含まれるU信号に、
例えば、式(14)に示す演算を適用して、U信号を予
測するための予測係数を算出し、算出した予測係数を出
力する。
The prediction coefficient calculation unit 221-2 adds the prediction tap supplied from the prediction tap extraction unit 72-2 and the U signal included in the input component video signal to
For example, the calculation shown in Expression (14) is applied to calculate the prediction coefficient for predicting the U signal, and the calculated prediction coefficient is output.

【0296】予測係数算出部221−3は、予測タップ
抽出部72−3から供給された予測タップ、および入力
されたコンポーネントビデオ信号に含まれるV信号に、
例えば、式(14)に示す演算を適用して、V信号を予
測するための予測係数を算出し、算出した予測係数を出
力する。
The prediction coefficient calculation unit 221-3 converts the prediction tap supplied from the prediction tap extraction unit 72-3 and the V signal included in the input component video signal into
For example, the calculation shown in Expression (14) is applied to calculate the prediction coefficient for predicting the V signal, and the calculated prediction coefficient is output.

【0297】図33は、係数算出部202の他の構成を
示すブロック図である。図22に示す場合と同様の部分
には同一の番号を付してあり、その説明は省略する。
FIG. 33 is a block diagram showing another structure of the coefficient calculation unit 202. The same parts as those shown in FIG. 22 are designated by the same reference numerals, and the description thereof will be omitted.

【0298】セレクタ231は、クラス分類部71−1
乃至71−3から個々に供給された3つのクラスコード
およびダイナミックレンジの内、1つのクラスコードお
よびダイナミックレンジを選択し、選択したクラスコー
ドおよびダイナミックレンジを予測タップ抽出部82に
供給する。
The selector 231 is the class classification unit 71-1.
One of the three class codes and the dynamic range individually supplied from the to 71-3 is selected, and the selected class code and dynamic range are supplied to the prediction tap extracting unit 82.

【0299】予測係数算出部232は、予測タップ抽出
部82からY信号に対応する予測タップが供給されたと
き、予測タップ抽出部82から供給された予測タップ、
およびコンポーネントビデオ信号に含まれるY信号を基
に、Y信号を予測するための予測係数を算出して、算出
した予測係数を出力する。予測係数算出部232は、予
測タップ抽出部82からU信号に対応する予測タップが
供給されたとき、予測タップ抽出部82から供給された
予測タップ、およびコンポーネントビデオ信号に含まれ
るU信号を基に、U信号を予測するための予測係数を算
出して、算出した予測係数を出力する。予測係数算出部
232は、予測タップ抽出部82からV信号に対応する
予測タップが供給されたとき、予測タップ抽出部82か
ら供給された予測タップ、およびコンポーネントビデオ
信号に含まれるV信号を基に、V信号を予測するための
予測係数を算出して、算出した予測係数を出力する。
[0299] When the prediction tap extraction unit 82 supplies the prediction tap corresponding to the Y signal, the prediction coefficient calculation unit 232 supplies the prediction tap supplied from the prediction tap extraction unit 82.
And a prediction coefficient for predicting the Y signal is calculated based on the Y signal included in the component video signal, and the calculated prediction coefficient is output. The prediction coefficient calculation unit 232, when the prediction tap corresponding to the U signal is supplied from the prediction tap extraction unit 82, based on the prediction tap supplied from the prediction tap extraction unit 82 and the U signal included in the component video signal. , A prediction coefficient for predicting the U signal is calculated, and the calculated prediction coefficient is output. The prediction coefficient calculation unit 232, when the prediction tap corresponding to the V signal is supplied from the prediction tap extraction unit 82, based on the prediction tap supplied from the prediction tap extraction unit 82 and the V signal included in the component video signal. , V signal, a prediction coefficient for predicting the V signal is calculated, and the calculated prediction coefficient is output.

【0300】図34は、係数算出部202のさらに他の
構成を示すブロック図である。図23に示す場合と同様
の部分には同一の番号を付してあり、その説明は省略す
る。
FIG. 34 is a block diagram showing still another configuration of the coefficient calculation unit 202. The same parts as those shown in FIG. 23 are designated by the same reference numerals, and the description thereof will be omitted.

【0301】予測係数算出部221−1は、予測タップ
抽出部72−1から供給された予測タップ、および入力
されたコンポーネントビデオ信号に含まれるY信号に、
例えば、式(14)に示す演算を適用して、Y信号を予
測するための予測係数を算出し、算出した予測係数を出
力する。
The prediction coefficient calculation unit 221-1 converts the prediction tap supplied from the prediction tap extraction unit 72-1 and the Y signal included in the input component video signal into
For example, the calculation shown in Expression (14) is applied to calculate the prediction coefficient for predicting the Y signal, and the calculated prediction coefficient is output.

【0302】予測係数算出部221−2は、予測タップ
抽出部72−2から供給された予測タップ、および入力
されたコンポーネントビデオ信号に含まれるU信号に、
例えば、式(14)に示す演算を適用して、U信号を予
測するための予測係数を算出し、算出した予測係数を出
力する。
The prediction coefficient calculation unit 221-2 adds the prediction tap supplied from the prediction tap extraction unit 72-2 and the U signal included in the input component video signal to
For example, the calculation shown in Expression (14) is applied to calculate the prediction coefficient for predicting the U signal, and the calculated prediction coefficient is output.

【0303】予測係数算出部221−3は、予測タップ
抽出部72−3から供給された予測タップ、および入力
されたコンポーネントビデオ信号に含まれるV信号に、
例えば、式(14)に示す演算を適用して、V信号を予
測するための予測係数を算出し、算出した予測係数を出
力する。
The prediction coefficient calculation unit 221-3 converts the prediction tap supplied from the prediction tap extraction unit 72-3 and the V signal included in the input component video signal into
For example, the calculation shown in Expression (14) is applied to calculate the prediction coefficient for predicting the V signal, and the calculated prediction coefficient is output.

【0304】図35は、係数算出部202のさらに他の
構成を示すブロック図である。図24に示す場合と同様
の部分には同一の番号を付してあり、その説明は省略す
る。
FIG. 35 is a block diagram showing still another configuration of the coefficient calculation unit 202. The same parts as those shown in FIG. 24 are designated by the same reference numerals, and the description thereof will be omitted.

【0305】予測係数算出部232は、予測タップ抽出
部82からY信号に対応する予測タップが供給されたと
き、予測タップ抽出部82から供給された予測タップ、
およびコンポーネントビデオ信号に含まれるY信号を基
に、Y信号を予測するための予測係数を算出して、算出
した予測係数を出力する。予測係数算出部232は、予
測タップ抽出部82からU信号に対応する予測タップが
供給されたとき、予測タップ抽出部82から供給された
予測タップ、およびコンポーネントビデオ信号に含まれ
るU信号を基に、U信号を予測するための予測係数を算
出して、算出した予測係数を出力する。予測係数算出部
232は、予測タップ抽出部82からV信号に対応する
予測タップが供給されたとき、予測タップ抽出部82か
ら供給された予測タップ、およびコンポーネントビデオ
信号に含まれるV信号を基に、V信号を予測するための
予測係数を算出して、算出した予測係数を出力する。
When the prediction tap extraction unit 82 supplies the prediction tap corresponding to the Y signal, the prediction coefficient calculation unit 232 supplies the prediction tap supplied from the prediction tap extraction unit 82.
And a prediction coefficient for predicting the Y signal is calculated based on the Y signal included in the component video signal, and the calculated prediction coefficient is output. The prediction coefficient calculation unit 232, when the prediction tap corresponding to the U signal is supplied from the prediction tap extraction unit 82, based on the prediction tap supplied from the prediction tap extraction unit 82 and the U signal included in the component video signal. , A prediction coefficient for predicting the U signal is calculated, and the calculated prediction coefficient is output. The prediction coefficient calculation unit 232, when the prediction tap corresponding to the V signal is supplied from the prediction tap extraction unit 82, based on the prediction tap supplied from the prediction tap extraction unit 82 and the V signal included in the component video signal. , V signal, a prediction coefficient for predicting the V signal is calculated, and the calculated prediction coefficient is output.

【0306】図36は、予測係数を算出する画像処理装
置の実施の形態の構成の一例の詳細を示すブロック図で
ある。図25に示す場合と同様の部分には同一の番号を
付してあり、その説明は省略する。
FIG. 36 is a block diagram showing details of an example of the configuration of the embodiment of the image processing apparatus for calculating the prediction coefficient. The same parts as those shown in FIG. 25 are designated by the same reference numerals, and the description thereof will be omitted.

【0307】入力信号である、HD(High-Definition)ま
たはプログレッシブのコンポーネントビデオ信号は、間
引きフィルタ261および選択回路263に供給され
る。
An HD (High-Definition) or progressive component video signal which is an input signal is supplied to the thinning filter 261 and the selection circuit 263.

【0308】間引きフィルタ261は、入力信号であ
る、HDまたはプログレッシブのコンポーネントビデオ信
号から、SD(Standard-Definition)インタレースのコン
ポーネントビデオ信号を生成する。間引きフィルタ26
1は、生成したコンポーネントビデオ信号をNTSCエンコ
ーダ262および選択回路263に供給する。
The decimation filter 261 generates an SD (Standard-Definition) interlaced component video signal from an HD or progressive component video signal which is an input signal. Thinning filter 26
1 supplies the generated component video signal to the NTSC encoder 262 and the selection circuit 263.

【0309】NTSCエンコーダ262は、入力されたコン
ポーネントビデオ信号を基に、生徒画像としての、NTSC
コンポジットビデオ信号を生成する。NTSCエンコーダ2
62は、生成したNTSCコンポジットビデオ信号を、サブ
キャリア位相情報検出回路121、フィールドメモリ1
22−1、動きベクトル検出回路123、および遅延回
路124−1に供給する。
The NTSC encoder 262 uses the input component video signal as the student image
Generate a composite video signal. NTSC encoder 2
A subcarrier phase information detection circuit 121 and a field memory 1 62 generate the generated NTSC composite video signal.
22-1, the motion vector detection circuit 123, and the delay circuit 124-1.

【0310】選択回路263は、外部から供給された学
習モード設定信号を基に、画像処理装置に入力された、
HDまたはプログレッシブのコンポーネントビデオ信号、
および間引きフィルタ261から供給されたSDインタレ
ースのコンポーネントビデオ信号のいずれか一方を選択
し、選択した信号を教師画像として、正規方程式演算回
路264に供給する。
The selection circuit 263 receives the learning mode setting signal supplied from the outside, and inputs it to the image processing apparatus.
HD or progressive component video signal,
And one of the SD interlaced component video signals supplied from the thinning filter 261 is selected, and the selected signal is supplied to the normal equation calculation circuit 264 as a teacher image.

【0311】正規方程式演算回路264は、クラス分類
部127から供給されたクラスコード、領域切出回路1
28−1から供給された、基準となるフィールドの次の
フィールドの信号から切り出されたデータ、領域切出回
路128−2から供給された、基準となるフィールドの
信号から切り出されたデータ、領域切出回路128−3
から供給された、基準となるフィールドの前のフィール
ドの信号から切り出されたデータ、および選択回路26
3から供給された教師画像を基に、例えば、Y信号、U
信号、およびV信号を予測するための予測係数を演算す
る。正規方程式演算回路264は、演算した予測係数を
係数メモリ265に供給する。
The normal equation operation circuit 264 uses the class code and area cutout circuit 1 supplied from the class classification unit 127.
28-1, the data cut out from the signal of the field next to the reference field supplied from 28-1, the data cut out from the signal of the reference field supplied from the area cutting circuit 128-2, the area cut Output circuit 128-3
Data extracted from the signal of the field before the reference field, which is supplied from
3 based on the teacher image supplied from
A prediction coefficient for predicting a signal and a V signal is calculated. The normal equation calculation circuit 264 supplies the calculated prediction coefficient to the coefficient memory 265.

【0312】係数メモリ265は、正規方程式演算回路
264から供給された予測係数を記憶する。
The coefficient memory 265 stores the prediction coefficient supplied from the normal equation calculating circuit 264.

【0313】このように、本発明に係る画像処理装置
は、コンポジットビデオ信号を基に、コンポーネントビ
デオ信号を予測するための予測係数を算出することがで
きる。
As described above, the image processing apparatus according to the present invention can calculate the prediction coefficient for predicting the component video signal based on the composite video signal.

【0314】図37は、本発明に係る画像処理装置によ
る、コンポジットビデオ信号を基に、コンポーネントビ
デオ信号を予測するための予測係数を算出する学習の処
理を説明するフローチャートである。
FIG. 37 is a flow chart for explaining a learning process for calculating a prediction coefficient for predicting a component video signal based on a composite video signal by the image processing apparatus according to the present invention.

【0315】ステップS201において、NTSCエンコー
ダ201は、入力されたコンポーネントビデオ信号を基
に、コンポジットビデオ信号を生成する。
[0315] In step S201, the NTSC encoder 201 generates a composite video signal based on the input component video signal.

【0316】ステップS202において、動きベクトル
検出部2は、コンポジットビデオ信号である画像信号お
よびサブキャリア位相情報を基に、動きベクトルを検出
する。ステップS202の処理の詳細は、ステップS1
の処理と同様なので、その説明は省略する。
In step S202, the motion vector detecting section 2 detects a motion vector based on the image signal which is the composite video signal and the subcarrier phase information. For details of the processing in step S202, see step S1.
Since the processing is the same as that of step 1, the description thereof will be omitted.

【0317】ステップS203において、クラスタップ
抽出部3は、NTSCデコーダ1から供給されたサブキャリ
ア位相情報、および動きベクトル検出部2から供給され
た動きベクトルを基に、画像信号のデータ、上位階層特
徴量のデータ、および下位階層特徴量のデータからなる
クラスタップを抽出する。
In step S203, the class tap extracting unit 3 determines the image signal data and the upper layer feature based on the subcarrier phase information supplied from the NTSC decoder 1 and the motion vector supplied from the motion vector detecting unit 2. Extract class taps consisting of quantity data and lower layer feature quantity data.

【0318】ステップS204において、係数算出部2
02は、NTSCデコーダ1から供給された画像信号および
サブキャリア位相情報、動きベクトル検出部2から供給
された動きベクトル、上位階層特徴量のデータ、および
下位階層特徴量のデータ、並びにクラスタップ抽出部3
から供給されたクラスタップを基に、クラス分類する。
例えば、図32に示す、係数算出部202のクラス分類
部71−1乃至71−3は、NTSCデコーダ1から供給さ
れた画像信号およびサブキャリア位相情報、動きベクト
ル検出部2から供給された動きベクトル、上位階層特徴
量のデータ、および下位階層特徴量のデータ、並びにク
ラスタップ抽出部3から供給されたクラスタップを基
に、クラス分類する。
In step S204, the coefficient calculation unit 2
Reference numeral 02 denotes the image signal and subcarrier phase information supplied from the NTSC decoder 1, the motion vector supplied from the motion vector detection unit 2, the upper layer feature amount data, the lower layer feature amount data, and the class tap extraction unit. Three
Classify based on the class tap supplied from.
For example, the class classification units 71-1 to 71-3 of the coefficient calculation unit 202 illustrated in FIG. 32 include the image signal and subcarrier phase information supplied from the NTSC decoder 1 and the motion vector supplied from the motion vector detection unit 2. , The upper layer feature amount data, the lower layer feature amount data, and the class tap supplied from the class tap extracting unit 3 are used for classifying.

【0319】ステップS205において、係数算出部2
02は、分類されたクラス、および動きベクトル検出部
2から供給された動きベクトルを基に、画像信号のデー
タ、上位階層特徴量のデータ、および下位階層特徴量の
データからなる予測タップを抽出する。例えば、図32
に示す、係数算出部202の予測タップ抽出部72−1
乃至72−3は、分類されたクラスを示すクラスコー
ド、ダイナミックレンジ、および動きベクトル検出部2
から供給された動きベクトルを基に、画像信号のデー
タ、上位階層特徴量のデータ、および下位階層特徴量の
データからなる予測タップを抽出する。
In step S205, the coefficient calculation unit 2
Reference numeral 02 extracts a prediction tap composed of image signal data, upper layer feature amount data, and lower layer feature amount data, based on the classified classes and the motion vector supplied from the motion vector detection unit 2. . For example, in FIG.
Prediction tap extraction unit 72-1 of coefficient calculation unit 202 shown in FIG.
To 72-3 are a class code indicating a classified class, a dynamic range, and a motion vector detection unit 2
A prediction tap composed of image signal data, upper layer feature amount data, and lower layer feature amount data is extracted based on the motion vector supplied from.

【0320】ステップS206において、係数算出部2
02は、抽出された予測タップ、および入力されたコン
ポーネントビデオ信号を基に、コンポーネントビデオ信
号を予測するための予測係数を算出し、処理は終了す
る。例えば、図32に示す係数算出部202の予測係数
演算部部221−1乃至221−3は、予測タップおよ
びコンポーネントビデオ信号を基に、それぞれ、Y信
号、U信号、またはV信号を予測するための予測係数を
算出する。
In step S206, the coefficient calculation unit 2
02 calculates a prediction coefficient for predicting the component video signal based on the extracted prediction tap and the input component video signal, and the process ends. For example, the prediction coefficient calculation units 221-1 to 221-3 of the coefficient calculation unit 202 illustrated in FIG. 32 predict the Y signal, the U signal, or the V signal based on the prediction tap and the component video signal, respectively. Calculate the prediction coefficient of.

【0321】このように、本発明に係る画像処理装置
は、コンポジットビデオ信号を基に、コンポーネントビ
デオ信号を予測するための予測係数を算出することがで
きる。
As described above, the image processing apparatus according to the present invention can calculate the prediction coefficient for predicting the component video signal based on the composite video signal.

【0322】図38は、図18に構成を示す下位階層動
きベクトル検出部26において、下位階層ベクトルの演
算の処理に使用される予測係数を生成する画像処理装置
の構成を示すブロック図である。
FIG. 38 is a block diagram showing a structure of an image processing apparatus for generating a prediction coefficient used in a process of calculating a lower layer vector in the lower layer motion vector detecting unit 26 having the structure shown in FIG.

【0323】NTSCデコーダ301は、入力された、NTSC
方式のコンポジットビデオ信号である画像信号を基に、
画像信号に対応する、デジタルデータである画像信号を
生成すると共に、デジタルデータである画像信号に対応
するサブキャリア位相情報を生成する。NTSCデコーダ3
01は、生成したデジタルデータである画像信号および
サブキャリア位相情報を画像メモリ302に供給する。
The NTSC decoder 301 receives the input NTSC
Based on the image signal which is the composite video signal of the system,
An image signal which is digital data corresponding to the image signal is generated, and subcarrier phase information corresponding to the image signal which is digital data is generated. NTSC decoder 3
01 supplies the generated image data, which is digital data, and subcarrier phase information to the image memory 302.

【0324】画像メモリ302は、NTSCデコーダ301
から供給された画像信号およびサブキャリア位相情報を
記憶し、記憶している画像信号およびサブキャリア位相
情報を係数生成部303に供給する。
The image memory 302 is the NTSC decoder 301.
The image signal and the subcarrier phase information supplied from are stored, and the stored image signal and subcarrier phase information are supplied to the coefficient generation unit 303.

【0325】係数生成部303は、画像処理装置の外部
から供給されるパラメータA、および画像メモリ302
から供給されたサブキャリア位相情報を基に、画像メモ
リ302から供給された画像信号と動きベクトルに対応
する係数セットを生成し、生成した係数セットを出力す
る。係数セットは、各クラスに対応する、所定の数の予
測係数からなる。
The coefficient generator 303 is provided with a parameter A supplied from outside the image processing apparatus and the image memory 302.
A coefficient set corresponding to the image signal and the motion vector supplied from the image memory 302 is generated based on the subcarrier phase information supplied from, and the generated coefficient set is output. The coefficient set is composed of a predetermined number of prediction coefficients corresponding to each class.

【0326】パラメータAは、係数生成部303におけ
る処理の内容を指定するパラメータであり、例えば、相
関の算出方式、マッチングをとるブロックの大きさ、ま
たは探索領域の大きさなどを指定する。
The parameter A is a parameter for designating the content of the processing in the coefficient generator 303, and designates, for example, the correlation calculation method, the size of the block to be matched, the size of the search area, or the like.

【0327】図39は、係数生成部303の構成を示す
ブロック図である。図3に示す動きベクトル検出部2と
同様の部分には同一の番号を付してあり、その説明は省
略する。
FIG. 39 is a block diagram showing the structure of the coefficient generator 303. The same parts as those of the motion vector detecting unit 2 shown in FIG. 3 are designated by the same reference numerals, and the description thereof will be omitted.

【0328】学習部321は、動きベクトル、特徴量変
換部24から供給された下位階層特徴量およびサブキャ
リア位相情報、並びに上位階層動きベクトル検出部25
から供給された上位階層ベクトルを基に、動きベクトル
を算出するための係数セットを算出し、算出した係数セ
ットを出力する。
The learning unit 321 includes the motion vector, the lower layer feature amount and subcarrier phase information supplied from the feature amount conversion unit 24, and the upper layer motion vector detection unit 25.
A coefficient set for calculating a motion vector is calculated based on the higher-layer vector supplied from, and the calculated coefficient set is output.

【0329】図40は、学習部321の構成を示すブロ
ック図である。
FIG. 40 is a block diagram showing the structure of the learning section 321.

【0330】クラス分類部351は、サブキャリア位相
情報、および下位階層特徴量を基に、クラス分類し、分
類されたクラスを示すクラスコードを予測タップ抽出部
352に供給する。
The class classification unit 351 classifies the class based on the subcarrier phase information and the lower layer feature amount, and supplies a class code indicating the classified class to the prediction tap extraction unit 352.

【0331】予測タップ抽出部352は、クラスコード
で示されるクラス、メモリ354から供給される、前の
フィールドに対応する予測動きベクトル、および上位階
層ベクトルを基に、所定の下位階層特徴量を抽出して、
抽出した下位階層特徴量を予測タップとして係数算出部
353に供給する。
The prediction tap extraction unit 352 extracts a predetermined lower layer feature amount based on the class indicated by the class code, the motion vector predictor corresponding to the previous field supplied from the memory 354, and the upper layer vector. do it,
The extracted lower layer feature amount is supplied to the coefficient calculation unit 353 as a prediction tap.

【0332】係数算出部353は、予測タップ抽出部3
52から供給された、下位階層特徴量の所定のデータか
らなる予測タップを基に、予測係数および予測動きベク
トルを算出する。係数算出部353は、算出した係数を
予測係数メモリ355に供給すると共に、算出した予測
動きベクトルをメモリ354に供給する。
The coefficient calculation unit 353 is the prediction tap extraction unit 3
The prediction coefficient and the motion vector predictor are calculated based on the prediction tap that is supplied from 52 and that is composed of predetermined data of the lower layer feature amount. The coefficient calculation unit 353 supplies the calculated coefficient to the prediction coefficient memory 355 and the calculated motion vector predictor to the memory 354.

【0333】メモリ354は、係数算出部353から供
給された予測動きベクトルを記憶し、記憶している予測
動きベクトルを予測タップ抽出部352に供給する。す
なわち、予測タップ抽出部352には、1つ前のフィー
ルドに対応する予測動きベクトルが供給される。
The memory 354 stores the predicted motion vector supplied from the coefficient calculation unit 353, and supplies the stored predicted motion vector to the prediction tap extraction unit 352. That is, the prediction tap extraction unit 352 is supplied with the prediction motion vector corresponding to the immediately preceding field.

【0334】予測係数メモリ355は、係数算出部35
3から供給された予測係数を記憶し、記憶している予測
係数を係数セットとして出力する。
The prediction coefficient memory 355 is composed of the coefficient calculation unit 35.
The prediction coefficient supplied from No. 3 is stored, and the stored prediction coefficient is output as a coefficient set.

【0335】次に、図41のフローチャートを参照し
て、下位階層ベクトルの演算の処理に使用される予測係
数を生成する、画像処理装置の学習の処理を説明する。
Next, with reference to the flowchart in FIG. 41, the learning process of the image processing apparatus for generating the prediction coefficient used in the process of calculating the lower hierarchy vector will be described.

【0336】ステップS301において、係数生成部3
03は、NTSCデコーダ1を介して、NTSCデコーダ1から
供給されたサブキャリア位相情報を基に、注目データの
サブキャリアの位相を取得する。
In step S301, the coefficient generator 3
03 obtains the phase of the subcarrier of the data of interest based on the subcarrier phase information supplied from the NTSC decoder 1 via the NTSC decoder 1.

【0337】ステップS302において、係数生成部3
03の特徴量変換部23は、上位階層の特徴量を算出
し、算出された特徴量を上位階層特徴量として出力す
る。
At step S302, the coefficient generator 3
The feature amount conversion unit 23 of 03 calculates the feature amount of the upper layer and outputs the calculated feature amount as the upper layer feature amount.

【0338】ステップS303において、係数生成部3
03の上位階層動きベクトル検出部25は、特徴量変換
部23から供給された上位階層特徴量を基に、上位階層
ベクトルを検出する。ステップS303の処理の詳細
は、図28のフローチャートを参照して説明した処理と
同様なのでその説明は省略する。
At step S303, the coefficient generator 3
The upper layer motion vector detection unit 25 of 03 detects the upper layer vector based on the upper layer feature amount supplied from the feature amount conversion unit 23. The details of the process of step S303 are the same as the processes described with reference to the flowchart of FIG. 28, and thus description thereof will be omitted.

【0339】ステップS304において、係数生成部3
03の特徴量変換部24は、下位階層の特徴量を算出
し、算出された特徴量を下位階層特徴量として出力す
る。
In step S304, the coefficient generator 3
The feature quantity conversion unit 24 of 03 calculates the feature quantity of the lower hierarchy and outputs the calculated feature quantity as the lower hierarchy feature quantity.

【0340】ステップS305において、学習部321
は、動きベクトル、特徴量変換部24から供給された下
位階層特徴量、および上位階層動きベクトル検出部25
から供給された上位階層ベクトルを基に、係数セットを
算出して、処理は終了する。
At step S305, the learning section 321.
Is the motion vector, the lower layer feature amount supplied from the feature amount conversion unit 24, and the upper layer motion vector detection unit 25.
A coefficient set is calculated based on the upper layer vector supplied from the above, and the process ends.

【0341】図42は、ステップS305の処理に対応
する、学習部321による、係数セットの算出の処理の
詳細を説明するフローチャートである。
FIG. 42 is a flow chart for explaining the details of the coefficient set calculation process by the learning unit 321 corresponding to the process of step S305.

【0342】ステップS321において、クラス分類部
351は、サブキャリア位相情報および下位階層特徴量
を基に、注目データに対応し、クラス分類する。
In step S321, the class classification unit 351 classifies the class corresponding to the data of interest based on the subcarrier phase information and the lower layer feature amount.

【0343】ステップS322において、予測タップ抽
出部352は、分類されたクラス、メモリ354から供
給された、前のフィールドに対応する予測動きベクト
ル、および上位階層ベクトルに対応する、所定の数の、
所定の下位階層特徴量である予測タップを抽出する。
In step S322, the prediction tap extracting unit 352 determines that a predetermined number of classified classes corresponding to the predicted motion vector corresponding to the previous field and the upper layer vector supplied from the memory 354 are stored.
A prediction tap that is a predetermined lower layer feature amount is extracted.

【0344】ステップS323において、係数算出部3
53は、予測タップ抽出部352から供給された予測タ
ップ、および外部から供給された動きベクトルを基に、
係数を算出する。係数算出部353は、算出した係数を
予測係数メモリ355に供給する。
In step S323, the coefficient calculation unit 3
53 is a prediction tap supplied from the prediction tap extraction unit 352, and a motion vector supplied from the outside,
Calculate the coefficient. The coefficient calculation unit 353 supplies the calculated coefficient to the prediction coefficient memory 355.

【0345】ステップS324において、予測係数メモ
リ355は、係数を記憶して、処理は終了する。
In step S324, the prediction coefficient memory 355 stores the coefficient, and the process ends.

【0346】このように、図38に構成を示す画像処理
装置は、下位階層ベクトルの演算の処理に使用される予
測係数を生成することができる。
As described above, the image processing device having the configuration shown in FIG. 38 can generate the prediction coefficient used in the process of calculating the lower hierarchy vector.

【0347】なお、以上の説明においてデジタルデータ
である画像信号は、Y信号、I信号、またはQ信号に対
応する信号であると説明したが、Y信号、I信号、また
はQ信号からなる信号に限定されず、Y信号、U信号、
およびV信号、Y信号、Pb信号、およびPr信号、ま
たはY信号、Cb信号、およびCr信号などの他の方式
の画像信号であってもよい。
In the above description, the image signal which is digital data has been described as a signal corresponding to the Y signal, the I signal or the Q signal, but it may be a signal including the Y signal, the I signal or the Q signal. Without limitation, Y signal, U signal,
And other types of image signals such as V signal, Y signal, Pb signal, and Pr signal, or Y signal, Cb signal, and Cr signal.

【0348】また、生成されるコンポーネントビデオ信
号は、Y信号、U信号、およびV信号であると説明した
が、Y信号、U信号、およびV信号に限らず、Y信号、
Pb信号、およびPr信号、またはY信号、Cb信号、
およびCr信号などの他の方式の画像信号であってもよ
い。
Also, although the component video signals generated are described as being Y signals, U signals, and V signals, they are not limited to Y signals, U signals, and V signals, and Y signals,
Pb signal and Pr signal, or Y signal, Cb signal,
It may be an image signal of another system such as a Cr signal and a Cr signal.

【0349】なお、本発明に係る画像処理装置は、NTSC
方式のコンポジットビデオ信号である画像信号を基に、
コンポーネントビデオ信号を生成すると説明したが、NT
SC方式に限らず、PAL(Phase Alternation by Line)方式
などの他の方式のコンポジットビデオ信号を基に、コン
ポーネントビデオ信号を生成するようにしてもよい。
The image processing apparatus according to the present invention is an NTSC
Based on the image signal which is the composite video signal of the system,
I explained that it generates a component video signal, but NT
The component video signal may be generated based on a composite video signal of another system such as the PAL (Phase Alternation by Line) system as well as the SC system.

【0350】また、本発明に係る画像処理装置は、注目
している注目フィールドと、注目フィールドの次のフィ
ールドとの動きベクトルを検出すると説明したが、注目
している注目フィールドと、注目フィールドの前のフィ
ールドとの動きベクトルを検出するようにしてもよい。
Although it has been described that the image processing apparatus according to the present invention detects the motion vector of the attention field of interest and the field next to the attention field, the attention field of attention and the attention field of The motion vector with respect to the previous field may be detected.

【0351】なお、本発明に係る画像処理装置は、フィ
ールドを単位とし動きベクトルを検出すると説明した
が、フレームを単位として動きベクトルを検出するよう
にしてもよい。
Although it has been described that the image processing apparatus according to the present invention detects a motion vector in units of fields, it may be possible to detect motion vectors in units of frames.

【0352】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウェアに組み込まれているコン
ピュータ、または、各種のプログラムをインストールす
ることで、各種の機能を実行することが可能な、例えば
汎用のパーソナルコンピュータなどに、記録媒体からイ
ンストールされる。
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processes is executed by software, a program that constitutes the software can execute various functions by installing a computer in which dedicated hardware is installed or various programs. It is installed from a recording medium into a possible personal computer such as a general-purpose computer.

【0353】図43は、記録媒体およびコンピュータの
例を説明する図である。CPU(Central Processing Uni
t)501は、各種アプリケーションプログラムや、OS
(Operating System)を実際に実行する。ROM(Read-onl
y Memory)502は、一般的には、CPU501が使用す
るプログラムや演算用のパラメータのうちの基本的に固
定のデータを格納する。RAM(Random-Access Memory)
503は、CPU501の実行において使用するプログラ
ムや、その実行において適宜変化するパラメータを格納
する。これらはCPUバスなどから構成されるホストバス
504により相互に接続されている。
FIG. 43 is a diagram illustrating an example of a recording medium and a computer. CPU (Central Processing Uni
t) 501 is various application programs and OS
(Operating System) is actually executed. ROM (Read-onl
The y Memory) 502 generally stores basically fixed data of a program used by the CPU 501 and parameters for calculation. RAM (Random-Access Memory)
503 stores a program used in the execution of the CPU 501 and parameters that change appropriately in the execution. These are connected to each other by a host bus 504 including a CPU bus and the like.

【0354】ホストバス504は、ブリッジ505を介
して、PCI(Peripheral Component Interconnect/Interf
ace)バスなどの外部バス506に接続されている。
The host bus 504 is connected to the PCI (Peripheral Component Interconnect / Interf) via the bridge 505.
ace) bus or other external bus 506.

【0355】キーボード508は、CPU501に各種の
指令を入力するとき、使用者により操作される。マウス
509は、ディスプレイ510の画面上のポイントの指
示や選択を行うとき、使用者により操作される。ディス
プレイ510は、液晶表示装置またはCRT(Cathode Ray
Tube)などから成り、各種情報をテキストやイメージ
で表示する。HDD(Hard Disk Drive)511は、ハード
ディスクを駆動し、それらにCPU501によって実行す
るプログラムや情報を記録または再生させる。
The keyboard 508 is operated by the user when inputting various commands to the CPU 501. The mouse 509 is operated by the user when pointing or selecting points on the screen of the display 510. The display 510 is a liquid crystal display device or a CRT (Cathode Ray).
Tube), etc., and displays various information as text and images. An HDD (Hard Disk Drive) 511 drives hard disks and causes them to record or reproduce programs and information executed by the CPU 501.

【0356】ドライブ512は、装着されている磁気デ
ィスク551、光ディスク552、光磁気ディスク55
3、または半導体メモリ554に記録されているデータ
またはプログラムを読み出して、そのデータまたはプロ
グラムを、インターフェース507、外部バス506、
ブリッジ505、およびホストバス504を介して接続
されているRAM503に供給する。
The drive 512 is mounted on the magnetic disk 551, the optical disk 552, and the magneto-optical disk 55.
3 or the data or program recorded in the semiconductor memory 554 is read, and the data or program is read by the interface 507, the external bus 506,
The RAM 503 connected via the bridge 505 and the host bus 504 is supplied.

【0357】これらのキーボード508乃至ドライブ5
12は、インターフェース507に接続されており、イ
ンターフェース507は、外部バス506、ブリッジ5
05、およびホストバス504を介してCPU501に接
続されている。
These keyboard 508 to drive 5
12 is connected to the interface 507, and the interface 507 includes the external bus 506 and the bridge 5.
05, and the host bus 504 to the CPU 501.

【0358】ビデオインターフェース513は、供給さ
れた画像信号を取得し、外部バス506、ブリッジ50
5、およびホストバス504を介して、取得した画像信
号をRAM503またはCPU501に供給する。ビデオイン
ターフェース513は、予測したコンポーネントビデオ
信号を出力する。
The video interface 513 acquires the supplied image signal, and the external bus 506 and bridge 50
5, and the acquired image signal is supplied to the RAM 503 or the CPU 501 via the host bus 504. The video interface 513 outputs the predicted component video signal.

【0359】記録媒体は、図43に示すように、コンピ
ュータとは別に、ユーザにブロック図に対応する処理を
実行するプログラムを提供するために配布される、プロ
グラムが記録されている磁気ディスク551(フロッピ
ディスク(登録商標)を含む)、光ディスク552(CD
-ROM(Compact Disc-Read Only Memory)、DVD(Digita
l Versatile Disc)を含む)、光磁気ディスク553
(MD(Mini-Disc)(商標)を含む)、若しくは半導体
メモリ554などよりなるリムーバブルメディアにより
構成されるだけでなく、コンピュータに予め組み込まれ
た状態でユーザに提供される、プログラムが記録されて
いるROM502や、HDD511などで構成される。
As shown in FIG. 43, the recording medium is a magnetic disk 551 (on which a program is recorded, which is distributed in order to provide a user with a program for executing the processing corresponding to the block diagram, separately from the computer. Floppy disk (including registered trademark), optical disk 552 (CD
-ROM (Compact Disc-Read Only Memory), DVD (Digita
(including Versatile Disc)), magneto-optical disc 553
In addition to being configured by a removable medium (including MD (Mini-Disc) (trademark)) or a semiconductor memory 554, a program provided to a user in a state where the computer is pre-installed is recorded. The ROM 502 and the HDD 511 are included.

【0360】なお、ユーザにブロック図に対応する処理
を実行するプログラムは、有線または無線の通信媒体を
介して、コンピュータに供給されるようにしてもよい。
The program for executing the process corresponding to the block diagram for the user may be supplied to the computer via a wired or wireless communication medium.

【0361】また、本明細書において、記録媒体に格納
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
Further, in the present specification, the steps for writing the program stored in the recording medium are not limited to the processing performed in time series according to the described order, but are not necessarily performed in time series. It also includes processing executed in parallel or individually.

【0362】[0362]

【発明の効果】本発明の第1の画像処理装置および方
法、記録媒体、並びにプログラムによれば、注目点およ
び注目点の周辺のコンポジットビデオ信号から求まる特
徴量、およびコンポジットビデオ信号の位相情報を基
に、動きベクトルが検出され、コンポジットビデオ信
号、注目点および注目点の周辺のコンポジットビデオ信
号から求まる特徴量、コンポジットビデオ信号の位相情
報、および検出された動きベクトルのうちの少なくとも
1つを基に、注目点のコンポジットビデオ信号が複数の
クラスのうちの1つのクラスに分類され、分類されたク
ラスに対応し、コンポジットビデオ信号および特徴量の
少なくとも一方を含む予測タップが抽出され、予測係数
および抽出された予測タップを基に、注目点のコンポジ
ットビデオ信号に対応するコンポーネントビデオ信号が
生成されるようにしたので、動きベクトルを考慮して、
コンポジットビデオ信号から、より精度良く、コンポー
ネントビデオ信号を生成できるようになる。
According to the first image processing apparatus and method, the recording medium, and the program of the present invention, the feature amount obtained from the point of interest and the composite video signal around the point of interest and the phase information of the composite video signal are obtained. Based on at least one of the composite video signal, the feature amount obtained from the attention point and the composite video signal around the attention point, the phase information of the composite video signal, and the detected motion vector. , The composite video signal of interest is classified into one of a plurality of classes, a prediction tap corresponding to the classified class and including at least one of the composite video signal and the feature amount is extracted, and the prediction coefficient and Based on the extracted prediction taps, the composite video signal of the point of interest is supported. Since such a component video signal is generated, taking into account the motion vector,
It becomes possible to generate a component video signal from a composite video signal with higher accuracy.

【0363】本発明の第2の画像処理装置および方法、
記録媒体、並びにプログラムによれば、注目点および注
目点の周辺のコンポジットビデオ信号から求まる特徴
量、およびコンポジットビデオ信号の位相情報を基に、
動きベクトルが検出され、コンポジットビデオ信号、注
目点および注目点の周辺のコンポジットビデオ信号から
求まる特徴量、コンポジットビデオ信号の位相情報、お
よび検出された動きベクトルのうちの少なくとも1つを
基に、注目点のコンポジットビデオ信号が複数のクラス
のうちの1つのクラスに分類され、分類されたクラスに
対応し、コンポジットビデオ信号および特徴量の少なく
とも一方を含む予測タップが抽出され、コンポーネント
ビデオ信号、および抽出された予測タップを基に、係数
が演算されるようにしたので、係数を利用することによ
り、動きベクトルを考慮して、コンポジットビデオ信号
から、より精度良く、コンポーネントビデオ信号を生成
できるようになる。
A second image processing apparatus and method of the present invention;
According to the recording medium and the program, based on the feature amount obtained from the attention point and the composite video signal around the attention point, and the phase information of the composite video signal,
A motion vector is detected, and based on at least one of the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected motion vector, A point composite video signal is classified into one of a plurality of classes, a prediction tap corresponding to the classified class and including at least one of the composite video signal and a feature is extracted, a component video signal, and an extraction Since the coefficient is calculated based on the predicted tap, the coefficient can be used to generate the component video signal from the composite video signal more accurately in consideration of the motion vector. .

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理装置の実施の形態の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention.

【図2】画像信号およびサブキャリア位相情報を説明す
る図である。
FIG. 2 is a diagram illustrating image signal and subcarrier phase information.

【図3】動きベクトル検出部2の構成を示すブロック図
である。
FIG. 3 is a block diagram showing a configuration of a motion vector detection unit 2.

【図4】上位階層動きベクトル検出部25の構成を示す
ブロック図である。
FIG. 4 is a block diagram showing a configuration of a higher layer motion vector detection unit 25.

【図5】下位階層動きベクトル検出部26の構成を示す
ブロック図である。
5 is a block diagram showing a configuration of a lower layer motion vector detection unit 26. FIG.

【図6】上位階層特徴量、下位階層特徴量、およびサー
チ領域の例を示す図である。
FIG. 6 is a diagram showing an example of an upper layer characteristic amount, a lower layer characteristic amount, and a search area.

【図7】上位階層特徴量のブロックを説明する図であ
る。
[Fig. 7] Fig. 7 is a diagram illustrating a block of a higher-level feature amount.

【図8】下位階層特徴量の算出を説明する図である。FIG. 8 is a diagram illustrating calculation of a lower layer feature amount.

【図9】下位階層動きベクトル検出部26がサーチする
領域およびブロックの例を示す図である。
FIG. 9 is a diagram showing an example of areas and blocks searched by a lower hierarchical motion vector detecting unit 26.

【図10】上位階層特徴量の他のブロックの例を示す図
である。
FIG. 10 is a diagram showing an example of another block of a higher layer feature amount.

【図11】上位階層特徴量の他の例を示す図である。FIG. 11 is a diagram showing another example of upper layer feature values.

【図12】上位階層特徴量の他の例を示す図である。FIG. 12 is a diagram showing another example of upper layer feature values.

【図13】下位階層特徴量の他の例を示す図である。FIG. 13 is a diagram showing another example of lower layer feature amounts.

【図14】下位階層特徴量の他の例を示す図である。FIG. 14 is a diagram showing another example of lower layer feature amounts.

【図15】下位階層特徴量の他の例を示す図である。FIG. 15 is a diagram showing another example of lower layer feature amounts.

【図16】下位階層特徴量の他の例を示す図である。FIG. 16 is a diagram showing another example of lower layer feature amounts.

【図17】下位階層特徴量の他の例を示す図である。FIG. 17 is a diagram showing another example of lower layer feature amounts.

【図18】下位階層動きベクトル検出部26の他の構成
を示すブロック図である。
FIG. 18 is a block diagram showing another configuration of the lower layer motion vector detection unit 26.

【図19】演算部4の構成を示すブロック図である。FIG. 19 is a block diagram showing a configuration of a calculation unit 4.

【図20】上位階層特徴量に対応するクラスタップおよ
び予測タップの例を説明する図である。
FIG. 20 is a diagram illustrating an example of a class tap and a prediction tap corresponding to a higher layer feature amount.

【図21】下位階層特徴量に対応するクラスタップおよ
び予測タップの例を説明する図である。
FIG. 21 is a diagram illustrating an example of class taps and prediction taps corresponding to lower layer feature amounts.

【図22】演算部4の他の構成を示すブロック図であ
る。
FIG. 22 is a block diagram showing another configuration of the arithmetic unit 4.

【図23】演算部4の他の構成を示すブロック図であ
る。
FIG. 23 is a block diagram showing another configuration of the arithmetic unit 4.

【図24】演算部4の他の構成を示すブロック図であ
る。
FIG. 24 is a block diagram showing another configuration of the arithmetic unit 4.

【図25】本発明に係る画像処理装置の実施の形態の構
成の一例の詳細を示すブロック図である。
FIG. 25 is a block diagram showing details of an example of the configuration of the embodiment of the image processing apparatus according to the present invention.

【図26】コンポーネントビデオ信号の生成の処理を説
明するフローチャートである。
FIG. 26 is a flowchart illustrating a process of generating a component video signal.

【図27】動きベクトルの検出の処理を説明するフロー
チャートである。
FIG. 27 is a flowchart illustrating a process of detecting a motion vector.

【図28】上位階層ベクトルの検出の処理の詳細を説明
するフローチャートである。
[Fig. 28] Fig. 28 is a flowchart illustrating details of processing for detecting an upper layer vector.

【図29】下位階層ベクトルの検出の処理の詳細を説明
するフローチャートである。
[Fig. 29] Fig. 29 is a flowchart illustrating details of a process of detecting a lower layer vector.

【図30】下位階層ベクトルの検出の他の処理の詳細を
説明するフローチャートである。
FIG. 30 is a flowchart illustrating details of another process of detecting a lower layer vector.

【図31】予測係数を生成する、本発明に係る画像処理
装置の実施の形態の構成を示すブロック図である。
FIG. 31 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention that generates prediction coefficients.

【図32】係数算出部202の構成を示すブロック図で
ある。
FIG. 32 is a block diagram showing the configuration of a coefficient calculation unit 202.

【図33】係数算出部202の他の構成を示すブロック
図である。
FIG. 33 is a block diagram showing another configuration of the coefficient calculation unit 202.

【図34】係数算出部202の他の構成を示すブロック
図である。
FIG. 34 is a block diagram showing another configuration of the coefficient calculation unit 202.

【図35】係数算出部202の他の構成を示すブロック
図である。
FIG. 35 is a block diagram showing another configuration of the coefficient calculation unit 202.

【図36】予測係数を算出する画像処理装置の実施の形
態の構成の一例の詳細を示すブロック図である。
FIG. 36 is a block diagram illustrating details of an example of a configuration of an embodiment of an image processing apparatus that calculates a prediction coefficient.

【図37】予測係数を算出する学習の処理を説明するフ
ローチャートである。
FIG. 37 is a flowchart illustrating a learning process for calculating a prediction coefficient.

【図38】下位階層ベクトルの演算の処理に使用される
予測係数を生成する画像処理装置の構成を示すブロック
図である。
[Fig. 38] Fig. 38 is a block diagram illustrating a configuration of an image processing device that generates a prediction coefficient used in a process of calculating a lower layer vector.

【図39】係数生成部303の構成を示すブロック図で
ある。
FIG. 39 is a block diagram showing a configuration of a coefficient generation unit 303.

【図40】学習部321の構成を示すブロック図であ
る。
FIG. 40 is a block diagram showing a configuration of a learning unit 321.

【図41】画像処理装置の学習の処理を説明するフロー
チャートである。
FIG. 41 is a flowchart illustrating a learning process of the image processing device.

【図42】係数セットの算出の処理の詳細を説明するフ
ローチャートである。
FIG. 42 is a flowchart illustrating the details of the coefficient set calculation process.

【図43】記録媒体およびコンピュータの例を説明する
図である。
FIG. 43 is a diagram illustrating an example of a recording medium and a computer.

【符号の説明】[Explanation of symbols]

1 NTSCデコーダ, 2 動きベクトル検出部, 3
クラスタップ抽出部,4 演算部, 23 特徴量変換
部, 24 特徴量変換部, 25 上位階層動きベク
トル検出部, 26 下位階層動きベクトル検出部,
31 ベクトル生成部, 32 相関値算出部, 33
判定部, 41 ベクトル生成部,42 相関値算出
部, 43 判定部, 51 クラス分類部, 52
予測タップ抽出部, 53 演算部, 54 予測係数
メモリ, 55 メモリ,71−1乃至71−3 クラ
ス分類部, 72−1乃至72−3 予測タップ抽出
部, 73−1乃至73−3 係数メモリ, 74−1
乃至74−3 予測演算部, 81 セレクタ, 82
予測タップ抽出部, 83 予測演算部,91 クラ
ス分類部, 101 セレクタ, 201 NTSCエンコ
ーダ, 202 係数算出部, 203 係数メモリ,
211−1乃至211−3 予測係数算出部, 23
1 セレクタ, 232 予測係数算出部, 303
係数生成部, 321 学習部, 351 クラス分類
部, 352 予測タップ抽出部, 353 係数算出
部, 354 メモリ, 355 予測係数メモリ,5
01 CPU, 502 ROM, 503 RAM,
511 HDD, 551 磁気ディスク, 552
光ディスク, 553 光磁気ディスク, 554 半
導体メモリ
1 NTSC decoder, 2 motion vector detector, 3
Class tap extraction unit, 4 calculation unit, 23 feature amount conversion unit, 24 feature amount conversion unit, 25 upper layer motion vector detection unit, 26 lower layer motion vector detection unit,
31 vector generation unit, 32 correlation value calculation unit, 33
Determination unit, 41 vector generation unit, 42 correlation value calculation unit, 43 determination unit, 51 class classification unit, 52
Prediction tap extraction unit, 53 calculation unit, 54 prediction coefficient memory, 55 memory, 71-1 to 71-3 class classification unit, 72-1 to 72-3 prediction tap extraction unit, 73-1 to 73-3 coefficient memory, 74-1
To 74-3 prediction calculation unit, 81 selector, 82
Prediction tap extraction unit, 83 prediction calculation unit, 91 class classification unit, 101 selector, 201 NTSC encoder, 202 coefficient calculation unit, 203 coefficient memory,
211-1 to 211-3 Prediction coefficient calculator, 23
1 selector, 232 prediction coefficient calculation unit, 303
Coefficient generation unit, 321 learning unit, 351 class classification unit, 352 prediction tap extraction unit, 353 coefficient calculation unit, 354 memory, 355 prediction coefficient memory, 5
01 CPU, 502 ROM, 503 RAM,
511 HDD, 551 magnetic disk, 552
Optical disk, 553 Magneto-optical disk, 554 Semiconductor memory

フロントページの続き Fターム(参考) 5B056 BB23 BB33 BB36 BB71 HH03 5C057 AA06 AA13 DB06 EA02 EA03 EA05 EA06 EA07 ED07 EG08 EG10 GC04 5C066 AA03 AA13 CA09 DB07 DC01 DD01 GA02 GA04 GA05 KC05 KD06 KG02 Continued front page    F-term (reference) 5B056 BB23 BB33 BB36 BB71 HH03                 5C057 AA06 AA13 DB06 EA02 EA03                       EA05 EA06 EA07 ED07 EG08                       EG10 GC04                 5C066 AA03 AA13 CA09 DB07 DC01                       DD01 GA02 GA04 GA05 KC05                       KD06 KG02

Claims (26)

【特許請求の範囲】[Claims] 【請求項1】 コンポジットビデオ信号を基に、コンポ
ーネントビデオ信号を生成する画像処理装置において、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる第1の特徴量、および前記コンポジッ
トビデオ信号の位相情報を基に、動きベクトルを検出す
る検出手段と、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記第1の特徴量、前記コンポジットビデオ信号の前記位
相情報、および検出された前記動きベクトルのうちの少
なくとも1つを基に、前記注目点の前記コンポジットビ
デオ信号を複数のクラスのうちの1つのクラスに分類す
るクラス分類手段と、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記第1の特徴量の少なくとも一方を含む予測
タップを抽出する抽出手段と、 予測係数および抽出された前記予測タップを基に、前記
注目点の前記コンポジットビデオ信号に対応する前記コ
ンポーネントビデオ信号を生成する生成手段とを含むこ
とを特徴とする画像処理装置。
1. An image processing device for generating a component video signal based on a composite video signal, comprising: a first characteristic amount obtained from a point of interest and the composite video signal around the point of interest; Detecting means for detecting a motion vector based on phase information; the composite video signal, the first feature amount obtained from the attention point and the composite video signal around the attention point, and the phase of the composite video signal Class classification means for classifying the composite video signal at the point of interest into one of a plurality of classes based on information and at least one of the detected motion vectors; Correspondingly, the composite video signal and the first feature amount are less And extraction means for extracting a prediction tap including one of the two, and generation means for generating the component video signal corresponding to the composite video signal at the point of interest based on a prediction coefficient and the extracted prediction tap. An image processing device characterized by:
【請求項2】 前記抽出手段は、さらに、前記コンポジ
ットビデオ信号のダイナミックレンジ、または前記コン
ポジットビデオ信号に対応する前記第1の特徴量のダイ
ナミックレンジを基に、前記予測タップを抽出すること
を特徴とする請求項1に記載の画像処理装置。
2. The extracting means further extracts the prediction tap based on a dynamic range of the composite video signal or a dynamic range of the first feature amount corresponding to the composite video signal. The image processing apparatus according to claim 1.
【請求項3】 前記クラス分類手段は、前記コンポーネ
ントビデオ信号を構成する輝度信号または色信号に対応
して、個々に、前記注目点の前記コンポジットビデオ信
号を複数のクラスのうちの1つのクラスに分類すること
を特徴とする請求項1に記載の画像処理装置。
3. The class classification means individually assigns the composite video signal of the attention point to one of a plurality of classes corresponding to a luminance signal or a chrominance signal forming the component video signal. The image processing apparatus according to claim 1, wherein the image processing apparatus is classified.
【請求項4】 前記抽出手段は、前記コンポーネントビ
デオ信号を構成する輝度信号または色信号に対応して、
個々に前記予測タップを抽出することを特徴とする請求
項1に記載の画像処理装置。
4. The extracting means corresponds to a luminance signal or a chrominance signal forming the component video signal,
The image processing apparatus according to claim 1, wherein the prediction taps are individually extracted.
【請求項5】 前記検出手段は、 前記コンポジットビデオ信号を基に、前記注目点におけ
る色信号の位相に対応し、第2の特徴量を生成する第1
の特徴量生成手段と、 前記第2の特徴量を基に、前記動きベクトルに近似する
第1のベクトルを検出する第1のベクトル検出手段と、 前記動きベクトルの検出の演算の対象となる対象点およ
び前記対象点の周辺の前記コンポジットビデオ信号を基
に、前記対象点に対応する第3の特徴量を生成する第2
の特徴量生成手段と、 前記第1のベクトルに対応する前記第3の特徴量の演算
により、第2のベクトルとして前記動きベクトルを検出
する第2のベクトル検出手段とを含むことを特徴とする
請求項1に記載の画像処理装置。
5. The first detecting means generates a second characteristic amount corresponding to the phase of the color signal at the point of interest based on the composite video signal.
Feature amount generating means, first vector detecting means for detecting a first vector that is approximate to the motion vector based on the second feature amount, and an object that is a calculation target of the motion vector. A second feature amount that generates a third feature amount corresponding to the target point based on the point and the composite video signal around the target point
And a second vector detecting unit for detecting the motion vector as a second vector by calculating the third characteristic amount corresponding to the first vector. The image processing apparatus according to claim 1.
【請求項6】 前記第1のベクトル検出手段は、前記注
目点の属する動画像の画面である注目画面の前記第2の
特徴量と、前記注目画面に隣接する前記動画像の画面で
ある隣接画面の前記第2の特徴量との相関を基に、前記
動きベクトルに近似する前記第1のベクトルを検出する
ことを特徴とする請求項5に記載の画像処理装置。
6. The first vector detecting means includes the second feature amount of a target screen which is a screen of a moving image to which the target point belongs, and an adjacency which is a screen of the moving image adjacent to the target screen. The image processing apparatus according to claim 5, wherein the first vector that is approximate to the motion vector is detected based on the correlation with the second feature amount on the screen.
【請求項7】 前記第2のベクトル検出手段は、前記注
目点の属する動画像の画面である注目画面における、前
記注目点を含む第1の範囲の前記第3の特徴量と、前記
注目画面に隣接する前記動画像の画面である隣接画面に
おける、前記第1のベクトルに対応する第2の範囲の前
記第3の特徴量との相関の演算により、前記第2のベク
トルとして前記動きベクトルを検出することを特徴とす
る請求項5に記載の画像処理装置。
7. The second vector detecting means, in the attention screen which is a screen of a moving image to which the attention point belongs, the third feature amount in the first range including the attention point, and the attention screen. By calculating the correlation with the third feature amount of the second range corresponding to the first vector in the adjacent screen that is the screen of the moving image adjacent to the motion vector, the motion vector is set as the second vector. The image processing apparatus according to claim 5, wherein the image processing apparatus detects the image.
【請求項8】 前記第2のベクトル検出手段は、前記第
3の特徴量にクラス分類適応処理を適用し、前記第2の
ベクトルとして前記動きベクトルを検出することを特徴
とする請求項5に記載の画像処理装置。
8. The method according to claim 5, wherein the second vector detecting means applies a class classification adaptive process to the third feature quantity to detect the motion vector as the second vector. The image processing device described.
【請求項9】 前記第2のベクトル検出手段は、前記注
目点における前記色信号の位相を基に、前記注目点の前
記コンポジットビデオ信号をクラス分類することを特徴
とする請求項8に記載の画像処理装置。
9. The method according to claim 8, wherein the second vector detecting means classifies the composite video signal of the attention point based on the phase of the color signal at the attention point. Image processing device.
【請求項10】 前記第2のベクトル検出手段は、過去
に検出された前記第2のベクトルに対応する前記第3の
特徴量に適応処理を適用することを特徴とする請求項8
に記載の画像処理装置。
10. The second vector detecting means applies adaptive processing to the third feature quantity corresponding to the second vector detected in the past.
The image processing device according to item 1.
【請求項11】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を生成する画像処理方法におい
て、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる特徴量、および前記コンポジットビデ
オ信号の位相情報を基に、動きベクトルを検出する検出
ステップと、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記特徴量、前記コンポジットビデオ信号の前記位相情
報、および検出された前記動きベクトルのうちの少なく
とも1つを基に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記特徴量の少なくとも一方を含む予測タップ
を抽出する抽出ステップと、 予測係数および抽出された前記予測タップを基に、前記
注目点の前記コンポジットビデオ信号に対応する前記コ
ンポーネントビデオ信号を生成する生成ステップとを含
むことを特徴とする画像処理方法。
11. An image processing method for generating a component video signal based on a composite video signal, comprising: a feature amount obtained from the attention point and the composite video signal around the attention point; and phase information of the composite video signal. A detection step of detecting a motion vector, the composite video signal, the feature amount obtained from the point of interest and the composite video signal around the point of interest, the phase information of the composite video signal, and the detected A class classification step of classifying the composite video signal of the point of interest into one of a plurality of classes based on at least one of the motion vectors; and the composite video corresponding to the classified class. At least one of a signal and the feature amount And a generating step of generating the component video signal corresponding to the composite video signal of the point of interest based on a prediction coefficient and the extracted prediction tap. Image processing method.
【請求項12】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を生成する画像処理用のプログラ
ムであって、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる特徴量、および前記コンポジットビデ
オ信号の位相情報を基に、動きベクトルを検出する検出
ステップと、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記特徴量、前記コンポジットビデオ信号の前記位相情
報、および検出された前記動きベクトルのうちの少なく
とも1つを基に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記特徴量の少なくとも一方を含む予測タップ
を抽出する抽出ステップと、 予測係数および抽出された前記予測タップを基に、前記
注目点の前記コンポジットビデオ信号に対応する前記コ
ンポーネントビデオ信号を生成する生成ステップとを含
むことを特徴とするコンピュータが読み取り可能なプロ
グラムが記録されている記録媒体。
12. A program for image processing for generating a component video signal based on a composite video signal, the feature amount being obtained from a point of interest and the composite video signal around the point of interest, and the composite video signal. Based on the phase information of the detection step of detecting a motion vector, the composite video signal, the feature point obtained from the composite video signal around the point of interest and the point of interest, the phase information of the composite video signal, And a classifying step of classifying the composite video signal of the point of interest into one of a plurality of classes based on at least one of the detected motion vectors; , The composite video signal and the feature amount An extracting step of extracting a prediction tap including at least one; and a generating step of generating the component video signal corresponding to the composite video signal of the attention point based on a prediction coefficient and the extracted prediction tap A recording medium having a computer-readable program recorded thereon.
【請求項13】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を生成する画像処理装置を制御す
るコンピュータに、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる特徴量、および前記コンポジットビデ
オ信号の位相情報を基に、動きベクトルを検出する検出
ステップと、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記特徴量、前記コンポジットビデオ信号の前記位相情
報、および検出された前記動きベクトルのうちの少なく
とも1つを基に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記特徴量の少なくとも一方を含む予測タップ
を抽出する抽出ステップと、 予測係数および抽出された前記予測タップを基に、前記
注目点の前記コンポジットビデオ信号に対応する前記コ
ンポーネントビデオ信号を生成する生成ステップとを実
行させるプログラム。
13. A computer for controlling an image processing device which generates a component video signal based on a composite video signal, a feature amount obtained from the attention point and the composite video signal around the attention point, and the composite video signal. Based on the phase information of the detection step of detecting a motion vector, the composite video signal, the feature point obtained from the composite video signal around the point of interest and the point of interest, the phase information of the composite video signal, And a classifying step of classifying the composite video signal of the point of interest into one of a plurality of classes based on at least one of the detected motion vectors; , The composite video signal and the characteristic amount An extraction step of extracting a prediction tap including at least one of the following, and a generation step of generating the component video signal corresponding to the composite video signal of the attention point based on the prediction coefficient and the extracted prediction tap. Program to let.
【請求項14】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を予測する処理で使用される係数
を生成する画像処理装置において、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる第1の特徴量、および前記コンポジッ
トビデオ信号の位相情報を基に、動きベクトルを検出す
る検出手段と、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記第1の特徴量、前記コンポジットビデオ信号の前記位
相情報、および検出された前記動きベクトルのうちの少
なくとも1つを基に、前記注目点の前記コンポジットビ
デオ信号を複数のクラスのうちの1つのクラスに分類す
るクラス分類手段と、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記第1の特徴量の少なくとも一方を含む予測
タップを抽出する抽出手段と、 前記コンポーネントビデオ信号、および抽出された前記
予測タップを基に、前記係数を演算する演算手段とを含
むことを特徴とする画像処理装置。
14. An image processing apparatus for generating a coefficient used in a process of predicting a component video signal based on a composite video signal, the first point being obtained from a point of interest and the composite video signal around the point of interest. A detection unit that detects a motion vector based on a feature amount and phase information of the composite video signal, and the first feature obtained from the composite video signal, the point of interest, and the composite video signal around the point of interest. A class that classifies the composite video signal of the point of interest into one of a plurality of classes based on at least one of a quantity, the phase information of the composite video signal, and the detected motion vector. A classification means and a composite video signal corresponding to the classified class. No. and a prediction tap including at least one of the first feature quantity, and a calculation means for calculating the coefficient based on the component video signal and the extracted prediction tap. A characteristic image processing device.
【請求項15】 前記抽出手段は、さらに、前記コンポ
ジットビデオ信号のダイナミックレンジ、または前記コ
ンポジットビデオ信号に対応する前記第1の特徴量のダ
イナミックレンジを基に、前記予測タップを抽出するこ
とを特徴とする請求項14に記載の画像処理装置。
15. The extraction means further extracts the prediction tap based on a dynamic range of the composite video signal or a dynamic range of the first feature amount corresponding to the composite video signal. The image processing device according to claim 14.
【請求項16】 前記クラス分類手段は、前記コンポー
ネントビデオ信号を構成する輝度信号または色信号に対
応して、個々に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するこ
とを特徴とする請求項14に記載の画像処理装置。
16. The class classification means individually sets the composite video signal of the attention point to one of a plurality of classes corresponding to a luminance signal or a chrominance signal forming the component video signal. The image processing device according to claim 14, wherein the image processing device is classified.
【請求項17】 前記抽出手段は、前記コンポーネント
ビデオ信号を構成する輝度信号または色信号に対応し
て、個々に前記予測タップを抽出することを特徴とする
請求項14に記載の画像処理装置。
17. The image processing apparatus according to claim 14, wherein the extraction unit individually extracts the prediction taps corresponding to a luminance signal or a chrominance signal forming the component video signal.
【請求項18】 前記検出手段は、 前記コンポジットビデオ信号を基に、前記注目点におけ
る色信号の位相に対応し、第2の特徴量を生成する第1
の特徴量生成手段と、前記第2の特徴量を基に、前記動
きベクトルに近似する第1のベクトルを検出する第1の
ベクトル検出手段と、 前記動きベクトルの検出の演算の対象となる対象点およ
び前記対象点の周辺の前記コンポジットビデオ信号を基
に、前記対象点に対応する第3の特徴量を生成する第2
の特徴量生成手段と、 前記第1のベクトルに対応する前記第3の特徴量の演算
により、第2のベクトルとして前記動きベクトルを検出
する第2のベクトル検出手段とを含むことを特徴とする
請求項14に記載の画像処理装置。
18. The first detecting means generates a second characteristic amount corresponding to the phase of the color signal at the point of interest based on the composite video signal.
Feature amount generating means, first vector detecting means for detecting a first vector approximate to the motion vector based on the second feature amount, and an object to be a target of calculation of the motion vector detection. A second feature amount that generates a third feature amount corresponding to the target point based on the point and the composite video signal around the target point
And a second vector detecting unit for detecting the motion vector as a second vector by calculating the third characteristic amount corresponding to the first vector. The image processing apparatus according to claim 14.
【請求項19】 前記第1のベクトル検出手段は、前記
注目点の属する動画像の画面である注目画面の前記第2
の特徴量と、前記注目画面に隣接する前記動画像の画面
である隣接画面の前記第2の特徴量との相関を基に、前
記動きベクトルに近似する前記第1のベクトルを検出す
ることを特徴とする請求項18に記載の画像処理装置。
19. The second vector of the attention screen, which is a screen of a moving image to which the attention point belongs,
Detecting the first vector that is approximate to the motion vector on the basis of the correlation between the feature amount and the second feature amount of the adjacent screen that is the screen of the moving image adjacent to the target screen. The image processing apparatus according to claim 18, which is characterized in that:
【請求項20】 前記第2のベクトル検出手段は、前記
注目点の属する動画像の画面である注目画面における、
前記注目点を含む第1の範囲の前記第3の特徴量と、前
記注目画面に隣接する前記動画像の画面である隣接画面
における、前記第1のベクトルに対応する第2の範囲の
前記第3の特徴量との相関の演算により、前記第2のベ
クトルとして前記動きベクトルを検出することを特徴と
する請求項18に記載の画像処理装置。
20. The second vector detecting means, in a target screen which is a screen of a moving image to which the target point belongs,
The third characteristic amount in the first range including the attention point and the second range in the second range corresponding to the first vector in the adjacent screen which is the screen of the moving image adjacent to the attention screen. The image processing apparatus according to claim 18, wherein the motion vector is detected as the second vector by calculating a correlation with the feature amount of 3.
【請求項21】 前記第2のベクトル検出手段は、前記
第3の特徴量にクラス分類適応処理を適用し、前記第2
のベクトルとして前記動きベクトルを検出することを特
徴とする請求項18に記載の画像処理装置。
21. The second vector detection means applies class classification adaptation processing to the third feature quantity,
19. The image processing apparatus according to claim 18, wherein the motion vector is detected as the vector of.
【請求項22】 前記第2のベクトル検出手段は、前記
注目点における前記色信号の位相を基に、前記注目点の
前記コンポジットビデオ信号をクラス分類することを特
徴とする請求項21に記載の画像処理装置。
22. The second vector detection means classifies the composite video signal at the point of interest based on the phase of the color signal at the point of interest, according to claim 21. Image processing device.
【請求項23】 前記第2のベクトル検出手段は、過去
に検出された前記第2のベクトルに対応する前記第3の
特徴量に適応処理を適用することを特徴とする請求項2
1に記載の画像処理装置。
23. The second vector detecting means applies an adaptive process to the third feature quantity corresponding to the second vector detected in the past.
1. The image processing device according to 1.
【請求項24】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を予測する処理で使用される係数
を生成する画像処理方法において、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる特徴量、および前記コンポジットビデ
オ信号の位相情報を基に、動きベクトルを検出する検出
ステップと、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記特徴量、前記コンポジットビデオ信号の前記位相情
報、および検出された前記動きベクトルのうちの少なく
とも1つを基に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記特徴量の少なくとも一方を含む予測タップ
を抽出する抽出ステップと、 前記コンポーネントビデオ信号、および抽出された前記
予測タップを基に、前記係数を演算する演算ステップと
を含むことを特徴とする画像処理方法。
24. In an image processing method for generating a coefficient used in a process of predicting a component video signal based on a composite video signal, a feature amount obtained from an attention point and the composite video signal around the attention point, And a detection step of detecting a motion vector based on phase information of the composite video signal, the composite video signal, the point of interest, and the feature amount obtained from the composite video signal around the point of interest, the composite video signal A classifying step of classifying the composite video signal of the attention point into one of a plurality of classes based on at least one of the phase information and the detected motion vector of It corresponds to the class And an extraction step of extracting a prediction tap including at least one of the feature amount, and an operation step of operating the coefficient based on the component video signal and the extracted prediction tap. Processing method.
【請求項25】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を予測する処理で使用される係数
を生成する画像処理用のプログラムであって、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる特徴量、および前記コンポジットビデ
オ信号の位相情報を基に、動きベクトルを検出する検出
ステップと、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記特徴量、前記コンポジットビデオ信号の前記位相情
報、および検出された前記動きベクトルのうちの少なく
とも1つを基に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記特徴量の少なくとも一方を含む予測タップ
を抽出する抽出ステップと、 前記コンポーネントビデオ信号、および抽出された前記
予測タップを基に、前記係数を演算する演算ステップと
を含むことを特徴とするコンピュータが読み取り可能な
プログラムが記録されている記録媒体。
25. A program for image processing, which generates a coefficient used in a process of predicting a component video signal based on a composite video signal, comprising: a point of interest and the composite video signal around the point of interest. A feature amount obtained, and a detection step of detecting a motion vector based on phase information of the composite video signal, the composite video signal, the feature point and the feature amount obtained from the composite video signal around the focus point, A class classification step of classifying the composite video signal of the attention point into one of a plurality of classes based on at least one of the phase information of the composite video signal and the detected motion vector. Corresponding to the classified class, An extraction step of extracting a prediction tap including at least one of a video signal and the feature amount; and a calculation step of calculating the coefficient based on the component video signal and the extracted prediction tap. A recording medium on which a computer-readable program is recorded.
【請求項26】 コンポジットビデオ信号を基に、コン
ポーネントビデオ信号を予測する処理で使用される係数
を生成する画像処理装置を制御するコンピュータに、 注目点および前記注目点の周辺の前記コンポジットビデ
オ信号から求まる特徴量、および前記コンポジットビデ
オ信号の位相情報を基に、動きベクトルを検出する検出
ステップと、 前記コンポジットビデオ信号、前記注目点および前記注
目点の周辺の前記コンポジットビデオ信号から求まる前
記特徴量、前記コンポジットビデオ信号の前記位相情
報、および検出された前記動きベクトルのうちの少なく
とも1つを基に、前記注目点の前記コンポジットビデオ
信号を複数のクラスのうちの1つのクラスに分類するク
ラス分類ステップと、 分類されたクラスに対応し、前記コンポジットビデオ信
号および前記特徴量の少なくとも一方を含む予測タップ
を抽出する抽出ステップと、 前記コンポーネントビデオ信号、および抽出された前記
予測タップを基に、前記係数を演算する演算ステップと
を実行させるプログラム。
26. A computer controlling an image processing device for generating a coefficient used in a process of predicting a component video signal based on a composite video signal, the method comprising: A feature amount obtained, and a detection step of detecting a motion vector based on phase information of the composite video signal, the composite video signal, the feature point and the feature amount obtained from the composite video signal around the focus point, A class classification step of classifying the composite video signal of the attention point into one of a plurality of classes based on at least one of the phase information of the composite video signal and the detected motion vector. Corresponding to the classified classes, And a calculation step of calculating the coefficient on the basis of the component video signal and the extracted prediction tap.
JP2001363806A 2001-11-29 2001-11-29 Image processing apparatus and method, recording medium, and program Expired - Fee Related JP3777593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001363806A JP3777593B2 (en) 2001-11-29 2001-11-29 Image processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001363806A JP3777593B2 (en) 2001-11-29 2001-11-29 Image processing apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2003169350A true JP2003169350A (en) 2003-06-13
JP3777593B2 JP3777593B2 (en) 2006-05-24

Family

ID=19174088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001363806A Expired - Fee Related JP3777593B2 (en) 2001-11-29 2001-11-29 Image processing apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP3777593B2 (en)

Also Published As

Publication number Publication date
JP3777593B2 (en) 2006-05-24

Similar Documents

Publication Publication Date Title
US8331710B2 (en) Image processing apparatus and method, learning apparatus and method, and program
EP1587032B1 (en) Image processing apparatus and method, recording medium, and program
JP3590996B2 (en) Hierarchical encoding and decoding apparatus for digital image signal
CN1535024B (en) Video encoding device, method and video decoding device and method
TWI621352B (en) Motion vector prediction decoding method and prediction decoding device
WO2005084036A1 (en) Motion vector detecting apparatus, motion vector detecting method, and computer program
WO2007029640A1 (en) Image processing device and method, program, and recording medium
WO2007029764A1 (en) Image processing device and method, program, and recording medium
JP2001086507A (en) Image coder, image coding method, image decoder, image decoding method, medium and image processor
CN104079801A (en) Image processing apparatus, image processing method, and program
JP3864400B2 (en) Image processing apparatus and image processing method
JPH0787481A (en) Fault detector
JP2009212605A (en) Information processing method, information processor, and program
WO2004064403A1 (en) Efficient predictive image parameter estimation
KR100652467B1 (en) The movement judgment equipment, the method and the picture information change equipment
JP4622265B2 (en) Motion vector detection device, motion vector detection method, and program
JP4622264B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP4490351B2 (en) Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor
JP3777593B2 (en) Image processing apparatus and method, recording medium, and program
JP3671469B2 (en) Prediction coefficient learning method and signal conversion apparatus and method
JP3796844B2 (en) Image processing apparatus, image processing method, parameter generation apparatus, and parameter generation method
JPH10136317A (en) Device and method for converting image signal
JP3777592B2 (en) Image processing apparatus and method, recording medium, and program
JPH0851598A (en) Image information converter
JP4235918B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100310

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110310

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120310

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130310

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140310

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees