JP3777593B2 - Image processing apparatus and method, recording medium, and program - Google Patents
Image processing apparatus and method, recording medium, and program Download PDFInfo
- Publication number
- JP3777593B2 JP3777593B2 JP2001363806A JP2001363806A JP3777593B2 JP 3777593 B2 JP3777593 B2 JP 3777593B2 JP 2001363806 A JP2001363806 A JP 2001363806A JP 2001363806 A JP2001363806 A JP 2001363806A JP 3777593 B2 JP3777593 B2 JP 3777593B2
- Authority
- JP
- Japan
- Prior art keywords
- field
- point
- value
- interest
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法、記録媒体、並びにプログラムに関し、特に、コンポジットビデオ信号を基に、コンポーネントビデオ信号を生成するか、コンポーネントビデオ信号を生成する処理に使用される係数を生成する画像処理装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
いわゆる3次元YC分離において、動き量を検出し、検出された動き量を基に、2次元フィルタ処理、および3次元フィルタ処理のいずれか一方を選択して実行することにより、NTSC(National Television System Committee)コンポジットビデオ信号が、輝度信号および色信号などからなるコンポーネントビデオ信号に分離される。
【0003】
【発明が解決しようとする課題】
しかしながら、従来、動きベクトルを考慮して、コンポジットビデオ信号をコンポーネントビデオ信号に分離することは考えられていなかった。
【0004】
本発明はこのような状況に鑑みてなされたものであり、動きベクトルを考慮して、コンポジットビデオ信号から、より精度良く、コンポーネントビデオ信号を生成できるようにすることを目的とする。
【0005】
【課題を解決するための手段】
本発明の第1の画像処理装置は、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出手段と、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類手段と、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出手段と、
予め求めておいた予測係数と抽出された予測タップとに積和演算を適用することにより、注目点のコンポジットビデオ信号に対応するコンポーネントビデオ信号を生成する生成手段とを含むことを特徴とする。
【0006】
抽出手段は、さらに、コンポジットビデオ信号のダイナミックレンジ、またはコンポジットビデオ信号に対応する第1の特徴量若しくは第2の特徴量のダイナミックレンジに応じて定められている予測タップを抽出するようにすることができる。
【0007】
クラス分類手段は、コンポーネントビデオ信号を構成する輝度信号について、注目点のコンポジットビデオ信号を複数のクラスのうちの1つのクラスに分類し、さらに、コンポーネントビデオ信号を構成する色信号について、注目点のコンポジットビデオ信号を複数のクラスのうちの1つのクラスに分類するようにすることができる。
【0008】
抽出手段は、コンポーネントビデオ信号を構成する輝度信号について、予測タップを抽出し、さらに、コンポーネントビデオ信号を構成する色信号について、予測タップを抽出することができる。
【0009】
検出手段は、注目フィールドと他のフィールドとについて、画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成する第1の特徴量生成手段と、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出する第1のベクトル検出手段と、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成する第2の特徴量生成手段と、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する第2のベクトル検出手段とを設けることができる。
【0010】
第1のベクトル検出手段は、注目点の属する動画像の画面である注目フィールドの第1の特徴量と、最も相関の強い第1の特徴量であって、注目画面に隣接する動画像の画面である他のフィールドの第1の特徴量の位置から、動きベクトルに近似する第1のベクトルを検出することができる。
【0011】
第2のベクトル検出手段は、注目点の属する動画像の画面である注目フィールドにおける、注目点を含む第1の範囲の第2の特徴量と、最も相関の強い第2の特徴量であって、注目フィールドに隣接する動画像の画面である他のフィールドにおける、第1のベクトルで指定される位置を中心としたサーチする領域の第2の特徴量の位置から、第2のベクトルとして動きベクトルを検出することができる。
【0012】
第2のベクトル検出手段は、第2の特徴量にクラス分類適応処理を適用し、第2のベクトルとして動きベクトルを検出することができる。
【0013】
第2のベクトル検出手段は、注目点における色信号の位相を用いて、クラス分類することができる。
【0014】
第2のベクトル検出手段は、前のフィールドにおいて検出された第2のベクトルで示される位置の第2の特徴量に適応処理を適用することができる。
【0015】
本発明の第1の画像処理方法は、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類ステップと、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出ステップと、予め求めておいた予測係数と抽出された予測タップとに積和演算を適用することにより、注目点のコンポジットビデオ信号に対応するコンポーネントビデオ信号を生成する生成ステップとを含むことを特徴とする。
【0016】
本発明の第1の記録媒体のプログラムは、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類ステップと、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出ステップと、予め求めておいた予測係数と抽出された予測タップとに積和演算を適用することにより、注目点のコンポジットビデオ信号に対応するコンポーネントビデオ信号を生成する生成ステップとを含むことを特徴とする。
【0017】
本発明の第1のプログラムは、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類ステップと、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出ステップと、予め求めておいた予測係数と抽出された予測タップとに積和演算を適用することにより、注目点のコンポジットビデオ信号に対応するコンポーネントビデオ信号を生成する生成ステップとをコンピュータに実行させることを特徴とする。
【0018】
本発明の第2の画像処理装置は、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出手段と、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類手段と、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出手段と、コンポーネントビデオ信号と抽出された予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの係数を演算する演算手段とを含むことを特徴とする。
【0019】
抽出手段は、さらに、コンポジットビデオ信号のダイナミックレンジ、またはコンポジットビデオ信号に対応する第1の特徴量若しくは第2の特徴量のダイナミックレンジに応じて定められている予測タップを抽出することができる。
【0020】
クラス分類手段は、コンポーネントビデオ信号を構成する輝度信号について、注目点のコンポジットビデオ信号を複数のクラスのうちの1つのクラスに分類し、さらに、コンポーネントビデオ信号を構成する色信号について、注目点のコンポジットビデオ信号を複数のクラスのうちの1つのクラスに分類することができる。
【0021】
抽出手段は、コンポーネントビデオ信号を構成する輝度信号について、予測タップを抽出し、さらに、コンポーネントビデオ信号を構成する色信号について、予測タップを抽出することができる。
【0022】
検出手段は、注目フィールドと他のフィールドとについて、画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成する第1の特徴量生成手段と、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出する第1のベクトル検出手段と、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成する第2の特徴量生成手段と、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する第2のベクトル検出手段とを設けることができる。
【0023】
第1のベクトル検出手段は、注目点の属する動画像の画面である注目フィールドの第1の特徴量と、最も相関の強い第1の特徴量であって、注目画面に隣接する動画像の画面である他のフィールドの第1の特徴量の位置から、動きベクトルに近似する第1のベクトルを検出することができる。
【0024】
第2のベクトル検出手段は、注目点の属する動画像の画面である注目フィールドにおける、注目点を含む第1の範囲の第2の特徴量と、最も相関の強い第2の特徴量であって、注目フィールドに隣接する動画像の画面である他のフィールドにおける、第1のベクトルで指定される位置を中心としたサーチする領域の第2の特徴量の位置から、第2のベクトルとして動きベクトルを検出することができる。
【0025】
第2のベクトル検出手段は、第2の特徴量にクラス分類適応処理を適用し、第2のベクトルとして動きベクトルを検出することができる。
【0026】
第2のベクトル検出手段は、注目点における色信号の位相を用いて、クラス分類することができる。
【0027】
第2のベクトル検出手段は、前のフィールドにおいて検出された第2のベクトルで示される位置の第2の特徴量に適応処理を適用することができる。
【0028】
本発明の第2の画像処理方法は、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類ステップと、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出ステップと、コンポーネントビデオ信号と抽出された予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの係数を演算する演算ステップとを含むことを特徴とする。
【0029】
本発明の第2の記録媒体のプログラムは、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類ステップと、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出ステップと、コンポーネントビデオ信号と抽出された予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの係数を演算する演算ステップとを含むことを特徴とする。
【0030】
本発明の第2のプログラムは、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点を分類するクラス分類ステップと、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップを抽出する抽出ステップと、コンポーネントビデオ信号と抽出された予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの係数を演算する演算ステップとをコンピュータに実行させることを特徴とする。
【0031】
本発明の第1の画像処理装置および方法、記録媒体、並びにプログラムにおいては、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルが検出され、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点が分類され、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップが抽出され、予め求めておいた予測係数と抽出された予測タップとに積和演算を適用することにより、注目点のコンポジットビデオ信号に対応するコンポーネントビデオ信号が生成される。
【0032】
本発明の第2の画像処理装置および方法、記録媒体、並びにプログラムにおいては、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルが検出され、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点が分類され、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップが抽出され、コンポーネントビデオ信号と抽出された予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの係数が演算される。
【0033】
【発明の実施の形態】
図1は、本発明に係る画像処理装置の実施の形態の構成を示すブロック図である。
【0034】
NTSCデコーダ1は、入力された、NTSC方式のコンポジットビデオ信号である画像信号を基に、画像信号に対応する、デジタルデータである画像信号を生成すると共に、デジタルデータである画像信号に対応するサブキャリア位相情報を生成する。NTSCデコーダ1は、生成したデジタルデータである画像信号およびサブキャリア位相情報を動きベクトル検出部2、クラスタップ抽出部3、および演算部4に供給する。
【0035】
NTSCデコーダ1により生成されるデジタルデータである画像信号は、例えば、輝度を示すY信号の値から色を示すI信号の値を減算した結果、Y信号の値から色を示す他の信号であるQ信号の値を減算した結果、Y信号の値にI信号の値を加算した結果、およびY信号の値にQ信号の値を加算した結果のいずれかの値からなる。
【0036】
NTSCデコーダ1により生成されるサブキャリア位相情報は、NTSCデコーダ1により生成されたデジタルデータである画像信号に含まれる値が、Y信号の値からI信号の値を減算した結果であるか、Y信号の値からQ信号の値を減算した結果であるか、Y信号の値にI信号の値を加算した結果であるか、またはY信号の値にQ信号の値を加算した結果であるかを示す情報である。
【0037】
図2は、NTSCデコーダ1により生成されるデジタルデータである画像信号およびサブキャリア位相情報を説明する図である。
【0038】
以下、この明細書において、フィールド#−1は、フィールド#0の前のフィールドを示し、フィールド#−2は、フィールド#−1の前のフィールドを示す。フィールド#+1は、フィールド#0の次(後)のフィールドを示し、フィールド#+2は、フィールド#+1の次のフィールドを示す。
【0039】
フィールド#0および番号の絶対値が偶数であるフィールドは、いわゆるトップフィールドである。番号の絶対値が奇数であるフィールドは、いわゆるボトムフィールドである。
【0040】
例えば、フィールド#−1は、ボトムフィールドであり、ライン2、ライン4、およびライン6などに対応する画像信号を含む。フィールド#0は、いわゆるトップフィールドであり、ライン1、ライン3、およびライン5などに対応する画像信号を含む。
【0041】
例えば、フレーム#−1は、フィールド#−2および図示せぬフィールド#−3により構成される。フレーム#0は、フィールド#0およびフィールド#−1により構成される。フレーム#+1は、フィールド#+2およびフィールド#+1により構成される。
【0042】
従って、例えば、フレーム#0には、フィールド#0のライン1、フィールド#−1のライン2、フィールド#0のライン3、フィールド#−1のライン4、フィールド#0のライン5、およびフィールド#−1のライン6が、画面の上から順に並び、さらに、フィールド#0のラインおよびフィールド#−1のラインが交互に並ぶ。
【0043】
NTSCデコーダ1により生成されるデジタルデータは、NTSC方式のコンポジットビデオ信号のうちの、輝度信号および色信号により平衡変調されている部分の位相が変化する周期に対応し、フィールドにおいて空間方向に離散的なデータである。NTSCデコーダ1により生成されるデジタルデータを構成する、いわゆる画素に対応する個々の値は、NTSC方式のコンポジットビデオ信号を量子化することにより生成され、1つの輝度および色に対応する。
【0044】
図2において、白い四角、白い丸、黒い四角、および黒い丸は、デジタルデータである画像信号を構成し、1つの画素に対応する、それぞれ1つの値を示す。
【0045】
白い四角は、輝度を示すY信号の値に、色を示すI信号の値を加算した結果に対応する値であることを示す。白い丸は、Y信号の値に、色を示す他の信号であるQ信号の値を加算した結果に対応する値であることを示す。
【0046】
黒い四角は、Y信号の値からI信号の値を減算した結果に対応する値であることを示す。黒い丸は、Y信号の値からQ信号の値を減算した結果に対応する値であることを示す。
【0047】
NTSCデコーダ1により生成されるデジタルデータである画像信号の値における、Y信号の値およびI信号の値の加算若しくは減算、またはY信号の値およびQ信号の値の加算若しくは減算は、NTSCデコーダ1に入力されるNTSC方式のコンポジットビデオ信号における、サブキャリアが平衡変調されてなる色信号成分に対応するI信号およびQ信号の位相の反転に対応する。
【0048】
サブキャリア位相情報は、NTSCデコーダ1により生成されるデジタルデータである画像信号の値のそれぞれが、Y信号の値からI信号の値を減算した値、Y信号の値からQ信号の値を減算した値、Y信号の値にI信号の値を加算した値、およびY信号の値にQ信号の値を加算した値のいずれに対応するかを示す情報である。
【0049】
動きベクトル検出部2は、画像処理装置の外部から供給されるパラメータAおよびパラメータB、並びにNTSCデコーダ1から供給された画像信号およびサブキャリア位相情報を基に、上位階層特徴量および下位階層特徴量を生成する。動きベクトル検出部2は、上位階層特徴量および下位階層特徴量を基に、NTSCデコーダ1から供給された画像信号のそれぞれ値に対応する、注目しているフィールドと次のフィールドとの間の動きベクトルを生成する。上位階層特徴量および下位階層特徴量の詳細については、後述する。
【0050】
動きベクトル検出部2は、生成した、上位階層特徴量、下位階層特徴量、および動きベクトルをクラスタップ抽出部3および演算部4に供給する。動きベクトル検出部2は、上位階層特徴量、下位階層特徴量、および動きベクトルと共に、動きベクトルのブロックマッチングの処理において算出される残差などの他の特徴量を、クラスタップ抽出部3および演算部4に供給する。
【0051】
パラメータAおよびパラメータBは、動きベクトル検出部2における処理の内容を指定するパラメータであり、例えば、動きベクトル検出部2の動きベクトルの検出の処理における相関の算出方式、マッチングをとるブロックの大きさ、または探索(サーチ)領域の大きさなどを指定する。
【0052】
クラスタップ抽出部3は、NTSCデコーダ1から供給されたサブキャリア位相情報、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなるクラスタップを抽出する。詳細は後述するが、クラスタップは、注目しているデータに対応してクラス分類するためのデータである。
【0053】
クラスタップ抽出部3は、抽出したクラスタップを演算部4に供給する。
【0054】
演算部4は、クラスタップ抽出部3から供給されたクラスタップを基に、クラス分類し、NTSCデコーダ1から供給されたサブキャリア位相情報、および動きベクトル検出部2から供給された動きベクトルを基に、NTSCデコーダ1から供給された画像信号、並びに動きベクトル検出部2から供給された上位階層特徴量および下位階層特徴量に適応処理を適用して、コンポジットビデオ信号である画像信号に対応する、例えば、Y信号、U信号、およびV信号からなるコンポーネントビデオ信号を生成する。演算部4は、生成したコンポーネントビデオ信号を出力する。クラス分類の処理、および適応処理の詳細は、後述する。
【0055】
このように、本発明に係る画像処理装置は、入力された、コンポジットビデオ信号である画像信号に対応するコンポーネントビデオ信号を生成し、生成したコンポーネントビデオ信号を出力する。
【0056】
図3は、動きベクトル検出部2の構成を示すブロック図である。NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報は、バッファ21、特徴量変換部23、および特徴量変換部24に入力される。
【0057】
バッファ21は、NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報を記憶し、記憶している画像信号およびサブキャリア位相情報を特徴量変換部23およびバッファ22に供給する。すなわち、バッファ21は、入力された画像信号およびサブキャリア位相情報を1つのフィールドに対応する期間遅延させ、遅延された画像信号およびサブキャリア位相情報を特徴量変換部23およびバッファ22に供給する。
【0058】
バッファ22は、バッファ21から供給された画像信号およびサブキャリア位相情報を記憶し、記憶している画像信号およびサブキャリア位相情報を特徴量変換部24に供給する。すなわち、バッファ22は、バッファ21から供給された画像信号およびサブキャリア位相情報を1つのフィールドに対応する期間遅延させ、遅延された画像信号およびサブキャリア位相情報を特徴量変換部24に供給する。
【0059】
特徴量変換部23は、NTSCデコーダ1から入力された画像信号およびサブキャリア位相情報、並びにバッファ21から供給された画像信号およびサブキャリア位相情報を基に、上位階層特徴量を生成し、生成した上位階層特徴量を動きベクトル検出部2の外部に出力すると共に、上位階層特徴量を上位階層動きベクトル検出部25に供給する。
【0060】
特徴量変換部24は、NTSCデコーダ1から入力された画像信号およびサブキャリア位相情報、並びにバッファ22から供給された画像信号およびサブキャリア位相情報を基に、下位階層特徴量を生成し、サブキャリア位相情報と共に、生成した上位階層特徴量を下位階層動きベクトル検出部26に供給する。また、特徴量変換部24は、生成した下位階層特徴量を動きベクトル検出部2の外部に出力する。
【0061】
なお、特徴量変換部23および特徴量変換部24は、入力された画像信号およびサブキャリア位相信号を基に、リアルタイムに上位階層特徴量または下位階層特徴量を生成して、順次出力するようにしても、フィールド毎に、生成した上位階層特徴量または下位階層特徴量を一時的に記憶し、フィールドを単位として上位階層特徴量または下位階層特徴量をまとめて出力するようにしてもよい。
【0062】
上位階層動きベクトル検出部25は、パラメータAで指定された演算方式等により、特徴量変換部23から供給された上位階層特徴量を基に、最終的に検出される動きベクトルに近似し、フィールド間のおおまかな動きを示す上位階層ベクトルを生成し、生成した上位階層ベクトルを下位階層動きベクトル検出部26に供給する。
【0063】
下位階層動きベクトル検出部26は、パラメータBで指定された演算方式等により、特徴量変換部24から供給された下位階層特徴量およびサブキャリア位相情報、並びに上位階層動きベクトル検出部25から供給された上位階層ベクトルを基に、上位階層ベクトルに比較して、より精度の高い下位階層ベクトルを生成し、生成した下位階層ベクトルを動きベクトルとして出力する。
【0064】
図4は、上位階層動きベクトル検出部25の構成を示すブロック図である。ベクトル生成部31は、生成するベクトルの大きさおよび方向の範囲を示す、パラメータAに含まれるデータを基に、所定の範囲の大きさおよび方向を有するベクトルを順次生成し、生成したベクトルを相関値算出部32および判定部33に供給する。
【0065】
相関値算出部32は、相関値の算出方式を指定するパラメータAに含まれるデータを基に、ベクトル生成部31から供給されたベクトルで指定される、1つのフィールドに対応する上位階層特徴量と、他のフィールドに対応する上位階層特徴量との相関値を算出し、算出した相関値を判定部33に供給する。例えば、相関値は、上位階層特徴量の差分の絶対値の和である。相関値は、上位階層特徴量の差分の絶対値の2乗の和とすることができる。または、相関値は、1つのフィールドに対応する上位階層特徴量と、他のフィールドに対応する上位階層特徴量とを、2つの確率変数の数列とする相関、すなわち、上位階層特徴量の相互相関とすることができる。
【0066】
相関値算出部32は、元の画像信号のデータに比較して疎である上位階層特徴量を用いた、疎であるブロックを用いて相関値の算出の処理を実行する。従って、上位階層動きベクトル検出部25における演算量を少なくすることができる。
【0067】
判定部33は、ベクトル生成部31から供給されたベクトルに対応させて、相関値算出部32から供給された相関値を記憶する。所定の範囲の大きさおよび方向を有するベクトルに対応する相関値が算出されたとき、判定部33は、相関値の算出方式を指定するパラメータAに含まれるデータを基に、記憶している相関値のうち、最も相関の強い相関値を選択し、選択した相関値に対応するベクトルを上位階層ベクトルとして出力する。例えば、相関値が上位階層特徴量の差分の絶対値の2乗の和であるとき、判定部33は、最小の相関値に対応するベクトルを上位階層ベクトルとして出力する。
【0068】
図5は、下位階層動きベクトル検出部26の構成を示すブロック図である。ベクトル生成部41は、上位階層動きベクトル検出部25から供給された上位階層ベクトル、および生成するベクトルの大きさおよび方向の範囲を示す、パラメータBに含まれるデータを基に、所定の範囲の大きさおよび方向を有するベクトルを順次生成し、生成したベクトルを相関値算出部42および判定部43に供給する。
【0069】
相関値算出部42は、相関値の算出方式を指定するパラメータBに含まれるデータを基に、ベクトル生成部41から供給されたベクトルで指定される1つのフィールドに対応する下位階層特徴量と、他のフィールドに対応する下位階層特徴量との相関値を算出し、算出した相関値を判定部43に供給する。例えば、相関値は、下位階層特徴量の差分の絶対値の和である。相関値は、下位階層特徴量の差分の絶対値の2乗の和とすることができる。または、相関値は、1つのフィールドに対応する下位階層特徴量と、他のフィールドに対応する下位階層特徴量とを、2つの確率変数の数列とする相関、すなわち、下位階層特徴量の相互相関とすることができる。
【0070】
相関値算出部42は、元の画像信号のデータと同等の密度の下位階層特徴量を用いた、密なブロックを用いて相関値の算出の処理を実行する。
【0071】
判定部43は、ベクトル生成部41から供給されたベクトルに対応させて、相関値算出部42から供給された相関値を記憶する。所定の範囲の大きさおよび方向を有するベクトルに対応する相関値が算出されたとき、判定部43は、相関値の算出方式を指定するパラメータBに含まれるデータを基に、記憶している相関値のうち、最も相関の強い相関値を選択し、選択した相関値に対応するベクトルを下位階層ベクトルとして出力する。例えば、相関値が下位階層特徴量の差分の絶対値の和であるとき、判定部43は、最小の相関値に対応するベクトルを下位階層ベクトルとして出力する。
【0072】
図6乃至図9を参照して、動きベクトル検出部2が実行する処理の詳細な例について説明する。
【0073】
図6は、上位階層動きベクトル検出部25による上位階層ベクトルの検出の処理に使用される上位階層特徴量、下位階層動きベクトル検出部26による下位階層ベクトルの検出の処理に使用される下位階層特徴量、および下位階層動きベクトル検出部26のサーチ領域の例を示す図である。
【0074】
図6の数字は、重みを表す。例えば、重みの全てが1であるとき、特徴量変換部23は、画像信号に含まれる所定の位相のデータを、そのまま上位階層特徴量として出力する。
【0075】
例えば、上位階層動きベクトル検出部25は、注目データと位相が同一であるデータからなる上位階層特徴量のうち、動きベクトルを検出しようとしている注目点に対応する注目データと、注目データの周辺の6つのデータを1つのブロックとし、他のフィールドにおける、注目データと位相が同一であるデータとのマッチングをとる。すなわち、上位階層動きベクトル検出部25は、注目しているフィールドの1つのブロックに属している、所定の数の特徴量の配置とその値が最も近似している、他のフィールドの特徴量の位置を検出する。上位階層ベクトルは、注目しているフィールドの注目データの位置から、他のフィールドの、配置および値が最も近似している特徴量の位置を示す。
【0076】
ここで、データの位相が同一であるとは、データの算出の元になった信号が同一であり、かつ、加算または減算である、データの算出の方式が同一であることをいう。
【0077】
例えば、1つのデータがY信号の値からI信号の値を減算した値を有し、他のデータがY信号の値からI信号の値を減算した値を有するとき、この2つのデータの位相は同一である。1つのデータがY信号の値からQ信号の値を減算した値を有し、他のデータがY信号の値からQ信号の値を減算した値を有するとき、この2つのデータの位相は同一である。
【0078】
同様に、1つのデータがY信号の値にI信号の値を加算した値を有し、他のデータがY信号の値にI信号の値を加算した値を有するとき、この2つのデータの位相は同一である。1つのデータがY信号の値にQ信号の値を加算した値を有し、他のデータがY信号の値にQ信号の値を加算した値を加算した値を有するとき、この2つのデータの位相は同一である。
【0079】
一方、Y信号の値からI信号の値を減算した値を有するデータ、Y信号の値にI信号の値を加算した値を有するデータ、Y信号の値からQ信号の値を減算した値を有するデータ、およびY信号の値にQ信号の値を加算した値を有するデータは、互いに位相が異なる。
【0080】
特徴量変換部23は、2つのデータの位相が同一であるか否かを、サブキャリア位相情報を基に知ることができる。
【0081】
図7に示すように、例えば、上位階層動きベクトル検出部25は、注目するフィールドであるフィールド#−1において、注目データと、白丸で示す注目データの周辺の、注目データと位相が同一である、6角形の頂点に位置する白丸に対応する6つのデータとからなる、上位階層特徴量のブロックを単位として、対応するフィールドであるフィールド#0とのマッチングをとる。より具体的には、上位階層動きベクトル検出部25は、注目するフィールドの上位階層特徴量のブロックと、対応するフィールドであるフィールド#0において、サーチの対象となる対象点に対応する対象データについて、対象データと、白丸で示す対象データの周辺の、対象データと位相が同一である、6角形の頂点に位置する白丸に対応する6つのデータとからなる、上位階層特徴量のブロックとの相関を算出し、マッチングを判定する。
【0082】
次に、図6に戻り、下位階層特徴量の例について説明する。
【0083】
特徴量変換部24は、例えば、注目しているフィールドの、注目データの周辺のデータを基に、注目データに対応する下位階層特徴量を算出する。特徴量変換部24は、例えば、注目しているフィールドの、注目データに隣接する4つのデータのそれぞれに重み1を乗算して、注目データに重み4を乗算して、乗算した結果を加算して下位階層特徴量とする。
【0084】
同様に、特徴量変換部24は、注目しているフィールドに対応するフィールドのサーチの対象となる対象点に対応する対象データについて、対象データの周辺のデータを基に、対象データに対応する下位階層特徴量を算出する。
【0085】
また、特徴量変換部24は、例えば、図8に示すように、注目しているフィールド#−1において、注目データから2つ上側のデータ、注目データから2つ下側のデータ、注目データから2つ右側のデータ、および注目データから2つ左側のデータのそれぞれに重み1を乗算して、注目データに重み4を乗算して、乗算した結果を加算して下位階層特徴量とする。
【0086】
特徴量変換部24は、対応するフィールド#0において、対象データから2つ上側のデータ、対象データから2つ下側のデータ、対象データから2つ右側のデータ、および対象データから2つ左側のデータのそれぞれに重み1を乗算して、対象データに重み4を乗算して、乗算した結果を加算して下位階層特徴量とする。
【0087】
下位階層動きベクトル検出部26は、上位階層動きベクトル検出部25から供給された上位階層ベクトルで指定されるデータの位置を中心とした、対応するフィールドの特徴量の所定の範囲のサーチする領域において、注目しているフィールドの所定の数の下位階層特徴量からなるブロックと、相関が最も強い、所定の数の下位階層特徴量からなるブロックの位置を検出する。下位階層動きベクトル検出部26は、注目しているフィールドの注目データの位置から、対応するフィールドの検出されたブロックの中心位置を示す下位階層ベクトルを動きベクトルとして出力する。
【0088】
図9は、下位階層動きベクトル検出部26がサーチする領域およびブロックの例を示す図である。図9において、三角は、下位階層特徴量を示す。
【0089】
図9に示す例において、サーチされる領域は、横に7つの下位階層特徴量が並び、縦に7つの下位階層特徴量が並ぶ矩形の領域である。サーチするブロックは、横に5つの下位階層特徴量が並び、縦に5つの下位階層特徴量が並ぶ矩形の領域である。
【0090】
図10は、マッチングを判定する、上位階層特徴量の他のブロックの例を示す図である。図10において、三角は、注目データと位相が同一であるデータを示す。
【0091】
図10に示すように、例えば、上位階層動きベクトル検出部25は、注目するフィールドであるフィールド#−1において、黒い三角で示す注目データと、白い三角で示す注目データの周辺の、注目データと位相が同一である、6角形の頂点に位置する白い三角に対応する6つのデータとからなる、上位階層特徴量のブロックを単位として、対応するフィールドであるフィールド#0における、最も相関の強いブロックを検出する。
【0092】
特徴量変換部23が、注目データと同位相の画像信号のデータからなる上位階層特徴量を出力するとき、上位階層特徴量のデータの数は、元の画像信号のデータの4分の1となる。
【0093】
図11および図12は、上位階層特徴量の他の例を示す図である。
【0094】
図11に示すように、特徴量変換部23は、例えば、所定のフィールドの1つのライン上の、それぞれ異なる位相の4つのデータの平均値を算出し、算出された平均値を上位階層特徴量として出力する。
【0095】
図12に示すように、特徴量変換部23は、例えば、所定のフィールドの上下に隣接する2つのライン上の、上下および左右に相互に隣接する、それぞれ異なる位相の4つのデータの平均値を算出し、算出された平均値を上位階層特徴量として出力する。
【0096】
特徴量変換部23が、それぞれ異なる位相の4つのデータの平均値を算出し、上位階層特徴量を出力するとき、上位階層特徴量のデータの数は、元の画像信号のデータの4分の1となる。
【0097】
図13乃至図17は、下位階層特徴量の他の例を示す図である。
【0098】
図13に示すように、特徴量変換部24は、注目しているフィールド#−1の、注目データの上側のデータおよび下側のデータ、並びに注目データから左側に2つめのデータおよび注目データから右側に2つめのデータを基に、下位階層特徴量を算出する。例えば、注目データをp2とし、上側のデータをp0とし、左側に2つめのデータをp1とし、右側に2つめのデータをp3とし、下側のデータをp4としたとき、注目データp2に対応する下位階層特徴量yは、式(1)で算出される。
y=p0+p1+4*p2+p3+p4 (1)
【0099】
特徴量変換部24は、対応するフィールド#0の、対象データの上側のデータおよび下側のデータ、並びに対象データから左側に2つめのデータおよび対象データから右側に2つめのデータを基に、下位階層特徴量を算出する。例えば、対象データをp2とし、上側のデータをp0とし、左側に2つめのデータをp1とし、右側に2つめのデータをp3とし、下側のデータをp4としたとき、対象データp2に対応する下位階層特徴量yは、式(1)で算出される。
【0100】
図13を参照して説明した下位階層特徴量は、注目データまたは対象データの周辺の、それぞれ位相が異なる4つのデータを基に算出されるので、サブキャリアの変動成分の影響を少なくすることができ、よって、より精度の高い動きベクトルを検出することができるようになる。
【0101】
図14に示すように、特徴量変換部24は、注目フィールドであるフィールド#−1の注目データに対応する下位階層特徴量を算出するとき、注目データ、注目フィールドの前のフィールドであるフィールド#−2のラインであって、注目データが位置するラインの上側および下側のライン上の、注目データの上側のデータおよび下側のデータ、並びに、注目データから左側に2つめのデータおよび注目データから右側に2つめのデータを基に、下位階層特徴量を算出する。例えば、注目データをp2とし、注目データが位置するライン4の上側の、前のフィールド#−2のライン3における、注目データの上側のデータをp0とし、ライン4の左側に2つめのデータをp1とし、ライン4の右側に2つめのデータをp3とし、注目データが位置するライン4の下側の、前のフィールド#−2のライン5における、注目データの下側のデータをp4とし、注目データp2に対応する下位階層特徴量yは、式(2)で算出される。
y=p0+p1+4*p2+p3+p4 (2)
【0102】
特徴量変換部24は、対応するフィールドであるフィールド#0の対象データに対応する下位階層特徴量を算出するとき、対象データ、フィールド#0の次のフィールドであるフィールド#+1のラインであって、対象データが位置するラインの上側および下側のライン上の、対象データの上側のデータおよび下側のデータ、並びに、対象データから左側に2つめのデータおよび対象データから右側に2つめのデータを基に、下位階層特徴量を算出する。例えば、対象データをp2とし、対象データが位置するライン3の上側の、次のフィールド#+1のライン2における、対象データの上側のデータをp0とし、ライン3の左側に2つめのデータをp1とし、ライン3の右側に2つめのデータをp3とし、対象データが位置するライン3の下側の、次のフィールド#+1のライン4における、対象データの下側のデータをp4とし、対象データp2に対応する下位階層特徴量yは、式(2)で算出される。
【0103】
図15に示すように、特徴量変換部24は、注目しているフィールド#−1の、注目データ、注目データの上側のデータおよび下側のデータ、並びに注目データの左側に隣接するデータおよび注目データの右側に隣接するデータを基に、注目データに対応する下位階層特徴量を算出する。例えば、注目データをp2とし、注目データの上側のデータをp0とし、注目データの左側に隣接するデータをp1とし、注目データの右側に隣接するデータをp3とし、注目データの下側のデータをp4としたとき、注目データp2に対応する下位階層特徴量yは、式(3)で算出される。
y=p0+p1+4*p2+p3+p4 (3)
【0104】
特徴量変換部24は、対応しているフィールド#0の、対象データ、対象データの上側のデータおよび下側のデータ、並びに対象データの左側に隣接するデータおよび対象データの右側に隣接するデータを基に、対象データに対応する下位階層特徴量を算出する。例えば、対象データをp2とし、対象データの上側のデータをp0とし、対象データの左側に隣接するデータをp1とし、対象データの右側に隣接するデータをp3とし、対象データの下側のデータをp4としたとき、対象データp2に対応する下位階層特徴量yは、式(3)で算出される。
【0105】
図16に示すように、特徴量変換部24は、注目しているフィールド#−1の、注目データ、注目データの左側に隣接するデータおよび注目データの右側に隣接するデータ、並びに注目データから左側に2つめのデータおよび注目データから右側に2つめのデータを基に、注目データに対応する下位階層特徴量を算出する。例えば、注目データをp2とし、注目データの左側に2つめのデータをp0とし、注目データの左側に隣接するデータをp1とし、注目データの右側に隣接するデータをp3とし、注目データの右側に2つめのデータをp4としたとき、注目データp2に対応する下位階層特徴量yは、式(4)で算出される。
y=p0+p1+2*p2+2*p3+p4 (4)
【0106】
特徴量変換部24は、対象しているフィールド#0の、対象データ、対象データの左側に隣接するデータおよび対象データの右側に隣接するデータ、並びに対象データから左側に2つめのデータおよび対象データから右側に2つめのデータを基に、対象データに対応する下位階層特徴量を算出する。例えば、対象データをp2とし、対象データの左側に2つめのデータをp0とし、対象データの左側に隣接するデータをp1とし、対象データの右側に隣接するデータをp3とし、対象データの右側に2つめのデータをp4としたとき、対象データp2に対応する下位階層特徴量yは、式(4)で算出される。
【0107】
図17に示すように、特徴量変換部24は、注目フィールドであるフィールド#−1の下位階層特徴量を算出するとき、注目データ、注目データから左側に2つめのデータ、および注目データから右側に2つめのデータ、並びに注目フィールドの前のフィールドであるフィールド#−2のラインであって、注目データが位置するラインの上側および下側のライン上の、注目データ、注目データから左側に2つめのデータ、並びに注目データから右側に2つめのデータのそれぞれの上側のデータおよび下側のデータを基に、下位階層特徴量を算出する。
【0108】
例えば、注目データをp4とし、左側に2つめのデータをp3とし、右側に2つめのデータをp5とし、注目データが位置するライン4の上側の、前のフィールド#−2のライン3における、注目データの上側のデータをp1とし、p3の上側のデータをp0とし、p5の上側のデータをp2とし、注目データが位置するライン4の下側の、前のフィールド#−2のライン5における、注目データの下側のデータをp7とし、p3の下側のデータをp6とし、p5の下側のデータをp8とし、注目データp4に対応する下位階層特徴量yは、式(5)で算出される。
y=p0+(-2)*p1+p2+(-2)*p3+4*p4+(-2)*p5+p6+(-2)*p7+p8 (5)
【0109】
特徴量変換部24は、対応するフィールドであるフィールド#0の下位階層特徴量を算出するとき、対象データ、対象データから左側に2つめのデータ、および対象データから右側に2つめのデータ、並びに対象フィールドの次のフィールドであるフィールド#+1のラインであって、対象データが位置するラインの上側および下側のライン上の、対象データ、対象データから左側に2つめのデータ、並びに対象データから右側に2つめのデータのそれぞれの上側のデータおよび下側のデータを基に、下位階層特徴量を算出する。
【0110】
例えば、対象データをp4とし、左側に2つめのデータをp3とし、右側に2つめのデータをp5とし、対象データが位置するライン3の上側の、次のフィールド#+1のライン2における、対象データの上側のデータをp1とし、p3の上側のデータをp0とし、p5の上側のデータをp2とし、対象データが位置するライン3の下側の、次のフィールド#+1のライン4における、対象データの下側のデータをp7とし、p3の下側のデータをp6とし、p5の下側のデータをp8とし、対象データp4に対応する下位階層特徴量yは、式(5)で算出される。
【0111】
以上に例示した上位階層特徴量および下位階層特徴量は、それぞれ特徴量間で演算が実行されるので、正規化していない。勿論、上位階層特徴量および下位階層特徴量を正規化するようにしてもよい。
【0112】
次に、クラス分類適応処理による下位階層ベクトルの検出について説明する。
【0113】
ここで、クラス分類処理について簡単に説明する。
【0114】
いま、例えば、下位階層特徴量において、ある注目データと、それに隣接する3つのデータにより、2×2データでなるクラスタップを構成し、また、各データは、1ビットで表現される(0または1のうちのいずれかのレベルをとる)ものとする。この場合、注目データを含む2×2の4データのブロックは、各データのレベル分布により、16(=(21)4)パターンに分類することができる。従って、いまの場合、注目データは、16のパターンに分類することができ、このようなパターン分けが、クラス分類処理である。
【0115】
ここで、通常、各データには、例えば8ビット程度が割り当てられる。また、クラスタップを、3×3の9データで構成すると、このようなクラスタップを対象にクラス分類処理を行ったのでは、(28)9という膨大な数のクラスに分類されることになる。
【0116】
そこで、本実施の形態においては、クラスタップに対して、ADRC(Adaptive Dynamic Range Coding)処理が施され、これにより、クラスタップを構成するデータのビット数を小さくすることで、クラス数を削減する。
【0117】
説明を簡単にするため、下位階層特徴量の、1つのライン上に並んだ4データで構成されるクラスタップを考えると、ADRC処理においては、そのデータ値の最大値MAXと最小値MINが検出される。そして、DR=MAX−MINを、クラスタップで構成されるブロックの局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップのブロックを構成するデータのデータ値がKビットに再量子化される。
【0118】
即ち、ブロック内の各データ値から、最小値MINを減算し、その減算値をDR/2Kで除算する。そして、その結果得られる除算値に対応するコード(ADRCコード)に変換される。具体的には、例えば、K=2とした場合、除算値が、ダイナミックレンジDRを4(=22)等分して得られるいずれの範囲に属するかが判定され、除算値が、最も下のレベルの範囲、下から2番目のレベルの範囲、下から3番目のレベルの範囲、または最も上のレベルの範囲に属する場合には、それぞれ、例えば、00B,01B,10B、または11Bなどの2ビットにコード化される(Bは2進数であることを表す)。そして、復号側においては、ADRCコード00B,01B,10B、または11Bは、ダイナミックレンジDRを4等分して得られる最も下のレベルの範囲の中心値L00、下から2番目のレベルの範囲の中心値L01、下から3番目のレベルの範囲の中心値L10、または最も上のレベルの範囲の中心値L11に変換され、その値に、最小値MINが加算されることで復号が行われる。
【0119】
ここで、このようなADRC処理はノンエッジマッチングと呼ばれる。
【0120】
なお、ADRC処理については、本件出願人が先に出願した、例えば、特開平3−53778号公報などに、その詳細が開示されている。
【0121】
クラスタップを構成するデータに割り当てられているビット数より少ないビット数で再量子化を行うADRC処理を施すことにより、上述したように、クラス数を削減することができる。
【0122】
なお、本実施の形態では、ADRCコードに基づいて、クラス分類処理が行われるが、クラス分類処理は、その他、例えば、DPCM(予測符号化)や、BTC(Block Truncation Coding)、VQ(ベクトル量子化)、DCT(離散コサイン変換)、アダマール変換などを施したデータを対象に行うようにすることも可能である。
【0123】
本実施の形態において、このように分類されたクラス毎に適応処理を実行する。適応処理としては、予め学習された予測係数を用いた予測演算を行う方式と、重心法により予測値を学習しておく方式がある。また、学習を行うための条件としては、画像信号および動きベクトルからなる、目標となる教師信号を用意しておく必要がある。
【0124】
次に、この教師信号を用いて、予め学習により生成されたクラス毎の予測係数を用いた予測演算を行う適応処理について説明する。例えば、5×5の下位階層特徴量E0乃至E24の25タップにより予測タップを構成し、動き評価値E'を予測することを考える。
【0125】
動き評価値の予測値E'は、式(6)により算出される。
【0126】
【数1】
Eiは、下位階層特徴量を示する。wiは、予測係数を示す。
【0127】
例えば、9つのデータに、上述の1ビットADRCを適用し、512クラスに分類したとき、各クラス毎に生成された予測係数と下位階層特徴量との積和演算により動き評価値E'が予測される。
【0128】
例えば、直交する2つの動き評価値E'を算出し、それぞれ動きベクトルのx成分およびy成分とし、動きベクトルを算出することができる。また、例えば、n個の動き評価値E'を算出し、それぞれが方向が異なるn個の単位ベクトルの大きさを示すものとし、n個の動き評価値E'のそれぞれを、n個の単位ベクトルのそれぞれに乗算して、乗算された結果を加算することにより、動きベクトルを算出することができる。
【0129】
また、適応処理により、動きベクトルに限らず、例えば、コンポーネントビデオ信号を予測するとき、式(6)に基づく演算により、Y信号に対応する評価値E'、U信号に対応する評価値E'、V信号に対応する評価値E'を個々に算出することができる。
【0130】
上述の予測係数は、予め学習により生成しておくため、ここで、その学習について説明する。
【0131】
式(6)のモデルに基づく予測係数を最小自乗法により生成する例を示す。
【0132】
最小自乗法は、次のように適用される。一般化した例として、Xを入力データ、Wを予測係数、Yを予測値として式(7)を考える。
観測方程式:XW=Y (7)
【0133】
【数2】
【0134】
上述の観測方程式により収集されたデータに最小自乗法を適用する。式(6)の例においては、nは、25であり、mは、学習データの数である。
【0135】
式(7)の観測方程式を基に、式(9)の残差方程式を考える。
【0136】
【数3】
【0137】
式(9)の残差方程式から、各wiの最確値は、式(10)に示す値を最小にする条件が成り立つ場合に対応する。
【0138】
【数4】
【0139】
すなわち、式(11)の条件を考慮すればよい。
【0140】
【数5】
【0141】
式(11)のiに基づくn個の条件を満たすw1乃至wnを算出すればよい。そこで、残差方程式(9)から式(12)が得られる。
【0142】
【数6】
【0143】
式(11)および式(12)により、式(13)が得られる。
【0144】
【数7】
【0145】
式(10)および式(13)から、正規方程式(14)が得られる。
【0146】
【数8】
【0147】
式(14)の正規方程式において、未知数の数nと同じ数の方程式を立てることが可能であるので、確wiの最確値を求めることができる。例えば、掃き出し法(Gauss-Jordanの消去法)を用いて、式(14)が解かれる。
【0148】
以上のようにして、クラスごとに最適な予測係数wを求め、さらに、その予測係数wを用い、式(6)により、教師信号の動きベクトルに近いベクトルを示す予測値E'を求めるのが適応処理である。
【0149】
なお、コンポーネントビデオ信号を予測するとき、コンポーネントビデオ信号を予測するための、クラスごとに最適な予測係数wを求める必要がある。
【0150】
また、適応処理は、式(6)だけを見る限りは、いわゆる補間フィルタを用いての補間処理と同一であるが、その補間フィルタのタップ係数に相当する予測係数wが、教師信号を用いての、いわば学習により求められるため、元の動きベクトルを再現することができる。このことから、適応処理は、いわば創造作用がある処理ということができる。
【0151】
図18は、クラス分類適応処理により下位階層ベクトルを検出する、下位階層動きベクトル検出部26の他の構成を示すブロック図である。
【0152】
クラス分類部51は、サブキャリア位相情報、および下位階層特徴量を基に、クラス分類し、分類されたクラスを示すクラスコードを予測タップ抽出部52に供給する。例えば、クラス分類部51は、注目データの位相に対応して、クラス分類する。また、例えば、クラス分類部51は、注目データに対応する、所定の数の下位階層特徴量にADRC処理を適用し、クラス分類する。
【0153】
予測タップ抽出部52は、クラスコードで示されるクラス、メモリ55から供給される、前のフィールドに対応する下位階層ベクトル、および上位階層ベクトルを基に、所定の位置の、所定の数の下位階層特徴量を抽出して、抽出した下位階層特徴量を予測タップとして演算部53に供給する。
【0154】
演算部53は、予測係数メモリ54から供給される、所定の数の予測係数からなる係数セットを基に、例えば、式(6)に示す演算を実行して、下位階層ベクトルを予測する。演算部53は、予測された下位階層ベクトルをメモリ55に供給するとともに、外部に出力する。
【0155】
メモリ55は、演算部53から供給された下位階層ベクトルを記憶し、記憶している下位階層ベクトルを予測タップ抽出部52に供給する。
【0156】
このように、動きベクトル検出部2は、精度の高い動きベクトルを検出して、検出した動きベクトルをクラスタップ抽出部3および演算部4に供給することができる。
【0157】
クラスタップ抽出部3は、NTSCデコーダ1から供給されたサブキャリア位相情報、および動きベクトル検出部2から供給された動きベクトルを基に、クラス分類のためのデータのセットである、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなるクラスタップを抽出する。
【0158】
図19は、演算部4の構成を示すブロック図である。
【0159】
クラス分類部71−1は、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量、および下位階層特徴量、並びにクラスタップ抽出部3から供給されたクラスタップ、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類し、クラス分類の結果を示すクラスコードを予測タップ抽出部72−1および係数メモリ73−1に供給する。
【0160】
例えば、クラス分類部71−1は、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類する。また、クラス分類部71−1は、NTSCデコーダ1から供給されたサブキャリア位相情報により示される、注目データを基準に、動きベクトルにより指定されるデータの位相を基に、クラス分類する。従って、分類されるクラスの数は、4のべき乗となる。
【0161】
また、クラス分類部71−1は、動きベクトル検出部2から供給された上位階層特徴量、および下位階層特徴量を基に、クラス分類する。すなわち、例えば、クラス分類部71−1は、動きベクトル検出部2から供給された上位階層特徴量に、ADRC処理を適用し、上位階層特徴量を所定のビット数のクラスコードに量子化する。クラス分類部71−1は、動きベクトル検出部2から供給された下位階層特徴量に、ADRC処理を適用し、下位階層特徴量を所定のビット数のクラスコードに量子化する。閾値判定により量子化するとき、閾値判定による量子化は、ベクトルの信頼性をクラスコード化することと等価である。
【0162】
図20は、上位階層特徴量に対応するクラスタップおよび予測タップの例を説明する図である。
【0163】
図20Aに示すように、注目データが白丸で示される位相であるとき、例えば、上位階層特徴量は、図20Bに示すように、白丸で示される、注目データと同相のデータのみから構成される。このとき、例えば、上位階層特徴量に対応するクラスタップは、注目データp5、および注目データp5の2つ上側のデータp1、注目データp5の1つ上側であって、2つ左側のデータp2、注目データp5の1つ上側であって、2つ右側のデータp3、注目データp5の4つ左側のデータp4、注目データp5の4つ右側のデータp6、注目データp5の1つ下側であって、2つ左側のデータp7、注目データp5の1つ下側であって、2つ右側のデータp8、注目データp5の2つ下側のデータp9から構成される。
【0164】
例えば、上位階層特徴量は、図20Cに示すように、三角で示される、上下に2つ、および左右に2つの合計4つのデータの平均値から構成される。平均値から構成される上位階層特徴量の上下方向の位置は、元の画像信号のデータの位置に対して、ラインの幅の半分だけ、ずれると共に、平均値から構成される上位階層特徴量の左右方向の位置は、元の画像信号のデータの位置に対して、データの間隔の半分だけ、ずれる。
【0165】
注目データをp11としたとき、上位階層特徴量に対応するクラスタップは、例えば、注目データp11に対して、ラインが2つと半分上側であって、元のデータの間隔の半分だけ左側のデータA1、注目データp11に対して、ラインが2つと半分上側であって、元のデータの間隔の1つと半分だけ右側のデータA2、ラインが1つと半分上側であって、元のデータの間隔の1つと半分だけ左側のデータA3、ラインが1つと半分上側であって、元のデータの間隔の半分だけ右側のデータA4、ラインが1つと半分上側であって、元のデータの間隔の2つと半分だけ右側のデータA5、ラインが半分上側であって、元のデータの間隔の半分だけ左側のデータA6、ラインが半分上側であって、元のデータの間隔の1つと半分だけ右側のデータA7、ラインが半分下側であって、元のデータの間隔の1つと半分だけ左側のデータA8、ラインが半分下側であって、元のデータの間隔の半分だけ右側のデータA9、ラインが半分下側であって、元のデータの間隔の2つと半分だけ右側のデータA10、ラインが1つと半分下側であって、元のデータの間隔の半分だけ左側のデータA11、ラインが1つと半分下側であって、元のデータの間隔の1つと半分だけ右側のデータA12、ラインが2つと半分下側であって、元のデータの間隔の1つと半分だけ左側のデータA13、ラインが2つと半分下側であって、元のデータの間隔の半分だけ右側のデータA14、ラインが2つと半分下側であって、および元のデータの間隔の2つと半分だけ左側のデータA15から構成される。
【0166】
図21は、下位階層特徴量に対応するクラスタップおよび予測タップの例を説明する図である。
【0167】
現在のフィールド#−1に対応するクラスタップは、注目データに対応する下位階層特徴量のデータを中心とする、3×3のデータ、すなわち、注目データに対応する下位階層特徴量のデータ、注目データに対応する下位階層特徴量のデータの上側のデータ、注目データに対応する下位階層特徴量のデータの上側であって、左側のデータ、注目データに対応する下位階層特徴量のデータの上側であって、右側のデータ、注目データに対応する下位階層特徴量のデータの左側のデータ、注目データに対応する下位階層特徴量のデータの右側のデータ、注目データに対応する下位階層特徴量のデータの下側であって、左側のデータ、注目データに対応する下位階層特徴量のデータの下側であって、右側のデータで構成される。
【0168】
対応するフィールド#0のクラスタップは、注目データから動きベクトルで指定される下位階層特徴量のデータを中心とする、3×3のデータ、すなわち、注目データから動きベクトルで指定される下位階層特徴量のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの上側のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの上側であって、左側のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの上側であって、右側のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの左側のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの右側のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの下側であって、左側のデータ、注目データから動きベクトルで指定される下位階層特徴量のデータの下側であって、右側のデータで構成される。
【0169】
クラス分類部71−1は、画像信号の注目データ、および注目データの周辺の周辺データを基に、空間クラスにクラス分類する。すなわち、例えば、クラス分類部71−1は、画像信号の注目データ、および周辺データに、ADRC処理を適用し、注目データ、および周辺データを、所定のビット数のクラスコードに量子化する。
【0170】
クラス分類部71−1は、注目フィールドの注目データから動きベクトルで示される、対応フィールドの対象データ、および対象データの周辺の周辺データを基に、クラス分類する。すなわち、例えば、クラス分類部71−1は、注目フィールドの注目データから動きベクトルで示される、対応フィールドの対象データ、および対象データの周辺の周辺データに、ADRC処理を適用し、対象データ、および周辺データを、所定のビット数のクラスコードに量子化する。
【0171】
クラス分類部71−1は、動き量を基に、クラス分類するようにしてもよい。
【0172】
クラス分類部71−1は、所定のブロックに属する、画像信号の注目データおよび周辺データのデータ値の最大値と最小値の差であるダイナミックレンジを予測タップ抽出部72−1に供給する。
【0173】
なお、クラス分類部71−1は、図21に例を示す、注目フィールドの下位階層特徴量のクラスタップを基に、ダイナミックレンジを算出するようにしてもよい。
【0174】
また、クラス分類部71−1は、クラスタップに含まれる、上位階層特徴量を基に、クラス分類するようにしてもよい。
【0175】
予測タップ抽出部72−1は、動きベクトル検出部2から供給された動きベクトル、および残差などの特徴量、並びにクラス分類部71−1から供給されたクラスコードおよびダイナミックレンジを基に、画像信号のデータ、上位階層特徴量、および下位階層特徴量から所定のデータを抽出して、抽出したデータを予測タップとして予測演算部74−1に供給する。
【0176】
予測タップ抽出部72−1は、クラス分類部71−1から供給されたダイナミックレンジが大きいとき、近傍に画像のエッジが含まれているので予測タップを近傍のデータで構成するため、空間的に広がりの小さい予測タップを抽出する。一方、予測タップ抽出部72−1は、クラス分類部71−1から供給されたダイナミックレンジが小さいとき、画像が平坦部なので予測タップを広範囲のデータで構成するため、空間的に広がりの大きい予測タップを抽出する。
【0177】
予測タップ抽出部72−1は、動きベクトル検出部2から供給された特徴量である残差が大きいとき、動きベクトルが誤っている可能性が大きいため、空間的に広がりの大きい予測タップを抽出する。一方、予測タップ抽出部72−1は、動きベクトル検出部2から供給された特徴量である残差が小さいとき、動きベクトルが誤っている可能性が小さいため、空間的に広がりの小さい予測タップを抽出する。
【0178】
なお、予測タップ抽出部72−1は、クラスコードのみを基に、予測タップを抽出するようにしてもよい。
【0179】
図20Aに示すように、注目データが白丸で示される位相であるとき、例えば、上位階層特徴量は、図20Bに示すように、白丸で示される、注目データと同相のデータのみから構成される。このとき、例えば、上位階層特徴量に対応する予測タップは、注目データp5、および注目データp5の2つ上側のデータp1、注目データp5の1つ上側であって、2つ左側のデータp2、注目データp5の1つ上側であって、2つ右側のデータp3、注目データp5の4つ左側のデータp4、注目データp5の4つ右側のデータp6、注目データp5の1つ下側であって、2つ左側のデータp7、注目データp5の1つ下側であって、2つ右側のデータp8、注目データp5の2つ下側のデータp9から構成される。
【0180】
例えば、上位階層特徴量は、図20Cに示すように、三角で示される、上下に2つ、および左右に2つの合計4つのデータの平均値から構成される。平均値から構成される上位階層特徴量の上下の位置は、元の画像信号のデータの位置に対して、ラインの幅の半分だけ、ずれる。また、平均値から構成される上位階層特徴量の左右の位置は、元の画像信号のデータの位置に対して、データの間隔の半分だけ、ずれる。
【0181】
このとき、注目データをp11とした場合、上位階層特徴量に対応する予測タップは、例えば、注目データp11に対して、ラインが2つと半分上側であって、元のデータの間隔の半分だけ左側のデータA1、注目データp11に対して、ラインが2つと半分上側であって、元のデータの間隔の1つと半分だけ右側のデータA2、ラインが1つと半分上側であって、元のデータの間隔の1つと半分だけ左側のデータA3、ラインが1つと半分上側であって、元のデータの間隔の半分だけ右側のデータA4、ラインが1つと半分上側であって、元のデータの間隔の2つと半分だけ右側のデータA5、ラインが半分上側であって、元のデータの間隔の半分だけ左側のデータA6、ラインが半分上側であって、元のデータの間隔の1つと半分だけ右側のデータA7、ラインが半分下側であって、元のデータの間隔の1つと半分だけ左側のデータA8、ラインが半分下側であって、元のデータの間隔の半分だけ右側のデータA9、ラインが半分下側であって、元のデータの間隔の2つと半分だけ右側のデータA10、ラインが1つと半分下側であって、元のデータの間隔の半分だけ左側のデータA11、ラインが1つと半分下側であって、元のデータの間隔の1つと半分だけ右側のデータA12、ラインが2つと半分下側であって、元のデータの間隔の1つと半分だけ左側のデータA13、ラインが2つと半分下側であって、元のデータの間隔の半分だけ右側のデータA14、ラインが2つと半分下側であって、および元のデータの間隔の2つと半分だけ左側のデータA15から構成される。
【0182】
図21に示すように、下位階層特徴量における、現在のフィールド#−1に対応する予測タップは、注目データに対応する下位階層特徴量のデータを中心とする、5×5のデータで構成される。
【0183】
下位階層特徴量における、対応するフィールド#0の予測タップは、注目データから動きベクトルで指定される下位階層特徴量のデータを中心とする、5×5のデータで構成される。
【0184】
係数メモリ73−1は、クラス分類部71−1から供給されたクラスコードを基に、予め記憶している係数セットのうち、クラスコードで指定されるクラスに対応する係数セットを選択し、選択したクラスコードを予測演算部74−1に供給する。
【0185】
予測演算部74−1は、予測タップ抽出部72−1から供給された予測タップ、および係数メモリ73−1から供給された係数セットを基に、例えば、式(6)に対応する演算をより、Y信号を予測し、予測されたY信号を出力する。
【0186】
クラス分類部71−2は、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量、および下位階層特徴量、並びにクラスタップ抽出部3から供給されたクラスタップ、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類し、クラス分類の結果を示すクラスコードを予測タップ抽出部72−2および係数メモリ73−2に供給する。
【0187】
例えば、クラス分類部71−2は、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類する。また、クラス分類部71−2は、NTSCデコーダ1から供給されたサブキャリア位相情報により示される、注目データを基準に、動きベクトルにより指定されるデータの位相を基に、クラス分類する。
【0188】
クラス分類部71−2は、動きベクトル検出部2から供給された上位階層特徴量、および下位階層特徴量を基に、クラス分類する。すなわち、例えば、クラス分類部71−2は、動きベクトル検出部2から供給された上位階層特徴量に、ADRC処理を適用し、上位階層特徴量を所定のビット数のクラスコードに量子化する。クラス分類部71−2は、動きベクトル検出部2から供給された下位階層特徴量に、ADRC処理を適用し、下位階層特徴量を所定のビット数のクラスコードに量子化する。
【0189】
クラス分類部71−2は、画像信号の注目データ、および注目データの周辺の周辺データを基に、空間クラスにクラス分類する。すなわち、例えば、クラス分類部71−2は、画像信号の注目データ、および周辺データに、ADRC処理を適用し、注目データ、および周辺データを、所定のビット数のクラスコードに量子化する。
【0190】
クラス分類部71−2は、注目フィールドの注目データから動きベクトルで示される、対応フィールドの対象データ、および対象データの周辺の周辺データを基に、クラス分類する。すなわち、例えば、クラス分類部71−2は、注目フィールドの注目データから動きベクトルで示される、対応フィールドの対象データ、および対象データの周辺の周辺データに、ADRC処理を適用し、対象データ、および周辺データを、所定のビット数のクラスコードに量子化する。
【0191】
クラス分類部71−2は、動き量を基に、クラス分類するようにしてもよい。
【0192】
クラス分類部71−2は、所定のブロックの、画像信号の注目データおよび周辺データのデータ値の最大値と最小値の差であるダイナミックレンジを予測タップ抽出部72−2に供給する。
【0193】
なお、クラス分類部71−2は、図21に例を示す、注目フィールド下位階層特徴量のクラスタップを基に、ダイナミックレンジを算出するようにしてもよい。
【0194】
また、クラス分類部71−2は、クラスタップに含まれる、上位階層特徴量を基に、クラス分類するようにしてもよい。
【0195】
予測タップ抽出部72−2は、動きベクトル検出部2から供給された動きベクトル、および残差などの特徴量、並びにクラス分類部71−2から供給されたクラスコードおよびダイナミックレンジを基に、画像信号のデータ、上位階層特徴量、および下位階層特徴量から所定のデータを抽出して、抽出したデータを予測タップとして予測演算部74−2に供給する。
【0196】
なお、予測タップ抽出部72−2は、クラスコードのみを基に、予測タップを抽出するようにしてもよい。
【0197】
係数メモリ73−2は、クラス分類部71−2から供給されたクラスコードを基に、予め記憶している係数セットのうち、クラスコードで指定されるクラスに対応する係数セットを選択し、選択しクラスコードを予測演算部74−2に供給する。
【0198】
予測演算部74−2は、予測タップ抽出部72−2から供給された予測タップ、および係数メモリ73−2から供給された係数セットを基に、例えば、式(6)に対応する演算をより、U信号を予測し、予測されたU信号を出力する。
【0199】
クラス分類部71−3は、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量、および下位階層特徴量、並びにクラスタップ抽出部3から供給されたクラスタップ、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類し、クラス分類の結果を示すクラスコードを予測タップ抽出部72−3および係数メモリ73−3に供給する。
【0200】
例えば、クラス分類部71−3は、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類する。また、クラス分類部71−3は、NTSCデコーダ1から供給されたサブキャリア位相情報により示される、注目データを基準に、動きベクトルにより指定されるデータの位相を基に、クラス分類する。
【0201】
クラス分類部71−3は、動きベクトル検出部2から供給された上位階層特徴量、および下位階層特徴量を基に、クラス分類する。すなわち、例えば、クラス分類部71−3は、動きベクトル検出部2から供給された上位階層特徴量に、ADRC処理を適用し、上位階層特徴量を所定のビット数のクラスコードに量子化する。クラス分類部71−3は、動きベクトル検出部2から供給された下位階層特徴量に、ADRC処理を適用し、下位階層特徴量を所定のビット数のクラスコードに量子化する。
【0202】
クラス分類部71−3は、画像信号の注目データ、および注目データの周辺の周辺データを基に、空間クラスにクラス分類する。すなわち、例えば、クラス分類部71−3は、画像信号の注目データ、および周辺データに、ADRC処理を適用し、注目データ、および周辺データを、所定のビット数のクラスコードに量子化する。
【0203】
クラス分類部71−3は、注目フィールドの注目データから動きベクトルで示される、対応フィールドの対象データ、および対象データの周辺の周辺データを基に、クラス分類する。すなわち、例えば、クラス分類部71−3は、注目フィールドの注目データから動きベクトルで示される、対応フィールドの対象データ、および対象データの周辺の周辺データに、ADRC処理を適用し、対象データ、および周辺データを、所定のビット数のクラスコードに量子化する。
【0204】
クラス分類部71−3は、動き量を基に、クラス分類するようにしてもよい。
【0205】
クラス分類部71−3は、所定のブロックの、画像信号の注目データおよび周辺データのデータ値の最大値と最小値の差であるダイナミックレンジを予測タップ抽出部72−3に供給する。
【0206】
なお、クラス分類部71−3は、図21に例を示す、注目フィールド下位階層特徴量のクラスタップを基に、ダイナミックレンジを算出するようにしてもよい。
【0207】
また、クラス分類部71−3は、クラスタップに含まれる、上位階層特徴量を基に、クラス分類するようにしてもよい。
【0208】
予測タップ抽出部72−3は、動きベクトル検出部2から供給された動きベクトル、および残差などの特徴量、並びにクラス分類部71−3から供給されたクラスコードおよびダイナミックレンジを基に、画像信号のデータ、上位階層特徴量、および下位階層特徴量から所定のデータを抽出して、抽出したデータを予測タップとして予測演算部74−3に供給する。
【0209】
なお、予測タップ抽出部72−3は、クラスコードのみを基に、予測タップを抽出するようにしてもよい。
【0210】
係数メモリ73−3は、クラス分類部71−3から供給されたクラスコードを基に、予め記憶している係数セットのうち、クラスコードで指定されるクラスに対応する係数セットを選択し、選択しクラスコードを予測演算部74−3に供給する。
【0211】
予測演算部74−3は、予測タップ抽出部72−3から供給された予測タップ、および係数メモリ73−3から供給された係数セットを基に、例えば、式(6)に対応する演算をより、V信号を予測し、予測されたV信号を出力する。
【0212】
このように、演算部4は、クラス分類適応処理により、従来に比較して、より精度の高いコンポーネントビデオ信号である、Y信号、U信号、およびV信号を予測し、予測したY信号、U信号、およびV信号を出力することができる。
【0213】
以下、クラス分類部71−1乃至71−3を個々に区別する必要がないとき、単に、クラス分類部71と称する。
【0214】
以下、予測タップ抽出部72−1乃至72−3を個々に区別する必要がないとき、単に、予測タップ抽出部72と称する。
【0215】
以下、係数メモリ73−1乃至73−3を個々に区別する必要がないとき、単に、係数メモリ73と称する。
【0216】
以下、予測演算部74−1乃至74−3を個々に区別する必要がないとき、単に、予測演算部74と称する。
【0217】
図22は、演算部4の他の構成を示すブロック図である。図19に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0218】
セレクタ81は、クラス分類部71−1乃至71−3から個々に供給された3つのクラスコードおよびダイナミックレンジの内、1つのクラスコードおよびダイナミックレンジを選択し、選択したクラスコードおよびダイナミックレンジを予測タップ抽出部82に供給する。
【0219】
セレクタ81は、係数メモリ73−1乃至73−3から個々に供給された3つの係数セットの内、1つの係数セットを選択し、選択した係数セットを予測演算部83に供給する。
【0220】
予測タップ抽出部82は、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量、および下位階層特徴量、並びにセレクタ81から供給されたクラスコードおよびダイナミックレンジを基に、予測タップを抽出し、抽出した予測タップを予測演算部83に供給する。
【0221】
予測タップ抽出部82は、セレクタ81を介して、クラス分類部71−1からに出力されたクラスコードおよびダイナミックレンジが供給されたとき、Y信号に対応する予測タップを抽出し、抽出した予測タップを予測演算部83に供給する。予測タップ抽出部82は、セレクタ81を介して、クラス分類部71−2からに出力されたクラスコードおよびダイナミックレンジが供給されたとき、U信号に対応する予測タップを抽出し、抽出した予測タップを予測演算部83に供給する。予測タップ抽出部82は、セレクタ81を介して、クラス分類部71−3からに出力されたクラスコードおよびダイナミックレンジが供給されたとき、V信号に対応する予測タップを抽出し、抽出した予測タップを予測演算部83に供給する。
【0222】
予測演算部83は、予測タップ抽出部82からY信号に対応する予測タップが供給されたとき、セレクタ81を介して、係数メモリ73−1から供給された係数セットを基に、Y信号を予測して、予測したY信号を出力する。予測演算部83は、予測タップ抽出部82からU信号に対応する予測タップが供給されたとき、セレクタ81を介して、係数メモリ73−2から供給された係数セットを基に、U信号を予測して、予測したU信号を出力する。予測演算部83は、予測タップ抽出部82からV信号に対応する予測タップが供給されたとき、セレクタ81を介して、係数メモリ73−3から供給された係数セットを基に、V信号を予測して、予測したV信号を出力する。
【0223】
図23は、演算部4の他の構成を示すブロック図である。図19に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0224】
クラス分類部91は、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量、および下位階層特徴量、並びにクラスタップ抽出部3から供給されたクラスタップ、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類し、クラス分類の結果を示すクラスコードを予測タップ抽出部72−1乃至72−3および係数メモリ73−1乃至73−3に供給する。
【0225】
予測タップ抽出部72−1乃至72−3は、例えば、それぞれ異なる閾値を基に、異なる予測タップを抽出する。
【0226】
図24は、演算部4の他の構成を示すブロック図である。図19に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。図22に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0227】
クラス分類部91は、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量、および下位階層特徴量、並びにクラスタップ抽出部3から供給されたクラスタップ、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、クラス分類し、クラス分類の結果を示すクラスコードを予測タップ抽出部82および係数メモリ73−1乃至73−3に供給する。
【0228】
セレクタ101は、係数メモリ73−1乃至73−3から個々に供給された3つの係数セットの内、1つの係数セットを選択し、選択した係数セットを予測演算部83に供給する。
【0229】
図25は、本発明に係る画像処理装置の実施の形態の構成の一例の詳細を示すブロック図である。画像処理装置に入力されたNTSCコンポジット信号は、サブキャリア位相情報検出回路121、フィールドメモリ122−1、動きベクトル検出回路123、および遅延回路124−1に供給される。
【0230】
サブキャリア位相情報検出回路121は、入力されたNTSCコンポジット信号から位相を検出し、検出された位相の情報を動きベクトル検出回路123、サブキャリア位相情報検出回路125、およびクラス分類部127に供給する。
【0231】
フィールドメモリ122−1は、入力されたNTSCコンポジット信号を記憶し、1つのフィールドに対応する期間遅延させ、記憶しているNTSCコンポジット信号をフィールドメモリ122−2、動きベクトル検出回路123、および遅延回路124−2に供給する。
【0232】
フィールドメモリ122−2は、フィールドメモリ122−1から供給されたNTSCコンポジット信号を記憶し、1つのフィールドに対応する期間遅延させ、記憶しているNTSCコンポジット信号を動きベクトル検出回路123、および遅延回路124−3に供給する。
【0233】
従って、動きベクトル検出回路123には、基準となるフィールドの信号、基準となるフィールドの次(未来)のフィールドの信号、および基準となるフィールドの前(過去)のフィールドの信号が同時に供給される。動きベクトル検出回路123は、基準となるフィールドの信号、基準となるフィールドの次のフィールドの信号、および基準となるフィールドの前のフィールドの信号を基に、基準となるフィールドと前のフィールドに対応するベクトル(t−1)、および基準となるフィールドと次のフィールドに対応するベクトル(t+1)を生成する。
【0234】
動きベクトル検出回路123は、基準となるフィールドと前のフィールドに対応するベクトル(t−1)、および基準となるフィールドと次のフィールドに対応するベクトル(t+1)をサブキャリア位相情報検出回路125に供給する。
【0235】
動きベクトル検出回路123は、基準となるフィールドと前のフィールドに対応するベクトル(t−1)を領域切出回路126−3および領域切出回路128−3に供給すると共に、および基準となるフィールドと次のフィールドに対応するベクトル(t+1)を領域切出回路126−1および領域切出回路128−1に供給する。
【0236】
動きベクトル検出回路123は、ベクトル(t−1)およびベクトル(t+1)の検出の処理で算出された特徴量をクラス分類部127に供給する。
【0237】
遅延回路124−1は、動きベクトル検出回路123の処理時間に対応させて、基準となるフィールドの次のフィールドの信号を遅延させ、遅延した基準となるフィールドの次のフィールドの信号を領域切出回路126−1に供給する。
【0238】
遅延回路124−2は、動きベクトル検出回路123の処理時間に対応させて、基準となるフィールドの信号を遅延させ、遅延した基準となるフィールドの信号を領域切出回路126−1に供給する。
【0239】
遅延回路124−3は、動きベクトル検出回路123の処理時間に対応させて、基準となるフィールドの前のフィールドの信号を遅延させ、遅延した基準となるフィールドの前のフィールドの信号を領域切出回路126−1に供給する。
【0240】
サブキャリア位相情報検出回路125は、サブキャリア位相情報検出回路121から供給された位相の情報、および動きベクトル検出回路123から供給された基準となるフィールドと前のフィールドに対応するベクトル(t−1)、および基準となるフィールドと次のフィールドに対応するベクトル(t+1)を基に、前のフィールドに対応する位相情報および次のフィールドに対応する位相情報を生成する。サブキャリア位相情報検出回路125は、前のフィールドに対応する位相情報および次のフィールドに対応する位相情報をクラス分類部127に供給する。
【0241】
領域切出回路126−1は、動きベクトル検出回路123から供給された、基準となるフィールドと次のフィールドに対応するベクトル(t+1)を基に、遅延回路124−1から供給された、基準となるフィールドの次のフィールドの信号に含まれる所定のデータを切り出して、切り出したデータをクラス分類部127に供給する。
【0242】
領域切出回路126−2は、動きベクトル検出回路123から供給された、基準となるフィールドと前のフィールドに対応するベクトル(t−1)を基に、遅延回路124−2から供給された、基準となるフィールドの信号に含まれる所定のデータを切り出して、切り出したデータをクラス分類部127に供給する。
【0243】
領域切出回路126−3は、遅延回路124−3から供給された、基準となるフィールドの前のフィールドの信号に含まれる所定のデータを切り出して、切り出したデータをクラス分類部127に供給する。
【0244】
クラス分類部127は、サブキャリア位相情報検出回路121から供給された位相の情報、動きベクトル検出回路123から供給された特徴量、サブキャリア位相情報検出回路125から供給された前のフィールドに対応する位相情報および次のフィールドに対応する位相情報、領域切出回路126−1から供給された、基準となるフィールドの次のフィールドの信号から切り出されたデータ、領域切出回路126−2から供給された、基準となるフィールドの信号から切り出されたデータ、および領域切出回路126−3から供給された、基準となるフィールドの前のフィールドの信号から切り出されたデータを基に、クラス分類し、クラス分類の結果を示すクラスコードを領域切出回路128−1、領域切出回路128−2、領域切出回路128−3、係数メモリ129、および予測部130に供給する。
【0245】
クラス分類部127は、例えば、位相情報検出回路125から供給された前のフィールドに対応する位相情報を基に、4クラスに分類する。クラス分類部127は、例えば、位相情報検出回路121から供給された基準となるフィールドに対応する位相情報を基に、4クラスに分類する。クラス分類部127は、例えば、位相情報検出回路125から供給された次のフィールドに対応する位相情報を基に、4クラスに分類する。
【0246】
クラス分類部127は、例えば、基準となるフィールドの次のフィールドの信号から切り出されたデータ、基準となるフィールドの信号から切り出されたデータ、および基準となるフィールドの前のフィールドの信号から切り出されたデータである5つのデータに、ADRC処理を適用して、32クラスに分類する。
【0247】
クラス分類部127は、例えば、動きベクトル検出回路123から供給された特徴量を基に、所定の閾値と比較判定し、基準となるフィールドの次のフィールドに対して、2クラスに分類し、基準となるフィールドの前のフィールドに対して、2クラスに分類する。
【0248】
クラス分類部127は、例えば、以上のクラス分類を掛け合わせて、最終的に、8192クラスに分類する。
【0249】
クラス分類部127は、サブキャリア位相情報検出回路121から供給された位相の情報、動きベクトル検出回路123から供給された特徴量、サブキャリア位相情報検出回路125前のフィールドに対応する位相情報および次のフィールドに対応する位相情報、領域切出回路126−1から供給された、基準となるフィールドの次のフィールドの信号から切り出されたデータ、領域切出回路126−2から供給された、基準となるフィールドの信号から切り出されたデータ、および領域切出回路126−3から供給された、基準となるフィールドの前のフィールドの信号から切り出されたデータを基に、予測タップの構造を指定する構造可変情報を生成し、生成した構造可変情報を領域切出回路128−1、領域切出回路128−2、および領域切出回路128−3に供給する。
【0250】
領域切出回路128−1は、動きベクトル検出回路123から供給された、基準となるフィールドと次のフィールドに対応するベクトル(t+1)、並びにクラス分類部127から供給されたクラスコードおよび構造可変情報を基に、遅延回路124−1から供給された、基準となるフィールドの次のフィールドの信号に含まれる所定のデータを切り出して、切り出したデータを予測部130に供給する。
【0251】
領域切出回路128−2は、クラス分類部127から供給されたクラスコードおよび構造可変情報を基に、遅延回路124−2から供給された、基準となるフィールドの信号に含まれる所定のデータを切り出して、切り出したデータを予測部130に供給する。
【0252】
領域切出回路128−3は、動きベクトル検出回路123から供給された、基準となるフィールドと前のフィールドに対応するベクトル(t−1)、並びにクラス分類部127から供給されたクラスコードおよび構造可変情報を基に、遅延回路124−3から供給された、基準となるフィールドの前のフィールドの信号に含まれる所定のデータを切り出して、切り出したデータを予測部130に供給する。
【0253】
係数メモリ129は、外部から供給された予測モード設定信号、およびクラスコードを基に、分類されたクラスに対応する所定の係数セットを予測部130に供給する。
【0254】
予測部130は、クラス分類部127から供給されたクラスコード、係数メモリ129から供給された係数セット、領域切出回路128−1から供給された、基準となるフィールドの次のフィールドの信号から切り出されたデータ、領域切出回路128−2から供給された、基準となるフィールドの信号から切り出されたデータ、領域切出回路128−3から供給された、基準となるフィールドの前のフィールドの信号から切り出されたデータを基に、例えば、Y信号、U信号、およびV信号からなるコンポーネントビデオ信号を予測する。
【0255】
このように、本発明に係る画像処理装置は、入力されたコンポジット信号に対応する、より正確なコンポーネントビデオ信号を生成することができる。
【0256】
図26は、本発明に係る画像処理装置による、コンポーネントビデオ信号の生成の処理を説明するフローチャートである。
【0257】
ステップS1において、動きベクトル検出部2は、NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報を基に、動きベクトルを検出する。動きベクトルの検出の処理の詳細は、後述する。
【0258】
ステップS2において、クラスタップ抽出部3は、NTSCデコーダ1から供給されたサブキャリア位相情報、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなるクラスタップを抽出する。
【0259】
ステップS3において、演算部4は、NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量のデータ、および下位階層特徴量のデータ、並びにクラスタップ抽出部3から供給されたクラスタップを基に、クラス分類する。例えば、図19に示す、演算部4のクラス分類部71−1乃至71−3は、NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量のデータ、および下位階層特徴量のデータ、並びにクラスタップ抽出部3から供給されたクラスタップを基に、クラス分類する。
【0260】
ステップS4において、演算部4は、分類されたクラス、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなる予測タップを抽出する。例えば、図19に示す予測タップ抽出部72−1乃至72−3は、分類されたクラスを示すクラスコード、ダイナミックレンジ、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなる予測タップを抽出する。
【0261】
ステップS5において、演算部4は、抽出された予測タップ、および予め記憶されている係数セットを基に、コンポーネントビデオ信号を予測し、処理は終了する。例えば、図19に示す演算部4の予測演算部74−1乃至74−3は、予測タップおよび係数メモリ73−1乃至73−3から供給された係数セットを基に、それぞれ、Y信号、U信号、およびV信号を予測する。
【0262】
図27は、ステップS1に対応する、動きベクトル検出部2による、動きベクトルの検出の処理を説明するフローチャートである。ステップS11において、動きベクトル検出部2は、NTSCデコーダ1を介して、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、注目データのサブキャリアの位相を取得する。
【0263】
ステップS12において、特徴量変換部23は、画像信号および取得したサブキャリアの位相を基に、注目フィールドおよび対応するフィールドについて、上位階層の特徴量を算出し、算出された特徴量を上位階層特徴量として出力する。
【0264】
ステップS13において、上位階層動きベクトル検出部25は、特徴量変換部23から供給された上位階層特徴量を基に、動きベクトルに近似する近似ベクトルである、上位階層ベクトルを検出する。上位階層ベクトルの検出の処理の詳細は、後述する。
【0265】
ステップS14において、特徴量変換部24は、画像信号および取得したサブキャリアの位相を基に、注目フィールドおよび対応するフィールドについて、下位階層の特徴量を算出し、算出された特徴量を下位階層特徴量として出力する。
【0266】
ステップS15において、下位階層動きベクトル検出部26は、特徴量変換部24から供給された下位階層特徴量、および上位階層動きベクトル検出部25から供給された上位階層ベクトルを基に、下位階層ベクトルを検出する。下位階層ベクトルの検出の処理の詳細は、後述する。
【0267】
ステップS16において、下位階層動きベクトル検出部26は、動きベクトルを出力して、処理は終了する。すなわち、下位階層動きベクトル検出部26は、検出した下位階層動きベクトルを動きベクトルとして出力する。
【0268】
図28は、ステップS13に対応する、上位階層動きベクトル検出部25による、上位階層ベクトルの検出の処理の詳細を説明するフローチャートである。ステップS21において、上位階層動きベクトル検出部25のベクトル生成部31は、パラメータAを基に、所定のベクトルを生成し、相関値算出部32および判定部33に供給する。ステップS22において、相関値算出部32は、注目フィールドの注目データに対応する上位階層特徴量を中心とし、所定の数の上位階層特徴量からなるブロックと、対応するフィールドの、ベクトル生成部31から供給されたベクトルで指定される位置を中心とし、所定の数の上位階層特徴量からなるブロックとの相関値を算出する。相関値算出部32は、例えば、相関値として、注目フィールドのブロックに属する上位階層特徴量と、対応するフィールドのブロックに属する上位階層特徴量との差分の絶対値の和を算出する。
【0269】
ステップS23において、判定部33は、ベクトル生成部31から供給されたベクトルに対応させて、相関値算出部32から供給された相関値を記憶する。
【0270】
ステップS24において、上位階層動きベクトル検出部25は、パラメータAにより指定された、所定の範囲の相関値を算出したか否かを判定し、所定の範囲の相関値を算出していないと判定された場合、ステップS21に戻り、次のベクトルに対応して、相関値の演算の処理を繰り返す。
【0271】
ステップS24において、パラメータAに含まれるデータで指定される、所定の範囲の相関値を算出したと判定された場合、ステップS25に進み、判定部33は、記憶している相関値のうち、最も強い相関に対応するベクトルを選択する。例えば、相関値算出部32が、相関値として、注目フィールドのブロックに属する上位階層特徴量と、対応するフィールドのベクトルに指定される位置のブロックに属する上位階層特徴量との差分の絶対値の和を算出するとき、判定部33は、最小の相関値を選択する。
【0272】
ステップS26において、判定部33は、上位階層ベクトルとして、ステップS25の処理で選択したベクトルを出力して、処理は終了する。
【0273】
図29は、ステップS15に対応する下位階層ベクトルの検出の処理の詳細を説明するフローチャートである。ステップS31において、下位階層動きベクトル検出部26のベクトル生成部41は、上位階層ベクトルおよびパラメータBを基に、所定のベクトルを生成し、相関値算出部42および判定部43に供給する。ステップS32において、相関値算出部42は、注目フィールドの注目データに対応する下位階層特徴量を中心とし、所定の数の下位階層特徴量からなるブロックと、対応するフィールドの、上位階層ベクトル、およびベクトル生成部41から供給されたベクトルで指定される位置を中心とし、所定の数の下位階層特徴量からなるブロックとの相関値を算出する。相関値算出部42は、例えば、相関値として、注目フィールドのブロックに属する下位階層特徴量と、対応するフィールドのベクトルで指定される位置のブロックに属する下位階層特徴量との相互相関を算出する。
【0274】
ステップS33において、判定部43は、ベクトル生成部41から供給されたベクトルに対応させて、相関値算出部42から供給された相関値を記憶する。
【0275】
ステップS34において、下位階層動きベクトル検出部26は、パラメータBに含まれるデータにより指定された、所定の範囲の相関値を算出したか否かを判定し、所定の範囲の相関値を算出していないと判定された場合、ステップS31に戻り、相関値の演算の処理を繰り返す。
【0276】
ステップS34において、所定の範囲の相関値を算出したと判定された場合、ステップS35に進み、判定部43は、記憶している相関値のうち、最も強い相関に対応するベクトルを選択する。例えば、相関値算出部42が、相関値として、注目フィールドのブロックに属する下位階層特徴量と、対応するフィールドのベクトルに指定される位置のブロックに属する下位階層特徴量との相互相関を算出するとき、判定部33は、最大の相関値を選択する。
【0277】
ステップS36において、判定部43は、下位階層ベクトルとして、ステップS35の処理で選択したベクトルを出力して、処理は終了する。
【0278】
このように、動きベクトル検出部2は、より精度の高い動きベクトルを検出することができる。
【0279】
動きベクトル検出部2は、2つの階層において動きベクトルを検出する処理を実行するようにしたので、回路規模を大きくすることなく、また、複雑な演算を必要とすることなく、より精度の高い動きベクトルを検出できる。
【0280】
図30は、ステップS15の処理に対応する、図18に構成を示す下位階層動きベクトル検出部26による、下位階層ベクトルの検出の他の処理の詳細を説明するフローチャートである。
【0281】
ステップS41において、クラス分類部51は、サブキャリア位相情報および下位階層特徴量を基に、注目データに対応してクラス分類する。
【0282】
ステップS42において、予測タップ抽出部52は、分類されたクラス、メモリ55から供給された、前のフィールドに対応する下位階層ベクトル、および上位階層ベクトルに対応する、所定の数の、所定の下位階層特徴量である予測タップを抽出する。
【0283】
ステップS43において、演算部53は、予測係数メモリ54に記憶されている係数セット、および予測タップを基に、下位階層ベクトルを演算する。
【0284】
ステップS44において、演算部53は、下位階層ベクトルをメモリ55に記憶させると共に、下位階層ベクトルを出力して、処理は終了する。
【0285】
このように、図18に構成を示す下位階層動きベクトル検出部26は、下位階層特徴量にクラス分類適応処理を適用して、より精度の高い動きベクトルを生成することができる。
【0286】
以上のように、本発明に係る画像処理装置は、コンポジットビデオ信号から、動きベクトルを考慮して、従来に比較して、より精度の良い、コンポーネントビデオ信号を生成することができる。
【0287】
図31は、コンポーネントビデオ信号の予測の処理に使用される予測係数を生成する、本発明に係る画像処理装置の実施の形態の構成を示すブロック図である。
【0288】
図1に示す画像処理装置と同様の部分には、同一の番号を付してあり、その説明は省略する。
【0289】
画像処理装置に入力されたコンポーネントビデオ信号は、NTSCエンコーダ201および係数算出部202に供給される。
【0290】
NTSCエンコーダ201は、入力されたコンポーネントビデオ信号を基に、NTSCコンポジット信号を生成し、生成したNTSCコンポジット信号をNTSCデコーダ1に供給する。
【0291】
係数算出部202は、NTSCデコーダ1から供給されたサブキャリア位相情報、動きベクトル検出部2から供給された動きベクトル、およびクラスタップ抽出部3から供給されたクラスタップを基に、入力されたコンポーネントビデオ信号、NTSCデコーダ1から供給された画像信号、並びに動きベクトル検出部2から供給された上位階層特徴量および下位階層特徴量に、式(14)に例を示す演算を適用して、コンポーネントビデオ信号を予測するための予測係数を生成する。演算部4は、生成した予測係数を係数メモリ203に供給する。
【0292】
係数メモリ203は、係数算出部202から供給された予測係数を記憶する。
【0293】
図32は、係数算出部202の構成を示すブロック図である。図19に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0294】
予測係数算出部221−1は、予測タップ抽出部72−1から供給された予測タップ、および入力されたコンポーネントビデオ信号に含まれるY信号に、例えば、式(14)に示す演算を適用して、Y信号を予測するための予測係数を算出し、算出した予測係数を出力する。
【0295】
予測係数算出部221−2は、予測タップ抽出部72−2から供給された予測タップ、および入力されたコンポーネントビデオ信号に含まれるU信号に、例えば、式(14)に示す演算を適用して、U信号を予測するための予測係数を算出し、算出した予測係数を出力する。
【0296】
予測係数算出部221−3は、予測タップ抽出部72−3から供給された予測タップ、および入力されたコンポーネントビデオ信号に含まれるV信号に、例えば、式(14)に示す演算を適用して、V信号を予測するための予測係数を算出し、算出した予測係数を出力する。
【0297】
図33は、係数算出部202の他の構成を示すブロック図である。図22に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0298】
セレクタ231は、クラス分類部71−1乃至71−3から個々に供給された3つのクラスコードおよびダイナミックレンジの内、1つのクラスコードおよびダイナミックレンジを選択し、選択したクラスコードおよびダイナミックレンジを予測タップ抽出部82に供給する。
【0299】
予測係数算出部232は、予測タップ抽出部82からY信号に対応する予測タップが供給されたとき、予測タップ抽出部82から供給された予測タップ、およびコンポーネントビデオ信号に含まれるY信号を基に、Y信号を予測するための予測係数を算出して、算出した予測係数を出力する。予測係数算出部232は、予測タップ抽出部82からU信号に対応する予測タップが供給されたとき、予測タップ抽出部82から供給された予測タップ、およびコンポーネントビデオ信号に含まれるU信号を基に、U信号を予測するための予測係数を算出して、算出した予測係数を出力する。予測係数算出部232は、予測タップ抽出部82からV信号に対応する予測タップが供給されたとき、予測タップ抽出部82から供給された予測タップ、およびコンポーネントビデオ信号に含まれるV信号を基に、V信号を予測するための予測係数を算出して、算出した予測係数を出力する。
【0300】
図34は、係数算出部202のさらに他の構成を示すブロック図である。図23に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0301】
予測係数算出部221−1は、予測タップ抽出部72−1から供給された予測タップ、および入力されたコンポーネントビデオ信号に含まれるY信号に、例えば、式(14)に示す演算を適用して、Y信号を予測するための予測係数を算出し、算出した予測係数を出力する。
【0302】
予測係数算出部221−2は、予測タップ抽出部72−2から供給された予測タップ、および入力されたコンポーネントビデオ信号に含まれるU信号に、例えば、式(14)に示す演算を適用して、U信号を予測するための予測係数を算出し、算出した予測係数を出力する。
【0303】
予測係数算出部221−3は、予測タップ抽出部72−3から供給された予測タップ、および入力されたコンポーネントビデオ信号に含まれるV信号に、例えば、式(14)に示す演算を適用して、V信号を予測するための予測係数を算出し、算出した予測係数を出力する。
【0304】
図35は、係数算出部202のさらに他の構成を示すブロック図である。図24に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0305】
予測係数算出部232は、予測タップ抽出部82からY信号に対応する予測タップが供給されたとき、予測タップ抽出部82から供給された予測タップ、およびコンポーネントビデオ信号に含まれるY信号を基に、Y信号を予測するための予測係数を算出して、算出した予測係数を出力する。予測係数算出部232は、予測タップ抽出部82からU信号に対応する予測タップが供給されたとき、予測タップ抽出部82から供給された予測タップ、およびコンポーネントビデオ信号に含まれるU信号を基に、U信号を予測するための予測係数を算出して、算出した予測係数を出力する。予測係数算出部232は、予測タップ抽出部82からV信号に対応する予測タップが供給されたとき、予測タップ抽出部82から供給された予測タップ、およびコンポーネントビデオ信号に含まれるV信号を基に、V信号を予測するための予測係数を算出して、算出した予測係数を出力する。
【0306】
図36は、予測係数を算出する画像処理装置の実施の形態の構成の一例の詳細を示すブロック図である。図25に示す場合と同様の部分には同一の番号を付してあり、その説明は省略する。
【0307】
入力信号である、HD(High-Definition)またはプログレッシブのコンポーネントビデオ信号は、間引きフィルタ261および選択回路263に供給される。
【0308】
間引きフィルタ261は、入力信号である、HDまたはプログレッシブのコンポーネントビデオ信号から、SD(Standard-Definition)インタレースのコンポーネントビデオ信号を生成する。間引きフィルタ261は、生成したコンポーネントビデオ信号をNTSCエンコーダ262および選択回路263に供給する。
【0309】
NTSCエンコーダ262は、入力されたコンポーネントビデオ信号を基に、生徒画像としての、NTSCコンポジットビデオ信号を生成する。NTSCエンコーダ262は、生成したNTSCコンポジットビデオ信号を、サブキャリア位相情報検出回路121、フィールドメモリ122−1、動きベクトル検出回路123、および遅延回路124−1に供給する。
【0310】
選択回路263は、外部から供給された学習モード設定信号を基に、画像処理装置に入力された、HDまたはプログレッシブのコンポーネントビデオ信号、および間引きフィルタ261から供給されたSDインタレースのコンポーネントビデオ信号のいずれか一方を選択し、選択した信号を教師画像として、正規方程式演算回路264に供給する。
【0311】
正規方程式演算回路264は、クラス分類部127から供給されたクラスコード、領域切出回路128−1から供給された、基準となるフィールドの次のフィールドの信号から切り出されたデータ、領域切出回路128−2から供給された、基準となるフィールドの信号から切り出されたデータ、領域切出回路128−3から供給された、基準となるフィールドの前のフィールドの信号から切り出されたデータ、および選択回路263から供給された教師画像を基に、例えば、Y信号、U信号、およびV信号を予測するための予測係数を演算する。正規方程式演算回路264は、演算した予測係数を係数メモリ265に供給する。
【0312】
係数メモリ265は、正規方程式演算回路264から供給された予測係数を記憶する。
【0313】
このように、本発明に係る画像処理装置は、コンポジットビデオ信号を基に、コンポーネントビデオ信号を予測するための予測係数を算出することができる。
【0314】
図37は、本発明に係る画像処理装置による、コンポジットビデオ信号を基に、コンポーネントビデオ信号を予測するための予測係数を算出する学習の処理を説明するフローチャートである。
【0315】
ステップS201において、NTSCエンコーダ201は、入力されたコンポーネントビデオ信号を基に、コンポジットビデオ信号を生成する。
【0316】
ステップS202において、動きベクトル検出部2は、コンポジットビデオ信号である画像信号およびサブキャリア位相情報を基に、動きベクトルを検出する。ステップS202の処理の詳細は、ステップS1の処理と同様なので、その説明は省略する。
【0317】
ステップS203において、クラスタップ抽出部3は、NTSCデコーダ1から供給されたサブキャリア位相情報、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなるクラスタップを抽出する。
【0318】
ステップS204において、係数算出部202は、NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量のデータ、および下位階層特徴量のデータ、並びにクラスタップ抽出部3から供給されたクラスタップを基に、クラス分類する。例えば、図32に示す、係数算出部202のクラス分類部71−1乃至71−3は、NTSCデコーダ1から供給された画像信号およびサブキャリア位相情報、動きベクトル検出部2から供給された動きベクトル、上位階層特徴量のデータ、および下位階層特徴量のデータ、並びにクラスタップ抽出部3から供給されたクラスタップを基に、クラス分類する。
【0319】
ステップS205において、係数算出部202は、分類されたクラス、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなる予測タップを抽出する。例えば、図32に示す、係数算出部202の予測タップ抽出部72−1乃至72−3は、分類されたクラスを示すクラスコード、ダイナミックレンジ、および動きベクトル検出部2から供給された動きベクトルを基に、画像信号のデータ、上位階層特徴量のデータ、および下位階層特徴量のデータからなる予測タップを抽出する。
【0320】
ステップS206において、係数算出部202は、抽出された予測タップ、および入力されたコンポーネントビデオ信号を基に、コンポーネントビデオ信号を予測するための予測係数を算出し、処理は終了する。例えば、図32に示す係数算出部202の予測係数演算部部221−1乃至221−3は、予測タップおよびコンポーネントビデオ信号を基に、それぞれ、Y信号、U信号、またはV信号を予測するための予測係数を算出する。
【0321】
このように、本発明に係る画像処理装置は、コンポジットビデオ信号を基に、コンポーネントビデオ信号を予測するための予測係数を算出することができる。
【0322】
図38は、図18に構成を示す下位階層動きベクトル検出部26において、下位階層ベクトルの演算の処理に使用される予測係数を生成する画像処理装置の構成を示すブロック図である。
【0323】
NTSCデコーダ301は、入力された、NTSC方式のコンポジットビデオ信号である画像信号を基に、画像信号に対応する、デジタルデータである画像信号を生成すると共に、デジタルデータである画像信号に対応するサブキャリア位相情報を生成する。NTSCデコーダ301は、生成したデジタルデータである画像信号およびサブキャリア位相情報を画像メモリ302に供給する。
【0324】
画像メモリ302は、NTSCデコーダ301から供給された画像信号およびサブキャリア位相情報を記憶し、記憶している画像信号およびサブキャリア位相情報を係数生成部303に供給する。
【0325】
係数生成部303は、画像処理装置の外部から供給されるパラメータA、および画像メモリ302から供給されたサブキャリア位相情報を基に、画像メモリ302から供給された画像信号と動きベクトルに対応する係数セットを生成し、生成した係数セットを出力する。係数セットは、各クラスに対応する、所定の数の予測係数からなる。
【0326】
パラメータAは、係数生成部303における処理の内容を指定するパラメータであり、例えば、相関の算出方式、マッチングをとるブロックの大きさ、または探索領域の大きさなどを指定する。
【0327】
図39は、係数生成部303の構成を示すブロック図である。図3に示す動きベクトル検出部2と同様の部分には同一の番号を付してあり、その説明は省略する。
【0328】
学習部321は、動きベクトル、特徴量変換部24から供給された下位階層特徴量およびサブキャリア位相情報、並びに上位階層動きベクトル検出部25から供給された上位階層ベクトルを基に、動きベクトルを算出するための係数セットを算出し、算出した係数セットを出力する。
【0329】
図40は、学習部321の構成を示すブロック図である。
【0330】
クラス分類部351は、サブキャリア位相情報、および下位階層特徴量を基に、クラス分類し、分類されたクラスを示すクラスコードを予測タップ抽出部352に供給する。
【0331】
予測タップ抽出部352は、クラスコードで示されるクラス、メモリ354から供給される、前のフィールドに対応する予測動きベクトル、および上位階層ベクトルを基に、所定の下位階層特徴量を抽出して、抽出した下位階層特徴量を予測タップとして係数算出部353に供給する。
【0332】
係数算出部353は、予測タップ抽出部352から供給された、下位階層特徴量の所定のデータからなる予測タップを基に、予測係数および予測動きベクトルを算出する。係数算出部353は、算出した係数を予測係数メモリ355に供給すると共に、算出した予測動きベクトルをメモリ354に供給する。
【0333】
メモリ354は、係数算出部353から供給された予測動きベクトルを記憶し、記憶している予測動きベクトルを予測タップ抽出部352に供給する。すなわち、予測タップ抽出部352には、1つ前のフィールドに対応する予測動きベクトルが供給される。
【0334】
予測係数メモリ355は、係数算出部353から供給された予測係数を記憶し、記憶している予測係数を係数セットとして出力する。
【0335】
次に、図41のフローチャートを参照して、下位階層ベクトルの演算の処理に使用される予測係数を生成する、画像処理装置の学習の処理を説明する。
【0336】
ステップS301において、係数生成部303は、NTSCデコーダ1を介して、NTSCデコーダ1から供給されたサブキャリア位相情報を基に、注目データのサブキャリアの位相を取得する。
【0337】
ステップS302において、係数生成部303の特徴量変換部23は、上位階層の特徴量を算出し、算出された特徴量を上位階層特徴量として出力する。
【0338】
ステップS303において、係数生成部303の上位階層動きベクトル検出部25は、特徴量変換部23から供給された上位階層特徴量を基に、上位階層ベクトルを検出する。ステップS303の処理の詳細は、図28のフローチャートを参照して説明した処理と同様なのでその説明は省略する。
【0339】
ステップS304において、係数生成部303の特徴量変換部24は、下位階層の特徴量を算出し、算出された特徴量を下位階層特徴量として出力する。
【0340】
ステップS305において、学習部321は、動きベクトル、特徴量変換部24から供給された下位階層特徴量、および上位階層動きベクトル検出部25から供給された上位階層ベクトルを基に、係数セットを算出して、処理は終了する。
【0341】
図42は、ステップS305の処理に対応する、学習部321による、係数セットの算出の処理の詳細を説明するフローチャートである。
【0342】
ステップS321において、クラス分類部351は、サブキャリア位相情報および下位階層特徴量を基に、注目データに対応し、クラス分類する。
【0343】
ステップS322において、予測タップ抽出部352は、分類されたクラス、メモリ354から供給された、前のフィールドに対応する予測動きベクトル、および上位階層ベクトルに対応する、所定の数の、所定の下位階層特徴量である予測タップを抽出する。
【0344】
ステップS323において、係数算出部353は、予測タップ抽出部352から供給された予測タップ、および外部から供給された動きベクトルを基に、係数を算出する。係数算出部353は、算出した係数を予測係数メモリ355に供給する。
【0345】
ステップS324において、予測係数メモリ355は、係数を記憶して、処理は終了する。
【0346】
このように、図38に構成を示す画像処理装置は、下位階層ベクトルの演算の処理に使用される予測係数を生成することができる。
【0347】
なお、以上の説明においてデジタルデータである画像信号は、Y信号、I信号、またはQ信号に対応する信号であると説明したが、Y信号、I信号、またはQ信号からなる信号に限定されず、Y信号、U信号、およびV信号、Y信号、Pb信号、およびPr信号、またはY信号、Cb信号、およびCr信号などの他の方式の画像信号であってもよい。
【0348】
また、生成されるコンポーネントビデオ信号は、Y信号、U信号、およびV信号であると説明したが、Y信号、U信号、およびV信号に限らず、Y信号、Pb信号、およびPr信号、またはY信号、Cb信号、およびCr信号などの他の方式の画像信号であってもよい。
【0349】
なお、本発明に係る画像処理装置は、NTSC方式のコンポジットビデオ信号である画像信号を基に、コンポーネントビデオ信号を生成すると説明したが、NTSC方式に限らず、PAL(Phase Alternation by Line)方式などの他の方式のコンポジットビデオ信号を基に、コンポーネントビデオ信号を生成するようにしてもよい。
【0350】
また、本発明に係る画像処理装置は、注目している注目フィールドと、注目フィールドの次のフィールドとの動きベクトルを検出すると説明したが、注目している注目フィールドと、注目フィールドの前のフィールドとの動きベクトルを検出するようにしてもよい。
【0351】
なお、本発明に係る画像処理装置は、フィールドを単位とし動きベクトルを検出すると説明したが、フレームを単位として動きベクトルを検出するようにしてもよい。
【0352】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0353】
図43は、記録媒体およびコンピュータの例を説明する図である。CPU(Central Processing Unit)501は、各種アプリケーションプログラムや、OS(Operating System)を実際に実行する。ROM(Read-only Memory)502は、一般的には、CPU501が使用するプログラムや演算用のパラメータのうちの基本的に固定のデータを格納する。RAM(Random-Access Memory)503は、CPU501の実行において使用するプログラムや、その実行において適宜変化するパラメータを格納する。これらはCPUバスなどから構成されるホストバス504により相互に接続されている。
【0354】
ホストバス504は、ブリッジ505を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス506に接続されている。
【0355】
キーボード508は、CPU501に各種の指令を入力するとき、使用者により操作される。マウス509は、ディスプレイ510の画面上のポイントの指示や選択を行うとき、使用者により操作される。ディスプレイ510は、液晶表示装置またはCRT(Cathode Ray Tube)などから成り、各種情報をテキストやイメージで表示する。HDD(Hard Disk Drive)511は、ハードディスクを駆動し、それらにCPU501によって実行するプログラムや情報を記録または再生させる。
【0356】
ドライブ512は、装着されている磁気ディスク551、光ディスク552、光磁気ディスク553、または半導体メモリ554に記録されているデータまたはプログラムを読み出して、そのデータまたはプログラムを、インターフェース507、外部バス506、ブリッジ505、およびホストバス504を介して接続されているRAM503に供給する。
【0357】
これらのキーボード508乃至ドライブ512は、インターフェース507に接続されており、インターフェース507は、外部バス506、ブリッジ505、およびホストバス504を介してCPU501に接続されている。
【0358】
ビデオインターフェース513は、供給された画像信号を取得し、外部バス506、ブリッジ505、およびホストバス504を介して、取得した画像信号をRAM503またはCPU501に供給する。ビデオインターフェース513は、予測したコンポーネントビデオ信号を出力する。
【0359】
記録媒体は、図43に示すように、コンピュータとは別に、ユーザにブロック図に対応する処理を実行するプログラムを提供するために配布される、プログラムが記録されている磁気ディスク551(フロッピディスク(登録商標)を含む)、光ディスク552(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク553(MD(Mini-Disc)(商標)を含む)、若しくは半導体メモリ554などよりなるリムーバブルメディアにより構成されるだけでなく、コンピュータに予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や、HDD511などで構成される。
【0360】
なお、ユーザにブロック図に対応する処理を実行するプログラムは、有線または無線の通信媒体を介して、コンピュータに供給されるようにしてもよい。
【0361】
また、本明細書において、記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0362】
【発明の効果】
本発明の第1の画像処理装置および方法、記録媒体、並びにプログラムによれば、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルが検出され、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点が分類され、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップが抽出され、予め求めておいた予測係数と抽出された予測タップとに積和演算を適用することにより、注目点のコンポジットビデオ信号に対応するコンポーネントビデオ信号が生成されるようにしたので、動きベクトルを考慮して、コンポジットビデオ信号から、より精度良く、コンポーネントビデオ信号を生成できるようになる。
【0363】
本発明の第2の画像処理装置および方法、記録媒体、並びにプログラムによれば、コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、コンポジットビデオ信号の輝度信号と色信号とを加算または減算して得られた画像信号から、注目点における色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、またはフィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、注目点の周辺の注目フィールドにおける点の第1の特徴量および注目点の第1の特徴量に、配置および値の最も近い第1の特徴量であって、他のフィールドにおける第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、注目フィールドと他のフィールドとについて、動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、対象点の存在するフィールドにおける対象点の周辺の点であって、対象点に隣接するか、対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、対象点に対応する第2の特徴量を生成し、第1のベクトルで指定される位置を中心とした、他のフィールドのサーチする領域から、注目フィールドにおける注目点の周辺の点の第2の特徴量および注目点の第2の特徴量に、配置および値の最も近い第2の特徴量であって、他のフィールドにおける第2の特徴量の位置を示す、第2のベクトルとして動きベクトルが検出され、第1の特徴量または第2の特徴量および動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに注目点が分類され、分類されたクラス毎に予め定められている予測タップであって、第1の特徴量または第2の特徴量を含む予測タップが抽出され、コンポーネントビデオ信号と抽出された予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの係数が演算されるようにしたので、係数を利用することにより、動きベクトルを考慮して、コンポジットビデオ信号から、より精度良く、コンポーネントビデオ信号を生成できるようになる。
【図面の簡単な説明】
【図1】本発明に係る画像処理装置の実施の形態の構成を示すブロック図である。
【図2】画像信号およびサブキャリア位相情報を説明する図である。
【図3】動きベクトル検出部2の構成を示すブロック図である。
【図4】上位階層動きベクトル検出部25の構成を示すブロック図である。
【図5】下位階層動きベクトル検出部26の構成を示すブロック図である。
【図6】上位階層特徴量、下位階層特徴量、およびサーチ領域の例を示す図である。
【図7】上位階層特徴量のブロックを説明する図である。
【図8】下位階層特徴量の算出を説明する図である。
【図9】下位階層動きベクトル検出部26がサーチする領域およびブロックの例を示す図である。
【図10】上位階層特徴量の他のブロックの例を示す図である。
【図11】上位階層特徴量の他の例を示す図である。
【図12】上位階層特徴量の他の例を示す図である。
【図13】下位階層特徴量の他の例を示す図である。
【図14】下位階層特徴量の他の例を示す図である。
【図15】下位階層特徴量の他の例を示す図である。
【図16】下位階層特徴量の他の例を示す図である。
【図17】下位階層特徴量の他の例を示す図である。
【図18】下位階層動きベクトル検出部26の他の構成を示すブロック図である。
【図19】演算部4の構成を示すブロック図である。
【図20】上位階層特徴量に対応するクラスタップおよび予測タップの例を説明する図である。
【図21】下位階層特徴量に対応するクラスタップおよび予測タップの例を説明する図である。
【図22】演算部4の他の構成を示すブロック図である。
【図23】演算部4の他の構成を示すブロック図である。
【図24】演算部4の他の構成を示すブロック図である。
【図25】本発明に係る画像処理装置の実施の形態の構成の一例の詳細を示すブロック図である。
【図26】コンポーネントビデオ信号の生成の処理を説明するフローチャートである。
【図27】動きベクトルの検出の処理を説明するフローチャートである。
【図28】上位階層ベクトルの検出の処理の詳細を説明するフローチャートである。
【図29】下位階層ベクトルの検出の処理の詳細を説明するフローチャートである。
【図30】下位階層ベクトルの検出の他の処理の詳細を説明するフローチャートである。
【図31】予測係数を生成する、本発明に係る画像処理装置の実施の形態の構成を示すブロック図である。
【図32】係数算出部202の構成を示すブロック図である。
【図33】係数算出部202の他の構成を示すブロック図である。
【図34】係数算出部202の他の構成を示すブロック図である。
【図35】係数算出部202の他の構成を示すブロック図である。
【図36】予測係数を算出する画像処理装置の実施の形態の構成の一例の詳細を示すブロック図である。
【図37】予測係数を算出する学習の処理を説明するフローチャートである。
【図38】下位階層ベクトルの演算の処理に使用される予測係数を生成する画像処理装置の構成を示すブロック図である。
【図39】係数生成部303の構成を示すブロック図である。
【図40】学習部321の構成を示すブロック図である。
【図41】画像処理装置の学習の処理を説明するフローチャートである。
【図42】係数セットの算出の処理の詳細を説明するフローチャートである。
【図43】記録媒体およびコンピュータの例を説明する図である。
【符号の説明】
1 NTSCデコーダ, 2 動きベクトル検出部, 3 クラスタップ抽出部,4 演算部, 23 特徴量変換部, 24 特徴量変換部, 25 上位階層動きベクトル検出部, 26 下位階層動きベクトル検出部, 31 ベクトル生成部, 32 相関値算出部, 33 判定部, 41 ベクトル生成部,42 相関値算出部, 43 判定部, 51 クラス分類部, 52 予測タップ抽出部, 53 演算部, 54 予測係数メモリ, 55 メモリ, 71−1乃至71−3 クラス分類部, 72−1乃至72−3 予測タップ抽出部, 73−1乃至73−3 係数メモリ, 74−1乃至74−3 予測演算部, 81 セレクタ, 82 予測タップ抽出部, 83 予測演算部, 91 クラス分類部, 101 セレクタ, 201 NTSCエンコーダ, 202 係数算出部, 203 係数メモリ, 211−1乃至211−3 予測係数算出部, 231 セレクタ, 232 予測係数算出部, 303 係数生成部, 321 学習部, 351 クラス分類部, 352 予測タップ抽出部, 353 係数算出部, 354 メモリ, 355 予測係数メモリ, 501 CPU, 502 ROM, 503 RAM, 511 HDD, 551 磁気ディスク, 552 光ディスク, 553 光磁気ディスク, 554 半導体メモリ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, a recording medium, and a program, and in particular, an image for generating a component video signal based on a composite video signal or generating a coefficient used for processing for generating a component video signal. The present invention relates to a processing apparatus and method, a recording medium, and a program.
[0002]
[Prior art]
In so-called three-dimensional YC separation, the amount of motion is detected, and based on the detected amount of motion, either one of two-dimensional filter processing or three-dimensional filter processing is selected and executed. Committee) The composite video signal is separated into component video signals including a luminance signal and a color signal.
[0003]
[Problems to be solved by the invention]
However, conventionally, it has not been considered to separate a composite video signal into component video signals in consideration of motion vectors.
[0004]
The present invention has been made in view of such a situation, and an object thereof is to enable generation of a component video signal with higher accuracy from a composite video signal in consideration of a motion vector.
[0005]
[Means for Solving the Problems]
The first image processing apparatus of the present invention includes:It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in It is,Detecting means for detecting a motion vector as a second vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.Classification means,A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.Extraction means;
By applying a sum-of-products operation to the previously calculated prediction coefficient and the extracted prediction tap,Generating means for generating a component video signal corresponding to the composite video signal of the point of interest.
[0006]
The extracting means further corresponds to the dynamic range of the composite video signal or the composite video signal.1st feature value or 2nd feature valueDynamic rangeIt is determined according toA prediction tap can be extracted.
[0007]
Classifying means isFor the luminance signal constituting the component video signal, the composite video signal at the point of interest is classified into one of a plurality of classes, and for the color signal constituting the component video signal, the composite video signal at the point of interest is plural. Class into one of the classesCan be.
[0008]
The extraction means isA prediction tap is extracted for the luminance signal constituting the component video signal, and further, a prediction tap is extracted for the color signal constituting the component video signal.be able to.
[0009]
The detection means isFor the field of interest and other fields, from the image signal, the value of the point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, A first value that is an average value of four points of different phases, or four points that are adjacent to each other vertically and horizontally on two lines of a field, each of which is an average value of four points of different phases FeaturesFirst feature quantity generating means for generatingThe first feature quantity closest to the first feature quantity of the point and the first feature quantity of the point of interest in the field of interest around the point of interest, and the first feature quantity in the other field closest to the arrangement and value To detect the first vector that approximates the motion vectorFirst vector detecting means forFor the field of interest and other fields, the result obtained by multiplying the value of the target point that is the target of motion vector detection calculation by the first weight, and the points around the target point in the field where the target point exists The value corresponding to the target point is a value obtained by adding the value obtained by multiplying the value of a point adjacent to the target point or separated from the target point by one or two points by the second weight. Feature amount of 2Second feature quantity generating means for generatingArranged from the area to be searched for in the other field, centered on the position specified by the first vector, to the second feature quantity around the target point in the target field and the second feature quantity of the target point And a motion vector as a second vector that is the second feature value closest in value and that indicates the position of the second feature value in another field.Second vector detecting means can be provided.
[0010]
The first vector detecting means includesThe first feature quantity of the field of interest that is the screen of the moving image to which the point of interest belongs and the first feature quantity having the strongest correlation with the first feature amount of the other field that is the screen of the moving image adjacent to the screen of interest. The first vector approximate to the motion vector can be detected from the position of the feature amount.
[0011]
The second vector detection means is:A moving image that is the second feature amount in the first range including the attention point and the second feature amount having the strongest correlation in the attention field that is the screen of the moving image to which the attention point belongs, and is adjacent to the attention field. The motion vector can be detected as the second vector from the position of the second feature value in the area to be searched centering on the position specified by the first vector in the other field of the screen.
[0012]
The second vector detection means is:Second feature valueBy applying the class classification adaptive processing to the motion vector, the motion vector can be detected as the second vector.
[0013]
The second vector detecting means is a phase of the color signal at the point of interest.UsingCan be classified.
[0014]
The second vector detection means is:The adaptive process can be applied to the second feature quantity at the position indicated by the second vector detected in the previous field.
[0015]
The first image processing method of the present invention includes:It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorA detection step of detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.A classification step;A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.An extraction step;By applying a sum-of-products operation to the previously calculated prediction coefficient and the extracted prediction tap,Generating a component video signal corresponding to the composite video signal of the point of interest.
[0016]
The program of the first recording medium of the present invention isIt is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorA detection step of detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.A classification step;A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.An extraction step;By applying a sum-of-products operation to the previously calculated prediction coefficient and the extracted prediction tap,Generating a component video signal corresponding to the composite video signal of the point of interest.
[0017]
The first program of the present invention is:It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorA detection step of detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.A classification step;A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.An extraction step;By applying a sum-of-products operation to the previously calculated prediction coefficient and the extracted prediction tap,And generating a component video signal corresponding to the composite video signal at the point of interest.
[0018]
The second image processing apparatus of the present invention isIt is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorDetecting means for detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.Classification means,A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.Extraction means;A normal equation obtained from the component video signal and the extracted prediction taps, and by solving the normal equation that minimizes the residual,And calculating means for calculating a coefficient.
[0019]
The extracting means further corresponds to the dynamic range of the composite video signal or the composite video signal.1st feature value or 2nd feature valueDynamic rangeIt is determined according toPrediction taps can be extracted.
[0020]
Classifying means isFor the luminance signal constituting the component video signal, the composite video signal at the point of interest is classified into one of a plurality of classes, and for the color signal constituting the component video signal, the composite video signal at the point of interest is plural. Can be classified into one of the classes.
[0021]
The extraction means isPrediction taps can be extracted for the luminance signals constituting the component video signal, and further, prediction taps can be extracted for the color signals constituting the component video signal..
[0022]
The detection means isFor the field of interest and other fields, from the image signal, the value of the point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, A first value that is an average value of four points of different phases, or four points that are adjacent to each other vertically and horizontally on two lines of a field, each of which is an average value of four points of different phases FeaturesFirst feature quantity generating means for generatingThe first feature quantity closest to the first feature quantity of the point and the first feature quantity of the point of interest in the field of interest around the point of interest, and the first feature quantity in the other field closest to the arrangement and value To detect the first vector that approximates the motion vectorFirst vector detecting means forFor the field of interest and other fields, the result obtained by multiplying the value of the target point that is the target of motion vector detection calculation by the first weight, and the points around the target point in the field where the target point exists The value corresponding to the target point is a value obtained by adding the value obtained by multiplying the value of a point adjacent to the target point or separated from the target point by one or two points by the second weight. Feature amount of 2Second feature quantity generating means for generatingArranged from the area to be searched for in the other field, centered on the position specified by the first vector, to the second feature quantity around the target point in the target field and the second feature quantity of the target point And a motion vector as a second vector that is the second feature value closest in value and that indicates the position of the second feature value in another field.Second vector detecting means can be provided.
[0023]
The first vector detecting means includesThe first feature quantity of the field of interest that is the screen of the moving image to which the point of interest belongs and the first feature quantity having the strongest correlation with the first feature amount of the other field that is the screen of the moving image adjacent to the screen of interest. The first vector approximate to the motion vector can be detected from the position of the feature amount.
[0024]
The second vector detection means is:A moving image that is the second feature amount in the first range including the attention point and the second feature amount having the strongest correlation in the attention field that is the screen of the moving image to which the attention point belongs, and is adjacent to the attention field. The motion vector can be detected as the second vector from the position of the second feature value in the area to be searched centering on the position specified by the first vector in the other field on the screen.
[0025]
The second vector detection means is:Second feature valueBy applying the class classification adaptive processing to the motion vector, the motion vector can be detected as the second vector.
[0026]
The second vector detecting means is a phase of the color signal at the point of interest.UsingCan be classified.
[0027]
The second vector detection means is:The adaptive process can be applied to the second feature quantity at the position indicated by the second vector detected in the previous field.
[0028]
The second image processing method of the present invention comprises:It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorA detection step of detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.A classification step;A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.An extraction step;A normal equation obtained from the component video signal and the extracted prediction taps, and by solving the normal equation that minimizes the residual,And a calculation step for calculating a coefficient.
[0029]
The program of the second recording medium of the present invention isIt is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorA detection step of detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.A classification step;A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.An extraction step;A normal equation obtained from the component video signal and the extracted prediction taps, and by solving the normal equation that minimizes the residual,And a calculation step for calculating a coefficient.
[0030]
The second program of the present invention is:It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorA detection step of detecting a motion vector;The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.A classification step;A prediction tap that is predetermined for each classified class and that includes the first feature amount or the second feature amount is extracted.An extraction step;A normal equation obtained from the component video signal and the extracted prediction taps, and by solving the normal equation that minimizes the residual,The computer is caused to execute a calculation step for calculating a coefficient.
[0031]
In the first image processing apparatus and method, recording medium, and program of the present invention,It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorMotion vectors are detected,The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.,Prediction taps that are predetermined for each classified class and that include the first feature amount or the second feature amount are extracted.,By applying a sum-of-products operation to the previously calculated prediction coefficient and the extracted prediction tap,A component video signal corresponding to the composite video signal at the point of interest is generated.
[0032]
In the second image processing apparatus and method, recording medium, and program of the present invention,It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorMotion vectors are detected,The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.,Prediction taps that are predetermined for each classified class and that include the first feature amount or the second feature amount are extracted.,A normal equation obtained from the component video signal and the extracted prediction taps, and by solving the normal equation that minimizes the residual,The coefficient is calculated.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention.
[0034]
The
[0035]
The image signal which is digital data generated by the
[0036]
The subcarrier phase information generated by the
[0037]
FIG. 2 is a diagram for explaining an image signal and subcarrier phase information which are digital data generated by the
[0038]
Hereinafter, in this specification, field # -1 indicates a field before
[0039]
The field where the absolute value of the
[0040]
For example, field # -1 is a bottom field and includes image signals corresponding to
[0041]
For example, the frame # -1 includes a field # -2 and a field # -3 (not shown).
[0042]
Thus, for example, in
[0043]
The digital data generated by the
[0044]
In FIG. 2, a white square, a white circle, a black square, and a black circle constitute an image signal that is digital data, and each represents one value corresponding to one pixel.
[0045]
A white square indicates a value corresponding to the result of adding the value of the I signal indicating the color to the value of the Y signal indicating the luminance. A white circle indicates a value corresponding to the result of adding the value of the Q signal, which is another signal indicating the color, to the value of the Y signal.
[0046]
A black square indicates a value corresponding to a result obtained by subtracting the value of the I signal from the value of the Y signal. A black circle indicates a value corresponding to a result obtained by subtracting the value of the Q signal from the value of the Y signal.
[0047]
The addition or subtraction of the value of the Y signal and the value of the I signal or the addition or subtraction of the value of the Y signal and the value of the Q signal in the value of the image signal which is digital data generated by the
[0048]
The subcarrier phase information is obtained by subtracting the value of the I signal from the value of the Y signal and the value of the Q signal from the value of the Y signal for each of the image signal values that are digital data generated by the
[0049]
The motion
[0050]
The motion
[0051]
The parameter A and the parameter B are parameters for designating the contents of processing in the motion
[0052]
Based on the subcarrier phase information supplied from the
[0053]
The class
[0054]
The
[0055]
As described above, the image processing apparatus according to the present invention generates a component video signal corresponding to an input image signal that is a composite video signal, and outputs the generated component video signal.
[0056]
FIG. 3 is a block diagram illustrating a configuration of the motion
[0057]
The
[0058]
The
[0059]
Based on the image signal and subcarrier phase information input from the
[0060]
The feature
[0061]
Note that the feature
[0062]
The upper layer motion
[0063]
The lower layer motion
[0064]
FIG. 4 is a block diagram showing a configuration of the upper layer motion
[0065]
The correlation
[0066]
The correlation
[0067]
The
[0068]
FIG. 5 is a block diagram illustrating a configuration of the lower layer motion
[0069]
The correlation
[0070]
The correlation
[0071]
The
[0072]
A detailed example of the process executed by the motion
[0073]
FIG. 6 shows the upper layer feature amount used for the upper layer vector detection process by the upper layer motion
[0074]
The numbers in FIG. 6 represent weights. For example, when all of the weights are 1, the feature
[0075]
For example, the upper layer motion
[0076]
Here, the data phase being the same means that the signal from which the data is calculated is the same, and that the data calculation method is the same as addition or subtraction.
[0077]
For example, when one data has a value obtained by subtracting the value of the I signal from the value of the Y signal and another data has a value obtained by subtracting the value of the I signal from the value of the Y signal, the phase of the two data Are the same. When one data has a value obtained by subtracting the value of the Q signal from the value of the Y signal and the other data has a value obtained by subtracting the value of the Q signal from the value of the Y signal, the phases of the two data are the same. It is.
[0078]
Similarly, when one data has a value obtained by adding the value of the I signal to the value of the Y signal, and another data has a value obtained by adding the value of the I signal to the value of the Y signal, the two data The phase is the same. When one data has a value obtained by adding the value of the Q signal to the value of the Y signal, and the other data has a value obtained by adding a value obtained by adding the value of the Q signal to the value of the Y signal, these two data Are in the same phase.
[0079]
On the other hand, data having a value obtained by subtracting the value of the I signal from the value of the Y signal, data having a value obtained by adding the value of the I signal to the value of the Y signal, and a value obtained by subtracting the value of the Q signal from the value of the Y signal Data having data and data having a value obtained by adding the value of the Q signal to the value of the Y signal have different phases.
[0080]
The feature
[0081]
As shown in FIG. 7, for example, the upper layer motion
[0082]
Next, returning to FIG. 6, an example of lower layer feature amounts will be described.
[0083]
For example, the feature
[0084]
Similarly, the feature
[0085]
Further, for example, as shown in FIG. 8, the feature
[0086]
In the
[0087]
The lower layer motion
[0088]
FIG. 9 is a diagram illustrating an example of regions and blocks searched by the lower layer motion
[0089]
In the example shown in FIG. 9, the searched area is a rectangular area in which seven lower layer feature amounts are arranged horizontally and seven lower layer feature amounts are arranged vertically. The block to be searched is a rectangular area in which five lower layer feature values are arranged horizontally and five lower layer feature values are arranged vertically.
[0090]
FIG. 10 is a diagram illustrating an example of another block of upper layer feature values for determining matching. In FIG. 10, triangles indicate data having the same phase as the data of interest.
[0091]
As illustrated in FIG. 10, for example, the upper layer motion
[0092]
When the feature
[0093]
FIG. 11 and FIG. 12 are diagrams showing other examples of upper layer feature amounts.
[0094]
As illustrated in FIG. 11, the feature
[0095]
As shown in FIG. 12, the feature
[0096]
When the feature
[0097]
13 to 17 are diagrams illustrating other examples of lower layer feature amounts.
[0098]
As illustrated in FIG. 13, the feature
y = p0 + p1 + 4 * p2 + p3 + p4 (1)
[0099]
Based on the upper and lower data of the target data, the second data on the left side from the target data, and the second data on the right side from the target data, the feature
[0100]
Since the lower layer feature amount described with reference to FIG. 13 is calculated based on four pieces of data around the target data or target data and having different phases, it is possible to reduce the influence of the fluctuation component of the subcarrier. Therefore, a motion vector with higher accuracy can be detected.
[0101]
As illustrated in FIG. 14, when the feature
y = p0 + p1 + 4 * p2 + p3 + p4 (2)
[0102]
When the feature
[0103]
As illustrated in FIG. 15, the feature
y = p0 + p1 + 4 * p2 + p3 + p4 (3)
[0104]
The feature
[0105]
As illustrated in FIG. 16, the feature
y = p0 + p1 + 2 * p2 + 2 * p3 + p4 (4)
[0106]
The feature
[0107]
As shown in FIG. 17, the feature
[0108]
For example, the attention data is p4, the second data is p3 on the left side, the second data is p5 on the right side, and the
y = p0 + (-2) * p1 + p2 + (-2) * p3 + 4 * p4 + (-2) * p5 + p6 + (-2) * p7 + p8 (5)
[0109]
When the feature
[0110]
For example, the target data is p4, the second data is p3 on the left, the second data is p5 on the right, and the target in
[0111]
The upper hierarchy feature quantity and the lower hierarchy feature quantity exemplified above are not normalized because computation is performed between the feature quantities. Of course, the upper layer feature quantity and the lower layer feature quantity may be normalized.
[0112]
Next, detection of lower layer vectors by class classification adaptation processing will be described.
[0113]
Here, the class classification process will be briefly described.
[0114]
Now, for example, in a lower layer feature amount, a class tap composed of 2 × 2 data is constituted by certain data of interest and three data adjacent thereto, and each data is represented by 1 bit (0 or 1). In this case, a 2 × 2 block of 4 data including the data of interest has 16 (= (21)Four) Can be classified into patterns. Therefore, in this case, the attention data can be classified into 16 patterns, and such pattern division is a class classification process.
[0115]
Here, for example, about 8 bits are assigned to each data. In addition, when class taps are composed of 9 data of 3 × 3, if class classification processing is performed for such class taps, (28)9It will be classified into a huge number of classes.
[0116]
Therefore, in the present embodiment, ADRC (Adaptive Dynamic Range Coding) processing is performed on the class tap, and thereby the number of classes is reduced by reducing the number of bits of data constituting the class tap. .
[0117]
In order to simplify the explanation, when considering a class tap composed of four data of a lower layer feature amount arranged on one line, the maximum value MAX and the minimum value MIN of the data value are detected in ADRC processing. Is done. Then, DR = MAX-MIN is set as the local dynamic range of the block constituted by the class taps, and the data value of the data constituting the class tap block is requantized to K bits based on the dynamic range DR. Is done.
[0118]
That is, the minimum value MIN is subtracted from each data value in the block, and the subtracted value is DR / 2.KDivide by. Then, it is converted into a code (ADRC code) corresponding to the division value obtained as a result. Specifically, for example, when K = 2, the division value has a dynamic range DR of 4 (= 22) It is determined which range is obtained by equally dividing, and the division value is the range of the lowest level, the range of the second level from the bottom, the range of the third level from the bottom, or the top In the case of belonging to the level range, for example, each bit is encoded into 2 bits such as 00B, 01B, 10B, or 11B (B represents a binary number). On the decoding side, the ADRC code 00B, 01B, 10B, or 11B is the center value L of the lowest level range obtained by dividing the dynamic range DR into four equal parts.00, Center value L of the second level range from the bottom01, Center value L of the third level range from the bottomTenOr the center value L of the range of the highest level11Decoding is performed by adding the minimum value MIN to the value.
[0119]
Here, such ADRC processing is called non-edge matching.
[0120]
The details of the ADRC processing are disclosed in, for example, Japanese Patent Application Laid-Open No. 3-53778 filed by the applicant of the present application.
[0121]
As described above, the number of classes can be reduced by performing ADRC processing for performing requantization with a smaller number of bits than the number of bits allocated to data constituting the class tap.
[0122]
In the present embodiment, the class classification process is performed based on the ADRC code. However, the class classification process includes, for example, DPCM (predictive coding), BTC (Block Truncation Coding), and VQ (vector quantum). ), DCT (Discrete Cosine Transform), Hadamard Transform, and the like.
[0123]
In the present embodiment, adaptive processing is executed for each class classified in this way. As adaptive processing, there are a method of performing a prediction calculation using a prediction coefficient learned in advance, and a method of learning a predicted value by a centroid method. Moreover, as a condition for performing learning, it is necessary to prepare a target teacher signal composed of an image signal and a motion vector.
[0124]
Next, an adaptive process for performing a prediction calculation using a prediction coefficient for each class generated in advance by learning using the teacher signal will be described. For example, it is assumed that a prediction tap is constituted by 25 taps of 5 × 5 lower layer feature amounts E0 to E24 and the motion evaluation value E ′ is predicted.
[0125]
The predicted value E ′ of the motion evaluation value is calculated by Expression (6).
[0126]
[Expression 1]
Ei indicates a lower layer feature quantity. wi represents a prediction coefficient.
[0127]
For example, when the above 1-bit ADRC is applied to nine data and classified into 512 classes, the motion evaluation value E ′ is predicted by the product-sum operation of the prediction coefficient generated for each class and the lower layer feature quantity. Is done.
[0128]
For example, it is possible to calculate two motion evaluation values E ′ that are orthogonal to each other and use the x and y components of the motion vector as the motion vector. Also, for example, n motion evaluation values E ′ are calculated, each indicating the size of n unit vectors having different directions, and each of the n motion evaluation values E ′ is represented by n units. A motion vector can be calculated by multiplying each of the vectors and adding the multiplied results.
[0129]
Further, not only the motion vector but also, for example, when a component video signal is predicted by the adaptive processing, an evaluation value E ′ corresponding to the Y signal and an evaluation value E ′ corresponding to the U signal are calculated based on Expression (6). , The evaluation value E ′ corresponding to the V signal can be calculated individually.
[0130]
Since the above-described prediction coefficient is generated by learning in advance, the learning will be described here.
[0131]
The example which produces | generates the prediction coefficient based on the model of Formula (6) by the least square method is shown.
[0132]
The least squares method is applied as follows. As a generalized example, Equation (7) is considered with X as input data, W as a prediction coefficient, and Y as a predicted value.
Observation equation: XW = Y (7)
[0133]
[Expression 2]
[0134]
Apply the least squares method to the data collected by the above observation equation. In the example of Expression (6), n is 25, and m is the number of learning data.
[0135]
Consider the residual equation (9) based on the observation equation (7).
[0136]
[Equation 3]
[0137]
From the residual equation of equation (9), the most probable value of each wi corresponds to the case where the condition for minimizing the value shown in equation (10) is satisfied.
[0138]
[Expression 4]
[0139]
That is, the condition of equation (11) may be considered.
[0140]
[Equation 5]
[0141]
What is necessary is just to calculate w1 thru | or wn which satisfy | fills n conditions based on i of Formula (11). Therefore, Equation (12) is obtained from the residual equation (9).
[0142]
[Formula 6]
[0143]
Equation (13) is obtained from Equation (11) and Equation (12).
[0144]
[Expression 7]
[0145]
From equation (10) and equation (13), the normal equation (14) is obtained.
[0146]
[Equation 8]
[0147]
In the normal equation of the equation (14), the same number of equations as the unknown number n can be established, so that the most probable value of the accuracy wi can be obtained. For example, equation (14) is solved using a sweeping method (Gauss-Jordan elimination method).
[0148]
As described above, the optimum prediction coefficient w is obtained for each class, and further, using the prediction coefficient w, a predicted value E ′ indicating a vector close to the motion vector of the teacher signal is obtained by Equation (6). It is an adaptive process.
[0149]
When a component video signal is predicted, it is necessary to obtain an optimal prediction coefficient w for each class for predicting the component video signal.
[0150]
The adaptive process is the same as the interpolation process using a so-called interpolation filter as long as only Expression (6) is seen, but the prediction coefficient w corresponding to the tap coefficient of the interpolation filter is determined using the teacher signal. Since it is obtained by learning, the original motion vector can be reproduced. From this, it can be said that the adaptive process is a process having a creative action.
[0151]
FIG. 18 is a block diagram showing another configuration of the lower layer motion
[0152]
The
[0153]
The prediction
[0154]
The
[0155]
The
[0156]
As described above, the motion
[0157]
Based on the subcarrier phase information supplied from the
[0158]
FIG. 19 is a block diagram illustrating a configuration of the
[0159]
The class classification unit 71-1 is supplied from the motion vector supplied from the motion
[0160]
For example, the class classification unit 71-1 performs class classification based on the subcarrier phase information supplied from the
[0161]
Further, the class classification unit 71-1 performs class classification based on the upper layer feature quantity and the lower layer feature quantity supplied from the motion
[0162]
FIG. 20 is a diagram illustrating an example of class taps and prediction taps corresponding to upper layer feature values.
[0163]
As shown in FIG. 20A, when the data of interest has a phase indicated by a white circle, for example, the upper layer feature quantity is composed only of data in phase with the data of interest indicated by a white circle as shown in FIG. 20B. . At this time, for example, the class tap corresponding to the upper layer feature amount is the data p5, the data p1 that is two data above the data of interest p5, the data p2 that is one data above the data of interest p5, and the data p2 that is two data left. One data point above the attention data p5, two right data p3, four data left data p4 of the attention data p5, four data right data p6 of the attention data p5, and one data data below the attention data p5. The data p7 on the left side and the data p8 that is one lower side of the attention data p5, the data p8 on the right side of the two, and the data p9 that is two lower than the attention data p5
[0164]
For example, as shown in FIG. 20C, the upper layer feature amount is composed of an average value of a total of four data indicated by triangles, two vertically and two horizontally. The position of the upper layer feature amount composed of the average value is shifted by half the line width from the original image signal data position, and the upper layer feature amount composed of the average value. The position in the left-right direction is deviated from the original image signal data position by a half of the data interval.
[0165]
When the target data is p11, the class tap corresponding to the upper layer feature is, for example, two lines half higher than the target data p11 and the data A1 on the left side by half of the original data interval. With respect to the data of interest p11, two lines are on the upper half and the data A2 is on the right side by one and half of the original data interval, and the lines are one and half on the upper side, and the original data interval is 1 Data A3 on the left side by one and a half, the line is one and a half above, and the data A4 on the right side by half the original data interval, and the line is one and a half above, two and a half of the original data interval Data A5 on the right side, the line is half the upper side, and the data A6 on the left side by half of the original data interval, and the line is half the upper side, the data on the right side by one and half of the original data interval. A7, the line is half the lower side and the original data interval is one half and the left side data A8, the line is half the lower side and the half point of the original data interval is the right side data A9, the line is Data A10 that is half the lower side and half the right side of the original data, and one line that is one half lower side of the original data interval, and one data A11 that is the left side by half the interval of the original data One half of the original data interval and half the right side data A12, two lines below the half of the original data interval, and half of the original data interval one half and the left side data A13. Data A14 that is two and a half lower and half the original data interval on the right side, data A14 that is two and a half lower on the original data interval, and data A15 that is two and half the original data interval on the left side Is done.
[0166]
FIG. 21 is a diagram illustrating an example of class taps and prediction taps corresponding to lower layer feature quantities.
[0167]
The class tap corresponding to the current field # -1 is 3 × 3 data centered on the data of the lower layer feature amount corresponding to the attention data, that is, the data of the lower layer feature amount corresponding to the attention data, the attention Data above the lower layer feature value data corresponding to the data, upper data of the lower layer feature value data corresponding to the target data, and above the left side data and data of the lower layer feature amount corresponding to the target data The data on the right side, the data on the left side of the data of the lower layer feature amount corresponding to the attention data, the data on the right side of the data of the lower layer feature amount corresponding to the attention data, the data of the lower layer feature amount corresponding to the attention data Is composed of data on the left side and data on the lower side of the lower layer feature quantity corresponding to the data of interest and on the right side.
[0168]
The class tap of the
[0169]
The class classification unit 71-1 classifies into a spatial class based on the attention data of the image signal and the peripheral data around the attention data. That is, for example, the class classification unit 71-1 applies ADRC processing to attention data and peripheral data of an image signal, and quantizes the attention data and peripheral data into a class code having a predetermined number of bits.
[0170]
The class classification unit 71-1 performs class classification based on the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data. That is, for example, the class classification unit 71-1 applies the ADRC process to target data of the corresponding field indicated by the motion vector from the target data of the target field, and peripheral data around the target data, and the target data, and The peripheral data is quantized into a class code having a predetermined number of bits.
[0171]
The class classification unit 71-1 may perform class classification based on the amount of motion.
[0172]
The class classification unit 71-1 supplies the prediction tap extraction unit 72-1 with a dynamic range that is the difference between the maximum value and the minimum value of the data values of the image data of interest and the peripheral data belonging to the predetermined block.
[0173]
Note that the class classification unit 71-1 may calculate the dynamic range based on the class tap of the lower layer feature amount of the field of interest, which is illustrated in FIG.
[0174]
In addition, the class classification unit 71-1 may perform class classification based on the upper layer feature amount included in the class tap.
[0175]
The prediction tap extraction unit 72-1 is based on the motion vector supplied from the motion
[0176]
When the dynamic range supplied from the class classification unit 71-1 is large, the prediction tap extraction unit 72-1 includes the edge of the image in the vicinity, so that the prediction tap is configured with the nearby data, so spatially Extract prediction taps with small spread. On the other hand, when the dynamic range supplied from the class classification unit 71-1 is small, the prediction tap extraction unit 72-1 is composed of a wide range of data because the image is a flat portion. Extract taps.
[0177]
The prediction tap extraction unit 72-1 extracts a prediction tap having a large spatial spread because there is a high possibility that the motion vector is erroneous when the residual that is the feature amount supplied from the motion
[0178]
In addition, you may make it the prediction tap extraction part 72-1 extract a prediction tap based only on a class code.
[0179]
As shown in FIG. 20A, when the data of interest has a phase indicated by a white circle, for example, the upper layer feature quantity is composed only of data in phase with the data of interest indicated by a white circle as shown in FIG. 20B. . At this time, for example, the prediction tap corresponding to the upper layer feature amount is the attention data p5, the data p1 that is two data above the attention data p5, the data p2 that is one data above the attention data p5, and the data p2 that is two data left. One data point above the attention data p5, two right data p3, four data left data p4 of the attention data p5, four data right data p6 of the attention data p5, and one data data below the attention data p5. The data p7 on the left side and the data p8 that is one lower side of the data of interest p5, the data p8 on the right side of the two, and the data p9 that is two lower than the data of interest p5.
[0180]
For example, as shown in FIG. 20C, the upper layer feature amount is composed of an average value of a total of four data indicated by triangles, two vertically and two horizontally. The upper and lower positions of the upper layer feature quantity constituted by the average value are shifted by half the line width from the original image signal data position. In addition, the left and right positions of the upper layer feature quantity composed of the average value are shifted by half the data interval from the original image signal data position.
[0181]
At this time, if the data of interest is p11, the prediction tap corresponding to the upper layer feature amount is, for example, two lines above the data of interest p11 and half left of the original data interval. The data A1 and the target data p11 are two lines and half above the original data, and the data A2 is one half and one half above the original data interval, and the lines are one and half above the original data. Data A3 on the left side by one and half of the interval, one line and one half above the line, and data A4 on the right side by one half of the original data, and one line and one half above the line, Data A5 on the right side by two and half, line is half-upper side, data A6 on the left side by half of the original data interval, line half-upper side, right by one and half of the original data interval Data A7, the line is half lower, and the data A8 is one half and one half left of the original data, and the line is half lower, and the right data A9 is half the original data interval, The line is half lower and the data A10 is two and half the right side of the original data, and the line is one and half half lower, and the data A11 is the left side of the half of the original data interval. Data A12 that is one and a half below the original data interval and half the right side data A12, two lines half and a half below the original data interval, and data A13 that is one half and half the original data interval to the left side, Data A14 that is two and a half below the line and half the original data interval to the right, data A14 that is two and a half below the line, and the data A15 that is two and a half below the original data interval Composed of
[0182]
As shown in FIG. 21, the prediction tap corresponding to the current field # -1 in the lower layer feature quantity is composed of 5 × 5 data centered on the lower layer feature quantity data corresponding to the data of interest. The
[0183]
The prediction tap of the
[0184]
The coefficient memory 73-1 selects and selects a coefficient set corresponding to the class specified by the class code from the coefficient sets stored in advance based on the class code supplied from the class classification unit 71-1. The class code is supplied to the prediction calculation unit 74-1.
[0185]
Based on the prediction tap supplied from the prediction tap extraction unit 72-1 and the coefficient set supplied from the coefficient memory 73-1, the prediction calculation unit 74-1 performs, for example, a calculation corresponding to Expression (6). , Y signal is predicted, and the predicted Y signal is output.
[0186]
The class classification unit 71-2 is supplied from the
[0187]
For example, the class classification unit 71-2 performs class classification based on the subcarrier phase information supplied from the
[0188]
The class classification unit 71-2 performs class classification based on the upper layer feature amount and the lower layer feature amount supplied from the motion
[0189]
The class classification unit 71-2 performs class classification into a space class based on the attention data of the image signal and the peripheral data around the attention data. That is, for example, the class classification unit 71-2 applies ADRC processing to attention data and peripheral data of an image signal, and quantizes the attention data and peripheral data into a class code having a predetermined number of bits.
[0190]
The class classification unit 71-2 performs class classification based on the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data. That is, for example, the class classification unit 71-2 applies the ADRC process to the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data, and the target data, and The peripheral data is quantized into a class code having a predetermined number of bits.
[0191]
The class classification unit 71-2 may perform class classification based on the amount of movement.
[0192]
The class classification unit 71-2 supplies the dynamic range that is the difference between the maximum value and the minimum value of the data values of the image data of interest and the peripheral data of the predetermined block to the prediction tap extraction unit 72-2.
[0193]
Note that the class classification unit 71-2 may calculate the dynamic range based on the class tap of the attention field lower layer feature quantity as shown in FIG.
[0194]
Further, the class classification unit 71-2 may perform class classification based on the upper layer feature amount included in the class tap.
[0195]
Based on the motion vector supplied from the motion
[0196]
In addition, you may make it the prediction tap extraction part 72-2 extract a prediction tap based only on a class code.
[0197]
The coefficient memory 73-2 selects and selects a coefficient set corresponding to the class specified by the class code from the coefficient sets stored in advance based on the class code supplied from the class classification unit 71-2. The class code is supplied to the prediction calculation unit 74-2.
[0198]
Based on the prediction tap supplied from the prediction tap extraction unit 72-2 and the coefficient set supplied from the coefficient memory 73-2, the prediction calculation unit 74-2 performs, for example, a calculation corresponding to Expression (6). , Predict the U signal and output the predicted U signal.
[0199]
The class classification unit 71-3 is supplied from the motion vector supplied from the motion
[0200]
For example, the class classification unit 71-3 performs class classification based on the subcarrier phase information supplied from the
[0201]
The class classification unit 71-3 performs class classification based on the upper layer feature amount and the lower layer feature amount supplied from the motion
[0202]
The class classification unit 71-3 classifies the data into a spatial class based on the attention data of the image signal and the peripheral data around the attention data. That is, for example, the class classification unit 71-3 applies ADRC processing to attention data and peripheral data of an image signal, and quantizes the attention data and peripheral data into a class code having a predetermined number of bits.
[0203]
The class classification unit 71-3 performs class classification based on the target data of the corresponding field indicated by the motion vector from the target data of the target field and the peripheral data around the target data. That is, for example, the class classification unit 71-3 applies ADRC processing to the target data of the corresponding field indicated by the motion vector from the target data of the target field, and the peripheral data around the target data, and the target data, and The peripheral data is quantized into a class code having a predetermined number of bits.
[0204]
The class classification unit 71-3 may perform class classification based on the motion amount.
[0205]
The class classification unit 71-3 supplies the dynamic range that is the difference between the maximum value and the minimum value of the data values of the image data of interest and the peripheral data of the predetermined block to the prediction tap extraction unit 72-3.
[0206]
Note that the class classification unit 71-3 may calculate the dynamic range based on the class tap of the attention field lower layer feature quantity as shown in FIG.
[0207]
In addition, the class classification unit 71-3 may perform class classification based on the upper layer feature amount included in the class tap.
[0208]
Based on the motion vector supplied from the motion
[0209]
Note that the prediction tap extraction unit 72-3 may extract prediction taps based only on the class code.
[0210]
The coefficient memory 73-3 selects and selects a coefficient set corresponding to the class specified by the class code from the coefficient sets stored in advance based on the class code supplied from the class classification unit 71-3. The class code is supplied to the prediction calculation unit 74-3.
[0211]
Based on the prediction tap supplied from the prediction tap extraction unit 72-3 and the coefficient set supplied from the coefficient memory 73-3, the prediction calculation unit 74-3 performs, for example, a calculation corresponding to Expression (6). , V signal is predicted, and the predicted V signal is output.
[0212]
As described above, the
[0213]
Hereinafter, when it is not necessary to individually distinguish the class classification units 71-1 to 71-3, they are simply referred to as a class classification unit 71.
[0214]
Hereinafter, when there is no need to individually distinguish the prediction tap extraction units 72-1 to 72-3, they are simply referred to as the prediction tap extraction unit 72.
[0215]
Hereinafter, the coefficient memories 73-1 to 73-3 are simply referred to as the
[0216]
Hereinafter, when it is not necessary to individually distinguish the prediction calculation units 74-1 to 74-3, they are simply referred to as the prediction calculation unit 74.
[0217]
FIG. 22 is a block diagram showing another configuration of the
[0218]
The
[0219]
The
[0220]
The prediction
[0221]
When the class code and the dynamic range output from the class classification unit 71-1 are supplied via the
[0222]
When the prediction tap corresponding to the Y signal is supplied from the prediction
[0223]
FIG. 23 is a block diagram illustrating another configuration of the
[0224]
The
[0225]
For example, the prediction tap extraction units 72-1 to 72-3 extract different prediction taps based on different threshold values.
[0226]
FIG. 24 is a block diagram illustrating another configuration of the
[0227]
The
[0228]
The
[0229]
FIG. 25 is a block diagram showing details of an example of the configuration of the embodiment of the image processing apparatus according to the present invention. The NTSC composite signal input to the image processing apparatus is supplied to the subcarrier phase
[0230]
The subcarrier phase
[0231]
The field memory 122-1 stores the input NTSC composite signal, delays it for a period corresponding to one field, and stores the stored NTSC composite signal in the field memory 122-2, motion
[0232]
The field memory 122-2 stores the NTSC composite signal supplied from the field memory 122-1, delays it for a period corresponding to one field, and moves the stored NTSC composite signal to the motion
[0233]
Therefore, the motion
[0234]
The motion
[0235]
The motion
[0236]
The motion
[0237]
The delay circuit 124-1 delays the signal of the next field of the reference field in accordance with the processing time of the motion
[0238]
The delay circuit 124-2 delays the reference field signal in accordance with the processing time of the motion
[0239]
The delay circuit 124-3 delays the signal in the field preceding the reference field in accordance with the processing time of the motion
[0240]
The subcarrier phase
[0241]
Based on the reference field and the vector (t + 1) corresponding to the next field supplied from the motion
[0242]
The region extraction circuit 126-2 is supplied from the delay circuit 124-2 based on the vector (t-1) corresponding to the reference field and the previous field supplied from the motion
[0243]
The area cutout circuit 126-3 cuts out predetermined data included in the signal of the field before the reference field supplied from the delay circuit 124-3, and supplies the cut out data to the class classification unit 127. .
[0244]
The class classification unit 127 corresponds to the phase information supplied from the subcarrier phase
[0245]
For example, the class classification unit 127 classifies into four classes based on the phase information corresponding to the previous field supplied from the phase
[0246]
For example, the class classification unit 127 extracts data extracted from the signal of the field next to the reference field, data extracted from the signal of the reference field, and the signal of the field before the reference field. ADRC processing is applied to the five data that are the data, and the data is classified into 32 classes.
[0247]
For example, the class classification unit 127 performs comparison and determination with a predetermined threshold based on the feature amount supplied from the motion
[0248]
For example, the class classification unit 127 multiplies the above class classifications, and finally classifies them into 8192 classes.
[0249]
The class classification unit 127 includes the phase information supplied from the subcarrier phase
[0250]
The region extraction circuit 128-1 is supplied from the motion
[0251]
Based on the class code and the structure variable information supplied from the class classification unit 127, the region extraction circuit 128-2 outputs predetermined data included in the signal of the reference field supplied from the delay circuit 124-2. Cut out and supply the cut out data to the
[0252]
The region extraction circuit 128-3 includes the vector (t-1) corresponding to the reference field and the previous field supplied from the motion
[0253]
The
[0254]
The
[0255]
As described above, the image processing apparatus according to the present invention can generate a more accurate component video signal corresponding to the input composite signal.
[0256]
FIG. 26 is a flowchart for explaining component video signal generation processing by the image processing apparatus according to the present invention.
[0257]
In step S <b> 1, the motion
[0258]
In step S2, the class
[0259]
In step S <b> 3, the
[0260]
In step S <b> 4, based on the classified class and the motion vector supplied from the motion
[0261]
In step S5, the
[0262]
FIG. 27 is a flowchart for explaining a motion vector detection process by the motion
[0263]
In step S12, the feature
[0264]
In step S <b> 13, the upper layer motion
[0265]
In step S14, the feature
[0266]
In step S15, the lower layer motion
[0267]
In step S16, the lower layer motion
[0268]
FIG. 28 is a flowchart for explaining the details of the upper layer vector detection process by the upper layer motion
[0269]
In step S <b> 23, the
[0270]
In step S24, the upper layer motion
[0271]
In step S24, when it is determined that the correlation value in the predetermined range specified by the data included in the parameter A is calculated, the process proceeds to step S25, and the
[0272]
In step S26, the
[0273]
FIG. 29 is a flowchart for explaining the details of the lower layer vector detection process corresponding to step S15. In
[0274]
In step S <b> 33, the
[0275]
In step S34, the lower layer motion
[0276]
If it is determined in step S34 that a correlation value in a predetermined range has been calculated, the process proceeds to step S35, and the
[0277]
In step S36, the
[0278]
In this way, the motion
[0279]
Since the motion
[0280]
FIG. 30 is a flowchart for explaining the details of other processing of lower layer vector detection by the lower layer motion
[0281]
In step S41, the
[0282]
In step S42, the prediction
[0283]
In step S43, the
[0284]
In step S44, the
[0285]
In this way, the lower layer motion
[0286]
As described above, the image processing apparatus according to the present invention can generate a component video signal with higher accuracy than a conventional video signal from a composite video signal in consideration of a motion vector.
[0287]
FIG. 31 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention, which generates a prediction coefficient used for a component video signal prediction process.
[0288]
The same parts as those in the image processing apparatus shown in FIG. 1 are denoted by the same reference numerals, and the description thereof is omitted.
[0289]
The component video signal input to the image processing apparatus is supplied to the
[0290]
The
[0291]
The
[0292]
The
[0293]
FIG. 32 is a block diagram illustrating a configuration of the
[0294]
The prediction coefficient calculation unit 221-1 applies, for example, the calculation shown in Expression (14) to the prediction tap supplied from the prediction tap extraction unit 72-1, and the Y signal included in the input component video signal. , A prediction coefficient for predicting the Y signal is calculated, and the calculated prediction coefficient is output.
[0295]
The prediction coefficient calculation unit 221-2 applies, for example, the calculation shown in Expression (14) to the prediction tap supplied from the prediction tap extraction unit 72-2 and the U signal included in the input component video signal. , A prediction coefficient for predicting the U signal is calculated, and the calculated prediction coefficient is output.
[0296]
The prediction coefficient calculation unit 221-3 applies, for example, the calculation shown in Expression (14) to the prediction tap supplied from the prediction tap extraction unit 72-3 and the V signal included in the input component video signal. , A prediction coefficient for predicting the V signal is calculated, and the calculated prediction coefficient is output.
[0297]
FIG. 33 is a block diagram illustrating another configuration of the
[0298]
The
[0299]
When the prediction tap corresponding to the Y signal is supplied from the prediction
[0300]
FIG. 34 is a block diagram showing still another configuration of the
[0301]
The prediction coefficient calculation unit 221-1 applies, for example, the calculation shown in Expression (14) to the prediction tap supplied from the prediction tap extraction unit 72-1, and the Y signal included in the input component video signal. , A prediction coefficient for predicting the Y signal is calculated, and the calculated prediction coefficient is output.
[0302]
The prediction coefficient calculation unit 221-2 applies, for example, the calculation shown in Expression (14) to the prediction tap supplied from the prediction tap extraction unit 72-2 and the U signal included in the input component video signal. , A prediction coefficient for predicting the U signal is calculated, and the calculated prediction coefficient is output.
[0303]
The prediction coefficient calculation unit 221-3 applies, for example, the calculation shown in Expression (14) to the prediction tap supplied from the prediction tap extraction unit 72-3 and the V signal included in the input component video signal. , A prediction coefficient for predicting the V signal is calculated, and the calculated prediction coefficient is output.
[0304]
FIG. 35 is a block diagram showing still another configuration of the
[0305]
When the prediction tap corresponding to the Y signal is supplied from the prediction
[0306]
FIG. 36 is a block diagram illustrating details of an example of the configuration of the embodiment of the image processing apparatus that calculates the prediction coefficient. The same parts as those shown in FIG. 25 are denoted by the same reference numerals, and the description thereof is omitted.
[0307]
An HD (High-Definition) or progressive component video signal, which is an input signal, is supplied to a thinning filter 261 and a
[0308]
The thinning filter 261 generates an SD (Standard-Definition) interlaced component video signal from an HD or progressive component video signal that is an input signal. The thinning filter 261 supplies the generated component video signal to the
[0309]
The
[0310]
The
[0311]
The normal
[0312]
The
[0313]
Thus, the image processing apparatus according to the present invention can calculate the prediction coefficient for predicting the component video signal based on the composite video signal.
[0314]
FIG. 37 is a flowchart for describing learning processing for calculating a prediction coefficient for predicting a component video signal based on a composite video signal by the image processing apparatus according to the present invention.
[0315]
In step S201, the
[0316]
In step S202, the motion
[0317]
In step S203, the class
[0318]
In step S204, the
[0319]
In step S205, the
[0320]
In step S206, the
[0321]
Thus, the image processing apparatus according to the present invention can calculate the prediction coefficient for predicting the component video signal based on the composite video signal.
[0322]
FIG. 38 is a block diagram illustrating a configuration of an image processing apparatus that generates a prediction coefficient used for processing of a lower layer vector in the lower layer motion
[0323]
The
[0324]
The
[0325]
The
[0326]
The parameter A is a parameter that specifies the content of processing in the
[0327]
FIG. 39 is a block diagram illustrating a configuration of the
[0328]
The
[0329]
FIG. 40 is a block diagram illustrating a configuration of the
[0330]
The
[0331]
The prediction
[0332]
The
[0333]
The
[0334]
The
[0335]
Next, with reference to the flowchart of FIG. 41, the learning process of the image processing apparatus for generating the prediction coefficient used for the calculation process of the lower layer vector will be described.
[0336]
In step S301, the
[0337]
In step S302, the feature
[0338]
In step S <b> 303, the upper layer motion
[0339]
In step S304, the feature
[0340]
In step S305, the
[0341]
FIG. 42 is a flowchart for explaining the details of the coefficient set calculation processing by the
[0342]
In step S321, the
[0343]
In step S322, the prediction
[0344]
In step S323, the
[0345]
In step S324, the
[0346]
As described above, the image processing apparatus having the configuration shown in FIG. 38 can generate the prediction coefficient used for the calculation of the lower layer vector.
[0347]
In the above description, the image signal which is digital data has been described as a signal corresponding to the Y signal, the I signal, or the Q signal. , Y signal, U signal, and V signal, Y signal, Pb signal, and Pr signal, or other types of image signals such as Y signal, Cb signal, and Cr signal.
[0348]
In addition, the component video signal to be generated has been described as the Y signal, the U signal, and the V signal, but is not limited to the Y signal, the U signal, and the V signal, Other types of image signals such as Y signal, Cb signal, and Cr signal may be used.
[0349]
The image processing apparatus according to the present invention has been described as generating a component video signal based on an image signal that is an NTSC composite video signal. However, the image processing apparatus is not limited to the NTSC system, and may be a PAL (Phase Alternation by Line) system or the like. A component video signal may be generated based on a composite video signal of another method.
[0350]
The image processing apparatus according to the present invention has been described as detecting a motion vector between a focused field of interest and a field next to the focused field. However, the focused field of interest and a field before the focused field are described. The motion vector may be detected.
[0351]
Although the image processing apparatus according to the present invention has been described as detecting a motion vector in units of fields, the motion vector may be detected in units of frames.
[0352]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.
[0353]
FIG. 43 is a diagram illustrating an example of a recording medium and a computer. A CPU (Central Processing Unit) 501 actually executes various application programs and an OS (Operating System). A ROM (Read-only Memory) 502 generally stores basically fixed data among programs used by the
[0354]
The
[0355]
The keyboard 508 is operated by the user when inputting various commands to the
[0356]
The
[0357]
These keyboard 508 to drive 512 are connected to an
[0358]
The
[0359]
As shown in FIG. 43, the recording medium is distributed to provide a program for executing processing corresponding to the block diagram to the user separately from the computer, and a magnetic disk 551 (floppy disk ( Optical disc 552 (including CD-ROM (Compact Disc-Read Only Memory) and DVD (Digital Versatile Disc)), magneto-optical disc 553 (including MD (Mini-Disc) (trademark)), Alternatively, it is configured not only by a removable medium such as a semiconductor memory 554 but also by a
[0360]
Note that the program for executing the processing corresponding to the block diagram for the user may be supplied to the computer via a wired or wireless communication medium.
[0361]
Further, in the present specification, the step of describing the program stored in the recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. It also includes processes that are executed individually.
[0362]
【The invention's effect】
According to the first image processing apparatus and method, recording medium, and program of the present invention,It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorMotion vectors are detected,The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.,Prediction taps that are predetermined for each classified class and that include the first feature amount or the second feature amount are extracted.,By applying a sum-of-products operation to the previously calculated prediction coefficient and the extracted prediction tap,Since the component video signal corresponding to the composite video signal of the attention point is generated, the component video signal can be generated from the composite video signal with higher accuracy in consideration of the motion vector.
[0363]
According to the second image processing apparatus and method, recording medium, and program of the present invention,It is obtained by adding or subtracting the luminance signal and the color signal of the composite video signal for the target field and the other field of interest, where the target point is the target point of the composite video signal. From the obtained image signal, it is the value of a point having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, and the average of four points having different phases. A first feature amount that is a value or an average value of four points that are adjacent to each other vertically and horizontally on two lines of a field and that are different in phase, A first feature amount of the point and a first feature amount of the point of interest in the attention field around the point, the first feature amount closest to the arrangement and value, and in the other field By detecting the first feature amount, the first vector that approximates the motion vector is detected, and the value of the target point that is the target of the motion vector detection calculation for the field of interest and other fields is calculated. The value obtained by multiplying the weight of 1 and the value of a point around the target point in the field where the target point exists, adjacent to the target point, or separated by one or two points from the target point A second feature value corresponding to the target point, which is a value obtained by multiplying the result obtained by multiplying the second weight by the other weight, and another field centered on the position specified by the first vector The second feature quantity closest to the second feature quantity and the second feature quantity of the point of interest in the field of interest from the search area of The position of the second feature value in You, as a second vectorMotion vectors are detected,The attention point is classified into one of a plurality of predetermined classes based on the first feature amount or the second feature amount and the motion vector.,Prediction taps that are predetermined for each classified class and that include the first feature amount or the second feature amount are extracted.,A normal equation obtained from the component video signal and the extracted prediction taps, and by solving the normal equation that minimizes the residual,Since the coefficient is calculated, the component video signal can be generated from the composite video signal with higher accuracy by taking the motion vector into consideration by using the coefficient.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention.
FIG. 2 is a diagram illustrating an image signal and subcarrier phase information.
FIG. 3 is a block diagram showing a configuration of a motion
4 is a block diagram illustrating a configuration of an upper layer motion
5 is a block diagram showing a configuration of a lower layer motion
FIG. 6 is a diagram illustrating examples of upper layer feature values, lower layer feature values, and search areas;
FIG. 7 is a diagram illustrating a block of an upper layer feature amount.
FIG. 8 is a diagram illustrating calculation of lower layer feature amounts.
FIG. 9 is a diagram illustrating an example of regions and blocks searched by the lower layer motion
FIG. 10 is a diagram illustrating an example of another block of upper layer feature values.
FIG. 11 is a diagram illustrating another example of upper layer feature amounts.
FIG. 12 is a diagram illustrating another example of upper layer feature amounts.
FIG. 13 is a diagram illustrating another example of lower layer feature amounts.
FIG. 14 is a diagram illustrating another example of lower layer feature amounts.
FIG. 15 is a diagram illustrating another example of lower layer feature amounts.
FIG. 16 is a diagram illustrating another example of lower layer feature amounts.
FIG. 17 is a diagram illustrating another example of lower layer feature amounts.
18 is a block diagram showing another configuration of the lower layer motion
FIG. 19 is a block diagram showing a configuration of a
FIG. 20 is a diagram for describing an example of a class tap and a prediction tap corresponding to an upper layer feature quantity.
FIG. 21 is a diagram illustrating an example of a class tap and a prediction tap corresponding to a lower layer feature amount.
FIG. 22 is a block diagram showing another configuration of the
FIG. 23 is a block diagram showing another configuration of the
24 is a block diagram showing another configuration of the
FIG. 25 is a block diagram showing details of an example of the configuration of an embodiment of an image processing apparatus according to the present invention;
FIG. 26 is a flowchart illustrating a component video signal generation process.
FIG. 27 is a flowchart for describing motion vector detection processing;
FIG. 28 is a flowchart illustrating details of processing for detecting an upper layer vector.
FIG. 29 is a flowchart illustrating details of processing for detecting a lower layer vector.
FIG. 30 is a flowchart illustrating details of another process of detecting a lower layer vector.
FIG. 31 is a block diagram showing a configuration of an embodiment of an image processing apparatus according to the present invention for generating a prediction coefficient.
32 is a block diagram showing a configuration of a
33 is a block diagram illustrating another configuration of the
34 is a block diagram showing another configuration of the
35 is a block diagram illustrating another configuration of the
FIG. 36 is a block diagram illustrating details of an example of the configuration of an embodiment of an image processing apparatus that calculates a prediction coefficient.
FIG. 37 is a flowchart illustrating learning processing for calculating a prediction coefficient.
FIG. 38 is a block diagram illustrating a configuration of an image processing apparatus that generates a prediction coefficient used for a calculation process of a lower layer vector.
39 is a block diagram showing a configuration of a
40 is a block diagram showing a configuration of a
FIG. 41 is a flowchart illustrating learning processing performed by the image processing apparatus.
FIG. 42 is a flowchart illustrating details of a coefficient set calculation process.
FIG. 43 is a diagram illustrating an example of a recording medium and a computer.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 NTSC decoder, 2 Motion vector detection part, 3 Class tap extraction part, 4 Operation part, 23 Feature-value conversion part, 24 Feature-value conversion part, 25 Upper layer motion vector detection part, 26 Lower layer motion vector detection part, 31 Vector Generation unit, 32 correlation value calculation unit, 33 determination unit, 41 vector generation unit, 42 correlation value calculation unit, 43 determination unit, 51 class classification unit, 52 prediction tap extraction unit, 53 operation unit, 54 prediction coefficient memory, 55 memory , 71-1 to 71-3 class classification unit, 72-1 to 72-3 prediction tap extraction unit, 73-1 to 73-3 coefficient memory, 74-1 to 74-3 prediction calculation unit, 81 selector, 82 prediction Tap extraction unit, 83 prediction calculation unit, 91 class classification unit, 101 selector, 201 NTSC encoder , 202 coefficient calculation unit, 203 coefficient memory, 211-1 to 211-3 prediction coefficient calculation unit, 231 selector, 232 prediction coefficient calculation unit, 303 coefficient generation unit, 321 learning unit, 351 class classification unit, 352 prediction tap extraction unit , 353 coefficient calculation unit, 354 memory, 355 prediction coefficient memory, 501 CPU, 502 ROM, 503 RAM, 511 HDD, 551 magnetic disk, 552 optical disk, 553 magneto-optical disk, 554 semiconductor memory
Claims (26)
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出手段と、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類手段と、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出手段と、
予め求めておいた予測係数と抽出された前記予測タップとに積和演算を適用することにより、前記注目点の前記コンポジットビデオ信号に対応する前記コンポーネントビデオ信号を生成する生成手段と
を含むことを特徴とする画像処理装置。In an image processing apparatus for generating a component video signal from a composite video signal,
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; By detecting the first feature value closest to the first feature value in the other field, a first vector that approximates a motion vector is detected, and the attention field and the other field are detected. A result obtained by multiplying a value of a target point that is a target of the motion vector detection calculation by a first weight, and a point around the target point in a field where the target point exists, A second value corresponding to the target point, which is a value obtained by adding a value obtained by multiplying the value of a point adjacent to the target point or separated from the target point by one or two points by the second weight. And the second feature value of a point around the target point in the target field from the search area of the other field, centered on the position specified by the first vector. And before The second feature of the subject point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the motion vector as a second vector Detecting means for detecting
Class classification means for classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
Extracting means for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ;
Generating means for generating the component video signal corresponding to the composite video signal at the point of interest by applying a product-sum operation to the prediction coefficient obtained in advance and the extracted prediction tap. A featured image processing apparatus.
ことを特徴とする請求項1に記載の画像処理装置。The extraction means further includes the prediction tap determined according to a dynamic range of the composite video signal or a dynamic range of the first feature amount or the second feature amount corresponding to the composite video signal. The image processing device according to claim 1, wherein the image processing device is extracted.
ことを特徴とする請求項1に記載の画像処理装置。The class classifying unit classifies the composite video signal at the point of interest into one of a plurality of classes with respect to a luminance signal constituting the component video signal, and further, a color signal constituting the component video signal The image processing apparatus according to claim 1, wherein the composite video signal at the attention point is classified into one of a plurality of classes .
ことを特徴とする請求項1に記載の画像処理装置。The extraction means extracts the prediction tap for a luminance signal constituting the component video signal, and further extracts the prediction tap for a color signal constituting the component video signal. The image processing apparatus according to 1.
前記注目フィールドと前記他のフィールドとについて、前記画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成する第1の特徴量生成手段と、
前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、前記動きベクトルに近似する第1のベクトルを検出する第1のベクトル検出手段と、
前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成する第2の特徴量生成手段と、
前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、前記第2のベクトルとして動きベクトルを検出する第2のベクトル検出手段と
を含むことを特徴とする請求項1に記載の画像処理装置。The detection means includes
For the field of interest and the other field, from the image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field The average value of four points having different phases, or four points adjacent to each other vertically and horizontally on the two lines of the field, each of four points having different phases. First feature value generation means for generating a first feature value that is an average value ;
The first feature quantity closest in arrangement and value to the first feature quantity of the point in the attention field around the attention point and the first feature quantity of the attention point, First vector detecting means for detecting a first vector that approximates the motion vector by detecting the first feature quantity in a field ;
For the field of interest and other fields, the result obtained by multiplying the value of the target point that is the target of the motion vector detection calculation by the first weight, and the target point in the field where the target point exists A value obtained by multiplying a value obtained by multiplying a value of a point adjacent to the target point or a point separated from the target point by one or two points by a second weight. Second feature value generation means for generating a second feature value corresponding to the target point ;
From the area to be searched for in the other field, centered on the position specified by the first vector, the second feature amount of the points around the point of interest in the field of interest and the first of the points of interest The second feature quantity closest to the feature quantity of 2 is the second feature quantity that is closest to the feature quantity, and a motion vector is detected as the second vector that indicates the position of the second feature quantity in the other field . The image processing apparatus according to claim 1, further comprising: two vector detection units.
ことを特徴とする請求項5に記載の画像処理装置。The first vector detecting means is the first feature amount having the strongest correlation with the first feature amount of the attention field that is a moving image screen to which the attention point belongs. The image according to claim 5, wherein the first vector that approximates the motion vector is detected from a position of the first feature amount in the other field that is a screen of the moving image adjacent thereto. Processing equipment.
ことを特徴とする請求項5に記載の画像処理装置。The second vector detection means is the second feature having the strongest correlation with the second feature amount in the first range including the attention point in the attention field which is a screen of a moving image to which the attention point belongs. The second feature amount of the area to be searched centering on the position specified by the first vector in the other field that is the screen of the moving image adjacent to the field of interest. The image processing apparatus according to claim 5, wherein the motion vector is detected as the second vector from the position of the image.
ことを特徴とする請求項5に記載の画像処理装置。The image processing apparatus according to claim 5, wherein the second vector detection unit applies a class classification adaptive process to the second feature amount , and detects the motion vector as the second vector. .
ことを特徴とする請求項8に記載の画像処理装置。The image processing apparatus according to claim 8, wherein the second vector detection unit performs class classification using a phase of the color signal at the point of interest.
ことを特徴とする請求項8に記載の画像処理装置。9. The image according to claim 8, wherein the second vector detection means applies an adaptive process to the second feature amount at a position indicated by the second vector detected in the previous field. Processing equipment.
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類ステップと、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出ステップと、
予め求めておいた予測係数と抽出された前記予測タップとに積和演算を適用することにより、前記注目点の前記コンポジットビデオ信号に対応する前記コンポーネントビデオ信号を生成する生成ステップと
を含むことを特徴とする画像処理方法。In an image processing method for generating a component video signal from a composite video signal,
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; By detecting the first feature value closest to the first feature value in the other field, a first vector that approximates a motion vector is detected, and the attention field and the other field are detected. A result obtained by multiplying a value of a target point that is a target of the motion vector detection calculation by a first weight, and a point around the target point in a field where the target point exists, A second value corresponding to the target point, which is a value obtained by adding a value obtained by multiplying the value of a point adjacent to the target point or separated from the target point by one or two points by the second weight. And the second feature value of a point around the target point in the target field from the search area of the other field, centered on the position specified by the first vector. And before The second feature of the subject point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the motion vector as a second vector A detecting step for detecting
A class classification step of classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
An extraction step for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ; and
Generating a component video signal corresponding to the composite video signal at the point of interest by applying a product-sum operation to the prediction coefficient obtained in advance and the extracted prediction tap. A featured image processing method.
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類ステップと、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出ステップと、
予め求めておいた予測係数と抽出された前記予測タップとに積和演算を適用することにより、前記注目点の前記コンポジットビデオ信号に対応する前記コンポーネントビデオ信号を生成する生成ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。An image processing program for generating a component video signal from a composite video signal,
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; By detecting the first feature value closest to the first feature value in the other field, a first vector that approximates a motion vector is detected, and the attention field and the other field are detected. A result obtained by multiplying a value of a target point that is a target of the motion vector detection calculation by a first weight, and a point around the target point in a field where the target point exists, A second value corresponding to the target point, which is a value obtained by adding a value obtained by multiplying the value of a point adjacent to the target point or separated from the target point by one or two points by the second weight. And the second feature value of a point around the target point in the target field from the search area of the other field, centered on the position specified by the first vector. And before The second feature of the subject point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the motion vector as a second vector A detecting step for detecting
A class classification step of classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
An extraction step for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ; and
Generating a component video signal corresponding to the composite video signal at the point of interest by applying a product-sum operation to the prediction coefficient obtained in advance and the extracted prediction tap. A recording medium on which a computer-readable program is recorded.
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類ステップと、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出ステップと、
予め求めておいた予測係数と抽出された前記予測タップとに積和演算を適用することにより、前記注目点の前記コンポジットビデオ信号に対応する前記コンポーネントビデオ信号を生成する生成ステップと
を実行させるプログラム。A computer that controls an image processing apparatus that generates a component video signal from a composite video signal;
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; By detecting the first feature value closest to the first feature value in the other field, a first vector that approximates a motion vector is detected, and the attention field and the other field are detected. A result obtained by multiplying a value of a target point that is a target of the motion vector detection calculation by a first weight, and a point around the target point in a field where the target point exists, A second value corresponding to the target point, which is a value obtained by adding a value obtained by multiplying the value of a point adjacent to the target point or separated from the target point by one or two points by the second weight. And the second feature value of a point around the target point in the target field from the search area of the other field, centered on the position specified by the first vector. And before The second feature of the subject point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the motion vector as a second vector A detecting step for detecting
A class classification step of classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
An extraction step for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ; and
A program for executing the generation step of generating the component video signal corresponding to the composite video signal at the point of interest by applying a product-sum operation to the prediction coefficient obtained in advance and the extracted prediction tap .
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点 であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、前記動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出手段と、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類手段と、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出手段と、
前記コンポーネントビデオ信号と抽出された前記予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの前記係数を演算する演算手段と
を含むことを特徴とする画像処理装置。In an image processing apparatus for generating coefficients used in a process of predicting a component video signal from a composite video signal,
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field , each of which is an average value of four points of different phases. Generating a feature quantity, and arranging and value the first feature quantity of the point in the attention field around the attention point and the first feature quantity of the attention point; By detecting the first feature value closest to the first feature value in the other field, the first vector approximate to the motion vector is detected, and the target field and the other field are detected. And a result obtained by multiplying the value of the target point to be subjected to the calculation of the motion vector by a first weight, and a point around the target point in the field where the target point exists, A value corresponding to the target point is a value obtained by adding a value obtained by multiplying a value of a point adjacent to the target point or separated from the target point by one or two points by a second weight. 2 is generated, and the second feature of the point around the target point in the target field is searched from the region searched for in the other field with the position specified by the first vector as the center. Quantity and The second feature quantity of the target point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the second motion as a vector Detecting means for detecting a vector;
Class classification means for classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
Extracting means for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ;
A normal equation obtained from the component video signal and the extracted prediction tap, and calculating a coefficient of the classified class by solving a normal equation that minimizes a residual. An image processing apparatus.
ことを特徴とする請求項14に記載の画像処理装置。The extraction unit further includes the prediction tap determined according to a dynamic range of the composite video signal or a dynamic range of the first feature amount or the second feature amount corresponding to the composite video signal. The image processing device according to claim 14, wherein the image processing device is extracted.
ことを特徴とする請求項14に記載の画像処理装置。The class classifying unit classifies the composite video signal at the point of interest into one of a plurality of classes with respect to a luminance signal constituting the component video signal, and further, a color signal constituting the component video signal The image processing apparatus according to claim 14, wherein the composite video signal of the attention point is classified into one class among a plurality of classes .
ことを特徴とする請求項14に記載の画像処理装置。The extraction means extracts the prediction tap for a luminance signal constituting the component video signal, and further extracts the prediction tap for a color signal constituting the component video signal. An image processing apparatus according to 1.
前記注目フィールドと前記他のフィールドとについて、前記画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成する第1の特徴量生成手段と、
前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、前記動きベクトルに近似する第1のベクトルを検出する第1のベクトル検出手段と、
前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成する第2の特徴量生成手段と、
前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、前記第2のベクトルとして動きベクトルを検出する第2のベクトル検出手段と
を含むことを特徴とする請求項14に記載の画像処理装置。The detection means includes
For the field of interest and the other field, from the image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field The average value of four points having different phases, or four points adjacent to each other vertically and horizontally on the two lines of the field, each of four points having different phases. First feature value generation means for generating a first feature value that is an average value ;
The first feature quantity closest in arrangement and value to the first feature quantity of the point in the attention field around the attention point and the first feature quantity of the attention point, First vector detecting means for detecting a first vector that approximates the motion vector by detecting the first feature quantity in a field ;
For the field of interest and other fields, the result obtained by multiplying the value of the target point that is the target of the motion vector detection calculation by the first weight, and the target point in the field where the target point exists A value obtained by multiplying a value obtained by multiplying a value of a point adjacent to the target point or a point separated from the target point by one or two points by a second weight. Second feature value generation means for generating a second feature value corresponding to the target point ;
From the area to be searched for in the other field, centered on the position specified by the first vector, the second feature amount of the points around the point of interest in the field of interest and the first of the points of interest The second feature quantity closest to the feature quantity of 2 is the second feature quantity that is closest to the feature quantity, and a motion vector is detected as the second vector indicating the position of the second feature quantity in the other field . The image processing apparatus according to claim 14, further comprising: two vector detection units.
ことを特徴とする請求項18に記載の画像処理装置。The first vector detecting means is the first feature amount having the strongest correlation with the first feature amount of the attention field that is a moving image screen to which the attention point belongs. 19. The image according to claim 18, wherein the first vector that approximates the motion vector is detected from a position of the first feature amount in the other field that is a screen of the moving image adjacent to the image. Processing equipment.
ことを特徴とする請求項18に記載の画像処理装置。The second vector detection means is the second feature having the strongest correlation with the second feature amount in the first range including the attention point in the attention field which is a screen of a moving image to which the attention point belongs. The second feature amount of the area to be searched centering on the position specified by the first vector in the other field that is the screen of the moving image adjacent to the field of interest. The image processing apparatus according to claim 18, wherein the motion vector is detected as the second vector from the position of the image.
ことを特徴とする請求項18に記載の画像処理装置。The image processing apparatus according to claim 18, wherein the second vector detection unit applies a class classification adaptive process to the second feature quantity , and detects the motion vector as the second vector. .
ことを特徴とする請求項21に記載の画像処理装置。The image processing apparatus according to claim 21, wherein the second vector detection unit performs class classification using a phase of the color signal at the point of interest.
ことを特徴とする請求項21に記載の画像処理装置。The image according to claim 21, wherein the second vector detection means applies an adaptive process to the second feature amount at a position indicated by the second vector detected in the previous field. Processing equipment.
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、前記動きベクトルに近似する第1の ベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類ステップと、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出ステップと、
前記コンポーネントビデオ信号と抽出された前記予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの前記係数を演算する演算ステップと
を含むことを特徴とする画像処理方法。In an image processing method for generating coefficients used in a process of predicting a component video signal from a composite video signal,
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; A nearest the first feature amount, by detecting the first feature amount in the other fields, and detecting a first vector approximating said motion vector, the target field and other fields And a result obtained by multiplying the value of the target point to be subjected to the calculation of the motion vector by a first weight, and a point around the target point in the field where the target point exists, A value corresponding to the target point is a value obtained by adding a value obtained by multiplying a value of a point adjacent to the target point or separated from the target point by one or two points by a second weight. 2 is generated, and the second feature of the point around the target point in the target field is searched from the region searched for in the other field with the position specified by the first vector as the center. Quantity and The second feature quantity of the target point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the second motion as a vector A detection step for detecting a vector;
A class classification step of classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
An extraction step for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ; and
A normal equation obtained from the component video signal and the extracted prediction tap, and calculating a coefficient of the classified class by solving a normal equation that minimizes a residual. An image processing method characterized by the above.
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、前記動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類ステップと、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出ステップと、
前記コンポーネントビデオ信号と抽出された前記予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの前記係数を演算する演算ステップと
を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。An image processing program for generating coefficients used in a process of predicting a component video signal from a composite video signal,
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; By detecting the first feature value closest to the first feature value in the other field, the first vector approximate to the motion vector is detected, and the target field and the other field are detected. And a result obtained by multiplying the value of the target point to be subjected to the calculation of the motion vector by a first weight, and a point around the target point in the field where the target point exists, A value corresponding to the target point is a value obtained by adding a value obtained by multiplying a value of a point adjacent to the target point or separated from the target point by one or two points by a second weight. 2 is generated, and the second feature of the point around the target point in the target field is searched from the region searched for in the other field with the position specified by the first vector as the center. Quantity and The second feature quantity of the target point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the second motion as a vector A detection step for detecting a vector;
A class classification step of classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
An extraction step for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ; and
A normal equation obtained from the component video signal and the extracted prediction tap, and calculating a coefficient of the classified class by solving a normal equation that minimizes a residual. A recording medium on which a computer-readable program is recorded.
前記コンポジットビデオ信号の注目している点である注目点の存在する注目しているフィールドである注目フィールドと他のフィールドとについて、前記コンポジットビデオ信号の前記輝度信号と前記色信号とを加算または減算して得られた画像信号から、前記注目点における前記色信号の位相と同じ位相の点の値であるか、それぞれのフィールドの1つのライン上の連続する4つの点であって、それぞれ異なる位相の4つの点の平均値であるか、または前記フィールドの2つのライン上の上下および左右に相互に隣接する4つの点であって、それぞれ異なる位相の4つの点の平均値である第1の特徴量を生成し、前記注目点の周辺の前記注目フィールドにおける点の前記第1の特徴量および前記注目点の前記第1の特徴量に、配置および値の最も近い前記第1の特徴量であって、前記他のフィールドにおける前記第1の特徴量を検出することにより、前記動きベクトルに近似する第1のベクトルを検出し、前記注目フィールドと他のフィールドとについて、前記動きベクトルの検出の演算の対象となる対象点の値に第1の重みを乗じて得た結果と、前記対象点の存在するフィールドにおける前記対象点の周辺の点であって、前記対象点に隣接するか、前記対象点から1つまたは2つの点だけ離れた点の値に第2の重みを乗じて得た結果とを加算した値である、前記対象点に対応する第2の特徴量を生成し、前記第1のベクトルで指定される位置を中心とした、前記他のフィールドのサーチする領域から、前記注目フィールドにおける前記注目点の周辺の点の前記第2の特徴量および前記注目点の前記第2の特徴量に、配置および値の最も近い前記第2の特徴量であって、前記他のフィールドにおける前記第2の特徴量の位置を示す、第2のベクトルとして動きベクトルを検出する検出ステップと、
前記第1の特徴量または前記第2の特徴量および前記動きベクトルによって、予め定めた複数のクラスのうちの1つのクラスに前記注目点を分類するクラス分類ステップと、
分類されたクラス毎に予め定められている予測タップであって、前記第1の特徴量または前記第2の特徴量を含む予測タップを抽出する抽出ステップと、
前記コンポーネントビデオ信号と抽出された前記予測タップとから求められる正規方程式であって、残差を最小とする正規方程式を解くことにより、分類されたクラスの前記係数を演算する演算ステップと
を実行させるプログラム。A computer that controls an image processing device that generates coefficients used in the process of predicting a component video signal from a composite video signal;
Addition or subtraction of the luminance signal and the color signal of the composite video signal with respect to the field of interest and the other field of interest where there is a point of interest that is the point of interest of the composite video signal From the obtained image signal, the values of the points having the same phase as the phase of the color signal at the point of interest, or four consecutive points on one line of each field, each having a different phase Or four points adjacent to each other vertically and horizontally on two lines of the field, each of which is an average value of four points of different phases. Generating a feature amount, and arranging and value the first feature amount of the point in the attention field around the attention point and the first feature amount of the attention point; By detecting the first feature value closest to the first feature value in the other field, the first vector approximate to the motion vector is detected, and the target field and the other field are detected. And a result obtained by multiplying the value of the target point to be subjected to the calculation of the motion vector by a first weight, and a point around the target point in the field where the target point exists, A value corresponding to the target point is a value obtained by adding a value obtained by multiplying a value of a point adjacent to the target point or separated from the target point by one or two points by a second weight. 2 is generated, and the second feature of the point around the target point in the target field is searched from the region searched for in the other field with the position specified by the first vector as the center. Quantity and The second feature quantity of the target point, a second feature quantity closest arrangement and values, indicating a position of the second feature amount in the other fields, the second motion as a vector A detection step for detecting a vector;
A class classification step of classifying the attention point into one of a plurality of predetermined classes based on the first feature quantity or the second feature quantity and the motion vector ;
An extraction step for extracting a prediction tap that is predetermined for each classified class and includes the first feature amount or the second feature amount ; and
A normal equation obtained from the component video signal and the extracted prediction tap, and calculating a coefficient of the classified class by solving a normal equation that minimizes a residual . program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001363806A JP3777593B2 (en) | 2001-11-29 | 2001-11-29 | Image processing apparatus and method, recording medium, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001363806A JP3777593B2 (en) | 2001-11-29 | 2001-11-29 | Image processing apparatus and method, recording medium, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003169350A JP2003169350A (en) | 2003-06-13 |
JP3777593B2 true JP3777593B2 (en) | 2006-05-24 |
Family
ID=19174088
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001363806A Expired - Fee Related JP3777593B2 (en) | 2001-11-29 | 2001-11-29 | Image processing apparatus and method, recording medium, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3777593B2 (en) |
-
2001
- 2001-11-29 JP JP2001363806A patent/JP3777593B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003169350A (en) | 2003-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2697738C1 (en) | Predictive coding method, a predictive coding device and a predictive coding method of a motion vector and a predictive decoding method, a predictive decoding device and a motion vector prediction decoding program | |
JP3590996B2 (en) | Hierarchical encoding and decoding apparatus for digital image signal | |
CN1535024B (en) | Video encoding device, method and video decoding device and method | |
CN100356794C (en) | Method and apparatus for generating motion vector in lamina motion evaluation | |
EP1587032B1 (en) | Image processing apparatus and method, recording medium, and program | |
JP6072678B2 (en) | Image encoding device, image encoding method, image encoding program, image decoding device, image decoding method, and image decoding program | |
US8331710B2 (en) | Image processing apparatus and method, learning apparatus and method, and program | |
US7881539B2 (en) | Image processing apparatus and method, program recording medium, and program | |
WO2005084036A1 (en) | Motion vector detecting apparatus, motion vector detecting method, and computer program | |
JP2009147807A (en) | Image processing apparatus | |
JP3864400B2 (en) | Image processing apparatus and image processing method | |
US20060098886A1 (en) | Efficient predictive image parameter estimation | |
JPH0787481A (en) | Fault detector | |
JP2009212605A (en) | Information processing method, information processor, and program | |
KR100652467B1 (en) | The movement judgment equipment, the method and the picture information change equipment | |
JP3777593B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP4622265B2 (en) | Motion vector detection device, motion vector detection method, and program | |
JP4490351B2 (en) | Inter-layer prediction processing method, inter-layer prediction processing apparatus, inter-layer prediction processing program, and recording medium therefor | |
JP4622264B2 (en) | Motion vector detection apparatus, motion vector detection method, and computer program | |
JP6090430B2 (en) | Encoding apparatus, method, program, computer system, recording medium | |
JP3743077B2 (en) | Image signal conversion apparatus and method | |
JP3777592B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP3796844B2 (en) | Image processing apparatus, image processing method, parameter generation apparatus, and parameter generation method | |
JP3867730B2 (en) | Integrated circuit for digital signal processing | |
JP4235918B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051114 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060111 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060219 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100310 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100310 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110310 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110310 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120310 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130310 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130310 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140310 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |