この発明の実施の形態について説明する。図1は、実施の形態としての画像信号処理装置100の構成を示している。
この画像信号処理装置100は、装置全体の動作を制御するシステムコントローラ101を有している。このシステムコントローラ101は、例えば、MPU(Micro Processing Unit)、このMPUの動作プログラム等が記憶されたROM(Read Only Memory)、このMPUの作業領域を構成するRAM(Random Access Memory)等を備えている。
このシステムコントローラ101には、リモコン信号受信部102が接続されている。このリモコン信号受信部102は、リモコン送信機103からユーザの操作に応じて出力されるリモコン信号RMを受信し、そのリモコン信号RMに対応する操作信号をシステムコントローラ101に供給する。また、このシステムコントローラ101には、LCD(Liquid Crystal Display)等で構成される表示器104が接続されている。この表示器104は、システムコントローラ101の制御のもと、装置の動作状態等を表示する。
また、画像信号処理装置100は、入力端子111と、DRC−ボリウム処理部112と、追尾ズーム処理部113と、出力端子114と、セレクタ115〜118とを有している。入力端子111は、画像信号が入力される画像信号入力手段を構成している。この入力端子111は、入力された画像信号を、処理部112,113に向けて出力する。この入力端子111には、動画像または静止画像を表示するための画像信号Vinが、処理すべき画像信号として入力される。この画像信号Vinは、例えば、図示しない放送受信機において、放送信号より取得されたものとされる。
DRC−ボリウム処理部112は、第1の画像信号処理手段を構成している。この処理部112は、入力された画像信号が画質パラメータの値に応じた画質の画像信号となるように処理を行う。システムコントローラ101から処理部112に送られる制御信号SCaには、ユーザによって調整された、解像度を示す画質パラメータrの値およびノイズ除去度を示す画質パラメータzの値が含まれている。この処理部112の詳細については、後述する。
この処理部112は、ユーザの選択操作により、「第1の処理」の機能が選択されるとき、追尾ズーム処理部113で得られた画像信号を処理すべき画像信号として、画質パラメータの値に応じた画質の画像信号を得る処理を行い、処理後の画像信号を出力する。この場合、ユーザによって調整された画質パラメータr,zの値がそのまま用いられる。
また、この処理部112は、ユーザの選択操作により、「第3の処理」の機能が選択されるとき、入力端子111に入力された画像信号Vinを処理すべき画像信号として、画質パラメータの値に応じた画質の画像信号を得る処理を行い、処理後の画像信号を出力する。この場合、ユーザによって調整された画質パラメータr,zの値がそのまま用いられる。
また、この処理部112は、ユーザの選択操作により、「第4の処理」の機能が選択されるとき、入力端子111に入力された画像信号Vinを処理すべき画像信号として、画質パラメータの値に応じた画質の画像信号を得る処理を行い、処理後の画像信号を出力する。この場合、追尾ズーム処理部113で取得されたオブジェクト領域情報OAIに基づいて、オブジェクトの領域ではユーザによって調整された画質パラメータr,zの値をそのまま用い、その他の領域ではユーザによって調整された画質パラメータr,zの値を画質が低下する方向に変更して用いる。画質が低下する方向の例としては、解像度が低下する方向、あるいは、ノイズが増える方向、ユーザが「画質が低下したと感じる」方向などが挙げられる。
追尾ズーム処理部113は、第2の画像信号処理手段を構成している。この処理部113は、入力された画像信号による画像に含まれる所定のオブジェクトの領域を示すオブジェクト領域情報を取得し、このオブジェクト領域情報に基づいて、入力された画像信号に対してズーム処理または追尾ズーム処理を行う。システムコントローラ101から処理部113に送られる制御信号SCbには、ユーザによって入力されたオブジェクト領域指定情報、およびユーザによって調整された倍率情報が含まれている。この処理部113の詳細については、後述する。
この処理部113は、ユーザの選択操作により、「第1の処理」または「第2の処理」の機能が選択されるとき、入力端子111に入力された画像信号Vinを処理すべき画像信号として、ズーム処理または追尾ズーム処理を行い、処理後の画像信号を出力する。また、この処理部113は、ユーザの選択操作により、「第4の処理」の機能が選択されるとき、入力端子111に入力された画像信号Vinを処理すべき画像信号として、オブジェクト抽出処理を行い、オブジェクト領域情報OAIを出力する。
出力端子114は、出力画像信号Voutを出力する画像信号出力手段を構成している。この出力端子114には、処理部112または処理部113で得られた画像信号が、出力画像信号Voutとして出力される。
セレクタ115〜118は、入力端子111、処理部112,113および出力端子114の間の信号経路を設定する設定手段を構成している。セレクタ115は、ユーザの選択操作により、「第1の処理」の機能が選択されるとき、セレクタ117から供給される画像信号を処理部112に処理すべき画像信号として供給する。また、セレクタ115は、ユーザの選択操作により、「第3の処理」または「第4の処理」の機能が選択されるとき、入力端子111から入力された画像信号Vinを処理部112に処理すべき画像信号として供給する。
セレクタ116は、ユーザの選択操作により、「第1の処理」の機能が選択されるとき、処理部113から出力される画像信号をセレクタ117に供給する。また、セレクタ116は、ユーザの選択操作により、「第2の処理」の機能が選択されるとき、処理部113から出力される画像信号をセレクタ118に供給する。また、セレクタ116は、「第4の処理」の機能が選択されるとき、処理部113から出力されるオブジェクト領域情報OAIをセレクタ117に供給する。
セレクタ117は、ユーザの選択操作により、「第1の処理」の機能が選択されるとき、セレクタ116から供給される画像信号をセレクタ115に供給する。また、セレクタ117は、ユーザの選択操作により、「第4の処理」の機能が選択されるとき、セレクタ116から供給されるオブジェクト領域情報OAIを処理部112に制御信号として供給する。
セレクタ118は、「第1の処理」、「第3の処理」または「第4の処理」の機能が選択されるとき、処理部112から出力される画像信号を出力端子114に供給する。また、セレクタ118は、「第2の処理」の機能が選択されるとき、処理部113から出力される画像信号を出力端子114に供給する。
次に、DRC−ボリウム処理部112の詳細を説明する。図2は、この処理部112の構成を示している。
この処理部112は、画像信号Vaが入力される入力端子201と、この入力端子201に入力された画像信号Vaを処理する処理本体部202と、この処理本体部202で得られた画像信号Vbを出力する出力端子203と、処理本体部202の動作を制御する制御部204と、オブジェクト領域情報OAIが入力される入力端子205と、制御信号SCaが入力される入力端子206とを有している。
制御部204は、入力端子205に入力されるオブジェクト領域情報OAIおよび入力端子206に入力される制御信号SCaに基づいて、処理本体部202の動作を制御する。例えば、制御部204は、MPU、このMPUの動作プログラム等が記憶されたROM、このMPUの作業領域を構成するRAM等を備えた構成とされている。入力端子201は、第1の入力部を構成している。
処理本体部202は第1の処理部を構成している。この処理本体部202は、525i信号というSD(Standard Definition)信号である画像信号Vaを、1050i信号というHD(High Definition)信号である画像信号Vbに変換する。ここで、画像信号Vaは第1の画像信号を構成し、画像信号Vbは第2の画像信号を構成している。525i信号は、1フレームのライン数が525本である、インタレース方式の画像信号である。1050i信号は、1フレームのライン数が1050本である、インタレース方式の画像信号である。
図3は、525i信号および1050i信号のあるフレーム(F)の画素位置関係を示すものであり、奇数(o)フィールドの画素位置を実線で示し、偶数(e)フィールドの画素位置を破線で示している。大きなドットが525i信号の画素であり、小さいドットが1050i信号の画素である。図3から分かるように、1050i信号の画素データとしては、525i信号のラインに近い位置のラインデータL1,L1′と、525i信号のラインから遠い位置のラインデータL2,L2′とが存在する。ここで、L1,L2は奇数フィールドのラインデータ、L1′,L2′は偶数フィールドのラインデータである。また、1050i信号の各ラインの画素数は、525i信号の各ラインの画素数の2倍である。
図2に戻って、処理本体部202は、バッファメモリ211と、予測タップ選択部212と、クラスタップ選択部213とを有している。バッファメモリ211は、入力端子201に入力された画像信号Vaを一時的に記憶する。タップ選択部212,213は、それぞれ、バッファメモリ211に記憶されている画像信号Vaに基づいて、画像信号Vbにおける注目位置の周辺に位置する複数の画素データを、予測タップ、クラスタップのデータとして選択的に抽出する。
図4Aは、予測タップのデータとして抽出される複数の画素データのパターン例を示している。図4Bは、クラスタップのデータとして抽出される複数の画素データ(実線部分)のパターン例を示している。なお、この図4A,Bでは、注目位置が存在する現フィールドから予測タップ、クラスタップのデータとしての複数の画素データを抽出するようになっているが、さらに時間方向の前後の所定数のフィールドから抽出することも考えられる。
また、処理本体部202は、クラス検出部214を有している。このクラス検出部214は、クラスタップ選択部213で抽出されたクラスタップのデータとしての複数の画素データに対してデータ圧縮処理を施して、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLを取得する。例えば、データ圧縮処理としては、ADRC(Adaptive Dynamic Range Coding)、DPCM(予測符号化)、VQ(ベクトル量子化)等を利用できる。本実施の形態では、ADRC、例えば1ビットADRCを利用している。
まず、KビットADRCを利用する場合について説明する。この場合、クラスタップに含まれる画素データの最大値MAXと最小値MINの差分であるダイナミックレンジDR=MAX−MINを検出し、またクラスタップに含まれるそれぞれの画素データについて、その画素データから最小値MINを減算し、その減算値をDR/2Kで除算(量子化)し、クラスタップを構成するそれぞれの画素データをKビットに再量子化し、それを所定の順番で並べたビット列をクラスコードCLとする。
したがって、1ビットADRCを利用する場合には、クラスタップに含まれるそれぞれの画素データについて、その画素データから最小値MINを減算し、その減算値をDR/2で除算し、クラスタップに含まれるそれぞれの画素データを1ビットに再量子化し、それを所定の順番で並べたビット列をクラスコードCLとして出力する。
また、処理本体部202は、係数データ生成部215と、記憶部としてのROM216とを有している。ROM216は、各クラスの係数種データを記憶している。後述する推定予測演算部217では、予測タップとしての複数の画素データxiと、係数データWiとを用い、(1)式の推定式に基づいて、画像信号Vbにおける注目位置の画素データyが求められる。この(1)式において、nは、予測タップとしての複数の画素データxiの個数である。
ROM216に記憶される係数種データは、上述した推定式の係数データWiを生成するための、画質パラメータr,zを含む生成式の係数データである。(2)式は、その生成式の一例を示しており、wi0〜wi9が係数種データである。ここで、画質パラメータrは解像度を決めるパラメータであり、画質パラメータzはノイズ除去度を決めるパラメータである。この係数種データwi0〜wi9は、画像信号Vaを(525i信号)を、画像信号Vb(1050i信号)に変換するための情報である。
上述の図3に示すように、525i信号を1050i信号に変換する場合、奇数、偶数のそれぞれのフィールドにおいて、525i信号の1画素に対応して1050i信号の4画素を得る必要がある。
図5は、奇数、偶数フィールドにおける1050i信号を構成する2×2の単位画素ブロックUB内の4画素における中心予測タップからの位相ずれを示している。奇数フィールドの場合、単位画素ブロックUB内の4画素HD1〜HD4の位置は、それぞれ、中心予測タップSD0の位置から、水平方向にk1〜k4、垂直方向にm1〜m4だけずれている。偶数フィールドの場合、単位画素ブロックUB内の4画素HD1′〜HD4′の位置は、それぞれ、中心予測タップSD0′の位置から、水平方向にk1′〜k4′、垂直方向にm1′〜m4′だけずれている。
そのため、上述した各クラスの係数種データwi0〜wi9は、8種類の出力画素(HD1〜HD4,HD1′〜HD4′)にそれぞれ対応した係数種データwi0〜wi9からなっている。結局、ROM216には、クラスおよび出力画素の組み合わせ毎に、係数種データwi0〜wi9が格納されている。
この係数種データwi0〜wi9は、画像信号Vbに対応した教師信号としての画像信号Vb′と画像信号Vaに対応した生徒信号としての画像信号Va′とから学習によって予め生成されたものである。この係数種データwi0〜wi9の生成方法の詳細については後述する。
係数データ生成部215は、奇数、偶数の各フィールドにおいて、クラス検出部214で得られたクラスコードCLが表すクラスの、4出力画素(図5のHD1〜HD4、またはHD1′〜HD4′)にそれぞれ対応した4画素分の係数種データwi0〜wi9をROM216から取得し、さらに制御部204から供給される画質パラメータr,zの値を用い、(2)式の生成式に基づいて、4画素分の係数データWiを生成する。
ここで、制御部204から供給される画質パラメータr,zの値は、ユーザの選択操作によって選択される機能に応じて、以下のように制御される。すなわち、「第1の処理」または「第3の処理」の機能が選択されるとき、画質パラメータr,zの値はユーザによって調整されたパラメータr,zの値とされる。また、「第4の処理」の機能が選択されるとき、画質パラメータr,zの値は、オブジェクト領域情報OAIに基づいて、オブジェクトの領域ではユーザによって調整されたパラメータr,zの値とされ、その他の領域ではユーザによって調整されたパラメータr,zの値を画質が低下する方向に変更した値とされる。
また、処理本体部202は、推定予測演算部217を有している。この推定予測演算部217は、画像信号Vbにおける注目位置に存在する単位画素ブロックUB毎に画素データを求める。すなわち、推定予測演算部217は、予測タップ選択部212で抽出される単位画素ブロックUB内の4画素(注目画素)に対応した、予測タップのデータxi、および係数データ生成部215で生成される、その単位画素ブロックUB内の4画素に対応した4画素分の係数データWiを用い、その単位画素ブロックUBを構成する4画素の画素データy1〜y4を、それぞれ上述した(1)式の推定式で、個別に演算する。
また、処理本体部202は、後処理部218を有している。この後処理部218は、推定予測演算部217より順次出力される、単位画素ブロックUB内の4画の画素データy1〜y4を線順次化し、1050i信号のフォーマットで出力する。
次に、図2に示すDRC−ボリウム処理部112の動作を説明する。
SD信号である画像信号Vaが入力端子201に入力され、この画像信号Vaはバッファメモリ211に一時的に記憶される。そして、この画像信号Vaに基づき、クラス分類適応処理により、画像信号Vbを構成する各画素データが生成される。
すなわち、クラスタップ選択部213では、バッファメモリ211に記憶されている画像信号Vaに基づいて、画像信号Vbにおける注目位置の周辺に位置する複数の画素データが、クラスタップのデータとして選択的に抽出される。この複数の画素データは、クラス検出部214に供給される。
クラス検出部214では、クラスタップのデータとしての複数の画素データに、例えば1ビットADRCのデータ圧縮処理が施されて、画像信号Vbにおける注目位置の画素データが属するクラスを示すクラスコードCLが得られる。このクラスコードCLは係数データ生成部215に供給される。
この係数データ生成部215では、奇数、偶数の各フィールドにおいて、クラスコードCLで示されるクラスの、4出力画素(図5のHD1〜HD4、またはHD1′〜HD4′)にそれぞれ対応した4画素分の係数種データwi0〜wi9が、ROM216から取得される。また、この係数データ生成部215には、制御部204から画質パラメータr,zの値が供給される。そして、この係数データ生成部215では、各フィールドにおいて、4画素分の係数種データwi0〜wi9および画質パラメータr,zの値が用いられ、上述の(2)式の生成式に基づいて、4出力画素分の係数データWiが生成される。この係数データWiは、推定予測演算部217に供給される。
また、予測タップ選択部212では、バッファメモリ211に記憶されている画像信号Vaに基づいて、画像信号Vbにおける注目位置の周辺に位置する複数の画素データxiが、予測タップのデータとして選択的に抽出される。この複数の画素データxiは、推定予測演算部217に供給される。推定予測演算部217では、予測タップ選択部212で抽出された予測タップのデータとしての複数の画素データxiと、係数データ生成部215で生成された4出力画素分の係数データWiとから、画像信号Vbにおける注目位置に存在する単位画素ブロックUB内の4画素(注目画素)の画素データy1〜y4が、上述の(1)式の推定式に基づいて、個別に演算される。
この推定予測演算部217より順次出力される、画像信号Vbを構成する各単位画素ブロックUB内の4画素の画素データy1〜y4は、後処理部218に供給される。この後処理部218では、推定予測演算部217より順次供給される単位画素ブロックUB内の4画素のデータy1〜y4が線順次化され、1050i信号のフォーマットで出力される。つまり、後処理部218からは画像信号Vb(050i信号)が得られ、この画像信号Vbは出力端子203に出力される。
次に、上述した処理本体部202のROM216に記憶される、係数種データの生成方法について説明する。この係数種データは、学習によって生成される。ここでは、(2)式の生成式における係数データである係数種データwi0〜wi9を求める例を示すものとする。
ここで、以下の説明のため、(3)式のように、tj(j=0〜9)を定義する。
t0=1,t1=r,t2=z,t3=r2,t4=rz,t5=z2,t6=r3,
t7=r2z,t8=rz2,t9=z3
・・・(3)
この(3)式を用いると、(2)式は、(4)式のように書き換えられる。
最終的に、学習によって未定係数wijを求める。すなわち、クラスおよび出力画素の組み合わせ毎に、複数の学習データを用いて、二乗誤差を最小にする係数値を決定する。いわゆる最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、(1)式および(2)式を用いて、Eは(5)式で表される。ここで、xikはSD信号のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応するk番目のHD信号の画素データを表している。
最小二乗法による解法では、(5)式のwijによる偏微分が0になるようなwijを求める。これは、(6)式で示される。
ここで、(7)式、(8)式のように、Xipjq、Yipを定義すると、(6)式は、行列を用いて、(9)式のように書き換えられる。
この(9)式が、係数種データwi0〜wi9を算出するための正規方程式である。この正規方程式を掃き出し法(Gauss-Jordanの消去法)等の一般解法で解くことにより、係数種データwi0〜wi9を求めることができる。
図6は、上述した係数種データの生成方法の概念を示している。教師信号としてのHD信号から、生徒信号としての複数のSD信号を生成する。ここで、HD信号からSD信号を生成する際に使用する間引きフィルタの周波数特性を変えることにより、解像度の異なるSD信号を生成する。
解像度の異なるSD信号によって、解像度を上げる効果の異なる係数種データを生成できる。例えばボケ具合の大きな画像が得られるSD信号とボケ具合の小さな画像が得られるSD信号があった場合、ボケ具合の大きな画像が得られるSD信号による学習で、解像度を上げる効果の強い係数種データが生成され、ボケ具合の小さな画像が得られるSD信号による学習で、解像度を上げる効果の弱い係数種データが生成される。
また、解像度の異なるSD信号の各々に対してノイズを加えることで、ノイズの加わったSD信号を生成する。ノイズを加える量を可変することでノイズ量が異なるSD信号が生成され、それによってノイズ除去効果の異なる係数種データが生成される。例えばノイズをたくさん加えたSD信号とノイズを少し加えたSD信号とがあった場合、ノイズをたくさん加えたSD信号による学習でノイズ除去効果の強い係数種データが生成され、ノイズを少し加えたSD信号による学習でノイズ除去効果の弱い係数種データが生成される。
ノイズを加える量としては、例えば(10)式のように、SD信号の画素値xに対して、ノイズnを加えてノイズの加わったSD信号の画素値x′を生成する場合、Gを可変することでノイズ量を調整する。
x′=x+G・n ・・・(10)
例えば、周波数特性を可変する画質パラメータrの値を0〜1.0まで0.1のステップで11段階に可変し、ノイズを加える量を可変する画質パラメータzの値を0〜1.0まで0.1のステップで11段階に可変し、合計121種類のSD信号を生成する。このようにして生成した複数のSD信号とHD信号との間で学習を行って係数種データを生成する。この画質パラメータr,zは、図2の係数データ生成部215に供給される画質パラメータr,zに対応したものである。
次に、上述した係数種データwi0〜wi9を生成するための係数種データ生成装置250について説明する。図7は、この係数種データ生成装置250の構成を示している。
この係数種データ生成装置250は、入力端子251と、SD信号生成部252とを有している。入力端子251は、上述した画像信号Vbに対応した、教師信号としての画像信号Vb′を入力するための端子である。SD信号生成部252は、この画像信号Vb′に対して、水平および垂直の間引き処理を行って、上述した画像信号Vaに対応した、生徒信号としての画像信号Va′を生成する。このSD信号生成部252には、画質パラメータr,zが供給される。画質パラメータrの値に対応して、画像信号Vb′から画像信号Va′を生成する際に使用する間引きフィルタの周波数特性が可変される。また、画質パラメータzの値に対応して、画像信号Va′に加えるノイズの量が可変される。
また、係数種データ生成装置250は、予測タップ選択部253と、クラスタップ選択部254とを有している。これらタップ選択部253,254は、それぞれ、SD信号生成部252で生成された画像信号Va′に基づいて、画像信号Vb′における注目位置の周辺に位置する複数の画素データを、予測タップ、クラスタップのデータとして選択的に抽出する。これらタップ選択部253,254は、それぞれ、上述した処理本体部202のタップ選択部212,213に対応している。
また、係数種データ生成装置250は、クラス検出部255を有している。このクラス検出部255は、クラスタップ選択部254で選択的に抽出されたクラスタップのデータとしての複数の画素データを処理して、画像信号Vb′における注目位置の画素データが属するクラスを示すクラスコードCLを生成する。このクラス検出部255は、上述した処理本体部202のクラス検出部214に対応している。
また、係数種データ生成装置250は、教師タップ選択部256を有している。この教師タップ選択部256は、画像信号Vb′に基づいて、当該画像信号Vb′における注目位置の画素データを選択的に抽出する。
また、係数種データ生成装置250は、正規方程式生成部257を有している。この正規方程式生成部257は、教師タップ選択部256で選択的に抽出された、画像信号Vb′における各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択部253で選択的に抽出された、予測タップのデータとしての複数の画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス検出部255で生成されたクラスコードCLと、画質パラメータr,zの値とから、クラス毎に、係数種データwi0〜wi9を得るための正規方程式((9)式参照)を生成する。
この場合、1個の画素データyとそれに対応する複数個の画素データxiとの組み合わせで1個の学習データが生成される。教師信号としての画像信号Vb′と、それに対応した生徒信号としての画像信号Va′との間で、クラス毎に、多くの学習データが生成されていく。これにより、正規方程式生成部257では、各クラスの係数種データwi0〜wi9を得るための正規方程式がそれぞれ生成される。
またこの場合、正規方程式生成部257では、出力画素(図5のHD1〜HD4,HD1′〜HD4′)毎に、正規方程式が生成される。すなわち、HD1〜HD4,HD1′〜HD4′に対応した正規方程式は、それぞれ、中心予測タップSD0,SD0′からのずれ値がHD1〜HD4,HD1′〜HD4′と同じ関係にある画素データyから構成される学習データを用いて生成される。結局、正規方程式生成部257では、クラスおよび出力画素の組み合わせ毎に、係数種データwi0〜wi9を得るための正規方程式が生成される。
また、係数種データ生成装置250は、係数種データ決定部258と、係数種メモリ259とを有している。係数種データ決定部258は、正規方程式生成部257から正規方程式のデータの供給を受け、当該正規方程式を掃き出し法等によって解き、クラスおよび出力画素の組み合わせ毎に、係数種データwi0〜wi9を求める。係数種メモリ259は、係数種データ決定部258で求められた係数種データwi0〜wi9を格納する。
次に、図7に示す係数種データ生成装置250の動作を説明する。
入力端子251には、教師信号としての画像信号Vb′が入力される。この画像信号Vb′に対して、SD信号生成部252で水平および垂直の間引き処理が行われて、生徒信号としての画像信号Va′が生成される。この場合、SD信号生成部252には画質パラメータr,zが制御信号として供給され、周波数特性およびノイズ加算量が段階的に変化した複数の画像信号Va′が順次生成されていく。
クラスタップ選択部254では、画像信号Va′に基づいて、画像信号Vb′における注目位置の周辺に位置する複数の画素データがクラスタップのデータとして選択的に抽出される。この複数の画素データはクラス検出部255に供給される。そして、クラス検出部255では、各画素データに対してADRC等のデータ圧縮処理が施されて、画像信号Vb′における注目位置の画素データが属するクラスを示すクラスコードCLが生成される。このクラスコードCLは、正規方程式生成部257に供給される。
予測タップ選択部253では、画像信号Va′に基づいて、画像信号Vb′における注目位置の周辺に位置する複数の画素データxiが予測タップのデータとして選択的に抽出される。この複数の画素データxiは、正規方程式生成部257に供給される。また、教師タップ選択部256では、画像信号Vb′に基づいて、当該画像信号Vb′における注目位置の画素データyが選択的に抽出される。この画素データyは、正規方程式生成部257に供給される。
正規方程式生成部257では、画像信号Vb′における各注目位置を対象として、当該各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応した、予測タップのデータとしての複数の画素データxiと、各注目位置の画素データyが属するクラスを示すクラスコードCLと、SD信号生成部252に供給されている画質パラメータr,zの値とから、クラスおよび出力画素の組み合わせ毎に、係数種データwi0〜wi9を得るための正規方程式((9)式参照)が生成される。
そして、係数種データ決定部258では、正規方程式生成部257から正規方程式のデータが供給され、当該正規方程式が掃き出し法等によって解かれ、クラスおよび出力画素の組み合わせ毎に、係数種データwi0〜wi9が求められる。この係数種データwi0〜wi9は、係数種メモリ259に格納される。
このように、図7に示す係数種データ生成装置250においては、上述した処理本体部202のROM216に格納すべき、クラスおよび出力画素の各組み合わせの係数種データwi0〜wi9を生成できる。
次に、追尾ズーム処理部113の詳細を説明する。図8は、この処理部113の構成を示している。
この処理部113は、画像信号が入力される入力端子301と、この入力端子301に入力された画像信号を処理する処理本体部302と、この処理本体部302で得られた信号(画像信号またはオブジェクト領域情報)を出力する出力端子303と、処理本体部302の動作を制御する制御部304と、制御信号SCbが入力される入力端子305とを有している。
制御部304は、入力端子305に入力される制御信号SCbに基づいて、処理本体部302の動作を制御する。例えば、制御部304は、MPU、このMPUの動作プログラム等が記憶されたROM、このMPUの作業領域を構成するRAM等を備えた構成とされている。入力端子301は、第2の入力部を構成している。
処理本体部302は、バッファメモリ311と、検出領域決定部312と、オブジェクト特定部313と、動きベクトル検出部314と、ズーム処理部315と、セレクタ316とを有している。
バッファメモリ311は、入力端子301に入力された画像信号を一時的に記憶する。検出領域決定部312は、制御部304から供給される、制御信号SCbに含まれているオブジェクト領域指定情報OAAに基づいて、単独で、あるいはオブジェクト特定部313との共働で、オブジェクト領域情報を生成する。このオブジェクト領域情報は、例えばオブジェクト領域に対応した画素位置にフラグが立つようにされたフラグ情報である。
ここで、ユーザのオブジェクト領域の指定動作を説明する。まず、ユーザの操作により、「第1の処理」または「第2の処理」の機能が選択される場合について説明する。ユーザがオブジェクト領域の指定動作を行う場合、バッファメモリ311に記憶されている画像信号が出力端子303に出力され、図示しないモニタ上にその画像信号による画像(動画像または静止画像)が表示される。この状態で、ユーザがリモコン操作によりオブジェクトOBに対応した所定点Pを指定することで、図9に示すように、当該所定点Pを中心とした円形または楕円形の枠FLが表示される。この枠FLを表示するための表示信号は、図示せずも、例えばズーム処理部315の部分で画像信号に重畳される。ユーザは、この枠FLの大きさを予め調整できる。また、枠FLの形状は、円形または楕円形でなく、その他の形状であってもよい。
例えば、このようにオブジェクトOBに対応して枠FLが表示されることでオブジェクト領域の指定が確定し、コントローラ101から追尾ズーム処理部113に、上述したオブジェクト領域指定情報OAAとして、確定時における枠位置情報が供給される。検出領域決定部312は、当該枠位置情報に基づいて枠内領域をオブジェクト領域に決定する。
次に、ユーザの操作により、「第4の処理」の機能が選択される場合について説明する。ユーザがオブジェクト領域の指定動作を行う際、バッファメモリ311に記憶されている所定のフレームの画像信号が出力端子303に繰り返し出力され、図示しないモニタ上に、当該所定のフレームの画像がスチル表示される。この状態で、ユーザは、図10に示すように、リモコン操作によりオブジェクトOBの領域内に塗りつぶし線LNを描き、当該領域内を塗りつぶす操作を行う。
このようにオブジェクトOBの領域内を軽く塗りつぶした状態でユーザが確定操作をするとオブジェクト領域の指定が確定し、コントローラ101から追尾ズーム処理部113に、上述したオブジェクト領域指定情報OAAとして、確定時における塗りつぶし領域を示す領域情報が供給される。検出領域決定部312は、当該塗りつぶし領域を示す領域情報を仮オブジェクト領域に決定し、仮オブジェクト領域情報を生成する。なお、塗りつぶし線LNを表示するための表示信号は、図示せずも、例えばズーム処理部315の部分で画像信号に重畳される。
動きベクトル検出部314は、バッファメモリ311に記憶されている画像信号に基づいて、各フレームで、画素毎に動きベクトルを検出する。この動きベクトルの検出は、詳細説明は省略するが、従来周知のブロックマッチング法、勾配法などを用いて行われる。
オブジェクト特定部313は、検出領域決定部312で生成されたオブジェクト領域情報または仮オブジェクト領域情報、および動きベクトル検出部314で検出された動きベクトルに基づいて、オブジェクト領域の重心位置情報WAIまたはオブジェクト領域情報OAIを生成する。
このオブジェクト特定部313は、ユーザの操作により、「第1の処理」または「第2の処理」の機能が選択される場合であって、入力端子301に入力される画像信号が静止画を表示するための画像信号である場合には、以下の処理を行う。すなわち、オブジェクト特定部313は、検出領域決定部312で生成されたオブジェクト領域情報に基づいて、オブジェクト領域の重心位置を求め、オブジェクト領域の重心位置情報WAIを生成する。なお、本実施の形態において、入力端子301に入力される画像信号が静止画を表示するための画像信号であるか動画を表示するための画像信号であるかは、ユーザの操作により与えられる。
また、オブジェクト特定部313は、ユーザの操作により、「第1の処理」または「第2の処理」の機能が選択される場合であって、入力端子301に入力される画像信号が動画を表示するための画像信号である場合には、以下の処理を行う。
すなわち、オブジェクト特定部313は、検出領域決定部312でオブジェクト領域が決定されたフレームである初期フレームでは、当該検出領域決定部312で生成されたオブジェクト領域情報に基づいて、当該初期フレームにおけるオブジェクト領域の重心位置を求めて、初期フレームにおけるオブジェクト領域の重心位置情報WAIを生成すると共に、オブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報を取得する。例えば、このオブジェクトOBの動き情報は、各動きベクトルを平均した平均動きベクトルとされる。また例えば、このオブジェクトOBの動き情報は、各動きベクトルのうち最大頻度を示す動きベクトルとされる。
オブジェクト特定部313は、初期フレームに続くフレームでは、初期フレームで求められたオブジェクト領域の重心位置を初期フレームで取得されていたオブジェクトOBの動き情報を用いて移動させて当該フレームにおけるオブジェクト領域の重心位置を求め、重心位置情報WAIを生成する。また、オブジェクト特定部313は、初期フレームに続くフレームでは、初期フレームで求められたオブジェクト領域を初期フレームで取得されていたオブジェクトOBの動き情報を用いて移動させて当該フレームにおけるオブジェクト領域を決定し、オブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報を取得する。
オブジェクト特定部313は、以下の各フレームでは、同様にして、前のフレームで取得されていたオブジェクトOBの動き情報を用いて、オブジェクト領域の重心位置情報WAIを生成すると共に、当該フレームにおけるオブジェクト領域を決定し、次のフレームで使用するオブジェクトOBの動き情報を取得する。
また、オブジェクト特定部313は、ユーザの操作により、「第4の処理」の機能が選択される場合であって、入力端子301に入力される画像信号が静止画を表示するための画像信号である場合には、以下の処理を行う。すなわち、オブジェクト特定部313は、検出領域決定部312で生成された仮オブジェクト領域情報に基づいて、その仮オブジェクト領域をオブジェクトOBの領域に決定し、その領域を示すオブジェクト領域情報OAIを生成する。
また、オブジェクト特定部313は、ユーザの操作により、「第4の処理」の機能が選択される場合であって、入力端子301に入力される画像信号が動画を表示するための画像信号である場合には、以下の処理を行う。
すなわち、オブジェクト特定部313は、検出領域決定部312で仮オブジェクト領域が決定されたフレームである初期フレームでは、この検出領域決定部312で生成された仮オブジェクト領域情報に基づいて、仮オブジェクト領域と共に、この仮オブジェクト領域内の画素に続く一つまたは複数の画素であって、動きベクトル検出部314で検出される動きベクトルがこの仮オブジェクト領域内の画素と同じである画素を含む領域を、オブジェクトOBの領域に決定し、その領域を示すオブジェクト領域情報OAIを生成する。また、オブジェクト特定部313は、この初期フレームでは、決定されたオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報を取得する。
ここで、動きベクトルが同じであるとは、完全一致だけでなく、差が所定範囲内、例えば動きベクトル検出誤差範囲内にあるものを含む意味である。このようにオブジェクト領域指定情報OAAで示される領域と共に、動きベクトルが同じである領域をオブジェクトOBの領域とすることで、例えばユーザがオブジェクトOBの領域を塗りつぶすことで領域指定を行う場合に、このオブジェクトOBの領域を全て塗りつぶさなくてもよくなる。
オブジェクト特定部313は、初期フレームに続くフレームでは、初期フレームで決定されたオブジェクトOBの領域を初期フレームで取得されていたオブジェクトOBの動き情報で移動させて当該フレームにおけるオブジェクトOBの領域を決定し、その領域を示すオブジェクト領域情報OAIを生成する。また、オブジェクト特定部313は、初期フレームに続くフレームでは、決定されたオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報を取得する。
オブジェクト特定部313は、以下の各フレームでは、同様にして、前のフレームで取得されていたオブジェクトOBの動き情報を用いて、当該フレームにおけるオブジェクトOBの領域を決定して、その領域を示すオブジェクト領域情報をOAIを生成すると共に、決定されたオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報を取得する。
ズーム処理部315は、オブジェクト特定部313で生成されたオブジェクト領域の重心位置情報WAIおよび制御部304から供給される倍率情報MGIに基づいて、バッファメモリ311に記憶されている画像信号に対してズーム処理または追尾ズーム処理を行う。
ズーム処理部315は、ユーザの操作により、「第1の処理」または「第2の処理」の機能が選択される場合、オブジェクト特定部313で生成されるオブジェクト領域の重心位置情報WAI、および制御部304から供給される倍率情報MGIに基づいて、オブジェクト領域の重心位置を含む所定領域を拡大する処理を行う。このズーム処理部315の詳細構成については、後述する。
この場合、ズーム処理部315は、バッファメモリ311に記憶されている画像信号が静止画を表示するための画像信号であるときは、オブジェクト領域の重心位置は移動しないので、各フレームで拡大処理を行う所定領域が同じとなる単なるズーム処理を行う。一方、ズーム処理部315は、バッファメモリ311に記憶されている画像信号が動画を表示するための画像信号であるときは、オブジェクト領域の重心位置はオブジェクトOBの移動と共に移動するので、各フレームで拡大処理を行う所定領域がオブジェクトOBの動きに伴って移動する追尾ズーム処理となる。
なおこの追尾ズーム処理を行う場合、上述したようにオブジェクト特定部313では初期フレームを最初とする各フレームでオブジェクト領域の重心位置情報WAIが順次取得されるが、ズーム処理部315では、オブジェクト特定部313で順次取得される各フレームの重心位置情報WAIに基づいて、順次対応するフレームの画像信号がバッファメモリ311から読み出されて処理される。
セレクタ316は、ズーム処理部315で得られた画像信号またはオブジェクト特定部313で生成されたオブジェクト領域情報OAIのいずれかを選択的に出力端子303に供給する。セレクタ316は、ユーザの操作により、「第1の処理」または「第2の処理」が選択される場合には、ズーム処理部315で得られた画像信号を出力端子303に供給する。また、セレクタ316は、ユーザの操作により、「第4の処理」が選択される場合には、オブジェクト特定部313で生成されたオブジェクト領域情報OAIを出力端子303に供給する。
図8に示す追尾ズーム処理部113の動作を説明する。
まず、ユーザの操作により、「第1の処理」または「第2の処理」の機能が選択されると共に、入力端子301に入力される画像信号が静止画を表示するための画像信号である場合について説明する。
入力端子301に入力される画像信号はバッファメモリ311に供給されて一時的に記憶される。
ユーザがオブジェクトOBに対応した所定点Pを指定することで、当該所定点Pを中心とした円形または楕円形の枠FLが表示され(図9参照)、この枠位置情報がオブジェクト領域指定情報OAAとして、制御部304から検出領域決定部312に供給される。検出領域決定部312では、当該枠位置情報に基づいて枠内領域がオブジェクト領域に決定される。このオブジェクト領域情報は、オブジェクト特定部313に供給される。オブジェクト特定部313では、オブジェクト領域情報に基づいて、オブジェクト領域の重心位置が求められ、オブジェクト領域の重心位置情報WAIが生成される。この重心位置情報WAIはズーム処理部315に供給される。
ズーム処理部315では、オブジェクト領域の重心位置情報WAI、および制御部304から供給される倍率情報MGIに基づいて、オブジェクト領域の重心位置を含む所定領域を拡大するズーム処理が行われる。このズーム処理部315で得られた画像信号はセレクタ316を介して出力端子303に供給される。
次に、ユーザの操作により、「第1の処理」または「第2の処理」の機能が選択されると共に、入力端子301に入力される画像信号が動画を表示するための画像信号である場合について説明する。
入力端子301に入力される画像信号はバッファメモリ311に供給されて一時的に記憶される。
ユーザがオブジェクトOBに対応した所定点Pを指定することで、当該所定点Pを中心とした円形または楕円形の枠FLが表示され(図9参照)、この枠位置情報がオブジェクト領域指定情報OAAとして、制御部304から検出領域決定部312に供給される。検出領域決定部312では、当該枠位置情報に基づいて枠内領域がオブジェクト領域に決定される。このオブジェクト領域情報は、オブジェクト特定部313に供給される。
また、動きベクトル検出部314では、バッファメモリ311に記憶されている画像信号に基づいて、各フレームで、画素毎に動きベクトルが検出される。このように各フレームで検出される画素毎の動きベクトルは、オブジェクト特定部313に供給される。
オブジェクト特定部313では、検出領域決定部312でオブジェクト領域が決定されたフレームである初期フレームにおいては、この検出領域決定部312で生成されたオブジェクト領域情報に基づいて、この初期フレームにおけるオブジェクト領域の重心位置が求められ、初期フレームにおけるオブジェクト領域の重心位置情報WAIが生成されると共に、オブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用されるオブジェクトOBの動き情報が取得される。
また、オブジェクト特定部313では、初期フレームに続くフレームにおいては、初期フレームで求められたオブジェクト領域の重心位置を初期フレームで取得されたオブジェクトOBの動き情報を用いて移動させて当該フレームにおけるオブジェクトの重心位置情報WAIが生成されると共に、初期フレームにおけるオブジェクト領域をこの初期フレームで取得されたオブジェクトOBの動き情報で移動させて当該フレームにおけるオブジェクト領域が求められ、このオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用されるオブジェクトOBの動き情報が取得される。
また、オブジェクト特定部313では、以下の各フレームにおいては、同様にして、前のフレームで取得されたオブジェクトOBの動き情報を用いて、当該フレームにおけるオブジェクト領域の重心位置情報WAIが生成されると共に、次のフレームで使用されるオブジェクトOBの動き情報が取得される。
このようにオブジェクト特定部313では、初期フレームを最初とする各フレームでオブジェクト領域の重心位置情報WAIが順次取得される。この各フレームで取得されたオブジェクト領域の重心位置情報WAIはズーム処理部315に供給される。このズーム処理部315には、制御部304から、倍率情報MGIも供給される。
ズーム処理部315では、オブジェクト領域の重心位置情報WAIおよび倍率情報MGIに基づいて、オブジェクト領域の重心位置を含む所定領域を拡大するズーム処理が行われる。この場合、各フレームにおけるオブジェクト領域の重心位置はオブジェクトOBの移動と共に移動するので、拡大処理を行う所定領域がオブジェクトOBの動きに伴って移動する追尾ズーム処理が行われる。このズーム処理部315で得られた画像信号はセレクタ316を介して出力端子303に供給される。
次に、ユーザの操作により、「第4の処理」の機能が選択されると共に、入力端子301に入力される画像信号が静止画を表示するための画像信号である場合について説明する。
入力端子301に入力される画像信号はバッファメモリ311に供給されて一時的に記憶される。
ユーザが、所定のフレームのスチル表示状態で、オブジェクトOBの領域内に塗りつぶし線LNを描いて塗りつぶし操作を行い(図10参照)、その状態で確定操作をすることで、塗りつぶし領域を示す領域情報がオブジェクト領域指定情報OAAとして、制御部304から検出領域決定部312に供給される。検出領域決定部312では、当該塗りつぶし領域情報に基づいて、塗りつぶし領域が仮オブジェクト領域に決定され、その仮オブジェクト領域を示す仮オブジェクト領域情報が生成される。
この仮オブジェクト領域情報は、オブジェクト特定部313に供給される。オブジェクト特定部313では、仮オブジェクト領域情報に基づいて、その仮オブジェクト領域がオブジェクトOBの領域に決定され、その領域を示すオブジェクト領域情報OAIが生成される。このオブジェクト領域情報OAIはセレクタ316を介して出力端子303に供給される。
次に、ユーザの操作により、「第4の処理」の機能が選択されると共に、入力端子301に入力される画像信号が動画を表示するための画像信号である場合について説明する。
入力端子301に入力される画像信号はバッファメモリ311に供給されて一時的に記憶される。
ユーザが、所定のフレームのスチル表示状態で、オブジェクトOBの領域内に塗りつぶし線LNを描いて塗りつぶし操作を行い(図10参照)、その状態で確定操作をすることで、塗りつぶし領域を示す領域情報がオブジェクト領域指定情報OAAとして、制御部304から検出領域決定部312に供給される。検出領域決定部312では、当該塗りつぶし領域情報に基づいて、塗りつぶし領域が仮オブジェクト領域に決定され、その仮オブジェクト領域を示す仮オブジェクト領域が生成される。この仮オブジェクト領域情報は、オブジェクト特定部313に供給される。
また、動きベクトル検出部314では、バッファメモリ311に記憶されている画像信号に基づいて、各フレームで、画素毎に動きベクトルが検出される。このように各フレームで検出される画素毎の動きベクトルは、オブジェクト特定部313に供給される。
オブジェクト特定部313では、検出領域決定部312で仮オブジェクト領域が決定されたフレームである初期フレームにおいては、仮オブジェクト領域と共に、この仮オブジェクト領域内の画素に続く一つまたは複数の画素であって、動きベクトル検出部314で検出される動きベクトルがこの仮オブジェクト領域内の画素と同じである画素を含む領域が、オブジェクトOBの領域に決定され、その領域を示すオブジェクト領域情報OAIが生成される。また、オブジェクト特定部313では、この初期フレームおいては、決定されたオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報が取得される。
また、オブジェクト特定部313では、初期フレームに続くフレームにおいては、初期フレームで決定されたオブジェクトOBの領域を初期フレームで取得されていたオブジェクトOBの動き情報で移動させて当該フレームにおけるオブジェクトOBの領域が決定され、その領域を示すオブジェクト領域情報OAIが生成される。また、オブジェクト特定部313では、初期フレームに続くフレームにおいては、決定されたオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用するオブジェクトOBの動き情報を取得する。
また、オブジェクト特定部313では、以下の各フレームにおいては、同様にして、前のフレームで取得されていたオブジェクトOBの動き情報を用いて、当該フレームにおけるオブジェクトOBの領域が決定され、その領域を示すオブジェクト領域情報をOAIが生成されると共に、決定されたオブジェクト領域内の各画素に対応して動きベクトル検出部314で検出された各動きベクトルに基づいて次のフレームで使用されるオブジェクトOBの動き情報が取得される。
このようにオブジェクト特定部313で生成されたオブジェクト領域情報OAIはセレクタ316を介して出力端子303に供給される。
次に、追尾ズーム処理部113を構成するズーム処理部315について説明する。図11は、ズーム処理部315の構成を示している。この処理部315は、画像信号Vcが入力される入力端子401と、この入力端子401に入力された画像信号Vcを処理する処理本体部402と、この処理本体部402で得られた画像信号Vdを出力する出力端子403と、処理本体部402の動作を制御する制御部404と、動きベクトル検出部314で検出された動きベクトルMVが入力される入力端子405と、オブジェクト領域の重心位置情報WAIが入力される入力端子406と、倍率情報MGIが入力される入力端子407とを有している。
制御部404は、入力端子406に入力されるオブジェクト領域の重心位置情報WAIおよび入力端子407に入力される倍率情報MGIに基づいて、処理本体部402の動作を制御する。例えば、制御部404は、MPU、このMPUの動作プログラム等が記憶されたROM、このMPUの作業領域を構成するRAM等を備えた構成とされている。
処理本体部402は、第2の処理部を構成している。この処理本体部201は、予測タップ選択部411と、クラスタップ選択部412と、空間クラス検出部413と、動きクラス検出部414と、クラス統合部415と、係数データ生成部416と、ROM417と、推定予測演算部418と、バッファメモリ419とを有している。
予測タップ選択部411、クラスタップ選択部412は、それぞれ、画像信号Vcから、画像信号Vdにおける注目位置の周辺に位置する複数の画素データを、予測タップ、クラスタップのデータとして選択的に抽出する。ここで、画像信号Vcが静止画を表示するための画像信号である場合には、予測タップ、クラスタップのパターンは予め定められた固定パターンとされる。
一方、画像信号Vcが動画を表示するための画像信号である場合には、予測タップ、クラスタップのパターンは、入力端子405に入力される、例えば中心予測タップにおける画素の動きベクトルの大きさに応じて、変更される。例えば、予測タップ、クラスタップは、動きベクトルの大きさが小さい場合には、現フレームの空間方向(水平方向、垂直方向)の他に、時間方向に存在する現フレームにも張られるが、動きベクトルの大きさが大きい場合には、現フレームの空間方向のみに張られる。
空間クラス検出部413は、クラスタップ選択部412で選択的に抽出されるクラスタップのデータとしての複数の画素データに対してデータ圧縮処理を施して、画像信号Vdにおける注目位置の画素データが属する空間クラスを示すクラスコードCLaを取得する。この空間クラス検出部413は、図2に示すDRC−ボリウム処理部112の処理本体部202におけるクラス検出部214と同様に、例えば1ビットADRCを利用した構成とされている。
動きクラス検出部414は、入力端子405に入力される、例えば中心予測タップにおける画素の動きベクトルMVの大きさをクラス分けし、画像信号Vdにおける注目位置の画素データが属する動きクラスを表すクラスコードCLbを取得する。なお、動きクラス検出部414は、画像信号Vcが静止画を表示するための画像信号である場合には、クラスコードCLbとして他のクラスとは区別し得る特定のコードを割り当てる。
クラス統合部415は、上述した空間クラス検出部413で取得されたクラスコードCLaおよび動きクラス検出部414で取得されたクラスコードCLbとを統合して、画像信号Vdにおける注目位置の画素データが属するクラスを示すクラスコードCLを取得する。
ROM417は、各クラスの係数種データを記憶している。後述する推定予測演算部418では、予測タップとしての複数の画素データxiと、係数データWiとを用い、(11)式の推定式に基づいて、画像信号Vdにおける注目位置の画素データyが求められる。この(11)式において、nは、予測タップとしての複数の画素データxiの個数である。
ROM417に記憶される係数種データは、上述した推定式の係数データWi(i=1〜n)を生成するための、位相情報h,vをパラメータとする生成式の係数データである。(12)式は、その生成式の一例を示している。ここで、位相情報hは水平方向の位相情報であり、位相情報vは垂直方向の位相情報である。
ROM417には、例えば、(12)式の生成式における係数データである係数種データwi0〜wi9(i=1〜n)が、クラス毎に、記憶されている。この係数種データの生成方法については後述する。
係数データ生成部416は、クラス統合部415で得られたクラスコードCLが表すクラスの係数種データwi0〜wi9をROM417から読み出し、さらに制御部404から供給される、画像信号Vdにおける注目位置の位相情報h,vの値を用い、(12)式の生成式に基づいて、係数データWiを生成する。この場合、処理前の画像信号Vcに対する、処理後の画像信号Vdの各画素の位置は、倍率情報MGIに応じて変化する。
例えば、図12は、倍率情報MGIで示す倍率が1.25倍であるときの入力(画像信号Vc)と出力(画像信号Vd)の画素位置関係を示している。なお、図12では、大きなドットが入力の画素であり、小さなドットが出力の画素を示しており、また奇数フィールドの画素位置を実線で示し、偶数フィールドの画素位置を破線で示している。
制御部404は、倍率情報MGIに基づき、奇数、偶数のフィールドのそれぞれに対応して、画像信号Vdにおける注目位置の位相情報h,vを発生する。この場合、例えば、画像信号Vcの水平方向、垂直方向の画素間隔をそれぞれ16とし、画像信号Vdにおける注目位置から水平方向、垂直方向にそれぞれ最も近い位置にある画像信号Vcにおける画素(最短画素)までの距離を、位相情報h,vとしている。
ここで、位相情報hに関しては、注目位置が最短画素より左方に位置するときは負の値とされ、逆に注目位置が最短画素より右方に位置するときは正の値とされる。同様に、位相情報vに関しては、注目位置が最短画素より上方に位置するときは負の値とされ、逆に注目位置が最短画素より下方に位置するときは正の値とされる。
推定予測演算部418は、予測タップ選択部411で選択的に抽出された予測タップのデータとしての複数の画素データxiと、係数データ生成部416で生成された係数データWiとを用い、(11)式の推定式に基づいて、画像信号Vdにおける注目位置の画素データyを算出する。バッファメモリ419は、推定予測演算部418で算出された、画像信号Vdを構成する各画素データを、一時的に記憶し、その後に適宜なタイミングで出力端子403に出力する。
なお、上述した画像信号Vdの各注目位置の画素データを得るための画像信号Vcの処理領域は、倍率に応じて変化する。図13は、倍率と画像信号Vcの処理領域との関係を示している。倍率が大きくなる程、画像信号Vcの処理領域は小さくなっていく。水平、垂直のそれぞれの方向において、画像信号Vcの全体領域を1とするとき、例えば倍率が1であるとき画像信号Vcの処理領域は1であり、倍率が2であるとき画像信号Vcの処理領域は1/2となる。一般的に、画像の拡大率がTであるとき、画像信号Vcの処理領域を1/Tとなる。
本実施の形態において、この処理領域は、常に、オブジェクト領域の重心位置を含み、その重心位置の水平、垂直の内分比が、画像信号Vcの全体領域におけるその重心位置の水平、垂直の内分比と同一となるように設定される。図14A〜Cは、倍率が2である場合におけるオブジェクト領域の重心位置と処理領域との関係例を示している。この図14A〜Cにおいて、数字は内分比を表している。このように画像信号Vcの処理領域を設定することで、オブジェクト領域の重心位置が画面の端部に移動した場合に、画像信号Vcの処理領域を十分に確保できず、出力画像に欠けが発生することを防止できる。
次に、図11に示すズーム処理部315の動作を説明する。
処理対象である画像信号Vcが入力端子401に入力され、処理本体部402では、この画像信号Vcの、オブジェクト領域の重心位置に対応し、かつ倍率に応じた大きさの所定領域に対してズーム処理が行われ、画像信号Vdを構成する各画素データが生成される。
クラスタップ選択部412では、画像信号Vcに基づいて、画像信号Vdにおける注目位置の周辺に位置する複数の画素データがクラスタップのデータとして選択的に抽出される。この複数の画素データは空間クラス検出部413に供給される。この空間クラス検出部413では、クラスタップのデータとしての複数の画素データに、例えば1ビットADRCのデータ圧縮処理が施されて、画像信号Vdにおける注目位置の画素データが属する空間クラスを表すクラスコードCLaが得られる。
また、動きクラス検出部414には、入力端子405から、例えば中心予測タップにおける画素の動きベクトルMVが供給される。この動きクラス検出部414では、その動きベクトルMVの大きさがクラス分けされ、注目位置の画素データが属する動きクラスを表すクラスコードCLbが得られる。
空間クラス検出部413で取得されたクラスコードCLaおよび動きクラス検出部414で取得されたクラスコードCLbは、それぞれクラス統合部415に供給される。このクラス統合部415では、クラスコードCLa,CLbが統合され、画像信号Vdにおける注目位置の画素データが属するクラスを示すクラスコードCLが得られる。このクラスコードCLは係数データ生成部416に供給される。
この係数データ生成部416には、制御部404から、画像信号Vdにおける注目位置の位相情報h,vが供給される。これにより、係数データ生成部416では、画像信号Vdにおける注目位置に対応して、ROM417からクラスコードCLが表すクラスの係数種データwi0〜wi9が読み出され、位相情報h,vの値を用いて、(12)式の生成式に基づいて、係数データWiが生成される。この係数データWiは、推定予測演算部418に供給される。
予測タップ選択部411では、画像信号Vcに基づいて、画像信号Vdにおける注目位置の周辺に位置する複数の画素データxiが予測タップのデータとして選択的に抽出される。この複数の画素データは推定予測演算部418に供給される。
推定予測演算部418では、予測タップのデータとしての複数の画素データxiと、係数データWiとを用い、(11)式の推定式に基づいて、画像信号Vdにおける注目位置の画素データyが算出される。この場合、注目位置を、画像信号Vdの全画素位置に順次変化させていくことで、画像信号Vdの全画素位置の画素データyが求められる。
推定予測演算部418で求められた画像信号Vdの全画素位置の画素データyは、バッファメモリ419に供給されて一時的に記憶される。このバッファメモリ419に記憶された画像信号Vdを構成する各画素データは、その後に適宜なタイミングで読み出されて出力端子403に出力される。
次に、上述した処理本体部402のROM417に記憶される、係数種データの生成方法について説明する。この係数種データは、学習によって生成される。ここでは、(12)式の生成式における係数データである係数種データwi0〜wi9を求める例を示すものとする。
ここで、以下の説明のため、(13)式のように、tj(j=0〜9)を定義する。
t0=1,t1=v,t2=h,t3=v2,t4=vh,t5=h2,t6=v3,
t7=v2h,t8=vh2,t9=h3
・・・(13)
この(13)式を用いると、(12)式は、(14)式のように書き換えられる。
最終的に、学習によって未定係数wijを求める。すなわち、クラス毎に、生徒信号の画素データと教師信号の画素データとを用いて、二乗誤差を最小にする係数値を決定する。いわゆる最小二乗法による解法である。学習数をm、k(1≦k≦m)番目の学習データにおける残差をek、二乗誤差の総和をEとすると、(11)式および(12)式を用いて、Eは(15)式で表される。ここで、xikは生徒画像のi番目の予測タップ位置におけるk番目の画素データ、ykはそれに対応する教師画像のk番目の画素データを表している。
最小二乗法による解法では、(15)式のwijによる偏微分が0になるようなwijを求める。これは、(16)式で示される。
以下、(17)式、(18)式のように、Xipjq、Yipを定義すると、(16)式は、行列を用いて(19)式のように書き換えられる。
この方程式は一般に正規方程式と呼ばれている。この正規方程式は、掃き出し法(Gauss-Jordanの消去法)等を用いて、wijについて解かれ、係数種データが算出される。
図15は、上述した係数種データの生成方法の概念を示している。教師信号としてのHD信号(1050i信号)から生徒信号としてのSD信号(525i信号)を生成する。525i信号は、ライン数が525本でインタレース方式の画像信号を意味している。1050i信号は、ライン数が1050本でインタレース方式の画像信号を意味している。
図16は、SD信号(525i信号)とHD信号(1050i信号)の画素位置関係を示している。ここで、大きなドットが525i信号の画素であり、小さなドットが1050i信号の画素である。また、奇数フィールドの画素位置を実線で示し、偶数フィールドの画素位置を破線で示している。
このSD信号の位相を垂直方向に8段階、水平方向に8段階にシフトさせて、8×8=64種類のSD信号SD1〜SD64を生成する。位相シフトの方法の例として、例えばオーバーサンプリングフィルタから欲しい位相だけを抜き出す方法がある。
図17は、垂直方向への8段階の位相シフト状態V1〜V8を示している。ここでは、SD信号の垂直方向の画素間隔は16であり、下方向が正の方向とされている。また、「o」は奇数フィールドを、「e」は偶数フィールドを表している。
V1の状態はSD信号のシフト量が0とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、4,0,−4,−8の位相を持つようになる。V2の状態はSD信号のシフト量が1とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、7,3,−1,−5の位相を持つようになる。V3の状態はSD信号のシフト量が2とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、6,2,−2,−6の位相を持つようになる。V4の状態はSD信号のシフト量が3とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、5,1,−3,−7の位相を持つようになる。
V5の状態はSD信号のシフト量が4とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、4,0,−4,−8の位相を持つようになる。V6の状態はSD信号のシフト量が5とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、7,3,−1,−5の位相を持つようになる。V7の状態はSD信号のシフト量が6とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、6,2,−2,−6の位相を持つようになる。V8の状態はSD信号のシフト量が7とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、5,1,−3,−7の位相を持つようになる。
図18は、水平方向への8段階の位相シフト状態H1〜H8を示している。ここではSD信号の水平方向の画素間隔は16であり、右方向が正の方向とされている。
H1の状態はSD信号のシフト量が0とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、0,−8の位相を持つようになる。H2の状態はSD信号のシフト量が1とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、7,−1の位相を持つようになる。H3の状態はSD信号のシフト量が2とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、6,−2の位相を持つようになる。H4の状態はSD信号のシフト量が3とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、5,−3の位相を持つようになる。
H5の状態はSD信号のシフト量が4とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、4,−4の位相を持つようになる。H6の状態はSD信号のシフト量が5とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、3,−5の位相を持つようになる。H7の状態はSD信号のシフト量が6とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、2,−6の位相を持つようになる。H8の状態はSD信号のシフト量が7とされたものであり、この場合、HD信号の画素は、SD信号の画素に対して、1,−7の位相を持つようになる。
図19は、上述したように垂直方向に8段階、水平方向に8段階にシフトさせて得られた64種類のSD信号に関し、SD信号の画素を中心とした場合のHD信号の位相を示している。すなわち、SD信号の画素に対して、HD信号の画素は図中の●で示す位相を持つようになる。
図20は、上述した概念で係数種データを生成する係数種データ生成装置450の構成を示している。
この係数種データ生成装置450は、教師信号としてのHD信号(1050i信号)が入力される入力端子451と、位相シフト回路452とを有している。この位相シフト回路452は、入力端子451に入力されたHD信号に対して、水平および垂直方向にオーバーサンプリングフィルタをかけ、欲しい位相を抜き出して、生徒信号としてのSD信号(525i信号)を取得する。この位相シフト回路452には、水平方向、垂直方向への位相シフト量を指定するパラメータH,Vが入力される。この場合、位相シフト回路452では、SD信号の位相が、垂直方向に8段階、水平方向に8段階にシフトするようにされ、合計64種類のSD信号が生成される(図15参照)。
また、係数種データ生成装置450は、予測タップ選択部453と、クラスタップ選択部454とを有している。これら予測タップ選択部453およびクラスタップ選択部454は、それぞれ、位相シフト回路452より出力されるSD信号に基づいて、HD信号おける注目位置の周辺に位置する複数の画素データを選択的に抽出する。これら予測タップ選択部453、クラスタップ選択部454は、それぞれ、上述した処理本体部402(図11参照)の予測タップ選択部411、クラスタップ選択部412に対応するものである。
また、係数種データ生成装置450は、動きベクトル検出部455を有している。この動きベクトル検出部455は、位相シフト回路452より出力されるSD信号に基づいて、中心予測タップにおける画素の動きベクトルMVを検出する。上述したタップ選択部453,454における予測タップ、クラスタップのパターンは、SD信号が静止画を表示するための画像信号である場合には予め定められた固定パターンとされ、SD信号が動画を表示するための画像信号である場合には動きベクトルMVに応じて変更される。
また、係数種データ生成装置450は、空間クラス検出部456を有している。この空間クラス検出部456は、クラスタップ選択部454で選択的に抽出されるクラスタップのデータとしての複数の画素データを処理して、HD信号における注目位置の画素データが属する空間クラスを表すクラスコードCLaを取得する。この空間クラス検出部456は、上述した処理本体部402の空間クラス検出部413に対応するものである。
また、係数種データ生成装置450は、動きクラス検出部457と、クラス統合部458とを有している。この動きクラス検出部457は、動きベクトル検出部455で検出された中心予測タップにおける画素の動きベクトルMVの大きさをクラス分けし、HD信号における注目位置の画素データが属する動きクラスを表すクラスコードCLbを取得する。なお、動きクラス検出部457は、SD信号が静止画を表示するための画像信号である場合には、クラスコードCLbとして他のクラスとは区別し得る特定のコードを割り当てる。
クラス統合部458は、上述した空間クラス検出部456で取得されたクラスコードCLaおよび動きクラス検出部457で取得されたクラスコードCLbとを統合して、HD信号における注目位置の画素データが属するクラスを示すクラスコードCLを取得する。これら動きクラス検出部457およびクラス統合部458は、それぞれ、上述した処理本体部402の動きクラス検出部414およびクラス統合部415に対応するものである。
また、係数種データ生成装置450は、教師タップ選択部459を有している。この教師タップ選択部459は、HD信号から、注目位置の画素データを選択的に抽出する。
また、係数種データ生成装置450は、正規方程式生成部460を有している。この正規方程式生成部460は、教師タップ選択部459で選択的に抽出された、HD信号における各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択部453で選択的に抽出された、予測タップのデータとしての複数の画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス統合部458で得られたクラスコードCLと、各注目位置の画素データyの水平、垂直の位相h,vとから、クラス毎に、係数種データwi0〜wi9を得るための正規方程式((19)式参照)を生成する。
この場合、一個の画素データyとそれに対応するn個の画素データxiとの組み合わせで一個の学習データが生成される。位相シフト回路452へのパラメータH,Vが順次変更されていき、垂直、水平の位相シフト値が段階的に変化した64種類のSD信号が順次生成されていく。これにより、正規方程式生成部460では、多くの学習データが登録された正規方程式が生成される。このようにSD信号を順次生成して学習データを登録することで、水平、垂直の任意の位相の画素データを得るための係数種データを求めることが可能となる。
また、係数種データ生成装置450は、係数種データ決定部461と、係数種メモリ462とを有している。係数種データ決定部461は、正規方程式生成部460から正規方程式のデータの供給を受け、当該正規方程式を掃き出し法等によって解き、クラス毎に、係数種データwi0〜wi9を求める。係数種メモリ462は、この係数種データwi0〜wi9を格納する。
図20に示す係数種データ生成装置450の動作を説明する。
入力端子451には教師信号としてのHD信号(1050i信号)が入力される。このHD信号に対して、位相シフト回路452では、水平および垂直方向にオーバーサンプリングフィルタがかけられ、欲しい位相が抜き出されてSD信号(525i信号)が得られる。この場合、SD信号として垂直方向に8段階、水平方向に8段階にシフトされたものが順次生成される。
クラスタップ選択部454では、位相シフト回路452で生成される各SD信号から、HD信号における注目位置の周辺に位置する複数の画素データが、クラスタップのデータとして選択的に抽出される。この複数の画素データは、空間クラス検出部456に供給される。そして、空間クラス検出部456では、各画素データに対してADRC等のデータ圧縮処理が施されて、HD信号における注目位置の画素データが属する空間クラスを表すクラスコードCLaが生成される。このクラスコードCLaは、クラス統合部458に供給される。
また、動きクラス検出部457には、動きベクトル検出部455で得られた中心予測タップにおける画素の動きベクトルMVが供給される。この動きクラス検出部457では、その動きベクトルMVの大きさがクラス分けされ、HD信号における注目位置の画素データが属する動きクラスを表すクラスコードCLbが得られる。このクラスコードCLbは、クラス統合部458に供給される。
クラス統合部458では、クラスコードCLa,CLbが統合され、HD信号における注目位置の画素データが属するクラスを示すクラスコードCLが得られる。このクラスコードCLは正規方程式生成部460に供給される。
予測タップ選択部453では、位相シフト回路452で生成される各SD信号から、HD信号における注目位置の周辺に位置する複数の画素データxiが、予測タップのデータとして選択的に抽出される。この複数の画素データxiは、正規方程式生成部460に供給される。また、教師タップ選択部459では、HD信号から、注目位置の画素データが選択的に抽出される。この画素データyは、正規方程式生成部460に供給される。
そして、正規方程式生成部460では、教師タップ選択部459で選択的に抽出された、HD信号における各注目位置の画素データyと、この各注目位置の画素データyにそれぞれ対応して予測タップ選択部453で選択的に抽出された、予測タップのデータとしての複数の画素データxiと、各注目位置の画素データyにそれぞれ対応してクラス統合部458で得られたクラスコードCLと、各注目位置の画素データyの水平、垂直の位相h,vとから、クラス毎に、係数種データwi0〜wi9を得るための正規方程式((19)式参照)が生成される。
そして、係数種データ決定部461でその正規方程式が解かれ、各クラスの係数種データwi0〜wi9が求められ、その係数種データwi0〜wi9はクラス別にアドレス分割された係数種メモリ462に記憶される。
このように、図20に示す係数種データ生成装置450においては、図11に示すズーム処理部315の処理本体部402におけるROM417に記憶される、各クラスの係数種データwi0〜wi9を生成できる。
次に、図1に示す画像信号処理装置100の動作を説明する。
図21のフローチャートは、画像信号処理装置100の全体の動作を示している。ステップST1で、処理を開始し、ステップST2で、処理を決定する。この処理の決定は、ユーザの機能選択の操作に基づいて行う。ユーザが「第1の処理」の機能を選択し、ステップST2で「第1の処理」に決定されるとき、ステップST3で、第1の処理(ズーム処理+高画質化処理)を実行し、ユーザの終了操作に対応して、ステップST7で、処理を終了する。
この「第1の処理」の機能が選択された場合、入力端子111に入力された画像信号Vinは追尾ズーム処理部113に処理すべき画像信号として入力される。この処理部113では、画像信号Vinに対してズーム処理または追尾ズーム処理が行われる。そして、この処理部113で得られた画像信号は、セレクタ116、セレクタ117およびセレクタ115を介して、DRC−ボリウム処理部112に処理すべき画像信号として入力される。この処理部112では、入力された画像信号に対して高画質化処理が行われる。そして、この処理部112で得られた画像信号は、セレクタ118を介して、出力端子114に出力画像信号Voutとして出力される。
図22のフローチャートは、「第1の処理」における処理動作(1フレーム分)を示している。ステップST11で、処理を開始し、ステップST12で、処理すべき画像信号が動画を表示するための画像信号であるか否かを判定する。静止画を表示するための画像信号であるときは、ステップST13で、追尾ズーム処理部113によりズーム処理を行うと共に、ステップST14で、DRC−ボリウム処理部112により高画質化処理(SD信号からHD信号を得る処理)を行い、その後、ステップST15で、処理を終了する。一方、動画を表示するための画像信号であるときは、ステップST16で、追尾ズーム処理部113により追尾ズーム処理を行うと共に、ステップST14で、DRC−ボリウム処理部112により高画質化処理を行い、その後、ステップST15で、処理を終了する。高画質化処理は、後述する(図26参照)。
図23のフローチャートは、ズーム処理の動作を示している。ステップST21で、処理を開始し、ステップST22で、オブジェクト領域を決定する。この場合、ユーザのオブジェクトOBに対応した所定点Pの指定に基づき、この所定点Pを中心とした枠FL内の領域がオブジェクト領域に決定される(図9参照)。そして、ステップST23で、ステップST22で決定されたオブジェクト領域の重心位置を、演算によって取得する。なお、このステップST22およびステップST23の処理は、ユーザが所定点Pを指定したフレーム(初期フレーム)のみで実行され、それ以降のフレームでは、初期フレームで取得された重心位置がそのまま使用される。
次に、ステップST24で、ズーム画像生成処理を行う。この場合、ズーム処理部315により、オブジェクト領域の重心位置情報WAIおよび倍率情報MGIに基づいて、入力画像信号の、オブジェクト領域の重心位置を含む所定領域に対してズーム処理を行って、出力画像信号を構成する各画素データを生成する。このステップST24の処理の後に、ステップST25で、処理を終了する。
以上の処理では、初期フレーム以降のフレームでも、オブジェクト領域の重心位置は初期フレームと変わらず、従って拡大処理を行う所定領域が各フレームで同じである単なるズーム処理が行われることとなる。
図24のフローチャートは、追尾ズーム処理の動作を示している。ステップST31で、処理を開始し、ステップST32で、オブジェクト領域を決定する。この場合、ユーザのオブジェクトOBに対応した所定点Pの指定に基づき、この所定点Pを中心とした枠FL内の領域がオブジェクト領域に決定される(図9参照)。なお、このユーザの所定点Pの指定に基づくオブジェクト領域の決定は、ユーザが所定点Pを指定したフレーム(初期フレーム)のみで実行され、それ以降のフレームでは、前のフレームで決定されたオブジェクト領域を、前のフレームで取得されたオブジェクトOBの動き情報に基づいて移動することで、オブジェクト領域を決定する。
次に、ステップST33で、動きベクトル検出部314により、画素毎に動きベクトルを検出する。そして、ステップST34で、ステップST32で決定されたオブジェクト領域内の各画素に対応して検出された各動きベクトルに基づいて、オブジェクトOBの動き情報を取得する。この場合、例えば、各動きベクトルが平均されて、オブジェクトOBの動き情報としての平均動きベクトルが得られる。このオブジェクトOBの動き情報は、次のフレームで使用される。
次に、ステップST35で、ステップST32で決定されたオブジェクト領域の重心位置を取得する。この場合、オブジェクト領域の重心位置は、上述した初期フレームではステップST32で決定されたオブジェクト領域から求められるが、それ以降のフレームでは前のフレームで取得された重心位置を前のフレームで取得されたオブジェクトOBの動き情報に基づいて移動することで得られる。
次に、ステップST36で、ズーム画像生成処理を行う。この場合、ズーム処理部315により、オブジェクト領域の重心位置情報WAIおよび倍率情報MGIに基づいて、入力画像信号の、オブジェクト領域の重心位置を含む所定領域に対してズーム処理を行って、出力画像信号を構成する各画素データを生成する。このステップST36の処理の後に、ステップST37で、処理を終了する。
以上の処理では、初期フレーム以降のフレームでは、オブジェクト領域の重心位置がオブジェクトOBの移動と共に移動するので、拡大処理を行う所定領域がオブジェクトOBの動きに伴って移動する追尾ズーム処理が行われることになる。
図21に戻って、ステップST2で「第2の処理」に決定されるとき、ステップST4で、第2の処理(ズーム処理)を実行し、ユーザの終了操作に対応して、ステップST7で、処理を終了する。
この「第2の処理」の機能が選択された場合、入力端子111に入力された画像信号Vinは追尾ズーム処理部113に処理すべき画像信号として入力される。この処理部113では、画像信号Vinに対してズーム処理または追尾ズーム処理が行われる。そして、この処理部113で得られた画像信号は、セレクタ118を介して、出力端子114に出力画像信号Voutとして出力される。
図25のフローチャートは、「第2の処理」における処理動作(1フレーム分)を示している。ステップST41で、処理を開始し、ステップST42で、処理すべき画像信号が動画を表示するための画像信号であるか否かを判定する。静止画を表示するための画像信号であるときは、ステップST43で、追尾ズーム処理部113によりズーム処理(図23参照)を行い、その後、ステップST44で、処理を終了する。一方、動画を表示するための画像信号であるときは、ステップST45で、追尾ズーム処理部113により追尾ズーム処理(図24参照)を行い、その後、ステップST44で、処理を終了する。
図21に戻って、ステップST2で「第3の処理」に決定されるとき、ステップST5で、第3の処理(高画質化処理)を実行し、ユーザの終了操作に対応して、ステップST7で、処理を終了する。
この「第3の処理」の機能が選択された場合、入力端子111に入力された画像信号Vinは、セレクタ115を介して、DRC−ボリウム処理部112に処理すべき画像信号として入力される。この処理部112では、画像信号Vinに対して高画質化処理(SD信号からHD信号に変換する処理)が行われる。そして、この処理部112で得られた画像信号は、セレクタ118を介して、出力端子114に出力画像信号Voutとして出力される。
図26のフローチャートは、「第3の処理」における処理動作(1フレーム分)を示している。ステップST51で、処理を開始し、ステップST52で、高画質化処理を行い、その後、ステップST53で、処理を終了する。
図21に戻って、ステップST2で「第4の処理」に決定されるとき、ステップST6で、第4の処理(背景ぼかし処理)を実行し、ユーザの終了操作に対応して、ステップST7で、処理を終了する。
この「第4の処理」の機能が選択された場合、入力端子111に入力された画像信号Vinは、セレクタ115を介して、DRC−ボリウム処理部112に処理すべき画像信号として入力される。この処理部112では、画像信号Vinに対して高画質化処理(SD信号からHD信号に変換する処理)が行われる。そして、この処理部112で得られた画像信号は、セレクタ118を介して、出力端子114に出力画像信号Voutとして出力される。
またこの場合、入力端子111に入力された画像信号Vinは追尾ズーム処理部113に処理すべき画像信号として入力される。この処理部113では、画像信号Vinに対して第1のオブジェクト抽出処理または第2のオブジェクト抽出処理が行われる。そして、この処理部113で得られたオブジェクト領域情報OAIは、セレクタ116およびセレクタ117を介して、DRC−ボリウム処理部112に制御信号として供給される。
処理部112では、オブジェクト領域情報OAIに基づいて、オブジェクトの領域ではユーザによって調整された画質パラメータr,zの値がそのまま用いられ、その他の領域ではユーザによって調整されたパラメータr,zの値が画質が低下する方向に変更されて用いられる。これにより、処理部112では、オブジェクトOB以外の背景をぼかす特殊効果処理が行われる。
図27のフローチャートは、「第4の処理」における処理動作(1フレーム分)を示している。ステップST61で、処理を開始し、ステップST62で、処理すべき画像信号が動画を表示するための画像信号であるか否かを判定する。静止画を表示するための画像信号であるときは、ステップST63で、追尾ズーム処理部113により第2のオブジェクト抽出処理を行うと共に、ステップST64で、DRC−ボリウム処理部112により高画質化処理(オブジェクト領域情報OAIに基づく背景ぼかし処理を含む)を行い、その後、ステップST65で、処理を終了する。一方、動画を表示するための画像信号であるときは、ステップST66で、追尾ズーム処理部113により第1のオブジェクト抽出処理を行うと共に、ステップST64で、DRC−ボリウム処理部112により高画質化処理(オブジェクト領域情報OAIに基づく背景ぼかし処理を含む)を行い、その後、ステップST65で、処理を終了する。
図28のフローチャートは、第2のオブジェクト抽出処理の動作を示している。ステップST71で、処理を開始し、ステップST72で、仮オブジェクト領域を決定する。この場合、ユーザがオブジェクトOBの領域内に塗りつぶし線LNを描くことで塗りつぶされた領域が、仮オブジェクト領域に決定される(図10参照)。
次に、ステップST73で、オブジェクト領域情報OAIを生成する。この場合、ステップST72で決定された仮オブジェクト領域がそのままオブジェクトOBの領域に決定され、その領域を示すオブジェクト領域情報OAIが生成される。このステップST73の処理の後に、ステップST74で、処理を終了する。
図29のフローチャートは、第1のオブジェクト抽出処理の動作を示している。ステップST81で、処理を開始し、ステップST82で、仮オブジェクト領域を決定する。この場合、ユーザがオブジェクトOBの領域内に塗りつぶし線LNを描くことで塗りつぶされた領域が、仮オブジェクト領域に決定される(図10参照)。
次に、ステップST83で、動きベクトル検出部314により、画素毎に動きベクトルを検出する。そして、ステップST84で、オブジェクト領域情報OAIを生成する。この場合、ステップST82で決定された仮オブジェクト領域と共に、この仮オブジェクト領域内の画素に続く一つまたは複数の画素であって、ステップST83で検出された動きベクトルがこの仮オブジェクト領域内の画素と同じである画素を含む領域が、オブジェクトOBの領域に決定され、その領域を示すオブジェクト領域情報OAIが生成される。
なお、この仮オブジェクト領域および動きベクトルに基づくオブジェクト領域の決定は、ユーザがオブジェクトOBの領域内に塗りつぶし線LNを描いたフレーム(初期フレーム)のみで実行され、それ以降のフレームでは、前のフレームで決定されたオブジェクト領域を、前のフレームで取得されたオブジェクトOBの動き情報に基づいて移動することで、オブジェクト領域を決定する。すなわち、初期フレーム以降では、ステップST82の処理は行われない。
次に、ステップST85で、ステップST84で決定されたオブジェクト領域内の各画素に対応して検出された各動きベクトルに基づいて、オブジェクトOBの動き情報を取得する。この場合、例えば、各動きベクトルが平均されて、オブジェクトOBの動き情報としての平均動きベクトルが得られる。このオブジェクトOBの動き情報は、次のフレームで使用される。このステップST85の処理の後に、ステップST86で、処理を終了する。
以上説明したように、図1に示す画像信号処理装置100においては、「第2の処理」の機能が選択される場合は、入力端子111に入力された画像信号Vinに対して追尾ズーム処理部113でズーム処理または追尾ズーム処理が行われ、この処理部113で得られた画像信号が出力端子114に出力画像信号Voutとして出力され、また「第3の処理」の機能が選択される場合は、入力端子111に入力された画像信号Vinに対してDRC−ボリウム処理部112で高画質化が行われ、この処理部112で得られた画像信号が出力端子114に出力画像信号Voutとして出力される。
また、図1に示す画像信号処理装置100においては、「第1の処理」の機能が選択される場合は、入力端子111に入力された画像信号Vinに対して追尾ズーム処理部113でズーム処理または追尾ズーム処理が行われ、さらにDRC−ボリウム処理部112で高画質化処理が行われ、この処理部112で得られた画像信号が出力端子114に出力画像信号Voutとして出力される。
さらに、図1に示す画像信号処理装置100においては、「第4の処理」の機能が選択される場合は、入力端子111に入力された画像信号Vinに対してDRC−ボリウム処理部112で高画質化が行われ、この処理部112で得られた画像信号が出力端子114に出力画像信号Voutとして出力される。そしてこの場合、入力端子111に入力された画像信号Vinに基づいて追尾ズーム処理部113でオブジェクト領域情報OAIが生成され、処理部112ではこのオブジェクト領域情報OAIに基づいて、背景ぼかしの特殊効果処理が行われる。
したがって、この画像信号処理装置100によれば、「第1の処理」または「第4の処理」の機能が選択されるとき、DRC−ボリウム処理部112および追尾ズーム処理部113の個々では不可能な処理を実現でき、各処理部112,113の有効利用を図ることができる。
なお、上述実施の形態においては、「第4の処理」の機能が選択されるとき、DRC−ボリウム処理部112で、オブジェクトOBの領域ではユーザによって調整された画質パラメータr,zの値をそのまま用い、その他の領域ではユーザによって調整された画質パラメータr,zの値を画質が低下する方向に変更して用い、これにより背景ぼかしの特殊効果処理を行うようになっている。しかし、オブジェクトOBの領域ではユーザによって調整された画質パラメータr,zの値をそのまま用い、その他の領域ではユーザによって調整された画質パラメータr,zの値を画質が上昇する方向に変更して用いることも考えられる。また、「第4の処理」の機能が選択されるとき、オブジェクトOBの領域およびその他の領域における画質パラメータr,zの値を、ユーザの調整値とは無関係な固定値としてもよい。この固定値は、例えば工場出荷時に設定されるか、あるいはその後にユーザによって設定される。
また、上述実施の形態においては、入力端子111に入力される画像信号Vinが静止画を表示するための画像信号であるか動画を表示するための画像信号であるかを、ユーザの操作により与えるものを示した。しかし、画像信号Vinに静止画表示用であるか動画表示用であるかを判別する情報が付加されいるか、あるいは画像信号Vinに関連して静止画表示用であるか動画表示用であるかの情報をEPG(Electronic Program Guide)情報等から取得できれば、それを利用するようにしてもよい。さらに、画像信号Vinに基づいてフレーム間マッチング処理等を行って、当該画像信号Vinが静止画表示用であるか動画表示用であるかを自動的に判別するようにしてもよい。
また、上述実施の形態においては、第1の画像信号処理手段がDRC−ボリウム処理部112であり、第2の画像信号処理手段が追尾ズーム処理部113である例を示したが、第1の画像信号処理手段、第2の画像信号処理手段は、これら処理部112,113に限定されるものでないことは勿論である。
100・・・画像信号処理装置、101・・・システムコントローラ、102・・・リモコン信号受信部、103・・・リモコン送信機、104・・・表示器、111・・・入力端子、112・・・DRC−ボリウム処理部、113・・・追尾ズーム処理部、114・・・出力端子、115〜118・・・セレクタ、201・・・入力端子、202・・・処理本体部、203・・・出力端子、204・・・制御部、205,206・・・入力端子、211・・・バッファメモリ、212・・・予測タップ選択部、213・・・クラスタップ選択部、214・・・クラス検出部、215・・・係数データ生成部、216・・・ROM、217・・・推定予測演算部、218・・・後処理部、250・・・係数種データ生成装置、301・・・入力端子、302・・・処理本体部、303・・・出力端子、304・・・制御部、305・・・入力端子、311・・・バッファメモリ、312・・・検出領域決定部、313・・・オブジェクト特定部、314・・・動きベクトル検出部、315・・・ズーム処理部、316・・・セレクタ、401・・・入力端子、402・・・処理本体部、403・・・出力端子、404・・・制御部、405〜407・・・入力端子、411・・・予測タップ選択部、412・・・クラスタップ選択部、413・・・空間クラス検出部、414・・・動きクラス検出部、415・・・クラス統合部、416・・・係数データ生成部、417・・・ROM、418・・・推定予測演算部、419・・・バッファメモリ、450・・・係数種データ生成装置