JP2825482B2 - Digital image signal interpolation device - Google Patents

Digital image signal interpolation device

Info

Publication number
JP2825482B2
JP2825482B2 JP18249386A JP18249386A JP2825482B2 JP 2825482 B2 JP2825482 B2 JP 2825482B2 JP 18249386 A JP18249386 A JP 18249386A JP 18249386 A JP18249386 A JP 18249386A JP 2825482 B2 JP2825482 B2 JP 2825482B2
Authority
JP
Japan
Prior art keywords
circuit
data
pixel
signal
supplied
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18249386A
Other languages
Japanese (ja)
Other versions
JPS6338381A (en
Inventor
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP18249386A priority Critical patent/JP2825482B2/en
Publication of JPS6338381A publication Critical patent/JPS6338381A/en
Application granted granted Critical
Publication of JP2825482B2 publication Critical patent/JP2825482B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、ディジタル画像信号の伝送システム又は
記録/再生システムの受信側又は再生側に設けられる補
間装置に関する。 〔従来の技術〕 ビデオ信号を符号化して得られるディジタルビデオ信
号を伝送する場合、伝送帯域を狭くするためにサブサン
プリングが用いられる。サブサンプリングによって例え
ば1/2の画素の画像データが間引かれる。受信側には、
この間引き画素を補間する補間回路が設けられている。
従来では、この補間回路として、周波数領域で設計され
たディジタルローパスフィルタが使用されていた。 〔発明が解決しようとする問題点〕 周波数領域で補間フィルタを設計する場合、入出力信
号の周波数特性から経験に基づく繰り返し操作が必要と
され、また、ディジタルビデオ信号のサンプリング周波
数が違う時には、各サンプリング周波数に応じて補間フ
ィルタを設計することが必要であった。従って、補間フ
ィルタの設計が面倒であり、また、汎用性が乏しい欠点
があった。また、輝度信号に搬送色信号が重畳されたコ
ンポジットカラービデオ信号の場合、搬送色信号の位相
を考慮する必要があるため、従来の補間フィルタは、適
用が困難であった。 この発明の目的は、最適な構成を容易に設計すること
ができ、また、汎用性に富み、更に、コンポジットカラ
ービデオ信号に適用できる補間装置を提供することにあ
る。 〔問題点を解決するための手段〕 この発明は、実在する入力画像データと対応する画素
間の所定の画素の画像データを実在する入力画像データ
によって補間生成するためのディジタル画像信号の補間
装置において、 実在する入力画像データを受け取り、所定の画素の周
辺位置に存在する所定数の実在する画素データを抽出す
る手段と、 係数を求めるための画素データを用いて、補間値と真
値との誤差の自乗和が最小となるように最小自乗法によ
り予め定められた所定数の係数と、抽出された上記所定
数の実在する画素データとの線形1次結合により、所定
の画素の画素データを補間生成する手段と からなることを特徴とするディジタル画像信号の補間
装置である。 〔作用〕 同一のフィールド(又はフレーム)内で間引き画素を
取り囲む所定数の実在する画素データと所定数の重み係
数との線形1次結合で間引き画素の画像データが予測さ
れる。この予測された補間値と真値との誤差の自乗和を
最小にするように予め重み係数が定められる。この重み
係数の同定は、ビデオカメラにより複数枚の画像を撮影
し、この撮像信号をディジタル化して画像データを得、
電子計算機を用いてこの画像データを処理することで行
われる。重み係数を同定するために使用する周辺に実在
する画像データの個数(次数)は、ハードウェアの規模
に応じて設定される。この次数を設定して誤差の自乗和
を最小にする重み係数が同定される。この発明による補
間回路は、データのサンプリング周波数と無関係に最適
な構成とでき、また、周波数領域で設計するのと比べて
設計方法が簡単とできる。 〔実施例〕 以下、この発明の一実施例について図面を参照して説
明する。この説明は、下記の項目の順序でなされる。 a.送信側の構成 b.受信側の構成 c.ブロック化回路 d.ダイナミックレンジ検出回路 e.量子化回路 f.補間回路 g.変形例 a.送信側の構成 第1図は、送信側(記録側)の構成を全体として示す
ものである。1で示す入力端子に例えばNTSC方式のカラ
ービデオ信号が供給される。このカラービデオ信号がA/
D変換器2に供給され、例えば4fsc(fsc:カラーサブキ
ャリア周波数)のサンプリング周波数で1サンプルが8
ビットに量子化されたディジタルカラービデオ信号がA/
D変換器2から得られる。このディジタルカラービデオ
信号がサブサンプリング回路3に供給され、サブサンプ
リング回路3の出力信号がブロック化回路4に供給され
る。サブサンプリング回路3の前段には、帯域制限用の
プリフィルタが設けられず、入力カラービデオ信号の高
域成分が失われない。 サブサンプリング回路3において、ディジタルカラー
ビデオ信号が2fscのサンプリング周波数でサンプリング
される。また、ブロック化回路4により、入力ディジタ
ルテレビジョン信号が符号化の単位である2次元ブロッ
ク毎に連続する信号に変換される。この実施例では、1
フィールドの画面が分割されてなる1ブロックが(4ラ
イン×8画素=32画素)の大きさとされている。第3図
は、この1ブロックを示すものであり、第3図におい
て、実線は、奇数フィールドのラインを示し、破線は、
偶数フィールドのラインを示す。この例と異なり、例え
ば4フレームの各フレームに属する4個の2次元領域か
ら構成された3次元ブロックに対してもこの発明が適用
できる。ブロック化回路4の前段に設けられたサブサン
プリング回路3によって、ブロック内の画素が第4図に
示すように間引かれ、1ブロックの画素数が16画素とさ
れる。第4図において○がサブサンプリングされた画素
を示し、×が間引かれた画素を示す。 ブロック化回路4の出力信号がダイナミックレンジ検
出回路5及び遅延回路6に供給される。ダイナミックレ
ンジ検出回路5は、ブロック毎にダイナミックレンジDR
及び最小値MINを検出する。遅延回路6からの画素デー
タPDが減算回路7に供給され、減算回路7において、最
小値MINが除去された画素データPDIが形成される。 量子化回路8には、サブサンプリングされ、減算回路
7を介された最小値除去後の画素データPDI及びダイナ
ミックレンジDRが供給される。量子化回路8では、ダイ
ナミックレンジDRに適応して画素データPDIの量子化が
行われる。量子化回路8からは、1画素データが4ビッ
トに変換されたコード信号DTが得られる。 この量子化回路8からのコード信号DTがフレーム化回
路9に供給される。フレーム化回路9には、ブロック毎
の付加コードとして、ダイナミックレンジDR(8ビッ
ト)及び最小値MIN(8ビット)が供給される。フレー
ム化回路9は、コード信号DT及び上述の付加コードに誤
り訂正符号化の処理を施し、また同期信号を付加する。
フレーム化回路9の出力端子10に送信データが得られ、
この送信データがディジタル回線等の伝送路に送出され
る。ディジタルVTRの場合には、出力信号が記録アン
プ,回転トランス等を介して回転ヘッドに供給される。 b.受信側の構成 第2図は、受信(又は再生)側の構成を示す。入力端
子11からの受信データは、フレーム分解回路12に供給さ
れる。フレーム分解回路12により、コード信号DTと付加
コードDR,MINとが分離されると共に、エラー訂正処理が
なされる。コード信号DTが復号化回路13に供給され、ダ
イナミックレンジDRが復号化回路13に供給される。 復号化回路13は、送信側の量子化回路8の処理と逆の
処理を行う。即ち、8ビットの最小レベル除去後のデー
タが代表レベルに復号され、このデータと8ビットの最
小値MINとが加算回路14により加算され、元の画素デー
タが復号される。加算回路14の出力データがブロック分
解回路15に供給される。ブロック分解回路15は、送信側
のブロック化回路4と逆に、ブロックの順番の復号デー
タをテレビジョン信号の走査と同様の順番に変換するた
めの回路である。ブロック分解回路15の出力信号がこの
発明が適用された補間回路16に供給される。補間回路16
では、間引かれた画素のデータが周囲のサブサンプルデ
ータにより補間される。補間回路16からのサンプリング
周波数4fscのディジタルカラービデオ信号がD/A変換器1
7に供給される。D/A変換器17の出力端子18にアナログカ
ラービデオ信号が得られる。送信側でプリフィルタが設
けられていない場合、折り返し歪が例えば輝度レベルの
急峻な変化の点で発生するおそれがある。この歪を除去
する回路を補間回路16の出力側に接続しても良い。 c.ブロック化回路 ブロック化回路4について第5図,第6図及び第7図
を参照して説明する。説明の簡単のため、1フィールド
の画面が第6図に示すように、(4ライン×8画素)の
構成と仮定し、この画面が破線で示すように、垂直方向
に2分割され、水平方向に4分割され、(2ライン×2
画素)の8個のブロックが形成される場合について説明
する。 第5図において、21で示す入力端子に第7図Aに示す
ように、(Th0〜Th3)の4ラインからなる入力データA
が供給され、22で示す入力端子に入力データAと同期し
ているサンプリングクロックB(第7図B)が供給され
る。数字の(1〜8)がラインTh0のサンプルデータを
夫々示し、数字の(11〜18)がラインTh1のサンプルデ
ータを夫々示し、数字の(21〜28)がラインTh2のサン
プルデータを夫々示し、数字の(31〜38)がラインTh3
のサンプルデータを夫々示す。入力データAがThの遅延
量の遅延回路23及び2Ts(Ts:サンプリング周期)の遅延
量の遅延回路24に供給される。また、サンプリングクロ
ックBが1/2分周回路27に供給される。 遅延回路24の出力信号C(第7図C)がスイッチ回路
25及び26の一方の入力端子に夫々供給され、遅延回路23
の出力信号D(第7図D)がスイッチ回路25及び26の他
方の入力端子に夫々供給される。スイッチ回路25は、1/
2分周回路27の出力信号E(第7図E)により制御さ
れ、また、スイッチ回路26はパルス信号Eがインバータ
28により反転されたパルス信号により制御される。スイ
ッチ回路25及び26は、2Ts毎に交互に入力信号(C又は
D)を選択する。スイッチ回路25からの出力信号Fが第
7図Fに示され、スイッチ回路26からの出力信号Gが第
7図Gに示される。 スイッチ回路25の出力信号Fがスイッチ回路29の第1
の入力端子及び4Tsの遅延量を有する遅延回路30に供給
される。スイッチ回路26の出力信号Gが2Tsの遅延量を
有する遅延回路31に供給される。遅延回路30の出力信号
H(第7図H)がスイッチ回路29の第3の入力端子に供
給される。遅延回路31の出力信号I(第7図I)がスイ
ッチ回路29の第2の入力端子及び4Tsの遅延量を有する
遅延回路32に供給される。遅延回路32の出力信号J(第
7図J)がスイッチ回路29の第4の入力端子に供給され
る。 1/2分周回路33には、1/2分周回路27の出力信号が供給
され、出力信号K(第7図K)が形成される。この信号
Kによってスイッチ回路29が制御され、4Ts毎に第1,第
2,第3及び第4の入力端子が順次選択される。従って、
スイッチ回路29から出力端子34に取り出される信号L
は、第7図Lに示すものとなる。つまり、データのフィ
ールド毎の順序がブロック毎の順序(例えば1→2→11
→12)に変換される。勿論、1フィールドの実際の画素
数は、第6図に示される例と異なってはるかに多いが、
上述と同様の走査変換によって、第3図に示すブロック
毎の順序に変換される。 d.ダイナミックレンジ検出回路 第8図は、ダイナミックレンジ検出回路3の一例を構
成を示す。41で示される入力端子には、ブロック化回路
4から前述のように、1ブロック毎に符号化が必要な領
域の画像データが順次供給される。この入力端子41から
の画素データは、選択回路42及び選択回路43に供給され
る。一方の選択回路42は、ディジタルカラービデオ信号
の画素データとラッチ44の出力データとの間で、よりレ
ベルの大きい方を選択して出力する。他方の選択回路43
は、入力ディジタルカラービデオ信号の画素データとラ
ッチ45の出力データとの間で、よりレベルの小さい方を
選択して出力する。 選択回路42の出力データが減算回路46に供給されると
共に、ラッチ44に取り込まれる。選択回路43の出力デー
タが減算回路46及びラッチ48に供給されると共に、ラッ
チ45に取り込まれる。ラッチ44及び45には、ラッチパル
スが制御部49から供給される。制御部49には、ディジタ
ルカラービデオ信号と同期するサンプリングクロック,
同期信号等のタイミング信号が端子50から供給される。
制御部49は、ラッチ44,45及びラッチ47,48にラッチパル
スを所定のタイミングで供給する。 各ブロックの最初で、ラッチ44及び45の内容が初期設
定される。ラッチ44には、全て‘0'のデータが初期設定
され、ラッチ45には、全て‘1'のデータが初期設定され
る。順次供給される同一のブロックの画素データの中
で、最大レベルがラッチ44に貯えられる。また、順次供
給される同一のブロックの画素データの中で、最小レベ
ルがラッチ45に貯えられる。 最大レベル及び最小レベルの検出が1ブロックに関し
て終了すると、選択回路42の出力に当該ブロックの最大
レベルが生じる。一方、選択回路43の出力に当該ブロッ
クの最小レベルが生じる。1ブロックに関しての検出が
終了すると、ラッチ44及び45が再び初期設定される。 減算回路46の出力には、選択回路42からの最大レベル
MAX及び選択回路43からの最小レベルMINを減算してなる
各ブロックのダイナミックレンジDRが得られる。これら
のダイナミックレンジDR及び最小レベルMINが制御ブロ
ック49からのラッチパルスにより、ラッチ47及び48に夫
々ラッチされる。ラッチ47の出力端子51に各ブロックの
ダイナミックレンジDRが得られ、ラッチ48の出力端子52
に各ブロックの最小値MINが得られる。 e.量子化回路 量子化回路8は、ダイナミックレンジDRに適応した符
号化を行う。第9図は、量子化回路8の一例を示す。第
9図において、55で示すROMには、最小値除去後の画素
データPDI(8ビット)を圧縮されたビット数例えば4
ビットに変換するためのデータ変換テーブルが格納され
ている。ROM55に対して、入力端子56からのダイナミッ
クレンジDRと入力端子57からの画素データPDIとがアド
レス信号として供給される。ROM55では、ダイナミック
レンジDRの大きさによりデータ変換テーブルが選択さ
れ、出力端子58に4ビットのコード信号DTが取り出され
る。 量子化回路8においては、コード信号DTが2ビット
(実施例では、4ビット)の場合、第10図に示すよう
に、ブロックのダイナミックレンジDRが4個の領域に分
割される。この4個の領域が(00)(01)(10)(11)
の2ビットのコード信号DTにより区別され、中央のレベ
ルL0,L1,L2,L3が夫々各領域の代表レベルとされる。最
小値除去後のデータPDIが含まれる領域に応じて2ビッ
トのコード信号DTが発生する。ディジタルカラービデオ
信号のレベルは、ディジタル搬送色信号が重畳されてい
ても、ブロック内で相関を有しており、各ブロックのダ
イナミックレンジDRは、過渡部でない定常部では、狭い
範囲に集中している。従って、4ビットのように、1/2
に圧縮されたビット数で量子化しても画質の劣化が殆ど
生じない。また、各画素が他の画素と独立して符号化さ
れるので、ディジタルカラービデオ信号の急激なレベル
変化を再現することができ、DPCMと比較して周波数特性
を良好とできる。 なお、最小レベルMIN及び最大レベルMAXの夫々のレベ
ルを有する画素データが1ブロック内に必ず存在してい
る。従って、誤差が0のコード信号を多くするには、第
11図に示すように、ダイナミックレンジDRを(2m−1)
(但し、mは、量子化ビット数)に分割し、最小レベル
MINを代表最小レベルL0とし、最大レベルMAXを代表最大
レベルL3としても良い。 また、量子化回路8は、ROM以外にダイナミックレン
ジDRを分割する割算器及び最小値除去後のデータPDIが
属するレベル領域を判定するための比較回路からなる構
成等を使用しても良い。 f.補間回路 受信側に設けられている補間回路16の一例について説
明する。この補間回路16は、時間領域で設計された2次
元フィルタである。つまり、補間回路16では、補間しよ
うとする間引き画素の周辺に存在する複数個の受信デー
タ(サブサンプルデータ)の1次結合として、間引き画
素が予測される。この場合、真値と補間回路16の出力信
号の差信号を誤差と考えれば、自乗誤差を最小にするこ
とによって、1次結合の重み係数が一意に求められる。
この重み係数の同定について以下に説明する。 注目画素におけるディジタルカラービデオ信号は、
注目画素の周辺のn個の画素のデータZ1〜Znの1次結合
で近似できる。 (i,j)=a1・Z1(i,j)+a2・Z2(i,j)+ ……+an・Zn(i,j) 但し、は、iライン,jサンプルに位置する推定カラ
ービデオ信号を示し、a1〜anは、重み係数を示し、Zm
(i,j)は、(i,j)の位置の近傍のカラービデオ信号
(以下、単にNTSC信号と称する)である(m=1〜
n)。 ビデオカメラによって、異なる複数の画素を撮影し、
撮像信号をディジタル信号に変換する。このように得ら
れたデータを使用し、電子計算機により、最小自乗法に
よって重み係数a1〜anを同定する。つまり、ビデオカメ
ラにより撮像されるある絵柄の実際のデータを適用し
て、周辺近傍画素データに重み係数を乗算し、上述の式
に示す通り合成された推定NTSC信号と、真値xとを比
較し、その誤差(−x)が最小となる重み係数a1
anを、コンピュータを用いて計算する。1枚分のデータ
となる絵柄においては、誤差をeとすると、のデータが得られ、これらデータを用いて誤差分散が最
も小さくなる時の重み係数a1,a2,a3・・・anが、コンピ
ュータで計算される。 上式は、ベクトルで表現すると、 この誤差ベクトル の自乗和を最小にする重み係数が求められる。誤差分散 を最小にするように、 を求めると、 但し、ZTは、転置行列を示す。このままでは、1フィ
ールドの全画素の場合、非常に大きな行列を扱うことに
なり、実際的でない。従って、上式を小さい次数の行列
及びベクトルに直して処理する。即ち、 は、データ数に関係なく、夫々(n,n)の行列及びn次
のベクトルであることを利用して逐次処理に改める。 ここで、 は、k番目の(i,j)に於ける周辺データのベクトル
で、 次数nは、IC基板の大きさや、処理速度等のハードウ
ェアの規模に見合って予め定められる。一例として、こ
の一実施例では、第12図に示すように、補間しようとす
る間引き画素(□で示す)の周辺の同一フィールド内の
30個のNTSC信号(サプサンプルデータ)Z1〜Z30に夫々
重み係数a1〜a30を乗じることにより、間引き画素が補
間される。前述の電子計算機を用いた手法で同定された
重み係数の一例を以下に示す。 a1 = 0.047 a2 =−0.064 a3 = 0.045 a4 =−0.007 a5 = 0.002 a6 =−0.001 a7 =−0.003 a8 =−0.050 a9 = 0.059 a10=−0.050 a11= 0.064 a12=−0.057 a13= 0.036 a14=−0.109 a15= 0.588 a16= 0.588 a17=−0.109 a18= 0.036 a19=−0.056 a20= 0.064 a21=−0.050 a22= 0.058 a23=−0.050 a24=−0.003 a25=−0.001 a26= 0.002 a27=−0.007 a28= 0.044 a29=−0.063 a30= 0.047 上述の重み係数は一例であって、2のべき乗を分母と
する分数で表現された係数を使用してハードウェアの簡
略化を図るようにしても良い。補間回路16のハードウェ
アは、ブロック分解回路15からの復号データから第12図
に示すように、補間される間引き画素の周囲の30個のデ
ータZ1〜Z30を取り出すための複数のライン遅延回路及
び複数のサンプン遅延回路と取り出されたデータZ1〜Z3
0の夫々に上述のような重み係数a1〜a30を乗じるための
乗算器とから構成されている。また、補間に使用する周
辺画素は、同一フィールド内に限らず同一フレーム内の
データを使用することができ、また、30個以外の個数を
使用することができる。 g.変形例 この発明は、ダイナミックレンジに適応した符号化方
式として、固定長の符号化方式に限らず、可変長の符号
化方式に対しても運用できる。可変長の符号化方式で
は、ブロック毎のダイナミックレンジDRが所定の量子化
歪と対応する量子化ステップでもって分割され、即ち、
ダイナミックレンジDRがダイナミックレンジDRに適応し
た個数のレベル範囲に分割され、最小値除去後のデータ
が属するレベル範囲と対応するコード信号が形成され
る。 以上の説明では、コード信号DTとダイナミックレンジ
DRと最小値MINとを送信している。しかし、付加コード
としてダイナミックレンジDRの代わりに最大値MAX,量子
化ステップ又は最大歪を伝送しても良い。 また、入力信号のブロック化の処理を行ってからサブ
サンプリングを行っても良い。更に、1ブロックのデー
タをフレームメモリ,ライン遅延回路,サンプル遅延回
路を組み合わせた回路により、同時に取り出すようにし
ても良く、輝度信号のみの処理に対しても、この発明は
適用できる。 〔発明の効果〕 この発明は、時間領域で設計されているので、周波数
領域で補間フィルタを設計するのと比べて経験に基づく
繰り返し操作が必要とされず、また、サンプリング周波
数が異なる場合にも適用することができる汎用性に富む
構成とできる。特に、この発明は、従来の補間フィルタ
では困難であった輝度信号に搬送色信号が重畳されたコ
ンポジットカラービデオ信号を補間することができる利
点がある。 また、この発明は、予め種々の画像データを使用した
学習によって、最も誤差が小さくなるような係数を求め
ているので、間引かれた画素のデータをその周辺に実在
する画素データの平均値により補間する場合と比較して
解像度の劣化が少ない利点がある。すなわち、この発明
は、平均値補間によっては不可能な解像度の創造が可能
な利点がある。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an interpolation device provided on a receiving side or a reproducing side of a digital image signal transmission system or a recording / reproducing system. 2. Description of the Related Art When transmitting a digital video signal obtained by encoding a video signal, subsampling is used to narrow a transmission band. By the sub-sampling, for example, the image data of 1/2 pixel is thinned out. On the receiving side,
An interpolation circuit for interpolating the thinned pixels is provided.
Conventionally, a digital low-pass filter designed in the frequency domain has been used as the interpolation circuit. [Problems to be Solved by the Invention] When designing an interpolation filter in the frequency domain, iterative operations based on experience are required from the frequency characteristics of input and output signals, and when the sampling frequency of the digital video signal is different, It was necessary to design an interpolation filter according to the sampling frequency. Therefore, the design of the interpolation filter is troublesome, and the versatility is poor. Further, in the case of a composite color video signal in which a carrier chrominance signal is superimposed on a luminance signal, it is necessary to consider the phase of the carrier chrominance signal, and thus it has been difficult to apply a conventional interpolation filter. An object of the present invention is to provide an interpolating apparatus which can easily design an optimum configuration, is versatile, and can be applied to a composite color video signal. [Means for Solving the Problems] The present invention relates to a digital image signal interpolating apparatus for interpolating and generating image data of a predetermined pixel between existing input image data and corresponding pixels by using existing input image data. Means for receiving existing input image data and extracting a predetermined number of existing pixel data existing at a position around a predetermined pixel; and using the pixel data for calculating a coefficient, an error between an interpolation value and a true value. The pixel data of a predetermined pixel is interpolated by a linear linear combination of a predetermined number of coefficients predetermined by the least square method so that the sum of the squares of the pixels becomes minimum and the extracted predetermined number of existing pixel data. And a means for generating a digital image signal. [Operation] Image data of a thinned pixel is predicted by a linear linear combination of a predetermined number of existing pixel data surrounding the thinned pixel and a predetermined number of weighting coefficients in the same field (or frame). A weighting coefficient is determined in advance so as to minimize the sum of squares of the error between the predicted interpolation value and the true value. The identification of the weight coefficient is performed by photographing a plurality of images with a video camera, digitizing the image signals, and obtaining image data.
Processing is performed by processing this image data using an electronic computer. The number (order) of image data actually existing in the vicinity used for identifying the weight coefficient is set according to the scale of hardware. By setting this order, a weight coefficient that minimizes the sum of squares of the error is identified. The interpolation circuit according to the present invention can have an optimum configuration irrespective of the data sampling frequency, and can have a simpler design method than a design in the frequency domain. Hereinafter, an embodiment of the present invention will be described with reference to the drawings. This description will be made in the order of the following items. a. Configuration on the transmission side b. Configuration on the reception side c. Blocking circuit d. Dynamic range detection circuit e. Quantization circuit f. Interpolation circuit g. Modification a. Configuration on the transmission side FIG. 1 shows the configuration of the recording side as a whole. For example, a color video signal of the NTSC system is supplied to an input terminal denoted by reference numeral 1. This color video signal is A /
The sample is supplied to the D converter 2 and, for example, one sample is 8
The digital color video signal quantized to bits is A /
Obtained from the D converter 2. The digital color video signal is supplied to the sub-sampling circuit 3, and the output signal of the sub-sampling circuit 3 is supplied to the blocking circuit 4. A pre-filter for band limitation is not provided at a stage preceding the sub-sampling circuit 3, so that a high frequency component of the input color video signal is not lost. In the sub-sampling circuit 3, the digital color video signal is sampled at a sampling frequency of 2 fsc. Also, the input digital television signal is converted by the blocking circuit 4 into a continuous signal for each two-dimensional block which is a unit of encoding. In this embodiment, 1
One block obtained by dividing the screen of the field has a size of (4 lines × 8 pixels = 32 pixels). FIG. 3 shows this one block. In FIG. 3, a solid line shows a line of an odd field, and a broken line shows a line of an odd field.
Indicates a line in an even field. Unlike this example, the present invention can be applied to, for example, a three-dimensional block including four two-dimensional regions belonging to each of four frames. By the sub-sampling circuit 3 provided before the blocking circuit 4, the pixels in the block are thinned out as shown in FIG. 4, and the number of pixels in one block is set to 16 pixels. 4. In FIG. 4, .largecircle. Indicates a sub-sampled pixel, and X indicates a thinned pixel. The output signal of the blocking circuit 4 is supplied to the dynamic range detection circuit 5 and the delay circuit 6. The dynamic range detection circuit 5 has a dynamic range DR for each block.
And the minimum value MIN. The pixel data PD from the delay circuit 6 is supplied to the subtraction circuit 7, where the pixel data PDI from which the minimum value MIN has been removed is formed. The quantized circuit 8 is supplied with the pixel data PDI and the dynamic range DR that have been subjected to sub-sampling and having undergone the minimum value removal via the subtraction circuit 7. In the quantization circuit 8, the pixel data PDI is quantized according to the dynamic range DR. From the quantization circuit 8, a code signal DT obtained by converting one pixel data into four bits is obtained. The code signal DT from the quantization circuit 8 is supplied to the framing circuit 9. The dynamic range DR (8 bits) and the minimum value MIN (8 bits) are supplied to the framing circuit 9 as an additional code for each block. The framing circuit 9 performs an error correction coding process on the code signal DT and the above-described additional code, and adds a synchronization signal.
Transmission data is obtained at the output terminal 10 of the framing circuit 9,
This transmission data is transmitted to a transmission line such as a digital line. In the case of a digital VTR, an output signal is supplied to a rotary head via a recording amplifier, a rotary transformer, and the like. b. Configuration on the receiving side FIG. 2 shows the configuration on the receiving (or reproducing) side. The data received from the input terminal 11 is supplied to the frame decomposition circuit 12. The frame decomposition circuit 12 separates the code signal DT from the additional codes DR and MIN, and performs an error correction process. The code signal DT is supplied to the decoding circuit 13, and the dynamic range DR is supplied to the decoding circuit 13. The decoding circuit 13 performs a process reverse to that of the quantization circuit 8 on the transmission side. That is, the 8-bit data after the removal of the minimum level is decoded to the representative level, and this data and the 8-bit minimum value MIN are added by the adder circuit 14 to decode the original pixel data. Output data of the adder circuit 14 is supplied to the block decomposition circuit 15. The block decomposing circuit 15 is a circuit for converting the decoded data in the order of blocks into the same order as the scanning of the television signal, contrary to the blocking circuit 4 on the transmission side. An output signal of the block decomposition circuit 15 is supplied to an interpolation circuit 16 to which the present invention is applied. Interpolator 16
In, the data of the thinned pixel is interpolated by the surrounding sub-sample data. The digital color video signal having a sampling frequency of 4 fsc from the interpolation circuit 16 is supplied to the D / A converter 1
Supplied to 7. An analog color video signal is obtained at an output terminal 18 of the D / A converter 17. If a pre-filter is not provided on the transmission side, aliasing may occur at, for example, a point where the luminance level changes sharply. A circuit for removing this distortion may be connected to the output side of the interpolation circuit 16. c. Blocking Circuit The blocking circuit 4 will be described with reference to FIGS. 5, 6, and 7. For simplicity of explanation, it is assumed that a screen of one field has a configuration of (4 lines × 8 pixels) as shown in FIG. 6, and this screen is vertically divided into two as shown by broken lines, Divided into four, (2 lines x 2
The case where eight blocks (pixels) are formed will be described. In FIG. 5, as shown in FIG. 7A, input data A consisting of four lines (Th 0 to Th 3 ) is applied to an input terminal indicated by 21.
And a sampling clock B (FIG. 7B) synchronized with the input data A is supplied to an input terminal indicated by 22. The sample data of numbers (1 to 8) the line Th 0 indicates respectively show respectively digits (11 to 18) of the sample data of the line Th 1 s, the number (21 to 28) is the line Th 2 Sample Data And the numbers ( 31 to 38) indicate the line Th 3
Are shown below. The input data A is supplied to a delay circuit 23 having a delay amount of Th and a delay circuit 24 having a delay amount of 2Ts (Ts: sampling period). Further, the sampling clock B is supplied to the 1/2 frequency dividing circuit 27. The output signal C of the delay circuit 24 (FIG. 7C) is a switch circuit.
25 and 26 are respectively supplied to one input terminal of the delay circuit 23.
(D in FIG. 7) is supplied to the other input terminals of the switch circuits 25 and 26, respectively. The switch circuit 25 is 1 /
The pulse signal E is controlled by an output signal E (FIG. 7E) of the divide-by-2 circuit 27 (FIG. 7E).
It is controlled by the pulse signal inverted by 28. The switch circuits 25 and 26 alternately select an input signal (C or D) every 2Ts. The output signal F from the switch circuit 25 is shown in FIG. 7F, and the output signal G from the switch circuit 26 is shown in FIG. 7G. The output signal F of the switch circuit 25 is the first signal of the switch circuit 29.
And a delay circuit 30 having a delay amount of 4Ts. The output signal G of the switch circuit 26 is supplied to a delay circuit 31 having a delay amount of 2Ts. The output signal H of the delay circuit 30 (H in FIG. 7) is supplied to a third input terminal of the switch circuit 29. The output signal I (I in FIG. 7) of the delay circuit 31 is supplied to a second input terminal of the switch circuit 29 and a delay circuit 32 having a delay amount of 4Ts. The output signal J (FIG. 7J) of the delay circuit 32 is supplied to a fourth input terminal of the switch circuit 29. The output signal of the 1/2 frequency dividing circuit 27 is supplied to the 1/2 frequency dividing circuit 33 to form an output signal K (FIG. 7K). The switch circuit 29 is controlled by this signal K, and the first and the
2, the third and fourth input terminals are sequentially selected. Therefore,
Signal L extracted from switch circuit 29 to output terminal 34
Is as shown in FIG. 7L. That is, the order of data in each field is the order of each block (for example, 1 → 2 → 11
→ Converted to 12). Of course, the actual number of pixels in one field is much larger, unlike the example shown in FIG.
By the same scan conversion as described above, the data is converted into the order of each block shown in FIG. d. Dynamic range detection circuit FIG. 8 shows an example of the configuration of the dynamic range detection circuit 3. As described above, the input terminal indicated by 41 is supplied with the image data of the area that needs to be encoded for each block from the blocking circuit 4 sequentially. The pixel data from the input terminal 41 is supplied to the selection circuit 42 and the selection circuit 43. The selection circuit 42 selects and outputs the higher level between the pixel data of the digital color video signal and the output data of the latch 44. The other selection circuit 43
Selects the smaller one between the pixel data of the input digital color video signal and the output data of the latch 45 and outputs it. The output data of the selection circuit 42 is supplied to the subtraction circuit 46 and is also captured by the latch 44. Output data of the selection circuit 43 is supplied to the subtraction circuit 46 and the latch 48, and is also captured by the latch 45. The latch pulse is supplied from the control unit 49 to the latches 44 and 45. The control unit 49 includes a sampling clock synchronized with the digital color video signal,
A timing signal such as a synchronization signal is supplied from a terminal 50.
The control unit 49 supplies a latch pulse to the latches 44 and 45 and the latches 47 and 48 at a predetermined timing. At the beginning of each block, the contents of latches 44 and 45 are initialized. The latch 44 is initialized with all “0” data, and the latch 45 is initialized with all “1” data. The maximum level of the sequentially supplied pixel data of the same block is stored in the latch 44. The minimum level of the sequentially supplied pixel data of the same block is stored in the latch 45. When the detection of the maximum level and the minimum level is completed for one block, the maximum level of the block is generated at the output of the selection circuit. On the other hand, the minimum level of the block occurs at the output of the selection circuit 43. When the detection for one block is completed, the latches 44 and 45 are initialized again. The output of the subtraction circuit 46 has the maximum level from the selection circuit 42.
The dynamic range DR of each block obtained by subtracting the minimum level MIN from the MAX and the selection circuit 43 is obtained. The dynamic range DR and the minimum level MIN are latched by the latches 47 and 48, respectively, by the latch pulse from the control block 49. The dynamic range DR of each block is obtained at the output terminal 51 of the latch 47, and the output terminal 52 of the latch 48.
Then, the minimum value MIN of each block is obtained. e. Quantization circuit The quantization circuit 8 performs encoding adapted to the dynamic range DR. FIG. 9 shows an example of the quantization circuit 8. In FIG. 9, in the ROM denoted by 55, the pixel data PDI (8 bits) from which the minimum value has been removed has a compressed bit number of, for example, 4 bits.
A data conversion table for converting to bits is stored. The dynamic range DR from the input terminal 56 and the pixel data PDI from the input terminal 57 are supplied to the ROM 55 as address signals. In the ROM 55, a data conversion table is selected according to the size of the dynamic range DR, and a 4-bit code signal DT is extracted from an output terminal 58. In the quantization circuit 8, when the code signal DT is 2 bits (4 bits in the embodiment), the dynamic range DR of the block is divided into four regions as shown in FIG. These four areas are (00) (01) (10) (11)
And the central level L0, L1, L2, L3 is set as the representative level of each area. A 2-bit code signal DT is generated according to the area including the data PDI after the minimum value has been removed. The level of the digital color video signal is correlated within the block even when the digital carrier chrominance signal is superimposed, and the dynamic range DR of each block is concentrated in a narrow range in a stationary part that is not a transient part. I have. Therefore, like 4 bits,
Even if the quantization is performed with the number of bits compressed to, the image quality hardly deteriorates. Also, since each pixel is encoded independently of the other pixels, a sharp level change of the digital color video signal can be reproduced, and the frequency characteristics can be improved as compared with the DPCM. It should be noted that pixel data having each of the minimum level MIN and the maximum level MAX always exists in one block. Therefore, to increase the number of code signals having an error of 0,
As shown in Figure 11, the dynamic range DR is (2 m -1)
(Where m is the number of quantization bits)
MIN may be the representative minimum level L0, and the maximum level MAX may be the representative maximum level L3. Further, the quantization circuit 8 may use a configuration including a divider for dividing the dynamic range DR and a comparison circuit for determining the level area to which the data PDI after removing the minimum value belongs, other than the ROM. f. Interpolation Circuit An example of the interpolation circuit 16 provided on the receiving side will be described. This interpolation circuit 16 is a two-dimensional filter designed in the time domain. That is, the interpolation circuit 16 predicts a thinned pixel as a linear combination of a plurality of pieces of reception data (sub-sample data) existing around the thinned pixel to be interpolated. In this case, assuming that the difference signal between the true value and the output signal of the interpolation circuit 16 is an error, the weighting coefficient of the linear combination is uniquely obtained by minimizing the square error.
The identification of the weight coefficient will be described below. The digital color video signal at the pixel of interest is
It can be approximated by a linear combination of data Z1 to Zn of n pixels around the target pixel. (I, j) = a 1 · Z1 (i, j) + a 2 · Z2 (i, j) + ...... + a n · Zn (i, j) However,, i-line, estimating the color located j samples shows a video signal, a 1 ~a n represents a weighting factor, Zm
(I, j) is a color video signal (hereinafter simply referred to as NTSC signal) near the position of (i, j) (m = 1 to
n). With a video camera, you shoot multiple different pixels,
The imaging signal is converted into a digital signal. Using the thus obtained data, the electronic computer to identify a weighting factor a 1 ~a n by the least squares method. In other words, the actual data of a certain pattern imaged by the video camera is applied, the neighboring pixel data is multiplied by the weighting factor, and the estimated NTSC signal synthesized as shown in the above equation is compared with the true value x. And the weighting factor a 1 to the error (−x) 2 that minimizes
a n is calculated using a computer. In a pattern that is one sheet of data, if the error is e, Data is obtained, the weighting coefficients a 1 when the error distribution is smallest with these data, a 2, a 3 ··· a n is calculated by the computer. The above equation can be expressed as a vector This error vector Weighting coefficient that minimizes the sum of squares of Error variance To minimize And ask for Here, Z T indicates a transposed matrix. In this case, in the case of all pixels in one field, a very large matrix is handled, which is not practical. Therefore, the above equation is processed by converting it into a matrix and a vector of a small order. That is, Is changed to sequential processing using the fact that each is an (n, n) matrix and an nth-order vector, regardless of the number of data. here, Is a vector of the surrounding data at the k-th (i, j), The order n is predetermined in accordance with the size of the IC substrate, the scale of the hardware such as the processing speed, and the like. As an example, in this embodiment, as shown in FIG. 12, the same field around the thinned pixel (indicated by □) to be interpolated is used.
By multiplying each weighting factor a 1 ~a 30 to 30 of the NTSC signal (substatement sample data) Z1~Z30, thinning pixels are interpolated. An example of the weighting factor identified by the above-described method using the electronic computer is shown below. a 1 = 0.047 a 2 = -0.064 a 3 = 0.045 a 4 = -0.007 a 5 = 0.002 a 6 = -0.001 a 7 = -0.003 a 8 = -0.050 a 9 = 0.059 a 10 = -0.050 a 11 = 0.064 a 12 = -0.057 a 13 = 0.036 a 14 = -0.109 a 15 = 0.588 a 16 = 0.588 a 17 = -0.109 a 18 = 0.036 a 19 = -0.056 a 20 = 0.064 a 21 = -0.050 a 22 = 0.058 a 23 = -0.050 a 24 = -0.003 a 25 = -0.001 a 26 = 0.002 a 27 = -0.007 a 28 = 0.044 a 29 = -0.063 a 30 = 0.047 The above weighting factor is an example. The hardware may be simplified by using a coefficient expressed by a fraction as a denominator. As shown in FIG. 12, the hardware of the interpolation circuit 16 includes a plurality of line delay circuits for extracting 30 pieces of data Z1 to Z30 around a thinned pixel to be interpolated from the decoded data from the block decomposition circuit 15. Multiple sample delay circuits and extracted data Z1 to Z3
And a multiplier for multiplying each of the 0s by the weighting coefficients a 1 to a 30 as described above. Further, as the peripheral pixels used for interpolation, not only data in the same field but also data in the same frame can be used, and a number other than 30 can be used. g. Modifications The present invention can be applied not only to a fixed-length coding method but also to a variable-length coding method as a coding method adapted to a dynamic range. In the variable-length coding scheme, the dynamic range DR for each block is divided by a quantization step corresponding to a predetermined quantization distortion, that is,
The dynamic range DR is divided into a number of level ranges corresponding to the dynamic range DR, and a code signal corresponding to the level range to which the data after the minimum value removal belongs is formed. In the above description, the code signal DT and the dynamic range
The DR and the minimum value MIN are transmitted. However, instead of the dynamic range DR, the maximum value MAX, the quantization step, or the maximum distortion may be transmitted as the additional code. The sub-sampling may be performed after the input signal is blocked. Further, one block of data may be simultaneously extracted by a circuit combining a frame memory, a line delay circuit, and a sample delay circuit, and the present invention is applicable to processing of only a luminance signal. [Effects of the Invention] Since the present invention is designed in the time domain, it does not require empirical repetitive operations compared to designing an interpolation filter in the frequency domain, and even when the sampling frequency is different. A versatile configuration that can be applied. In particular, the present invention has an advantage that it is possible to interpolate a composite color video signal in which a carrier color signal is superimposed on a luminance signal, which has been difficult with a conventional interpolation filter. Further, according to the present invention, a coefficient that minimizes the error is obtained in advance by learning using various image data. There is an advantage that the resolution is less deteriorated than in the case of interpolation. That is, the present invention has an advantage that it is possible to create a resolution that cannot be obtained by the mean value interpolation.

【図面の簡単な説明】 第1図はこの発明を適用できるカラービデオ信号の伝送
システムの送信側のブロック図、第2図は受信側の構成
を示すブロック図、第3図は符号化の処理の単位である
ブロックの説明に用いる略線図、第4図はサブサンプリ
ングの説明に用いる略線図、第5図,第6図及び第7図
はブロック化回路の一例のブロック図,その説明に用い
る略線図及びその動作説明のためのタイミングチャー
ト、第8図はダイナミックレンジ検出回路の一例のブロ
ック図、第9図は量子化回路の一例のブロック図、第10
図及び第11図は量子化の一例及び他の例の説明に用いる
略線図、第12図はこの発明が適用された補間回路の説明
に用いる略線図である。 図面における主要な符号の説明 1:カラービデオ信号の入力端子、4:ブロック化回路、5:
ダイナミックレンジ検出回路、7:減算回路、8:量子化回
路、13:復号化回路、15:ブロック分解回路、16:補間回
路。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a transmission side of a color video signal transmission system to which the present invention can be applied, FIG. 2 is a block diagram showing a configuration of a reception side, and FIG. FIG. 4 is a schematic diagram used for explaining a sub-sampling, and FIGS. 5, 6, and 7 are block diagrams showing an example of a blocking circuit. FIG. 8 is a block diagram of an example of a dynamic range detection circuit, FIG. 9 is a block diagram of an example of a quantization circuit, FIG.
FIG. 11 and FIG. 11 are schematic diagrams used to explain one example of quantization and other examples, and FIG. 12 is a schematic diagram used to explain an interpolation circuit to which the present invention is applied. Explanation of main reference numerals in the drawing 1: input terminal of color video signal, 4: blocking circuit, 5:
Dynamic range detection circuit, 7: subtraction circuit, 8: quantization circuit, 13: decoding circuit, 15: block decomposition circuit, 16: interpolation circuit.

Claims (1)

(57)【特許請求の範囲】 1.実在する入力画像データと対応する画素間の所定の
画素の画像データを上記実在する入力画像データによっ
て補間生成するためのディジタル画像信号の補間装置に
おいて、 上記実在する入力画像データを受け取り、上記所定の画
素の周辺位置に存在する所定数の実在する画素データを
抽出する手段と、 係数を求めるための画素データを用いて、補間値と真値
との誤差の自乗和が最小となるように最小自乗法により
予め定められた所定数の係数と、上記抽出された上記所
定数の実在する画素データとの線形1次結合により、上
記所定の画素の画素データを補間生成する手段と からなることを特徴とするディジタル画像信号の補間装
置。
(57) [Claims] A digital image signal interpolating device for interpolating and generating image data of a predetermined pixel between the actual input image data and the corresponding pixel by the actual input image data, receiving the actual input image data, Means for extracting a predetermined number of existing pixel data existing at the peripheral position of the pixel, and pixel data for calculating a coefficient, so as to minimize the sum of squares of the error between the interpolated value and the true value. Means for interpolating and generating the pixel data of the predetermined pixel by a linear linear combination of a predetermined number of coefficients predetermined by a multiplication method and the extracted predetermined number of existing pixel data. Interpolating device for digital image signals.
JP18249386A 1986-08-02 1986-08-02 Digital image signal interpolation device Expired - Lifetime JP2825482B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18249386A JP2825482B2 (en) 1986-08-02 1986-08-02 Digital image signal interpolation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18249386A JP2825482B2 (en) 1986-08-02 1986-08-02 Digital image signal interpolation device

Publications (2)

Publication Number Publication Date
JPS6338381A JPS6338381A (en) 1988-02-18
JP2825482B2 true JP2825482B2 (en) 1998-11-18

Family

ID=16119249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18249386A Expired - Lifetime JP2825482B2 (en) 1986-08-02 1986-08-02 Digital image signal interpolation device

Country Status (1)

Country Link
JP (1) JP2825482B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012153726A1 (en) 2011-05-11 2012-11-15 アイキューブド研究所株式会社 Image processing device, image processing method, and recording medium that has recorded program
WO2013005518A1 (en) 2011-07-06 2013-01-10 アイキューブド研究所株式会社 Image output device, image output method, and program
WO2013021880A1 (en) 2011-08-08 2013-02-14 アイキューブド研究所株式会社 Content processing device, content processing method, and recording medium
WO2013061810A1 (en) 2011-10-26 2013-05-02 アイキューブド研究所株式会社 Image processing device, image processing method, and recording medium
KR20140035373A (en) 2011-05-11 2014-03-21 아이큐브드 연구소 주식회사 Image processing device, image processing method, and recording medium that has recorded program
WO2014126032A1 (en) 2013-02-12 2014-08-21 アイキューブド研究所株式会社 Image processing device, image processing method, and recording medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2841452B2 (en) * 1989-04-14 1998-12-24 ソニー株式会社 Image transmission apparatus and image transmission method
JP3438233B2 (en) * 1992-05-22 2003-08-18 ソニー株式会社 Image conversion apparatus and method
JP4872731B2 (en) * 2007-03-16 2012-02-08 トヨタ車体株式会社 Mounting structure of switch device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吹抜敬彦"画像のディジタル信号処理"(昭58−7−15)日刊工業新聞社発行 P.159−164

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9639936B2 (en) 2011-05-11 2017-05-02 I-Cubed Reserach Center Inc. Image processing apparatus, image processing method, and storage medium in which program is stored for enhancing an image via super-resolution
WO2012153726A1 (en) 2011-05-11 2012-11-15 アイキューブド研究所株式会社 Image processing device, image processing method, and recording medium that has recorded program
KR20140035372A (en) 2011-05-11 2014-03-21 아이큐브드 연구소 주식회사 Image processing device, image processing method, and recording medium that has recorded program
KR20140035373A (en) 2011-05-11 2014-03-21 아이큐브드 연구소 주식회사 Image processing device, image processing method, and recording medium that has recorded program
US9071719B2 (en) 2011-05-11 2015-06-30 I-Cubed Research Center Inc. Image processing apparatus with a look-up table and a mapping unit, image processing method using a look-up table and a mapping unit, and storage medium in which program using a look-up table and a mapping unit is stored
US9826194B2 (en) 2011-05-11 2017-11-21 I-Cubed Research Center Inc. Image processing apparatus with a look-up table and a mapping unit, image processing method using a look-up table and a mapping unit, and storage medium in which program using a look-up table and a mapping unit is stored
WO2013005518A1 (en) 2011-07-06 2013-01-10 アイキューブド研究所株式会社 Image output device, image output method, and program
US9875521B2 (en) 2011-07-06 2018-01-23 I-Cubed Research Center Inc. Image output apparatus, image output method, and program
WO2013021880A1 (en) 2011-08-08 2013-02-14 アイキューブド研究所株式会社 Content processing device, content processing method, and recording medium
US9628672B2 (en) 2011-08-08 2017-04-18 I-Cubed Research Center Inc. Content processing apparatus, content processing method, and storage medium
WO2013061810A1 (en) 2011-10-26 2013-05-02 アイキューブド研究所株式会社 Image processing device, image processing method, and recording medium
US9836812B2 (en) 2011-10-26 2017-12-05 I-Cubed Research Center Inc. Image processing apparatus, method, and medium to apply a restrictive condition
US9672650B2 (en) 2013-02-12 2017-06-06 I-Cubed Research Center Inc. Image processing apparatus, image processing method, and storage medium
KR20150116826A (en) 2013-02-12 2015-10-16 아이큐브드 연구소 주식회사 Image processing device, image processing method, and recording medium
WO2014126032A1 (en) 2013-02-12 2014-08-21 アイキューブド研究所株式会社 Image processing device, image processing method, and recording medium

Also Published As

Publication number Publication date
JPS6338381A (en) 1988-02-18

Similar Documents

Publication Publication Date Title
EP0294958A2 (en) Motion compensated interpolation of digital television images
WO1991001613A1 (en) A compression method and apparatus for single-sensor color imaging systems
JPS63313980A (en) Evaluation method for moving vector of television picture
JPH1175181A (en) Converter and conversion method for digital image signal
JP2825482B2 (en) Digital image signal interpolation device
JP3072306B2 (en) Digital video signal conversion device and conversion method
KR101098300B1 (en) Spatial signal conversion
JPS6348088A (en) Interpolation circuit for digital image signal
GB2237952A (en) Motion detection system for video processing system
JP2550532B2 (en) High-efficiency encoder for color video signal
EP0390471B1 (en) Predictive coding device
JP2508509B2 (en) Digital color-video signal interpolation circuit
JP3867697B2 (en) Image signal generation apparatus and generation method
JPS6370682A (en) High efficiency coding device for component signal
JP2561070B2 (en) Filter device for adaptive subsample
JPH0746589A (en) Digital image signal processor
JP2585217B2 (en) Filter device for adaptive subsample
JP3746305B2 (en) Image signal generating apparatus and method, and digital image signal processing apparatus and method
JP3831960B2 (en) Interpolation apparatus and interpolation method for compressed high resolution video signal
JP2585219B2 (en) Filter device for adaptive subsample
JPH07123309B2 (en) Digital color-video signal interpolation circuit
JP2585218B2 (en) Filter device for adaptive subsample
JP3004335B2 (en) Noise reduction device
JP3083143B6 (en) Image signal recording device
JPH03114378A (en) Image pickup device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term