JP2009515384A - フィールドベースのビデオに対する動き補償により支援された空間−時間デインターレーシングのための方法および装置 - Google Patents

フィールドベースのビデオに対する動き補償により支援された空間−時間デインターレーシングのための方法および装置 Download PDF

Info

Publication number
JP2009515384A
JP2009515384A JP2008536742A JP2008536742A JP2009515384A JP 2009515384 A JP2009515384 A JP 2009515384A JP 2008536742 A JP2008536742 A JP 2008536742A JP 2008536742 A JP2008536742 A JP 2008536742A JP 2009515384 A JP2009515384 A JP 2009515384A
Authority
JP
Japan
Prior art keywords
frame
motion
information
generating
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008536742A
Other languages
English (en)
Inventor
ティアン、タオ
シ、ファン
ラビーンドラン、ビジャヤラクシュミ・アール.
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2009515384A publication Critical patent/JP2009515384A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本発明は、マルチメディアデータを処理して、インターレースされたフレームデータからプログレッシブフレームデータを発生させる装置および方法を含む。1つの観点において、マルチメディアデータを処理する方法は、インターレースされたマルチメディアデータの、選択されたフレームに対して空間−時間情報を発生させることと、選択されたフレームに対して動き情報を発生させることと、空間−時間情報と、動き情報とに基づいて、選択されたフレームのフィールドをデインターレースして、選択されたフレームに関係付けられたプログレッシブフレームを形成することとを含む。
【選択図】 図5

Description

合衆国法典第35部第119条に基づく優先権の主張
特許に対する本出願は、(1)2005年10月17日に出願された“フィールドベースのビデオに対する動き補償により支援された空間−時間デインターレーシングのための方法および装置”と題する仮出願第60/727,643号、および(2)2006年4月3日に出願された“フィールドベースのマルチメディアデータに対する動き補償により支援された空間−時間デインターレーシング”と題する仮出願第60/789,048号に対する優先権を主張する。
分野
本発明は、一般には、マルチメディアデータ処理に向けられており、より詳細には、空間−時間、および動き補償処理に基づいて、マルチメディアデータをデインターレースすることに向けられている。
背景
デインターレーシングは、インターレースされたビデオ(フィールドのシーケンス)をインターレースされていないプログレッシブフレーム(フレームのシーケンス)に変換するプロセスを指す。マルチメディアデータのデインターレーシング処理(単に“デインターレーシング”として、時としてここで呼ばれる)では、“欠落”データを発生させる、対応する第1および第2のインターレースされたフィールドおよび/または時間的に近接したインターレースされたフィールド、間の補間を、プログレッシブフレームを生成するために必要とするかもしれないことから、マルチメディアデータのデインターレーシング処理は、少なくともいくつかの画像劣化を生ずる。通常、デインターレーシングプロセスは、さまざまな線形補間技術を使用し、高速の処理スピードを達成するために、比較的計算的に簡単であるように設計されている。
インターレースされたマルチメディアデータをプログレッシブフレームの表示デバイス(例えば、セル電話機、コンピュータ、PDA)に転送することに対する要求の増加は、デインターレーシングの重要性も増加させている。デインターレーシングに対する1つの課題は、フィールドベースのビデオ信号は通常、サンプリング定理の要求を満たさないことである。連続時間ベースバンド信号のサンプルから連続時間ベースバンド信号の正確な再構成は、信号が帯域限定されており、かつ、サンプリング周波数が、信号の帯域幅の2倍より大きい場合に可能であることを、サンプリング定理は示している。サンプリング条件が満たされない場合、周波数はオーバーラップし、結果として生じる歪みは、エイリアシングと呼ばれている。いくつかのTV放送において、エイリアシングの状態を除去できる、サンプリング前に先立ってフィルタリングするシステムは、存在しない。BOB(垂直イントラフレーム補間)、ウィーブ(時間的インターフレーム補間)および線形VT(垂直および時間的)フィルタを含む、通常のデインターレーシング技術もまた、エイリアシングの影響を克服しない。空間的に、これらの線形フィルタは、滑らかな領域と同じ方法で画像のエッジを取り扱う。したがって、結果として生じる画像は、ぼんやりしたエッジを欠点として持つ。時間的に、これらの線形フィルタは、動き情報を利用せず、結果として生じる画像は、オリジナルのフィールドとリカバーされたフィールドとの間の滑らかでない移行のために、高いエイリアスレベルを欠点として持つ。線形フィルタの低い性能にもかかわらず、計算の複雑性が少ないために、線形フィルタは依然として広く使用されている。したがって、改良されたデインターレーシング方法およびシステムに対する必要があることを、出願者は提起する。
概要
ここで記述する発明の装置および方法のそれぞれは、いくつかの観点を有し、それらの観点のどの1つも、その望ましい属性に対して単独で役割を果たすものではない。本発明の範囲を限定することなく、本発明のより顕著な特徴をこれから簡潔に論じる。この記述を考慮した後、特に“詳細な説明”と題する段落を読んだ後、マルチメディアデータを処理する装置および方法に対して、本発明の特徴がいかに改良をもたらすかを理解するだろう。
1つの観点において、マルチメディアデータを処理する方法は、インターレースされたマルチメディアデータの、選択されたフレームに対して空間−時間情報を発生させることと、選択されたフレームに対して動き補償情報を発生させることと、空間−時間情報と動き補償情報とに基づいて、選択されたフレームのフィールドをデインターレースして、選択されたフレームに関係付けられたプログレッシブフレームを形成することとを含む。空間−時間情報を発生させることは、重み付けされたメディアンフィルタを使用して、インターレースされたマルチメディアデータを処理することと、空間−時間の仮のデインターレースされたフレームを発生させることとを含むことができる。選択されたフレームのフィールドをデインターレースすることは、空間−時間の仮のデインターレースされたフレームと、動き補償された仮のデインターレースされたフレームとを結合して、プログレッシブフレームを形成することをさらに含むことができる。動きベクトル候補(ここでは“動き推定器”としても呼ばれる”)を使用して、動き補償情報を発生させることができる。動き補償情報は、双方向の動き情報とすることができる。いくつかの観点において、動きベクトル候補が受け取られて使用され、動き補償情報を発生させる。ある観点において、フレーム中のブロックに対する動きベクトル候補は、隣接するブロックの動きベクトル候補から決定される。空間−時間情報を発生させることは、少なくとも1つの動き強度マップを発生させることを含むことができる。ある観点において、動き強度マップは、3つ以上の異なる動きレベルを分類する。動き強度マップを使用して、選択されたフレームの領域を異なる動きレベルに分類できる。動き強度マップに基づいて、仮のデインターレースされたフレームを発生させることができ、動き強度マップに基づいて仮のデインターレースされたフレームを発生させるために、さまざまな基準のWmedフィルタリングを使用できる。いくつかの観点において、デノイジングフィルタ、例えば、ウェーブレット縮退フィルタまたはウィナーが、仮のフレームからノイズを除去するために使用される。
別の観点において、マルチメディアデータを処理する装置は、インターレースされたマルチメディアデータの、選択されたフレームの空間−時間情報を発生させるように構成されたフィルタモジュールと、選択されたフレームに対して双方向の動き情報を発生させるように構成された動き推定器と、空間−時間情報と動き情報とを使用して、選択されたフレームに対応するプログレッシブフレームを形成するように構成された結合器とを含む。空間−時間情報は、空間−時間の仮のデインターレースされたフレームを含むことができ、動き情報は、動き補償された仮のデインターレースされたフレームを含むことができ、そして結合器は、空間−時間の仮のデインターレースされたフレームと、動き補償された仮のデインターレースされたフレームとを結合することにより、プログレッシブフレームを形成するように構成されている。
別の観点において、マルチメディアデータを処理する装置は、インターレースされたマルチメディアデータの、選択されたフレームに対して空間−時間情報を発生させる手段と、選択されたフレームに対して動き情報を発生させる手段と、空間−時間情報と動き情報とに基づいて、選択されたフレームのフィールドをデインターレースして、選択されたフレームに関係付けられたプログレッシブフレームを形成する手段とを含む。デインターレースする手段は、空間−時間の仮のデインターレースされたフレームと、動き補償された仮のデインターレースされたフレームとを結合して、プログレッシブフレームを形成する手段を含むことができる。さらに一般的に、空間−時間情報と動き情報とを結合することにより、プログレッシブフレームを形成するように、結合する手段を構成できる。選択されたフレームの動き強度マップを発生させ、動き強度マップを使用して空間−時間の仮のデインターレースされたフレームを発生させるように、空間−時間情報を発生させる手段を構成できる。いくつかの観点において、空間−時間情報を発生させる手段は、少なくとも1つの動き強度マップを発生させ、動き強度マップに基づいて、仮のデインターレースされたフレームを発生させるように構成されている。
別の観点において、機械読み取り可能媒体は、実行時に、機械に、インターレースされたマルチメディアデータの、選択されたフレームに対して空間−時間情報を発生させ、選択されたフレームに対して双方向の動き情報を発生させ、空間−時間情報と動き情報とに基づいて、フレームのフィールドをデインターレースして、選択されたフレームに対応するプログレッシブフレームを形成させる命令を含んでいる。ここで開示するように、“機械読み取り可能媒体”は、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイスおよび/または情報を記憶する他の機械読み取り可能媒体を含む、データを記憶する1つ以上のデバイスを表すことができる。用語“機械読み取り可能媒体”は、命令および/またはデータを記憶し、含み、または搬送できる、ポータブルまたは固定の、記憶デバイス、光学記憶デバイス、ワイヤレスチャネルおよびさまざまな他の媒体を含むが、これらに限定されない。
別の観点において、マルチメディアデータを処理するプロセッサは、インターレースされたマルチメディアデータの、選択されたフレームの空間−時間情報を発生させ、選択されたフレームに対して動き情報を発生させ、空間−時間情報と動き情報とに基づいて、選択されたフレームのフィールドをデインターレースして、選択されたフレームに関係付けられたプログレッシブフレームを形成する構成を含む。
詳細な説明
以下の説明において、記述した観点の完全な理解を提供するために、特定の詳細な説明を与える。しかしながら、これらの特定の詳細な説明なく、観点を実施できることが当業者に理解されるだろう。例えば、不必要な詳細な説明で観点を不明瞭にしないために、回路はブロック図で示されているかもしれない。他の例において、観点を不明瞭にしないように、よく知られている回路、構造および技術は詳細に示されているかもしれない。
単独で、または組み合わせて使用してデインターレーシングの性能を向上させることができる、システムおよび方法のための、あるデインターレーシングの発明の観点をここで記述する。このような観点は、空間−時間フィルタリングを使用して、選択されたフレームをデインターレーシングして、第1の仮のデインターレースされたフレームを決定することと、双方向の動き推定および動き補償を使用して、選択されたフレームから第2の仮のデインターレースされたフレームを決定することと、第1および第2の仮のフレームを結合して、最終的なプログレッシブフレームを形成することを含むことができる。空間−時間フィルタリングは、重み付けられたメディアンフィルタ(“Wmed”)フィルタを使用でき、Wmedフィルタは、水平のまたはほぼ水平のエッジがぼけることを防止する水平エッジ検出器を含むことができる。“現在の”フィールドに対して、前および後の隣接するフィールドの空間−時間フィルタリングは、選択されたフレームの部分を異なる動きレベル、例えば、静止、スローモーションおよびファーストモーションに分類する強度動きレベルマップを生成する。
いくつかの観点において、5つの隣接するフィールド(2つの前のフィールド、現在のフィールドおよび2つの次のフィールド)からの画素を含むフィルタリングアパーチャを使用するWmedフィルタリングにより、強度マップが生成される。Wmedフィルタリングは、シーン変化ならびにオブジェクトの出現および消失を効果的に取り扱うことができる、前方向、後方向および双方向の静止エリア検出を決定できる。さまざまな観点において、インターフィールドフィルタリングモードにおいて、Wmedフィルタを同一のパリティの1つ以上のフィールドにわたって利用することができ、しきい値基準を微調整することにより、イントラフィールドフィルタリングモードに切り換えることができる。いくつかの観点において、動き推定および補償は、ルーマ(画素の強度または輝度)およびクロマデータ(画素の色情報)を使用して、輝度レベルはほとんど均一であるが、色が異なっている選択されたフレームの領域をデインターレースすることを改善させる。デノイジングフィルタを使用して、動き推定の正確さを高めることができる。デノイジングフィルタをWmedの仮のデインターレースされたフレームに適用して、Wmedフィルタリングにより発生したエイリアスアーティファクトを除去できる。ここで記述するデインターレーシングの方法およびシステムは、良好なデインターレーシングの結果を生じさせ、計算の複雑性が比較的低く、これは高速で実行するデインターレーシングの実現を可能にし、セル電話機、コンピュータおよびディスプレイを利用する他のタイプの電子または通信デバイスに対してデータを提供するために使用されるシステムを含む、幅広いさまざまなデインターレーシングアプリケーションに対して、このような実現を適したものにする。
ここでの、“1つの観点”、“観点”、“いくつかの観点”または“ある観点”に対する言及は、観点に関連して記述した、特定の、特徴、構造または特性のうちの1つ以上を、少なくとも1つの観点中に含めることができることを意味する。明細書中のさまざまな箇所におけるこのようなフレーズの登場は、必ずしもすべてが同一の観点に言及するわけではなく、他の観点を相互に含まない別個または代替えの観点でもない。さらに、さまざまな特徴を記述するが、それらは、いくつかの観点により示され、他の観点によっては示されないかもしれない。同様に、さまざまな要求を記述するが、それらは、いくつかの観点に対する要求であって、他の観点に対する要求ではないかもしれない。
ここで使用される“デインターレーサ”は、全体においてまたは重要な部分において、インターレースされたマルチメディアデータを処理して、プログレッシブマルチメディアデータを形成する、(例えば、プロセスを実行するように構成された、ソフトウェア、ファームウェアまたはハードウェアを含む)デインターレーシングシステム、デバイスまたはプロセスを記述するために使用できる広い用語である。
ここで使用される“マルチメディアデータ”は、ビデオデータ(オーディオデータを含むことができる)、オーディオデータ、またはビデオデータとオーディオデータとの両方を含む広い用語である。特にことわらない限り、テキストまたは画像情報ならびに/あるいはオーディオデータを含んでいる画像のシーケンスに言及する、広い用語としてここで使用される“ビデオデータ”または“ビデオ”を、マルチメディアデータに言及するために使用することができ、またはそれらの用語を区別なく使用してもよい。
図1は、ストリーミングまたは他のタイプのマルチメディアを配信する通信システム10のブロック図である。図1で示す非常に多数の端末に対するデジタル圧縮ビデオの送信において、本技術は応用を見い出す。デジタルビデオ源は、例えば、デジタルケーブル供給、またはデジタル化されるアナログの高い信号/比の源とすることができる。ビデオ源は、送信機構12中で処理され、ネットワーク14を通して端末16に送信するために搬送波上に変調される。ネットワーク14は、データの送信に適した、任意のタイプのネットワーク、ワイヤードまたはワイヤレスとすることができる。例えば、ネットワークは、セル電話ネットワーク、ローカルエリアまたはワイドエリアネットワーク(ワイヤードまたはワイヤレス)、またはインターネットとすることができる。端末16は、セル電話機、PDAおよびパーソナルコンピュータを含むが、これらに限定されない任意のタイプの通信デバイスとすることができる。
ビデオカメラ、放送スタジオ等において通常発生される放送ビデオは、合衆国におけるNTSC規格に準拠する。ビデオを圧縮する共通の方法は、それをインターレースすることである。インターレースされたデータにおいて、それぞれのフレームは、2つのフィールドのうちの1つから構成される。一方のフィールドは、フレームの奇数番の線からなり、他方のフィールドは、偶数番の線からなる。フレームがおよそ30フレーム/秒で発生される一方で、フィールドは、1/60秒離れたテレビカメラの画像の記録である。インターレースされたビデオ信号のそれぞれのフレームは、画像の一行おきの他の水平線を示す。フレームがスクリーンに投影されるとき、ビデオ信号は、偶数番の線と奇数番の線とを示すものに交互に代わる。これが十分高速、例えば、1秒間に約60フレームで実行されるとき、ビデオ画像は、人間の目に対して滑らかに見える。
インターレーシングは、NTSC(米国)およびPAL(欧州)のフォーマットに基づいているアナログテレビジョン放送において、何十年もの間使用されている。画像の半分だけが、それぞれのフレームに対して送信されるので、インターレースされたビデオは、ピクチャ全体を送信する場合の、およそ半分の帯域幅を使用する。端末16内部のビデオの最終的な表示フォーマットは、必ずしもNTSCと互換性がなく、インターレースされたデータを容易に表示できない。代わりに、最近の画素ベースのディスプレイ(例えば、LCD、DLP、LCOS、プラズマ等)は、プログレッシブ走査であり、(多くの古いビデオデバイスが、古いインターレース走査技術を使用するのに対して)プログレッシブに走査されたビデオ源を必要とする。いくつかの一般に使用されるデインターレーシングアルゴリズムの例は、P.ハビスト氏、J.ジュホーラ氏、およびY.ヌーボ氏による1990年の、HDTV IIの信号処理の703−710頁における“適応重み付けメディアンフィルタリングを使用する走査レートアップ変換”、およびR.シモネッティ氏、S.カラート氏、およびA.ポロフィリサン氏による1993年の、HDTV IVの信号処理の765−772頁における“マルチメディアアプリケーションのためのHDTV画像のデインターレーシング”中に記述されている。
図2は、マルチメディアデータをデインターレースするために使用されるデジタル送信機構12のいくつかのコンポーネントを図示する。送信機構12は、インターレースされたマルチメディアデータの情報源と通信する受信機20を含む。示すように、情報源は外部のものとすることができ、または送信機構12内部の情報源からのものとすることができる。1つの送信フォーマットの、インターレースされたマルチメディアデータを受信し、それをさらなる処理のために容易に使用できるフォーマットに変換するように、受信機20を構成できる。受信機20は、インターレースされたマルチメディアデータをデインターレーサ22に提供し、デインターレーサ22は、インターレースされたデータを補間し、プログレッシブビデオフレームを発生させる。デインターレーサおよびデインターレースする方法の観点は、マルチメディアデータをデインターレースするために使用される、さまざまなコンポーネント、モジュールおよび/またはステップに関連してここで記述する。
図3Aは、デインターレーサ22の1つの観点を図示するブロック図である。デインターレーサ22は、インターレースされたデータの一部分を少なくとも空間的および時間的に(“空間−時間”)フィルタリングし、空間−時間情報を発生させる空間フィルタ30を含む。例えば、Wmedを空間フィルタ30において使用できる。いくつかの観点において、デインターレーサ22はまた、(示していない)デノイジングフィルタ、例えば、ウィナーフィルタまたはウェーブレット縮退フィルタを含む。デインターレーサ22はまた、動き推定器32を含み、動き推定器32は、インターレースされたデータの、選択されたフレームの動き推定および補償を提供し、動き情報を発生させる。デインターレーサ22中の結合器34は、空間−時間情報と動き情報とを受け取って結合し、プログレッシブフレームを形成する。
図3Bは、デインターレーサ22の別のブロック図である。デインターレーサ22中のプロセッサ36は、空間フィルタモジュール38、動き推定器モジュール40および結合器モジュール42を含む。外部源48からのインターレースされたマルチメディアデータをデインターレーサ22中の通信モジュール44に提供できる。デインターレーサ、およびそれについてのコンポーネントまたはステップを、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらについての任意の組み合わせにより実現できる。例えば、デインターレーサは、スタンドアローンコンポーネントであってもよく、別のデバイスのコンポーネント中にハードウェア、ファームウェア、ミドルウェアとして組み込まれていてもよく、または、プロセッサまたはそれらの組み合わせ上で実行される、マイクロコードまたはソフトウェア中で実現されていてもよい。ソフトウェア、ファームウェア、ミドルウェアまたはマイクロコード中で実現されるとき、デインターレーサのタスクを実行するプログラムコードまたはコードセグメントは、記憶媒体のような機械読み取り可能媒体中に記憶されていてもよい。コードセグメントは、手続き、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス、あるいは命令、データ構造、またはプログラムステートメント、の任意の組み合わせを表してもよい。情報、データ、引き数、パラメータまたはメモリコンテンツを、渡すおよび/または受け取ることにより、コードセグメントは、別のコードセグメントまたはハードウェア回路に結合されていてもよい。
受信したインターレースされたデータを、デインターレーサ22の記憶媒体46中に記憶させることができ、記憶媒体46は、例えば、プロセッサ36に接続された、チップで構成された記憶媒体(例えば、ROM、RAM)またはディスクタイプの記憶媒体(例えば、磁気または光)を含むことができる。いくつかの観点において、プロセッサ36は、記憶媒体の一部またはすべてを含むことができる。プロセッサ36は、インターレースされたマルチメディアデータを処理して、別のデバイスまたはプロセスに提供されるプログレッシブフレームを形成するように構成されている。
図3Cは、別のデインターレーシング装置31を図示するブロック図である。デインターレーシング装置31は、空間−時間情報を発生させるモジュール33のような、空間−時間情報を発生させる手段を含む。デインターレーシング装置はまた、動き情報を発生させるモジュール35のような、動き情報を発生させる手段を含む。いくつかの観点において、動き情報は、双方向の動き情報である。デインターレーシング装置31はまた、選択されたフレームのフィールドをデインターレースするモジュール37のような、デインターレースする手段を含み、デインターレースする手段は、空間−時間情報と動き情報とに基づいて処理されている選択されたフレームに関係付けられたプログレッシブフレームを生成する。図3C中で図示したモジュールの構成に組み込むことができるプロセスを、例えば、図5におけるプロセスを含めて、この出願全体を通して記述する。
空間−時間デインターレーサの例示的な観点
上述したように、テレビジョンのような通常のアナログビデオデバイスは、インターレースされた方法でビデオを表現する。すなわち、このようなデバイスは、偶数の番号が付けられた走査線(偶数フィールド)と、奇数の番号が付けられた走査線(奇数フィールド)とを送信する。信号サンプリングの視点から、これは、次の式により記述されるパターンにおける空間−時間サブサンプリングに等しい。
Figure 2009515384
ここでΘは、オリジナルフレームのピクチャを表し、Fは、インターレースされたフィールドを表し、(x,y,n)は、それぞれ画素の、水平、垂直および時間の位置を表す。
一般性を失うことなく、この開示全体を通して、n=0は偶数フィールドであると仮定でき、それにより上の式(1)は次のように単純化される。
Figure 2009515384
デシメーションは、水平の次元では行われないため、サブサンプリングパターンを次のn〜y座標で描写できる。図4において、円および星の両方は、オリジナルのフルフレームのピクチャがサンプルの画素を有する位置を表す。インターレーシングプロセスは、星の画素をデシメートする一方で、円の画素をそのままにしておく。我々は、垂直の位置をゼロから開始するようにインデックス付けしたので、偶数フィールドがトップフィールドであり、奇数フィールドがボトムフィールドであることに注意すべきである。
デインターレーサの目標は、インターレースされたビデオ(フィールドのシーケンス)をインターレースされていないプログレッシブフレーム(フレームのシーケンス)に変換することである。言い換えれば、偶数および奇数フィールドを補間して、フルフレームのピクチャを“リカバー”すなわち発生させることである。このことを式3により表すことができる。
Figure 2009515384
ここでFiは、欠落画素に対するデインターレーシングの結果を表す。
図5は、Wmedフィルタリングと動き推定とを使用して、インターレースされたマルチメディアデータからプログレッシブフレームを発生させるデインターレーサ22の1つの観点のある観点を図示するブロック図である。図5の上部は、現在のフィールド、2つの前のフィールド(PPフィールドおよびPフィールド)および2つの後のフィールド(次のフィールドおよび次の次のフィールド)からの情報を使用して発生できる動き強度マップ52を示す。動き強度マップ52は、現在のフレームを2つ以上の異なる動きレベルに分類または分割し、以下でさらに詳細に記述する空間−時間フィルタリングにより発生できる。いくつかの観点において、動き強度マップ52は、以下で式4−8に関連して記述するように、静止エリア、スローモーションエリアおよびファーストモーションエリアを識別するために発生させられる。空間−時間フィルタ、例えば、Wmedフィルタ54は、動き強度マップに基づく基準を使用して、インターレースされたマルチメディアデータをフィルタリングし、空間−時間の仮のデインターレースされたフレームを生成する。いくつかの観点において、Wmedフィルタリングプロセスは、[−1,1]の水平近隣、[−3,3]の垂直近隣、および5つの近接したフィールドの時間的近隣を必要とし、5つの近接したフィールドの時間的近隣は、図5中で図示した5つのフィールド(PPフィールド、Pフィールド、現在のフィールド、次のフィールド、次の次のフィールド)により表され、Z-1は1つのフィールドの遅延を表す。現在のフィールドに関して、次のフィールドおよびPフィールドは、非パリティフィールドであり、PPフィールドおよび次の次のフィールドはパリティフィールドである。空間−時間フィルタリングに対して使用される“近隣”は、フィルタリング動作の間に実際に使用されるフィールドおよび画素の、空間的および時間的な位置を指し、例えば、図6および7中で示す“アパーチャ”として図示できる。
デインターレーサ22はまた、デノイザ(デノイジングフィルタ)56を含むことができる。デノイザ56は、Wmedフィルタ56により発生した空間−時間の仮のデインターレースされたフレームをフィルタリングするように構成されている。空間−時間の仮のデインターレースされたフレームをデノイズすることは、特に情報源のインターレースされたマルチメディアデータシーケンスがホワイトノイズにより汚されている場合に、後の動きサーチプロセスをより正確にさせる。空間−時間の仮のデインターレースされたフレームをデノイズすることにより、Wmedピクチャ中の偶数番と奇数番との行の間のエイリアスを少なくとも部分的に除去することもできる。また以下でさらに記述するウェーブレット縮退およびウェーブレットウィナーフィルタベースのデノイザを含むさまざまなフィルタとして、デノイザ56を実現できる。
図5の下部は、インターレースされたマルチメディアデータの動き情報(例えば、動きベクトル候補、動き推定、動き補償)を決定する観点を図示する。特に、図5は、選択されたフレームの動き補償された仮のプログレッシブフレームを発生させるために使用される動き推定および動き補償スキームを図示し、動き補償された仮のプログレッシブフレームは、Wmedの仮フレームと結合されて、デインターレースされた現在のフレーム64として示した、結果として生じる“最終”プログレッシブフレームを形成する。いくつかの観点において、インターレースされたマルチメディアデータの動きベクトル(“MV”)候補(または推定)は、外部の動き推定器からデインターレーサに提供され、双方向動き推定器および補償器(“ME/MC”)68に対して開始ポイントを提供するために使用される。いくつかの観点において、MV候補選択器72は、前の、処理されたブロック、例えば、デインターレースされた前のフレーム70におけるブロックのMVのような、隣接するブロックに対して以前に決定されたMVを、処理されているブロックのMV候補として使用する。前のデインターレースされたフレーム70および次の(例えば、未来の)Wmedフレーム58に基づいて、双方向として動き補償を実施できる。現在のWmedフレーム60と動き補償された(“MC”)現在のフレーム66は、結合器62により、組み合わされるすなわち結合される。結果として生じるデインターレースされた現在のフレーム64、現在のプログレッシブフレームは、デインターレースされた前のフレーム70として使用されるために、戻ってME/MC68に提供され、また、さらなる処理、例えば、圧縮およびディスプレイ端末に対する送信のためにデインターレーサの外部に通信される。図5中で示したさまざまな観点を以下でより詳細に記述する。
図10は、マルチメディアデータを処理して、インターレースされたフレームのシーケンスからプログレッシブフレームのシーケンスを生成するプロセス80を図示する。1つの観点において、プログレッシブフレームは、図5中で図示したデインターレーサにより生成される。ブロック82において、プロセス80(プロセス“A”)は、選択されたフレームに対して空間−時間情報を発生させる。空間−時間情報は、マルチメディアデータの動きレベルを分類して、動き強度マップを発生させるために使用される情報を含むことができ、Wmedの仮のデインターレースされたフレームと、フレームを発生させるために使用される情報(例えば、式4−11において使用される情報)とを含む。図5の上部中で図示したような、Wmedフィルタ54により、このプロセスを実行することができ、このプロセスに関係付けられる処理を、以下でさらに詳細に記述する。図11中で図示したプロセスAにおいて、以下でさらに記述するように、ブロック92中で、領域は、異なる動きレベルのフィールドに分類される。
次に、ブロック84(プロセス“B”)において、プロセス80は、選択されたフレームに対して動き補償情報を発生させる。1つの観点において、図5の下部において図示した、双方向の、動き推定器/動き補償器68が、このプロセスを実行できる。プロセス80は次にブロック86に進み、ここでは、空間−時間情報と、動き補償情報とに基づいて、選択されたフレームのフィールドをデインターレースして、選択されたフレームに関係付けられたプログレッシブフレームを形成する。図5の下部において図示した結合器62により、このことを実行できる。
動き強度マップ
それぞれのフレームに対して、現在のフィールド中の画素を処理して異なる“動き”のエリアを決定することにより、動き強度マップ52を決定できる。図6−9に関連して、3つのカテゴリの動き強度マップを決定する例示的な観点を、以下で記述する。同一のパリティフィールドおよび異なるパリティフィールドにおける画素を比較することに基づいて、動き強度マップは、それぞれのフレームのエリアを、静止エリア、スローモーションエリアおよびファーストモーションエリアとして指定する。
静止エリア
動きマップの静止エリアを決定することは、近接したフィールドの近隣における画素を処理して、ある画素の輝度差が、ある基準を満たしているかどうかを決定することを含むことができる。いくつかの観点において、動きマップの静止エリアを決定することは、5つの近接したフィールド(現在のフィールド(C)、現在のフィールドより時間的に前の2つのフィールドおよび現在のフィールドより時間的に後の2つのフレーム)の近隣における画素を処理して、ある画素の輝度差が、あるしきい値を満たしているかどうかを決定することを含む。これらの5つのフィールドは、1つのフィールドの遅延を表すZ-1とともに、図5中で図示されている。言い換えれば、5つの近接は、Z-1の時間遅延を有するこのようなシーケンスで通常表示されるだろう。
図6は、いくつかの観点にしたがって、空間−時間フィルタリングのために使用できる、5つのフィールドのそれぞれのある画素を識別するアパーチャを図示する。アパーチャは、左から右に、前の前のフィールド(PP)、前のフィールド(P)、現在のフィールド(C)、次のフィールド(N)および次の次のフィールド(NN)、の3x3の画素グループを含む。いくつかの観点において、現在のフィールドのエリアが、式4−6において記述する基準を満たす場合、現在のフィールドのエリアは、動きマップにおいて静止であると考えられ、画素の位置および対応するフィールドは図6中に図示されている。
Figure 2009515384
ここでT1はしきい値であり、Lpは、Pフィールドに位置する画素Pの輝度であり、LNは、Nフィールドに位置する画素Nの輝度であり、LBは、現在のフィールドに位置する画素Bの輝度であり、LEは、現在のフィールドに位置する画素Eの輝度であり、LBPPは、PPフィールドに位置する画素Bppの輝度であり、LEPPは、PPフィールドに位置する画素Eppの輝度であり、LBNNは、NNフィールドに位置する画素BNNの輝度であり、LENNは、NNフィールドに位置する画素ENNの輝度である。
しきい値T1は、デインターレーシング以外のプロセスにより決定されて、(例えば、デインターレースされているビデオに対するメタデータとして)提供される、特定の値に予め定めて設定でき、または、しきい値T1はデインターレーシングの間にダイナミックに決定できる。
式4、5および6において上述した静止エリアの基準は、少なくとも2つの理由のために、通常のデインターレーシング技術より多くのフィールドを使用する。最初に、同一のパリティフィールド間での比較は、異なるパリティフィールド間での比較よりもより低いエイリアスおよび位相不整合を有する。しかしながら、処理されているフィールドと、その最も近接した同一パリティフィールドの近隣との間の最小時間差(したがって、相関)は、2フィールドであり、処理されているフィールドの、異なるパリティフィールドの近隣からの最小時間差よりも大きい。より信頼できる異なるパリティフィールドと、より低いエイリアスの同一パリティフィールドとの結合により、静止エリア検出の正確さを向上できる。
さらに、図6中で示すように、現在のフレームC中の画素Xを基準として、過去および未来において、5つのフィールドを対称に配置できる。静止エリアを3つのカテゴリ、前方向静止(前のフレームを基準として静止)、後方向静止(次のフレームを基準として静止)、または双方向(前方向および後方向の両方の基準が満たされる場合)にサブ分割できる。静止エリアのこの細かい分類は、シーン変更およびオブジェクトの出現/消失において特に性能を向上させることができる。
スローモーションエリア
ある画素の輝度値が静止エリアを指定するための適切な基準を満たさないが、スローモーションエリアを指定するための適切な基準を満たす場合、動きマップのエリアは、動きマップ中のスローモーションエリアであると考えることができる。以下の式7は、スローモーションエリアを決定するために使用できる基準を規定する。図7を参照すると、式7において識別される画素Ia、Ic、Ja、Jc、Ka、Kc、La、Lc、PおよびNの位置は、画素Xのまわりに集中したアパーチャ中に示されている。アパーチャは、現在のフィールド(C)の3x7画素近隣、次のフィールド(N)および前のフィールド(P)の3x5近隣を含む。画素Xが、静止エリアに対する上にリストした基準を満たさず、かつ、アパーチャ中の画素が式7において示す以下の基準を満たす場合には、画素Xは、スローモーションエリアの一部であると考えられる。
Figure 2009515384
ここでT2は、しきい値であり、LIa、LIc、LJa、LJc、LJa、LJc、LKa、LKc、LLa、LLc、LP、LNは、それぞれ、画素Ia、Ic、Ja、Jc、Ka、Kc、La、Lc、PおよびNに対する輝度値である。
しきい値T2は、デインターレーシング以外のプロセスにより決定されて、(例えば、デインターレースされているビデオに対するメタデータとして)提供される、特定の値に予め定めて設定でき、または、しきい値T2はデインターレーシングの間にダイナミックに決定できる。
フィルタのエッジ検出能力に関して、角度のために、フィルタは、水平(例えば、垂直に整列されたものから45°より大きい)であるエッジをぼんやりさせることがあることに留意すべきである。例えば、図7中に図示したアパーチャ(フィルタ)のエッジ検出能力は、画素“A”と“F”、または“C”と“D”により形成される角度により影響される。このような角度よりも水平である任意のエッジは、最適に補間されず、したがって、それらのエッジにおいて、階段アーティファクトが現れるかもしれない。いくつかの観点において、このエッジ検出の影響に対処するために、スローモーションカテゴリを2つのサブカテゴリ、“水平エッジ”および“その他の場合”に分割できる。以下で示す式8における基準が満たされる場合には、スローモーション画素を水平エッジとして分類でき、基準が満たされない場合には、スローモーション画素を、いわゆる“その他の場合”として分類できる。
Figure 2009515384
ここでT3は、しきい値であり、LA、LB、LC、LD、LEおよびLFは、画素A、B、C、D、EおよびFの輝度値である。
水平エッジおよびその他の場合のカテゴリのそれぞれに対して、異なる補間方法を使用できる。
ファーストモーションエリア
静止エリアに対する基準およびスローモーションエリアに対する基準が満たされない場合には、画素はファーストモーションエリアにあると考えることができる。
選択されたフレーム中の画素を分類すると、プロセスA(図11)はブロック94に進み、動き強度マップに基づいて、仮のデインターレースされたフレームを発生させる。この観点において、Wmedフィルタ54(図5)は、選択されたフィールドおよび適切な近接したフィールドをフィルタリングして、以下のように規定できる、候補のフルフレーム画像F0を提供する。
Figure 2009515384
ここで、αi(i=0、1、2、3)は以下のように計算される整数の重みである。
Figure 2009515384
Wmedフィルタリングされた仮のデインターレースされたフレームは、図5の下部において図示した、動き推定および動き補償処理に関連したさらなる処理のために提供される。
上述し、かつ、式9において示したように、静止補間は、インターフィールド補間を備え、スローモーションおよびファーストモーション補間は、イントラフィールド補間を備える。ある観点において、同一パリティフィールドの時間(例えば、インターフィールド)補間が望まれない場合、しきい値T1(式4−6)をゼロ(T1=0)に設定することにより、時間補間を“ディスエーブル”にすることができる。時間補間がディスエーブルにされた現在のフレームの処理は、動きレベルマップのどのエリアも静止として分類しない結果を生じさせ、Wmedフィルタ54(図5)は、図7中のアパーチャにおいて図示した3つのフィールドを必要とするかもしれず、これは、現在のフィールドおよび2つの近接した非パリティフィールドに動作する。
デノイジング
ある観点において、候補のWmedフレームが、動き補償情報を使用してさらに処理される前に、デノイザを使用して、候補のWmedフレームからノイズを除去できる。デノイザは、Wmedフレーム中に存在するノイズを除去し、信号の周波数コンテンツにかかわらずに存在する信号を保持できる。ウェーブレットフィルタを含む、さまざまなタイプのデノイジングフィルタを使用できる。ウェーブレットは、空間およびスケーリングドメインの両方における所定の信号をローカライズさせるために使用される関数のクラスである。ウェーブレットの背後にある基本概念は、ウェーブレット表現における小さい変化が、オリジナル信号において、対応して小さい変化を生成するように、異なるスケールまたは分解能で信号を分析することである。
いくつかの観点において、デノイジングフィルタは、(4,2)双直交キュービックB−スプラインウェーブレットフィルタの観点に基づいている。1つのこのようなフィルタを、次の順方向および逆方向の変換により規定できる。
Figure 2009515384
デノイジングフィルタの適用により、ノイズのある環境における動き補償の正確さを増加させることができる。ビデオシーケンス中のノイズは、加算性ホワイトガウスであると仮定される。ノイズの推定される分散は、
Figure 2009515384
により示される。それは、0.6745により割られる最高周波数副帯域係数の中央絶対偏差として、推定できる。このようなフィルタの実現は、D.L.ドノホ氏およびI.
M.ジョーンストーン氏による1994年のバイオメトリカ8巻、425−455頁における“ウェーブレット縮退による理想的な空間適応”中にさらに記述されており、それらは、参照によりその全体的がここに組み込まれている。
ウェーブレット縮退またはウェーブレットウィナーフィルタをデノイザとして適用することもできる。ウェーブレット縮退デノイジングは、ウェーブレット変換ドメインにおいて縮退することを含むことができ、通常、線形順方向ウェーブレット変換、非線形縮退デノイジングおよび線形逆ウェーブレット変換の3つのステップを含む。ウィナーフィルタは、付加的なノイズおよびぼやけることにより劣化した画像を改善するために使用できるMSE最適線形フィルタである。このようなフィルタは、一般的に当業者に知られており、例えば、上で参照した“ウェーブレット縮退による理想的な空間適応”、および、S.P.ガエル氏、A.M.セイード氏およびR.Gバラニャック氏による1997年7月、サンディエゴ、SPIEの処理、3169巻、389−399頁における“経験的ウィナーフィルタリングによる向上ウェーブレットデノイジング”中に記述されている。
動き補償
図12を参照すると、ブロック102において、プロセスBは双方向の動き推定を実行し、次にブロック104において、動き推定を使用して動き補償を実行し、それらは、図5中でさらに図示されており、以下で例示的な観点において記述する。Wmedフィルタおよび動き補償ベースのデインターレーサの間には、1つのフィールド“遅れ”がある。現在のフィールド“C”の“欠落”データ(非オリジナル行の画素データ)に対する動き補償は、図8中で示したような、前のフレーム“P”と次のフレーム“N”との両方における情報から予測されている。現在のフィールド(図6)において、実線は、オリジナルの画素データが存在する行を表し、点線は、Wmed補間された画素データが存在する行を表す。ある観点において、動き補償は、4行x8列の画素の近隣中で実行される。しかしながら、この画素の近隣は、説明のための例であり、異なる数の行および異なる数の列から構成される画素の近隣に基づいた他の観点において、動き補償を実行してもよいことが当業者に明らかになるだろう。異なる数の行および異なる数の列から構成される画素の近隣の選択は、例えば、計算スピード、利用可能な処理能力、またはデインターレースされているマルチメディアデータの特性を含む、多くの要因に基づくことができる。現在のフィールドだけが半分の行を有するため、整合すべき4つの行は、実際には8画素x8画素エリアに対応する。
図5を参照すると、双方向のME/MC68は、誤差平方和(SSE)を使用して、Wmedの次のフレーム58とデインターレースされた現在フレーム70とを基準として、Wmedの現在のフレーム60に対して、予測するブロックと予測されたブロックとの間の類似性を測定できる。動き補償された現在のフレーム66の発生は、最も類似した整合ブロックからの画素情報を使用して、オリジナル画素線間の欠落データを埋める。いくつかの観点において、Wmedの次のフレーム58は空間−時間フィルタリングによりデインターレースされているだけであるが、デインターレースされた前のフレーム70の情報は、動き補償情報およびWmed情報により発生されているので、双方向のME/MC68は、デインターレースされた前のフレーム70の情報からの画素情報に対して、バイアスをかけ、またはさらに重みを与える。
いくつかの観点において、類似したルーマ領域を有するが、異なるクロマ領域を有するフィールドの領域において整合性能を向上させるために、画素の1つ以上のルーマグループ(例えば、1つの4行x8列のルーマブロック)と、画素の1つ以上のクロマグループ(例えば、2つの2行x4列のクロマブロックUおよびV)との画素値の寄与を含むSSEメトリックを使用できる。このようなアプローチは、色に敏感な領域において、不整合を効果的に減少させる。
動きベクトル(MV)は、垂直次元において1/2画素の粒度を有し、かつ、水平次元において1/2または1/4画素のいずれかの粒度を有する。分数の画素サンプルを取得するために、補間フィルタを使用できる。例えば、ハーフ画素サンプルを取得するために使用できるいくつかのフィルタは、双線形フィルタ(1、1)、H.263/AVC:(1、−5、20、20、−5、1)により推奨される補間フィルタ、および6つのタップのハミング窓???sinc???関数フィルタ(3、−21、147、147、−21、3)を含む。双線形フィルタを適用することにより、フルおよびハーフ画素サンプルから1/4画素サンプルを発生させることができる。
いくつかの観点において、動き補償は、さまざまなタイプのサーチングプロセスを使用して、現在のフレームのある位置における(例えば、オブジェクトを描写する)データを、別のフレーム(例えば、次のフレームまたは前のフレーム)中の異なる位置における対応するデータに整合させ、それぞれのフレーム内の位置における差は、オブジェクトの動きを示している。例えば、サーチングプロセスは、より大きなサーチエリアをカバーできるフルモーションサーチ、またはより少ない画素を使用できるファーストモーションのサーチを使用し、ならびに/あるいは、サーチパターンにおいて使用される選択された画素は、特定の形状、例えば、ダイアモンド形状を有することができる。ファーストモーションのサーチのために、動き推定または動き候補の周りにサーチエリアを集中させることができ、動き推定または動き候補は、近接したフレームをサーチするための開始ポイントとして使用できる。いくつかの観点において、外部の動き推定器からMV候補を発生させることができ、デインターレーサに対してMV候補を提供できる。以前に動き補償された近接したフレーム中の、対応する近隣からのマクロブロックの動きベクトルを、動き推定として使用することもできる。いくつかの観点において、対応する前および次のフレームのマクロブロック(例えば、3マクロブロックx3マクロブロック)の近隣をサーチすることから、MV候補を発生させることができる。
図9は、図8中で示したような、前のフレームおよび次のフレームの近隣をサーチすることにより、動き推定/補償の間に発生させることができる2つのMVマップ、MVPおよびMVNの例を図示する。MVPとMVNとの両方において、動き情報を決定するために処理すべきブロックは、“X”により示される中央ブロックである。MVPとMVNとの両方において、処理されている現在のブロックXの動き推定の間に使用できる9つのMV候補がある。この例において、MV候補のうちの4つは、以前に実行された動きサーチから同一のフィールドに存在し、MVPおよびMVN(図9)において、より明るい色をつけられたブロックにより描写されている。より暗い色をつけられたブロックにより描写された、他の5つのMV候補は、前に処理されたフレームの動き情報(すなわちマップ)からコピーされたものである。
動き推定/補償が完了した後、2つの補間の結果が、(図8中の点線により示される)欠落行に対してもたらされ、1つは、Wmedフィルタにより発生させられた補間結果(図5のWmedの現在のフレーム60)であり、1つは、動き補償器の動き推定により発生させられた補間結果(MCの現在のフレーム66)である。結合器62は通常、Wmedの現在のフレーム60とMCの現在のフレーム66との一部を少なくとも使用することにより、Wmedの現在のフレーム60とMCの現在のフレーム66とを組み合わせて、現在のデインターレースされたフレーム64を発生させる。しかしながら、ある条件の下では、結合器62は、現在のフレーム60またはMCの現在のフレーム66のうちの1つだけを使用して、現在のデインターレースされたフレームを発生させてもよい。1つの例において、結合器62は、Wmedの現在のフレーム60とMCの現在のフレーム66とを組み合わせて、式14において示されるようなデインターレースされた出力信号を発生させる。
Figure 2009515384
ここで、
Figure 2009515384
は、転置のためのtをともなう、場所x=(x、y)tにおけるフィールドn1中の輝度値に対して使用される。
Figure 2009515384
のように規定されるクリップ関数を使用して、
Figure 2009515384
としてk1を計算できる。ここでC1は、ロバストネスパラメータであり、Diffは、予測するフレームの画素と、(既存のフィールドから得られた)予測されたフレーム中の利用可能な画素との間のルーマ差である。C1を適切に選ぶことにより、平均平方誤差の
相対的な重要性を調整することが可能である。式17において示すように、k2を計算できる。
Figure 2009515384
ここで
Figure 2009515384
は、動きベクトルであり、δは、ゼロによる除算を防ぐための小さい定数である。フィルタリングのためにクリッピング関数を使用してデインターレースすることは、G.D.ハーン氏およびE.Bベラーズ氏による、1997年の、民生用電子機器上でのIEEEトランザクション、43巻、第3号、819−825頁における“ビデオデータのデインターレーシング”中にさらに記述されており、その全体がここに組み込まれている。
いくつかの観点において、高いPSNRおよびロバストな結果を達成するために、次の式を試み、かつ、維持するように、結合器62を構成できる。
Figure 2009515384
Wmed+MCデインターレーシングスキームによるイントラフィールド補間から、インターフィールド補間を含むデインターレーシング予測スキームを切り離すことが可能である。言い換えれば、主として、イントラフィールド補間の目的のために、空間−時間Wmedフィルタリングを使用でき、一方で、動き補償の間にインターフィールド補間を実行できる。これにより、Wmedの結果に関して、ピーク信号対ノイズ比が減少するが、動き補償が適用された後の視覚品質は、より満足なものである。その理由は、不正確なインターフィールド予測モード決定からの不良な画素が、Wmedフィルタリングプロセスから除去されるからである。
クロマの取り扱いは、並べて置かれたルーマの取り扱いと一致する必要があるかもしれない。動きマップ発生の観点から、クロマ画素の動きレベルは、その4つの並べて置かれたルーマ画素の動きレベルを観察することにより取得される。動作は、票決に基づくことができる(クロマの動きレベルは、支配的なルーマの動きレベルを流用する)。しかしながら、我々は、次のように保守的なアプローチを使用することを提案する。4つのルーマ画素のうちのいずれかの1つがファーストモーションレベルを有する場合、クロマの動きレベルは、ファーストモーションであり、さもなければ、4つのルーマ画素のうちのいずれかの1つがスローモーションレベルを有する場合、クロマの動きレベルはスローモーションであり、さもなければ、クロマの動きレベルは、静止である。保守的なアプローチは、最も高いPSNRを達成しないかもしれないが、クロマの動きレベルにおいて、あいまいさがある場合は必ずインター予測を使用する危険を回避する。
マルチメディアデータシーケンスは、単独で記述したWmedアルゴリズムと、ここで記述した結合されたWmedおよび動き補償アルゴリズムとを使用して、デインターレースされた。同一のマルチメディアデータシーケンスはまた、画素を混合する(すなわち平均する)アルゴリズムおよびフィールドが何らかの補間または混合がなく、単に結合された“非デインターレーシング”ケースを使用してデインターレースされた。結果として生じたフレームが分析されて、PSNRが決定され、これは以下の表に示されている。
Figure 2009515384
上述したように、Wmedの結果とMCの結果とを結合することは、偶数および奇数番のフィールド間のエイリアスおよびノイズを抑制することから、Wmedに加えて、MCを使用してデインターレースすることにより、ほんのわずかのPSNRの改善だけがある場合でさえ、WmedおよびMC補間の結果を結合することにより生成されるデインターレースされた画像の視覚品質は、より視覚的に満足なものである。
図13−15は、記述したデインターレーサの実行の例を図示する。図13は、“サッカー”のオリジナルフレーム#109を示す。図14は、インターレースされたデータとして、同一のフレーム#109を示す。図15は、Wmedフレーム、言い換えれば、Wmedフィルタ54(図5)により処理された後に結果として生じるWmedフレームとして、フレーム#109を示す。図16は、Wmedの補間と、動き補償の補間との組み合わせから結果として生じるフレーム#109を示す。
フローチャート、フロー図、構造図またはブロック図として描写されるプロセスとして、観点を記述してもよいことが注目される。フローチャートは、シーケンシャルなプロセスとして動作を記述してもよいが、動作の多くは、並行して、または同時に実行できる。さらに、動作の順序を並べ換えてもよい。プロセスは、その動作が完了するときに終了する。プロセスは、方法、関数、手続き、サブルーチン、サブプログラム等に対応してもよい。プロセスが関数に対応するとき、その終了は、呼び出している関数または主関数に対する関数の戻りに対応する。
ここで開示したデバイスの1つ以上の要素を、デバイスの動作に影響を与えることなく並べ換えてもよいことも当業者に明らかなはずである。同様に、ここで開示したデバイスの1つ以上の要素を、デバイスの動作に影響を与えることなく組み合わせてもよい。さまざまな異なる技術および技法のいくつかを使用して、情報および信号を表してもよいことを当業者は理解するだろう。電子ハードウェア、ファームウェア、コンピュータソフトウェア、ミドルウェア、マイクロコードまたはこれらの組み合わせとして、ここで開示した例に関して記述したさまざまな実例となる論理ブロック、モジュール、およびアルゴリズムステップを実現してもよいことを、当業者はさらに理解するであろう。ハードウェアおよびソフトウェアのこの互換性を明瞭に図示するために、さまざまな実例となるコンポーネント、ブロック、モジュール、回路、およびステップをそれらの機能の点から一般的に上述した。このような機能がハードウェアまたはソフトウェアとして実現されるかどうかは、特定の用途およびシステム全体に課される設計制約によって決まる。それぞれの特定の用途に対してさまざまな方法で、当業者は記述した機能を実現するかもしれないが、このような実現決定は、開示した方法の範囲から逸脱を生じさせるものとして解釈すべきではない。
ここで開示した例に関して記述した方法またはアルゴリズムのステップを、ハードウェア中で直接、プロセッサにより実行されるソフトウェアモジュール中で、またはその2つの組み合わせ中で具体化してもよい。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、リムーバルディスク、CD−ROM、または技術的に知られている他の任意の形態の記憶媒体中に存在してもよい。プロセッサが記憶媒体から情報を読み取ることができ、記憶媒体に情報を書き込むことができるように、例示的な記憶媒体はプロセッサに結合されている。代替では、記憶媒体はプロセッサと一体化されていてもよい。プロセッサおよび記憶媒体は、特定用途向け集積回路(ASIC)中に存在してもよい。ASICはワイヤレスモデム中に存在してもよい。代替では、プロセッサおよび記憶媒体は、ワイヤレスモデム中にディスクリートコンポーネントとして存在してもよい。
さらに、汎用目的のプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラム可能ゲートアレイ(FPGA)または他のプログラム可能論理デバイス、ディスクリートゲートまたはトランジスタ論理、ディスクリートハードウェアコンポーネント、あるいはここで記述した機能を実行するために設計された、これらの任意の組み合わせにより、ここで開示した例に関して記述した、さまざまな実例となる論理ブロック、コンポーネント、モジュールおよび回路を実現または実行してもよい。汎用目的のプロセッサはマイクロプロセッサでもよいが、代わりに、プロセッサは任意の従来のプロセッサ、制御装置、マイクロ制御装置、または状態遷移機械であってもよい。計算デバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアに関連した1つ以上のマイクロプロセッサ、または他の任意のこのような構成として、プロセッサを実現してもよい。
いかなる当業者であっても開示した方法および装置を作りまたは使用できるように、開示した例の記述をこれまでに提供している。これらの例に対してさまざまな修正が当業者に容易に明らかになり、開示した方法および装置の精神または範囲から逸脱することなく、ここで規定した原理を、追加されるかもしれない他の例および追加的な要素に適用してもよい。観点の記述は、例示的であり、かつ、特許請求の範囲を限定しないように向けられている。
図1は、ストリーミングマルチメディアを配信する通信システムのブロック図である。 図2は、ストリーミングマルチメディアを配信する通信システムのいくつかのコンポーネントのブロック図である。 図3Aは、デインターレーサデバイスを図示するブロック図である。 図3Bは、別のデインターレーサデバイスを図示するブロック図である。 図3Cは、別のデインターレーシング装置を図示するブロック図である。 図4は、インターレースされたピクチャのサンプリングパターンの図面である。 図5は、Wmedフィルタリング動き推定を使用して、デインターレースされたフレームを発生させるデインターレーサデバイスを図示するブロック図である。 図6は、マルチメディアデータの静止エリアを決定するアパーチャの1つの観点を図示する。 図7は、マルチメディアデータのスローモーションエリアを決定するアパーチャの1つの観点を図示する図である。 図8は、動き推定の観点を図示する図である。 図9は、動き補償を決定する際に使用される2つの動きベクトルマップを図示する。 図10は、マルチメディアデータをデインターレースする方法を図示するフロー図である。 図11は、空間−時間情報を使用して、デインターレースされたフレームを発生させる方法を図示するフロー図である。 図12は、デインターレースするための動き補償を実行する方法を図示するフロー図である。 図13は、オリジナルの選択された“サッカー”フレームを図示する画像である。 図14は、図13中で示した画像の、インターレースされたフレームを図示する画像である。 図15は、図13中で示したオリジナルのサッカーフレームの、デインターレースされたWmedフレームを図示する画像である。 図16は、図15のWmedフレームを動き補償情報と結合することから生じる、デインターレースされたフレームを図示する画像である。

Claims (41)

  1. マルチメディアデータを処理する方法において、
    前記方法は、
    インターレースされたマルチメディアデータの、選択されたフレームに対して、空間−時間情報を発生させることと、
    前記選択されたフレームに対して、動き補償情報を発生させることと、
    前記空間−時間情報と前記動き補償情報とに基づいて、前記選択されたフレームのフィールドをデインターレースして、前記選択されたフレームに関係付けられたプログレッシブフレームを形成することとを含む方法。
  2. 空間−時間情報を発生させることは、空間−時間の仮のデインターレースされたフレームを発生させることを含み、動き情報を発生させることは、動き補償された仮のデインターレースされたフレームを発生させることを含み、前記選択されたフレームのフィールドをデインターレースすることは、前記空間−時間の仮のデインターレースされたフレームと、前記動き補償された仮のデインターレースされたフレームとを結合して、前記プログレッシブフレームを形成することをさらに含む請求項1記載の方法。
  3. 動きベクトル候補を使用して、前記動き補償情報を発生させることをさらに含む請求項1記載の方法。
  4. 動きベクトル候補を受け取ることと、
    前記動きベクトル候補に基づいて動きベクトルを決定することと、
    前記動きベクトルを使用して、前記動き補償情報を発生させることとをさらに含む請求項1記載の方法。
  5. 前記選択されたフレーム中のビデオデータのブロックに対する動きベクトル候補を、そのブロックに隣接するブロックの動きベクトル推定から決定することと、
    前記動きベクトル候補を使用して、前記動き補償情報を発生させることとをさらに含む請求項1記載の方法。
  6. 空間−時間情報を発生させることは、
    少なくとも1つの動き強度マップを発生させることと、
    前記動き強度マップに基づいて、仮のデインターレースされたフレームを発生させることとを含み、
    前記デインターレースすることは、前記仮のデインターレースされたフレームと、前記動き情報とを使用して、前記プログレッシブフレームを発生させることを含む請求項1記載の方法。
  7. 仮のデインターレースされたフレームを発生させることは、前記少なくとも1つの動き強度マップが、選択された状態を示す場合に、前記インターレースされたマルチメディアデータを空間フィルタリングすることを含む請求項6記載の方法。
  8. 少なくとも1つの動き強度マップを発生させることは、前記選択されたフレームの領域を異なる動きレベルに分類することを含む請求項6記載の方法。
  9. 少なくとも1つの動き強度マップを発生させることは、前記異なる動きレベルに基づいて、前記インターレースされたマルチメディアデータを空間フィルタリングすることを含む請求項8記載の方法。
  10. 空間フィルタリングすることは、重み付けされたメディアンフィルタを使用して、前記インターレースされたマルチメディアデータを処理することを含む請求項1記載の方法。
  11. 仮のデインターレースされたフレームを発生させることは、前記動き強度マップに基づいて、前記インターレースされたマルチメディアデータの複数のフィールドにわたって空間フィルタリングすることを含む請求項6記載の方法。
  12. 空間−時間情報を発生させることは、選択された現在のフィールドの時間的近隣のフィールドにわたって空間−時間フィルタリングすることを含む請求項1記載の方法。
  13. 前記時間的近隣は、前記現在のフィールドの前に時間的に位置している前のフィールドを含み、かつ、前記現在のフィールドの後に時間的に位置している次のフィールドを含む請求項12記載の方法。
  14. 前記時間的近隣は、前記現在のフィールドの前に時間的に位置している複数の前のフィールドを含み、かつ、前記現在のフィールドの後に時間的に位置している複数の次のフィールドを含む請求項12記載の方法。
  15. 空間−時間情報を発生させることは、空間−時間フィルタリングに基づいて、仮のデインターレースされたフレームを発生させることと、デノイジングフィルタを使用して、前記仮のデインターレースされたフレームをフィルタリングすることとを含む請求項1記載の方法。
  16. 前記選択されたフレームのフィールドをデインターレースすることは、前記デノイズされた、仮のデインターレースされたフレームを動き情報と結合して、前記プログレッシブフレームを形成することを含む請求項15記載の方法。
  17. 前記デノイジングフィルタは、ウェーブレット縮退フィルタを含む請求項15記載の方法。
  18. 前記デノイジングフィルタは、ウィナーフィルタを含む請求項15記載の方法。
  19. 動き情報を発生させることは、双方向の動き推定を前記選択されたフィールドに実行して、動きベクトルを発生させることと、前記動きベクトルを使用して、動き補償を実行することとを含む請求項1記載の方法。
  20. 前記空間−時間情報に基づいて、前記選択されたフレームに関係付けられた、仮のデインターレースされたフレームを発生させることと、
    前記仮のデインターレースされたフレームに関する動きベクトルを取得することと、
    前記動きベクトルを使用する動き補償を実行して、前記動き情報を発生させることとをさらに含み、
    前記動き情報は、動き補償されたフレームを含み、
    デインターレースすることは、前記動き補償されたフレームと前記仮のデインターレースされたフレームとを結合することを含む請求項1記載の方法。
  21. 前記空間−時間情報に基づいて、前記選択されたフレームのまわりの時間的近隣において、仮のデインターレースされたフレームのシーケンスを発生させることと、
    前記仮のデインターレースされたフレームのシーケンスを使用して動きベクトルを発生させることとをさらに含む請求項20記載の方法。
  22. 動き補償を実行することは、双方向の動き補償を実行することを含む請求項20記載の方法。
  23. 前記仮のデインターレースされたフレームをデノイジングフィルタリングすることをさらに含む請求項21記載の方法。
  24. 前記仮のインターレースされたフレームのシーケンスは、前記選択されたフレームの前記仮のデインターレースされたフレームの前の、前記マルチメディアデータの仮のデインターレースされたフレームと、前記選択されたフレームの前記仮のデインターレースされたフレームの後の、前記マルチメディアデータの仮のデインターレースされたフレームとを含む請求項21記載の方法。
  25. マルチメディアデータを処理する装置において、
    インターレースされたマルチメディアデータの、選択されたフレームの空間−時間情報を発生させるように構成されたフィルタモジュールと、
    前記選択されたフレームに対して、双方向の動き情報を発生させるように構成された動き推定器と、
    前記空間−時間情報と前記動き情報とを使用して、前記選択されたフレームに関係付けられたプログレッシブフレームを形成するように構成された結合器とを具備する装置。
  26. 前記空間−時間情報からノイズを除去するように構成されたデノイザをさらに具備する請求項25記載の装置。
  27. 前記空間−時間情報は、空間−時間の仮のデインターレースされたフレームを含み、前記動き情報は、動き補償された仮のデインターレースされたフレームを含み、前記結合器は、前記空間−時間の仮のデインターレースされたフレームと、前記動き補償された仮のデインターレースされたフレームとを結合することにより、前記プログレッシブフレームを形成するようにさらに構成されている請求項25記載の装置。
  28. 前記動き情報は、双方向の動き情報である請求項25記載の装置。
  29. 前記フィルタモジュールは、前記選択されたフレームの動き強度マップを決定し、前記動き強度マップを使用して、空間−時間の仮のデインターレースされたフレームを発生させるようにさらに構成されており、前記結合器は、前記動き情報を、前記空間−時間の仮のデインターレースされたフレームと結合することにより、前記プログレッシブフレームを形成するように構成されている請求項26記載の装置。
  30. 前記動き推定器は、前に発生されたプログレッシブフレームを使用して、前記動き情報の一部を少なくとも発生させるように構成されている請求項24記載の装置。
  31. マルチメディアデータを処理する装置において、
    インターレースされたマルチメディアデータの、選択されたフレームに対して、空間−時間情報を発生させる手段と、
    前記選択されたフレームに対して、動き情報を発生させる手段と、
    前記空間−時間情報と前記動き情報とに基づいて、前記選択されたフレームのフィールドをデインターレースして、前記選択されたフレームに関係付けられたプログレッシブフレームを形成する手段とを具備する装置。
  32. 前記空間−時間情報は、空間−時間の仮のデインターレースされたフレームを含み、前記動き情報は、動き補償された仮のデインターレースされたフレームを含み、前記デインターレースする手段は、前記空間−時間の仮のデインターレースされたフレームと、前記動き補償された仮のデインターレースされたフレームとを結合して、前記プログレッシブフレームを形成する手段を備える請求項31記載の装置。
  33. 前記デインターレースする手段は、空間−時間情報と動き情報とを結合することにより、前記プログレッシブフレームを形成するように構成された結合器を備える請求項31記載の装置。
  34. 前記動き情報は、双方向の動き情報を含む請求項31記載の装置。
  35. 前記空間−時間情報を発生させる手段は、前記選択されたフレームの動き強度マップを発生させ、かつ、前記動き強度マップを使用して、空間−時間の仮のデインターレースされたフレームを発生させるように構成されており、前記結合する手段は、前記動き情報を、前記空間−時間の仮のデインターレースされたフレームと結合することにより、前記プログレッシブフレームを形成するように構成されている請求項32記載の装置。
  36. 前記空間−時間情報を発生させる手段は、
    少なくとも1つの動き強度マップを発生させ、
    前記動き強度マップに基づいて、仮のデインターレースされたフレームを発生させるように構成され、
    前記デインターレースする手段は、前記仮のデインターレースされたフレームと、前記動き情報とを使用して、前記プログレッシブフレームを発生させるように構成されている請求項31記載の装置。
  37. 仮のデインターレースされたフレーム発生させることは、前記少なくとも1つの動き強度マップが、選択された状態を示す場合に、前記インターレースされたマルチメディアデータを空間フィルタリングすることを含む請求項36記載の装置。
  38. 少なくとも1つの動き強度マップを発生させることは、前記選択されたフレームの領域を、異なる動きレベルに分類することを含む請求項36記載の装置。
  39. 少なくとも1つの動き強度マップを発生させることは、前記異なる動きレベルに基づいて、前記インターレースされたマルチメディアデータを空間フィルタリングすることを含む請求項38記載の装置。
  40. マルチメディアデータを処理する命令を含む機械読み取り可能媒体において、
    前記命令は、実行時に、
    インターレースされたマルチメディアデータの、選択されたフレームに対して、空間−時間情報を発生させることと、
    前記選択されたフレームに対して、双方向の動き情報を発生させることと、
    前記空間−時間情報と前記動き情報とに基づいて、前記フレームのフィールドをデインターレースして、前記選択されたフレームに対応するプログレッシブフレームを形成することとを機械に行わせる機械読み取り可能媒体。
  41. マルチメディアデータを処理するプロセッサにおいて、
    前記プロセッサは、
    インターレースされたマルチメディアデータの、選択されたフレームの空間−時間情報を発生させ、
    前記選択されたフレームに対して動き情報を発生させ、
    前記空間−時間情報と前記動き情報とに基づいて、前記選択されたフレームのフィールドをデインターレースして、前記選択されたフレームに関係付けられたプログレッシブフレームを形成するように構成されているプロセッサ。
JP2008536742A 2005-10-17 2006-10-17 フィールドベースのビデオに対する動き補償により支援された空間−時間デインターレーシングのための方法および装置 Pending JP2009515384A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US72764305P 2005-10-17 2005-10-17
US78904806P 2006-04-03 2006-04-03
US11/536,894 US20070206117A1 (en) 2005-10-17 2006-09-29 Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video
PCT/US2006/040593 WO2007047693A2 (en) 2005-10-17 2006-10-17 Method and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video

Publications (1)

Publication Number Publication Date
JP2009515384A true JP2009515384A (ja) 2009-04-09

Family

ID=37845183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008536742A Pending JP2009515384A (ja) 2005-10-17 2006-10-17 フィールドベースのビデオに対する動き補償により支援された空間−時間デインターレーシングのための方法および装置

Country Status (7)

Country Link
US (1) US20070206117A1 (ja)
EP (1) EP1938590A2 (ja)
JP (1) JP2009515384A (ja)
KR (1) KR100957479B1 (ja)
AR (1) AR056132A1 (ja)
TW (1) TW200746796A (ja)
WO (1) WO2007047693A2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8179954B2 (en) 2007-10-30 2012-05-15 Sony Corporation Odd interleaving only of an odd-even interleaver when half or less data subcarriers are active in a digital video broadcasting (DVB) standard
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
WO2006099082A2 (en) * 2005-03-10 2006-09-21 Qualcomm Incorporated Content adaptive multimedia processing
US8879857B2 (en) 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
US8654848B2 (en) 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US9131164B2 (en) 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US8755401B2 (en) 2006-05-10 2014-06-17 Paganini Foundation, L.L.C. System and method for scalable multifunctional network communication
TW200811758A (en) * 2006-08-24 2008-03-01 Realtek Semiconductor Corp Method for edge detection, method for motion detection, method for pixel interpolation utilizing up-sampling, and apparatuses thereof
EP1931136B1 (en) * 2006-12-08 2016-04-20 Panasonic Intellectual Property Corporation of America Block-based line combination algorithm for de-interlacing
WO2008073416A1 (en) * 2006-12-11 2008-06-19 Cinnafilm, Inc. Real-time film effects processing for digital video
US7952646B2 (en) * 2006-12-27 2011-05-31 Intel Corporation Method and apparatus for content adaptive spatial-temporal motion adaptive noise reduction
US8593572B2 (en) * 2008-01-30 2013-11-26 Csr Technology Inc. Video signal motion detection
US8503533B1 (en) 2008-02-01 2013-08-06 Zenverge, Inc. Motion estimation engine for performing multiple types of operations
US8208065B2 (en) * 2008-07-30 2012-06-26 Cinnafilm, Inc. Method, apparatus, and computer software for digital video scan rate conversions with minimization of artifacts
TWI392336B (zh) * 2009-02-25 2013-04-01 Himax Tech Ltd 具有cue移除器的動態適應性去交錯裝置與方法
US20100309371A1 (en) * 2009-06-03 2010-12-09 Sheng Zhong Method And System For Integrated Video Noise Reduction And De-Interlacing
US20100309372A1 (en) * 2009-06-08 2010-12-09 Sheng Zhong Method And System For Motion Compensated Video De-Interlacing
CN105739209B (zh) 2009-11-30 2022-05-27 株式会社半导体能源研究所 液晶显示设备、用于驱动该液晶显示设备的方法
TWI471010B (zh) * 2010-12-30 2015-01-21 Mstar Semiconductor Inc 一種具有移動補償的解交錯影像處理裝置及其相關方法
US8704945B1 (en) * 2012-09-14 2014-04-22 Zenverge, Inc. Motion adaptive deinterlacer
CN105493500A (zh) * 2013-03-30 2016-04-13 安徽广行领视通信科技有限公司 用于解码可变质量视频位流的方法和设备
KR20150029593A (ko) 2013-09-10 2015-03-18 주식회사 케이티 스케일러블 비디오 신호 인코딩/디코딩 방법 및 장치
CN103826082B (zh) * 2014-01-21 2017-07-14 华为技术有限公司 一种视频处理方法及装置
US10368107B2 (en) * 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10880552B2 (en) * 2016-09-28 2020-12-29 Lg Electronics Inc. Method and apparatus for performing optimal prediction based on weight index
CN108109592B (zh) 2016-11-25 2022-01-25 株式会社半导体能源研究所 显示装置及其工作方法
CN108923984B (zh) * 2018-07-16 2021-01-12 西安电子科技大学 基于卷积网络的时空视频压缩感知方法
EP4356345A1 (en) 2021-06-18 2024-04-24 Subtle Medical, Inc. Systems and methods for real-time video denoising

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03189292A (ja) * 1989-12-18 1991-08-19 Outboard Marine Corp 船用推進装置
JPH08130716A (ja) * 1994-10-31 1996-05-21 Victor Co Of Japan Ltd 走査線補間装置及び走査線補間用動きベクトル検出装置
JP2002077833A (ja) * 2000-09-01 2002-03-15 Hitachi Ltd 順次走査変換回路
JP2002252834A (ja) * 2000-12-22 2002-09-06 Matsushita Electric Ind Co Ltd 補間装置、補間回路および映像信号処理装置

Family Cites Families (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2909239B2 (ja) * 1991-03-27 1999-06-23 株式会社東芝 高能率符号化記録再生装置
KR0121328B1 (ko) * 1991-12-13 1997-11-17 사또오 후미오 디지탈 신호 기록 재생 장치
US5289276A (en) * 1992-06-19 1994-02-22 General Electric Company Method and apparatus for conveying compressed video data over a noisy communication channel
JP2611607B2 (ja) * 1992-06-29 1997-05-21 日本ビクター株式会社 シーンチェンジ検出装置
FR2700090B1 (fr) 1992-12-30 1995-01-27 Thomson Csf Procédé de désentrelacement de trames d'une séquence d'images animées.
US5642294A (en) * 1993-12-17 1997-06-24 Nippon Telegraph And Telephone Corporation Method and apparatus for video cut detection
US5446491A (en) * 1993-12-21 1995-08-29 Hitachi, Ltd. Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals
JP3149303B2 (ja) * 1993-12-29 2001-03-26 松下電器産業株式会社 デジタル画像符号化方法及びデジタル画像復号化方法
US6798834B1 (en) * 1996-08-15 2004-09-28 Mitsubishi Denki Kabushiki Kaisha Image coding apparatus with segment classification and segmentation-type motion prediction circuit
US6091460A (en) * 1994-03-31 2000-07-18 Mitsubishi Denki Kabushiki Kaisha Video signal encoding method and system
US5508752A (en) * 1994-04-12 1996-04-16 Lg Electronics Inc. Partial response trellis decoder for high definition television (HDTV) system
US5706386A (en) * 1994-05-24 1998-01-06 Sony Corporation Image information recording method and apparatus, image information reproducing method and apparatus and editing method and system
US5521644A (en) 1994-06-30 1996-05-28 Eastman Kodak Company Mechanism for controllably deinterlacing sequential lines of video data field based upon pixel signals associated with four successive interlaced video fields
MY115648A (en) * 1995-08-23 2003-08-30 Sony Corp Encoding/decoding fields of predetermined field polarity apparatus and method
JPH0974566A (ja) * 1995-09-04 1997-03-18 Sony Corp 圧縮符号化装置及び圧縮符号化データの記録装置
EP0847199B1 (en) * 1995-09-29 1999-04-28 Matsushita Electric Industrial Co., Ltd. Method, disc and device for encoding seamless-connection of telecine-converted video data
JPH09130732A (ja) * 1995-11-01 1997-05-16 Matsushita Electric Ind Co Ltd シーンチェンジ検出方法および動画像編集装置
US5929902A (en) * 1996-02-28 1999-07-27 C-Cube Microsystems Method and apparatus for inverse telecine processing by fitting 3:2 pull-down patterns
US5793895A (en) * 1996-08-28 1998-08-11 International Business Machines Corporation Intelligent error resilient video encoder
EP0905981B1 (en) * 1997-03-12 2006-06-28 Matsushita Electric Industrial Co., Ltd. Video signal coding method and coding device
JP3588970B2 (ja) * 1997-04-30 2004-11-17 ソニー株式会社 信号符号化方法、信号符号化装置、信号記録媒体及び信号伝送方法
FR2764156B1 (fr) * 1997-05-27 1999-11-05 Thomson Broadcast Systems Dispositif de pretraitement pour codage mpeg ii
US6012091A (en) * 1997-06-30 2000-01-04 At&T Corporation Video telecommunications server and method of providing video fast forward and reverse
KR100226722B1 (ko) * 1997-07-30 1999-10-15 구자홍 동영상 움직임 벡터 추정 방법
US6115499A (en) * 1998-01-14 2000-09-05 C-Cube Semiconductor Ii, Inc. Repeat field detection using checkerboard pattern
EP0946054B1 (en) * 1998-03-09 2005-06-08 Sony International (Europe) GmbH Weighted median filter interpolator
US6895048B2 (en) * 1998-03-20 2005-05-17 International Business Machines Corporation Adaptive encoding of a sequence of still frames or partially still frames within motion video
US6538688B1 (en) * 1998-07-02 2003-03-25 Terran Interactive Method and apparatus for performing an automated inverse telecine process
US6580829B1 (en) * 1998-09-25 2003-06-17 Sarnoff Corporation Detecting and coding flash frames in video data
JP3921841B2 (ja) * 1998-10-16 2007-05-30 ソニー株式会社 信号処理装置および方法、ならびに、記録装置、再生装置および記録再生装置
JP2000209553A (ja) * 1998-11-13 2000-07-28 Victor Co Of Japan Ltd 情報信号記録装置及び再生装置
EP1041827B1 (en) * 1999-04-02 2006-11-22 Matsushita Electric Industrial Co., Ltd. Moving picture transmission apparatus, reception apparatus and recording medium
US6325805B1 (en) * 1999-04-23 2001-12-04 Sdgi Holdings, Inc. Shape memory alloy staple
JP4287538B2 (ja) * 1999-04-30 2009-07-01 パナソニック株式会社 画像信号切替方法及び装置並びにこれを用いたデジタル撮像カメラ及び監視システム
GB2352350B (en) * 1999-07-19 2003-11-05 Nokia Mobile Phones Ltd Video coding
US6370672B1 (en) * 1999-11-01 2002-04-09 Lsi Logic Corporation Determining the received data rate in a variable rate communications system
US7093028B1 (en) * 1999-12-15 2006-08-15 Microsoft Corporation User and content aware object-based data stream transmission methods and arrangements
US6449002B1 (en) * 1999-12-21 2002-09-10 Thomson Licensing S.A. Truncated metric for NTSC interference rejection in the ATSC-HDTV trellis decoder
US6600836B1 (en) * 2000-01-28 2003-07-29 Qualcomm, Incorporated Quality based image compression
KR100734759B1 (ko) * 2000-02-01 2007-07-06 코닌클리케 필립스 일렉트로닉스 엔.브이. P-프레임들에 대한 두 단계의 움직임 추정에 의한 비디오 인코딩
US7009656B2 (en) * 2000-04-07 2006-03-07 Snell & Wilcox Limited Video signal processing
US6507618B1 (en) * 2000-04-25 2003-01-14 Hewlett-Packard Company Compressed video signal including independently coded regions
EP1152621A1 (en) * 2000-05-05 2001-11-07 STMicroelectronics S.r.l. Motion estimation process and system.
KR100708091B1 (ko) 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
EP1172681A3 (en) * 2000-07-13 2004-06-09 Creo IL. Ltd. Blazed micro-mechanical light modulator and array thereof
US20040125877A1 (en) * 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
FI120125B (fi) * 2000-08-21 2009-06-30 Nokia Corp Kuvankoodaus
US7038736B2 (en) * 2000-09-21 2006-05-02 Canon Kabushiki Kaisha Moving image processing apparatus and method, and computer readable memory
JP2002101416A (ja) * 2000-09-25 2002-04-05 Fujitsu Ltd 画像制御装置
US7095814B2 (en) * 2000-10-11 2006-08-22 Electronics And Telecommunications Research Institute Apparatus and method for very high performance space-time array reception processing using chip-level beamforming and fading rate adaptation
US6934335B2 (en) * 2000-12-11 2005-08-23 Sony Corporation Video encoder with embedded scene change and 3:2 pull-down detections
US7203238B2 (en) * 2000-12-11 2007-04-10 Sony Corporation 3:2 Pull-down detection
US6744474B2 (en) * 2000-12-13 2004-06-01 Thomson Licensing S.A. Recursive metric for NTSC interference rejection in the ATSC-HDTV trellis decoder
US6807234B2 (en) * 2000-12-19 2004-10-19 Intel Corporation Method and apparatus for constellation mapping and bitloading in multi-carrier transceivers, such as DMT-based DSL transceivers
US6987728B2 (en) * 2001-01-23 2006-01-17 Sharp Laboratories Of America, Inc. Bandwidth allocation system
KR100783396B1 (ko) * 2001-04-19 2007-12-10 엘지전자 주식회사 부호기의 서브밴드 분할을 이용한 시공간 스케일러빌러티방법
US6909745B1 (en) * 2001-06-05 2005-06-21 At&T Corp. Content adaptive video encoder
KR100393066B1 (ko) * 2001-06-11 2003-07-31 삼성전자주식회사 적응 움직임 보상형 디-인터레이싱 장치 및 그 방법
US7483581B2 (en) * 2001-07-02 2009-01-27 Qualcomm Incorporated Apparatus and method for encoding digital image data in a lossless manner
CN1511420A (zh) * 2001-11-09 2004-07-07 松下电器产业株式会社 运动图像编码方法和装置
US20030142762A1 (en) * 2002-01-11 2003-07-31 Burke Joseph P. Wireless receiver method and apparatus using space-cover-time equalization
US6996186B2 (en) * 2002-02-22 2006-02-07 International Business Machines Corporation Programmable horizontal filter with noise reduction and image scaling for video encoding system
CA2476843C (en) * 2002-03-27 2012-11-20 British Telecommunications Public Limited Company Video coding
US20030185302A1 (en) * 2002-04-02 2003-10-02 Abrams Thomas Algie Camera and/or camera converter
CA2380105A1 (en) * 2002-04-09 2003-10-09 Nicholas Routhier Process and system for encoding and playback of stereoscopic video sequences
US6985635B2 (en) * 2002-04-22 2006-01-10 Koninklijke Philips Electronics N.V. System and method for providing a single-layer video encoded bitstreams suitable for reduced-complexity decoding
US7436890B2 (en) * 2002-06-05 2008-10-14 Kddi R&D Laboratories, Inc. Quantization control system for video coding
AU2003265075A1 (en) * 2002-10-22 2004-05-13 Koninklijke Philips Electronics N.V. Image processing unit with fall-back
KR100501933B1 (ko) * 2002-11-21 2005-07-18 삼성전자주식회사 멀티미디어 데이터 암호화 압축방법 및 장치
BR0307197A (pt) * 2002-11-25 2005-08-23 Matsushita Electric Ind Co Ltd Método de compensação de movimento, método de codificação de imagem e método de decodificação de imagem
US7075581B1 (en) * 2003-06-03 2006-07-11 Zoran Corporation Interlaced-to-progressive scan conversion based on film source detection
KR100518580B1 (ko) * 2003-06-10 2005-10-04 삼성전자주식회사 인버스 텔레시네 변환장치 및 변환방법
KR100505694B1 (ko) * 2003-07-09 2005-08-02 삼성전자주식회사 직접 계산 방식에 의한 코드화 직교 주파수 분할 다중화수신기의 채널 상태 평가 장치 및 그 방법
JP2005123732A (ja) * 2003-10-14 2005-05-12 Matsushita Electric Ind Co Ltd デブロックフィルタ処理装置およびデブロックフィルタ処理方法
US7780886B2 (en) * 2003-10-21 2010-08-24 Certainteed Corporation Insulation product having directional facing layer thereon and method of making the same
US7420618B2 (en) * 2003-12-23 2008-09-02 Genesis Microchip Inc. Single chip multi-function display controller and method of use thereof
EP2485187A1 (en) * 2004-01-21 2012-08-08 Qualcomm Incorporated Application-based value billing in a wireless subscriber network
US7529426B2 (en) * 2004-01-30 2009-05-05 Broadcom Corporation Correlation function for signal detection, match filters, and 3:2 pulldown detection
US7483077B2 (en) * 2004-01-30 2009-01-27 Broadcom Corporation Method and system for control of a multi-field deinterlacer including providing visually pleasing start-up and shut-down
US7557861B2 (en) * 2004-01-30 2009-07-07 Broadcom Corporation Reverse pull-down video using corrective techniques
KR100586883B1 (ko) * 2004-03-04 2006-06-08 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법
US7339980B2 (en) * 2004-03-05 2008-03-04 Telefonaktiebolaget Lm Ericsson (Publ) Successive interference cancellation in a generalized RAKE receiver architecture
US7536626B2 (en) * 2004-06-18 2009-05-19 Qualcomm Incorporated Power control using erasure techniques
JP4145275B2 (ja) * 2004-07-27 2008-09-03 富士通株式会社 動きベクトル検出・補償装置
US7528887B2 (en) * 2004-10-08 2009-05-05 Broadcom Corporation System and method for performing inverse telecine deinterlacing of video by bypassing data present in vertical blanking intervals
US20060153294A1 (en) * 2005-01-12 2006-07-13 Nokia Corporation Inter-layer coefficient coding for scalable video coding
US8780957B2 (en) * 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
US20060271990A1 (en) * 2005-05-18 2006-11-30 Rodriguez Arturo A Higher picture rate HD encoding and transmission with legacy HD backward compatibility
KR100716998B1 (ko) * 2005-05-24 2007-05-10 삼성전자주식회사 블록화 현상을 감소시키기 위한 부호화 및 복호화 장치 및그 방법과, 이를 구현하기 위한 프로그램이 기록된 기록매체
US8879857B2 (en) * 2005-09-27 2014-11-04 Qualcomm Incorporated Redundant data encoding methods and device
AT502881B1 (de) * 2005-10-05 2007-08-15 Pirker Wolfgang Ddr Zahnimplantat
US8654848B2 (en) * 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US9521584B2 (en) * 2005-10-17 2016-12-13 Qualcomm Incorporated Method and apparatus for managing data flow through a mesh network
US7916784B2 (en) * 2005-10-20 2011-03-29 Broadcom Corporation Method and system for inverse telecine and field pairing
US7705913B2 (en) * 2005-12-20 2010-04-27 Lsi Corporation Unified approach to film mode detection
US9131164B2 (en) * 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03189292A (ja) * 1989-12-18 1991-08-19 Outboard Marine Corp 船用推進装置
JPH08130716A (ja) * 1994-10-31 1996-05-21 Victor Co Of Japan Ltd 走査線補間装置及び走査線補間用動きベクトル検出装置
JP2002077833A (ja) * 2000-09-01 2002-03-15 Hitachi Ltd 順次走査変換回路
JP2002252834A (ja) * 2000-12-22 2002-09-06 Matsushita Electric Ind Co Ltd 補間装置、補間回路および映像信号処理装置

Also Published As

Publication number Publication date
WO2007047693A3 (en) 2007-07-05
TW200746796A (en) 2007-12-16
AR056132A1 (es) 2007-09-19
US20070206117A1 (en) 2007-09-06
WO2007047693A2 (en) 2007-04-26
KR100957479B1 (ko) 2010-05-14
EP1938590A2 (en) 2008-07-02
KR20080064981A (ko) 2008-07-10

Similar Documents

Publication Publication Date Title
JP2009515384A (ja) フィールドベースのビデオに対する動き補償により支援された空間−時間デインターレーシングのための方法および装置
US6473460B1 (en) Method and apparatus for calculating motion vectors
USRE45082E1 (en) Enhancing image quality in an image system
US7095445B2 (en) Method of detecting motion in an interlaced video sequence based on logical operation on linearly scaled motion information and motion detection apparatus
US6118488A (en) Method and apparatus for adaptive edge-based scan line interpolation using 1-D pixel array motion detection
US7057664B2 (en) Method and system for converting interlaced formatted video to progressive scan video using a color edge detection scheme
US7397515B2 (en) Method and system for cross-chrominance removal using motion detection
US20070030383A1 (en) Method and system for converting interlaced formatted video to progressive scan video
US7170561B2 (en) Method and apparatus for video and image deinterlacing and format conversion
EP1164792A2 (en) Format converter using bidirectional motion vector and method thereof
US20060268168A1 (en) Content adaptive de-interlacing algorithm
EP1279111A1 (en) Enhanced temporal and resolution layering in advanced television
US20080062309A1 (en) Motion detection for interlaced video
KR20060047630A (ko) 움직임 보상된 출력 이미지 데이터를 생성하는 방법 및움직임 보상기
US9241095B2 (en) Method and system for adaptive temporal interpolation filtering for motion compensation
KR100484182B1 (ko) 디인터레이싱 장치 및 방법
Lee et al. Cost-efffective color filter array demosaicing using spatial correlation
JPH10112845A (ja) 画像信号の飛び越し順次走査変換方法および回路
Lee et al. A motion-adaptive deinterlacer via hybrid motion detection and edge-pattern recognition
Chong et al. A content adaptive de-interlacing algorithm [video signal processing applications]
Chang et al. Four field local motion compensated de-interlacing
JP3745425B2 (ja) 動きベクトル検出方法および動きベクトル検出用適応切り替え型前置フィルタ
Hong et al. Edge-preserving spatial deinterlacing for still images using block-based region classification
CN101322400A (zh) 用于场基视频的通过运动补偿辅助的空间时间解交错的方法和设备
Lee et al. Motion adaptive deinterlacing via edge pattern recognition

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111115