JP2009534934A - 共有メモリマルチビデオチャネル表示装置および方法 - Google Patents

共有メモリマルチビデオチャネル表示装置および方法 Download PDF

Info

Publication number
JP2009534934A
JP2009534934A JP2009506586A JP2009506586A JP2009534934A JP 2009534934 A JP2009534934 A JP 2009534934A JP 2009506586 A JP2009506586 A JP 2009506586A JP 2009506586 A JP2009506586 A JP 2009506586A JP 2009534934 A JP2009534934 A JP 2009534934A
Authority
JP
Japan
Prior art keywords
field
noise
delayed
live
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009506586A
Other languages
English (en)
Other versions
JP5095725B2 (ja
JP2009534934A5 (ja
Inventor
ガルグ、サンジェイ
ゴーシュ、ビパーシャ
バルラム、ニキル
シュリーダー、カイプ
サフ、シルピ
テイラ、リチャード
エドワーズ、グウィン
トマシ、ローレン
ナンブーディリー、ビピン
Original Assignee
マーベル セミコンダクター インコーポレイテッド
マーベル インディア プライベート リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マーベル セミコンダクター インコーポレイテッド, マーベル インディア プライベート リミテッド filed Critical マーベル セミコンダクター インコーポレイテッド
Publication of JP2009534934A publication Critical patent/JP2009534934A/ja
Publication of JP2009534934A5 publication Critical patent/JP2009534934A5/ja
Application granted granted Critical
Publication of JP5095725B2 publication Critical patent/JP5095725B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Picture Signal Circuits (AREA)

Abstract

【課題】 共有メモリマルチビデオチャネル表示装置および方法を提供する。
【解決手段】 共有メモリビデオプロセッサは信号処理回路を備える。信号処理回路によって、ノイズリデューサとデインターレーサは、メモリデバイスに含まれるさまざまなフィールドラインを格納するためのフィールドバッファに対するアクセスを共有し得る。格納されるフィールドラインの一部はさらに、信号処理回路内で共有され得る。格納されているフィールドラインの一部を共有することで、メモリの帯域幅および容量に関する要件が低くなる。信号処理回路は、マルチフィールドライン処理を実行できるとしてもよい。フィールドラインバッファ群は、複数のフィールドセグメントについてフィールドラインを格納するべく設けられ、各データを信号処理回路の対応する入力に供給し得る。ストレージをさらに減らすべく、フィールドラインバッファのうちいくつかもまた、信号処理回路において共有され得る。
【選択図】図15

Description

関連出願
本願は米国仮出願第60/793,288号(出願日:2006年4月18日)、第60/793,276号(出願日:2006年4月18日)、第60/793,277号(出願日:2006年4月18日)、および第60/793,275号(出願日:2006年4月18日)の恩恵を主張する。上記各仮出願の開示内容はすべて、参照により本願に組み込まれる。
従来、マルチビデオチャネルテレビ表示スクリーンはデュアルチャネルビデオ処理チップを備える。デュアルチャネルビデオ処理チップによって、ユーザは表示スクリーンのさまざまな部分で1以上のチャネルを同時に視聴できる。このように、ある画像内に別の画像を表示することは一般的に、ピクチャーインピクチャー(PIP)と呼ばれる。図1Aはアスペクト比が4:3の表示スクリーンのさまざまな部分に2つのチャネルを表示する例を示す図である。スクリーン100Aは、該スクリーンの大半を占める部分に第1のチャネル112を表示すると同時に該スクリーンの非常に小さい方の部分に第2のチャネル122を表示する。図1Bは、スクリーンの異なる部分に略同一のアスペクト比を持つ第1のチャネルおよび第2のチャネルを有する表示の一例を示す図である。このディスプレイの一例は以下でより詳細に説明する。
図2は、PIP表示100Aを生成する通常のテレビシステムを示す図である。テレビ表示システム200は、テレビ放送信号202、ハイブリッドテレビチューナ210、ベースバンド入力280、復調器220、MPEGコーデック230、オフチップストレージ240、オフチップメモリ300、ビデオプロセッサ250、および外部素子270(例えば、ディスプレイ)を備える。ハイブリッドテレビチューナ210はテレビ放送信号202によって提供される1以上のテレビチャネルにチューニングすることができる。ハイブリッドテレビチューナ210は、復調器220にデジタルテレビ信号を与えるとともに、ビデオプロセッサ250にアナログビデオ信号成分(例えば、コンポジットビデオベースバンド信号(CVBS))を与えるとしてもよい。また、ベースバンド入力280はさまざまなテレビ信号(例えば、CVBS、S−Video、コンポーネント等)を受信して、これらの受信したテレビ信号をビデオプロセッサ250に与えるとしてもよい。上記以外の外部からのデジタル信号またはアナログ信号(例えば、DVIまたはHD(ハイビジョン)信号)もまた、ビデオプロセッサ250に供給され得る。
ビデオは、復調器220によって復調され、そしてMPEGコーデック230によって伸長される。MPEGコーデック230が実行しなければならない処理の一部においては、オフチップストレージ240を用いてデータを格納するとしてもよい。デジタル信号は続いて、外部素子270での表示用に適切な信号260を生成するべくビデオプロセッサ250で処理される。ビデオプロセッサ250は、デュアルチャネル処理チップであってよい。ビデオプロセッサ250は、オフチップメモリ300を用いて、メモリを多用するビデオ処理動作を実行するとしてもよい。メモリを多用するビデオ処理動作には、ノイズリダクションおよびデインターレース、ならびに3次元YC分離およびフレームレート変換(FRC)などがある。
こういったPIPアプリケーションでは、第1のチャネル112が第2のチャネル122よりも重要であると一般的に考えられている。PIPを生成するために用いられる通常のデュアルチャネル処理チップは、質に関して第1のチャネルのビデオパイプにより重点を置き、第1のチャネルのビデオパイプは第1のチャネル112の大きな表示を生成する。第2のチャネルのビデオパイプは、第2のチャネル122のより小さな表示を生成し、コスト削減を目的として質は相対的に低くなっている。例えば、デインターレース、ノイズリダクションおよびビデオ復号化などの3次元ビデオ処理動作が第1のチャネルのビデオパイプに実施され得る一方で、第2のチャネルのビデオパイプには2次元ビデオ処理動作が実行されるのみであるとしてもよい。3次元ビデオ処理動作とは、空間領域および時間領域においてビデオを処理する動作を指し、処理動作で利用されるビデオの1以上のフレームをバッファすることが多い。これに対して2次元ビデオ処理動作とは、空間領域でビデオを処理するのみ、ビデオの現在のフレームに対してのみ処理を行うことを指す。
アスペクト比が16:9のワイド表示スクリーンが誕生したことによって、同一スクリーン上にサイズが同じまたはアスペクト比が4:3のチャネルを2つ表示することがますます求められている。こういったアプリケーションは通常、ピクチャーアンドピクチャー(PAP)と呼ばれる。図1Bによると、スクリーン100Bは第1のチャネル110を表示するとともに、該スクリーンの第2の部分に略同じアスペクト比の第2のチャネル120を表示する。こういったアプリケーションでは、同様の質を有する第1のチャネルと第2のチャネルとを生成されなければならない。
このため、高品質のビデオ画像を2つ生成するためには、第1および第2のビデオチャネルパイプの両方に3次元ビデオ処理を実行することが必要である。所望の表示を生成するべく3次元ビデオ処理を実行するためには通常、質または整合性を劣化させることなく画像を表示するのに適したタイムフレーム内に実行されなければならないメモリ集中動作を行わなければならない。メモリ動作は3次元ビデオ処理を必要とするチャネルの数に比例して増加する。通常のデュアルビデオ処理チップは、高品質を保ったまま2つのビデオ信号を処理できないので、高品質のビデオチャネルを2つ表示するという需要が高まっている中では過去のものとなりつつある。
通常のデュアルビデオ処理チップが複数の高品質ビデオ信号を処理することが出来ない理由の1つは、ビデオプロセッサとオフチップメモリとの間に大量のデータ帯域幅が必要なためである。従来では、ビデオ処理チップパイプラインの一部がノイズリデューサとデインターレーサとを備えており、ノイズリデューサおよびデインターレーサはそれぞれオフチップメモリとの間で高いデータ帯域幅を必要とする。
特にノイズリデューサは、あるフィールドと次のフィールドとを比較して各フィールドで一致しない部分を当該フィールドから除去するという動作を主に行う。このため、ノイズリデューサは現在のフィールドについて比較を行うべく少なくとも2つのフィールドを格納しなければならない。デインターレーサは格納されている2つのフィールドを読み出して合成し、インターレーサの動作とは逆の動作を行う。
図3は、通常のビデオプロセッサのノイズリデューサおよびデインターレーサのオフチップメモリへのアクセス動作を示す図である。ビデオ処理パイプラインの一部には、ノイズリデューサ330、デインターレーサ340、およびオフチップメモリ300が含まれる。オフチップメモリ300は、少なくとも4つのフィールドバッファ領域310、311、312および313を有する。
第1のフィールド期間において、ノイズリデューサ330は、フィールドバッファ領域310を読み、ビデオ信号320と比較して、ノイズが低減された新規フィールドを生成し、このフィールド出力322を2つのフィールドバッファ領域311および312に書き込む。フィールドバッファ領域311および312にこれに先立って格納されていた内容はそれぞれ、フィールドバッファ領域310および313に複製される。このため、当該フィールド期間が終了する時には、ノイズリデューサ330のフィールド出力322がフィールドバッファ領域311および312に格納され、フィールドバッファ領域311および312に以前に格納されていたフィールドはそれぞれフィールドバッファ領域310および313にある。
次のフィールド期間においては、前のフィールド期間で得たノイズリデューサ330からのフィールド出力を有するフィールドバッファ領域312をデインターレーサ340が読み出して、フィールドバッファ領域312に格納されていた、前のフィールド期間のさらに前のフィールド期間で得たノイズリデューサ330のフィールド出力を含むフィールドバッファ領域313をデインターレーサ340が読み出す。現在のフィールド期間で得られるノイズリデューサ330のフィールド出力322もまたデインターレーサ340が読み出す。デインターレーサ340はこれらのフィールドセグメントを処理して合成し、ビデオパイプラインの次のモジュールにデインターレースされた出力342を与える。
上述したビデオパイプラインの一部分の一例では、こういった処理を1つのチャネルに対して実行し、チャネルが追加されるとこれらの処理が増えることになる。このため、メモリアクセス帯域幅は同一期間内に読み書きされる必要があるデータの量に比例して増加するので、複数のチャネルについてノイズリダクションおよびデインターレースを実行するとデータ帯域幅が同様に増えてしまう。上記のようにビデオ処理動作において非常に高い帯域幅が要求されると、動作を同時に実行する能力が制限されてしまう。
このため、複数の高品質ビデオチャネルストリームを含む表示を生成するべく、1以上のチャネルの1以上のビデオパイプラインステージのさまざまな箇所においてメモリアクセス帯域幅を低減するためのシステムおよび方法を得ることが望まれていると考えられる。
本発明の原理によれば、複数の高品質ビデオチャネルストリームを含む表示を生成するべく、1以上のチャネルの1以上のビデオパイプラインステージのさまざまな箇所においてメモリアクセス帯域幅を低減するためのシステムおよび方法が提供される。
ビデオ処理システムにおいてメモリを共有するためのシステムおよび方法を提供する。第1のフィールドバッファに以前に格納されている内容は第2のフィールドバッファに移されるとしてもよい。第1のノイズリダクション済ライブフィールドは第1のフィールドバッファに格納され得る。第2のフィールドバッファに以前に格納されていた内容はノイズリデューサおよびデインターレーサに与えられ得る。第1のフィールドバッファに以前に格納されていた内容はデインターレーサに与えられ得る。
本発明の原理によれば、複数の高品質ビデオチャネルストリームを含む表示を生成するべく、1以上のチャネルの1以上のビデオパイプラインステージのさまざまな箇所においてメモリアクセス帯域幅を低減するための方法および装置が提供される。デュアルビデオプロセッサは、異なるフォーマットの1以上のアナログ信号またはデジタル信号を受信するとしてもよい。1以上のビデオモードにおいて2つのビデオ信号を同時にデコードできるデュアルビデオデコーダ(例えば、NTSC/PAL/SECAMビデオデコーダ)が設けられるとしてもよい。ビデオモードのうちの1つでは、デュアルビデオデコーダはビデオ信号のデコードで用いられる少なくとも1つの構成要素(例えば、アナログ/デジタルコンバータ)を共有するべく時分割多重化を行うとしてもよい。
ビデオデコーダの出力またはシステム内の別の構成要素が提供する別のビデオ信号群は、信号処理回路(例えば、ノイズリデューサおよび/またはデインターレーサ)に与えられ得る。信号処理回路はさまざまなフィールドラインを格納するべくメモリデバイスにアクセスし得る。格納されるフィールドラインの一部は、信号処理回路が必要とし得るもので、共有され得る。格納されるフィールドラインの一部を共有することで、メモリ帯域幅およびメモリ容量に関する要件が全体的に低減される。信号処理回路はマルチフィールドライン処理を実行することができるとしてもよい。複数のフィールドセグメントのためのフィールドラインを格納するべくフィールドラインバッファ群を設けるとしてもよい。フィールドラインバッファ群は、信号処理回路の対応する入力にデータを与えるとしてもよい。ストレージをさらに低減するべく、フィールドラインバッファのうちの一部もまた、信号処理回路間で共有されるとしてもよい。
ビデオデコーダの出力、またはシステムの別の構成要素によって提供される別のビデオ信号群は、スケーリングが異なるビデオ信号を生成するべく1以上のスケーラに与えられ得る。スケーラは、メモリの前、メモリの後、またはメモリアクセスが所望でない場合にはメモリの前または後(つまり、メモリの間)のさまざまなスロットに配置され得る。ビデオ信号がアップスケールされる場合は、メモリに格納されるデータ量を減らすべくスケーラはメモリの後に配置され得る。ビデオ信号がダウンスケールされる場合には、メモリに格納されるデータ量を減らすべくスケーラはメモリの前に配置され得る。これに代えて、1つのスケーラをメモリの前に配置するように構成し、別のスケーラをメモリの後に配置するように構成するとしてもよい。このようにすることで、メモリに格納されるデータ量およびメモリ帯域幅を減らしつつスケーリングが異なる(つまり、一方はアップスケールされ、他方はダウンスケールされるとしてもよい)2つのビデオ信号を供給する。
ビデオデコーダの出力、またはシステムの別の構成要素によって提供される別のビデオ信号群は、1以上のフレームレート変換部に与えられ得る。ブランクタイムオプティマイザ(BTO)は第1のクロックレートでビデオ信号のフレームのフィールドラインに関するデータを受信し得る。BTOは、フレームの次のフィールドラインが受信されるまでに利用可能な最大時間を決定し得る。この決定結果に基づいて、BTOは第2のクロックレートでメモリに対してフレームのフィールドラインを送受信し得る。メモリアクセスに用いられる第2のクロックレートは、第1のクロックレートよりも大幅に遅くてもよい。このため、メモリ帯域幅が低減され、フィールドライン間の利用可能時間がより短い別のビデオ信号はメモリにより高速にアクセスできるようになる。つまり、BTOは基本的に複数のメモリクライアント(つまりメモリアクセスが必要な構成要素)からのメモリアクセスを、メモリ帯域幅を効率よく利用できるようなやり方で、分散する。
BTOのビデオ信号出力、またはシステムの別の構成要素によって提供される別のビデオ信号群は、さらに処理を行うべくオーバレイエンジンに与えられ得る。オーバレイエンジンでは、2つ以上のビデオ信号がオーバレイされてカラーマネジメントユニット(CMU)に与えられるとしてもよい。CMUは、オーバレイされたビデオ信号を受信して、分割してオーバレイされたビデオ信号を処理し得る。オーバレイされたビデオ信号の一部が第1のビデオ信号と対応する旨が示されると、CMUは第1のビデオ信号部分に対応するパラメータを用いてビデオ信号部分を処理して、出力を供給するとしてもよい。これに代えて、オーバレイされたビデオ信号の一部が第2のビデオ信号と対応する旨が示されると、CMUは第2のビデオ信号部分に対応するパラメータを用いてビデオ信号部分を処理して、出力を供給するとしてもよい。オーバレイエンジンのマルチプレーン(Mプレーン)オーバレイ回路は、2つ以上のビデオ信号を受信して、オーバレイ信号を提供するとしてもよい。受信する2つ以上のビデオ信号のうちの1つはCMUから与えられるとしてもよい。ビデオ信号は優先度指名子を含むとしてもよく、オーバレイ回路は優先度指名子に基づいて信号をオーバレイするとしてもよい。
オーバレイエンジンの出力、またはプログレッシブ型のシステムの別の構成要素によって供給される別のビデオ信号群は、主要出力ステージおよび/または補助出力ステージに与えられ得る。これに代えて、ビデオ信号はオーバレイエンジンを迂回して主要出力ステージおよび/または補助出力ステージに与えられ得る。主要出力ステージおよび/または補助出力ステージでは、ビデオ信号に対して、フォーマット変換、または例えば表示デバイスおよび記録デバイスなどの主要デバイスおよび/または補助デバイスの要件を満たすための処理が施されるとしてもよい。
本発明の目的および利点は、上述したものもそれ以外のものも、添付図面と共に以下の詳細な説明を考慮することによって明らかになるであろう。添付図面では、全図を通して同様の部分には同様の参照符号を振っている。添付図面は以下の通りである。
同一スクリーンのさまざまな部分に表示されている2つのチャネルの例を示す図である。 同一スクリーンのさまざまな部分に表示されている2つのチャネルの例を示す図である。
PIP表示を生成する様子を示す図である。
通常のビデオプロセッサにおけるノイズリデューサおよびデインターレーサのオフチップメモリアクセス動作を示す図である。
本発明の原理に従ったテレビ表示システムを示す図である。
本発明の原理に従ったデュアルビデオプロセッサのオンボードビデオ処理部の機能を詳細に説明するための図である。
本発明の原理に従ったクロック生成システムを示す図である。
本発明の原理に従った3つのビデオ信号生成モードを示す図である。 本発明の原理に従った3つのビデオ信号生成モードを示す図である。 本発明の原理に従った3つのビデオ信号生成モードを示す図である。
本発明の原理に従った3つのビデオ信号を生成するために2つのデコーダを利用する実施例を示す図である。
本発明の原理に従った2つのビデオ信号の2つの部分を時分割多重化するタイムチャートの一例を示す図である。
本発明の原理に従ったデュアルビデオプロセッサのフロントエンドビデオパイプラインの機能を詳細に説明するための図である。
本発明の原理に従ったノイズリデューサおよびデインターレーサのオフチップメモリアクセス動作を示す図である。
本発明の原理に従ったノイズリデューサおよびデインターレーサのオフチップメモリアクセス動作のタイムチャートの一例を示す図である。
本発明の原理に従ったマルチフィールドライン処理を説明するための図である。
本発明の原理に従ったフレームレート変換およびスケーリングの実行を詳細に説明するための図である。
本発明の原理に従ったスケーラ位置決めモジュールを示す図である。
本発明の原理に従ったBTOマルチプレクサの動作の一例を示す図である。
本発明の原理に従ったデュアルビデオプロセッサの色処理チャネルブレンディング(CPCB)ビデオパイプラインを詳細に説明するための図である。
本発明の原理に従ったオーバレイエンジンを詳細に説明するための図である。
本発明の原理に従ったカラーマネジメントユニットを詳細に説明するための図である。
本発明の原理に従ったデュアルビデオプロセッサのバックエンドビデオパイプラインを詳細に説明するための図である。
本発明は、1以上の高品質出力信号を生成するべく1以上のチャネルの複数のビデオパイプラインステージのさまざまな箇所でメモリおよびその他の処理リソースを共有し、メモリアクセス帯域幅を低減するための方法および装置に関する。
図4は、本発明の原理に従ったテレビ表示システムを示す図である。図4に示すテレビ表示システムは、テレビ放送信号202、デュアルチューナ410、MPEGコーデック230、オフチップストレージ240、オフチップメモリ300、デュアルビデオプロセッサ400、メモリインターフェース530、および少なくとも1つの外部構成要素270を備えるとしてもよい。デュアルチューナ410は、テレビ放送信号202を受信して第1のビデオ信号412および第2のビデオ信号414を生成するとしてもよい。ビデオ信号412および414は、続いてデュアルデコーダ420に与えられ得る。デュアルデコーダ420は、図4では、デュアルビデオプロセッサ400の内部に含まれているが、これに代えてビデオプロセッサ400の外部に設けられるとしてもよい。デュアルデコーダ420は、第1のビデオ信号および第2のビデオ信号412および414に対してデコーダ220(図2を参照のこと)と同様の機能を実行するとしてもよい。デュアルデコーダ420は少なくとも1つのマルチプレクサ424および2つのデコーダ422を有するとしてもよい。これに代わる別の配置によると、1つのマルチプレクサ424および1つまたは2つのデコーダ422はデュアルデコーダ420に対して外部にあるとしてもよい。デコーダ422はデコードされたビデオ信号出力426および428を供給する。デコーダ422はMPEGデコーダとは異なるNTSC/PAL/SECAMデコーダのうちいずれであってもよい、と理解されたい。デコーダ422に対する入力は、デジタルCVBSビデオ信号、S−Videoビデオ信号、またはコンポーネントビデオ信号であってよく、デコーダ422の出力は、Y−Cb−Crデータ信号のようなデジタル標準画質信号であってもよい。デュアルデコーダ420の動作については、図7乃至図10を参照しつつより詳細に説明する。
マルチプレクサ424は、2つのビデオ信号412および414または任意の数の入力ビデオ信号のうち少なくとも1つを選択するべく利用され得る。選択された少なくとも1つのビデオ信号425は続いてデコーダ422に与えられる。選択された少なくとも1つのビデオ信号425は、図面を過度に複雑化することを避けるべく単一のビデオ信号として図示されているが、ビデオ信号425はデコーダ422の任意の数の入力に与えられ得る任意の数のビデオ信号を表すものと理解されたい。例えば、マルチプレクサ424は5つの入力ビデオ信号を受信して、5つの入力ビデオ信号のうち2つを2つの異なるデコーダ422に与えるとしてもよい。
図4に示す特定のビデオ信号処理構成によれば、デュアルビデオプロセッサ400に設けられる内部デュアルデコーダ420が利用され得るので、外部デコーダを利用するコストが削減される。外部デコーダは、タイムシフトアプリケーションでは必要とされ得る。例えば、デュアルデコーダ420の出力426および428のうち1つは、ビデオ信号のインターレースに先立ってビデオ信号を標準フォーマットに適切にエンコードするべく、656エンコーダ440に与えられるとしてもよい。656エンコーダ440はより早いクロック周波数で処理を行うことを目的としてデータサイズを小さくするべく利用され得る。例えば一部の実施形態によると、656エンコーダ440は、倍の周波数で処理するべく、16ビットのデータ信号、水平同期(h−sync)信号および垂直同期(v−sync)信号を8ビットに減らすとしてもよい。これは、SDビデオデコーダおよびNTSC/PAL/SECAMデコーダとMPEGエンコーダとの間をインターフェースする場合には標準であってもよい。エンコードされたビデオ信号413はその後、タイムシフトされたビデオ信号を生成するべく、例えばビデオプロセッサのポートを介して、外部のMPEGコーデック230に与えられ得る。別のポートである、デュアルビデオプロセッサ400のフレキシポート(Flexiport)450はMPEGコーデック230からのタイムシフトされたビデオ信号を受信するべく利用され得る。これは、ビデオプロセッサの外部でデジタルビデオ信号の一部を処理することで、ビデオプロセッサが複雑にならないようにする上で望ましいとしてもよい。さらに、MPEGコーデック230が実行するタイムシフトは、不揮発性大量ストレージデバイスを用いた圧縮、伸長、インターレースを含む処理を必要とし、これらの処理はすべてビデオプロセッサの機能を超えているとしてもよい。
他のビデオ信号もまた、デュアルビデオプロセッサ400を用いて生成されるとしてもよい。例を挙げると、少なくとも1つの外部構成要素270で利用されるか、そうでなければ外部構成要素に与えられ得る、カーソル、オンスクリーン表示、またはビデオ放送信号202以外のさまざまな形式の表示がある。例えば、デュアルビデオプロセッサ400はこの目的のためにグラフィクスポート460またはパターン生成器470を含み得る。
デコードされたビデオ信号は、ほかのさまざまなビデオ信号、グラフィクス生成器460、またはパターン生成器470と同様に、セレクタ480に与えられるとしてもよい。セレクタ480は、これらのビデオ信号のうち少なくとも1つを選択して選択された信号をオンボードビデオ処理部490に与える。ビデオ信号482および484は、セレクタ480からオンボードビデオ処理部490に供給され得る2つの信号の例である。
オンボードビデオ処理部490は、デインターレース、スケーリング、フレームレート変換、ならびにチャネルブレンディングおよびカラーマネジメントなどの任意の適切なビデオ処理機能を実行するとしてもよい。デュアルビデオプロセッサ400における処理リソースはいずれも、メモリインターフェース530を介してオフチップメモリ300(SDRAM、RAMBUSまたは他の任意の種類の揮発性ストレージであってよい)との間でデータの送受信を行い得る。これらの機能はそれぞれ、図5を参照しつつより詳細に説明する。
最終的に、デュアルビデオプロセッサ400は1以上のビデオ出力信号492を出力する。ビデオ出力信号492は、表示、格納、更なる処理、またはそれ以外の適切な利用のために、1以上の外部構成要素270に供給され得る。例えば、1つのビデオ出力信号492はハイビジョンテレビ(HDTV)の解像度をサポートする主要出力信号である一方、第2のビデオ出力信号492は標準画質テレビ(SDTV)の解像度をサポートする補助出力であってもよい。主要出力信号はデジタルテレビまたはプロジェクタなどの高性能外部構成要素270を駆動するべく利用され得る一方、補助出力は標準画質(DVD)ビデオレコーダ、標準画質テレビ(SDTV)、標準画質プレビュー表示、または他の適切な任意のビデオアプリケーションに利用される。このため、補助出力信号によってユーザはHDTVプログラムを任意の適切なSDTV媒体(例えばDVD)に録画できるようになると同時に、ユーザは当該プログラムをHDTVディスプレイ上で同時に視聴できるとしてもよい。
図5は、デュアルビデオプロセッサ400のオンボードビデオ処理部490の機能を非常に詳細に示す図である。オンボードビデオ処理部490は、入力信号コンフィギュレーション510、メモリインターフェース530、コンフィギュレーションインターフェース520、フロントエンドパイプライン部540、フレームレート変換(FRC)/スケーリングパイプライン部550、色処理/チャネルブレンディングパイプライン部560およびバックエンドパイプライン部570を備えるとしてもよい。
コンフィギュレーションインターフェース520は、例えばI2Cインターフェースを介して、プロセッサなどの外部構成要素から制御情報522を受信し得る。コンフィギュレーションインターフェース522は、入力信号コンフィギュレーション510、フロントエンド540、フレームレート変換550、カラープロセッサ560、バックエンドパイプライン部570、およびメモリインターフェース530を構成するべく利用され得る。入力信号コンフィギュレーション510は、入力502でビデオ信号(HDTV信号、SDTV信号、またはその他の任意の適切なデジタルビデオ信号等)を受信すると共に選択されたビデオ信号482および484(図4を参照のこと)を受信するべく、デュアルビデオプロセッサ400の外部入力に接合され得る。入力信号コンフィギュレーション510は、受信したビデオ信号(例えば、信号482、484および502)のうち少なくとも1つの信号を、ビデオソースストリーム512としてフロントエンド540に供給するべく構成され得る。
このような構成によると、オンボードビデオ処理部490に与えられるこれらの入力のうちの1つがさまざまに選択され、オンボードビデオ処理パイプラインを用いて異なるタイミングで処理され得る。例えば、一実施形態によると、デュアルビデオプロセッサ400は8つの入力ポートを含み得る。ポートの例を挙げると、2つの16ビットHDTV信号ポート、1つの20ビットHDTV信号ポート、3つの8ビットSDTVビデオ信号ポート(CCIR656フォーマットであってもよい)、24ビットグラフィクスポートが1つ、および16ビット外部オンスクリーン表示ポートが1つであってもよい。
フロントエンド540は、利用可能な入力のうち少なくとも1つのビデオ信号ストリーム512(つまり、チャネル)を選択し、選択されたビデオ信号ストリームを1以上のビデオ処理パイプラインステージに沿って処理するとしてもよい。フロントエンド540は、処理されたビデオ信号ストリームを、1以上のパイプラインステージからフレームレート変換/スケーリングパイプラインステージ550に与えるとしてもよい。一部の実施形態によると、フロントエンド540は3つのビデオ処理パイプラインステージを含み、3つの個別の出力をFRC/スケーリングパイプラインステージ550に与えるとしてもよい。FRC/スケーリングパイプラインステージ550では、1以上の処理チャネルがあるとしてもよい。例えば、第1のチャネルは主スケーラ/フレームレート変換部を含み、第2のチャネルは別のスケーラ/フレームレート変換部を含み、第3のチャネルはより低コストなスケーラを含むとしてもよい。これらのスケーラは、互いに独立しているとしてもよい。例えば、1つのスケーラが入力画像を拡大する一方、別のスケーラは入力画像を縮小するとしてもよい。どちらのスケーラも444ピクセル(RGB/YUB24ビット)または422ピクセル(YC16ビット)を処理可能としてもよい。
色処理/チャネルブレンディングパイプライン部560はカラーマネジメント機能を提供するとしてもよい。この機能は、カラーリマッピング、輝度、コントラスト、色相および彩度の向上、ガンマ補正、ならびにピクセルバリデーション(validation)を含むとしてもよい。さらに、色処理/チャネルブレンディングパイプライン部560は、ビデオブレンディング機能、異なるチャネルのオーバレイ、もしくはブレンディングされた2つのビデオチャネルと第3のチャネルとのブレンディングまたはオーバレイを実現するとしてもよい。
バックエンドパイプラインステージ570は、データフォーマット化、符号付き/符号無し数字変換、サチュレーションロジック、クロック遅延、またはデュアルビデオプロセッサ400から以上のチャネルを出力する前に行う必要があり得る任意の適切な最終信号処理を実行するとしてもよい。
さまざまなパイプラインステージセグメントはそれぞれ、メモリインターフェース530を介してオフチップメモリ300との間でデータを送受信するとしてもよい。メモリインターフェース530は少なくともメモリコントローラとメモリインターフェースとを含み得る。メモリコントローラはメモリがサポートする最大速度で動作するとしてもよい。一実施形態によると、データバスは32ビットで200MHzの周波数で動作するとしてもよい。このバスのスループットは1秒当たり12.8ギガビットに略近いとしてもよい。メモリインターフェース530を利用する各機能ブロック(つまり、メモリクライアント)は、バースト動作モードでメモリをアドレッシングするとしてもよい。さまざまなメモリクライアントの調停は、ラウンドロビン方式で行うとしてもよいし、それ以外の任意の適切な調停方式に従って行うとしてもよい。さまざまなパイプラインセグメントは図12、図19、図20、図21および図22を参照しつつより詳細に説明する。
デュアルビデオプロセッサ400におけるさまざまな構成要素およびパイプラインステージには、異なるクロッキング機構またはクロック周波数が必要だとしてもよい。図6は、この目的を達成するべくさまざまなクロック信号を生成するクロック生成システム600を示す図である。クロック生成システム600は少なくとも、クリスタルオシレータ610、汎用アナログ位相ロックループ回路620、デジタル位相ロックループ回路640a―640nおよびメモリアナログ位相ロックループ回路630を備える。クリスタルオシレータ610の出力612は、汎用位相ロックループ620、メモリ位相ロックループ630、デュアルビデオプロセッサ400の別の構成要素、またはプロセッサに対して外部にある任意の適切な構成要素に、必要に応じて接続され得る。
メモリアナログ位相ロックループ回路630は、メモリクロック信号632と、周波数が異なる複数の別のクロック信号636とを生成するべく利用され得る。複数のクロック信号636は、メモリデバイス(例えば、200MHzのDDRメモリ)または別のシステム構成要素を動作させるためのクロック信号652として利用されるべく、セレクタ650によって選択され得る。
汎用アナログ位相ロックループ回路620は、1以上のデジタル位相ロックループ(PLL)回路640a―640nのベースクロックとして使用され得る200MHzのクロックを生成するとしてもよい。デジタルPLL回路640a―640nは、周波数合成器として挙動する(つまり、ベースクロック周波数と有理数とを乗算する)オープンループモードで利用されるとしてもよい。これに変えて、デジタルPLL回路640a―640nは、各入力クロック信号642a―642n(例えば、ビデオ同期入力)にロックすることによって周波数ロックを実現し得るクローズドループモードで利用されるとしてもよい。デジタルPLLは、クローズドループモードでは、非常に遅いクロック信号に正確に周波数をロックさせることができる。例えば、ビデオ処理に関して言えば、垂直ビデオクロック信号(例えば、垂直同期信号)は50から60Hzの範囲内であってもよい。さまざまなシステム構成要素は、さまざまなオープンループ信号またはクローズドループ信号を必要とし得る複数の異なる動作についてデジタルPLL回路640a―640nの出力644a―644nを用いるとしてもよい。出力640a―640nはそれぞれ、異なる周波数または同一周波数のクロック信号を提供することができると理解されたい。
例えば、デジタルPLL回路640a―640nが生成するクロック信号を利用し得る1つの構成要素は、デュアルデコーダ420(図4を参照のこと)であり、デュアルデコーダ420の動作は図7乃至図10を参照しつつより詳細に説明される。デュアルデコーダ420は、複数のデコーダ422を備え得る(図4を参照のこと)。デコーダ422は、図7乃至図9を参照しつつ説明されるように、さまざまな動作モードで利用され得る。
図7乃至図9は、デコーダ422を用いてビデオ信号426および428を生成する3つの動作モードの一例を示す図である。これらの3つの動作モードは、例えば、コンポジットビデオ信号、s−ビデオ信号およびコンポーネントビデオ信号を供給するとしてもよい。
これら3つの動作モードのうち第1のモードは、コンポジットビデオ信号を生成するために用いられ得るもので、図7に示されている。第1のデコーダモードは、DC再生部720、アナログデジタルコンバータ730およびデコーダ422を備えるとしてよく、これらはそれぞれデュアルデコーダ420に含まれているとしてもよい(図4を参照のこと)。ビデオ信号425(図4を参照のこと)は、デュアルチューナ410によって与えられ得るとしてもよいし、または別の構成ではマルチプレクサ424によって与えられ得るもので、DC再生部720に供給される。DC再生部720は、AC接合信号であり得るビデオ信号425がDC基準を失ってしまって輝度などのビデオ特徴情報を保持するために周期的にリセットされなければならない場合に利用されるとしてもよい。DC再生部720からのビデオ信号は、アナログデジタルコンバータ730によってデジタル化され、デコーダ422に与えられる。
第1のモードにおいて、デコーダ422は単一のアナログデジタルコンバータからのデジタル化されたビデオ信号732を用いてコンポジットビデオ信号を生成するとしてもよい。アナログデジタルコンバータ730およびデコーダ422は、デジタルクロック信号644a―644n(図6を参照のこと)を受信することによって動作するとしてもよい。デジタルクロック信号644a―644nは、例えば、20、21、22、23、24、25、26、27、28、29または30MHzであってもよい。さらに、デコーダ422は出力フィードバック信号427を用いてDC再生部720の動作を制御し得る。出力フィードバック信号427は、例えば、2ビットの制御信号であってよく、アナログデジタルコンバータ730に与えられるビデオ信号へのDC出力を増加または減少させるようDC再生部720に指示する。
上記3つのモードのうち第2のモードは、s−ビデオ信号を生成するべく用いられるとしてよく、図8に示されている。第2のデコーダモードは、第1のモードで説明したものをすべて備えると共にさらに第2のアナログデジタルコンバータ820を備えるとしてもよい。ビデオ信号425(図4を参照のこと)は、第1の部分812と第2の部分810とに分割され得る。マルチプレクサ424から与えられ得るビデオ信号425(図4を参照のこと)の信号の第1の部分812はDC再生部720に与えられ、ビデオ信号425(図4を参照のこと)の信号の第2の部分810は第2のデジタルアナログコンバータ820に入力され得る。DC再生部720から出力されるビデオ信号425の第1の部分812は、第2のアナログデジタルコンバータ730によってデジタル化されてデコーダ422に与えられる。また、ビデオ信号425の第2の部分810もまた、アナログデジタルコンバータ820からデコーダ422に与えられる。s−ビデオ信号はさまざまなデバイス(例えば、VCR、DVDプレーヤ等)に接続するべく2ワイヤのアナログポートを必要とする。
この第2のモードにおいてデコーダ422は、2つのアナログデジタルコンバータ730および820から出力されるデジタル化されたビデオ信号732および832を用いてs−ビデオ信号を生成するとしてもよい。アナログデジタルコンバータ730および820ならびにデコーダ422は、デジタルクロック信号644a―644n(図6を参照のこと)を受信することによって動作するとしてもよい。デジタルクロック信号644a―644nは、例えば、20、21、22、23、24、25、26、27、28、29または30MHzであってもよい。一部の実施形態によると、ビデオ信号の第1の部分812はビデオ信号425のYチャネルであってよく、ビデオ信号425の第2の部分810はビデオ信号の色チャネルであってよい。
上記の3つのモードのうち第3のモードは、コンポーネントビデオ信号を生成するべく用いられるとしてもよく、図9に図示される。第3のデコーダモードは、第2のモードで説明したものをすべて備えるとともに、さらに第2および第3のDC再生部930および920とマルチプレクサ940とを備えるとしてもよい。ビデオ信号425は、第1の部分914、第2の部分910および第3の部分912に分割されるとしてもよい。マルチプレクサ424から与えられ得るビデオ信号425(図4を参照のこと)の第1の部分914はDC再生部720に与えられるとしてもよく、ビデオ信号425(図4を参照のこと)の信号の第2の部分910はDC再生部930に与えられるとしてもよく、ビデオ信号425(図4を参照のこと)の信号の第3の部分912はDC再生部920に与えられるとしてもよい。コンポーネントビデオ信号はさまざまなデバイス(例えば、VCR、DVDプレーヤ等)に接続されるべく3ワイヤのアナログポートを必要とする。
DC再生部720から出力されるビデオ信号425の第1の部分914は、アナログデジタルコンバータ730によってデジタル化されてデコーダ422に与えられる。DC再生部930および920から出力されるビデオ信号425の第2の部分910および第3の部分912は、アナログデジタルコンバータ820によって選択的に(例えば、マルチプレクサ940を用いて選択されて)デジタル化されてデコーダ422に与えられる。マルチプレクサ940は、アナログデジタルコンバータ820を介してビデオ信号425の第2の部分910および第3の部分912を時分割多重するべく、デコーダ422から制御信号429を受信するとしてもよい。
第3のモードにおいて、一部の実施形態によると、デコーダ422は2つのアナログデジタルコンバータ730および820から出力されるデジタル化されたビデオ信号732および832を利用してコンポーネントビデオ信号を生成するとしてもよい。アナログデジタルコンバータ730および820ならびにデコーダ422は、デジタルクロック信号644a―644n(図6を参照のこと)を受信することによって動作するとしてもよい。デジタルクロック信号644a―644nは、例えば、20、21、22、23、24、25、26、27、28、29または30MHzであってもよい。さらにデコーダ422は、出力フィードバック信号427を用いてDC再生部720、930および920の動作を制御するとしてもよい。一部の実施形態によると、ビデオ信号425の第1の部分914、第2の部分910および第3の部分912はそれぞれ、ビデオ信号425のYチャネル、UチャネルおよびVチャネルであってもよい。
ここで、さまざまな通常入手可能な種類のDC再生部、デジタルアナログコンバータおよびビデオデコーダを用いて上述の機能を実行するとしてよく、説明を簡潔なものとするためにそれぞれの具体的な動作はここでは説明していないことを理解されたい。
図10に示す一実施形態によると、3つのデコーダモードはすべて、デコーダ422を2つとアナログデジタルコンバータ730または820を3つとを用いて実現され得る。図10に図示される配置によると、デュアルデコーダ420(図4を参照のこと)は少なくとも2つのビデオ信号426および428(つまり、各デコーダから1つのビデオ信号)を略同時に提供できるようになるとしてもよい。これら2つの信号は上記の3つのモードのうち任意の2つに対応し得る。
図10は、2つのコンポジットビデオ信号、1つのコンポジットビデオ信号および1つのs−ビデオ信号、1つのコンポジットビデオ信号および1つのコンポーネントビデオ信号、または2つのs−ビデオ信号のうちいずれかを生成するべく2つのデコーダを利用する実施例を示す図である。図10に示す実施例は、マルチプレクサ群1020、1022、1023、1025、1021、1024、1026、1027および1028、3つのアナログデジタルコンバータ730、820および1010、4つのDC再生部720、721、930および920、デマルチプレクサ1040、および2つのデコーダ422aおよび422bを備える。
図10に示す実施例は、2つのコンポジットビデオ信号を生成するべく利用される場合には、以下のように動作し得る。第1のビデオ信号425aはマルチプレクサ1020の第1の入力に接続され、第2のビデオ信号914はマルチプレクサ1024の第2の入力に接続され得る。マルチプレクサ1020の第1の入力が選択されて、マルチプレクサ1021の第4の入力に出力され、DC再生部720へ入力され得る。マルチプレクサ1024の第2の入力が選択され、DC再生部721へと出力され得る。この実施例の残りの部分の動作は、コンポジットビデオ信号が生成される図7に関連して説明した実施例に類似している。例えば、DC再生部720および721、アナログデジタルコンバータ730および1010、ならびにデコーダ422aおよび422bは図7を参照しつつ説明したコンポジットビデオ信号を生成する場合と同様の方法で動作する。
図10に示す実施例を用いて1つのコンポジットビデオ信号と1つのs−ビデオ信号を生成する方法または1つのコンポジットビデオ信号と1つのコンポーネントビデオ信号を生成する方法は、上述した2つのコンポジットビデオ信号を生成する場合と同様の方法で実行される。例えば、s−ビデオ信号を生成するべく用いられるビデオ信号425の第1のビデオ信号部分812および第2のビデオ信号部分810はマルチプレクサ1022および1026に与えられる。マルチプレクサ1022および1026の出力は、アナログデジタルコンバータ730および820が処理するビデオ信号を選択するマルチプレクサ1021および1027に与えられる。同様に、マルチプレクサ1024はアナログデジタルコンバータ1010が処理するビデオ信号を選択する。さまざまな動作モードにおいてマルチプレクサの入力をどのように選択するかは以下に示す表1により詳細に説明される。
図10に示す実施例によれば、2つのs−ビデオ信号426および428を生成することも可能となる。この機能を実現するためには、第1の周波数および第1の位相(例えば、20MHz)で動作する第1のクロック信号644aがアナログデジタルコンバータ730およびデコーダ422aに与えられる。第2の周波数で動作し且つ位相が第1のクロック信号と180度ずれている(例えば、20MHzで180度位相がずれている)第2のクロック信号644bがアナログデジタルコンバータ1010およびデコーダ422bに与えられ得る。第1のクロック信号の周波数の略2倍の第3の周波数を持ち(例えば、40MHz)且つ第1のクロック信号と同じ位相の第3のクロック信号644cがアナログデジタルコンバータ820に与えられ得る。クロック信号644bは、クロック信号644bとマルチプレクサ1026および1027とを選択的に接続するべくマルチプレクサ1030に与えられる。マルチプレクサ1026および1027の選択された入力にクロック信号を接続することによって、アナログデジタルコンバータ820へのビデオ信号入力810a−810cに時分割多重を行うことができるようになる。クロック信号644aは時分割されたビデオ信号を逆多重化するべくデマルチプレクサ1040に接続される。時分割多重動作は図11を参照してより明確に説明する。
図11は、2つのビデオ信号425の2つの第2の部分810を時分割多重する場合のタイムチャートの一例を示す図である。時分割多重動作を行うことによって、第4のアナログデジタルコンバータを設ける必要がなくなり得るので、デュアルビデオプロセッサ400の総コストが低減される。図11に示すタイムチャートには、第1のクロック信号644a、第2のクロック信号644bおよび第3のクロック信号644cにそれぞれ対応する3つのクロック信号と、3つのアナログデジタルコンバータ730、1010および820の出力とが含まれる。当該タイムチャートで示すように、クロック1およびクロック2の周波数はクロック3の周波数の半分であり、クロック1およびクロック2はクロック3の立下りエッジで変化する。
同図から分かるように、T1とT4との間の期間において、クロック644a(クロック1)の1周期が完全に完了して、第1のビデオ信号(S0)の第1の部分812a−812cに対応するアナログデジタルコンバータ730(ADC1)の出力がデコーダ422aによる処理に利用可能である。期間T2の始まりに位置するクロック3の立ち上がりエッジでは、アナログデジタルコンバータ820(ADC3)は第2のビデオ信号(S1)の第2の部分810a−810cを処理し始めて、期間T3の終わりで処理を完了する。
期間T3の始まりにおいて、アナログデジタルコンバータ820(ADC2)はビデオ信号S1の第1の部分810a−810cを処理し始めて、期間T6の終わりで処理を完了する。ビデオ信号S1の第1の部分810a−810cに対応するADC2の出力は期間T6の終わりにおいてデコーダ422bによる処理に対して利用可能となる。期間T4の始まりに位置するクロック3の立ち上がりエッジにおいて、アナログデジタルコンバータ820(ADC3)はビデオ信号S0の第2の部分810a−810cを処理し始めて期間T5の終わりにおいて処理を完了する。
このため、期間T6の終わりにおいては、2つのビデオ信号S0およびS1の2つの部分は3つのアナログデジタルコンバータのみを用いて処理を完了している。
期間T5と期間T6との間のクロック3の立ち上がりエッジにおいては、デマルチプレクサ1040はビデオ信号S0の第2の部分810a−810cに対応するADC3からの出力を、処理済みビデオ信号426を生成するべくデコーダ644aに供給する。同時に、ビデオ信号S1の第2の部分812が、アナログデジタルコンバータ820(ADC3)によって処理されるべく選択され、期間T7の終わりにおいて利用可能となる。
以上では、3つのアナログデジタルコンバータ730、1010および820を用いて2つのs−ビデオ信号426および428を生成する一実施形態を説明している。以下に示す表1は、コンポジットビデオ信号(cst)、コンポーネントビデオ信号(cmp)およびs−ビデオ信号(svid)のさまざまな組み合わせを生成するべく、対応するマルチプレクサに与えられ得る選択信号のさまざまな例を要約している。
Figure 2009534934
デュアルデコーダ420はまた、ビデオカセットレコーダ(VCR)から受信され得る不安定なアナログ信号またはデジタル信号に対応するとしてもよい。VCRにおいて不安定な信号が生成され得るのは、早送り、巻き戻しまたは一時停止などのさまざまな動作モードが原因である。デュアルデコーダ420は、このような種類の信号を処理して、上記のような状況でも品質の良い出力信号を提供することができるとしてもよい。
不安定なビデオ信号の原因は、VCRが生成する不安定な同期信号である場合がある。不安定な同期信号を処理する適切な方法の1つとして、不安定なビデオ信号をバッファリングすることが挙げられ得る。例えば、先入れ先出し(FIFO)バッファがデコーダの出力に近接して配置されるとしてもよい。まず、デコーダの出力データは基準として不安定な同期信号を用いてFIFOバッファに書き込まれるとしてもよい。同期信号およびクロックはデコーダ内の論理ブロックから再生成または再形成され、そのような動作モードの場合にFIFOバッファからデータを読み出すべく利用されるとしてもよい。このようにすることで、不安定なビデオ信号は安定した同期信号によって出力され得る。これ以外のすべての場合または動作モードでは、FIFOバッファは迂回されて、出力はFIFOへの入力と同一であるとしてもよい。
これに代えて、オフチップメモリにおいてFIFOバッファを実現することで不安定な同期信号を適切に処理させ得るとしてもよい。例えば、不安定な同期信号が検出されると、デコーダは2次元モードに入り、オフチップメモリの使用を減らすとしてもよい。通常は3次元処理に利用されるオフチップメモリ300の大部分は、解放状態となり、上述したFIFOバッファを実現するべく利用され得る(つまり、少なくとも1つのフルデータベクトルの等価物が解放されたメモリスペースとして利用可能である)。また、オフチップメモリ内のFIFOバッファは、完全な1フレームのピクセルを格納することができるので、書き込みレートと読み出しレートが一致しない場合でも、出力においてフレームは繰り返されたり間引きされたりする。特定のフレームまたはフレーム内のフィールドを繰り返したり、または間引きすることで、システムは十分に品質の良いピクチャを表示することができるようになる。
図12は、ビデオパイプライン内のフロントエンド540の機能の一例をより詳細に説明するための図である。具体的には、チャネルセレクタ1212は複数のビデオソースストリーム512から4つのチャネルを選択するように構成され得る。この4つのチャネルはフロントエンド540内で4つのパイプラインステージで処理され得る。一部の実施形態によると、この4つのチャネルは、メインビデオチャネルと、PIPチャネルと、オンスクリーン表示(OSD)チャネルと、データ計測または試験チャネルとを含むとしてもよい。
フロントエンド540は、これらのチャネルのうち任意のチャネルに対してさまざまなビデオ処理ステージ1220a、1220b、1230および1240を実施し得る。一部の実施形態によると、これらのさまざまなチャネルは、処理能力を上げることを目的として、他のステージのうち任意のステージと1以上のリソースを共有するとしてもよい。ビデオ処理ステージ1220aおよび1220bが提供し得る機能の例を幾つか挙げると、最高ピクチャ品質を実現するべく利用され得るノイズリダクションおよびデインターレースがある。ノイズリダクション機能およびデインターレース機能は、オフチップメモリ300を共有するとしてもよく、このため、メモリは共有メモリステージ1260として示されるようになる。共有メモリステージ1260は、図13および図15を参照しつつより詳細に説明される。図面が不必要に複雑にならないように、共有メモリステージ1260はチャネル1に対応する処理ステージの一部として図12に示されている。しかし、1以上の共有メモリステージ1260はフロントエンド540内のどのチャネルパイプラインの一部であってもよいと理解されたい。
ノイズリダクションを行うことによって、インパルスノイズ、ガウスノイズ(空間ノイズおよび時間ノイズ)、およびブロックノイズおよびモスキートノイズなどのMPEGアーチファクトを除去し得る。デインターレースは、動きがある場合にはエッジ適応型補間技術を用いて失われたラインを補間することによって、インターレースビデオからプログレッシブビデオを生成することを含み得る。これに代えて、デインターレース機能は動きに適応させて時間補間および空間補間の組み合わせを用いるとしてもよい。ノイズリデューサおよびデインターレーサは双方とも、3D領域で動作するとしてもよく、オフチップメモリにフレームの格納フィールドを要求するとしてもよい。このため、ノイズリデューサおよびデインターレーサはオフチップメモリにアクセスするべく利用され得るメモリインターフェース530に対してクライアントとして動作するとしてもよい。一部の実施形態によると、ノイズリデューサおよびデインターレーサは、共有メモリステージ1260が示すように、メモリスペースを最大限利用して且つ最も効率良くデータを処理するべくオフチップメモリを共有するとしてもよい。このプロセスは、図13および図15を参照しつつより詳細に説明される。
3つのビデオ処理ステージ1220a、1220bおよび1230はいずれも、ビデオ信号を所望の領域に変換するべくフォーマット変換を行うとしてもよい。例えば、この種の変換は入力ビデオ信号ストリームを601または709の色空間におけるYC4:2:2フォーマットへと変換するべく用いられるとしてもよい。
フロントエンド540はまた、データ計測機能を実施するべく計測パイプライン1240を供給し得る。計測パイプライン1240は例えば、開始ピクセルおよび終了ピクセルならびにアクティブビデオのライン位置を特定するべく、または制御可能な位相サンプラ(ADC)アップストリームがある場合には好ましいサンプリングクロック位相を特定するべく利用され得る。このような処理を実行することは、解像度、レターボックス、ピラーボックスなどの入力チャネルパラメータの自動検出に役立ち得る。また、このようなチャネルパラメータを検出することによって、検出されたパラメータを利用して、マイクロコントローラまたは任意のほかの適切な処理素子によってスケーリングおよびアスペクト比変換などの特徴を制御することができるようになるとしてもよい。フロントエンド540はまた、同期信号の損失、クロック信号の損失、または範囲外の同期信号またはクロック信号を検出するべく、4つのチャネル全てに対して同期ビデオ信号計測機能を実行するとしてもよい。これらの機能はまた、マイクロコントローラまたは任意のほかの適切な処理素子によって電力管理制御を実行するべく利用され得る。
フロントエンド540の終わりにおいて、FIFOバッファ群1250a−1250cがビデオストリームをサンプリングしてサンプリングされたビデオ信号1252、1254および1256を得るとしてもよい。サンプリングされたビデオ信号1252、1254および1256は、フロントエンドパイプラインステージ540とフレームレート変換/スケーリングパイプラインステージ550(図5を参照のこと)との間で、選択されたチャネルのタイミングを再調整するべく利用され得る。
共有メモリステージ1260は図13および図15を参照しつつより詳細に説明する。具体的には、図13に示すように、共有メモリステージ1260はノイズリデューサ330およびデインターレーサ340の機能を少なくとも含み得る。これらの機能は両方とも、高品質画像を生成するべくフレームの格納を必要とし得る時間に関する機能である。さまざまなメモリアクセスブロック(つまり、メモリクライアント)がオフチップメモリ300を共有できるようにすることで、オフチップメモリ300のサイズおよびオフチップメモリ300とインターフェースするために必要な帯域幅を小さくし得る。
ノイズリデューサ330は3Dモードでインターレースされた入力の2つのフィールドに対して処理を実行し得る。ノイズリデューサ330が処理し得る2つのフィールドは、ライブフィールド1262とライブフィールド1262の2フィールド前のフィールド(つまり、先々行フィールド332または2回遅延されたノイズリダクションフィールド332)を含み得る。デインターレーサ340は3Dモードにおいて3つのインターレースされたフィールドに対して処理を実行し得る。これら3つのフィールドは、ライブフィールド1262と、先行フィールド1330(例えば、1回遅延されたフィールド)と、先々行フィールド332(例えば、2回遅延されたフィールド)とを含み得る。
図13および図14に示すように、フィールドバッファ1310および1312はノイズリデューサ330およびデインターレーサ340が共有するとしてもよい。ノイズリデューサ330は、オフチップメモリ300のフィールドバッファ1310から先々行フィールド332を読み出して、ライブフィールド1262を用いて読み出したフィールドを処理してノイズリダクション済出力322を得るとしてもよい。ノイズリダクション済出力322はオフチップメモリ300のフィールドバッファ1312に書き込まれるとしてもよい。デインターレーサ340は、オフチップメモリ300のフィールドバッファ1312から先行フィールド1330を読み出して、フィールドバッファ1310から先々行フィールド332を読み出して、これらの読み出されたフィールドをライブフィールド1262またはノイズリダクション済出力322を用いて処理して、デインターレースビデオ1320を出力として得るとしてもよい。
例えば、図14に示すように、ライブフィールド1262(フィールド1)は、第1の期間(つまり、T1)においてノイズリデューサ330に与えられてノイズ処理出力322が出力されるとしてもよい。ノイズリデューサ330がフィールド1の処理を完了した後または完了する前に(つまり、期間T2において)、ノイズリダクション済出力322(フィールド1)はノイズリデューサ330からデインターレーサ340に与えられるか、または(例えば、ノイズリダクションが必要ない場合には)ノイズリデューサ330を迂回して直接1262を介してデインターレーサ340に与えられるとしてもよい。どちらの場合でも、第2の期間(つまり、期間T2)では、ノイズリダクション済出力322(フィールド1)はノイズリデューサ330によってオフチップメモリ300のフィールドバッファ1312に書き込まれるとしてもよい。
フィールドバッファ1312の出力1330(フィールド1)は、期間T2においてオフチップメモリ300からデインターレーサ340によって読み出されるとしてもよい。この間、フレームの次のライブフィールド(フィールド2)が処理されている。フィールドバッファ1312は続いて、ノイズ処理出力322(フィールド2)に先行して処理されたノイズリダクション済出力(フィールド1)(つまり、ライブフィールドに先行するフィールドまたは1回遅延されたノイズリダクション済ライブフィールド)を供給する。
第3の期間(つまりT3)において、ライブフィールド1262で次のフィールド(フィールド2)の処理をノイズリデューサ330が完了した後で、または完了する前に、フィールドバッファ1312のライブフィールド1330の以前のものがフィールドバッファ1310に書き込まれるとしてもよい。次のノイズリダクション済出力322(フィールド2)はノイズリダクション済出力(フィールド1)の代わりにフィールドバッファ1312に書き込まれるとしてもよい。期間T3において、フィールドバッファ1312の内容はノイズリダクション済出力(フィールド2)(つまり、先行ライブフィールドまたは1回遅延されたノイズリダクション済ライブフィールド)で、フィールドバッファ1310の内容はノイズリダクション済出力(フィールド1)(つまり、先々行ライブフィールドまたは2回遅延されたノイズリダクション済ライブフィールド)である。
期間T3において、ノイズリデューサ330はライブフィールド1262(フィールド3)と先々行ライブフィールド332(フィールド1)に対して処理を実行する。同じ期間T3において、デインターレーサ340は、ライブフィールド1262(フィールド3)またはノイズリダクション済出力(フィールド3)、ライブフィールドに先行するライブフィールド1330(フィールド2)、および先行ライブフィールドに先行するライブフィールド332(フィールド2)に対して処理を実行し得る。このため、ノイズリデューサ330とデインターレーサ340との間でオフチップメモリ300を共有することによって、利用するフィールドバッファロケーションの数は2つのみですむ。図3に示すように、同様の機能を実現するためには通常オフチップメモリ300には4つのフィールドバッファロケーションが必要である。
メモリ内のフィールドバッファロケーションの数を小さくすることによって、同じ処理能力においてビデオ処理パイプラインが追加され得るとともに、メモリのストレージおよび帯域幅も大きくなる。このため、少なくとも2つのチャネルに対して高品質のビデオ処理が可能となる。さらに、上述した機能を実現するために利用されるのは1つの書き込みポートと2つの読み出しポートのみであるので、デュアルビデオプロセッサ400とオフチップメモリ300との間のデータ転送帯域幅が低減され得る。
一部のほかの実施形態によると、ノイズリデューサ330およびデインターレーサ340は各フレームの複数のフィールドラインに対して同時に処理を行うとしてもよい。図15に示すように、これらのフィールドラインはそれぞれ、ライブフィールドラインバッファ1520、先行ライブフィールドラインバッファ1530および先々行ライブフィールドラインバッファ1510に格納され得る。ラインバッファ1510、1520および1530は、高効率および高速でデータの格納およびアクセスを行い得るデュアルビデオプロセッサ400のストレージロケーションであってもよい。ストレージスペースの量をさらに減らすべく、ノイズリデューサ330およびデインターレーサ340の両方によって利用されるラインバッファ1510はノイズリデューサモジュールとデインターレーサモジュールとによって共有されてもよい。
図15に示すように、ノイズリデューサ330とデインターレーサ340がライブフィールド1262を受け取ると、ライブフィールドをフィールドバッファ1312に格納するための図13および図14に関連して説明した動作に加えて、ライブフィールド1262はライブフィールドラインバッファ1520にも格納され得る。このため、ノイズリデューサ330およびデインターレーサ340は異なる時間間隔で受け取られた複数のライブフィールドラインに同時にアクセスすることができるようになる。同様に、フィールドバッファロケーション1310および1312に格納された内容は、対応するラインバッファ1510および1530に移されるとしてもよく、それぞれ、先行ライブフィールド(ライブフィールドに先行するノイズリダクション済出力)および先々行ライブフィールドライン(先行ライブフィールドに先行するノイズリダクション済出力)をバッファリングする。このようにすることで、ノイズリデューサ330およびデインターレーサ340は複数の先行ライブフィールドラインおよび複数の先々行ライブフィールドラインに同時にアクセスすることができるようになる。フィールドラインバッファを備えることによって、ノイズリデューサ330およびデインターレーサ340は複数のフィールドラインに対して同時に処理を行い得る。この結果、ノイズリデューサ330およびデインターレーサ340は、フィールドバッファロケーション1310に格納されている、先々行ライブフィールドへのアクセスを共有しているので、対応するフィールドラインバッファ1510に対するアクセスもまた共有し得る。この結果、デュアルビデオプロセッサ400上で必要とされるストレージの量またはデュアルビデオプロセッサ400に非常に近接しているストレージの量を小さくし得る。
図15に示しているラインバッファは3つのみであるが、設けられ得るフィールドラインバッファの数はいくつであってもよいと理解されたい。具体的には、設けられるフィールドラインバッファの数はデュアルビデオプロセッサ400上で利用可能なストレージスペースの量によって、および/またはノイズリデューサ330およびデインターレーサ340が同時に必要とし得るフィールドラインの数によって決まる。しかし、複数のフィールドラインの処理を支援するべく任意の数のノイズリダクション部およびデインターレース部を追加し得ることを理解されたい。
例えば、それぞれ同時に3つのライブフィールドラインを処理できるノイズリデューサ330を2つそしてデインターレーサ340を2つ設ける場合、8つのライブフィールドラインバッファ1520、6つの先行ライブフィールドラインバッファ1530、6つの先々行ライブフィールドラインバッファ1510を用いて複数のフィールドラインを処理するとしてもよい。ここで、各フィールドラインバッファの出力はノイズリデューサ部およびデインターレーサ部の対応する入力に接続される。実際には、必要な数のノイズリデューサおよびデインターレーサならびにオンチップスペースが利用可能であれば、1以上のフレームの内容がフィールドバッファに格納され得ると考えられている。
図16は、フレームレート変換/スケーリングパイプライン550(図5を参照のこと)(FRCパイプライン)をより詳細に示す図である。FRCパイプライン550は少なくともスケーリングおよびフレームレート変換の機能を含み得る。具体的には、FRCパイプライン550はスケーリングに用いられるモジュールを少なくとも2つ含み得る。スケーリングに用いられる少なくとも2つのモジュールは、スケーラスロット1630、1632、1634および1636のうち2つに配置され得る。1つのスケーラは第1のチャネルに対してスケーリングを行い、1つのスケーラは第2のチャネルに対してスケーリングを行う。この配置の利点は図17に基づく説明によってより明らかになる。スケーラスロット1630、1632、1634および1636のスケーリングモジュールはそれぞれ、任意のスケーリング率でアップスケーリングまたはダウンスケーリングを実行することが可能であるとしてもよい。これらのスケーラはさらに、アスペクト比変換、水平非線形3ゾーンスケーリング、インターレース、およびデインターレースを実行する回路を有するとしてもよい。一部の実施形態によると、スケーリングは、同期モード(つまり、出力は入力と同期している)で行われるとしてもよいし、オフチップメモリ300を用いて行われる(つまり、出力は入力に対して任意の時点で発生し得る)としてもよい。
FRCパイプライン550はさらに、フレームレート変換(FRC)の機能を含み得る。チャネルのうち少なくとも2つがフレームレート変換回路を有し得る。FRCを実行する場合には、ビデオデータをメモリバッファに書き込んで所望の出力レートでバッファから読み出す必要がある。例えば、フレームレートが増加するのは、入力フレームよりも速い速度で出力バッファから読み出すためであるので、特定のフレームが時間に関して繰り返されることになる。フレームレートが低減するのは、特定のフレームが書き込まれた場合よりも遅いレートでバッファから出力されるべきフレームを読み出すためである(つまり、入力レートよりも低速でフレームを読み出す)。フレームテアリング(frame tearing)又はビデオアーチファクトは、ビデオデータが利用可能な(つまり、アクティブビデオ)期間内において特定のフレームを読み出すことによって生じ得る。
具体的には、アクティブビデオ内に発生するフレームテアリング等のビデオアーチファクトを避けるためには、フレームの繰り返しまたは間引きは入力フレーム全体に対して行われるべきであり、1フレーム内のフィールドの中心に対して行われるべきではない。言い換えると、ビデオにおける不連続性はフレーム境界において(つまり、ピクチャデータが供給されない垂直または水平同期において)のみ発生すべきもので、アクティブビデオの領域中において発生すべきではない。テアリング防止(tearless)制御機構1610は、例えばメモリインターフェース530がメモリ内のフレームの一部分をいつ読み出すのかを制御することによって、フレーム間の非連続性を低減するべく動作し得る。FRCは通常モードまたはテアリング防止モードで(つまり、テアリング防止制御機構1610を利用して)動作するとしてもよい。
第1のチャネルおよび第2のチャネルのそれぞれに含まれるスケーラスロット1630、1632、1634および1636のうちの2つのスロットに配置される2つのスケーラに加えてさらに、第3のチャネルに低級スケーラ1640を設けるとしてもよい。低級スケーラ1640はより初歩的なスケーラであってよく、例えば、1:1または1:2のアップスケーリング、または任意のほかの必要なスケーリング率でのみスケーリングを実行するスケーラであってよい。これに代えて、第1のチャネルおよび第2のチャネルに含まれるスケーラのうち1つのスケーラが、第3のチャネルに対してスケーリングを行うとしてもよい。マルチプレクサ1620および1622は、少なくとも3つのチャネルのうちのいずれが利用可能なスケーラのうちどれに与えられるかを制御するとしてもよい。例えば、マルチプレクサ1620はスロット1630または1632にあるスケーラにおいて第1の種類のスケーリング動作を行うべくチャネル3を選択するとしてもよい。マルチプレクサ1622はスロット1634または1636にあるスケーラにおいて第2の種類のスケーリング動作を行うべくチャネル1を選択するとしてもよい。1つのチャネルが利用する利用可能なスケーラの数は任意であってもよいと理解されたい。
FRCパイプライン550はさらに、動きジッタ(motion jitter)を低減するべくスムーズムービーモード(smooth movie mode)を含むとしてもよい。例えば、デインターレーサに、入力ビデオ信号のモードを検出するフィルムモード検出ブロックが設けられるとしてもよい。ビデオ入力信号が第1の周波数を有する場合(例えば、60Hz)、これより高い周波数(例えば、72Hz)またはこれより低い周波数(例えば48Hz)に変換され得る。より高い周波数に変換する場合、フレーム繰り返し指示信号がフィルムモード検出ブロックからFRCブロックに供給され得る。フレーム繰り返し指示信号は、デインターレーサが生成し得るデータの第1のフレーム群(例えば、複数のフレームのうちの1つ)においてHIGHにあり、第2のフレーム群(例えば、4つのフレーム)においてLOWであるとしてもよい。フレーム繰り返し指示信号がHIGHである期間において、FRCはフレームを繰り返すので、より高い周波数で正しいデータシーケンスが生成されるとしてもよい。同様に、より低い周波数に変換する場合には、フレーム間引き指示信号がフィルムモード検出ブロックからFRCブロックへと供給され得る。フレーム間引き指示信号がHIGHである期間において、シーケンスから特定のフレーム群が間引きされるので、より低い周波数において正しいデータシーケンスが生成されるとしてもよい。
所望されるスケーリングの種類に応じて、スケーラ位置決めモジュール1660に示すように、スケーラはさまざまなスケーラスロット1630、1632、1634および1636に配置されるとしてもよい。スケーラスロット1632および1636は共にメモリインターフェースの後方に配設されている。ここで、スケーラスロット1632は第1のチャネルに対して実行されるスケーリング動作に対応し、スケーラスロット1636は第2のチャネルに対して実行されるスケーリング動作に対応する。図示されているように、1つのスケーラ位置決めモジュール1660は、特定のスケーラ構成に対応する出力を選択するマルチプレクサ1624を有し得る。一方、別のスケーラ位置決めモジュール1660は、マルチプレクサを有さない代わりに、別のビデオパイプライン構成要素に直接接続されるスケーラの出力を有するとしてもよい。マルチプレクサ1624によれば、2つのスケーラスロットのみを用いて3つの動作モード(図17を参照しつつより詳細に説明する)を実現できるという柔軟性が得られる。例えば、マルチプレクサ1624が設けられると、スロット1630に配置されるスケーラはダウンスケーリングまたはアップスケーリングを行うべくメモリに接続されると共にマルチプレクサ1624に接続されるとしてもよい。メモリ動作が所望されない場合、マルチプレクサ1624はスケーラスロット1630の出力を選択するとしてもよい。これに代えて、メモリ動作が必要な場合には、スケーラスロット1630に配置されるスケーラはデータに対してスケーリングを行い、マルチプレクサ1624は、データをアップスケーリングまたはダウンスケーリングし且つスケーラスロット1632に配置される別のスケーラからのデータを選択するとしてもよい。マルチプレクサ1624の出力は続いて、ブランクタイムオプティマイザ1650のような別のビデオパイプライン構成要素に与えられ得る。ブランクタイムオプティマイザ1650は、図18を参照しつつより詳細に説明する。
図17に示すように、スケーラ位置決めモジュール1660は少なくとも、入力FIFOバッファ1760、メモリインターフェース530に対する接続、3つのスケーラ位置決めスロット1730、1734、および1736のうち少なくとも1つ、書き込みFIFOバッファ1740、読み出しFIFOバッファ1750、および出力FIFOバッファ1770を備えるとしてもよい。スケーラ位置決めスロットは図16に示したスロットに対応するとしてもよい。例えば、スケーラ位置決めスロット1734はスロット1630または1634に対応するとしてもよく、同様にスケーラ位置決めスロット1730はスロット1630に対応するとしてもよい。上述したように、マルチプレクサ1624を用いることによってスロット1630はスケーラ位置決めスロット1730および1734の機能を実現し得る。1つまたは2つのスケーラを、メモリインターフェース530に対して、3つのスケーラ位置決めスロット1730、1734または1736のうち任意の1つまたは2つのスケーラ位置決めスロットに配置するとしてもよい。スケーラ位置決めモジュール1660はFRCパイプライン550におけるどのチャネルパイプラインの一部であってもよい。
同期モードが所望されている場合、スケーラはスケーラ位置決めスロット1730に配置され得る。このモードでは、FRCはシステムに設けられないとしてもよく、特定のFRCチャネルパイプラインがメモリにアクセスする必要がない。このモードでは、出力垂直同期信号が入力垂直同期信号にロックされるとしてもよい。
スケーラは、これに代えて、スケーラ位置決めスロット1734に配置されるとしてもよい。FRCが必要で入力データをダウンスケーリングする必要がある場合に、スケーラをスロット1734に配置することが所望されるとしてもよい。メモリに書き込む前に入力データをダウンスケーリングすると(つまり、より小さいフレームサイズが所望されているので)、その結果、必要とされ得るメモリストレージの量が小さくなる。メモリに格納されるデータの量が少なくなるので、出力データの読み出しレートが低くなり、その結果、必要とされる総メモリ帯域幅も少なくなり(そして、コストが下がる)、システムの効率が高くなる。
別のシナリオでは、スケーラはスケーラ位置決めスロット1736に配置されるとしてもよい。FRCが必要で入力データをアップスケーリングすべき場合にスケーラをスロット1736に設けることが所望されるとしてもよい。データは、出力データが読み出される時よりも低いレートでメモリに供給されるとしてもよい(つまり、フレームサイズは出力時よりも入力時の方が小さい)。この場合は、より小さいフレームを格納してその後で出力時にスケーラを用いてフレームサイズを大きくすることによって、メモリに書き込まれるデータの量が小さくされ得る。例えば、スケーラがスロット1734に配置されメモリに対して前方に来て入力データをアップスケーリングするべく利用されると、メモリに格納されるのがより大きなフレームとなるので必要な帯域幅も大きくなる。しかし、このような場合にメモリに対して後方にスケーラを配置することによって、より小さい時点でフレームがメモリにまず格納され(このため、消費される帯域幅が小さくなり)、その後で読み出してアップスケーリングする。
第1のチャネルおよび第2のチャネルについて2つの別々のスケーラ位置決めモジュール1660に2つの独立したスケーラが設けられている場合があるので、これらのスケーラ位置決めモジュール1660の両方に関してメモリアクセスが要求されると、一方が高帯域幅を要求して他方が低帯域幅メモリアクセスを要求することもあり得る。ブランクタイムオプティマイザ(BTO)マルチプレクサ1650は、メモリ帯域幅を小さくして且つ格納されているフィールドラインを任意の数のチャネルが共有できるようにして、その結果メモリストレージ要求を減らすべく、1以上のストレージバッファ(1以上のフィールドラインを格納するために十分な大きさ)を供給するとしてもよい。
図18は、BTOマルチプレクサ1650(図16を参照のこと)の動作の一例を説明するための図である。図18に示すように、第1のチャネル(Main)はスクリーン1810の大部分を占め、第2のチャネル(PIP)はスクリーン1810のより小さい一部分を占める。このため、Mainチャネルと比較すると、PIPチャネルが有し得るアクティブデータの方がより少なく、同一時間間隔においてメモリに要求するアクセスがより少ないとしてもよい。このため、必要とする帯域幅もより小さい。
例えば、1フレーム内の1フィールドラインが16個のピクセルを含むとすると、PIPチャネルはフレーム内の全フィールドのうち4つのピクセルを占めるに過ぎないが、Mainチャネルは残りの12ピクセルを占めるとしてもよい。このため、4ピクセルを処理するべくPIPチャネルがメモリにアクセスしていなければならない時間は、Mainチャネルよりも4倍長くなるので、メモリアクセスタイムライン1840に示すように必要とする帯域幅が小さくなる(つまり、PIPの方がブランクタイムインターバルが大きい)。この結果、必要とされるメモリ帯域幅を小さくするべく、PIPチャネルは大幅に遅いレートでメモリにアクセスするとしてもよく、Mainチャネルに残りの帯域幅を利用させ得るとしてもよい。
BTOマルチプレクサ1650は、異なるチャネルにおいてメモリにアクセスする場合に、さまざまなクロックレートを利用し得る。例えば、あるチャネルに関してより遅いクロックレートが所望され得る場合、BTOマルチプレクサ1650は、1つのクロックレート1844を用いてメモリアクセスブロック(クライアント)1820(つまり、PIPチャネル)から要求対象データを受信し、フィールドラインストレージバッファにデータを格納し、第2のクロックレート(より遅いとしてもよい)1846を用いてメモリにアクセスするとしてもよい。クライアントが高いクロックレートを用いてメモリに直接アクセスしないように制御して、その代わりにフィールドラインバッファを用いてより低いクロックレートでメモリにアクセスすることによって、帯域幅の要件を減らすとしてもよい。
BTOマルチプレクサ1650によれば、複数の異なるチャネルのフィールドラインバッファが共有され得るようになり、この結果さらにオフチップメモリ300が必要とするストレージの量が小さくなるとしてもよい。このようにすることによって、BTOマルチプレクサ1650は、共有されたフィールドラインバッファを用いて、表示の一部分を共有する複数の異なるチャネルをブレンディングまたはオーバレイするとしてもよい。
BTOマルチプレクサ1650の出力は色処理/チャネルブレンディングビデオパイプライン560(図5を参照のこと)に供給され得る。図19は、色処理/チャネルブレンディング(CPCB)ビデオパイプライン560をより詳細に示す図である。CPCBビデオパイプライン560は少なくとも、サンプラ1910、ビジュアルプロセッシング/サンプリングモジュール1920、オーバレイエンジン2000、補助チャネルオーバレイ1962を備え、さらに主要チャネルスケーリング/プロセッシングモジュール1970、補助チャネルスケーリング/プロセッシングモジュール1972、シグネチャアキュムレータ1990、およびダウンスケーラ1980を備える。
CPCBビデオパイプライン560の機能には少なくとも、輝度部分(luma)および色部分(chroma)のエッジ強調による画像強調などのビデオ信号特性の向上、ブルーノイズ成形マスクを用いたフィルム粒子の生成および追加が含まれ得る。さらに、CPCBビデオパイプライン560は少なくとも2つのチャネルをブレンディングすることができる。ブレンディングされたチャネルの出力は、3つのチャネルをブレンディングした出力および2つのチャネルをブレンディングした出力を供給するべく、選択的に第3のチャネルとブレンディングされ得る。
図21に示すように、CPCBビデオパイプライン560のオーバレイエンジン2000部分に含まれ得るCMU1930は、少なくとも1つのビデオ信号特性を改善し得る。このようなビデオ信号特性には、適応型コントラスト強調2120、画像における輝度、コントラスト、色相および彩度の大域的な調整、局所的な色のインテリジェントリマッピング2130、色相および輝度を変えない彩度のインテリジェント制御、ルックアップテーブル2150および2160に基づくガンマ制御、および所望の色空間への色空間変換(CSC)2110が含まれ得る。
CMU1930のアーキテクチャによると、CMUは任意のフォーマットのビデオチャネル信号1942を受信して出力1932を任意のほかのフォーマットに変換することができる。CMUパイプラインの前方にあるCSC2110は、ビデオチャネル信号1942を受信して、任意の可能な3色空間をビデオ色処理空間に変換するとしてもよい(例えば、RGBをYCbCrに変換する)。また、CMUパイプラインの終端におけるCSCは、色処理空間から出力用3色空間へと変換し得る。大域処理機能2140は、輝度、コントラスト、色相および/または彩度を調整するべく利用され得るとともに、出力CSCと共有され得る。CSCおよび大域処理機能2140はマトリクス乗算動作を実行するので、2つのマトリクス乗算器が1つに組み合わせられ得る。この種の共有は、2つのマトリクス乗算動作を組み合わせた後の最終係数を予め算出しておくことによって実現され得る。
CPCBビデオパイプライン560はさらに、表示デバイスによって要求され得る場合には、特定のビット数に対してディザリングを実行するとしてもよい。チャネル出力のうち少なくとも1つに対するインターレーサもまた備えられ得る。CPCBビデオパイプライン560はまた、デバイスに表示され得るチャネル出力のうち少なくとも1つに対して制御出力(水平同期、垂直同期、フィールド)を生成するとしてもよい。また、CPCBビデオパイプライン560は、輝度、コントラスト、色相および彩度の調整を大域的に出力チャネルのうちの少なくとも1つに対して分離して、出力チャネルのうち少なくとも1つに対して別にスケーリングおよびFRCを行うとしてもよい。
図16および図19に戻ると、FRCパイプライン550からのチャネル出力1656、1652、および1654はCPCBビデオパイプライン560に与えられる。第1のチャネル1656は、第1のチャネル1656におけるビデオ信号をアップサンプリングするべくサンプラ1910を利用し得る第1の経路に沿って処理されるとしてもよく、サンプラ1910の出力1912は、出力の少なくとも1つに対してブレンディングされた画像を生成するべく主要チャネルオーバレイ1960および補助チャネルオーバレイ1962の両方に与えられ得る。第2のチャネル1652はビジュアル処理およびサンプリングをモジュール1920で提供する第2の経路に沿って処理され得る。ビジュアル処理/サンプリングモジュール1920(ビデオ信号をアップサンプリングし得る)の出力は、出力に対して第3のチャネル1654(これもまた、サンプラ1910を経由し得る)をブレンディングまたは位置決めするべくビデオオーバレイ1940(またはオーバレイエンジン2000)に入力され得る。オーバレイエンジン2000の機能は図20を参照しつつより詳細に説明される。
ビデオオーバレイの出力1942(第2のビデオチャネル信号1625がオーバレイされた第1のビデオチャネル信号1623であってもよい)は、CMU1930を介して主要チャネルオーバレイ1960に与えられるとしてもよく、またマルチプレクサ1950に供給され得る。ビデオオーバレイの出力1942を受信することに加えて、マルチプレクサ1950はさらに、ビジュアルプロセッッシング/サンプリングモジュール1920およびサンプラ1910の出力を受信するとしてもよい。マルチプレクサ1950は、ビデオ信号入力のうちどれを補助チャネルオーバレイ1962に供給するかを選択するべく動作する。これに代えて、マルチプレクサ1951は、補助チャネルオーバレイ1962へのビデオ信号出力1934として、マルチプレクサ1950の出力またはCMU1930の出力1932のいずれを与えるかを選択するとしてもよい。主要チャネルオーバレイおよび補助チャネルオーバレイの前に処理部を配置することによって、同一ビデオ信号が主要チャネルオーバレイとともに補助チャネルオーバレイにも供給され得る。1970および1972においてさらに処理を施した後、(1)同一ビデオ信号(VI)は主要出力信号として主要出力1974に表示されるべく出力されると同時に、(2)補助出力信号として補助出力1976に表示または格納されるべく出力される前にさらにダウンスケーリングされ得る。
主要出力1974および補助出力1976の両方に対するデータ選択を独立して制御するべく、第1および第2のビデオチャネルオーバレイモジュール1940からの第1および第2のビデオチャネル信号1932および1934を独立して選択することによって主要チャネルおよび補助チャネルを形成するとしてもよい。補助チャネルオーバレイモジュール1962は、第1のビデオチャネル信号1652、第2のビデオチャネル信号1654、またはオーバレイされた第1および第2のビデオチャネル信号1942を選択するとしてもよい。CMU1930は第1のビデオチャネル信号1652に適用されるので、第2のビデオチャネル信号1654は、CMU1930の前または後で、第1および第2のビデオチャネル信号が同一または異なる色空間を持っているかどうかに応じて、マルチプレクサ1951によって選択され得る。また、第1および第2のビデオチャネル信号1932および1934は、第3のビデオチャネル信号1656と独立してブレンディングされるとしてもよい。
CPCBビデオパイプライン560はさらに、ダウンスケーラ1980によって表される補助出力1976に対してスケーリングおよびFRCを実現するとしてもよい。この特徴は、主要出力1974とは別の補助出力1976を得るために必要であるとしてもよい。より高い周波数クロックがスケーリングクロックとして選択されるべきであるので、補助クロック周波数が主要クロックの周波数以下であってもよく、このためCPCBビデオパイプライン560は主要出力クロックから外れ得る。ダウンスケーラ1980はまたインターレースされたデータを生成することが出来るとしてもよく、このインターレースされたデータには、補助出力として利用されるべく、FRCと出力データフォーマット化とが実行され得る。
ある場合において、第1のチャネルがSDTVビデオ信号で、主要出力1974がHDTV信号で補助出力1976はSDTVビデオ信号でなければならないとすると、CMU1930は第1のチャネルのSDビデオ信号をHDビデオに変換して、HD色処理を実行するとしてもよい。この場合、マルチプレクサ1950は出力ビデオ信号1942(CMU1930を通過しない信号)として選択するので、HD信号を主要チャネルオーバレイモジュール1960に与えると共に処理されたSDTV信号を補助チャネルオーバレイ1962に与える。さらに、追加補助チャネルスケーリング/処理モジュール1972は補助出力1976に対して色制御を実行し得る。
別の場合では、第1のチャネルがHDTVビデオ信号で、主要出力1974がHDTV信号であり補助出力1976がSDTVビデオ信号でなければならないとすると、CMU1930はHD処理を実行してマルチプレクサ1951はCMU1932の出力を選択してHDTV処理済み信号を補助チャネルオーバレイモジュール1962に与えるとしてもよい。さらに、追加補助チャネルスケーリング/処理モジュール1972は、補助出力1976について、色制御を行って色空間をSDTVに変更するとしてもよい。
さらに別の場合には、主要出力1974および補助出力1976は共にSDビデオ信号でなければならない場合、追加チャネルスケーリング/処理モジュール1970および1972は同様の色制御機能を実行して、対応する主要主力1974および補助出力1976に対して出力されるべく信号を整えるとしてもよい。
ビデオチャネルがパイプラインセグメント540、550、560および570(図5)のうち任意のセグメントにおいてそのパイプラインの一部を利用しない場合には、その利用されない部分はビデオの質を向上させるべく別のビデオチャネルによって利用され得ると理解されたい。例えば、第2のビデオチャネル1264がFRCパイプライン550のデインターレーサ340を利用しない場合、第1のビデオチャネル1262はビデオの質を向上させるべく第2のビデオチャネルのパイプラインのデインターレーサ340を利用するとしてもよい。図15に関連して説明されたように、追加ノイズリデューサ330および追加デインターレーサ340は、共有メモリパイプラインセグメント1260に同時に追加フィールドラインを処理させることによって(例えば、6つのフィールドライン処理を同時)あるビデオ信号の質を向上させるとしてもよい。
CPCBビデオパイプライン560を用いて供給され得る出力フォーマットの例の一部を挙げると、同一入力画像の主要出力および副次出力がNTSC(全米テレビ標準化委員会)およびPAL(位相反転線)、同一入力画像の主要出力および副次出力がHDおよびSD(NTSCまたはPAL)、第1のチャネルの画像は主要出力に提供され第2のチャネルの画像は補助出力に提供される2つの異なる出力、主要出力におけるオーバレイされた第1および第2のチャネルビデオ信号および補助出力における1つのチャネルビデオ信号(第1のチャネルまたは第2のチャネル)、主要出力と補助出力とで異なるOSDブレンディング係数(α値)、主要出力と補助出力とに対する独立した輝度、コントラスト、色相および彩度の調整、主要出力と補助出力で異なる色空間(例えば、主要出力ではRec.709で補助出力にはRec.601)、および/または、第1のチャネルのスケーラと第2のチャネルのスケーラとに対して異なるスケーリング係数群を利用することによって補助出力によりシャープ/スムーズな画像を出力することなどが挙げられる。
図20は、オーバレイエンジン2000(図19を参照のこと)をより詳細に説明するための図である。オーバレイエンジン2000は少なくとも、ビデオオーバレイモジュール1940、CMU1930、第1および第2のチャネルパラメータ2020および2030、セレクタ2010、および主要Mプレーンオーバレイモジュール2060を備える。主要Mプレーンオーバレイ2060は主要チャネルオーバレイ1960(図19を参照のこと)と同様であるが、追加チャネルビデオ信号2040を第3のチャネル入力1912(図19を参照のこと)に対してブレンディングまたはオーバレイするべく用いられ得るという機能が追加されているとしてもよいことを理解されたい。
オーバレイエンジン2000は、M個の利用可能な独立したビデオ/グラフィックプレーンを最終表示キャンバスに配置することによって1つのビデオチャネルストリームを生成し得る。一の具体的な実施形態によると、オーバレイエンジン2000は6つのプレーンを最終表示キャンバスに配置することによって1つのチャネルストリームを生成するとしてもよい。表示スクリーン上での各プレーンの位置は設定可能であるとしてもよい。各プレーンの優先度もまた設定可能であるとしてもよい。例えば、表示キャンバス上で複数のプレーンの位置が重なっている場合、優先順位に基づいてどのプレーンを上に配置してどのプレーンを隠すかを決定するとしてもよい。オーバレイはまた、各プレーンについて任意で境界を割り当てるべく利用され得る。
追加ビデオチャネル信号2040およびそれらのソースの例は、第1のチャネルのビデオ信号1652であってもよいメインプレーン、第2のチャネルのビデオ信号1654であってもよいPIPプレーン、オンチップ文字OSD生成器を用いて生成され得るcharOSDプレーン、ビットマップOSDエンジンを用いて生成され得るビットマップOSDプレーンを含み得る。OSD画像はメモリに格納されるとしてもよく、ここでメモリインターフェースを用いてメモリに予め格納されているさまざまなビットマップオブジェクトをフェッチして、フェッチしたオブジェクトを、これもまたメモリに格納され得る、キャンバス上に配置するとしてもよい。メモリインターフェースはさらに、要求されたオブジェクトをフェッチすると共にフォーマット変換を実行するとしてもよい。ビットマップOSDエンジンは、格納されているキャンバスをラスタ走査順に従って読み出してオーバレイに送信するとしてもよい。追加ビデオチャネル信号2040はカーソルOSDプレーンを含むとしてもよい。カーソルOSDプレーンは、カーソルOSDエンジンによって生成されるとしてもよく、カーソルなどの小さなオブジェクトのビットマップを格納するべく小さなオンチップメモリを利用するとしてもよい。追加ビデオチャネル信号2040はさらに、外部ソースから受信される外部OSDプレーンを含むとしてもよい。外部OSDエンジンはラスタ制御信号および表示クロックを送出するとしてもよい。外部OSDソースはこれらの制御信号を基準として用いて走査順に従ってデータを送信するとしてもよい。このデータがオーバレイにルーティングされるとしてもよい。外部OSDプレーンがイネーブルされると、フレキシポートを用いて外部OSDデータを受信するとしてもよい。
CMU1930の前に設けられるオーバレイ1940は、第1のビデオチャネルストリーム1653と第2のビデオチャネルストリーム1655とをオーバレイするとしてもよい。オーバレイ1940によってCMU1930はより効率良く動作することができるようになる。これは、CMU1930は単一のビデオストリームに対して処理を行うことができるので、複数のビデオチャネルストリームに対してCMU1930内でモジュールを複製する必要がなくなるためである。オーバレイ1940は、CMU1930に対して単一のビデオチャネル信号1942を供給することに加えて、さらに部分(つまり、ピクセル単位の)インジケータ1944をCMU1930に与えるとしてもよい。部分インジケータ1944は、ビデオの一部分が第1のビデオチャネルストリームまたは第2のビデオチャネルストリームのどちらに属しているかを特定する。
第1のビデオチャネルストリーム1653および第2のビデオチャネルストリーム1655に対応する2つのプログラム可能パラメータ群2020および2030が設けられるとしてもよい。セレクタ2010は部分インジケータ1944を用いてCMU1930に供給するプログラム可能パラメータを選択するとしてもよい。例えば、部分インジケータ1944がCMU1930が処理する部分が第1のビデオチャネルストリーム1653に属する旨を示す場合、セレクタ2010はCMU1930に対して第1のビデオチャネルストリーム1653に対応するプログラム可能パラメータ2020を与えるとしてもよい。
ビデオプレーンと同数の層が設けられているとしてもよい。層0が最下層であってよく、それに続く層の層インデックスが順次増えていくとしてもよい。層には、次元または位置に関する特性がないが、その代わりにスタックされるべき順序があるとしてもよい。オーバレイエンジン2000は、層0から始まって層番号が増えていく複数の層を混合するとしてもよい。層1は、層1に付されるビデオプレーンに対応付けられるブレンディング係数を用いて層0と最初にブレンディングされ得る。層0と層1とのブレンディングの出力は続いて、層2とブレンディングされ得る。使用され得るブレンディング係数は、層2に付されるプレーンに対応付けられるものであってもよい。層0、層1および層2のブレンディングの出力は続いて、層3とブレンディングされてもよい。このような動作を最後の層がブレンディングされるまで続ける。当業者は本発明の教示内容から逸脱することなく任意の組み合わせで層をブレンディングすることを選択し得ると理解されたい。例えば、層1は層3とブレンディングされ、そして層2とブレンディングされるとしてもよい。
また、オーバレイエンジン2000は主要出力チャネルと関連付けて説明されたが、色処理/チャネルブレンディングパイプライン560は補助出力チャネルに対してオーバレイエンジン2000を用いてMプレーンオーバレイを実現するように変形され得ると理解されたい。
図22は、ビデオパイプラインのバックエンドパイプラインステージ570をより詳細に説明するための図である。バックエンドパイプラインステージ570は少なくとも、主要出力フォーマッタ2280、シグネチャアキュムレータ1990、補助出力フォーマッタ2220およびセレクタ2230を備えるとしてもよい。
バックエンドパイプラインステージ570は、主要出力および補助出力の両方に対して出力フォーマッティングを実行し、補助出力として制御出力(水平同期、垂直同期、フィールド)を生成するとしてもよい。バックエンドパイプラインステージ570は、デジタルインターフェースおよびアナログインターフェースのどちらをも促進するとしてもよい。主要出力フォーマッタ2280は、処理された主要ビデオチャネル信号1974を受信して、対応する主要出力信号492aを生成するとしてもよい。補助出力フォーマッタ2220は、処理された補助ビデオチャネル信号1976を受信して、対応する補助出力492bを生成するとしてもよい。シグネチャアキュムレータ1990は、補助ビデオチャネル信号1976を受信して、累積し、累積された信号間の差分を比較して出力ビデオ信号の信号品質を判断するとしてもよい。さらに、この情報を、必要であればシステムパラメータを変更するべくプロセッサに与えるとしてもよい。
補助ビデオチャネル信号1976はさらに、出力492bのためにフォーマッティングされる前に、CCIR656エンコーダ(不図示)に供給されるとしてもよい。CCIR656エンコーダは、外部ストレージまたはそのほかの適切な手段に対して信号を整えるべく、任意の必要な符号化を実行するとしてもよい。これに代えて、補助ビデオチャネル信号1976は、セレクタ2230を用いてバイパス補助ビデオチャネル信号2240を選択することによって、符号化またはフォーマッティングされることなく出力信号492bとして供給されるとしてもよい。
バックエンドパイプラインステージ570にはインターレースモジュール(不図示)がさらに設けられるとしてもよい。入力信号がインターレースされると、まずデインターレーサ340(図13を参照のこと)によってプログレッシブに変換され得る。デインターレーサが必要なのは、ビデオパイプラインステージの後続モジュールがすべてプログレッシブ領域で動作し得るためであるとしてもよい。バックエンドパイプラインステージ570のインターレーサは、インターレースされた出力が所望される場合には、選択的にONに制御され得る。
インターレーサモジュールは少なくとも、少なくとも2ラインのピクセルを格納するのに十分な大きさのメモリを備えるとしてもよいが、必要であればフレーム全体を格納するように変形され得る。プログレッシブな入力がプログレッシブタイミングでメモリに書き込まれ得る。プログレッシブタイミングとロックしているインターレースタイミングがピクセルレートの半分で生成され得る。データはインターレースタイミングでメモリから読み出され得る。偶数のフィールドラインが奇数のフィールドで間引きされ、奇数のフィールドラインが偶数のフィールドで間引きされるとしてもよい。このようにすることによって、所与のデバイスでの利用に適するインターレース出力が生成され得る。
上記のように構成することによって、共有ストレージを用いて高品質のビデオチャネルストリームを複数供給する装置および方法が得られる。当業者であれば、上述した実施形態以外でも本発明を実施し得ることに想到するであろう。上述の実施形態は、本発明を限定する目的ではなく、本発明を説明する目的で記載されており、本発明は本願の請求項によってのみ限定される。

Claims (72)

  1. ノイズリデューサと、
    デインターレーサと、
    第1のフィールドバッファおよび第2のフィールドバッファを有するメモリと
    を備え、
    前記第1のフィールドバッファは、前記ノイズリデューサの出力を受け取り、
    前記ノイズリデューサは、前記第2のフィールドバッファの出力を受け取り、
    前記デインターレーサは、前記ノイズリデューサの前記出力と、前記第2のフィールドバッファの前記出力と、前記第1のフィールドバッファの前記出力とを受け取る
    共有メモリビデオ処理システム。
  2. 前記ノイズリデューサは、ライブフィールド入力信号を受け取ってノイズリダクション済ライブフィールドを出力する
    請求項1に記載のシステム。
  3. 前記ノイズリダクション済ライブフィールドは前記第1のフィールドバッファに格納され、前記第1のフィールドバッファの前記出力は1回遅延されたノイズリダクション済ライブフィールドを含む
    請求項2に記載のシステム。
  4. 前記1回遅延されたノイズリダクション済ライブフィールドは前記第2のフィールドバッファに格納され、前記第2のフィールドバッファの前記出力は2回遅延されたノイズリダクション済ライブフィールドを含む
    請求項3に記載のシステム。
  5. 前記ノイズリデューサおよび前記デインターレーサは第1のデバイスにあり、前記メモリは第2のデバイスにある
    請求項1に記載のシステム。
  6. 前記ノイズリデューサおよび前記デインターレーサは、前記第1のフィールドバッファおよび前記第2のフィールドバッファのみを用いてビデオ信号を処理する
    請求項1に記載のシステム。
  7. 第1のフィールドバッファに第1のノイズリダクション済ライブフィールドを格納することと、
    第2のフィールドバッファの以前に格納された内容をノイズリデューサおよびデインターレーサに供給することと、
    前記第1のフィールドバッファの以前に格納された内容を前記第2のフィールドバッファに移して、前記第1のフィールドバッファの前記以前に格納された内容をデインターレーサに供給することと
    を含む、ビデオ処理システムにおいてメモリを共有する方法。
  8. 前記第1のフィールドバッファの前記以前に格納された内容は、第2のノイズリダクション済ライブフィールドを含む
    請求項7に記載の方法。
  9. 前記第2のフィールドバッファの前記以前に格納された内容は、第3のノイズリダクション済ライブフィールドを含む
    請求項8に記載の方法。
  10. 第1のライブフィールドと前記第2のフィールドバッファの前記以前に格納された内容とを前記ノイズリデューサで処理することによって、前記第1のノイズリダクション済ライブフィールドを生成すること
    をさらに含む、請求項7に記載の方法。
  11. デインターレースビデオ出力を生成するべく、前記第1のノイズリダクション済ライブフィールドと、前記第1のフィールドバッファの前記以前に格納された内容と、前記第2のフィールドバッファの前記以前に格納された内容とを前記デインターレーサで処理すること
    をさらに含む、請求項7に記載の方法。
  12. 前記ノイズリデューサおよび前記デインターレーサは第1のデバイスにあり、前記第1のフィールドバッファおよび前記第2のフィールドバッファは第2のデバイスにある
    請求項7に記載の方法。
  13. ライブフィールドと、遅延されたライブフィールドと、第1のノイズリダクション済ライブフィールドと、第1の遅延されたノイズリダクション済ライブフィールドとを受け取り、第2のノイズリダクション済ライブフィールドを供給するノイズリデューサと、
    前記第2のノイズリダクション済ライブフィールドを受け取り、前記第1のノイズリダクション済ライブフィールドと第3のノイズリダクション済ライブフィールドとを供給する複数のフィールドバッファと、
    前記ライブフィールドと、前記第1のノイズリダクション済ライブフィールドと、前記第2のノイズリダクション済ライブフィールドと、前記第3のノイズリダクション済ライブフィールドとを受け取り、前記遅延されたライブフィールドと、前記第1の遅延されたノイズリダクション済ライブフィールドと、第2の遅延されたノイズリダクション済ライブフィールドと、第3の遅延されたノイズリダクション済ライブフィールドとを供給する複数のラインバッファと、
    前記第1のノイズリダクション済ライブフィールドと、前記第1の遅延されたノイズリダクション済ライブフィールドと、前記第2のノイズリダクション済ライブフィールドと、前記第2の遅延されたノイズリダクション済ライブフィールドと、前記第3のノイズリダクション済ライブフィールドと、前記第3の遅延されたノイズリダクション済ライブフィールドとを受け取るデインターレーサと
    を備える共有メモリビデオ処理システム。
  14. 前記複数のフィールドバッファのうちの1つである第1のフィールドバッファは、前記第2のノイズリダクション済ライブフィールドを格納して、前記第1のフィールドバッファに以前に格納された内容を前記複数のフィールドバッファのうちの1つである第2のフィールドバッファに移す
    請求項13に記載のシステム。
  15. 前記以前に格納された内容は、前記第3のノイズリダクション済ライブフィールドを含む
    請求項14に記載のシステム。
  16. 前記第1のノイズリダクション済ライブフィールドは、前記第2のフィールドバッファの以前に格納された内容を含む
    請求項15に記載のシステム。
  17. 前記遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、前記第3の遅延されたノイズリダクション済ライブフィールドはそれぞれ、前記ライブフィールド、前記第1のノイズリダクション済ライブフィールド、前記第2のノイズリダクション済ライブフィールド、前記第3のノイズリダクション済ライブフィールドを少なくとも1つの時間間隔だけ遅延させたものに対応する
    請求項13に記載のシステム。
  18. 前記遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、および前記第3の遅延されたノイズリダクション済ライブフィールドはそれぞれ、少なくとも1つの時間間隔だけさらに遅延される
    請求項17に記載のシステム。
  19. 前記ノイズリデューサ、前記複数のフィールドバッファ、および前記デインターレーサはそれぞれ、前記さらに遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、前記第3の遅延されたノイズリダクション済ライブフィールドを受け取る
    請求項18に記載のシステム。
  20. 前記ノイズリデューサおよび前記デインターレーサは、前記複数のフィールドバッファのうち少なくとも1つに対するアクセスを共有する
    請求項13に記載のシステム。
  21. 前記ノイズリデューサおよび前記デインターレーサは、前記複数のラインバッファのうち少なくとも1つに対するアクセスを共有する
    請求項13に記載のシステム。
  22. 第2のノイズリダクション済ライブフィールドを供給するべく、ライブフィールド、遅延されたライブフィールド、第1のノイズリダクション済ライブフィールド、および第1の遅延されたノイズリダクション済ライブフィールドを処理することと、
    第3のノイズリダクション済ライブフィールドを供給するべく、前記第2のノイズリダクション済ライブフィールドをバッファリングすることと、
    前記ライブフィールドと、前記第1のノイズリダクション済ライブフィールドと、前記第2のノイズリダクション済ライブフィールドと、前記第3のノイズリダクション済ライブフィールドとを遅延させることと、前記遅延されたライブフィールドと、前記第1の遅延されたノイズリダクション済ライブフィールドと、第2の遅延されたノイズリダクション済ライブフィールドと、第3の遅延されたノイズリダクション済ライブフィールドとを供給することと、
    デインターレース出力を供給するべく、前記第1のノイズリダクション済ライブフィールドと、前記第1の遅延されたノイズリダクション済ライブフィールドと、前記第2のノイズリダクション済ライブフィールドと、前記第2の遅延されたノイズリダクション済ライブフィールドと、前記第3のノイズリダクション済ライブフィールドと、前記第3の遅延されたノイズリダクション済ライブフィールドとを処理することと
    を含む、共有メモリビデオ処理システムにおいて複数のフィールドラインを処理する方法。
  23. 前記バッファリングすることはさらに、前記第2のノイズリダクション済ライブフィールドを格納することと、第1のバッファの以前に格納された内容を第2のバッファに移すこととを含む
    請求項22に記載の方法。
  24. 前記以前に格納された内容は、前記第3のノイズリダクション済ライブフィールドを含む
    請求項23に記載の方法。
  25. 前記第1のノイズリダクション済ライブフィールドは、前記第2のバッファの以前に格納された内容を含む
    請求項24に記載の方法。
  26. 前記遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、および前記第3の遅延されたノイズリダクション済ライブフィールドはそれぞれ、前記ライブフィールド、前記第1のノイズリダクション済ライブフィールド、前記第2のノイズリダクション済ライブフィールド、前記第3のノイズリダクション済ライブフィールドを少なくとも1つの時間間隔だけ遅延させたものに対応する
    請求項22に記載の方法。
  27. 前記遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、前記第3の遅延されたノイズリダクション済ライブフィールドはそれぞれ、少なくとも1つの時間間隔だけさらに遅延される
    請求項26に記載の方法。
  28. 前記さらに遅延されたライブフィールド、前記第1のさらに遅延されたノイズリダクション済ライブフィールド、前記第2のさらに遅延されたノイズリダクション済ライブフィールド、前記第3のさらに遅延されたノイズリダクション済ライブフィールドを受け取ることをさらに含む
    請求項27に記載の方法。
  29. 前記バッファリングされるノイズリダクション済ライブフィールドのうち少なくとも1つに対するアクセスを共有することをさらに含む
    請求項22に記載の方法。
  30. 前記遅延されるノイズリダクション済ライブフィールドのうち少なくとも1つに対するアクセスを共有することをさらに含む
    請求項22に記載の方法。
  31. 共有メモリビデオ処理システムであって、
    前記システムは、ライブビデオフィールドと、1回遅延されたノイズリダクション済ビデオフィールドと、2回遅延されたノイズリダクション済ビデオフィールドとを含む少なくとも3つの連続するビデオフィールドを処理し、
    前記2回遅延されたノイズリダクション済ビデオフィールドを格納する第1の共有フィールドバッファと、
    前記ライブビデオフィールドと前記2回遅延されたノイズリダクション済ビデオフィールドとを受け取り、ノイズリダクション済ライブビデオフィールドを供給するノイズリデューサと、
    前記ノイズリダクション済ライブビデオフィールドと、前記1回遅延されたノイズリダクション済ビデオフィールドと、前記2回遅延されたノイズリダクション済ビデオフィールドとを受け取り、ノイズリダクション済デインターレース出力ビデオフィールドを供給するデインターレーサと
    を備えるシステム。
  32. 前記1回遅延されたノイズリダクション済ビデオフィールドを格納する第2の共有フィールドバッファ
    をさらに備え、
    前記2回遅延されたノイズリダクション済ビデオフィールドは、前記ライブビデオフィールドが受け取られると、第2の共有フィールドバッファから前記第1の共有フィールドバッファへと移され、
    前記ノイズリダクション済ライブビデオフィールドは、前記1回遅延されたノイズリダクション済ビデオフィールドとして、前記第2の共有フィールドバッファに格納される
    請求項31に記載のシステム。
  33. メモリデバイスは前記第1の共有フィールドバッファと前記第2の共有フィールドバッファとを有し、前記メモリデバイスは1つの書き込みポートと2つの読み出しポートとを有する
    請求項32に記載のシステム。
  34. 前記ノイズリデューサは前記書き込みポートと前記2つの読み出しポートのうち一方の読出しポートとを制御するべく動作可能で、前記デインターレーサは前記2つの読み出しポートのうち他方の読み出しポートを制御するべく動作可能である
    請求項33に記載のシステム。
  35. 共有メモリビデオ処理システムを動作させる方法であって、
    前記共有メモリビデオ処理システムは、ライブビデオフィールドと、1回遅延されたノイズリダクション済ビデオフィールドと、2回遅延されたノイズリダクション済ビデオフィールドとを含む少なくとも3つの連続するビデオフィールドを処理し、
    前記方法は、
    第1の共有フィールドバッファに前記2回遅延されたノイズリダクション済ビデオフィールドを格納することと、
    ノイズリダクション済ライブビデオフィールドを供給するべく、前記ライブビデオフィールドと前記2回遅延されたノイズリダクション済ビデオフィールドとを処理することと、
    ノイズリダクション済デインターレース出力ビデオフィールドを供給するべく、前記第1の共有フィールドバッファからの前記2回遅延されたノイズリダクション済ビデオフィールドと、前記1回遅延されたノイズリダクション済ビデオフィールドと、前記ノイズリダクション済ライブビデオフィールドとを処理することと
    を含む方法。
  36. 前記ライブフィールドを受け取ることと、
    前記2回遅延されたノイズリダクション済ビデオフィールドを、第2の共有フィールドバッファから前記第1の共有フィールドバッファへと移すことと、
    前記1回遅延されたノイズリダクション済ビデオフィールドを供給するべく、前記ノイズリダクション済ライブビデオフィールドを前記第2の共有フィールドバッファに格納すること
    をさらに含む、請求項35に記載の方法。
  37. 前記2回遅延されたノイズリダクション済ビデオフィールドに対してノイズリダクション処理およびデインターレース処理を実行すること
    をさらに含む、請求項36に記載の方法。
  38. 前記第1のフィールドバッファと前記第2のフィールドバッファとを有するメモリデバイスの2つの読み出しポートのうちの一方と書き込みポートとを制御することと、前記2つの読み出しポートのうち他方を制御すること
    をさらに含む、請求項37に記載の方法。
  39. メモリデバイスと、
    複数のライブフィールドと複数のノイズリダクション済ライブフィールドとを処理する信号処理回路と、
    前記複数のライブフィールドのうち少なくとも1つと前記複数のノイズリダクション済ライブフィールドのうち少なくとも1つとを遅延させる遅延回路と
    を備え、
    前記信号処理回路はさらに、前記複数のライブフィールドおよび前記複数のノイズリダクション済ライブフィールドと共に、前記少なくとも1つの遅延されたライブフィールドおよび前記少なくとも1つの遅延されたノイズリダクション済ライブフィールドを処理する
    共有メモリビデオ処理システム。
  40. 前記遅延回路は少なくとも1つのフィールドラインバッファを有する
    請求項39に記載のシステム。
  41. 前記信号処理回路はさらに、
    前記メモリデバイスの第1の部分から1回遅延されたノイズリダクション済ライブフィールドを読み出して、
    前記メモリデバイスの前記第1の部分にノイズリダクション済ライブフィールドを格納して、
    前記メモリデバイスの第2の部分から2回遅延されたノイズリダクション済ライブフィールドを読み出して、
    前記遅延回路はさらに、前記1回遅延されたノイズリダクション済ライブフィールドおよび前記2回遅延されたノイズリダクション済ライブフィールドをさらに遅延させる
    請求項39に記載のシステム。
  42. 前記信号処理回路はさらに、前記少なくとも1つのライブフィールドと、前記少なくとも1つの遅延されたライブフィールドと、前記2回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドとに対してノイズリダクション処理を実行する
    請求項41に記載のシステム。
  43. 前記信号処理回路はさらに、前記少なくとも1つのノイズリダクション済ライブフィールドと、前記1回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された1回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドとに対してデインターレース処理を実行する
    請求項42に記載のシステム。
  44. 前記ノイズリダクション処理および前記デインターレース処理は、フィールドラインバッファから供給される前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドを共有する
    請求項43に記載のシステム。
  45. 複数のライブフィールドと複数のノイズリダクション済ライブフィールドとを処理することと、
    前記複数のライブフィールドのうち少なくとも1つと前記複数のノイズリダクション済ライブフィールドのうち少なくとも1つを遅延させることと、
    前記複数のライブフィールドおよび前記複数のノイズリダクション済ライブフィールドと共に、前記少なくとも1つの遅延されたライブフィールドおよび前記少なくとも1つの遅延されたノイズリダクション済ライブフィールドを処理することと
    を含む、共有メモリビデオ処理システムを動作させる方法。
  46. メモリデバイスの第1の部分から1回遅延されたノイズリダクション済ライブフィールドを読み出すことと、
    前記メモリデバイスの前記第1の部分にノイズリダクション済ライブフィールドを格納することと、
    前記メモリデバイスの第2の部分から2回遅延されたノイズリダクション済ライブフィールドを読み出すことと、
    前記1回遅延されたノイズリダクション済ライブフィールドおよび前記2回遅延されたノイズリダクション済ライブフィールドをさらに遅延させることと
    をさらに含む、請求項45に記載の方法。
  47. 前記少なくとも1つのライブフィールドと、前記少なくとも1つの遅延されたライブフィールドと、前記2回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドとに対してノイズリダクション処理を実行すること
    をさらに含む、請求項45に記載の方法。
  48. 前記少なくとも1つのノイズリダクション済ライブフィールドと、前記1回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された1回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドとに対してデインターレース処理を実行すること
    をさらに含む、請求項47に記載の方法。
  49. 前記ノイズリダクション処理および前記デインターレース処理において、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドを共有すること
    をさらに含む、請求項48に記載の方法。
  50. 第1のフィールドバッファ手段に第1のノイズリダクション済ライブフィールドを格納する手段と、
    第2のフィールドバッファ手段の以前に格納された内容をノイズリデューサ手段とデインターレーサ手段に供給する手段と、
    前記第1のフィールドバッファ手段の以前に格納された内容を前記第2のフィールドバッファ手段に移す手段と前記第1のフィールドバッファ手段の前記以前に格納された内容を前記デインターレーサ手段に供給する手段と
    を備える、ビデオ処理システムにおいてメモリを共有する装置。
  51. 前記第1のフィールドバッファ手段の前記以前に格納された内容は第2のノイズリダクション済ライブフィールドを含む
    請求項50に記載の装置。
  52. 前記第2のフィールドバッファ手段の前記以前に格納された内容は第3のノイズリダクション済ライブフィールドを含む
    請求項51に記載の装置。
  53. 前記ノイズリデューサ手段は、第1のライブフィールドと前記第2のフィールドバッファ手段の前記以前に格納された内容とを処理することによって、前記第1のノイズリダクション済ライブフィールドを生成する
    請求項50に記載の装置。
  54. 前記デインターレーサ手段は、前記第1のノイズリダクション済ライブフィールドと、前記第1のフィールドバッファ手段の前記以前に格納された内容と、前記第2のフィールドバッファ手段の前記以前に格納された内容とを処理することによって、デインターレースビデオ出力を生成する
    請求項50に記載の装置。
  55. 前記ノイズリデューサ手段および前記デインターレーサ手段は第1のデバイスにあり、前記第1のフィールドバッファ手段と前記第2のフィールドバッファ手段は第2のデバイスにある
    請求項50に記載の装置。
  56. 第2のノイズリダクション済ライブフィールドを供給するべく、ライブフィールドと、遅延されたライブフィールドと、第1のノイズリダクション済ライブフィールドと、第1の遅延されたノイズリダクション済ライブフィールドとを処理する手段と、
    第3のノイズリダクション済ライブフィールドを供給するべく、前記第2のノイズリダクション済ライブフィールドをバッファリングする手段と、
    前記ライブフィールドと、前記第1のノイズリダクション済ライブフィールドと、前記第2のノイズリダクション済ライブフィールドと、前記第3のノイズリダクション済ライブフィールドとを遅延し、且つ、前記遅延されたライブフィールドと、前記第1の遅延されたノイズリダクション済ライブフィールドと、第2の遅延されたノイズリダクション済ライブフィールドと、第3の遅延されたノイズリダクション済ライブフィールドとを供給する手段と、
    デインターレース出力を供給するべく、前記第1のノイズリダクション済ライブフィールドと、前記第1の遅延されたノイズリダクション済ライブフィールドと、前記第2のノイズリダクション済ライブフィールドと、前記第2の遅延されたノイズリダクション済ライブフィールドと、前記第3のノイズリダクション済ライブフィールドと、前記第3の遅延されたノイズリダクション済ライブフィールドとを処理する手段と
    を備える、共有メモリビデオ処理システムにおいて複数のフィールドラインを処理する装置。
  57. 前記バッファリング手段はさらに、前記第2のノイズリダクション済ライブフィールドを格納する手段と、以前に格納された内容を第1のバッファ手段から第2のバッファ手段に移す手段とを有する
    請求項56に記載の装置。
  58. 前記以前に格納された内容は前記第3のノイズリダクション済ライブフィールドを含む
    請求項57に記載の装置。
  59. 前記第1のノイズリダクション済ライブフィールドは前記第2のバッファ手段の以前に格納された内容を含む
    請求項58に記載の装置。
  60. 前記遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、前記第3の遅延されたノイズリダクション済ライブフィールドはそれぞれ、前記ライブフィールド、前記第1のノイズリダクション済ライブフィールド、前記第2のノイズリダクション済ライブフィールド、前記第3のノイズリダクション済ライブフィールドを少なくとも1つの時間間隔だけ遅延させたものに対応する
    請求項56に記載の装置。
  61. 前記遅延されたライブフィールド、前記第1の遅延されたノイズリダクション済ライブフィールド、前記第2の遅延されたノイズリダクション済ライブフィールド、前記第3の遅延されたノイズリダクション済ライブフィールドはそれぞれ、少なくとも1つの時間間隔だけさらに遅延される
    請求項60に記載の装置。
  62. 前記さらに遅延されたライブフィールド、前記さらに遅延された第1のノイズリダクション済ライブフィールド、前記さらに遅延された第2のノイズリダクション済ライブフィールド、前記さらに遅延された第3のノイズリダクション済ライブフィールドを受け取る手段
    をさらに備える、請求項61に記載の装置。
  63. 前記複数のバッファリングされたノイズリダクション済ライブフィールドのうち少なくとも1つに対するアクセスを共有する手段
    をさらに備える、請求項56に記載の装置。
  64. 共有メモリビデオ処理システムを動作させる装置であって、
    前記システムは、ライブビデオフィールドと、1回遅延されたノイズリダクション済ビデオフィールドと、2回遅延されたノイズリダクション済ビデオフィールドとを含む少なくとも3つの連続するビデオフィールドを処理し、
    前記2回遅延されたノイズリダクション済ビデオフィールドを第1の共有フィールドバッファ手段に格納する手段と、
    ノイズリダクション済ライブビデオフィールドを供給するべく前記ライブビデオフィールドと前記2回遅延されたノイズリダクション済ビデオフィールドとを処理する手段と、
    ノイズリダクション済デインターレース出力ビデオフィールドを供給するべく、前記ノイズリダクション済ライブビデオフィールドと、前記1回遅延されたノイズリダクション済ビデオフィールドと、前記2回遅延されたノイズリダクション済ビデオフィールドとを処理する手段と
    を備える装置。
  65. 前記ライブフィールドを受け取る手段と、
    前記2回遅延されたノイズリダクション済ビデオフィールドを、第2の共有フィールドバッファから前記第1の共有フィールドバッファ手段へと移す手段と、
    前記1回遅延されたノイズリダクション済ビデオフィールドを供給するべく、前記ノイズリダクション済ライブビデオフィールドを前記第2の共有フィールドバッファ手段に格納する手段と
    をさらに備える、請求項64に記載の装置。
  66. 前記2回遅延されたノイズリダクション済ライブフィールドに対してノイズリダクション処理とデインターレース処理とを実行する手段
    をさらに備える、請求項65に記載の装置。
  67. 書き込みポートと、2つの読み出しポートと、前記第1の共有フィールドバッファ手段と前記第2の共有フィールドバッファ手段とを有するメモリデバイスを制御する手段
    をさらに備える、請求項65に記載の装置。
  68. 複数のライブフィールドと複数のノイズリダクション済ライブフィールドとを処理する手段と、
    前記複数のライブフィールドのうち少なくとも1つと前記複数のノイズリダクション済ライブフィールドのうち少なくとも1つとを遅延させる手段と、
    前記複数のライブフィールドおよび前記複数のノイズリダクション済ライブフィールドと共に、前記少なくとも1つの遅延されたライブフィールドと前記少なくとも1つの遅延されたノイズリダクション済ライブフィールドとを処理する手段と
    を備える、共有メモリビデオ処理システムを動作させる装置。
  69. メモリデバイス手段の第1の部分から1回遅延されたノイズリダクション済ライブフィールドを読み出す手段と、
    前記メモリデバイス手段の前記第1の部分にノイズリダクション済ライブフィールドを格納する手段と、
    前記メモリデバイス手段の第2の部分から2回遅延されたノイズリダクション済ライブフィールドを読み出す手段と、
    前記1回遅延されたノイズリダクション済ライブフィールドおよび前記2回遅延されたノイズリダクション済ライブフィールドをさらに遅延させる手段と
    をさらに備える、請求項68に記載の装置。
  70. 前記少なくとも1つのライブフィールドと、前記少なくとも1つの遅延されたライブフィールドインターバルと、前記2回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドとに対してノイズリダクション処理を実行する手段
    をさらに備える、請求項69に記載の装置。
  71. 前記少なくとも1つのノイズリダクション済ライブフィールドと、前記1回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された1回遅延されたノイズリダクション済ライブフィールドと、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドとに対してデインターレース処理を実行する手段
    をさらに備える、請求項70に記載の装置。
  72. 前記ノイズリダクション処理および前記デインターレース処理において、前記さらに遅延された2回遅延されたノイズリダクション済ライブフィールドを共有する手段
    をさらに備える、請求項71に記載の装置。
JP2009506586A 2006-04-18 2007-04-18 共有メモリマルチビデオチャネル表示装置および方法 Active JP5095725B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US79327506P 2006-04-18 2006-04-18
US79327606P 2006-04-18 2006-04-18
US79327706P 2006-04-18 2006-04-18
US79328806P 2006-04-18 2006-04-18
US60/793,276 2006-04-18
US60/793,277 2006-04-18
US60/793,275 2006-04-18
US60/793,288 2006-04-18
US11/736,561 2007-04-17
US11/736,561 US8284322B2 (en) 2006-04-18 2007-04-17 Shared memory multi video channel display apparatus and methods
PCT/US2007/009584 WO2007120928A2 (en) 2006-04-18 2007-04-18 Shared memory multi video channel display apparatus and methods

Publications (3)

Publication Number Publication Date
JP2009534934A true JP2009534934A (ja) 2009-09-24
JP2009534934A5 JP2009534934A5 (ja) 2010-05-27
JP5095725B2 JP5095725B2 (ja) 2012-12-12

Family

ID=38610263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009506586A Active JP5095725B2 (ja) 2006-04-18 2007-04-18 共有メモリマルチビデオチャネル表示装置および方法

Country Status (6)

Country Link
US (2) US8284322B2 (ja)
EP (2) EP2337334B8 (ja)
JP (1) JP5095725B2 (ja)
KR (2) KR101334295B1 (ja)
CN (1) CN102523372B (ja)
WO (1) WO2007120928A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146558A (ja) * 2014-02-04 2015-08-13 三菱電機株式会社 画像処理装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7830459B2 (en) * 2006-02-03 2010-11-09 At&T Knowledge Ventures, L.P. System and method for parallel channel scanning
US8264610B2 (en) 2006-04-18 2012-09-11 Marvell World Trade Ltd. Shared memory multi video channel display apparatus and methods
US8218091B2 (en) 2006-04-18 2012-07-10 Marvell World Trade Ltd. Shared memory multi video channel display apparatus and methods
US8284322B2 (en) * 2006-04-18 2012-10-09 Marvell World Trade Ltd. Shared memory multi video channel display apparatus and methods
WO2008139476A2 (en) * 2007-05-14 2008-11-20 Sandisk Il Ltd Dual decoder portable media device
US9402062B2 (en) * 2007-07-18 2016-07-26 Mediatek Inc. Digital television chip, system and method thereof
TWI392332B (zh) * 2008-01-04 2013-04-01 Mstar Semiconductor Inc 影像處理電路及其方法
EP2242265B1 (en) 2008-01-31 2013-04-24 Mediatek Inc. A wireless communication receiver, a wireless communication receiving method and a television receiver
KR101573850B1 (ko) * 2009-06-09 2015-12-02 삼성전자주식회사 마스킹 회로를 포함하는 데이터 처리 시스템과 그 방법
BR112012007573A2 (pt) * 2009-09-29 2016-08-16 Sharp Kk dispositivo de saída de imagem e método de sintetização de imagem
CN103828343B (zh) * 2011-06-10 2017-07-11 菲力尔系统公司 基于行的图像处理和柔性存储系统
JP5599959B1 (ja) * 2013-05-20 2014-10-01 楽天株式会社 情報処理装置
US9911174B2 (en) 2015-08-26 2018-03-06 Apple Inc. Multi-rate processing for image data in an image processing pipeline
CN108965298B (zh) * 2018-07-19 2020-10-13 广州青鹿教育科技有限公司 基于多组分主题高清视频处理互动技术

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63131788A (ja) * 1986-11-21 1988-06-03 Toshiba Corp 順次走査変換回路
JPH07274120A (ja) * 1994-03-31 1995-10-20 Aiwa Co Ltd テレビジョン方式変換装置
JPH10191268A (ja) * 1996-12-26 1998-07-21 Sony Corp 映像信号処理装置および処理方法
JP2000270301A (ja) * 1999-03-15 2000-09-29 Toshiba Corp 映像信号処理装置

Family Cites Families (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62159582A (ja) * 1986-01-06 1987-07-15 Sony Corp テレビジヨン受像機
JPH0219079A (ja) * 1988-07-06 1990-01-23 Pioneer Electron Corp 映像信号処理装置
JPH03293822A (ja) * 1990-04-12 1991-12-25 Pioneer Electron Corp ダイバシティー受信機
DE4101629C3 (de) * 1991-01-21 2003-06-26 Fuba Automotive Gmbh Antennendiversity-Anlage mit mindestens zwei Antennen für den mobilen Empfang von Meter- und Dezimeterwellen
JP3177543B2 (ja) * 1992-07-22 2001-06-18 トウシバビデオプロダクツ プライベート リミテッド 映像信号のノイズ低減装置
US5636361A (en) * 1994-12-22 1997-06-03 International Business Machines Corporation Multi-processor computer system having dual memory subsytems for enabling concurrent memory access thereto by more than one processor
DE69610548T2 (de) 1995-07-21 2001-06-07 Koninkl Philips Electronics Nv Multi-media-prozessorarchitektur mit hoher leistungsdichte
US6359654B1 (en) 1996-02-14 2002-03-19 Conexant Systems, Inc. Methods and systems for displaying interlaced video on non-interlaced monitors
US6020931A (en) * 1996-04-25 2000-02-01 George S. Sheng Video composition and position system and media signal communication system
US5847772A (en) * 1996-09-11 1998-12-08 Wells; Aaron Adaptive filter for video processing applications
US6104417A (en) * 1996-09-13 2000-08-15 Silicon Graphics, Inc. Unified memory computer architecture with dynamic graphics memory allocation
US5982453A (en) * 1996-09-25 1999-11-09 Thomson Consumer Electronics, Inc. Reduction of visibility of spurious signals in video
JP3742167B2 (ja) 1996-12-18 2006-02-01 株式会社東芝 画像表示制御装置
TW338132B (en) * 1997-06-28 1998-08-11 United Microelectronics Corp The adaptive selecting method for memory access priority control in MPEG processor
US6006303A (en) * 1997-08-28 1999-12-21 Oki Electric Industry Co., Inc. Priority encoding and decoding for memory architecture
JP4086354B2 (ja) * 1998-02-12 2008-05-14 ローム株式会社 マルチフォーマットビデオエンコーダ
US6141062A (en) * 1998-06-01 2000-10-31 Ati Technologies, Inc. Method and apparatus for combining video streams
JP2000023061A (ja) * 1998-07-02 2000-01-21 Sony Corp テレビジョン受信機
US6456340B1 (en) * 1998-08-12 2002-09-24 Pixonics, Llc Apparatus and method for performing image transforms in a digital display system
US6037981A (en) * 1998-09-02 2000-03-14 Intel Corporation Method and apparatus for using digital televisions as remote personal computer displays
JP2000092469A (ja) 1998-09-10 2000-03-31 Mitsubishi Electric Corp デジタル受信端末
US6744472B1 (en) 1998-11-09 2004-06-01 Broadcom Corporation Graphics display system with video synchronization feature
US6636222B1 (en) * 1999-11-09 2003-10-21 Broadcom Corporation Video and graphics system with an MPEG video decoder for concurrent multi-row decoding
US6563506B1 (en) * 1998-12-14 2003-05-13 Ati International Srl Method and apparatus for memory bandwith allocation and control in a video graphics system
JP2000224139A (ja) * 1999-02-01 2000-08-11 Sony Corp ダイバーシチ受信装置
US6577353B1 (en) * 1999-10-21 2003-06-10 General Electric Company Optimization of television reception by selecting among or combining multiple antenna inputs
US6674796B1 (en) * 2000-02-14 2004-01-06 Harmonic, Inc. Statistical multiplexed video encoding for diverse video formats
US6690425B1 (en) * 2000-06-22 2004-02-10 Thomson Licensing S.A. Aspect ratio control arrangement in a video display
US7477326B2 (en) * 2000-12-15 2009-01-13 Broadcom Corporation HDTV chip with a single IF strip for handling analog and digital reception
JP4327370B2 (ja) * 2001-02-28 2009-09-09 ヤマハ株式会社 ビデオミキサー装置
US7034893B2 (en) * 2001-03-30 2006-04-25 Broadcom Corporation Method and apparatus for reception of terrestrial digital television signals
AU2002339655A1 (en) * 2001-11-23 2003-06-10 Koninklijke Philips Electronics N.V. Signal processing device for providing multiple output images in one pass
DE60225050T2 (de) * 2001-12-11 2009-04-02 Thomson Licensing Multiplex-analog/digitalumsetzer
DE10200805B4 (de) * 2002-01-11 2006-07-13 Harman/Becker Automotive Systems (Becker Division) Gmbh Verfahren zur Auswahl von n Antennen und einer von m alternativen Empfangsfrequenzen in einer Antennen- und Frequenzdiversityempfangsanlage sowie Antennen- und Frequenzdiversityempfangsanlage
KR100484132B1 (ko) * 2002-01-29 2005-04-18 삼성전자주식회사 다채널 a/d 변환기 및 그 시스템
US6806883B2 (en) * 2002-03-11 2004-10-19 Sun Microsystems, Inc. System and method for handling display device requests for display data from a frame buffer
JP3945328B2 (ja) 2002-07-12 2007-07-18 ソニー株式会社 画像処理装置及び画像処理方法
US20040131276A1 (en) 2002-12-23 2004-07-08 John Hudson Region-based image processor
CA2463228C (en) 2003-04-04 2012-06-26 Evertz Microsystems Ltd. Apparatus, systems and methods for packet based transmission of multiple data signals
JP3960258B2 (ja) * 2003-04-28 2007-08-15 ソニー株式会社 信号処理装置および信号処理方法
CN1279756C (zh) * 2003-05-23 2006-10-11 华亚微电子(上海)有限公司 应用场景静止检测的视频信号自适应递归降噪方法
US20050104899A1 (en) 2003-11-19 2005-05-19 Genesis Microchip Inc. Real time data stream processor
KR20050049680A (ko) * 2003-11-22 2005-05-27 삼성전자주식회사 노이즈 감쇠장치 및 디인터레이싱 장치
KR100710290B1 (ko) * 2003-11-29 2007-04-23 엘지전자 주식회사 비디오 디코딩 장치 및 방법
US7262818B2 (en) * 2004-01-02 2007-08-28 Trumpion Microelectronic Inc. Video system with de-motion-blur processing
US7400359B1 (en) 2004-01-07 2008-07-15 Anchor Bay Technologies, Inc. Video stream routing and format conversion unit with audio delay
KR100640885B1 (ko) * 2004-01-27 2006-11-02 엘지전자 주식회사 듀얼 비디오 디코딩을 위한 비디오 버퍼 제어 장치
US7259796B2 (en) 2004-05-07 2007-08-21 Micronas Usa, Inc. System and method for rapidly scaling and filtering video data
JP2008509576A (ja) 2004-06-21 2008-03-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 走査レート変換を利用した画像プロセッサ及び画像処理方法。
CA2509001A1 (en) * 2004-06-22 2005-12-22 Textron Inc. Blind bolt installation tool
US7250983B2 (en) 2004-08-04 2007-07-31 Trident Technologies, Inc. System and method for overlaying images from multiple video sources on a display device
US20060077213A1 (en) 2004-09-30 2006-04-13 Chrontel, Inc. Video conversion system and method
US7426594B1 (en) * 2004-10-08 2008-09-16 Nvidia Corporation Apparatus, system, and method for arbitrating between memory requests
EP1679882A4 (en) * 2004-10-14 2008-07-09 Matsushita Electric Ind Co Ltd VIDEO SIGNAL PROCESSOR
US7692683B2 (en) 2004-10-15 2010-04-06 Lifesize Communications, Inc. Video conferencing system transcoder
US7769089B1 (en) * 2004-12-02 2010-08-03 Kolorific, Inc. Method and system for reducing noise level in a video signal
US7525600B2 (en) * 2005-01-14 2009-04-28 Broadcom Corporation Single integrated high definition television (HDTV) chip for analog and digital reception
KR100666880B1 (ko) * 2005-01-14 2007-01-10 삼성전자주식회사 듀얼 비디오 디코딩 시스템 및 방법
US7425994B2 (en) 2005-01-31 2008-09-16 Texas Instruments Incorporated Video decoder with different signal types processed by common analog-to-digital converter
US7480012B1 (en) * 2005-02-24 2009-01-20 Pixelworks, Inc. Multiplexed video digitization system and method
US7797610B1 (en) * 2005-07-19 2010-09-14 Xilinx, Inc. Method and apparatus for virtual quad-port random access memory
KR20070060612A (ko) * 2005-12-09 2007-06-13 엘지전자 주식회사 디지털 비디오 레코더에서의 감시영상 출력방법
WO2007088515A1 (en) * 2006-02-03 2007-08-09 Nxp B.V. Video processing device and method of processing video data
US7821578B2 (en) * 2006-04-07 2010-10-26 Marvell World Trade Ltd. Reconfigurable self-calibrating adaptive noise reducer
US8218091B2 (en) 2006-04-18 2012-07-10 Marvell World Trade Ltd. Shared memory multi video channel display apparatus and methods
US8264610B2 (en) 2006-04-18 2012-09-11 Marvell World Trade Ltd. Shared memory multi video channel display apparatus and methods
US8284322B2 (en) * 2006-04-18 2012-10-09 Marvell World Trade Ltd. Shared memory multi video channel display apparatus and methods
US20080055477A1 (en) * 2006-08-31 2008-03-06 Dongsheng Wu Method and System for Motion Compensated Noise Reduction
US8134640B2 (en) * 2006-12-26 2012-03-13 Broadcom Corporation Video processor architecture and method for frame rate conversion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63131788A (ja) * 1986-11-21 1988-06-03 Toshiba Corp 順次走査変換回路
JPH07274120A (ja) * 1994-03-31 1995-10-20 Aiwa Co Ltd テレビジョン方式変換装置
JPH10191268A (ja) * 1996-12-26 1998-07-21 Sony Corp 映像信号処理装置および処理方法
JP2000270301A (ja) * 1999-03-15 2000-09-29 Toshiba Corp 映像信号処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015146558A (ja) * 2014-02-04 2015-08-13 三菱電機株式会社 画像処理装置

Also Published As

Publication number Publication date
EP2016758A2 (en) 2009-01-21
KR20090034800A (ko) 2009-04-08
CN102523372A (zh) 2012-06-27
EP2016758B1 (en) 2017-03-29
US8284322B2 (en) 2012-10-09
EP2337334B8 (en) 2014-07-09
KR101334295B1 (ko) 2013-11-29
WO2007120928A2 (en) 2007-10-25
US8754991B2 (en) 2014-06-17
WO2007120928A3 (en) 2008-06-19
US20130010197A1 (en) 2013-01-10
US20080055466A1 (en) 2008-03-06
JP5095725B2 (ja) 2012-12-12
KR101335270B1 (ko) 2013-11-29
CN102523372B (zh) 2014-12-24
EP2337334B1 (en) 2014-04-16
KR20130097247A (ko) 2013-09-02
EP2337334A1 (en) 2011-06-22

Similar Documents

Publication Publication Date Title
JP5095725B2 (ja) 共有メモリマルチビデオチャネル表示装置および方法
KR101366203B1 (ko) 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법
KR101366202B1 (ko) 공유 메모리 멀티 비디오 채널 디스플레이 장치 및 방법
US20070242160A1 (en) Shared memory multi video channel display apparatus and methods

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100409

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100409

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20101108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120919

R150 Certificate of patent or registration of utility model

Ref document number: 5095725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180608

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250