JP2011529209A - 画像処理のための装置および方法、およびシステム - Google Patents

画像処理のための装置および方法、およびシステム Download PDF

Info

Publication number
JP2011529209A
JP2011529209A JP2011502964A JP2011502964A JP2011529209A JP 2011529209 A JP2011529209 A JP 2011529209A JP 2011502964 A JP2011502964 A JP 2011502964A JP 2011502964 A JP2011502964 A JP 2011502964A JP 2011529209 A JP2011529209 A JP 2011529209A
Authority
JP
Japan
Prior art keywords
data
buffer
foreground
alpha
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011502964A
Other languages
English (en)
Other versions
JP5120987B2 (ja
Inventor
伸匡 玉置
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of JP2011529209A publication Critical patent/JP2011529209A/ja
Application granted granted Critical
Publication of JP5120987B2 publication Critical patent/JP5120987B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

影を合成可能な画像処理装置および画像処理方法を開示する。メモリ12は、画像の前景および背景のデータを記憶する。バッファ12Aには、前景、背景、および前景から生成された前景の影が合成された画像のデータが書き込まれる。プロセッサ11は、メモリ12およびバッファ12Aに接続され、メモリ12から前景のデータを読み出して前景の影のデータを生成し、その前景の影のデータをバッファ12Aに書き込み、その前景の影のデータをバッファ12Aから読み出して背景のデータとアルファ合成し、アルファ合成されたデータをバッファ12Aに書き込み、アルファ合成されたデータが書き込まれたバッファ12Aに前景のデータを書き込む、ように構成されてなる。さらに、画像処理システム100およびビデオ編集システム200を開示する。

Description

本発明は画像処理に関し、特にコンピュータグラフィックス(CG:Computer Graphics)の描画処理に関する。
CG処理の一つに、物体の影を生成する手法、すなわち影生成手法がある。影生成手法は、3次元CGだけでなく、ウィンドウシステム等の2次元CGにも利用される。
従来の影生成手法は一般に次の手順で行われる。まず、背景のデータがフレームバッファに書き込まれる。次に、前景の影のデータが、フレームバッファとは別の一時バッファを利用して計算され、その一時バッファに記憶される。ここで、影のデータの計算に一時バッファが利用されることにより、フレームバッファに書き込まれた背景のデータにかかわらず、複数の異なる影を同じピクセルに重ね書きしてそのピクセルでの影の色を過度に濃くすること、すなわち影の重複描画を容易に防止することができる。続いて、一時バッファの画像データがフレームバッファの画像データにアルファ合成されてフレームバッファに書き込まれる。最後に、前景のデータがフレームバッファに書き込まれる。
米国特許第6437782号明細書
近年、CGに対する更なる高機能化や高画質化への要求を満たすべく、画像処理の更なる高速化が求められている。しかし、従来の影生成手法では、上記のとおり、フレームバッファとは別の一時バッファが必要である。例えばHDTV(High Definition TeleVision:高精細テレビ)の画像処理では一時バッファとして4MBのメモリ容量が必要である。従って、従来の影生成手法では、画像処理に割り当てられるメモリの容量および帯域の更なる削減が困難である。その結果、画像処理の更なる高速化が困難である。
本発明の目的は、上記の問題を解決した、新規でかつ有用な画像処理装置、画像処理方法、および画像処理システムを提供することにある。本発明の具体的な目的は、一時バッファを利用することなく、影が合成可能な画像処理装置、画像処理方法、および、画像処理システムを提供することにある。
本発明の一態様によれば、画像の前景および背景のデータを記憶するメモリと、バッファと、前記メモリおよび前記バッファに接続されたプロセッサと、を備え、前記プロセッサが、前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込み、前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込み、前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む、ように構成されてなる、装置が提供される。
本発明によれば、プロセッサが、背景のデータよりも先に前景の影のデータを、最終的に画像が形成されることになるバッファに書き込む。さらに、プロセッサが、そのバッファに既に書き込まれている前景の影のデータに背景のデータをアルファ合成する。さらに、アルファ合成されたデータが書き込まれたそのバッファに、前景のデータを書き込む。これにより、前景とその影と背景とが合成された画像がそのバッファに形成される。したがって、そのバッファとは別の一時バッファを利用することなく、前景の影の画像を処理できる。
本発明の他の態様によれば、画像の前景および背景のデータを記憶するメモリと、バッファと、前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込む影描画手段と、前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込む背景合成手段と、前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む前景合成手段と、を備える、装置が提供される。
本発明によれば、背景のデータがバッファに書き込まれるよりも先に、影描画手段が前景の影のデータを生成して、最終的に画像が形成されることになるバッファに書き込む。さらに、背景合成手段が、バッファに既に書き込まれている前景の影のデータに背景のデータをアルファ合成する。さらに、前景合成手段が、アルファ合成されたデータが書き込まれたバッファに、前景のデータを書き込む。これにより、前景とその影と背景とが合成された画像がそのバッファに形成される。したがって、そのバッファとは別の一時バッファを利用することなく、前景の影の画像を処理できる。
本発明のその他の態様によれば、前景のデータから前景の影のデータを生成してバッファに書き込むステップと、前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込むステップと、前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込むステップと、を含む、方法が提供される。
本発明によれば、背景のデータよりも先に前景の影のデータがバッファに書き込まれ、バッファに既に書き込まれている前景の影のデータに背景のデータがアルファ合成される。さらに、アルファ合成されたデータが書き込まれたそのバッファに、前景のデータが書き込まれる。これにより、前景とその影と背景とが合成された画像がそのバッファに形成される。したがって、そのバッファとは別の一時バッファを利用することなく、前景の影の画像を処理できる。
本発明のその他の態様によれば、画像の前景および背景のデータを記憶するメモリと、バッファと、前記メモリおよび前記バッファに接続されたプロセッサと、を備えた装置の前記プロセッサに、前景のデータから前景の影のデータを生成してバッファに書き込むステップと、前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込むステップと、前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込むステップと、を実行させるためのプログラムが提供される。
本発明によれば、上記の効果と同様の効果が得られる。
本発明のその他の態様によれば、システムであって、画像の前景および背景のデータを記憶するメモリと、バッファと、前記メモリおよび前記バッファに接続された第1のプロセッサと、当該画像処理システムの制御を行う第2のプロセッサと、を備え、前記第1のプロセッサが、前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込み、前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込み、前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む、ように構成されてなる、前記システムが提供される。
本発明によれば、上記の効果と同様の効果が得られる。
本発明のその他の態様によれば、システムであって、画像の前景および背景のデータを記憶するメモリと、バッファと、当該画像処理システムの制御を行うプロセッサと、前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込む影描画手段と、前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込む背景合成手段と、前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む前景合成手段と、を備える、前記システムが提供される。
本発明によれば、上記の効果と同様の効果が得られる。
本発明によれば、一時バッファを利用することなく、影が合成可能な画像処理のための装置、方法、およびシステムが提供できる。
本発明の第1の実施形態に係る画像処理システムのハードウェア構成を示すブロック図である。 本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。 前景の影のデータの生成およびフレームバッファへの書き込みの説明図である。 フレームバッファに書き込まれた前景の影のデータを模式的に表す図である。 前景の影のデータと背景のデータとのアルファ合成の説明図である。 フレームバッファに書き込まれた、アルファ合成された前景の影と背景とのデータを模式的に表す図である。 前景のデータのフレームバッファへの書き込みの説明図である。 フレームバッファに書き込まれた、前景、背景、および前景の影のデータを模式的に表す図である。 本発明の第1の実施形態に係る画像処理方法のフローチャートである。 前景の影のデータと背景のデータとのアルファ合成処理のフローチャートである。 本発明の第2の実施形態に係るビデオ編集システムのハードウェア構成を示すブロック図である。 本発明の第2の実施形態に係るビデオ編集システムの機能構成を示すブロック図である。 編集ウィンドウの一例を示す図である。
以下、本発明の好ましい実施形態について、図面を参照しながら説明する。
《第1の実施形態》
図1は、本発明の第1の実施形態に係る画像処理システム100のブロック図である。図1を参照するに、この画像処理システム100はパーソナルコンピュータ等のコンピュータ端末を用いて実現され、そのコンピュータ端末に接続されたモニタ30、例えば、アナログモニタ30A、デジタルモニタ30B、および/またはTV受像器30CにCG画像を表示する。アナログモニタ30Aは液晶ディスプレイ(LCD)またはブラウン管モニタ(CRT)である。デジタルモニタ30BはLCDまたはデジタルプロジェクタである。TV受像器30Cはビデオテープレコーダ(VTR)に置き換えられてもよい。
画像処理システム100は、グラフィックスボード10、マザーボード20、およびシステムバス60を含む。グラフィックスボード10は、画像処理装置10A、内部バス13、入出力インタフェース(I/O)14、表示用データ生成器15、およびAV端子16を含む。マザーボード20は、CPU21、メインメモリ22、およびI/O23を含む。なお、グラフィックスボード10はマザーボード20に統合されていてもよい。システムバス60は、グラフィックスボード10とマザーボード20との間を接続するバスである。システムバス60はPCI−Express規格に準拠している。その他に、システムバス60はPCI規格またはAGP規格に準拠していてもよい。
画像処理装置10Aはグラフィックス処理専用のプロセッサ(GPU:Graphics Processing Unit)11とビデオメモリ(VRAM)12とを含む。GPU11とVRAM12とは内部バス13によって接続されている。
GPU11は、グラフィックス表示に必要な演算処理に特化した、チップ等の論理回路である。GPU11の行うCG処理にはジオメトリ処理とレンダリング処理とがある。ジオメトリ処理では、幾何学的演算、特に座標変換により、3次元仮想空間の中に想定された各モデルを2次元画面に投影したときの配置が決定される。レンダリング処理では、ジオメトリ処理で決定された2次元画面上での各モデルの配置に基づき、2次元画面に実際に表示されるべき画像のデータが生成される。レンダリング処理には、隠面消去、シェーディング、シャドウイング、テクチャマッピング等が含まれる。
GPU11は、頂点シェーダ11A、ピクセルシェーダ11B、およびROP(Rendering Output Pipeline、または、Rasterizing OPeration)ユニット11Cを含む。
頂点シェーダ11Aはジオメトリ処理専用の演算器であり、ジオメトリ処理に必要な幾何学的演算、特に座標変換に関する演算に利用される。頂点シェーダ11Aは、幾何学的演算の種類別に用意された演算器であっても、プログラムによって種々の幾何学的演算を処理可能な演算器であってもよい。
ピクセルシェーダ11Bはレンダリング処理専用の演算器であり、レンダリング処理に必要な各ピクセルの色情報、すなわちピクセルデータの処理に関する演算に利用される。ピクセルシェーダ11Bは、VRAM12から画像データをピクセル単位で読み出して、その成分間の和および積をピクセル単位で計算できる。ピクセルシェーダ11Bは、ピクセルデータの処理に関する演算の種類別に用意された演算器であっても、プログラムによって種々の演算をピクセル単位で処理可能な演算器であってもよい。さらに、同じプログラム可能な演算器がプログラムに応じて、頂点シェーダ11Aおよびピクセルシェーダ11Bとして使い分けられてもよい。
なお、ピクセルデータは例えばARGB4:4:4:4で表現される。RGBは三原色の各成分を表し、Aはアルファ値を表す。ここで、アルファ値は、同じピクセルデータの色成分を他のピクセルデータの色成分とアルファ合成するときの重みを表す。アルファ値は、正規化された場合0〜1の間の数値をとり、百分率で表した場合0〜100%の数値をとる。アルファ値は、アルファ合成における各ピクセルデータの色成分の不透明の度合いを意味する場合もある。
ROPユニット11Cは、レンダリング処理専用の演算器であり、レンダリング処理において、ピクセルシェーダ11Bによって生成されたピクセルデータをVRAM12に書き込む。ROPユニット11Cはさらに、そのピクセルデータの各成分と、VRAM12に記憶された別のピクセルデータの各成分との和および積を計算できる。その機能を利用することで、ROPユニット11Cは特に、フレームバッファ12Aの画像データにVRAM12の別領域の画像データをアルファ合成して、フレームバッファ12Aに書き込むことができる。
VRAM12は、例えば、シンクロナスDRAM(SDRAM)であり、好ましくは、DDR(Double−Data−Rate)−SDRAM、またはGDDR(Graphic−DDR)−SDRAMである。VRAM12はフレームバッファ12Aを含む。フレームバッファ12Aは、GPU11によって処理された、モニタ30に出力されるべき1フレームの画像データを記憶する。フレームバッファ12Aの各メモリセルが一つのピクセルの色情報、すなわち一組のピクセルデータを記憶する。ここで、ピクセルデータは例えばARGB4:4:4:4で表現される。VRAM12は、フレームバッファ12Aの他に、各種テクスチャ等の画像データの記憶領域やGPU11用の演算バッファ領域を含む。
I/O14は、内部バス13をシステムバス60に接続するインタフェースであり、システムバス60を通してグラフィックスボード10とマザーボード20との間でデータを交換する。I/O14はPCI−Express規格に準拠している。その他に、I/O14はPCI規格またはAGP規格に準拠していてもよい。なお、I/O14は、GPU11と同じチップに組み込まれていてもよい。
表示用データ生成器15は、フレームバッファ12Aからピクセルデータを読み出して表示用データとして出力するためのチップ等のハードウェアである。表示用データ生成器15は、フレームバッファ12Aのアドレス範囲をモニタ30の画面に対応させ、そのアドレス範囲の中に読み出しアドレスを生成するごとに、その読み出しアドレスからピクセルデータを順番に読み出して一連の表示用データとして出力する。なお、表示用データ生成器15は、GPU11と同じチップに組み込まれていてもよい。
AV端子16は、モニタ30に接続され、表示用データ生成器15から出力された表示用データを、モニタ30への出力に適した信号形式に変換してモニタ30に出力する。AV端子16は例えば、アナログRGBコネクタ16A、DVIコネクタ16B、およびS端子16Cを含む。アナログRGBコネクタ16Aは、表示用データをアナログRGB信号に変換してアナログモニタ30Aに出力する。DVIコネクタ16Bは、表示用データをDVI信号に変換してデジタルモニタ30Bに出力する。S端子16Cは、表示用データを、NTSC、PAL、またはHDTVのTV信号に変換してTV受像器30Cに出力する。ここで、TV信号は、S信号、コンポジット信号、またはコンポーネント信号のいずれでもよい。AV端子16はその他に、HDMIコネクタやD端子等、他の種類のコネクタや端子を含んでもよい。なお、表示用データを適切な信号形式に変換する機能は、AV端子16の代わりにGPU11に実装されていてもよい。その場合、GPU11は表示用データを、出力先のモニタ30の種類に応じた信号形式に変換して、AV端子16からモニタ30に出力する。
CPU21は、メインメモリ22に記憶されているプログラムを実行し、そのプログラムに従って、グラフィックスボード10に処理対象の画像データを与え、グラフィックスボード10の各要素の動作を制御する。CPU21はメインメモリ22からVRAM12に画像データを書き込むことができる。そのとき、CPU21は画像データの形式を、GPU11によって処理可能な形式、例えばARGB4:4:4:4に変換してもよい。
メインメモリ22は、CPU21によって実行されるプログラム、および、グラフィックスボード10による処理対象の画像データを記憶する。
I/O23は、CPU21およびメインメモリ22をシステムバス60に接続するインタフェースであり、システムバス60を通してグラフィックスボード10とマザーボード20との間でデータを交換する。I/O23はPCI−Express規格に準拠している。その他に、I/O23はPCI規格またはAGP規格に準拠していてもよい。
図2は、画像処理装置10Aの機能構成を示すブロック図である。図2を参照するに、画像処理装置10Aは、影描画手段101、背景合成手段102、および前景合成手段103を含む。これら三つの手段101、102、103はGPU11によって実現され、前景の影を生成して背景に描画する処理を行う。ここで、前景のデータおよび背景のデータは予め、例えばCPU21の命令によってVRAM12に記憶されている。なお、CPU21の代わりにGPU11の命令によってVRAM12に記憶されていてもよい。また、VRAM12の代わりに、CPU21あるいはGPU11がアクセス可能なメモリ、例えば、メインメモリ22に前景のデータおよび背景のデータが記憶されていてもよい。
影描画手段101は、CPU21からの指示に従い、VRAM12に記憶された前景のデータからその前景の影のデータを生成して、フレームバッファ12Aに書き込む。
図3Aは、影描画手段101による前景FGの影SHのデータの生成およびフレームバッファ12Aへの書き込みの説明図である。図3Aを参照するに、影描画手段101はまず、影SHの色とアルファ値0%とを示すピクセルデータでフレームバッファ12Aの全体を埋める。影描画手段101は次に、VRAM12に記憶された前景FGのデータからその前景FGの影SHのアルファ値を生成してフレームバッファ12Aに書き込む。ここで、影描画手段101は頂点シェーダ11Aを利用して影SHの形を計算してもよい。
図3Bは、影描画手段101によってフレームバッファ12Aに書き込まれた前景FGの影SHのデータを模式的に表す図である。図3Bを参照するに、斜線部は影SHの範囲を示す。その範囲の内側ではアルファ値が0%より大きいので影の色が表示され、その範囲の外側ではアルファ値が0%であるので影の色が表示されない。このように、フレームバッファ12Aには影SHのデータが記憶される。
なお、前景が一つで、光源が複数の場合や、前景が複数で光源が一つの場合、あるいはこれらの組み合わせの場合は、複数の異なる影が生じる。このような場合、影描画手段101は、それらの影のデータを一つずつ順番に生成してフレームバッファ12Aに書き込む。新たに生成された影が、フレームバッファ12Aに先に書き込まれた影と同じピクセルで重なる場合、影描画手段101は、新たに生成された影と先に書き込まれた影とでそのピクセルのアルファ値を比較して、いずれか大きい方をそのピクセルのアルファ値として選択する。こうして、影の重複描画が容易に防止される。
図2に戻り、背景合成手段102は、VRAM12に記憶された背景のデータをフレームバッファ12Aの画像データにアルファ合成してフレームバッファ12Aに書き込む。
図4Aは、背景合成手段102による前景の影SHのデータと背景BGのデータとのアルファ合成の説明図である。図4Aを参照するに、背景合成手段102は、VRAM12から背景BGのピクセルデータを読み出して、背景BGの各ピクセルデータをフレームバッファ12Aの対応するピクセルデータにアルファ合成し、アルファ合成されたピクセルデータでフレームバッファ12Aの元のピクセルデータを更新する。背景合成手段102はそれらの操作をフレームバッファ12Aの全てのピクセルデータについて繰り返すことにより、アルファ合成された前景の影SHと背景BGとのデータをフレームバッファ12Aに書き込むことができる。
図4Bは、背景合成手段102によってフレームバッファ12Aに書き込まれた、アルファ合成された前景の影SHと背景BGとのデータを模式的に表す図である。図4Bを参照するに、斜線部は影SHの範囲を示し、横線部は背景BGの範囲を示す。影SHの内側では影SHの色と背景BGの色とが、それぞれのアルファ値に応じた割合で加算されて表示される。一方、影SHの外側では影SHのアルファ値が0%であるので、背景BGの色が背景BGのアルファ値の重みで表示される。
図2に戻り、前景合成手段103は、VRAM12に記憶された前景のデータをフレームバッファ12Aに書き込む。
図5Aは、前景合成手段103による前景FGのデータのフレームバッファ12Aへの書き込みの説明図である。図5Aを参照するに、前景合成手段103は、VRAM12から前景FGのピクセルデータを一組読み出すごとに、そのピクセルデータでフレームバッファ12Aの対応するピクセルデータを更新する。前景合成手段103はそれらの操作を、VRAM12に記憶された前景FGの全てのピクセルデータについて繰り返すことにより、前景FGのデータをフレームバッファ12Aに書き込む。
図5Bは、前景合成手段103によってフレームバッファ12Aに書き込まれた、前景FG、背景BG、および前景FGの影SHのデータを模式的に表す図である。図5Bを参照するに、白色部は前景FGの範囲を示し、斜線部は影SHの範囲を示し、横線部は背景BGの範囲を示す。前景FGの内側では、影SHの色および背景BGの色にかかわらず、前景FGの色が前景FGのアルファ値の重みで表示される。一方、前景FGの外側では、図4Bに示されている影SHと背景BGとの合成画像が表示される。
図6は、本発明の第1の実施形態に係る画像処理方法のフローチャートである。以下、図6を参照しながら、画像処理装置10Aによる画像処理方法について説明する。GPU11は、例えば、CPU21から画像処理の指示を受けたときに、以下の処理は開始される。
最初に、ステップS10では、影描画手段101が、VRAM12に記憶された前景のデータを読み出して、その前景の影のデータを生成して、フレームバッファ12Aに書き込む。
次いで、ステップS20では、背景合成手段102が、VRAM12に記憶された背景のデータをフレームバッファ12Aの画像データにアルファ合成してフレームバッファ12Aに書き込む。なお、そのアルファ合成処理の詳細については後述する。
次いで、ステップS30では、前景合成手段103が、VRAM12に記憶された前景のデータをフレームバッファ12Aに書き込む。
図7は、背景合成手段102による前景の影のデータと背景のデータとのアルファ合成処理のフローチャートである。以下、図7を参照しながら、そのアルファ合成処理の詳細について説明する。
最初に、ステップS21では、背景合成手段102がピクセルシェーダ11Bを利用して、VRAM12に記憶された背景のデータから一組のピクセルデータ、すなわち、一つのピクセルの色成分BCとアルファ値BAとを読み出す。
次いで、ステップS22では、背景合成手段102がピクセルシェーダ11Bを利用して、読み出されたピクセルデータの色成分BCとアルファ値BAとの積BC×BAを求める。その積BC×BAはROPユニット11Cに出力される。
次いで、ステップS23では、背景合成手段102がROPユニット11Cを利用して、フレームバッファ12Aに記憶された前景の影のデータから、ステップS21で読み出されたピクセルデータに対応するピクセルデータ、すなわち、当該ピクセルの色成分SCとアルファ値SAとを読み出す。
次いで、ステップS24では、背景合成手段102がROPユニット11Cを利用して、背景の色成分BCと背景のアルファ値BAとの積BC×BA、および、前景の影の色成分SCと前景の影のアルファ値SAを用いて、アルファ合成された色成分RCを次式(1)から求める。
C=SC×SA+(BC×BA)×(1−SA)・・・・・・・(1)
次いで、ステップS25では、背景合成手段102がROPユニット11Cを利用して、アルファ合成された色成分RCをフレームバッファ12Aに書き込む。
次いで、ステップS26では、背景合成手段102がピクセルシェーダ11Bを利用して、1フレームの全てのピクセルについてアルファ合成処理を終えたか否かを判定する。アルファ合成処理を終えていないピクセルが残っている場合(ステップS26で“NO”の場合)、処理がステップS21から繰り返され、全てのピクセルについてアルファ合成処理を終えた場合(ステップS26で“YES”の場合)、処理が図6のフローチャートに戻って、ステップS30に進む。
ここで、背景合成手段102によるアルファ合成処理には、次に説明するGPUの持つアルファ合成機能を使用しない。それは以下の理由による。
従来のアルファ合成機能では、書き込み先のバッファに予め書き込まれた画像データにソースバッファの画像データがアルファ合成される。GPUは特に、書き込み先のバッファの色成分DSTC、および、ソースバッファの色成分SRCCとアルファ値SRCAを用いて、アルファ合成された色成分RSLCを次式(2)から求める。
RSLC=SRCC×SRCA+DSTC×(1−SRCA)・・・・・・・(2)
ここで、書き込み先のバッファの色成分DSTCとしては、元のピクセルデータの色成分とアルファ値との積が利用される。
この従来のアルファ合成機能を利用する場合、フレームバッファに背景のデータを先に書き込んでフレームバッファを書き込み先のバッファとして指定し、フレームバッファとは別の一時バッファに前景の影のデータを書き込んでその一時バッファをソースバッファとして指定する。それにより、式(2)では、書き込み先のバッファの色成分DSTCとして背景の色成分BCとアルファ値BAとの積BC×BAが用いられ、ソースバッファの色成分SRCCとアルファ値SRCAとして前景の影の色成分SCとアルファ値SAとがそれぞれ用いられる。従って、式(2)の結果RSLCとして式(1)の結果RCが得られる。すなわち、背景のデータに前景の影のデータが正しくアルファ合成される。
しかし、この合成処理では、フレームバッファ12Aに前景の影のデータを先に書き込んでフレームバッファ12Aを書き込み先のバッファとして指定し、背景のデータが書き込まれたVRAM12の領域をソースバッファとして指定した場合、式(2)では、書き込み先のバッファの色成分DSTCとして前景の影の色成分SCとアルファ値SAとの積SC×SAが用いられ、ソースバッファの色成分SRCCとアルファ値SRCAとして背景の色成分BCとアルファ値BAとがそれぞれ用いられる。従って、式(2)の結果RSLCは式(1)の結果RCとは異なる。すなわち、前景の影のデータに背景のデータが正しくはアルファ合成されない。
ステップS20のアルファ合成処理では、背景合成手段102が、GPU11の従来のアルファ合成機能に代えて、ピクセルシェーダ11BとROPユニット11Cとの各演算機能を利用して、式(1)の演算を実現させる。それにより、背景合成手段101は、フレームバッファ12Aに前景の影のデータを先に書き込んでも、そのデータに背景のデータを正しくアルファ合成できる。
第1の実施形態に係る画像処理装置10Aは、フレームバッファ12Aに前景の影のデータを背景のデータよりも先に書き込み、上記式(1)の演算によって、フレームバッファ12Aの画像データに背景のデータをアルファ合成する。それにより、画像処理装置10Aは、フレームバッファ12Aとは別の一時バッファを利用することなく、前景の影のデータを背景のデータに正しくアルファ合成することができる。その結果、画像処理装置10Aは、VRAM12等、画像処理に割り当てられるメモリの容量および帯域をさらに削減できる。
第1の実施形態に係る画像処理装置10Aは、GPU11を利用して、影描画手段101、背景合成手段102、および前景合成手段103を実現する。画像処理装置10Aはその他に、GPU11の代わりにCPU21を利用して、それら三つの手段101、102、103の一つ以上を実現してもよい。また、各手段101、102、103は、前景のデータおよび/または背景のデータを、VRAM12の代わりに、メインメモリ22から読み出してもよい。さらに、フレームバッファ12Aは、VRAM12の代わりにメインメモリ22の中に組み込まれていてもよい。
《第2の実施形態》
図8は、本発明の第2の実施形態に係るビデオ編集システム200のハードウェア構成を示すブロック図である。図8を参照するに、第2の実施形態に係るビデオ編集システム200はノンリニアビデオ編集システムであり、パーソナルコンピュータ等のコンピュータ端末を用いて実現される。ビデオ編集システム200は、画像処理システム100、HDD300A、ドライブ400A、入出力インタフェース500、ユーザインタフェース600、およびエンコーダ700を備えている。ビデオ編集システム200はそれらの他に、外部のLANやインターネットに接続可能なネットワークインタフェースをさらに備えてもよい。
画像処理システム100は、グラフィックスボード10、マザーボード20、およびシステムバス60を含む。グラフィックスボード10は、画像処理装置10A、内部バス13、I/O14、表示用データ生成器15、およびAV端子16を含む。マザーボード20は、CPU21、メインメモリ22、およびI/O23を含む。画像処理システム100は、図1に示されている要素と同様な要素を含み、図8ではそれら同様な要素に対して、図1に示されている符号と同じ符号を付し、詳細な説明については、第1の実施形態における説明を援用する。
なお、CPU21は、画像処理システム100の各要素に加えて、ビデオ編集システム200の各要素を制御する。また、AV端子16は、図1に示されているコネクタ等16A、16B、16Cに加えて、例えばIEEE1394インタフェースを含み、それを利用して第1カメラ501Aとの間でAVデータの入出力を行う。AV端子16は、第1カメラ501Aの他にも、VTR、スイッチャー、送出サーバー等、AVデータを扱う様々な機器との間でAVデータの入出力を行ってもよい。
HDD300Aおよびドライブ400Aは、ビデオ編集システム200を実現するコンピュータ端末に内蔵され、システムバス60に接続されている。なお、HDD300Aの代わりに、図8に示されているように、入出力インタフェース500を通してシステムバス60に接続された外付けのHDD300Bを設けてもよく、HDD300AとHDD300Bの両方を設けてもよい。HDD300Bはネットワークを介して入出力インタフェース500に接続されてもよい。同様に、ドライブ400Aの代わりに、またはドライブ400Aに加えて、外付けのドライブ400Bを設けてもよい。
ドライブ400Aおよびドライブ400Bは、DVD401等のリムーバブルメディアに、映像データおよび/または音声データを含むAVデータの記録再生を行う。リムーバブルメディアとしては、光ディスク、磁気ディスク、光磁気ディスク、半導体メモリ等が挙げられる。
入出力インタフェース500は、HDD300Bやドライブ400Bの他に、ユーザインタフェース600の各要素61〜64や、第2カメラ501B等の外部機器に内蔵される記憶媒体をシステムバス60に接続する。入出力インタフェース500は、例えばIEEE1394インタフェースを利用して第2カメラ501Bとの間でAVデータの入出力を行う。入出力インタフェース500は、第2カメラ501Bの他にも、VTR、スイッチャー、送出サーバー等、AVデータを扱う様々な機器との間でAVデータの入出力を行うことができる。
ユーザインタフェース600は、入出力インタフェース500を通してシステムバス60に接続されている。ユーザインタフェース600は例えば、マウス601、キーボード602、ディスプレイ603、およびスピーカ604を含む。ユーザインタフェース600は、タッチパネル(図示せず)等、他の入力デバイスを含んでもよい。
エンコーダ700は、AVデータの符号化処理専用の回路であり、システムバス60から供給されたAVデータを、例えば、MPEG(Moving Picture Experts Group)方式で圧縮符号化してシステムバス60に出力する。なお、エンコーダ700は、グラフィックスボード10またはマザーボード20に統合されていてもよい。さらに、エンコーダ700はGPU11の中に組み込まれていてもよい。また、エンコーダ700は、圧縮を目的としない符号化処理に利用されてもよい。
図9は、第2の実施形態に係るビデオ編集システム200の機能構成を示すブロック図である。図9を参照するに、ビデオ編集システム200は、編集部201、符号化部202、および出力部203を含む。これら三つの機能部201、202、203は、CPU21に所定のプログラムを実行させることによって実現される。画像処理装置10Aは、影描画手段101、背景合成手段102、および前景合成手段103を含む。これら三つの手段101、102、103は、図2に示されている手段101、102、103と同様であるので、それらの詳細については、第1の実施形態に係る手段101、102、103についての説明を援用する。
編集部201は、ユーザの操作に従い、編集対象のAVデータを選択して、それに対する編集情報を作成する。編集情報は、編集対象のAVデータから一連のAVデータストリームを編集する処理の内容を規定する情報である。編集情報は、例えば、そのAVデータストリームの各部分を構成する素材データの一部または全体を参照する情報、すなわちクリップを含む。編集情報はさらに、クリップごとに、その参照先の素材データを含むファイルの識別情報と形式、静止画や動画等の素材データの種類、映像サイズ、アスペクト比、フレームレート、および/または、素材データの参照部分の時間軸上、すなわちタイムライン上での開始位置と終了位置との各タイムコードを含む。編集情報はその他に、クリップごとに、その参照先の素材データに対する、復号処理やエフェクト処理等の編集処理の内容を規定する情報を含む。ここで、エフェクト処理の種類には、例えば、各クリップに対応する映像の色や明るさの調整、各クリップに対応する映像全体に対する特殊効果、および、複数のクリップ間での映像の合成等が含まれる。
編集部201はさらに、編集情報に基づき、選択されたAVデータを読み出してそれに対して編集処理を行い、一連のAVデータストリームとして出力する。
具体的には、編集部201は、まず、DVD401、HDD300A、またはHDD300B等のリソースに記憶されたファイルの一覧を、ユーザインタフェース600に含まれるディスプレイ603に表示する。それらのファイルは、映像データ、音声データ、静止画、またはテキストデータ等を含む。ユーザはマウス601やキーボード602を操作して、その一覧の中から、編集対象のデータ、すなわち素材データを含むファイルを選択する。編集部201は、ユーザによるファイルの選択を受け付け、選択されたファイルに対応するクリップをディスプレイ603に表示する。
図10は、編集ウィンドウEWの一例である。編集部201は、ディスプレイ603にこの編集ウィンドウEWを表示してユーザから編集操作を受け付ける。図10を参照するに、編集ウィンドウEWは、例えば、素材ウィンドウBW、タイムラインウィンドウTW、およびプレビューウィンドウPWを含む。
編集部201は、素材ウィンドウBWに、選択された編集対象のファイルに対応するクリップIC1を表示する。
編集部201は、タイムラインウィンドウTWに複数のトラックTRを表示し、各トラックTR上へのクリップCL1〜CL4の配置を受け付ける。図10では、各トラックTRは画面の水平方向に延びている細長い帯状領域である。各トラックTRはタイムライン上での位置情報を示す。図10では、各トラックTRの上を画面の水平方向に左から右へ進むほどタイムライン上の位置が進むように、各トラックTR上の水平方向での位置がタイムライン上の位置に対応づけられている。編集部201は、例えばユーザによるマウス601の操作を通して、素材ウィンドウBWから各トラックTR上へのクリップCL1〜CL4の配置を受け付ける。
編集部201は、タイムラインウィンドウTWにタイムラインカーソルTLCと時間軸目盛りTLSとを表示してもよい。図10では、タイムラインカーソルTLCは、時間軸目盛りTLSから画面の垂直方向に延びた直線であり、各トラックTRと垂直に交差している。タイムラインカーソルTLCはタイムラインウィンドウTWの中を水平方向に移動可能である。タイムラインカーソルTLCの端が指す時間軸目盛りTLSの値は、タイムラインカーソルTLCと各トラックTRとの交差点のタイムライン上での位置を表す。
編集部201は、各トラックTR上に配置される各クリップCL1〜CL4のタイムライン上での開始位置であるインポイントIPと終了位置であるアウトポイントOPとの設定、および、各トラックTR上に配置された後での各クリップCL1〜CL4のインポイントIPとアウトポイントOPとの変更を受け付ける。
編集部201は、各トラックTR上に配置された各クリップCL1〜CL4について、エフェクト処理の設定、例えば、各クリップCL1〜CL4に対応する映像の色や明るさの調整、各映像に対する特殊効果の設定、異なるトラックTRに並列に配置された第2クリップCL2と第3クリップCL3等の間での映像の合成等をユーザから受け付ける。
編集部201は、プレビューウィンドウPWに、タイムラインカーソルTLCの示すタイムライン上の位置に配置されたクリップに対応する映像を表示する。図10では、タイムラインカーソルTLCの示す、第3クリップCL3内の位置に対応する映像IMがプレビューウィンドウPWに表示される。編集部201はまた、タイムラインウィンドウTWに配置されたクリップCL1〜CL4のうち、指定された範囲に対応する動画像をプレビューウィンドウPWに表示する。ユーザは、プレビューウィンドウPWに表示された映像から、編集部201によって受け付けられた編集処理の結果を確認できる。
編集部201は、タイムラインウィンドウTW内のトラックTR上でのクリップCL1〜CL4の配置、および、各クリップCL1〜CL4に設定された編集処理の内容に基づいて編集情報を生成する。編集部201はさらに、その編集情報に従い、各クリップCL1〜CL4が参照するファイルから素材データを読み出して復号し、各クリップCL1〜CL4に設定されたエフェクト処理を素材データに加え、その結果得られたAVデータをタイムライン上の順番で連結して一連のAVデータストリームとして出力する。そのとき、編集部201は、必要に応じて、復号処理および/またはエフェクト処理に画像処理装置10Aを利用する。
符号化部202は、図8に示されているエンコーダ700のデバイスドライバである。符号化部202はその他に、CPU21によって実行されるAVデータの符号化処理モジュールであってもよい。符号化部202は、編集部201から出力されたAVデータストリームを符号化する。その符号化方式は編集部201によって設定される。
出力部203は、符号化されたAVデータストリームを所定のファイル形式または伝送形式に整形する。そのファイル形式または伝送形式は編集部201によって設定される。具体的には、出力部203は、必要に応じて、図8に示されている表示用データ生成器15やAV端子16を利用し、符号化されたAVデータストリームに、その復号に必要な情報やパラメータ、その他規定された情報を加え、それらのデータ全体を規定された形式に整える。
出力部203はさらに、システムバス60を通して任意の記録媒体、例えば、HDD300A、HDD300B、または、ドライブ400A若しくはドライブ400Bに装着されたDVD401等に、整形されたAVデータストリームを書き込む。出力部203はその他に、整形されたAVデータストリームを、ネットワークインタフェースを通して接続されたデータベースや情報端末に送信することもできる。出力部203は、整形されたAVデータストリームを、AV端子16や入出力インタフェース500から外部機器に出力することもできる。
編集部201は、画像処理装置10Aの影描画手段101、背景合成手段102、および前景合成手段103をエフェクト処理に利用する。それにより、編集部201は、エフェクト処理の一つとして、例えば図10に示されている第2クリップCL2に対応する画像の影、または、球体や箱等、所定の仮想的な物体を生成し、さらにその物体の影を生成して、第3クリップCL3に対応する背景に描画する処理を提供できる。編集部201は、前景のデータと背景のデータとをVRAM12に書き込んだ上で画像処理装置10Aに影の生成を指示する。その結果、画像処理装置10Aから出力された、前景、その影、および背景の合成画像のデータは、編集部201によって符号化部202に出力され、または、表示用データ生成器15、AV端子16、入出力インタフェース500によってモニタ30若しくはディスプレイ603に表示される。
第2の実施形態に係るビデオ編集システム200は、画像処理装置10Aが、第1の実施形態に係るものと同様に、フレームバッファ12Aに前景の影のデータを背景のデータよりも先に書き込み、式(1)の演算によって、フレームバッファ12Aの画像データに背景のデータをアルファ合成する。それにより、画像処理装置10Aは、フレームバッファ12Aとは別の一時バッファを利用することなく、前景の影のデータを背景のデータに正しくアルファ合成することができる。その結果、第2の実施形態に係るビデオ編集システム200は、VRAM12等、画像処理に割り当てられるメモリの容量および帯域をさらに削減できる。
なお、第2の実施形態に係るビデオ編集システム200は、GPU11を利用して、影描画手段101、背景合成手段102、および前景合成手段103を実現する。ビデオ編集システム200はその他に、GPU11の代わりにCPU21を利用して、それら三つの手段101、102、103の一つ以上を実現してもよい。また、各手段101、102、103は、前景のデータおよび/または背景のデータを、VRAM12の代わりに、メインメモリ22から読み出してもよい。さらに、フレームバッファ12Aは、VRAM12の代わりにメインメモリ22の中に組み込まれていてもよい。

Claims (15)

  1. 画像の前景および背景のデータを記憶するメモリ(12)と、
    バッファ(12A)と、
    前記メモリおよび前記バッファに接続されたプロセッサ(11)と、を備え、
    前記プロセッサが、
    前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込み、
    前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込み、
    前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む、
    ように構成されてなる、装置(10A)。
  2. 前記アルファ合成は、各ピクセルについて、下記式(1)の演算処理を行い、その結果である合成値を前記アルファ合成されたデータとして前記バッファに書き込む、請求項1に記載の装置、
    合成値 = (SC)×(SA)+(BC)×(BA)×(1−SA) ・・(1)
    ただし、SCは、前記影の色成分、SAは、前記影のアルファ値、BCは、前記背景の色成分、BAは、前記背景のアルファ値である。
  3. 前記プロセッサは、グラフィックス処理専用であり、
    前記プロセッサが、前記影のデータと前記背景のデータとをアルファ合成する際に、前記式(1)中の(BC)×(BA)の乗算処理をピクセルシェーダによって行う、
    請求項2に記載の装置。
  4. 前記バッファは、出力用に処理された画像データを記憶する、請求項1に記載の装置。
  5. 前記影が複数生じる場合は、
    前記プロセッサが、一つの影と他の影が重なるピクセルにおいて、それらのアルファ値を比較して、大きいアルファ値をそのピクセルのアルファ値とする、ように構成されてなる請求項1に記載の装置。
  6. 画像の前景および背景のデータを記憶するメモリ(12)と、
    前記バッファ(12A)と、
    前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込む影描画手段(101)と、
    前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込む背景合成手段(102)と、
    前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む前景合成手段(103)と、
    を備える、装置(10A)。
  7. 前記背景合成手段は、各ピクセルについて、下記式(2)の演算処理を行い、その結果である合成値を前記アルファ合成されたデータとして前記バッファに書き込む、請求項6に記載の装置、
    合成値 = (SC)×(SA)+(BC)×(BA)×(1−SA) ・・(2)
    ただし、SCは、前記影の色成分、SAは、前記影のアルファ値、BCは、前記背景の色成分、BAは、前記背景のアルファ値である。
  8. 前記背景合成手段はグラフィックス処理専用のプロセッサを備え、
    前記背景合成手段が、前記影のデータと前記背景のデータとをアルファ合成する際に、前記式(2)中の(BC)×(BA)の乗算処理を前記プロセッサのピクセルシェーダによって行う、
    請求項7に記載の装置。
  9. 前記バッファは、出力用に処理された画像データを記憶する、請求項6に記載の装置。
  10. 前記影が複数生じる場合は、
    前記影描画手段が、一つの影と他の影が重なるピクセルにおいて、それらのアルファ値を比較して、大きいアルファ値をそのピクセルのアルファ値とする、請求項6に記載の装置。
  11. 前景のデータから前景の影のデータを生成してバッファに書き込むステップ(S10)と、
    前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込むステップ(S20)と、
    前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込むステップ(S30)と、
    を含む、方法。
  12. 画像の前景および背景のデータを記憶するメモリ(12)と、
    バッファ(12A)と、
    前記メモリおよび前記バッファに接続されたプロセッサ(11)と、
    を備えた装置(10A)の前記プロセッサ(11)に、
    前景のデータから前景の影のデータを生成してバッファに書き込むステップ(S10)と、
    前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込むステップ(S20)と、
    前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込むステップ(S30)と、
    を実行させるためのプログラム。
  13. システム(100)であって、
    画像の前景および背景のデータを記憶するメモリ(12、22)と、
    バッファ(12A)と、
    前記メモリおよび前記バッファに接続された第1のプロセッサ(11)と、
    当該システム(100)の制御を行う第2のプロセッサ(21)と、
    を備え、
    前記第1のプロセッサが、
    前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込み、
    前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込み、
    前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む、
    ように構成されてなる、前記システム(100)。
  14. システム(100)であって、
    画像の前景および背景のデータを記憶するメモリ(12、22)と、
    バッファ(12A)と、
    当該システム(100)の制御を行うプロセッサ(21)と、
    前記メモリから前記前景のデータを読み出して前景の影のデータを生成し、該影のデータを前記バッファに書き込む影描画手段(101)と、
    前記影のデータを前記バッファから読み出して、前記背景のデータとアルファ合成し、アルファ合成されたデータを前記バッファに書き込む背景合成手段(102)と、
    前記アルファ合成されたデータが書き込まれた前記バッファに、前記前景のデータを書き込む前景合成手段(103)と、
    を備える、前記システム(100)。
  15. 映像データを編集する編集部(201)と、
    請求項1または6に記載の装置(10A)と、
    を備えるビデオ編集システム(200)
JP2011502964A 2008-07-24 2008-07-24 画像処理のための装置および方法、およびシステム Expired - Fee Related JP5120987B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/001979 WO2010010601A1 (en) 2008-07-24 2008-07-24 Image processing device, method, and system

Publications (2)

Publication Number Publication Date
JP2011529209A true JP2011529209A (ja) 2011-12-01
JP5120987B2 JP5120987B2 (ja) 2013-01-16

Family

ID=40220163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011502964A Expired - Fee Related JP5120987B2 (ja) 2008-07-24 2008-07-24 画像処理のための装置および方法、およびシステム

Country Status (4)

Country Link
US (1) US20110115792A1 (ja)
EP (1) EP2300991B1 (ja)
JP (1) JP5120987B2 (ja)
WO (1) WO2010010601A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509230A (ja) * 2011-12-12 2015-03-26 マイクロソフト コーポレーション シースルーディスプレイによる影の表示

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994750B2 (en) 2012-06-11 2015-03-31 2236008 Ontario Inc. Cell-based composited windowing system
WO2014183261A1 (en) * 2013-05-14 2014-11-20 Microsoft Corporation Programming interface
JP6242080B2 (ja) * 2013-05-28 2017-12-06 アルパイン株式会社 ナビゲーション装置および地図描画方法
US9417911B2 (en) 2014-03-12 2016-08-16 Live Planet Llc Systems and methods for scalable asynchronous computing framework
WO2017107058A1 (en) * 2015-12-22 2017-06-29 Intel Corporation Apparatus and method for intelligent resource provisioning for shadow structures
US9978118B1 (en) 2017-01-25 2018-05-22 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations with data compression
US10242654B2 (en) 2017-01-25 2019-03-26 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations
US10410349B2 (en) 2017-03-27 2019-09-10 Microsoft Technology Licensing, Llc Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power
US10514753B2 (en) 2017-03-27 2019-12-24 Microsoft Technology Licensing, Llc Selectively applying reprojection processing to multi-layer scenes for optimizing late stage reprojection power
US10255891B2 (en) 2017-04-12 2019-04-09 Microsoft Technology Licensing, Llc No miss cache structure for real-time image transformations with multiple LSR processing engines
US20220028360A1 (en) * 2018-11-14 2022-01-27 Vestel Elektronik Sanayi Ve Ticaret A.S. Method, computer program and apparatus for generating an image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034778A (ja) * 1999-07-26 2001-02-09 Konami Co Ltd 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP2001188917A (ja) * 1999-12-28 2001-07-10 Square Co Ltd 3次元コンピュータ画像処理のプログラムを記録したコンピュータ読み取り可能な記録媒体および影描画処理方法およびビデオゲーム装置
US6437782B1 (en) * 1999-01-06 2002-08-20 Microsoft Corporation Method for rendering shadows with blended transparency without producing visual artifacts in real time applications
JP2004295916A (ja) * 2004-06-07 2004-10-21 Namco Ltd 画像処理装置及び画像処理方法
US20040237053A1 (en) * 1999-06-10 2004-11-25 Microsoft Corporation System and method for implementing an image ancillary to a cursor
JP2006238429A (ja) * 2005-02-25 2006-09-07 Microsoft Corp ハードウエア・アクセラレーティド・ブレンド・モード
US7113183B1 (en) * 2002-04-25 2006-09-26 Anark Corporation Methods and systems for real-time, interactive image composition

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2682559B2 (ja) * 1992-09-30 1997-11-26 インターナショナル・ビジネス・マシーンズ・コーポレイション 物体の画像をディスプレイ装置上に表示する装置及び方法並びにコンピュータ・グラフィックス表示システム
US6421460B1 (en) * 1999-05-06 2002-07-16 Adobe Systems Incorporated Blending colors in the presence of transparency
US6369830B1 (en) * 1999-05-10 2002-04-09 Apple Computer, Inc. Rendering translucent layers in a display system
US6486888B1 (en) * 1999-08-24 2002-11-26 Microsoft Corporation Alpha regions
GB2392072B (en) * 2002-08-14 2005-10-19 Autodesk Canada Inc Generating Image Data
GB0220138D0 (en) * 2002-08-30 2002-10-09 Kaydara Inc Matte extraction using fragment processors
EP1465116A1 (en) * 2003-03-31 2004-10-06 STMicroelectronics Limited Computer graphics
US7336277B1 (en) * 2003-04-17 2008-02-26 Nvidia Corporation Per-pixel output luminosity compensation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6437782B1 (en) * 1999-01-06 2002-08-20 Microsoft Corporation Method for rendering shadows with blended transparency without producing visual artifacts in real time applications
US20040237053A1 (en) * 1999-06-10 2004-11-25 Microsoft Corporation System and method for implementing an image ancillary to a cursor
JP2001034778A (ja) * 1999-07-26 2001-02-09 Konami Co Ltd 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP2001188917A (ja) * 1999-12-28 2001-07-10 Square Co Ltd 3次元コンピュータ画像処理のプログラムを記録したコンピュータ読み取り可能な記録媒体および影描画処理方法およびビデオゲーム装置
US7113183B1 (en) * 2002-04-25 2006-09-26 Anark Corporation Methods and systems for real-time, interactive image composition
JP2004295916A (ja) * 2004-06-07 2004-10-21 Namco Ltd 画像処理装置及び画像処理方法
JP2006238429A (ja) * 2005-02-25 2006-09-07 Microsoft Corp ハードウエア・アクセラレーティド・ブレンド・モード

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800372012; 冨手要, 外2名: '"複合現実感における影の光学的整合性に関する検討とレイトレーシングによる実現"' 情報処理学会研究報告 第2008巻, 第3号, 20080117, p.75-80, 社団法人情報処理学会 *
JPN6012053926; 冨手要, 外2名: '"複合現実感における影の光学的整合性に関する検討とレイトレーシングによる実現"' 情報処理学会研究報告 第2008巻, 第3号, 20080117, p.75-80, 社団法人情報処理学会 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015509230A (ja) * 2011-12-12 2015-03-26 マイクロソフト コーポレーション シースルーディスプレイによる影の表示

Also Published As

Publication number Publication date
EP2300991B1 (en) 2012-11-14
US20110115792A1 (en) 2011-05-19
JP5120987B2 (ja) 2013-01-16
EP2300991A1 (en) 2011-03-30
WO2010010601A1 (en) 2010-01-28

Similar Documents

Publication Publication Date Title
JP5120987B2 (ja) 画像処理のための装置および方法、およびシステム
US6763175B1 (en) Flexible video editing architecture with software video effect filter components
US8306399B1 (en) Real-time video editing architecture
US6657637B1 (en) Moving image combining apparatus combining computer graphic image and at least one video sequence composed of a plurality of video frames
US8026919B2 (en) Display controller, graphics processor, rendering processing apparatus, and rendering control method
CN100481890C (zh) 图像特效设备、图形处理器和记录方法
US20100053347A1 (en) Content-Aware Video Stabilization
US6763176B1 (en) Method and apparatus for real-time video editing using a graphics processor
US20100060652A1 (en) Graphics rendering system
JP4971442B2 (ja) ピクセルデータ変換のための画像処理装置及び方法
WO2021135320A1 (zh) 一种视频的生成方法、装置及计算机系统
US9001139B2 (en) Image processing device and image processing method
JP4917346B2 (ja) ゲーム画像処理プログラムおよびゲーム画像処理装置
US8134557B2 (en) Image processing apparatus and image processing method
US7768521B2 (en) Image processing apparatus and image processing method
JP2004096730A (ja) ビデオ処理方法及びビデオ処理装置
WO2001050287A1 (en) Digital manipulation of video in digital video player
JP4402088B2 (ja) 画像処理方法および装置およびこれらを利用した電子機器
JP2007249791A (ja) 画像処理装置および画像処理方法、並びにプログラム
JP2002083316A (ja) 画像変形装置及びその画像変形方法
JP4086002B2 (ja) プログラム、画像処理装置及び方法、並びに記録媒体
WO2020213366A1 (ja) 画像生成装置および画像生成方法
JP4194605B2 (ja) 画像処理装置および方法、並びにレンダリング装置および方法
JP2023048793A (ja) 情報処理装置、プログラム及び描画方法
JPH10124039A (ja) 図形表示装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121017

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121018

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees