JP6066755B2 - 描画処理装置および描画処理方法 - Google Patents

描画処理装置および描画処理方法 Download PDF

Info

Publication number
JP6066755B2
JP6066755B2 JP2013022652A JP2013022652A JP6066755B2 JP 6066755 B2 JP6066755 B2 JP 6066755B2 JP 2013022652 A JP2013022652 A JP 2013022652A JP 2013022652 A JP2013022652 A JP 2013022652A JP 6066755 B2 JP6066755 B2 JP 6066755B2
Authority
JP
Japan
Prior art keywords
vertex
calculation result
result
command
interpolated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013022652A
Other languages
English (en)
Other versions
JP2014153893A (ja
Inventor
泰成 畠澤
泰成 畠澤
攻 太田
攻 太田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2013022652A priority Critical patent/JP6066755B2/ja
Priority to US14/168,656 priority patent/US9652886B2/en
Publication of JP2014153893A publication Critical patent/JP2014153893A/ja
Application granted granted Critical
Publication of JP6066755B2 publication Critical patent/JP6066755B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Description

この発明は、描画処理技術、特に描画コマンドを生成する技術に関する。
パーソナルコンピュータやゲーム専用機において、高品質な3次元コンピュータグラフィックスを用いたゲームやシミュレーションなどのアプリケーションを実行したり、実写とコンピュータグラフィックスを融合させた映像コンテンツの再生を行うなど、高画質のグラフィックスの利用が広がっている。
一般に、グラフィックス処理は、CPUとグラフィックスプロセッシングユニット(GPU)が連携することで実行される。CPUが汎用的な演算を行う汎用プロセッサであるのに対して、GPUは高度なグラフィックス演算を行うための専用プロセッサである。CPUはオブジェクトの3次元モデルにもとづいて投影変換などのジオメトリ演算を行い、GPUはCPUから頂点データなどを受け取ってレンダリングを実行する。GPUはラスタライザやピクセルシェーダなどの専用ハードウェアから構成され、パイプライン処理でグラフィックス処理を実行する。最近のGPUには、プログラムシェーダと呼ばれるように、シェーダ機能がプログラム可能なものもあり、シェーダプログラミングをサポートするために、一般にグラフィックスライブラリが提供されている。
オブジェクトをレンダリングする際、CPUは、GPUのハードウェアにより実行されるグラフィックスコマンドを順次生成してGPUに渡す必要がある。
特開2008−123520号公報
GPUのグラフィックス処理能力が高くなり、従来のフレームレートよりも高いフレームレートで動画を生成することができるようになってきたが、ゲームなどのアプリケーションでは、ゲームエンジンはグラフィックスコマンドをあらかじめ想定された所定の時間間隔で生成してGPUに渡している。GPUのグラフィックス性能が十分にある場合でも、あらかじめ作り込まれたゲームアプリケーションでは、ゲームエンジンが従来のフレームレートに合わせた時間間隔でグラフィックスコマンドを指定するため、ハイフレームレートでグラフィックスを生成することはできない。
ハイフレームレートの動画を生成するために、画像ベースのHFR(High Frame Rate)化技術が利用されることがあるが、この方法では、複数のフレーム間でブロックマッチングなどによって動きベクトルを求め、画素の補間を行うため、演算量が大きくなる。また、物体の境界部分にハローなどの画質劣化が発生しやすいなど、補間されたフレームの画質に問題が生じやすい。さらに、フレーム補間はオブジェクトのオクルージョンに対応することができない。
また、2次元ゲーム画像を生成するゲームアプリケーションに対して、視点を仮想的に設定することで2次元ゲーム画像を3次元ゲーム画像に変換する仮想視点生成技術も利用されている。しかし、この方法では、視点情報を変更するだけであり、個々のオブジェクトの動きを表現することができないため、オブジェクトの動きが非連続になるという問題点がある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、中間コマンドから生成されるグラフィックスコマンドの実行効率を向上させることのできる技術を提供することにある。
上記課題を解決するために、本発明のある態様のグラフィックスコマンド生成装置は、オブジェクトを描画するためのモデルデータを有する中間的な描画コマンドである中間コマンドを生成する中間コマンド生成部と、生成された中間コマンドをグラフィックスプロセッサに実行させるためのグラフィックスコマンド列に変換するグラフィックスコマンド変換部とを含む。前記グラフィックスコマンド変換部は、前記中間コマンドから生成されるべきグラフィックスコマンドのステートが以前に生成されたグラフィックスコマンドのステートと同一であるかどうかを判定する同一性判定部と、前記同一性判定部により、ステートが同一でないと判定されたグラフィックスコマンドを生成し、ステートが同一であると判定されたグラフィックスコマンドは冗長なコマンドであるとして生成しないグラフィックスコマンド生成部とを含む。
本発明の別の態様は、グラフィックスコマンド生成方法である。この方法は、オブジェクトを描画するためのモデルデータを有する中間的な描画コマンドである中間コマンドを生成する中間コマンド生成ステップと、生成された中間コマンドをグラフィックスプロセッサに実行させるためのグラフィックスコマンド列に変換するグラフィックスコマンド変換ステップとを含む。前記グラフィックスコマンド変換ステップは、前記中間コマンドから生成されるべきグラフィックスコマンドのステートが以前に生成されたグラフィックスコマンドのステートと同一であるかどうかを判定する同一性判定ステップと、前記同一性判定ステップにより、ステートが同一でないと判定されたグラフィックスコマンドを生成し、ステートが同一であると判定されたグラフィックスコマンドは冗長なコマンドであるとして生成しないグラフィックスコマンド生成ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、中間コマンドから生成されるグラフィックスコマンドの実行効率を向上させることができる。
実施の形態に係るグラフィックス処理システムの構成図である。 実施の形態に係る描画処理装置の構成図である。 図2の描画処理装置による描画処理の流れを示すダイアグラムである。 実施の形態に係る描画処理装置による描画コマンドの補間処理の手順を示すフローチャートである。 モデル、視点、注視点、および描画範囲の移動を説明する図である。 視点補間処理の詳細を説明する図である。 頂点補間処理の詳細を説明する図である。 表示タイミングを説明するダイアグラムである。 図9(a)、(b)は、ポストアンチエイリアスフィルターの適応制御処理を説明する図である。 図10(a)〜(c)は、画素ベースのフレーム補間処理を説明する図である。 動きぼけの付加処理を説明する図である。 オブジェクト毎のエンコード処理を説明する図である。
図1は、実施の形態に係るグラフィックス処理システムの構成図である。このグラフィックス処理システムは、メインプロセッサ100と、グラフィックスプロセッシングユニット140と、システムメモリ180と、ローカルメモリ160とを含む。
メインプロセッサ100は、単一のメインプロセッサであってもよく、複数のプロセッサを含むマルチプロセッサシステムであってもよく、あるいは、複数のプロセッサコアを1個のパッケージに集積したマルチコアプロセッサであってもよい。メインプロセッサ100はメインバス120に接続されており、メインバス120にはメモリインタフェース170を介してシステムメモリ180が接続されている。メインプロセッサ100はメインバス120を介してシステムメモリ180に対してデータを読み書きすることができる。
グラフィックスプロセッシングユニット(以下、単に「GPU」という)140は、グラフィックプロセッサコアを搭載したグラフィックチップであり、ローカルバス150を介してローカルメモリ160に対してデータを読み書きすることができる。
メインプロセッサ100とGPU140は、メインバス120で接続されており、メインプロセッサ100とGPU140は互いにメインバス120を介してデータをやりとりすることができる。
メインプロセッサ100は、オブジェクトを描画するための描画コマンドを生成し、システムメモリ180内に設けられたコマンドバッファにキューイングする。GPU140は、コマンドバッファに蓄積された描画コマンドを順次読み出して処理する。
メインプロセッサ100は、オブジェクトの3次元モデルにもとづいて、ポリゴンの頂点座標値、頂点カラー、法線ベクトル、UV値などのジオメトリデータを生成し、システムメモリ180に格納する。また、メインプロセッサ100は、ポリゴン表面にマッピングするためのテクスチャをシステムメモリ180に格納する。さらに、メインプロセッサ100は、ハードディスクなどの記録媒体からシェーダプログラムを読み込み、システムメモリ180に格納する。
システムメモリ180のメモリ領域はGPU140からもアクセスできるようにGPU140が参照するアドレス空間にメモリマッピングされており、GPU140は、システムメモリ180からプログラムやデータを読み取ることができる。たとえば、GPU140は、ジオメトリデータ、テクスチャおよびシェーダプログラムをシステムメモリ180から読み出し、読み出したジオメトリデータ、テクスチャなどグラフィックス演算に必要なデータをローカルメモリ160に格納することができる。
GPU140は、シェーダプログラムにしたがって、ジオメトリデータを用いてポリゴンのラスタライズデータを生成し、ピクセルデータをローカルメモリ160内のフレームバッファに書き込む。さらに、GPU140は、ポリゴン表面にテクスチャをマッピングし、テクスチャマッピング後のピクセルデータをフレームバッファに書き込む。
図2は、実施の形態に係る描画処理装置200の構成図である。描画処理装置200の機能ブロックは、図1のGPU140、ローカルメモリ160、およびローカルメモリ160にロードされたソフトウエアの連携によって実現される。これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組み合わせによっていろいろな形で実現することができる。
描画処理装置200は、描画コマンド入力部10、描画リソース記憶部60、描画処理部210、頂点計算データ記憶部50、描画バッファ70、描画コマンド補間部220、および表示制御部230を含む。
描画コマンド入力部10は、メインプロセッサ100により実行されるゲームエンジンから描画コマンド300を受け取り、描画コマンド300を描画リソース記憶部60に保持する。
描画処理部210は、描画リソース記憶部60から描画コマンド300を読み出し、描画コマンド300を実行してレンダリングを実行し、描画結果370を描画バッファ70に格納する。
描画処理部210の構成をより詳細に説明する。描画処理部210は、視点設定部20、頂点計算部30、および画素計算部40を含む。描画コマンド300は、視点設定命令310、頂点計算プログラム320、画素計算プログラム330、および頂点データ340を含む。
視点設定部20は、視点設定命令310にもとづいて視点を頂点計算部30および画素計算部40に設定する。
頂点計算部30は、頂点計算プログラム320を用いて、視点設定部20により設定された視点にもとづいて、各オブジェクトの頂点データ340から頂点位置、テクスチャ位置、法線ベクトルなどの頂点パラメータを計算し、頂点計算結果350として頂点計算データ記憶部50に格納する。
画素計算部40は、画素計算プログラム330を用いて、視点設定部20により設定された視点にもとづいて、各オブジェクトの頂点計算結果350から画素を計算し、描画結果370として描画バッファ70に格納する。
描画コマンド補間部220は、描画コマンド入力部10が描画リソース記憶部60に保持する異なる2つの時間の描画コマンド300の設定値と頂点計算結果を用いて描画コマンド300を補間し、頂点を補間し、補間頂点計算結果360として頂点計算データ記憶部50に保持する。
描画コマンド補間部220の構成をより詳細に説明する。描画コマンド補間部220は、視点補間部90および頂点補間部80を含む。
視点補間部90は、描画リソース記憶部60から異なる2つの時間の視点設定命令310を読み出し、異なる2つの時間の視点を補間し、補間された視点を視点設定部20に供給する。視点設定部20は、補間された視点を画素計算部40に設定する。
頂点補間部80は、頂点計算データ記憶部50から異なる2つの時間の頂点計算結果350を読み出し、異なる2つの時間の頂点計算結果を補間し、補間頂点計算結果360として頂点計算データ記憶部50に保持する。
画素計算部40は、描画コマンド300に含まれる画素計算プログラム330を用いて、補間された視点にもとづいて、各オブジェクトの補間頂点計算結果360から画素を計算し、補間描画結果380を描画バッファ70に格納する。
表示制御部230は、描画バッファ70に格納された描画結果370と補間描画結果380を表示タイミングに同期させながら交互にディスプレイに表示する。
図3は、図2の描画処理装置200による描画処理の流れを示すダイアグラムである。
ゲームエンジンによって、ある時刻tでの描画コマンド(t)が順次設定される。描画コマンドには、各モデルM(Mはモデル番号)の視点設定命令(t,M)、頂点計算プログラム(t,M)、画素計算プログラム(t,M)、および頂点データ(t,M)が含まれる。
(1)視点設定命令(t,M)にもとづいて頂点計算プログラム(t,M)および画素計算プログラム(t,M)に視点が設定される。
(2)頂点計算プログラム(t,M)と頂点データ(t,M)は描画コマンド(t)によって紐付けられている。頂点計算プログラム(t,M)は、視点設定命令(t,M)によって設定された視点にもとづいて、頂点データ(t,M)から頂点計算結果を生成する。
(3)画素計算プログラム(t,M)は、視点設定命令(t,M)によって設定された視点にもとづいて、この頂点計算結果から描画結果(t)を生成する。
このようにして、まず、描画コマンド(t)にもとづいて時刻tにおける通常の描画結果(t)が生成される。
(4)この後、保存されていた一つ前の時刻t−1の描画コマンド(t−1)に含まれる視点設定命令(t−1,M)、および時刻tで指定された視点設定命令(t,M)にもとづいて、2つの時刻tと時刻t−1の視点を補間し、補間描画で使用する補間視点を生成する。この補間視点は時刻tの画素計算プログラム(t,M)に設定される。
(5)また、保存されていた一つ前の時刻t−1の頂点計算結果(t−1,M)、および時刻tの頂点計算結果(t,M)にもとづいて、2つの時刻tと時刻t−1の頂点を補間し、補間頂点計算結果を生成する。この補間頂点計算結果は時刻tの画素計算プログラム(t,M)に入力される。
(6)時刻tにおける画素計算プログラム(t,M)は、設定された補間視点にもとづいて、補間頂点計算結果から補間描画結果を生成する。
上記の(1)〜(6)の処理を、時刻tでの描画コマンドに含まれる全モデルMに対して行い、最終的な描画結果(t)と補間描画結果を得る。
描画結果(t)と補間描画結果を交互に表示することで、2つの異なる時刻t−1と時刻tの間に、補間描画結果を表示することができる。
図4は、実施の形態に係る描画処理装置200による描画コマンドの補間処理の手順を示すフローチャートである。図5から図7を参照しながら説明する。
描画コマンド入力部10により、ゲームエンジンから入力された時刻tの描画コマンドが順次設定される(S10)。M番目(Mはモデル番号)の描画開始命令が実行される(S12)。
図5は、モデル、視点、注視点、および描画範囲の移動を説明する図である。ワールド座標系において、現時刻tにおける視点V(t)、描画範囲S(t)、注視点G(t)、モデルMの頂点v0(t)、v1(t)、v2(t)、一つ前の時刻t−1における視点V(t−1)、描画範囲S(t−1)、注視点G(t−1)、モデルMの頂点v0(t−1)、v1(t−1)、v2(t−1)の位置関係を示す。
視点設定部20は、視点設定命令(t,M)を設定する(S14)。これにより、時刻tにおける視点V(t)が設定される。頂点計算部30は、頂点計算プログラム(t,M)を利用して、時刻tにおけるモデルMの頂点計算結果(t,M)を生成する(S16)。これにより、時刻tにおけるモデルMの各頂点の頂点座標、テクスチャ座標、法線ベクトルの値が生成される。
画素計算部40は、画素計算プログラム(t,M)を利用して、頂点計算結果(t,M)にもとづいた画素結果(t)を生成する(S18)。これにより、時刻tにおいて視点V(t)が見たモデルMの描画結果が生成される。
現時刻tと一つ前の時刻t−1の間でモデルの対応関係を確認する(S20)。描画コマンドには全モデルの命令がまとめられている。時刻tにおける描画コマンド(t)から各モデルMに関する命令を抜き出す必要があるが、このためには、ある描画開始命令から次の描画開始命令までを1つの区切りとして、1つのモデルに対応させればよい。現時刻tと一つ前の時刻t−1の間でモデルの対応づけは、現時刻tと一つ前の時刻t−1の間で、描画コマンドの設定順序が等しいかどうか、頂点計算結果の導出に利用された頂点データにおける頂点数とサイズが等しいかどうか、頂点結果自体の頂点数が等しいかどうかにもとづいて判定される。この対応づけは、視点補間および頂点補間で利用される。
現時刻tと一つ前の時刻t−1でモデルの対応が取れた場合(S22のY)、視点補間部90は、現時刻tと一つ前の時刻t−1の間で視点を補間し、視点設定部20は、補間された視点を頂点計算部30および画素計算部40に設定する。
図6は、視点補間処理の詳細を説明する図である。視点補間処理では、視点位置、注視点位置、および描画範囲の補間を行う。ゲームエンジンから指定されるgluLookAt()やglviewport()などのグラフィックスコマンドにより、視点位置、注視点位置、描画範囲がコマンド引数として得られる。視点位置、注視点位置、描画範囲のそれぞれについて、一つ前の時刻t−1と現時刻tの設定情報値を補間することで補間値を得る。
具体的には、現時刻tの視点V(t)と一つ前の時刻t−1の視点V(t−1)の設定情報値の平均値を計算することで、補間視点位置Vpの設定値を求める。同様に、現時刻tの視点G(t)と一つ前の時刻t−1の視点G(t−1)の設定情報値の平均値を計算することで、補間注視点位置Gpの設定値を求める。現時刻tの描画範囲S(t)と一つ前の時刻t−1の描画範囲S(t−1)の設定情報値の平均値を計算することで、補間描画範囲Spの設定値を求める。
次に、頂点補間部80は、現時刻tと一つ前の時刻t−1の間で頂点を補間し、補間頂点計算結果を生成し、頂点計算データ記憶部50に保存する。各モデルの頂点補間では、一つ前の時刻t−1の頂点計算結果と現時刻tの頂点計算結果の間で、対応する頂点毎に頂点位置の補間が行われる。頂点位置を補間する際、線形補間ではモデルの回転を考慮に入れることができないため、線形補間ではなく回転を考慮した補間を行うことが好ましい。一方、テクスチャの貼り付け位置や頂点に紐付けされる法線ベクトルについては、一つ前の時刻t−1と現時刻tの間で平均値を取ればよい。
図7は、頂点補間処理の詳細を説明する図である。ゲームエンジンから指定される頂点計算プログラムによって、各モデルの頂点毎に、頂点位置、テクスチャ位置、法線ベクトルの値が得られる。現時刻tと一つ前の時刻t−1の頂点位置、テクスチャ位置、法線ベクトルの設定値を補間することにより、各補間頂点での補間頂点計算結果が得られる。
具体的には、現時刻tの各頂点v0(t)、v1(t)、v2(t)の頂点位置P(t)、テクスチャ位置T(t)、法線ベクトルN(t)と、一つ前の時刻t−1の各頂点v0(t−1)、v1(t−1)、v2(t−1)の頂点位置P(t−1)、テクスチャ位置T(t−1)、法線ベクトルN(t−1)の補間値を求める。ここで、時刻tの頂点位置P(t)と時刻t−1のP(t−1)の補間をする際、モデルMの回転を考慮して補間する。回転行列により、2つの時刻t、t−1の間の中間時点におけるモデルMの回転を計算し、補間頂点位置Psを得る。一方、補間テクスチャ位置Tpは、2つの時刻のテクスチャ位置T(t)とテクスチャ位置T(t−1)の平均値とする。同様に、補間法線ベクトルNpは、2つの時刻の法線ベクトルN(t)と法線ベクトルN(t−1)の平均値とする。
ステップS22において、現時刻tと一つ前の時刻t−1の間でモデルの対応が取れない場合(S22のN)、時刻tの視点設定命令(t,M)を実行して補間視点を設定する(S28)。これは、時刻tにおける視点をそのまま補間視点として用いることを意味する。次に、頂点計算プログラム(t,M)によって補間頂点結果を生成する(S30)。これは、時刻tの頂点計算結果をそのまま補間頂点結果として利用することを意味する。
画素計算部40は、補間頂点計算結果にもとづいて、画素計算プログラム(t,M)により補間描画結果を生成する(S32)。
モデル番号Mに1を足す(S34)。未処理のモデルがある場合(S36のN)、ステップS12に戻り、次のモデルについて描画コマンドの補間処理を行う。
すべてのモデルについて処理が終われば(S36のY)、一つ前の時刻t−1で保持していた頂点補間結果、頂点データ、視点設定命令を現時刻tの頂点補間結果、頂点データ、視点設定命令で上書きする。
出力の同期時間が過ぎたら、補間描画結果を出力し(S40)、その後、出力同期時間経過後に時刻tの描画結果(t)を出力する(S42)。この処理によって、遅延を最小に抑えながら、仮想的にフレームを増やしてハイフレームレートで描画することが可能になる。
図8は、表示タイミングを説明するダイアグラムである。ゲームエンジンは、時刻tで描画コマンドを補間処理プログラムに対して設定し、表示更新待ちになり、補間処理プログラムから更新の終了通知を受け取る。
補間処理プログラムは、ゲームエンジンから時刻tの描画コマンドを設定されると、現時刻tと一つ前の時刻t−1の描画コマンドから、時刻tの描画結果と補間描画結果を作成する。補間処理は、補間描画結果をディスプレイに対して設定し、表示側同期期間の経過度、時刻tの描画結果をディスプレイに対して設定する。
ディスプレイは、補間処理プログラムから設定された補間描画結果を、表示側同期期間が経過するまで表示する。ディスプレイは、表示側同期期間が経過した後、時刻tの描画結果を表示する。
図4に戻り、時刻tに1を足し(S44)、描画停止条件を満たさない場合(S46のN)、ステップS10に戻り、次の時刻の描画コマンドを投入して各モデルについて描画コマンドの補間処理を行う。描画停止条件が満たされた場合(S46のY)、終了する。
以上述べたように、本実施の形態の描画処理装置200によれば、あらかじめ作成されたゲームアプリケーションにおいて、ゲームエンジンから一定の時間間隔で指定される描画コマンドをもとに、その時間間隔内の異なる時間における描画コマンドを補間して作り出すことができる。ある時刻tと一つ前の時刻t−1の描画コマンドによって指定される設定値とその描画コマンドによる描画結果にもとづいて、時刻t−1と時刻tの間の時刻tpにおける中間的な頂点情報として、頂点位置、テクスチャ位置、法線ベクトル、動き情報などを取得して、補間描画結果を生成することができる。
本実施の形態では、このように描画コマンドを補間することでハイフレームレートの画像を生成することができる。これにより、既存のゲームプログラムを変更せずに、プラットフォームに合わせて最適なフレームレートで映像を表示できる。ハイフレームレートの画像を生成する際、中間的に生成される動き情報とモデル毎の映像をもとにして映像の時間方向に補間するため、低コストで映像の時間解像度を向上することができる。
また、サーバから送信される描画コマンドをクライアントで受信してレンダリングするリモートレンダリングにおいて、送信されるコマンドに欠損が生じ、レンダリングできない場合でも、描画コマンドの補間処理により、欠損したコマンドを仮想的に再生することができる。
以上、描画コマンドの補間処理により、動画像のハイフレームレート化を行う場合を説明したが、ハイフレームレート化処理と併用される別の処理をいくつか説明する。
図9(a)、(b)は、ポストアンチエイリアスフィルターの適応制御処理を説明する図である。補間処理において頂点を求める際、カメラ座標系において2つの頂点を結ぶエッジの傾き求める。
図9(a)は、カメラ座標系における、ある時刻の頂点v0、v1、v2の位置を示す。頂点v0とv1を結ぶエッジはカメラ座標系のy軸に対して角度θ1の傾きを有し、頂点v1とv2を結ぶエッジはy軸に対して角度θ2の傾きを有する。図9(b)は、別の時刻の頂点v0、v1、v2の位置を示す。図9(a)と比べて、頂点v0、v1は移動していないため、頂点v0とv1を結ぶエッジがy軸に対してなす角度θ1は変化していないが、頂点v2は移動しているため、頂点v1とv2を結ぶエッジがy軸に対してなす角度θ2は変化している。このように頂点モデルには動きのあるエッジと動きのないエッジが存在する。
頂点位置の移動量からエッジの動き量を求め、動きのあるエッジにはアンチエイリアスフィルターをかけないようにする。一方、静止しているエッジにはアンチエイリアスフィルターをかける。この際、アンチエイリアス処理はエッジの方向に沿って、エッジにのみフィルターをかけるようにする。
従来は、画像全体で一律にポストアンチエイリアスフィルターをかけていたため、テクスチャなどエイリアシングが発生しにくい領域がぼけてしまうという問題があり、強いアンチエイリアスをかけられなかった。それに対して、本実施の形態のポストアンチエイリアスフィルターでは、ハイフレームレート化処理を行った際でも、補間処理により得られた頂点間を結ぶエッジに対して、エッジの方向情報と動き情報にもとづいて、アンチエイリアスフィルターをかけるかどうかを適応的に制御することができる。
また、携帯電話端末であればアンチエイリアスフィルターをかけないようにしたり、有機ELディスプレイや大画面テレビディスプレイに対してはアンチエイリアスをかけるなど、画像を表示する端末の特性にもとづいて適応制御することもできる。
図10(a)〜(c)は、画素ベースのフレーム補間処理を説明する図である。一つ前の時刻t−1と現時刻tの間にモデルが急に出現した場合やモデルの頂点数が合わない場合など、描画コマンドの補間が難しい状況では、描画コマンドの補間を行わず、動き情報のみを利用して画素を補間する処理に切り替える。
頂点位置の移動量からオブジェクト毎の動き量を求める。たとえば、図10(a)のように、頂点v0、v1、v2の動き量を重み付け補間することにより、ポリゴンの動き量を求める。次に、オブジェクト毎の動き量を重ね合わせることにより、描画フレーム全体での動き量を求める。描画フレーム全体での動き量にもとづいて、図10(b)に示す現時刻tの描画フレームと、図10(c)に示す一つ前の時刻t−1の描画フレーム間で補間処理を行い、画素を補間する。
描画コマンドの補間処理が困難である場合に、画素ベースのフレーム補間処理に切り替えることで、モデルデータが欠損しているなど、描画コマンドの補間が難しい場合でもフレームを補間することができる。これにより、描画コマンドの補間処理ができない場合にハイフレームレート化ができない事態を避けることができ、描画コマンドの補間処理にエラー耐性をもたせることができる。
また、フレーム補間に切り替えた後も、描画コマンド補間の中間結果の動き情報を用いることで、低コスト、かつ正確な動き情報を求めることができるため、フレーム補間結果の画質が上がる。
図11は、動きぼけの付加処理を説明する図である。頂点の移動量からオブジェクト毎の動き量を求める。カメラ座標系において、図11のオブジェクト400は動きがあるが、オブジェクト410は動き量がゼロであり、静止している。この場合、動いているオブジェクト400には動きの方向に沿ってフィルターをかけてぼけ成分を付加するが、静止しているオブジェクト410にはぼけ成分を付加しない。その際、フィルター強度は、表示のフレームレートに合わせて調整する。
頂点補間結果を用いることで、オブジェクトの動きを正確に追跡できるため、モデルの動きに合わせて動きぼけを適切に付加することができ、ハイフレームレート化して動きが不自然になるのを防ぐことができる。
また、通常の低フレームレート描画では、低フレームレートの映像を有機ELなど応答速度の速い表示デバイスで表示すると、動きがカクカクして目立つという問題があった。表示デバイスが、応答速度の速いものであり、かつ高フレームレートで表示できない場合でも、動きのある領域に動きぼけを付加することで、動きがカクカクするのを防ぐことができる。一方、静止している箇所にはぼけ処理を施さないため、エッジの先鋭感が失われず、くっきりと表示される。
図12は、オブジェクト毎のエンコード処理を説明する図である。頂点の移動量からオブジェクト毎の動き量を求める。サーバ側でオブジェクト毎に描画処理を行い、オブジェクト毎の画像を生成する。オブジェクト毎に画像と動き量を符号化し、符号化ストリームを生成する。符号化ストリームの付加情報としてオブジェクトの重なり情報を生成し、各オブジェクトの符号化ストリームと重なり情報を送信する。クライアント側で複数のストリームを受信して復号し、重なり情報にもとづいて復号されたオブジェクトの画像を重ね合わせる。
図12の例では、動きのあるオブジェクト400の画像、静止しているオブジェクト410の画像、これらのオブジェクトの重なり情報420をそれぞれ別個にエンコードして送信する。受信側では、動きのあるオブジェクト400の画像のストリーム、静止しているオブジェクト410の画像の符号化ストリーム、重なり情報420を復号し、動きのあるオブジェクト400の画像と静止しているオブジェクト410の画像を重なり情報にもとづいて重ね合わせる。
動きのあるオブジェクト400に対しては描画コマンドの補間処理によってハイフレームレート化し、静止しているオブジェクト410に対してはフレームレートを落とすことで全体の符号量を減らすことができる。このように動き情報を利用してオブジェクト毎に描画コマンドの補間処理をするかどうかを選択したり、オブジェクト毎の動き量によってフレームレートを変えることで、画像全体をハイフレームレート化処理する場合に比べて、符号量を抑制することができる。
通常のエンコード処理では、動きベクトルを求め、動きベクトルに応じて、フレーム間およびフレーム内で画像情報を圧縮する。この際、動きベクトルの検出は高コストな処理であり、処理負荷が問題となる。また、あるオブジェクトが動いている場合、別のオブジェクトとの境界部分の情報を表現するために多くのビットを割く必要があり、全体の圧縮効率が落ちてしまう。それに対して、本実施の形態のエンコード処理では、動き情報とモデル毎の映像をもとに、オブジェクト毎にエンコードすることで、オブジェクト間の重なり部分にビットを割く必要がなくなるため、全体としてのビット量が削減できる。描画コマンドを補間して動き量を求めているため、オブジェクト毎のエンコードが低コストで実現できる。画面のうち中心に配置されるなどの重要な要素部分に多くのビットを割り振るなどの処理を入れることで、主観品質を保ちつつ、全体のビット量を削減するなどの調整も可能となる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
10 描画コマンド入力部、 20 視点設定部、 30 頂点計算部、 40 画素計算部、 50 頂点計算データ記憶部、 60 描画リソース記憶部、 70 描画バッファ、 80 頂点補間部、 90 視点補間部、 100 メインプロセッサ、 120 メインバス、 140 GPU、 150 ローカルバス、 160 ローカルメモリ、 170 メモリインタフェース、 180 システムメモリ、 200 描画処理装置、 210 描画処理部、 220 描画コマンド補間部、 230 表示制御部、 300 描画コマンド、 310 視点設定命令、 320 頂点計算プログラム、 330 画素計算プログラム、 340 頂点データ、 350 頂点計算結果、 360 補間頂点計算結果。

Claims (8)

  1. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理部と、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間部とを含み、
    前記描画処理部は、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理部は、
    前記描画コマンドに含まれる視点設定命令により視点を設定する視点設定部と、
    設定された視点にもとづいて、前記描画コマンドに含まれる頂点データからオブジェクトの頂点の計算結果を生成する頂点計算部と、
    設定された視点にもとづいて、各オブジェクトの頂点の計算結果から画素を計算し、描画結果を生成して前記描画バッファに格納する画素計算部とを含み、
    前記描画コマンド補間部は、
    異なる2つの時刻における描画コマンドに含まれる視点設定命令により設定される2つの視点を補間する視点補間部と、
    異なる2つの時刻におけるオブジェクトの頂点の計算結果を補間し、前記補間された頂点の計算結果を求める頂点補間部とを含み、
    前記画素計算部は、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納することを特徴とする描画処理装置。
  2. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理部と、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間部とを含み、
    前記描画処理部は、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理部は、異なる2つの時刻の間でオブジェクトのモデルの対応が取れない場合、描画コマンド補間部による補間処理の代わりに、異なる2つの時刻のフレームの画素を補間することを特徴とする描画処理装置。
  3. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理部と、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間部とを含み、
    前記描画処理部は、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理部は、オブジェクトの頂点の計算結果にもとづき、オブジェクトのエッジの方向とエッジの動き情報を求め、静止しているエッジに対してエッジの方向に沿ったアンチエイリアスフィルターを施すことを特徴とする描画処理装置。
  4. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理部と、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間部とを含み、
    前記描画処理部は、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理部は、オブジェクトの頂点の計算結果にもとづき、オブジェクトの動きの方向に沿ってぼけ成分を付加するフィルターを施すことを特徴とする描画処理装置。
  5. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理ステップと、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間ステップとを含み、
    前記描画処理ステップは、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理ステップは、
    前記描画コマンドに含まれる視点設定命令により視点を設定する視点設定ステップと、
    設定された視点にもとづいて、前記描画コマンドに含まれる頂点データからオブジェクトの頂点の計算結果を生成する頂点計算ステップと、
    設定された視点にもとづいて、各オブジェクトの頂点の計算結果から画素を計算し、描画結果を生成して前記描画バッファに格納する画素計算ステップとを含み、
    前記描画コマンド補間ステップは、
    異なる2つの時刻における描画コマンドに含まれる視点設定命令により設定される2つの視点を補間する視点補間ステップと、
    異なる2つの時刻におけるオブジェクトの頂点の計算結果を補間し、前記補間された頂点の計算結果を求める頂点補間ステップとを含み、
    前記画素計算ステップは、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納することを特徴とする描画処理方法。
  6. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理ステップと、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間ステップとを含み、
    前記描画処理ステップは、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理ステップは、異なる2つの時刻の間でオブジェクトのモデルの対応が取れない場合、描画コマンド補間ステップによる補間処理の代わりに、異なる2つの時刻のフレームの画素を補間することを特徴とする描画処理方法。
  7. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理ステップと、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間ステップとを含み、
    前記描画処理ステップは、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理ステップは、オブジェクトの頂点の計算結果にもとづき、オブジェクトのエッジの方向とエッジの動き情報を求め、静止しているエッジに対してエッジの方向に沿ったアンチエイリアスフィルターを施すことを特徴とする描画処理方法。
  8. 描画コマンドにもとづいてオブジェクトの頂点の計算結果を生成し、各オブジェクトの頂点の計算結果にもとづいて描画処理を行い、描画結果を描画バッファに格納する描画処理ステップと、
    異なる2つの時刻における描画コマンドの設定値と各オブジェクトの頂点の計算結果にもとづいて、各オブジェクトの補間された頂点の計算結果を生成する描画コマンド補間ステップとを含み、
    前記描画処理ステップは、補間された頂点の計算結果にもとづいて描画処理を行い、補間された描画結果を前記描画バッファに格納し、
    前記描画処理ステップは、オブジェクトの頂点の計算結果にもとづき、オブジェクトの動きの方向に沿ってぼけ成分を付加するフィルターを施すことを特徴とする描画処理方法。
JP2013022652A 2013-02-07 2013-02-07 描画処理装置および描画処理方法 Active JP6066755B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013022652A JP6066755B2 (ja) 2013-02-07 2013-02-07 描画処理装置および描画処理方法
US14/168,656 US9652886B2 (en) 2013-02-07 2014-01-30 Rendering processing device and rendering processing method using interpolation rendering result

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013022652A JP6066755B2 (ja) 2013-02-07 2013-02-07 描画処理装置および描画処理方法

Publications (2)

Publication Number Publication Date
JP2014153893A JP2014153893A (ja) 2014-08-25
JP6066755B2 true JP6066755B2 (ja) 2017-01-25

Family

ID=51258853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013022652A Active JP6066755B2 (ja) 2013-02-07 2013-02-07 描画処理装置および描画処理方法

Country Status (2)

Country Link
US (1) US9652886B2 (ja)
JP (1) JP6066755B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10147226B1 (en) * 2016-03-08 2018-12-04 Pixelworks, Inc. 2D motion vectors from 3D model data
JP7210180B2 (ja) * 2018-07-25 2023-01-23 キヤノン株式会社 画像処理装置、画像表示装置、画像処理方法、及びプログラム
US10776984B2 (en) * 2018-11-08 2020-09-15 Insightfulvr, Inc Compositor for decoupled rendering
CN112509108B (zh) * 2020-12-03 2024-04-12 杭州群核信息技术有限公司 基于gpu的顶点环境光遮蔽的生成方法以及图像渲染方法
CN112785673B (zh) * 2021-01-20 2023-11-07 江西航天鄱湖云科技有限公司 一种基于WebGL批量三维模型数据的渲染方法
CN116893816B (zh) * 2023-09-08 2024-01-23 北京趋动智能科技有限公司 远程渲染方法、装置及存储介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01241679A (ja) * 1988-03-24 1989-09-26 Matsushita Electric Ind Co Ltd アニメーション編集装置
JPH05101160A (ja) * 1991-10-04 1993-04-23 Toshiba Corp アニメーシヨン構成装置
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
JPH11331700A (ja) * 1998-05-15 1999-11-30 Sony Corp 画像処理装置および画像処理方法
JP3890788B2 (ja) * 1998-12-11 2007-03-07 株式会社日立製作所 動画像作成装置
US6661424B1 (en) * 2000-07-07 2003-12-09 Hewlett-Packard Development Company, L.P. Anti-aliasing in a computer graphics system using a texture mapping subsystem to down-sample super-sampled images
US6954204B2 (en) * 2002-07-18 2005-10-11 Nvidia Corporation Programmable graphics system and method using flexible, high-precision data formats
US20040165776A1 (en) * 2002-09-20 2004-08-26 Albert-Jan Brouwer Means of matching 2D motion vector fields in a render, match, and refine iterative 3D scene model refinement system so as to attain directed hierarchical convergence and insensitivity to color, lighting, and textures
JP4074531B2 (ja) * 2003-03-03 2008-04-09 株式会社ソニー・コンピュータエンタテインメント 描画装置および描画方法、並びに提供媒体
EP1496704B1 (en) * 2003-07-07 2009-01-21 STMicroelectronics S.r.l. Graphic system comprising a pipelined graphic engine, pipelining method and computer program product
JP3906201B2 (ja) * 2003-12-12 2007-04-18 沖電気工業株式会社 補間画像生成装置および隠蔽領域推定方法
JP2006050070A (ja) * 2004-08-02 2006-02-16 Fuji Photo Film Co Ltd 画像処理方法および装置並びにプログラム
US7218291B2 (en) * 2004-09-13 2007-05-15 Nvidia Corporation Increased scalability in the fragment shading pipeline
US8284204B2 (en) * 2006-06-30 2012-10-09 Nokia Corporation Apparatus, method and a computer program product for providing a unified graphics pipeline for stereoscopic rendering
US8269782B2 (en) 2006-11-10 2012-09-18 Sony Computer Entertainment Inc. Graphics processing apparatus
US8217962B2 (en) * 2009-01-29 2012-07-10 Microsoft Corporation Single-pass bounding box calculation
JP4918577B2 (ja) * 2009-08-12 2012-04-18 株式会社コナミデジタルエンタテインメント 画像処理システム及び画像処理方法
JP2011215724A (ja) * 2010-03-31 2011-10-27 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
JP5750103B2 (ja) * 2010-06-16 2015-07-15 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America アニメーション制御装置、アニメーション制御方法およびアニメーション制御プログラム

Also Published As

Publication number Publication date
US20140218367A1 (en) 2014-08-07
US9652886B2 (en) 2017-05-16
JP2014153893A (ja) 2014-08-25

Similar Documents

Publication Publication Date Title
JP6066755B2 (ja) 描画処理装置および描画処理方法
US10733789B2 (en) Reduced artifacts in graphics processing systems
US8102428B2 (en) Content-aware video stabilization
US11270492B2 (en) Graphics processing systems
JP6392370B2 (ja) 様々なレンダリング及びラスタライゼーション・パラメータ下でビューポートを変化させるための、オブジェクトの効率的再レンダリング方法
TWI636423B (zh) 用於高解析度顯示緩衝器之有效構造之方法
US9576340B2 (en) Render-assisted compression for remote graphics
EP3643059B1 (en) Processing of 3d image information based on texture maps and meshes
US10121221B2 (en) Method and apparatus to accelerate rendering of graphics images
JP2022528432A (ja) ハイブリッドレンダリング
CN108965847B (zh) 一种全景视频数据的处理方法及装置
CN108040217B (zh) 一种视频解码的方法、装置及相机
CN109035383B (zh) 一种体积云的绘制方法、装置及计算机可读存储介质
US11792420B2 (en) Methods and apparatus for foveated compression
US20150228106A1 (en) Low latency video texture mapping via tight integration of codec engine with 3d graphics engine
US10460505B2 (en) Systems and methods for lightfield reconstruction utilizing contribution regions
US20200104975A1 (en) Asynchronous space warp for remotely rendered vr
US20220230327A1 (en) Graphics processing systems
CN113709554A (zh) 动画视频生成、直播间动画视频播放方法及装置
KR20190011212A (ko) 출력면을 제공하는 방법 및 데이터 처리 시스템
US20140161173A1 (en) System and method for controlling video encoding using content information
US20200118244A1 (en) Data processing systems
TW202320022A (zh) 合成器層外推
CN113810734B (zh) 视频融合方法、装置、设备、系统及计算机可读存储介质
US20210225049A1 (en) Perceptual Rasterization for Image Rendering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161220

R150 Certificate of patent or registration of utility model

Ref document number: 6066755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250