JP2008071241A - 画像処理装置、画像処理方法、及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2008071241A
JP2008071241A JP2006250711A JP2006250711A JP2008071241A JP 2008071241 A JP2008071241 A JP 2008071241A JP 2006250711 A JP2006250711 A JP 2006250711A JP 2006250711 A JP2006250711 A JP 2006250711A JP 2008071241 A JP2008071241 A JP 2008071241A
Authority
JP
Japan
Prior art keywords
image data
drawn
classification
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006250711A
Other languages
English (en)
Other versions
JP2008071241A5 (ja
Inventor
Amamitsu Sengoku
天光 千石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006250711A priority Critical patent/JP2008071241A/ja
Publication of JP2008071241A publication Critical patent/JP2008071241A/ja
Publication of JP2008071241A5 publication Critical patent/JP2008071241A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 描画済みの画像データを従来よりも有効に再利用できるようにする。
【解決手段】 ソース解析部102は、動画コンテンツを定義するソースコードに記述されたパラメータを、時間が経過しても変化しないレンダリング対象パラメータと、時間の経過と共に変化するブレンド対象パラメータとに分類する。オブジェクト保持有効性判定部103は、レンダリング対象パラメータに対応するベクタ画像データが、描画済み画像データとして既にオブジェクト保持部104に記憶されている場合には、その描画済み画像データの読み出しを指示する。これにより、オブジェクト保持部104からブレンド部106に、レンダリング対象パラメータに対応する描画済み画像データが出力される。ブレンド部106は、この描画済み画像データと、ソース解析部102で分類されたブレンド対象パラメータとを統合して動画コンテンツを描画する。
【選択図】 図1

Description

本発明は、画像処理装置、画像処理方法、及びコンピュータプログラムに関し、特に、動画コンテンツを表示するために用いて好適なものである。
従来技術における動画像の表示は、画像形成装置が描画処理した1フレーム分の静止画像の処理結果を出力モジュールが毎秒60回出力することで実現される。
ページ毎にPDL(Page Description Language)で記述され、1フレーム分の画像を構成するベクタ(vector)画像データは、一般的に次のフェーズ1とフェーズ2とからなる処理によって描画される。
フェーズ1では、コンテンツ表示アプリケーションソフトウェア等から送られるSVG(Scalable Vector Graphics)等の構成要素であるベクタ画像の解釈を行うベクタ画像処理が行われる。
フェーズ2では、回転や色変換等のラスタ画像処理が行われる。
フェーズ1において、1フレーム分の画像を構成するページ毎のベクタ画像データが画像形成装置へ入力される。画像形成装置は、ベクタ画像データを解釈し、解釈した結果に基づいてベクタ画像の中間データ(各ページのラスタ画像データ又は圧縮形式の圧縮画像データ)を生成して出力する。
尚、ベクタ画像データは、複数種類のオブジェクト(描画オブジェクト)の集合として表現される。ここで、オブジェクトとは、例えば、図形や、テキスト等である。
フェーズ2において、画像形成装置は、ベクタ画像の中間データに対して、必要に応じてページの合成や、回転や、色変換等のラスタ画像処理を行った後に、画像出力モジュールへ出力する。
画像出力モジュールへ出力される直前の各ページの画像データは、ラスタ画像データとなっており、画像出力モジュールの走査順に整列されている。
一般に、PDLで記述されるベクタ画像データを入力してから画像出力モジュールへ出力するまでの時間を短縮する手法として、画像形成過程を並列化する方法が考えられている。
例えば、特許文献1には、線又は短冊状に分割した描画領域に対して並列処理を行う画像処理装置が開示されている。また、特許文献2には、描画対象となる二次元領域を複数のブロックに分割する画像処理装置が開示されている。
また、PDLで記述されたコンテンツのオブジェクトを効率よく複数ブロックに分割する手法として、オブジェクトの概略形状情報をブロックに関連付ける方法が提案されている。
また、UFR(Ultra Fast Rendering)と呼ばれる描画方法が提案されている。UFRでは、PDLで記述された画像データのオブジェクトの辺情報を、水平方向に走査線単位で抽出しながら、ハードウェアパイプラインを構成して処理を行うことで、高速に且つ少ないバッファメモリ消費量で描画を実現する。
更に、描画済みデータキャッシュ手法が描画方法として提案されている。かかる手法では、ベクタ画像データ(ディスプレイリスト)をブロック単位でタグとすると共に、ベクタ画像データに対応する描画済みデータをキャッシュデータ(Cache Data)としてブロック単位でキャッシュメモリに格納する。そして、描画位置や描画時刻が異なるベクタ画像データに対応するキャッシュデータがキャッシュメモリに存在する場合(キャッシュヒットした場合)には、レンダリングを実施せずに、そのキャッシュデータを描画済みデータとして再利用する。このような描画済みデータキャッシュ手法では、キャッシュヒットした場合、時間がかかり負荷が大きいレンダリングを実行しない。このため、コンテンツの描画処理時間を短縮する上に、描画回路の消費電力を低減する効果を持つ。
ここで、前述した描画済みデータキャッシュ手法を詳細に説明する。
PDL等で記述されたベクタ画像データから画像を形成する過程で、既に描画の終了してメモリに保存されたベクタ画像データと、これから描画を行うベクタ画像データとを比較する。この比較の結果、これらのベクタ画像データが一致している場合には、処理時間の大きいベクタ画像データの解析や描画処理を行う代わりに、既に描画の終了したベクタ画像データをメモリから読み出して出力する。つまり、前述した描画済みデータキャッシュ手法では、一旦描画を行ったベクタ画像データの画像形成を行う必要が無くなり、画像形成を高速に行える。
特に、1ページを複数のブロックに分割して画像形成を行う場合には、画像形成部で形成する描画データの量が減り、従来の手法では困難であった1ページ内の画像形成時間を短縮できる。また、画像形成処理は一般的に高速で動作するハードウェア演算装置を用いる場合が多いので、既に描画が終了してメモリに保存されたベクタ画像データと、これから描画を行うベクタ画像データとが一致する時に画像形成を停止することで消費電力が削減される。
特開平9−167242号公報 特開平4−170686号公報
ところで、前述したように、従来の技術では、動画像をフレーム単位の静止画像に分解する。そして、フレーム単位に分解した静止画像を、ページ単位であるベクトル画像データに分割し、更に、そのベクトル画像データを並列処理単位であるブロックに分割し、1ブロック毎に描画処理と出力処理とを実施する。
このような処理を実施するに際し、従来の技術のようにして1ページ分のベクタ画像データをキャッシュすると、動画像では、図12に示すように、同一のベクタ画像データ(ディスプレイリスト)がブロック単位で出現することは稀である。
そのため、前述した描画済みデータキャッシュ手法では、これから描画を行うベクタ画像データに対応するベクタ画像データがキャッシュされている確率(ヒット率)は低くなる。従って、フレーム、ページ、又はブロック毎に描画処理を実施することが多くなり、描画済みのベクタ画像データをキャッシュする有効性が薄れてしまう。
また、前述した描画済みデータキャッシュ手法は、描画済みのベクタ画像データを長期間保持せずに廃棄してしまう。従って、時間を置いて同じ描画済みデータが使用するようなコンテンツを表示する場合には、同じレンダリングを繰り返すことが必要となってしまう。
本発明は、このような問題点に鑑みてなされたものであり、描画済みの画像データを従来よりも有効に再利用できるようにすることを目的とする。
本発明の画像処理装置は、動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する分類手段と、前記描画対象パラメータに基づく画像データを描画する描画手段と、前記描画手段により描画された描画済みの画像データを記憶媒体に記憶する記憶手段と、前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定する判定手段と、前記判定手段により、前記描画済みの画像データが記憶されていると判定された場合には、その記憶されている描画済みの画像データと、前記分類手段により分類された統合対象パラメータとを統合する統合手段とを有することを特徴とする。
本発明の画像処理方法は、動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する分類ステップと、前記描画対象パラメータに基づく画像データを描画する描画ステップと、前記描画ステップにより描画された描画済みの画像データを記憶媒体に記憶する記憶ステップと、前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定する判定ステップと、前記判定ステップにより、前記描画済みの画像データが記憶されていると判定された場合には、その記憶されている描画済みの画像データと、前記分類ステップにより分類された統合対象パラメータとを統合する統合ステップとを有することを特徴とする。
本発明のコンピュータプログラムは、動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する分類ステップと、前記描画対象パラメータに基づく画像データを描画する描画ステップと、前記描画ステップにより描画された描画済みの画像データを記憶媒体に記憶する記憶ステップと、前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定する判定ステップと、前記判定ステップにより、前記描画済みの画像データが記憶されていると判定された場合には、その記憶されている描画済みの画像データと、前記分類ステップにより分類された統合対象パラメータとを統合する統合ステップとをコンピュータに実行させることを特徴とする。
本発明によれば、動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する。分類した描画対象パラメータに基づく画像データが既に描画され記憶媒体に記憶されている場合には、その記憶されている描画済みの画像データと、分類された統合対象パラメータとを統合する。このように、時間の経過によって変化しない描画対象パラメータに基づく画像データを描画して記憶して再利用に供するようにする。従って、描画対象パラメータに基づく描画済みの画像データが既に記憶媒体に記憶されている確率を高められる。よって、描画済みの画像データを従来よりも有効に再利用できる、
次に、図面を参照しながら、本発明の一実施形態について説明する。
図1は、画像形成装置の機能構成の一例を示すブロック図である。
図1において、画像処理装置は、ソース入力部101と、ソース解析部102と、オブジェクト保持有効性判定部103と、オブジェクト保持部104と、レンダリング部105と、ブレンド部106とを有している。
ソース入力部101は、動画コンテンツを定義するソースコードを読み出す。尚、動画コンテンツ及びその動画コンテンツを定義するソースコードは、例えば、画像処理装置に装着されたDVD等の記憶媒体から読み出される。また、本実施形態のソース入力部101は、コンテンツの描画処理を行うタイミングよりも早くソースコードを読み出すようにする。
ソース解析部102は、ソース入力部101に入力されたソースコードに記述されているパラメータを、動画コンテンツに含まれるオブジェクト毎に、時間が経過しても変化しないパラメータと時間の経過と共に変化するパラメータとの2種類に分類する。尚、以下の説明では、時間が経過しても変化しないパラメータをレンダリング対象パラメータと称し、時間の経過と共に変化するパラメータを、ブレンド対象パラメータと称する。
次に、ソース解析部102は、レンダリング対象パラメータを持つオブジェクトの動画コンテンツにおける出現シナリオを、ソース入力部101に入力されたソースコードから生成する。この出現シナリオには、例えば、動画コンテンツにおいて、どのようなオブジェクトが、どのタイミングで、画面上のどの位置に出現するのかを表す情報が含まれる。尚、以下の説明では、この出現シナリオを、オブジェクト出現シナリオと称する。
そして、ソース解析部102は、レンダリング対象パラメータと、オブジェクト出現シナリオとを、オブジェクト保持有効性判定部103へ出力する。また、ソース解析部102は、ブレンド対象パラメータをブレンド部106へ出力する。
オブジェクト保持有効性判定部103は、ソース解析部102によってオブジェクト毎に抽出されたレンダリング対象パラメータと、同じくソース解析部102によって抽出されたオブジェクト出現シナリオとを入力する。
オブジェクト保持有効性判定部103は、入力したオブジェクト出現シナリオから、処理対象のオブジェクトの再利用回数の情報と再利用時間帯の情報とを抽出し、抽出した情報に基づいて、処理対象のオブジェクトの動画コンテンツにおける再利用度を算出する。更に、オブジェクト保持有効性判定部103は、処理対象のオブジェクトに対応するベクタ画像データがレンダリング部105でレンダリングされてオブジェクト保持部104に記憶される場合のオブジェクト保持部104におけるメモリ占有量を算出する。
オブジェクト保持有効性判定部103は、算出した再利用度及びメモリ占有量を、予め設定された判定基準と比較する。そして、比較した結果に応じて、処理対象のオブジェクトに対応する画像データをオブジェクト保持部104に保存することが有効であるか、それとも無効であるかを判定する。
以上のように、オブジェクト保持有効性判定部103は、入力したレンダリング対象パラメータ及びオブジェクト出現シナリオと、オブジェクト保持部104の容量とに基づき、オブジェクト保持部104に保持すべきベクタ画像データを決定する。更にオブジェクト保持有効性判定部103は、入力したレンダリング対象パラメータ及びオブジェクト出現シナリオと、オブジェクト保持部104の容量とに基づき、オブジェクト保持部104に保持すべきベクタ画像データの保持スケジュールも決定する。
そして、オブジェクト保持有効性判定部103は、オブジェクト保持部104に保存することが有効と判定されたオブジェクトに対して、次の処理を行う。まず、オブジェクト保持有効性判定部103は、オブジェクト保持部104を検索して、オブジェクト保持部104に保持すべきであると決定したベクタ画像データが、オブジェクト保持部104に記憶されているか否かを判定する。この判定の結果、オブジェクト保持部104に保持すべきであると決定したベクタ画像データが、オブジェクト保持部104に記憶されていない場合(ヒットしない場合)、オブジェクト保持有効性判定部103は、次の処理を行う。即ち、オブジェクト保持有効性判定部103は、ベクタ画像データを描画するために、オブジェクト保持部104に保持すべきであると決定したベクタ画像データを、レンダリング部105へ出力する。
レンダリング部105は、オブジェクト保持部104に保持すべきであると決定され、オブジェクト保持有効性判定部103から出力されたベクタ画像データを入力し、入力したベクタ画像データに対してレンダリングを実施する。
レンダリング部105は、レンダリングしたベクタ画像データをブレンド部106へ出力すると同時に、描画済みベクタ画像データとしてオブジェクト保持部104へ格納する。
オブジェクト保持有効性判定部103は、前述したようにして決定した保持スケジュールに基づいて、オブジェクト保持部104へ格納された描画済みベクタ画像データの有効性が継続しているか否かを判断する。描画済みベクタ画像データは、有効性が継続している間、オブジェクト保持部104に格納され続ける。その後、オブジェクト保持有効性判定部103は、描画済みベクタ画像データの有効性が消滅したと判断すると、その描画済みベクタ画像データを、オブジェクト保持部104から消去する。尚、オブジェクト保持有効性判定部103は、オブジェクト保持部104へ格納された描画済みベクタ画像データの有効性が継続している間、その描画済みベクタ画像データに対する有効フラグをオンする。この有効フラグのオン、オフは、例えば、画像処理装置に設けられているRAMにその内容を記憶することにより実現できる。
尚、このようにしてレンダリング部105でレンダリングされたベクタ画像データ(描画済みベクタ画像データ)は、ラスタデータである。以下では、このレンダリングされたベクタ画像データ(描画済みベクタ画像データ)を、必要に応じて描画済み画像データと称する。
また、オブジェクト保持部104に保持すべきであると決定したベクタ画像データが、オブジェクト保持部104に保持されている(ヒットした)とオブジェクト保持有効性判定部103により判定されると、オブジェクト保持部104は、次に処理を行う。即ち、オブジェクト保持部104は、オブジェクト保持有効性判定部103が発行するコマンドを入力する。そして、オブジェクト保持部104は、入力したコマンドに従って、描画済み画像データをブレンド部106に出力する。
尚、本実施形態のオブジェクト保持部104は、キャッシュメモリを備えている。
また、オブジェクト保持部104に保存することが無効であると判定されたオブジェクトに対しては、オブジェクト保持有効性判定部103は、オブジェクト保持部104に保持すべきであると決定したベクタ画像データをレンダリング部105へ出力する。レンダリング部105は、ベクタ画像データをレンダリングして描画済み画像データを生成し、ブレンド部106へ出力する。
オブジェクト保持部104は、前述したようにしてオブジェクト保持有効性判定部103により保持すべきであると決定され、オブジェクト保持有効性判定部103から出力されたオブジェクトを格納する。
ブレンド部106は、ソース解析部102から入力されるブレンド対象パラメータを、オブジェクト保持部104とレンダリング部105との少なくとも何れか一方から入力される描画済み画像データへ適用する。即ち、ブレンド部106は、ブレンド対象パラメータに基づく画像と、描画済み画像データに基づく画像とを統合して、オブジェクトが時間の経過と共に変化する動画像データを生成し、生成した動画像データに基づく動画像を表示装置に表示させる。
図2は、画面上に表示されたオブジェクトと、そのオブジェクトに対するパラメータのリストとの一例を示す図である。
図2(a)において、画面201は、ベクトル203で表される速度を持つオブジェクト202の動画像が表示されている。このオブジェクト202に対するリスト210は、オブジェクト202とその速度を表すベクトル203とを定義したコードである。
リスト210は、次の(1)〜(8)の要素で構成される。
(1)オブジェクト形状データ211
図2(a)において、オブジェクト形状データ211は、「枠2」というラベルで、アドレス「0000_1000」に格納されている。
(2)オブジェクトスケールデータ212
図2(a)において、オブジェクトスケールデータ212は、(x軸方向の拡大率,y軸方向の拡大率)で表される。
(3)オブジェクトカラーデータ213
図2(a)において、オブジェクトカラーデータ213は、アドレス0000_0002にデータに格納されている。
(4)動きベクトル214
図2(a)において、動きベクトル214は、時刻218で示される始点、終点におけるオブジェクトの位置を示す。
(5)回転ベクトル215
図2(a)では、回転ベクトルは設定されていない。
(6)拡大原点216
図2(a)において、拡大原点216は、原点座標(0,0)を示す。
(7)拡大率217
図2(a)において、拡大率217は、拡大率(3倍)を示す。
(8)描画時刻218
図2(a)において、描画時刻218は、リスト210の有効時間を示す。
一方、図2(b)において、画面221は、ベクトル223で表される速度を持ち、且つ領域222から領域224へ拡大するオブジェクトの動画像が表示されている。このオブジェクトに対するリスト230も、リスト210と同様に、オブジェクトとそのオブジェクトの速度を表すベクトル223とを定義したコードである。このリスト230は、リスト210と同様に、オブジェクト形状データ231、オブジェクトスケールデータ232、オブジェクトカラーデータ233、動きベクトル234、回転ベクトル235、拡大原点236、拡大率237、及び描画時刻238で構成される。
図2に示した例において、ソース解析部102は、例えば、異なる時刻に描画される同一オブジェクトの拡大率217、237に関するブレンド対象パラメータと、そのオブジェクトの動き以外のパラメータとを分類できる。また、ソース解析部102は、例えば、異なる時刻に描画される同一オブジェクトの位置の時間変化に関するブレンド対象パラメータ(動きベクトル214、234及び描画時刻218、238)と、そのブレンド対象パラメータ以外のパラメータとを分類できる。
図3は、ソースコードの一例を示す図である。尚、ここでは、PDLで記述されたソースコードを例に挙げて説明する。
図3に示すソースコード301は、ソース入力部101により読み出され、ソース解析部102により解析される。
ソースコード301の3行目において、オブジェクト"Circle1"のパラメータであって、時間が経過しても変化しないパラメータが定義される。ソースコード301の4〜5行目において、オブジェクト"Circle1"のパラメータであって、時間の経過と共に変化するパラメータが定義される。
同様に、ソースコード301の7〜11行目では、オブジェクト"Circle2"のパラメータが定義される。ソースコード301の12〜17行目では、オブジェクト"Circle3"のパラメータが定義される。ソースコード301の18〜22行目では、オブジェクト"Circle4"のパラメータが定義される。
ソース解析部102は、ソースコード301の4〜5行目、8〜10行目、13〜15行目、及び19〜21行目のデータを、ブレンド部106へ出力する。また、ソース解析部102は、ソースコード301の3、7、12、及び18行目のデータを、オブジェクト保持有効性判定部103へ出力する。
図4は、図1で示したオブジェクト保持部104で保持される描画済み画像データの一例を示す図である。図4に示すように、オブジェクト保持部104は、描画済み画像データをオブジェクト毎にリスト形式で保持している。
図4において、リスト401は、オブジェクト毎にIDが付けられており、形状、オブジェクトカラー、回転角、保持シナリオ、オブジェクトの描画処理で得られる中間データ、及びオブジェクトに関するソースコードに関する情報を格納する。
次に、図5のフローチャートを参照しながら、本実施形態における画像処理装置の処理手順の一例を説明する。
まず、ステップS501において、ソース入力部101は、ソースコードを読み出す。
次に、ステップS502において、ソース解析部102は、ステップS501で読み出されたソースコードに記述されているパラメータを、レンダリング対象パラメータと、ブレンド対象パラメータとに分類する。尚、前述したように、レンダリング対象パラメータは、時間が経過しても変化しないパラメータであり、ブレンド対象パラメータは、時間の経過と共に変化するパラメータである。また、前述したように、この分類は、動画コンテンツに含まれるオブジェクト毎に行われる。
次に、ステップS503において、ソース解析部102は、レンダリング対象パラメータについて、オブジェクト出現シナリオを生成し、生成したオブジェクト出現シナリオを、例えば、画像処理装置に設けられているRAMへ格納する。
次に、ステップS504において、ソース解析部102は、ステップS502における分類の結果に基づいて、処理対象のパラメータが、レンダリング対象パラメータか否かを判定する。この判定の結果、この判定の結果、処理対象のパラメータが、レンダリング対象パラメータでなく、ブレンド対象パラメータの場合には、後述するステップS512に進む。
一方、処理対象のパラメータが、レンダリング対象パラメータである場合、ステップS505に進む。そして、ソース解析部102は、レンダリング対象パラメータと、そのレンダリング対象パラメータに対してステップS503で生成したオブジェクト出現シナリオとを、オブジェクト保持有効性判定部103に出力する。
次に、ステップS506において、オブジェクト保持有効性判定部103は、ステップS505で出力されたオブジェクト出現シナリオから、処理対象のオブジェクトの再利用回数の情報と再利用時間帯の情報とを抽出する。そして、オブジェクト保持有効性判定部103は、抽出した情報に基づいて、処理対象のオブジェクトの再利用度を算出する。更に、オブジェクト保持有効性判定部103は、オブジェクト(ベクタ画像データ)をレンダリングしてオブジェクト保持部104に記憶した場合に、そのレンダリングしたオブジェクト(ベクタ画像データ)がメモリを占有する量(メモリ占有量)を算出する。
次に、ステップS507において、処理対象のオブジェクトに対応する描画済み画像データをオブジェクト保持部104に保存することが有効であるか、それとも無効であるかを判定する。前述したようにこの判定は、ステップS506で算出した再利用度及びメモリ占有量を、予め設定された判定基準と比較することによって行われる。
この判定の結果、処理対象のオブジェクトに対応する描画済み画像データをオブジェクト保持部104に保存することが無効である場合には、後述するステップS513に進む。一方、処理対象のオブジェクトに対応する描画済み画像データをオブジェクト保持部104に保存することが有効である場合、ステップS508に進む。
次に、ステップS508において、オブジェクト保持有効性判定部103は、処理対象のオブジェクトに対応する描画済み画像データが、オブジェクト保持部104に記憶されているか否かを判定する。この判定の結果、処理対象のオブジェクトに対応する描画済み画像データが、オブジェクト保持部104に記憶されていない場合には、後述するステップS514に進む。
一方、処理対象のオブジェクトに対応する描画済み画像データが、オブジェクト保持部104に記憶されている場合には、ステップS509に進む。そして、オブジェクト保持有効性判定部103は、処理対象のオブジェクトに対応する描画済み画像データをオブジェクト保持部104から読み出して、ブレンド部106に出力する。
次に、ステップS510において、オブジェクト保持有効性判定部103は、表示対象のオブジェクトの全てのパラメータについての処理を終了したか否かを判定する。この判定の結果、表示対象のオブジェクトの全てのパラメータについての処理を終了していない場合には、ステップS504に戻り、未処理のパラメータを処理対象として処理を継続する。
一方、表示対象の全てのパラメータについての処理を終了した場合には、ステップS511に進む。そして、オブジェクト保持有効性判定部103は、表示対象の1フレームに含まれる全てのオブジェクトについての処理を終了したか否かを判定する。この判定の結果、表示対象のオブジェクトの全てのパラメータについての処理を終了していない場合には、ステップS502に戻る。そして、ソース解析部102は、未処理のオブジェクトに対するパラメータを、パラメータを、レンダリング対象パラメータと、ブレンド対象パラメータとに分類する。
一方、表示対象のオブジェクトの全てのパラメータについての処理を終了した場合には、ステップS512に進む。そして、ブレンド部106は、ブレンド対象パラメータに基づく画像と、描画済み画像データに基づく画像とをオブジェクト毎に統合し、統合した画像に基づく動画像を表示装置に表示する。
ステップS504において、処理対象のパラメータが、レンダリング対象パラメータでなく、ブレンド対象パラメータの場合には、ステップS512に進む。そして、ソース解析部102は、ブレンド対象パラメータをブレンド部106へ出力し、前述したステップS510に進む。
ステップS507において、処理対象のオブジェクトに対応する描画済み画像データをオブジェクト保持部104に保存することが無効である場合には、ステップS513に進む。そして、オブジェクト保持有効性判定部103は、処理対象のオブジェクトに対応するベクタ画像データをレンダリング部105へ出力する。レンダリング部105は、ベクタ画像データをレンダリングして描画済み画像データを生成し、ブレンド部106へ出力する。そして、前述したステップS510に進む。
ステップS508において、処理対象のオブジェクトに対応する描画済み画像データが、オブジェクト保持部104に記憶されていない場合には、ステップS514に進む。そして、オブジェクト保持有効性判定部103は、ステップS507でオブジェクト保持部104に保持すると判定されたベクタ画像データをレンダリング部105へ出力する。
レンダリング部105は、レンダリングしたベクタ画像データをブレンド部106へ出力すると同時に、そのレンダリングしたベクタ画像データを描画済み画像データとしてオブジェクト保持部104へ格納する。
図6は、ソース解析部102において分類されたブレンド対象パラメータのリストの一例を示す図である。
図6において、項目601には、時間の経過と共に変化するブレンド対象パラメータのそれぞれを識別するためのIDが記述される。
項目602には、ブレンドの方法が定義される。IDが「0」のブレンド対象パラメータでは、表示面全面を描画範囲とする。「1」以上のIDがオブジェトのIDである。IDが「0」のブレンド対象パラメータにより描画される背景に、IDが「1」以上のブレンド対象パラメータにより描画される画像を上書きする形でブレンドが行われる。
項目603には、上書きの優先順位のシナリオが定義されたデータが存在するアドレス値が記述される。尚、IDが「0」のブレンド対象パラメータの優先順位は最下位である。
項目604には、ブレンド対象パラメータが記述される。具体的に、ブレンド対象パラメータのリストの定義範囲である10f(フレーム)において、ブレンド種別602に記述された各オブジェクトの状態変化を定義する。
図7は、ブレンド部106を実現するハードウェアの構成の一例を示す図である。
図7において、バス702は、オブジェクトの描画済み画像データや、オブジェクトのブレンド対象パラメータを、パケットで伝送する。
データ統合分配器701は、オブジェクトの描画済み画像データや、オブジェクトのブレンド対象パラメータを入力する。データ統合分配器701は、ソース解析部102から出力されたオブジェクトのブレンド対象パラメータと、オブジェクト保持部104又はレンダリング部105から出力されたオブジェクトの描画済み画像データとを統合する。
また、データ統合分配器701は、オブジェクトの表示優先順位に基づいてオブジェクトを描画し、x方向のメモリ素子励起器(又は描画素子励起器)704と、y方向のメモリ素子励起器(又は描画素子励起器)703とを励起する。
1単位のブロック705は、表示画面の画素位置に対応したオブジェクトの描画データを格納するフレームバッファ、又は表示画面の1素子分の描画部を示す。
図8は、データ統合分配器701で統合されたオブジェクトの描画済み画像データと、オブジェクトのブレンド対象パラメータの一例を示す図である。
図8において、データ802、804〜806は、ソース解析部102から出力されたブレンド対象パラメータである。データ807は、レンダリング部105から出力された描画済み画像データである。
データ802は、描画済み画像データが表示される時間帯である。
データ803は、表示される描画済み画像データのIDである。このIDは、データ統合分配器701において、オブジェクトのブレンド対象パラメータと、オブジェクトの描画済みデータとを統合するためのキーとなるIDである。
データ804は、描画済み画像データの表示優先順位である。
データ805は、描画済み画像データの時間的な表示割合である。
データ統合分配器701は、同じ時間帯、且つ同じ表示素子に表示される互いに異なる複数のオブジェクトが、データ805により示される表示割合で定義された時間比(単位:パーセント)で表示されるようにする。
アドレス806は、表示すべきオブジェクトの描画済み画像データが格納されるフレームバッファのアドレス又は表示素子の位置を示す。
データ807は、オブジェクトの描画済み画像データである。
図9は、ブレンド部106における動作の第1の例を説明する図である。図9(b)は、図9(a)に示すようにして統合されたオブジェクトの描画済み画像データと、オブジェクトのブレンド対象パラメータとに基づく動画像を表示する際のタイミングチャートの一例を示す。図9(b)において、横軸は、時間を示し、縦軸は、表示されるオブジェクトを示す。
時刻tが「1」〜「3」(t=1〜3)、「5」〜「10」(t=5〜10)の期間810、812は、IDが「2」(ID=2)のオブジェクト902のみが表示される時間帯である。
時刻tが「3」〜「5」(t=3〜5)の期間811は、IDが「1」(ID=1)のオブジェクト901が、IDが「2」であるオブジェクト902より高い表示優先順(表示割合805の値が100%)である。このため、IDが「1」のオブジェクト901のみが表示される
図10は、ブレンド部106における動作の第2の例を説明する図である。図9と同様に、図10(b)は、図10(a)に示すようにして統合されたオブジェクトの描画済み画像データと、オブジェクトのブレンド対象パラメータとに基づく動画像を表示する際のタイミングチャートの一例を示す。図10(b)において、横軸は、時間を示し、縦軸は、表示されるオブジェクトを示す。尚、図10では、IDが「1」(ID=1)のオブジェクト1001の表示割合805の値が30%である場合を例に挙げて示している。
データ統合分配器701は、描画済み画像データが表示される時間帯を示す802の最小時間単位の1万分の1の周期で動作するクロック信号815を発生する。
アドレス806の値が同じである互いに異なる複数のオブジェクトのデータが、同時に入力されたとき、データ統合分配器701は、次の動作を行う。即ち、データ統合分配器701は、100クロック中30クロックの期間817、IDが「1」(ID=1)のオブジェクト1001の描画済み画像データをフレームバッファ又は表示素子へ出力する。そして、データ統合分配器701は、残りの70クロックの期間818、IDが「2」(ID=2)のオブジェクト1001の描画済み画像データをフレームバッファ又は表示素子へ出力する。その他の期間816、819は、IDが「2」(ID=2)のオブジェクト1002のみが表示される
尚、図7〜図10を用いて説明した統合方法とは異なる一般的な方法として次のようなものがある。即ち、互いに異なる複数のオブジェクトの描画済み画像データを、同一の時刻に、表示面の同一の素子に表示する場合、互いに異なる複数のオブジェクトの描画済み画像データと、それらの表示割合による演算結果とを描画素子又はフレームバッファへ出力する。そして、出力した結果に基づいて画像を表示する。
図11は、以上のような処理を行う画像処理装置におけるハードウェアの構成の一例を示す図である。
図11において、CPU1010と、ROM1020と、RAM1030と、キーボード(KB)1040のキーボードコントローラ(KBC)1050とが、システムバス1130に接続されている。また、表示部としてのCRTディスプレイ(CRT)1060のCRTコントローラ(CRTC)1070が、システムバス1130に接続されている。そして、ハードディスク(HD)1080及びフレキシブルディスク(FD)1090のディスクコントローラ(DKC)1100も、システムバス1130に接続されている。さらに、ネットワーク1110との接続のためのネットワークインターフェースコントローラ(NIC)1120も、システムバス1130に接続されている。
CPU1010は、ROM1020或いはHD1080に記憶されたソフトウェア、或いはFD1090より供給されるソフトウェアを実行することで、システムバス1130に接続された各構成部を総括的に制御する。
すなわち、CPU1010は、所定の処理シーケンスに従った処理プログラムを、ROM1020、或いはHD1080、或いはFD1090から読み出して実行することで、後述する動作を実現するための制御を行う。
RAM1030は、CPU1010の主メモリ或いはワークエリア等として機能する。
KBC1050は、KB1040や図示していないポインティングデバイス等からの指示入力を制御する。
CRTC1070は、CRT1060の表示を制御する。
DKC1100は、ブートプログラム、種々のアプリケーション、編集ファイル、ユーザファイル、ネットワーク管理プログラム、及び本実施形態における所定の処理プログラム等を記憶するHD1080及びFD1090とのアクセスを制御する。
NIC1120は、ネットワーク1110上の装置或いはシステムと双方向にデータをやりとりする。
以上のように本実施形態では、ソース解析部102は、動画コンテンツを定義するソースコードに記述されているパラメータを、時間が経過しても変化しないレンダリング対象パラメータと、時間の経過と共に変化するブレンド対象パラメータとに分類する。オブジェクト保持有効性判定部103は、レンダリング対象パラメータに対応するベクタ画像データが、描画済み画像データとして既にオブジェクト保持部104に記憶されている場合には、その描画済み画像データの読み出しを指示する。これにより、オブジェクト保持部104からブレンド部106に、レンダリング対象パラメータに対応する描画済み画像データが出力される。ブレンド部106は、この描画済み画像データと、ソース解析部102で分類されたブレンド対象パラメータとを統合して動画コンテンツを描画して表示装置に表示する。
従って、PDL等で記述された動画コンテンツを描画する際に、繰り返し利用されるオブジェクトのレンダリングの回数を減らせる。従って、レンダリング部の有効利用の可能性を拡大できると共に、レンダリング部の消費電力を削減できる。
また、ブジェクト保持有効性判定部103は、処理対象のオブジェクトの再利用度と、処理対象のオブジェクトに対応するベクタ画像データのメモリ占有量とを算出し、算出した再利用度及びメモリ占有量を、予め設定された判定基準と比較する。そして、比較した結果に応じて、処理対象のオブジェクトに対応する画像データをオブジェクト保持部104に保存するか否かを判定する。
従って、描画済み画像データとしてオブジェクト保持部104に保存するコンテンツ(画像データ)を、そのコンテンツの出現頻度やデータ量に応じて、オブジェクト保持部104に保存できる。よって、例えば、出現頻度の低いコンテンツや、データ量の小さなコンテンツ(画像データ)については、オブジェクト保持部104に保存しないようにすることができる。
尚、本実施形態では、図5のステップS510において、全てのパラメータについてステップS504〜510、S512〜S514の処理を繰り返し行って、描画済み画像データをオブジェクト保持部104に保存するかどうかを繰り返し判定するようにした。しかしながら、必ずしもこのようにする必要はない。例えば、ユーザにより設定された複数のパラメータ、予め内部に設定された複数のパラメータ、又は外部装置からの指令に基づき設定された複数のパラメータについて、ステップS504〜510、S512〜S514の処理を繰り返し行ってもよい。
また、時間の経過によって変化しないレンダリング対象パラメータの一部についてのみ、オブジェクト保持部104に保存するか否かをステップS507で判定してもよい。即ち、レンダリング対象パラメータに基づく描画済み画像データであっても、レンダリング対象パラメータの種類に応じて、オブジェクト保持部104に保存するか否かを判定したり、しなかったりしてもよい。
(本発明の他の実施形態)
前述した実施形態の機能を実現するべく各種のデバイスを動作させるように、該各種デバイスと接続された装置あるいはシステム内のコンピュータに対し、前記実施形態の機能を実現するためのソフトウェアのプログラムコードを供給してもよい。そのシステムあるいは装置のコンピュータ(CPUあるいはMPU)に格納されたプログラムに従って前記各種デバイスを動作させることによって実施したものも、本発明の範疇に含まれる。
また、この場合、前記ソフトウェアのプログラムコード自体が前述した実施形態の機能を実現することになる。また、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、例えば、かかるプログラムコードを格納した記録媒体は本発明を構成する。かかるプログラムコードを記憶する記録媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。
また、コンピュータが供給されたプログラムコードを実行することにより、前述の実施形態の機能が実現されるだけでない。そのプログラムコードがコンピュータにおいて稼働しているオペレーティングシステムあるいは他のアプリケーションソフト等と共同して前述の実施形態の機能が実現される場合にもかかるプログラムコードは本発明の実施形態に含まれることは言うまでもない。
さらに、供給されたプログラムコードがコンピュータの機能拡張ボードに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードに備わるCPUが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合にも本発明に含まれることは言うまでもない。
また、供給されたプログラムコードがコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいて機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合にも本発明に含まれることは言うまでもない。
尚、前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
本発明の実施形態を示し、画像形成装置の機能構成の一例を示すブロック図である。 本発明の実施形態を示し、画面上に表示されたオブジェクトと、そのオブジェクトに対するリストとの一例を示す図である。 本発明の実施形態を示し、ソースコードの一例を示す図である。 本発明の実施形態を示し、オブジェクト保持部で保持される描画済み画像データの一例を示す図である。 本発明の実施形態を示し、画像処理装置の処理手順の一例を説明するフローチャートである。 本発明の実施形態を示し、ソース解析部において分類されたブレンド対象パラメータのリストの一例を示す図である。 本発明の実施形態を示し、ブレンド部を実現するハードウェアの構成の一例を示す図である。 本発明の実施形態を示し、データ統合分配器で統合されたオブジェクトの描画済み画像データと、オブジェクトのブレンド対象パラメータの一例を示す図である。 本発明の実施形態を示し、ブレンド部における動作の第1の例を説明する図である。 本発明の実施形態を示し、ブレンド部における動作の第2の例を説明する図である。 本発明の実施形態を示し、画像処理装置におけるハードウェアの構成の一例を示す図である。 従来の技術を示し、並列処理単位であるブロックに分割した画像データを示す図である。
符号の説明
100 ソース入力部
102 ソース解析部
103 オブジェクト保持有効性判定部
104 オブジェクト保持部
105 レンダリング部
106 ブレンド部

Claims (27)

  1. 動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する分類手段と、
    前記描画対象パラメータに基づく画像データを描画する描画手段と、
    前記描画手段により描画された描画済みの画像データを記憶媒体に記憶する記憶手段と、
    前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定する判定手段と、
    前記判定手段により、前記描画済みの画像データが記憶されていると判定された場合には、その記憶されている描画済みの画像データと、前記分類手段により分類された統合対象パラメータとを統合する統合手段とを有することを特徴とする画像処理装置。
  2. 前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データを前記記憶媒体に記憶させるか否かを判定する第2の判定手段とを有し、
    前記記憶手段は、前記第2の判定手段により前記記憶媒体に記憶させると判定された描画済みの画像データを前記記憶媒体に記憶することを特徴とする請求項1に記載の画像処理装置。
  3. 前記分類手段により分類された描画対象パラメータを持つオブジェクトの前記動画コンテンツにおける出現シナリオを生成する生成手段と、
    前記生成手段により生成された出現シナリオに基づいて、前記分類手段により分類された描画対象パラメータを持つオブジェクトの前記動画コンテンツにおける再利用度を算出する再利用度算出手段と、
    前記分類手段により分類された描画対象パラメータを持つオブジェクトの前記記憶媒体における占有量を算出する占有量算出手段と有し、
    前記第2の判定手段は、前記再利用度算出手段により算出された再利用度と、前記占有量算出手段により算出された占有量とを用いて、前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データを前記記憶媒体に記憶させるか否かを判定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記描画手段は、前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データを前記記憶媒体に記憶させないことが、前記第2の判定手段により判定された場合に、前記分類手段により分類された描画対象パラメータに基づく画像データを描画することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記動画コンテンツの描画処理で必要となるタイミングよりも早く、その動画コンテンツのソースコードを取得するソース取得手段を有し、
    前記分類手段は、前記ソース取得手段により取得されたソースコードに含まれるパラメータを、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記判定手段は、前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されている否かを、動画コンテンツに含まれる複数の描画対象パラメータについて繰り返し判定することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
  7. 前記描画手段は、前記描画済みの画像データが記憶されていないことが、前記判定手段により判定された場合に、前記分類手段により分類された描画対象パラメータに基づく画像データを描画することを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 前記記憶手段により記憶された描画済みの画像データが有効であるか否かを判定する第3の判定手段と、
    前記第3の判定手段により、前記描画済みの画像データが有効でないと判定された場合に、その描画済みの画像データを前記記憶媒体から削除する削除手段とを有することを特徴とする請求項1〜7の何れか1項に記載の画像処理装置。
  9. 前記記憶手段は、前記描画対象パラメータを持つオブジェクトのソースコードと、前記描画手段による描画処理により得られた中間データとを含む情報を、前記描画手段により描画された描画済みの画像データとして、前記記憶手段に記憶することを特徴とする請求項1〜8の何れか1項に記載の画像処理装置。
  10. 前記判定手段は、前記記憶媒体に記憶されているデータを検索し、検索した結果に基づいて、前記分類手段により分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定することを特徴とする請求項1〜9の何れか1項に記載の画像処理装置。
  11. 前記分類手段は、異なる時刻に描画される同一オブジェクトの拡大率に関するパラメータと、前記オブジェクトの動き以外のパラメータとを分類することを特徴とする請求項1〜10の何れか1項に記載の画像処理装置。
  12. 前記分類手段は、異なる時刻に描画される同一オブジェクトの位置の時間変化に関するパラメータと、その位置の時間変化に関するパラメータ以外のパラメータとを分類することを特徴とする請求項1〜11の何れか1項に記載の画像処理装置。
  13. 前記統合手段は、前記描画済みの画像データに、前記分類手段により分類された統合対象パラメータを適用し、オブジェクトが時間の経過と共に変化する動画像データを生成することを特徴とする請求項1〜12の何れか1項に記載の画像処理装置。
  14. 動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する分類ステップと、
    前記描画対象パラメータに基づく画像データを描画する描画ステップと、
    前記描画ステップにより描画された描画済みの画像データを記憶媒体に記憶する記憶ステップと、
    前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定する判定ステップと、
    前記判定ステップにより、前記描画済みの画像データが記憶されていると判定された場合には、その記憶されている描画済みの画像データと、前記分類ステップにより分類された統合対象パラメータとを統合する統合ステップとを有することを特徴とする画像処理方法。
  15. 前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データを前記記憶媒体に記憶させるか否かを判定する第2の判定ステップとを有し、
    前記記憶ステップは、前記第2の判定ステップにより前記記憶媒体に記憶させると判定された描画済みの画像データを前記記憶媒体に記憶することを特徴とする請求項14に記載の画像処理方法。
  16. 前記分類ステップにより分類された描画対象パラメータを持つオブジェクトの前記動画コンテンツにおける出現シナリオを生成する生成ステップと、
    前記生成ステップにより生成された出現シナリオに基づいて、前記分類ステップにより分類された描画対象パラメータを持つオブジェクトの前記動画コンテンツにおける再利用度を算出する再利用度算出ステップと、
    前記分類ステップにより分類された描画対象パラメータを持つオブジェクトの前記記憶媒体における占有量を算出する占有量算出ステップと有し、
    前記第2の判定ステップは、前記再利用度算出ステップにより算出された再利用度と、前記占有量算出ステップにより算出された占有量とを用いて、前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データを前記記憶媒体に記憶させるか否かを判定することを特徴とする請求項15に記載の画像処理方法。
  17. 前記描画ステップは、前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データを前記記憶媒体に記憶させないことが、前記第2の判定ステップにより判定された場合に、前記分類ステップにより分類された描画対象パラメータに基づく画像データを描画することを特徴とする請求項15又は16に記載の画像処理方法。
  18. 前記動画コンテンツの描画処理で必要となるタイミングよりも早く、その動画コンテンツのソースコードを取得するソース取得ステップを有し、
    前記分類ステップは、前記ソース取得ステップにより取得されたソースコードに含まれるパラメータを、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類することを特徴とする請求項14〜17の何れか1項に記載の画像処理方法。
  19. 前記判定ステップは、前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されている否かを、動画コンテンツに含まれる複数の描画対象パラメータについて繰り返し判定することを特徴とする請求項14〜18の何れか1項に記載の画像処理方法。
  20. 前記描画ステップは、前記描画済みの画像データが記憶されていないことが、前記判定ステップにより判定された場合に、前記分類ステップにより分類された描画対象パラメータに基づく画像データを描画することを特徴とする請求項14〜19の何れか1項に記載の画像処理方法。
  21. 前記記憶ステップにより記憶された描画済みの画像データが有効であるか否かを判定する第3の判定ステップと、
    前記第3の判定ステップにより、前記描画済みの画像データが有効でないと判定された場合に、その描画済みの画像データを前記記憶媒体から削除する削除ステップとを有することを特徴とする請求項14〜20の何れか1項に記載の画像処理方法。
  22. 前記記憶ステップは、前記描画対象パラメータを持つオブジェクトのソースコードと、前記描画ステップによる描画処理により得られた中間データとを含む情報を、前記描画ステップにより描画された描画済みの画像データとして、前記記憶ステップに記憶することを特徴とする請求項14〜21の何れか1項に記載の画像処理方法。
  23. 前記判定ステップは、前記記憶媒体に記憶されているデータを検索し、検索した結果に基づいて、前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定することを特徴とする請求項14〜22の何れか1項に記載の画像処理方法。
  24. 前記分類ステップは、異なる時刻に描画される同一オブジェクトの拡大率に関するパラメータと、前記オブジェクトの動き以外のパラメータとを分類することを特徴とする請求項14〜23の何れか1項に記載の画像処理方法。
  25. 前記分類ステップは、異なる時刻に描画される同一オブジェクトの位置の時間変化に関するパラメータと、その位置の時間変化に関するパラメータ以外のパラメータとを分類することを特徴とする請求項14〜24の何れか1項に記載の画像処理方法。
  26. 前記統合ステップは、前記描画済みの画像データに、前記分類ステップにより分類された統合対象パラメータを適用し、オブジェクトが時間の経過と共に変化する動画像データを生成することを特徴とする請求項14〜25の何れか1項に記載の画像処理方法。
  27. 動画コンテンツのソースコードに含まれるパラメータを、その動画コンテンツにより表示されるオブジェクト毎に、時間の経過によって変化しない描画対象パラメータと、時間の経過と共に変化する統合対象パラメータとに分類する分類ステップと、
    前記描画対象パラメータに基づく画像データを描画する描画ステップと、
    前記描画ステップにより描画された描画済みの画像データを記憶媒体に記憶する記憶ステップと、
    前記分類ステップにより分類された描画対象パラメータに基づく描画済みの画像データが既に前記記憶媒体に記憶されているか否かを判定する判定ステップと、
    前記判定ステップにより、前記描画済みの画像データが記憶されていると判定された場合には、その記憶されている描画済みの画像データと、前記分類ステップにより分類された統合対象パラメータとを統合する統合ステップとをコンピュータに実行させることを特徴とするコンピュータプログラム。
JP2006250711A 2006-09-15 2006-09-15 画像処理装置、画像処理方法、及びコンピュータプログラム Pending JP2008071241A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006250711A JP2008071241A (ja) 2006-09-15 2006-09-15 画像処理装置、画像処理方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006250711A JP2008071241A (ja) 2006-09-15 2006-09-15 画像処理装置、画像処理方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2008071241A true JP2008071241A (ja) 2008-03-27
JP2008071241A5 JP2008071241A5 (ja) 2009-11-05

Family

ID=39292749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006250711A Pending JP2008071241A (ja) 2006-09-15 2006-09-15 画像処理装置、画像処理方法、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2008071241A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009150998A1 (en) * 2008-06-12 2009-12-17 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2011165173A (ja) * 2010-01-18 2011-08-25 Canon Inc 情報処理装置、情報処理装置の動作方法、および記憶媒体
US8902237B2 (en) 2009-12-15 2014-12-02 Mitsubishi Electric Corporation Image generating apparatus and image generating method
JP2015087809A (ja) * 2013-10-28 2015-05-07 キヤノン株式会社 描画装置、方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216140A (ja) * 2002-01-23 2003-07-30 Seiko Epson Corp 表示装置および表示装置のキャッシュ制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003216140A (ja) * 2002-01-23 2003-07-30 Seiko Epson Corp 表示装置および表示装置のキャッシュ制御方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009150998A1 (en) * 2008-06-12 2009-12-17 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
JP2009301293A (ja) * 2008-06-12 2009-12-24 Canon Inc 画像処理装置及びその制御方法
US9019304B2 (en) 2008-06-12 2015-04-28 Canon Kabushiki Kaisha Image processing apparatus and control method thereof
US8902237B2 (en) 2009-12-15 2014-12-02 Mitsubishi Electric Corporation Image generating apparatus and image generating method
JP2011165173A (ja) * 2010-01-18 2011-08-25 Canon Inc 情報処理装置、情報処理装置の動作方法、および記憶媒体
JP2015087809A (ja) * 2013-10-28 2015-05-07 キヤノン株式会社 描画装置、方法及びプログラム

Similar Documents

Publication Publication Date Title
JP4071196B2 (ja) ゾーン・レンダリング用の自動メモリ管理
KR100682456B1 (ko) 렌더링 영역을 최소화하는 3d 그래픽스 데이터의 렌더링방법 및 시스템
JP4076502B2 (ja) ゾーン・レンダリングのための効率的なグラフィックス状態管理
JP4280270B2 (ja) 幾何プリミティブのインデックスを外す方法、ラスタ化装置、コンピュータ可読媒体
JP5596938B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US8896699B2 (en) Image synthesis device
KR101399472B1 (ko) 다중 프로세싱을 이용한 렌더링 처리 장치 및 방법
JP2005301902A (ja) 画像処理装置および画像処理システム
JP2008158765A (ja) 情報処理装置、情報処理方法、及び、当該情報処理方法をコンピュータに実行させるためのプログラム
JP2015125509A (ja) 画像処理装置、画像処理方法およびプログラム
JP2011515751A (ja) タイル・ベース・レンダリング・システムにおける変換されていない表示リスト
JPWO2008126392A1 (ja) 画像生成装置及び画像生成方法
JP2013058147A (ja) 画像処理装置及び方法、並びにプログラム
JP3579775B2 (ja) 映像生成装置
JP2008071241A (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US20150242988A1 (en) Methods of eliminating redundant rendering of frames
US10049487B2 (en) Identifying duplicate indices in an input index stream
JP4827659B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP2007122369A (ja) データ処理装置及びデータ処理方法
JP2010021766A (ja) 画像表示装置、画像表示方法、プログラム及び記憶媒体
CN106547505B (zh) 用于实时滑动显示扫描图像的方法及系统
US8605112B2 (en) Graphics drawing apparatus, method, and program and recording medium on which the program is recorded
KR101399473B1 (ko) 다중 프로세싱을 이용한 렌더링 처리 장치 및 방법
JP2009075805A (ja) 画像形成装置
JP2009063294A (ja) 信号波形出力システム及びコンピュータプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110822

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110830

A521 Written amendment

Effective date: 20111028

Free format text: JAPANESE INTERMEDIATE CODE: A523

A02 Decision of refusal

Effective date: 20120110

Free format text: JAPANESE INTERMEDIATE CODE: A02