JP2006331064A - Motion blur image generation device and its method - Google Patents

Motion blur image generation device and its method Download PDF

Info

Publication number
JP2006331064A
JP2006331064A JP2005153476A JP2005153476A JP2006331064A JP 2006331064 A JP2006331064 A JP 2006331064A JP 2005153476 A JP2005153476 A JP 2005153476A JP 2005153476 A JP2005153476 A JP 2005153476A JP 2006331064 A JP2006331064 A JP 2006331064A
Authority
JP
Japan
Prior art keywords
polygon
light source
drawing object
motion blur
afterimage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005153476A
Other languages
Japanese (ja)
Inventor
Yuudai Ishibashi
裕大 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005153476A priority Critical patent/JP2006331064A/en
Publication of JP2006331064A publication Critical patent/JP2006331064A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that since a conventional motion blur method is provided to plot a plurality of frames for the purpose of obtaining one display frame, and to carry out their composition processing, calculation quantity is extremely large, and expensive hardware is required for performing plotting in a real time. <P>SOLUTION: Not only polygon data included in a current plotting object but also polygon data included in the past plotting object to be used as an after-image are inputted to a graphic engine, and the polygon data of the current plotting object are compared with the polygon data of the after-image, and as for the polygon of the after-image, whether or not the light source calculation result of the polygon of the plotting object or the polygon of another after-image is reusable is decided, and when it is decided that the light source calculation result is reusable, the light source calculation is omitted. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、コンピュータグラフィックス技術に関し、3次元コンピュータグラフィックス画像を生成する画像生成装置および画像生成方法に関するものである。   The present invention relates to computer graphics technology, and relates to an image generation apparatus and an image generation method for generating a three-dimensional computer graphics image.

3次元コンピュータグラフィックスのアニメーションでは、フレームレートが低い場合にはオブジェクトの動きが不連続的になってしまうことがある。このようなオブジェクトの動きを滑らかに見せる技法として、下記非特許文献1に記載されたモーションブラーと呼ばれる画像生成方法が知られている。モーションブラー法は人工的にオブジェクトの残像を作り出してブレを表現することでリアルなアニメーションを見せる画像生成方法である。   In a three-dimensional computer graphics animation, if the frame rate is low, the movement of the object may become discontinuous. As a technique for smoothly showing the movement of such an object, an image generation method called motion blur described in Non-Patent Document 1 below is known. The motion blur method is an image generation method that shows realistic animation by artificially creating an afterimage of an object to express blur.

図6は従来のモーションブラー画像の生成方法の例を示す図である。モーションブラー画像を生成するには、現在(時間t)の描画オブジェクトを描画したフレーム601に加えて、過去(時間t−1、t−2)の描画オブジェクトを描画したフレーム602、603を生成し、フレーム601−603を半透明合成して、モーションブラー効果が得られたフレーム604を生成する。フレーム604を画像表示装置を用いて表示することで、リアルなアニメーションを見せることができる。
明解3次元コンピュータグラフィックス(初版) 荒屋真二著 共立出版(第158頁)
FIG. 6 is a diagram illustrating an example of a conventional motion blur image generation method. In order to generate the motion blur image, in addition to the frame 601 in which the current (time t) drawing object is drawn, frames 602 and 603 in which the past (time t−1, t−2) drawing objects are drawn are generated. The frames 601 to 603 are translucently combined to generate a frame 604 with a motion blur effect. By displaying the frame 604 using an image display device, a realistic animation can be shown.
Clear 3D Computer Graphics (First Edition) by Shinji Araya Kyoritsu Publishing (page 158)

しかしながら、上記のモーションブラー画像生成方法は、1つの表示フレームを生成するために、現在の描画オブジェクトを描画したフレームと、残像を表現するための過去の描画オブジェクトを描画したフレームをそれぞれ作成して、合成処理を行う必要があるため、計算量が非常に多く、リアルタイムで描画を行うには高価なハードウェアを必要とした。   However, in the above motion blur image generation method, in order to generate one display frame, a frame in which a current drawing object is drawn and a frame in which a past drawing object for representing an afterimage is drawn are created. Since it is necessary to perform synthesis processing, the calculation amount is very large, and expensive hardware is required to perform drawing in real time.

上記の課題を解決するために、本発明では以下の手段を講じた。すなわち、現在の描画オブジェクトに含まれるポリゴンと残像として用いる過去の前記描画オブジェクトの対応するポリゴンとを同時に描画する手段と、前記現在の描画オブジェクトに含まれるポリゴンと前記残像として用いる過去の前記描画オブジェクトの対応するポリゴンの描画データを比較、残像のポリゴンについて前記現在の描画オブジェクトのポリゴンまたは他の残像のポリゴンの光源計算結果が再利用可能かどうかを判定する手段とを備えた。   In order to solve the above problems, the present invention takes the following measures. That is, means for simultaneously drawing a polygon included in the current drawing object and a corresponding polygon of the past drawing object used as an afterimage, and the past drawing object used as the polygon included in the current drawing object and the afterimage Means for comparing the drawing data of the corresponding polygons and determining whether the light source calculation result of the polygon of the current drawing object or the polygon of another afterimage for the afterimage polygon can be reused.

本発明によれば、前記現在の描画オブジェクトと前記過去の描画オブジェクトの対応するポリゴンデータを同時に描画処理することで、個別にフレームを生成することなくモーションブラー効果付きのフレームを得ることができる。また、同時に描画処理を行う際に、現在と過去の描画オブジェクトのポリゴンデータを比較、両者のポリゴン間で光源計算結果が再利用可能かどうかを判定して再利用可能であれば光源計算を省略することで、画像生成のための計算量を大幅に削減することができる。そのため、処理のための計算リソースの少ない安価なハードウェアにおいても、モーションブラー画像の生成を行うことが可能となる。   According to the present invention, a frame with a motion blur effect can be obtained without simultaneously generating a frame by simultaneously rendering the polygon data corresponding to the current drawing object and the past drawing object. When drawing simultaneously, compare polygon data of current and past drawing objects, determine whether the light source calculation results can be reused between both polygons, and omit light source calculation if reusable By doing so, the amount of calculation for image generation can be greatly reduced. For this reason, it is possible to generate a motion blur image even on inexpensive hardware with few calculation resources for processing.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の実施の形態における画像生成装置構成例を示す図である。本実施の形態における画像生成装置は、集積回路として実現され、LSI101に含まれる、CPU102、グラフィックスエンジン103、メモリコントローラ104、ディスプレイコントローラ105、CPUバス106、メモリバス107、メモリ108から構成される。LSI101では、CPU102の指示をCPUバス106を介してグラフィックスエンジン103へ伝え、グラフィックスエンジン103では画像生成処理を行い、結果はメモリバス107、メモリコントローラ104を介してメモリ108に格納する。メモリ108に格納された処理結果は、ディスプレイコントローラ105を介してディスプレイ109へと出力される。なお、本実施の形態で説明した図1のLSI101のCPU102、グラフィックスエンジン103などの各機能ブロックは典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されても良いし、一部または全部を含むように1チップ化されても良い。また、LSI101には、AVエンジンやストリーミングエンジンなど他の機能ブロックが含まれていても良い。さらに、メモリ108はLSI101内部、外部を問わず複数個搭載されていても良い。   FIG. 1 is a diagram illustrating a configuration example of an image generation apparatus according to an embodiment of the present invention. The image generation apparatus according to the present embodiment is realized as an integrated circuit and includes a CPU 102, a graphics engine 103, a memory controller 104, a display controller 105, a CPU bus 106, a memory bus 107, and a memory 108 included in the LSI 101. . In the LSI 101, the instruction of the CPU 102 is transmitted to the graphics engine 103 via the CPU bus 106, and the graphics engine 103 performs image generation processing, and the result is stored in the memory 108 via the memory bus 107 and the memory controller 104. The processing result stored in the memory 108 is output to the display 109 via the display controller 105. Note that each functional block such as the CPU 102 and the graphics engine 103 of the LSI 101 of FIG. 1 described in the present embodiment is typically realized as an LSI that is an integrated circuit. These may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Further, the LSI 101 may include other functional blocks such as an AV engine and a streaming engine. Further, a plurality of memories 108 may be mounted regardless of inside or outside of the LSI 101.

図2は本実施の形態におけるグラフィックスエンジン103の内部構成例を表す図である。グラフィックスエンジン103は、ホストインターフェース201、制御部202、頂点座標計算部203、光源処理判定部204、光源処理部205、透明度設定部206、セットアップ処理部207、ピクセル処理部208、メモリインターフェース209から構成される。グラフィックスエンジン103の処理はCPU102の指示をホストインターフェース201を介して受け取り、メモリ108のデータをメモリインターフェース209を介してロードし、制御部202の制御によって画像生成処理を行う。   FIG. 2 is a diagram illustrating an internal configuration example of the graphics engine 103 according to the present embodiment. The graphics engine 103 includes a host interface 201, a control unit 202, a vertex coordinate calculation unit 203, a light source processing determination unit 204, a light source processing unit 205, a transparency setting unit 206, a setup processing unit 207, a pixel processing unit 208, and a memory interface 209. Composed. The processing of the graphics engine 103 receives an instruction from the CPU 102 via the host interface 201, loads data in the memory 108 via the memory interface 209, and performs image generation processing under the control of the control unit 202.

グラフィックスエンジン103で行われるモーションブラー画像生成処理は図3の処理フローにしたがって行われる。   The motion blur image generation processing performed by the graphics engine 103 is performed according to the processing flow of FIG.

本実施の形態におけるモーションブラー画像生成処理は、制御部202においてポリゴンデータの入力を制御し、頂点座標計算部203において入力ポリゴンの座標変換処理を行い、光源処理判定部204において描画オブジェクトのポリゴンまたは残像のポリゴンの光源計算結果を再利用するかどうかの判定を行い、光源処理部205において光源処理判定部204の判定に従ってポリゴンの光源処理を行い、透明度設定部206において残像のポリゴンの透明度の設定を行い、セットアップ処理部207においてポリゴンセットアップ処理を行い、ピクセル処理部208においてピクセル単位の描画処理を行い、生成画像をメモリインターフェース209を介してメモリ108に格納する。なお、グラフィックスエンジン103の構成は本実施の形態に記載したものに限定されるものではない。例えば、頂点座標計算部203、光源処理判定部204、光源処理部205、透明度設定部206、セットアップ処理部207、ピクセル処理部208の一部の処理がCPU102やそれに類するもので実現されても良い。   In the motion blur image generation processing in this embodiment, the control unit 202 controls polygon data input, the vertex coordinate calculation unit 203 performs input polygon coordinate conversion processing, and the light source processing determination unit 204 performs drawing object polygon or It is determined whether or not the light source calculation result of the afterimage polygon is reused, the light source processing unit 205 performs the polygon light source processing according to the determination of the light source processing determination unit 204, and the transparency setting unit 206 sets the transparency of the afterimage polygon. The setup processing unit 207 performs polygon setup processing, the pixel processing unit 208 performs pixel-by-pixel drawing processing, and stores the generated image in the memory 108 via the memory interface 209. The configuration of the graphics engine 103 is not limited to that described in this embodiment. For example, some processes of the vertex coordinate calculation unit 203, the light source processing determination unit 204, the light source processing unit 205, the transparency setting unit 206, the setup processing unit 207, and the pixel processing unit 208 may be realized by the CPU 102 or the like. .

なお、本実施の形態では、画像生成装置を実現する集積回路をLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(FieldProgrammable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用しても良い。さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。以上が本実施の形態における画像生成装置の構成についての説明である。   In this embodiment, the integrated circuit that realizes the image generation apparatus is an LSI. However, depending on the degree of integration, the integrated circuit may be referred to as an IC, a system LSI, a super LSI, or an ultra LSI. Further, the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used. Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied. The above is the description of the configuration of the image generation device according to this embodiment.

以下では、図2のグラフィックスエンジンで行われる図3のモーションブラー画像生成処理フローの詳細について説明する。ここでは、図4に示すように現在の描画オブジェクト401に2つの残像402、403を付けるモーションブラー画像生成処理について述べる。   Details of the motion blur image generation processing flow of FIG. 3 performed by the graphics engine of FIG. 2 will be described below. Here, a motion blur image generation process for adding two afterimages 402 and 403 to the current drawing object 401 as shown in FIG. 4 will be described.

まず、制御部202では、描画オブジェクト401のポリゴン404を描画する際、ポリゴン404のポリゴンデータだけではなく、それに対応する残像402、403のポリゴン405、406のポリゴンデータも合わせて入力する。   First, when drawing the polygon 404 of the drawing object 401, the control unit 202 inputs not only the polygon data of the polygon 404 but also the polygon data of the polygons 405 and 406 of the afterimages 402 and 403 corresponding thereto.

頂点座標計算部203では、入力された描画オブジェクトのポリゴン404、対応する残像のポリゴン405、406について、各ポリゴン頂点の座標から視点を原点とした座標系(視点座標系)とスクリーンへ投影した時の座標系(スクリーン座標系)とを計算する。頂点座標計算は、3次元グラフィックス処理で用いられる一般的な手段により行うことができる。   In the vertex coordinate calculation unit 203, when the input drawing object polygon 404 and corresponding afterimage polygons 405 and 406 are projected onto the screen from the coordinates of each polygon vertex with the viewpoint as the origin (viewpoint coordinate system) and the screen. The coordinate system (screen coordinate system) is calculated. The vertex coordinate calculation can be performed by a general means used in three-dimensional graphics processing.

光源処理判定部204では、入力された描画オブジェクトのポリゴン404、対応する残像のポリゴン405、406のポリゴンデータを比較して、ポリゴン404、405、406の間で光源計算結果が再利用可能かどうかの判定を行う。描画オブジェクトとその残像は元は同じオブジェクトであるため、光の反射率などの光源特性は特殊な効果を与えた場合を除いては同じであり、位置座標と法線ベクトルの違いが光源計算結果に影響を与えることから、本実施の形態では、上記判定にポリゴンの位置座標とポリゴンの法線ベクトルを用いる。本実施の形態における光源処理判定は、図5に示したフローに従って行う。まず、描画オブジェクトのポリゴン404と残像のポリゴン405について位置座標の差分407の絶対値d01と法線ベクトル409、410の差分の絶対値n01を求める。ここで、それぞれの差分の絶対値について閾値dth、nthを考える。残像ポリゴン405について、d01<dthかつn01<nthならば描画オブジェクトのポリゴン404の光源計算結果をコピーして用いるとし、そうでなければポリゴン405について独自に光源計算処理を行うものと判定する。残像ポリゴン406についても同様に、残像ポリゴン405との位置座標の差分408の絶対値d12および法線ベクトル410、411の差分n12をそれぞれ求め、d12<dthかつn12<nthならば残像のポリゴン405の光源計算結果をコピーして用いるとし、そうでなければポリゴン406について独自に光源計算処理を行うものと判定する。なお、本実施の形態では光源処理判定にポリゴンの位置座標と光源ベクトルの差分を用いたが、本発明における適用範囲はこれに限定されるものではない。例えば、描画オブジェクトの光の反射率や、描画オブジェクトのスクリーンに占める面積、描画オブジェクトの視点からの距離、描画オブジェクトの注目度などを判定に用いても良い。また、本実施の形態では、ポリゴン毎の光源処理判定を行っているが、ポリゴンの頂点毎に光源処理判定を行っても良い。   The light source processing determination unit 204 compares the polygon data of the input drawing object polygon 404 and the corresponding afterimage polygons 405 and 406, and determines whether or not the light source calculation result can be reused between the polygons 404, 405, and 406. Judgment is made. Since the drawing object and its afterimage are originally the same object, the light source characteristics such as light reflectance are the same except when a special effect is given, and the difference between the position coordinates and the normal vector is the result of the light source calculation. In this embodiment, the position coordinates of the polygon and the normal vector of the polygon are used for the determination. The light source processing determination in the present embodiment is performed according to the flow shown in FIG. First, the absolute value d01 of the difference 407 between the position coordinates and the absolute value n01 of the difference between the normal vectors 409 and 410 for the polygon 404 and the afterimage polygon 405 of the drawing object are obtained. Here, the threshold values dth and nth are considered for the absolute value of each difference. For the afterimage polygon 405, if d01 <dth and n01 <nth, the light source calculation result of the polygon 404 of the drawing object is copied and used. Otherwise, it is determined that the light source calculation process is independently performed for the polygon 405. Similarly, for the afterimage polygon 406, the absolute value d12 of the position coordinate difference 408 with respect to the afterimage polygon 405 and the difference n12 of the normal vectors 410 and 411 are respectively obtained, and if d12 <dth and n12 <nth, the afterimage polygon 405 If the light source calculation result is copied and used, otherwise, it is determined that the light source calculation process is performed independently for the polygon 406. In this embodiment, the difference between the position coordinates of the polygon and the light source vector is used for the light source processing determination, but the application range in the present invention is not limited to this. For example, the light reflectance of the drawing object, the area occupied by the drawing object on the screen, the distance from the viewpoint of the drawing object, the degree of attention of the drawing object, and the like may be used for the determination. In this embodiment, light source processing determination is performed for each polygon, but light source processing determination may be performed for each vertex of the polygon.

光源処理部205では、光源処理判定部204の決定に従って描画オブジェクトのポリゴン404および残像のポリゴン405、406の光源処理を行う。描画オブジェクトのポリゴン404については以下の計算式により光源計算結果を求める。   The light source processing unit 205 performs light source processing of the polygon 404 of the drawing object and the polygons 405 and 406 of the afterimage according to the determination of the light source processing determination unit 204. For the polygon 404 of the drawing object, the light source calculation result is obtained by the following calculation formula.

Figure 2006331064
Figure 2006331064

Figure 2006331064
Figure 2006331064

Figure 2006331064
Figure 2006331064

ここで、(数3)は環境光を求める(数1)と局所照明を求める(数2)とからなる一般的な光源計算式である。残像のポリゴン405、406については、光源処理判定部204の判定結果に従って、(1)ポリゴン404、405の光源計算結果をコピーする、(2)独自に光源計算処理を行う、のいずれかの処理を行う。なお、本実施の形態で示した光源計算式は一例であり、これに限定されるものではなく、他の光源計算式を用いても良い。また、光源処理判定部204の判定結果に関わらず、光源計算結果の一部を共有化して再利用しても良い。例えば、光源計算式の一部である(数1)は、本実施の形態における光源処理判定に用いている位置座標や法線ベクトルには依存しない計算式であるため、(数1)の部分に関しては判定結果によらず再利用することができる。   Here, (Equation 3) is a general light source calculation formula consisting of (Equation 1) for obtaining ambient light and (Equation 2) for obtaining local illumination. For afterimage polygons 405 and 406, either of (1) copy the light source calculation results of polygons 404 and 405 according to the determination result of light source processing determination unit 204, or (2) perform the light source calculation process independently. I do. Note that the light source calculation formulas shown in this embodiment are merely examples, and the present invention is not limited to this, and other light source calculation formulas may be used. Regardless of the determination result of the light source processing determination unit 204, a part of the light source calculation result may be shared and reused. For example, (Equation 1), which is a part of the light source calculation formula, is a calculation formula that does not depend on the position coordinates and normal vectors used for the light source processing determination in the present embodiment, so the portion of (Equation 1). Can be reused regardless of the determination result.

透明度設定部206では、描画オブジェクトのポリゴン404および残像のポリゴン405、406について混ぜ合わせのための透明度を設定する。一般に、現在の描画オブジェクトについては濃く、残像として用いている過去の描画オブジェクトに対しては薄く描画するため、例えば、描画オブジェクトのポリゴン404に対しては透明度α=0.70を設定する。ここではαが0.00に近いほど透明に、1.00に近いほど不透明に描画するものとする。残像のポリゴン405に対してはα=0.20、残像のポリゴン406に対してはα=0.10のように設定する。   The transparency setting unit 206 sets the transparency for mixing the drawing object polygon 404 and the afterimage polygons 405 and 406. In general, the current drawing object is dark and the past drawing object used as an afterimage is thinly drawn. For example, the transparency α = 0.70 is set for the polygon 404 of the drawing object. Here, it is assumed that the drawing is more transparent as α is closer to 0.00 and opaque as it is closer to 1.00. For the afterimage polygon 405, α = 0.20, and for the afterimage polygon 406, α = 0.10.

セットアップ処理部207では、透明度設定処理が終了した描画オブジェクトのポリゴン404と残像のポリゴン405、406について、各頂点の座標を画像表示装置の座標系へと変換し、座標およびカラー値、Z値などのパラメータからポリゴンを囲む直線の傾き、カラー値やZ値などのパラメータの変位を計算する。セットアップ処理は、3次元グラフィックス処理で用いられる一般的な手段により行うことができる。   The setup processing unit 207 converts the coordinates of each vertex of the drawing object polygon 404 and afterimage polygons 405 and 406 for which the transparency setting processing has been completed into the coordinate system of the image display device, and coordinates, color values, Z values, and the like. The displacement of the parameters such as the inclination of the straight line surrounding the polygon, the color value and the Z value is calculated from the above parameters. The setup process can be performed by a general means used in the three-dimensional graphics process.

ピクセル処理部208では、ポリゴンの各頂点の座標およびカラー値、Z値などのパラメータからポリゴンを囲む直線の傾き、カラー値やZ値などのパラメータの変位から表示デバイス上の各画素の座標およびカラー値、Z値などのパラメータを補間して、画像表示装置に表示可能な生成画像を出力する。ピクセル処理は、3次元グラフィックス処理で用いられる一般的な手段により行うことができる。   In the pixel processing unit 208, the coordinates and color of each pixel on the display device are determined from the inclination of the straight line surrounding the polygon from the coordinates and color values of the polygon, parameters such as the Z value, and the displacement of the parameters such as the color value and Z value. A generated image that can be displayed on the image display device is output by interpolating parameters such as value and Z value. Pixel processing can be performed by general means used in three-dimensional graphics processing.

以上の処理を描画オブジェクト401および残像402、403に含まれるすべてのポリゴンについて繰り返し行うことで、描画オブジェクトにモーションブラー効果を付けることができる。   By repeating the above processing for all the polygons included in the drawing object 401 and the afterimages 402 and 403, a motion blur effect can be applied to the drawing object.

なお、本実施の形態では、残像を表現するための過去の描画オブジェクトの数を2つとしたが本発明の適用はこれに限るものではない。また、透明度についても上記説明で示した値には限らない。   In the present embodiment, the number of past drawing objects for representing afterimages is two, but the application of the present invention is not limited to this. Further, the transparency is not limited to the value shown in the above description.

以上のように、前記現在の描画オブジェクトと前記過去の描画オブジェクトの対応するポリゴンデータを同時にグラフィックスエンジンに入力して、現在と残像に用いる過去の描画オブジェクトのポリゴンデータを比較、現在の光源計算結果が再利用可能かどうかを判定して再利用可能であれば光源計算を省略することで、モーションブラー画像生成のための計算量を大幅に削減することができる。   As described above, the polygon data corresponding to the current drawing object and the past drawing object are simultaneously input to the graphics engine, and the polygon data of the past drawing object used for the afterimage is compared with the current light source calculation. By determining whether or not the result can be reused and omitting the light source calculation if it can be reused, the amount of calculation for generating a motion blur image can be greatly reduced.

本発明の画像生成方法および画像生成装置は、グラフィックス描画機能を搭載するさまざまな電子機器、例えば、携帯電話、PDA、デジタルテレビ、カーナビゲーションシステム、家庭用ゲーム機、パーソナルコンピュータ等において用いることができる。   The image generation method and the image generation apparatus of the present invention can be used in various electronic devices equipped with a graphics drawing function, such as a mobile phone, a PDA, a digital TV, a car navigation system, a home game machine, and a personal computer. it can.

本発明の実施の形態における画像生成装置構成例を表す図The figure showing the example of an image generation apparatus structure in embodiment of this invention 本発明の実施の形態におけるグラフィックスエンジンの内部構成例を表す図The figure showing the internal structural example of the graphics engine in embodiment of this invention 本発明の実施の形態における処理フローを示す図The figure which shows the processing flow in embodiment of this invention 本発明の実施の形態におけるモーションブラー画像生成方法を説明するための図The figure for demonstrating the motion blur image generation method in embodiment of this invention 本発明の実施の形態における光源処理判定フローを示す図The figure which shows the light source process determination flow in embodiment of this invention 従来のモーションブラー画像生成方法を表す図The figure showing the conventional motion blur image generation method

符号の説明Explanation of symbols

101 グラフィックスエンジンを含むLSI
102 CPU
103 グラフィックスエンジン
104 メモリコントローラ
105 ディスプレイコントローラ
106 CPUバス
107 メモリバス
108 メモリ
109 ディスプレイ
201 ホストインターフェース
202 制御部
203 頂点座標計算部
204 光源処理判定部
205 光源処理部
206 透明度設定部
207 セットアップ処理部
208 ピクセル処理部
209 メモリインターフェース
401 時間tに描画されるオブジェクト
402 401の時間t−1のときの残像として描画されるオブジェクト
403 401の時間t−2のときの残像として描画されるオブジェクト
404 401に含まれるポリゴン
405 402に含まれるポリゴン
406 403に含まれるポリゴン
407 ポリゴン405からポリゴン404への位置座標の差分
408 ポリゴン406からポリゴン405への位置座標の差分
409 ポリゴン404の法線ベクトル
410 ポリゴン405の法線ベクトル
411 ポリゴン406の法線ベクトル
601 時間tのときのフレーム
602 時間t−1のときのフレーム
603 時間t−2のときのフレーム
604 フレーム601、602、603を合成して生成されるフレーム
101 LSI including graphics engine
102 CPU
DESCRIPTION OF SYMBOLS 103 Graphics engine 104 Memory controller 105 Display controller 106 CPU bus 107 Memory bus 108 Memory 109 Display 201 Host interface 202 Control part 203 Vertex coordinate calculation part 204 Light source process determination part 205 Light source process part 206 Transparency setting part 207 Setup process part 208 Pixel Processing unit 209 Memory interface 401 Object rendered at time t 402 Object rendered as an afterimage at time t-1 of 401 401 Object 404 rendered as an afterimage at time t-2 of 401 Polygon 405 402 contained in polygon 406 403 contained in 403 polygon 407 position coordinate from polygon 405 to polygon 404 Minute 408 Difference in position coordinates from polygon 406 to polygon 405 409 Normal vector of polygon 404 410 Normal vector of polygon 405 411 Normal vector of polygon 406 601 Frame at time t 602 Frame at time t-1 603 Frame at time t-2 604 Frame generated by combining frames 601, 602, and 603

Claims (8)

3次元コンピュータグラフィックス画像を描画する方法であって、現在の描画オブジェクトに含まれるポリゴンと残像として用いる過去の前記描画オブジェクトの対応するポリゴンとを同時に描画する手段を備えることを特徴とするモーションブラー画像生成方法。 A motion blur method for drawing a three-dimensional computer graphics image, comprising: means for simultaneously drawing a polygon included in a current drawing object and a corresponding polygon of the previous drawing object used as an afterimage Image generation method. 3次元コンピュータグラフィックス画像を描画する装置であって、現在の描画オブジェクトに含まれるポリゴンと残像として用いる過去の前記描画オブジェクトの対応するポリゴンとを同時に描画する手段を備えることを特徴とするモーションブラー画像生成装置。 An apparatus for drawing a three-dimensional computer graphics image, comprising: means for simultaneously drawing a polygon included in a current drawing object and a corresponding polygon of the previous drawing object used as an afterimage; Image generation device. 請求項1に記載のモーションブラー画像生成方法を情報処理装置で実行させるためのプログラム。 A program for causing an information processing apparatus to execute the motion blur image generation method according to claim 1. 請求項2に記載のモーションブラー画像生成装置を実現した集積回路。 An integrated circuit realizing the motion blur image generating apparatus according to claim 2. 3次元コンピュータグラフィックス画像を描画する方法であって、現在の描画オブジェクトに含まれるポリゴンおよび残像として用いる過去の前記描画オブジェクトの対応するポリゴンの描画データを比較、残像のポリゴンについて前記現在の描画オブジェクトのポリゴンまたは他の残像のポリゴンの光源計算結果が再利用可能かどうかを判定する手段を備えることを特徴とするモーションブラー画像生成方法。 A method for drawing a three-dimensional computer graphics image, wherein the polygons included in the current drawing object and the drawing data of the corresponding polygons of the past drawing object used as afterimages are compared, and the current drawing object is compared with respect to the afterimage polygons. A motion blur image generation method comprising: means for determining whether or not the light source calculation result of a polygon or other afterimage polygon can be reused. 3次元コンピュータグラフィックス画像を描画する装置であって、現在の描画オブジェクトに含まれるポリゴンおよび残像として用いる過去の前記描画オブジェクトの対応するポリゴンの描画データを比較、残像のポリゴンについて前記現在の描画オブジェクトのポリゴンまたは他の残像のポリゴンの光源計算結果が再利用可能かどうかを判定する手段を備えることを特徴とするモーションブラー画像生成装置。 An apparatus for drawing a three-dimensional computer graphics image, wherein the polygons included in the current drawing object and the drawing data of the corresponding polygons in the past drawing object used as afterimages are compared, and the current drawing object for the afterimage polygons A motion blur image generating apparatus comprising: means for determining whether or not the light source calculation result of the polygon or other afterimage polygon can be reused. 請求項5に記載のモーションブラー画像生成方法を情報処理装置で実行させるためのプログラム。 A program for causing an information processing apparatus to execute the motion blur image generation method according to claim 5. 請求項6に記載のモーションブラー画像生成装置を実現した集積回路。 An integrated circuit realizing the motion blur image generating apparatus according to claim 6.
JP2005153476A 2005-05-26 2005-05-26 Motion blur image generation device and its method Pending JP2006331064A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005153476A JP2006331064A (en) 2005-05-26 2005-05-26 Motion blur image generation device and its method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005153476A JP2006331064A (en) 2005-05-26 2005-05-26 Motion blur image generation device and its method

Publications (1)

Publication Number Publication Date
JP2006331064A true JP2006331064A (en) 2006-12-07

Family

ID=37552690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005153476A Pending JP2006331064A (en) 2005-05-26 2005-05-26 Motion blur image generation device and its method

Country Status (1)

Country Link
JP (1) JP2006331064A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090818A (en) * 2006-09-29 2008-04-17 Samsung Electronics Co Ltd Three-dimensional graphics rendering method and system for efficiently providing motion blur effect

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008090818A (en) * 2006-09-29 2008-04-17 Samsung Electronics Co Ltd Three-dimensional graphics rendering method and system for efficiently providing motion blur effect

Similar Documents

Publication Publication Date Title
US10692275B2 (en) Assigning primitives to tiles in a graphics processing system
KR102475212B1 (en) Foveated rendering in tiled architectures
TWI618030B (en) Method and system of graphics processing enhancement by tracking object and/or primitive identifiers, graphics processing unit and non-transitory computer readable medium
JP6185211B1 (en) Bandwidth reduction using texture lookup with adaptive shading
US8917281B2 (en) Image rendering method and system
US9626733B2 (en) Data-processing apparatus and operation method thereof
US10078883B2 (en) Writing graphics data from local memory to system memory
US9280956B2 (en) Graphics memory load mask for graphics processing
JP2018512644A (en) System and method for reducing memory bandwidth using low quality tiles
KR20170132758A (en) Hybrid 2d/3d graphics rendering
KR20180060198A (en) Graphic processing apparatus and method for processing texture in graphics pipeline
CN105550973B (en) Graphics processing unit, graphics processing system and anti-aliasing processing method
US10373367B2 (en) Method of rendering 3D image and image outputting device thereof
CN111260750B (en) Processing method and device for openFL drawing vector graphics and electronic equipment
JPWO2015037169A1 (en) Drawing device
US6445386B1 (en) Method and apparatus for stretch blitting using a 3D pipeline
EP2728551B1 (en) Image rendering method and system
CN114359451A (en) Method and system for accelerating image rendering using motion compensation
JP3756888B2 (en) Graphics processor, graphics card and graphics processing system
JP2006331064A (en) Motion blur image generation device and its method
KR20060132519A (en) A method for visualizing geography based on a quadtree using a error buffer and a flag buffer
JP2006190135A (en) Image generation method and image generation device
JP2002352263A (en) Method and device for 3d display
KR101663023B1 (en) Apparatus and method for processing graphics
JP2013186247A (en) Moving picture display device