JP7471512B2 - Drawing processing device, drawing processing system, drawing processing method, and drawing processing program - Google Patents

Drawing processing device, drawing processing system, drawing processing method, and drawing processing program Download PDF

Info

Publication number
JP7471512B2
JP7471512B2 JP2023508301A JP2023508301A JP7471512B2 JP 7471512 B2 JP7471512 B2 JP 7471512B2 JP 2023508301 A JP2023508301 A JP 2023508301A JP 2023508301 A JP2023508301 A JP 2023508301A JP 7471512 B2 JP7471512 B2 JP 7471512B2
Authority
JP
Japan
Prior art keywords
buffer
unit
target
polygon model
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023508301A
Other languages
Japanese (ja)
Other versions
JPWO2022201413A5 (en
JPWO2022201413A1 (en
Inventor
智史 櫻井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022201413A1 publication Critical patent/JPWO2022201413A1/ja
Publication of JPWO2022201413A5 publication Critical patent/JPWO2022201413A5/ja
Application granted granted Critical
Publication of JP7471512B2 publication Critical patent/JP7471512B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Generation (AREA)

Description

本開示は、描画情報を描画するための処理を行う描画処理装置、前記描画処理装置を用いる描画処理システム、描画処理方法、および描画処理プログラムに関するものである。 The present disclosure relates to a drawing processing device that performs processing to draw drawing information, a drawing processing system that uses the drawing processing device, a drawing processing method, and a drawing processing program.

ディスプレイなどの表示装置に2次元、3次元などのモデルの描画対象を表示させることがある。その際、2次元の描画対象はそのまま描画先のバッファである描画先バッファに描画されるが、3次元の描画対象は2次元に投影されてから描画先バッファに描画される。そして、描画先バッファのピクセルの中心が描画対象に含まれると、当該ピクセルが塗りつぶされ、描画対象が描画される。なお、描画対象は様々なサイズがあり、例えば1ピクセル未満の小さい描画対象から数ピクセルにまたがる描画対象もある。 Two-dimensional, three-dimensional, and other model objects may be displayed on a display device such as a monitor. In this case, two-dimensional objects are drawn directly into the destination buffer, which is the buffer to which the objects are drawn, while three-dimensional objects are projected into two dimensions and then drawn into the destination buffer. When the center of a pixel in the destination buffer falls within the object, that pixel is filled and the object is drawn. Note that objects come in a variety of sizes, from small objects less than one pixel to objects that span several pixels.

このような描画対象を描画する技術として、特許文献1の技術が開示されている。特許文献1には、描画処理装置が、小さな文字や細線などの特定の描画対象のみを高解像度レンダリングし、それ以外の描画対象を低解像度でレンダリングする技術が開示されている。 Patent Document 1 discloses a technique for drawing such objects. Patent Document 1 discloses a technique in which a drawing processing device renders only specific objects, such as small characters and thin lines, at high resolution, and renders other objects at low resolution.

特開2009-274366号公報JP 2009-274366 A

しかし、上記した従来の描画処理装置では、高解像度レンダリングというのは、すべてのピクセル位置に対して1ピクセル単位の処理を実施することであり、低解像度レンダリングというのは、座標値のうちX座標およびY座標において偶数値をとるピクセル位置に対する複数ピクセル単位の処理のみを実施することを示す。そのため、例えば、描画サイズが1ピクセル未満の小さい描画対象などは、ピクセルの中心に描画対象が位置していない場合、描画対象が描画されずに表示画面上から消失してしまう。However, in the conventional drawing processing device described above, high-resolution rendering refers to performing processing on a pixel-by-pixel basis for all pixel positions, while low-resolution rendering refers to performing processing on a multi-pixel basis only for pixel positions with even values in the X and Y coordinates. Therefore, for example, if a small drawing object with a drawing size of less than one pixel is not positioned at the center of a pixel, the drawing object will not be drawn and will disappear from the display screen.

本開示は、上記のような問題を解決するためになされたものであって、ピクセルの中心に2次元以上の描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示できる描画処理装置、描画処理システム、描画処理方法、および描画処理プログラムを提供することを目的とする。The present disclosure has been made to solve the above-mentioned problems, and aims to provide a drawing processing device, a drawing processing system, a drawing processing method, and a drawing processing program that can draw a drawing object and display the drawing object on a display screen even if the drawing object is not located at the center of a pixel in two or more dimensions.

本開示に係る描画処理装置は、2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画する打点部と、前記バッファに描画されたシーンを出力装置に出力するように制御する出力制御部と、前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定する適用判定部と、前記適用判定部によって前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画する第一の描画対象描画部と、前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドするブレンド処理部とを備え、前記バッファは、前記第二のバッファであり、前記打点部は、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打ち、前記第二の描画対象を前記第二のバッファに描画し、前記出力制御部は、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する The drawing processing device according to the present disclosure includes a dotting unit that draws dots on pixels in a buffer corresponding to a position of a drawing object in two or more dimensions, and draws the drawing object in the buffer; an output control unit that controls the scene drawn in the buffer to be output to an output device; an application determination unit that determines whether the drawing object is a first drawing object to be drawn in a first buffer that is a drawing destination, or a second drawing object to be drawn in a second buffer that is a buffer different from the first buffer; a first drawing object drawing unit that draws the drawing object determined to be the first drawing object by the application determination unit in the first buffer; and a blending processing unit that alpha-blends the second buffer into the first buffer with an alpha value that represents the transparency of the drawing object, wherein the buffer is the second buffer, the dotting unit draws dots on pixels in the second buffer that correspond to the position of the second drawing object, and draws the second drawing object in the second buffer, and the output control unit controls the scene drawn in the first buffer after alpha blending to be output to the output device .

本開示に係る描画処理システムは、2次元以上の描画対象の入力を受け付ける入力装置と、前記描画対象をバッファにシーンとして描画する描画処理を行う描画処理装置と、
前記シーンを出力する出力装置とを備え、前記描画処理装置は、前記描画対象の位置に対応した前記バッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画する打点部と、前記バッファに描画されたシーンを前記出力装置に出力するように制御する出力制御部と、前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定する適用判定部と、前記適用判定部によって前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画する第一の描画対象描画部と、前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドするブレンド処理部とを備え、前記バッファは、前記第二のバッファであり、前記打点部は、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打ち、前記第二の描画対象を前記第二のバッファに描画し、前記出力制御部は、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する
The present disclosure relates to a drawing processing system, which includes: an input device that accepts an input of a two or more dimensional drawing object; and a drawing processing device that performs drawing processing to draw the drawing object as a scene in a buffer;
and an output device that outputs the scene, wherein the drawing processing device comprises a dotting unit that draws dots on pixels in the buffer corresponding to a position of the drawing object, and draws the drawing object in the buffer; an output control unit that controls so as to output the scene drawn in the buffer to the output device ; an application determination unit that determines whether the drawing object is a first drawing object to be drawn in a first buffer that is a drawing destination, or a second drawing object to be drawn in a second buffer that is a buffer different from the first buffer; a first drawing object drawing unit that draws the drawing object determined to be the first drawing object by the application determination unit in the first buffer; and a blending processing unit that alpha-blends the second buffer into the first buffer with an alpha value that represents a transparency of the drawing object, wherein the buffer is the second buffer, and the dotting unit draws dots on pixels in the second buffer corresponding to a position of the second drawing object, and the output control unit controls so as to output the alpha-blended scene drawn in the first buffer to the output device .

本開示に係る描画処理方法は、打点部が、2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画するステップと、出力制御部が、前記バッファに描画されたシーンを出力装置に出力するように制御するステップと、適用判定部が、前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定するステップと、第一の描画対象描画部が、前記適用判定部によって前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画するステップと、ブレンド処理部が、前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドするステップとを備え、前記バッファは、前記第二のバッファであり、前記打点部は、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打ち、前記第二の描画対象を前記第二のバッファに描画し、前記出力制御部は、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する The drawing processing method according to the present disclosure includes a step of a dotting unit dotting pixels in a buffer corresponding to a position of a two or more dimensional drawing object, and drawing the drawing object in the buffer; a step of an output control unit controlling the output of the scene drawn in the buffer to an output device ; a step of an application determination unit determining whether the drawing object is a first drawing object to be drawn in a first buffer that is a drawing destination, or a second drawing object to be drawn in a second buffer that is a buffer different from the first buffer; a step of a first drawing object drawing unit drawing the drawing object determined to be the first drawing object by the application determination unit in the first buffer; and a step of a blending processing unit alpha-blending the second buffer into the first buffer with an alpha value representing the transparency of the drawing object, wherein the buffer is the second buffer, the dotting unit dotting pixels in the second buffer corresponding to the position of the second drawing object, and drawing the second drawing object in the second buffer, and the output control unit controlling the output of the alpha-blended scene drawn in the first buffer to the output device .

本開示に係る描画処理プログラムは、コンピュータに、2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画する処理と、前記バッファに描画されたシーンを出力装置に出力するように制御する処理と、前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定する処理と、前記判定する処理において前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画する処理と、前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドする処理とを行わせ、前記バッファは、前記第二のバッファであり、前記コンピュータに、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打たせ、前記第二の描画対象を前記第二のバッファに描画させ、前記コンピュータを、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する A drawing processing program according to the present disclosure causes a computer to perform the following processes: drawing dots on pixels in a buffer corresponding to a position of a drawing object in two or more dimensions, and drawing the drawing object in the buffer; controlling the computer to output the scene drawn in the buffer to an output device; determining whether the drawing object is a first drawing object to be drawn in a first buffer that is a drawing destination, or a second drawing object to be drawn in a second buffer that is a buffer different from the first buffer; drawing the drawing object determined to be the first drawing object in the determining process in the first buffer; and alpha-blending the second buffer with the first buffer using an alpha value that represents the transparency of the drawing object, the buffer being the second buffer; and controlling the computer to draw dots on pixels in the second buffer corresponding to the position of the second drawing object, and draw the second drawing object in the second buffer, and output the alpha-blended scene drawn in the first buffer to the output device .

本開示によれば、打点部が2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、描画対象をバッファに描画し、出力制御部がバッファに描画されたシーンを出力装置に出力するように制御するので、ピクセルの中心に2次元以上の描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示させることができる。According to the present disclosure, the dotting unit puts a dot on a pixel in the buffer corresponding to the position of a drawing object in two or more dimensions, draws the drawing object in the buffer, and the output control unit controls so as to output the scene drawn in the buffer to an output device, so that even if the drawing object in two or more dimensions is not located at the center of the pixel, the drawing object can be drawn and displayed on the display screen.

実施の形態1に係る描画処理装置を含む描画処理システムのブロック図である。1 is a block diagram of a drawing processing system including a drawing processing device according to a first embodiment; 実施の形態1に係る描画処理システムのハードウェア構成図である。FIG. 2 is a hardware configuration diagram of the drawing processing system according to the first embodiment. 実施の形態1に係る描画処理システムの動作を示すフローチャートである。4 is a flowchart showing the operation of the drawing processing system according to the first embodiment. 実施の形態1の描画情報の一例である。4 is an example of drawing information according to the first embodiment. 実施の形態1に係る描画処理装置の動作を示すフローチャートである。4 is a flowchart showing the operation of the drawing processing device according to the first embodiment; 実施の形態1の描画先バッファ及び詳細バッファの図である。FIG. 2 is a diagram of a destination buffer and a detail buffer in the first embodiment. 不適用描画対象のポリゴンモデルを描画先バッファに描画した描画結果と不適用描画対象のポリゴンモデルとを重畳した図である。13 is a diagram showing a rendering result of a polygon model to which the non-applied rendering is to be rendered in a rendering destination buffer superimposed on the polygon model to which the non-applied rendering is to be rendered. FIG. 不適用描画対象のポリゴンモデルを描画先バッファに描画した描画結果を示した図である。13A and 13B are diagrams showing the rendering result of a polygon model that is a non-applied rendering target, which is rendered in a destination buffer. バウンディングボックスを用いて3次元の描画対象を2次元に投影変換して描画対象の面積を概算することを示した概念図である。1 is a conceptual diagram showing how a three-dimensional object to be rendered is projected and transformed into two dimensions using a bounding box to roughly calculate the area of the object to be rendered. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と複数のポリゴンモデルとを重畳した図である。13 is a diagram showing a result of drawing a polygon model to be applied to a detail buffer superimposed on a plurality of polygon models. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果を示した図である。13A and 13B are diagrams showing the rendering results of a polygon model that is an application rendering target, which is rendered in a detail buffer. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と複数のポリゴンモデルとを重畳した図である。13 is a diagram showing a drawing result obtained by drawing a polygon model of an application drawing target in a detail buffer, a drawing result obtained by drawing a polygon model of another application drawing target in a detail buffer, and a plurality of polygon models superimposed on each other. FIG. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とを示した図である。13A and 13B are diagrams showing a rendering result obtained by rendering a polygon model of an application rendering target in a detail buffer and a rendering result obtained by rendering a polygon model of another application rendering target in a detail buffer. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とさらに別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と複数のポリゴンモデルとを重畳した図である。This figure shows the drawing result of a polygon model of an applied drawing target drawn in a detail buffer, the drawing result of a polygon model of another applied drawing target drawn in a detail buffer, and the drawing result of a further polygon model of an applied drawing target drawn in a detail buffer superimposed with multiple polygon models. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とさらに別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とを示した図である。A figure showing the drawing result of a polygon model of an applied drawing target drawn in a detail buffer, the drawing result of a polygon model of another applied drawing target drawn in a detail buffer, and the drawing result of a further polygon model of an applied drawing target drawn in a detail buffer. 全てのポリゴンモデルを描画先バッファに描画した描画結果を示した図である。FIG. 13 shows the rendering result when all polygon models are rendered in the rendering destination buffer. 実施の形態2に係る描画処理装置を含む描画処理システムのブロック図である。FIG. 11 is a block diagram of a drawing processing system including a drawing processing device according to a second embodiment. 本開示の実施の形態2に係る描画処理システムの動作を示すフローチャートである。10 is a flowchart showing an operation of a drawing processing system according to a second embodiment of the present disclosure. 本開示の実施の形態2に係る描画処理装置の動作を示すフローチャートである。10 is a flowchart showing an operation of a drawing processing device according to a second embodiment of the present disclosure. 実施の形態3に係る描画処理装置を含む描画処理システムのブロック図である。FIG. 11 is a block diagram of a drawing processing system including a drawing processing device according to a third embodiment. 本開示の実施の形態3に係る描画処理装置の動作を示すフローチャートである。13 is a flowchart showing the operation of a drawing processing device according to a third embodiment of the present disclosure. 実施の形態3の適用描画対象のポリゴンモデルに対応する詳細バッファと実施の形態1の詳細バッファとの対比関係を示した図である。13 is a diagram showing a comparison between a detail buffer corresponding to a polygon model to which the third embodiment is applied and the detail buffer of the first embodiment. FIG. 実施の形態3の適用描画対象のポリゴンモデルに対応する詳細バッファと別の適用描画対象のポリゴンモデルに対応する別の詳細バッファとさらに別の適用描画対象のポリゴンモデルに対応するさらに別の詳細バッファとを示した図である。A figure showing a detail buffer corresponding to a polygon model that is an application drawing target in embodiment 3, another detail buffer corresponding to a polygon model that is another application drawing target, and yet another detail buffer corresponding to a polygon model that is yet another application drawing target. 詳細バッファが描画先バッファのどこの位置に対応するかという情報である位置情報を模擬的に示した図である。13 is a diagram showing a schematic representation of position information, which is information indicating where in the destination buffer the detail buffer corresponds; FIG. 別の詳細バッファが描画先バッファのどこの位置に対応するかという情報である位置情報を模擬的に示した図である。FIG. 13 is a diagram showing a schematic representation of position information, which is information indicating to which position in the destination buffer another detail buffer corresponds; さらに別の詳細バッファが描画先バッファのどこの位置に対応するかという情報である位置情報を模擬的に示した図である。FIG. 13 is a diagram showing a schematic representation of position information, which is information indicating to which position in the destination buffer a detail buffer corresponds; 詳細バッファが描画先バッファのどこの位置に対応するかという情報と、別の詳細バッファが描画先バッファのどこの位置に対応するかという情報と、さらに別の詳細バッファが描画先バッファのどこの位置に対応するかという情報とをまとめた位置情報を模擬的に示した図である。This is a diagram showing an example of position information that combines information on where a detail buffer corresponds to where in the destination buffer, information on where another detail buffer corresponds to where in the destination buffer, and information on where yet another detail buffer corresponds to where in the destination buffer. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを別の詳細バッファに描画した描画結果と複数の適用描画対象のポリゴンモデルとを重畳した図である。13 is a diagram showing a drawing result obtained by drawing a polygon model of an applied drawing target in a detail buffer, a drawing result obtained by drawing a polygon model of another applied drawing target in another detail buffer, and multiple polygon models of applied drawing targets superimposed on each other. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを別の詳細バッファに描画した描画結果とを示した図である。13A and 13B are diagrams showing a rendering result obtained by rendering a polygon model of an application rendering target in a detail buffer and a rendering result obtained by rendering a polygon model of another application rendering target in another detail buffer. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とさらに別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と複数のポリゴンモデルとを重畳した図である。This figure shows the drawing result of a polygon model of an applied drawing target drawn in a detail buffer, the drawing result of a polygon model of another applied drawing target drawn in a detail buffer, and the drawing result of a further polygon model of an applied drawing target drawn in a detail buffer superimposed with multiple polygon models. 適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果と別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とさらに別の適用描画対象のポリゴンモデルを詳細バッファに描画した描画結果とを示した図である。A figure showing the drawing result of a polygon model of an applied drawing target drawn in a detail buffer, the drawing result of a polygon model of another applied drawing target drawn in a detail buffer, and the drawing result of a further polygon model of an applied drawing target drawn in a detail buffer.

実施の形態1.
実施の形態1では、一例として、シーン全体の描画の情報である描画情報内に、ピクセルの中心に描画対象が位置していない描画対象がある場合について、本開示を適用した場合を以下に説明する。
Embodiment 1.
In embodiment 1, as an example, a case in which the present disclosure is applied to a case in which the drawing information, which is information about the drawing of the entire scene, contains a drawing target that is not located at the center of a pixel is described below.

本開示を適用する描画処理システムでは、まず描画対象が、詳細に描画を行う詳細描画処理を適用してから描画先バッファに描画する適用描画対象と、詳細描画処理は適用せず、描画先バッファにそのまま描画する不適用描画対象とに分けられる。描画処理システムは、不適用描画対象を描画先バッファにそのまま描画し、適用描画対象の面積を算出し、算出した面積から適用描画対象の透過度を表すアルファ値を決定する。描画処理システムは、描画先バッファとは異なるバッファである詳細バッファに適用描画対象を描画し、描画されたピクセル数を取得する。描画処理システムは、適用描画対象ごとに取得した描画されたピクセル数から、詳細バッファに描画されず、消失してしまった適用描画対象である消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。描画処理システムは、詳細バッファに描画された消失適用描画対象に対応するピクセルにおいて、消失適用描画対象のアルファ値で消失適用描画対象のRGB値をアルファブレンドすることにより、消失適用描画対象を描画先バッファに描画する。このようにすることによって、ピクセルの中心に描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示させることができる。以下に詳細に説明する。In a drawing processing system to which the present disclosure is applied, drawing targets are first divided into applied drawing targets that are drawn in the drawing destination buffer after applying detailed drawing processing that performs detailed drawing, and non-applied drawing targets that are drawn directly in the drawing destination buffer without applying detailed drawing processing. The drawing processing system draws the non-applied drawing targets directly in the drawing destination buffer, calculates the area of the applied drawing targets, and determines an alpha value representing the transparency of the applied drawing targets from the calculated area. The drawing processing system draws the applied drawing targets in a detailed buffer that is a buffer different from the drawing destination buffer, and obtains the number of drawn pixels. From the number of drawn pixels obtained for each applied drawing target, the drawing processing system identifies the lost applied drawing targets that are the applied drawing targets that have not been drawn in the detailed buffer and have disappeared, and draws a dot in the pixel in the detailed buffer that corresponds to the position of the lost applied drawing target, and draws the lost applied drawing target in the detail buffer. The drawing processing system draws the lost applied drawing targets in the drawing destination buffer by alpha blending the RGB values of the lost applied drawing targets with the alpha value of the lost applied drawing targets at the pixels corresponding to the lost applied drawing targets drawn in the detail buffer. By doing so, even if the drawing object is not positioned at the center of a pixel, the drawing object can be drawn and displayed on the display screen. This will be described in detail below.

図1は、実施の形態1に係る描画処理装置100を含む描画処理システム1のブロック図である。描画処理システム1は、描画情報に含まれる各描画対象において詳細描画処理を適用するか否かのタグ情報と描画情報とが入力される入力装置4と、描画情報とタグ情報とを用いて、描画情報を描画する処理を行う描画処理装置100と、描画処理装置100で処理されたシーンを出力する出力装置5とを備えている。 Figure 1 is a block diagram of a drawing processing system 1 including a drawing processing device 100 according to embodiment 1. The drawing processing system 1 includes an input device 4 to which tag information indicating whether detailed drawing processing is to be applied to each drawing target included in the drawing information and the drawing information are input, a drawing processing device 100 that performs processing to draw the drawing information using the drawing information and the tag information, and an output device 5 that outputs a scene processed by the drawing processing device 100.

入力装置4は、例えば、ユーザーによって入力されたポリゴンモデルなどの描画対象の情報を含むシーン全体の描画情報を受け付ける。ユーザーは、各描画対象に対して、描画サイズの大きさ、輝度、重要度などを見て、適用描画対象と不適用描画対象とのいずれであるかのタグ付けをする。入力装置4は、ユーザーによって各描画対象に対するタグ付けをタグ情報として入力を受け付ける。 The input device 4 accepts drawing information for the entire scene, including information on drawing targets, such as polygon models, input by the user. The user tags each drawing target as either an applicable drawing target or an inapplicable drawing target, based on the drawing size, brightness, importance, etc. of the drawing target. The input device 4 accepts the tagging of each drawing target by the user as tag information.

描画処理装置100は、描画情報を描画先バッファにシーンとして描画する描画処理を行う。具体的には、描画処理装置100は、詳細描画処理を適用しないとタグ付けされた不適用描画対象を描画先バッファに描画する。描画処理装置100は、詳細描画処理を適用するとタグ付けされた適用描画対象の面積を算出し、算出した面積から適用描画対象の透過度を表すアルファ値を決定する。描画処理装置100は、描画先バッファとは異なるバッファである詳細バッファに適用描画対象を描画し、描画されたピクセル数を取得する。描画処理装置100は、適用描画対象ごとに取得した描画されたピクセル数から、詳細バッファに描画されず、消失してしまった適用描画対象である消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。描画処理装置100は、詳細バッファに描画された消失適用描画対象に対応するピクセルにおいて、消失適用描画対象のアルファ値で消失適用描画対象のRGB値をアルファブレンドすることにより、消失適用描画対象を描画先バッファに描画する。このように、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画することにより、ピクセルの中心に描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示させることができる。The rendering processing device 100 performs a rendering process to render the rendering information as a scene in the rendering destination buffer. Specifically, the rendering processing device 100 renders the non-applied rendering target tagged as not applying the detailed rendering process in the rendering destination buffer. The rendering processing device 100 calculates the area of the applied rendering target tagged as applying the detailed rendering process, and determines an alpha value representing the transparency of the applied rendering target from the calculated area. The rendering processing device 100 renders the applied rendering target in a detailed buffer, which is a buffer different from the rendering destination buffer, and obtains the number of rendered pixels. From the number of rendered pixels obtained for each applied rendering target, the rendering processing device 100 identifies the lost applied rendering target, which is the applied rendering target that has not been rendered in the detailed buffer and has disappeared, and draws a dot in the pixel in the detailed buffer corresponding to the position of the lost applied rendering target, and renders the lost applied rendering target in the detailed buffer. The rendering processing device 100 alpha-blends the RGB values of the lost applied rendering target with the alpha value of the lost applied rendering target at the pixel corresponding to the lost applied rendering target rendered in the detail buffer, thereby rendering the lost applied rendering target in the rendering destination buffer. In this way, by marking a pixel in the detail buffer corresponding to the position of the loss-adapted drawing object and drawing the loss-adapted drawing object in the detail buffer, the drawing object can be drawn and displayed on the display screen even if the drawing object is not located at the center of the pixel.

出力装置5は、描画処理装置100で描画先バッファに描画されたシーンを出力する。出力装置5は、例えば、ディスプレイなどの表示装置であり、描画処理装置100で描画先バッファに描画されたシーンを表示する。The output device 5 outputs the scene drawn in the destination buffer by the drawing processing device 100. The output device 5 is, for example, a display device such as a display, and displays the scene drawn in the destination buffer by the drawing processing device 100.

次に描画処理装置100について、同様に図1を用いて、以下に説明する。Next, the drawing processing device 100 will be described below, also using Figure 1.

描画処理装置100は、入力装置4から描画対象を含む描画情報とタグ情報とを取得する取得部101と、描画先バッファと詳細バッファとを作成する作成部102と、タグ情報を用いて描画対象を詳細描画処理するか否かによって、描画対象が、描画先バッファに描画される不適用描画対象と、描画先バッファとは異なるバッファである詳細バッファに描画される適用描画対象とのいずれであるかを判定する適用判定部106と、詳細描画処理を適用しないとタグ付けされた不適用描画対象を描画先バッファに描画する不適用描画対象描画部107と、詳細描画処理を適用するとタグ付けされた適用描画対象の面積を算出する算出部104と、算出した面積から適用描画対象のアルファ値を決定する決定部105と、詳細バッファに適用描画対象を描画し、描画されたピクセル数を取得する適用描画対象描画部108と、適用描画対象ごとに取得した描画されたピクセル数から、詳細バッファに描画されず、消失してしまった適用描画対象である消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する打点部112と、詳細バッファで塗られたピクセルに対応して、消失適用描画対象を含む適用描画対象のアルファ値で消失適用描画対象を含む適用描画対象のRGB値をアルファブレンドすることにより、消失適用描画対象を含む適用描画対象を描画先バッファに描画するブレンド処理部110と、出力装置5に描画先バッファに描画されたシーンを出力するよう制御する出力制御部111と、描画先バッファを記憶する描画先バッファ記憶部103と、詳細バッファを記憶する詳細バッファ記憶部109とを備えている。なお、描画先バッファは、第一のバッファに対応し、詳細バッファは第二のバッファに対応する。不適用描画対象は、第一の描画対象に対応し、適用描画対象は、第二の描画対象に対応する。不適用描画対象描画部107は、第一の描画対象描画部に対応し、適用描画対象描画部108は、第二の描画対象描画部に対応する。The drawing processing device 100 includes an acquisition unit 101 that acquires drawing information and tag information including a drawing target from the input device 4, a creation unit 102 that creates a drawing destination buffer and a detail buffer, an application determination unit 106 that uses the tag information to determine whether the drawing target is an unapplied drawing target to be drawn in the drawing destination buffer or an applied drawing target to be drawn in a detail buffer that is a buffer different from the drawing destination buffer, depending on whether or not the drawing target is to be subjected to detailed drawing processing, a unapplied drawing target drawing unit 107 that draws in the drawing destination buffer an unapplied drawing target tagged as not to be subjected to detailed drawing processing, a calculation unit 104 that calculates the area of an applied drawing target tagged as being subjected to detailed drawing processing, a determination unit 105 that determines the alpha value of the applied drawing target from the calculated area, and an applied drawing target drawing unit that draws the applied drawing target in the detail buffer and acquires the number of pixels drawn. a dotting unit 112 for identifying a lost applied drawing target that is an applied drawing target that has not been drawn in the detail buffer and has disappeared from the number of drawn pixels acquired for each applied drawing target, and for drawing the lost applied drawing target in the detail buffer by dotting a pixel in the detail buffer corresponding to the position of the lost applied drawing target, a blending processing unit 110 for drawing the applied drawing target including the lost applied drawing target in the drawing destination buffer by alpha-blending the RGB values of the applied drawing target including the lost applied drawing target with the alpha values of the applied drawing target including the lost applied drawing target in response to the pixels painted in the detail buffer, an output control unit 111 for controlling the output device 5 to output the scene drawn in the drawing destination buffer, a drawing destination buffer storage unit 103 for storing the drawing destination buffer, and a detail buffer storage unit 109 for storing the detail buffer. The drawing destination buffer corresponds to the first buffer, and the detail buffer corresponds to the second buffer. The non-applied drawing target corresponds to the first drawing target, and the applied drawing target corresponds to the second drawing target. The non-applied drawing target drawing unit 107 corresponds to the first drawing target drawing unit, and the applied drawing target drawing unit 108 corresponds to the second drawing target drawing unit.

次に、実施の形態1に係る描画処理システム1のハードウェア構成について説明する。 Next, we will explain the hardware configuration of the drawing processing system 1 relating to embodiment 1.

図2は、実施の形態1に係る描画処理システム1のハードウェア構成図である。図2を用いて、実施の形態1に係る描画処理装置100を含む描画処理システム1の構成について説明する。 Figure 2 is a hardware configuration diagram of the drawing processing system 1 according to embodiment 1. Using Figure 2, the configuration of the drawing processing system 1 including the drawing processing device 100 according to embodiment 1 will be described.

描画処理システム1は、一例として、バス41、CPU(Central Processing Unit)42、メインメモリ43、GPU(Graphics Processing Unit)44、グラフィックメモリ45、入力インターフェース46、出力インターフェース47とで構成されている。 The drawing processing system 1, as an example, is composed of a bus 41, a CPU (Central Processing Unit) 42, a main memory 43, a GPU (Graphics Processing Unit) 44, a graphics memory 45, an input interface 46, and an output interface 47.

バス41は、各装置間を電気的に接続し、データのやり取りを行う信号経路である。描画処理システム1の装置間及び機器間は通信を介して接続されている。用いる通信については、有線通信でも無線通信でもよい。The bus 41 is a signal path that electrically connects each device and exchanges data. The devices and equipment of the drawing processing system 1 are connected via communication. The communication used may be wired communication or wireless communication.

CPU42は、メインメモリ43に格納されるプログラムを読み込み、実行する。具体的には、CPU42は、メインメモリ42に記憶したOS(Operating System)の少なくとも一部をロードし、OSを実行しながら、プログラムを実行する。CPU42は、バス41を介して他の装置と接続し、当該装置を制御する。CPU42は、プロセッシングを行うIC(Integrated Circuit)であればいいので、マイクロプロセッサ、マイクロコンピュータ、DSP(Digital Signal Processor)であってもよい。The CPU 42 reads and executes a program stored in the main memory 43. Specifically, the CPU 42 loads at least a part of the OS (Operating System) stored in the main memory 42, and executes the program while executing the OS. The CPU 42 connects to other devices via the bus 41 and controls the devices. The CPU 42 may be a microprocessor, a microcomputer, or a DSP (Digital Signal Processor) as long as it is an IC (Integrated Circuit) that performs processing.

メインメモリ43は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアの組み合わせが記述されたプログラム、OSを記憶する。また、メインメモリ43は、各種情報等を記憶する。メインメモリ43は、例えば、RAM(Random Access Memory)等の揮発性の半導体メモリ、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、HDD(Hard Disk Drive)等の不揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)といった可搬記録媒体等である。The main memory 43 stores a program that describes software, firmware, or a combination of software and firmware, and an OS. The main memory 43 also stores various information, etc. The main memory 43 is, for example, a volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read Only Memory), a non-volatile semiconductor memory such as a HDD (Hard Disk Drive), a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), or a portable recording medium.

GPU44は、グラフィックメモリ45に格納されるプログラムを読み込み、描画処理を実行する。具体的には、GPU44は、グラフィックメモリ45に記憶したOSの少なくとも一部をロードし、OSを実行しながら、描画処理のプログラムを実行する。描画処理装置100の取得部101と、作成部102と、適用判定部106と、不適用描画対象描画部107と、算出部104と、決定部105と、適用描画対象描画部108と、打点部112と、ブレンド処理部110と、出力制御部111とは、GPU44がグラフィックメモリ45にロードしたプログラムを読み込み、実行することにより実現する。The GPU 44 reads a program stored in the graphic memory 45 and executes the drawing process. Specifically, the GPU 44 loads at least a part of the OS stored in the graphic memory 45 and executes the drawing process program while running the OS. The acquisition unit 101, creation unit 102, application determination unit 106, non-applied drawing target drawing unit 107, calculation unit 104, decision unit 105, applied drawing target drawing unit 108, dotting unit 112, blend processing unit 110, and output control unit 111 of the drawing processing device 100 are realized by the GPU 44 reading and executing the program loaded in the graphic memory 45.

グラフィックメモリ45は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアの組み合わせが記述されたプログラム、OSを記憶する。また、グラフィックメモリ45は、各種情報等を記憶する。グラフィックメモリ45は、例えば、RAM等の揮発性の半導体メモリ、ROM、フラッシュメモリ、EPROM、EEPROM、HDD等の不揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDといった可搬記録媒体等である。描画処理装置100の取得部101と、作成部102と、適用判定部106と、不適用描画対象描画部107と、算出部104と、決定部105と、適用描画対象描画部108と、打点部112と、ブレンド処理部110と、出力制御部111とは、グラフィックメモリ45に記憶するプログラムによって実現する。また、描画先バッファを記憶する描画先バッファ記憶部103と、詳細バッファを記憶する詳細バッファ記憶部109とは、グラフィックメモリ45によって実現される。The graphic memory 45 stores a program and an OS in which software, firmware, or a combination of software and firmware is written. The graphic memory 45 also stores various information. The graphic memory 45 is, for example, a volatile semiconductor memory such as a RAM, a non-volatile semiconductor memory such as a ROM, a flash memory, an EPROM, an EEPROM, or a HDD, or a portable recording medium such as a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD. The acquisition unit 101, the creation unit 102, the application determination unit 106, the non-application drawing target drawing unit 107, the calculation unit 104, the determination unit 105, the application drawing target drawing unit 108, the dotting unit 112, the blend processing unit 110, and the output control unit 111 of the drawing processing device 100 are realized by a program stored in the graphic memory 45. Furthermore, a destination buffer storage unit 103 for storing the destination buffer and a detail buffer storage unit 109 for storing the detail buffer are realized by the graphic memory 45 .

なお、グラフィックメモリ45は、描画処理装置100の取得部101と、作成部102と、適用判定部106と、不適用描画対象描画部107と、算出部104と、決定部105と、適用描画対象描画部108と、打点部112と、ブレンド処理部110と、出力制御部111との機能それぞれを別々のメモリで実現してもよい。また、描画先バッファ記憶部103と、詳細バッファ記憶部109それぞれを別々のメモリで実現してもよい。 The graphics memory 45 may realize the functions of the acquisition unit 101, creation unit 102, application determination unit 106, non-applied drawing target drawing unit 107, calculation unit 104, decision unit 105, applied drawing target drawing unit 108, dotting unit 112, blend processing unit 110, and output control unit 111 of the drawing processing device 100 in separate memories. Also, the drawing destination buffer storage unit 103 and detail buffer storage unit 109 may be realized in separate memories.

実施の形態1では、描画処理装置100が行う描画処理を含む処理は、GPU44及びグラフィックメモリ45で行い、描画処理装置100が行う描画処理を含む処理以外の処理は、CPU42及びメインメモリ43で行う。なお、描画処理システム1は、CPU42とGPU44のどちらか一方だけ備えていて、備えている方がすべての処理を実現してもよい。また、描画処理システム1は、メインメモリ43とグラフィックメモリ45のどちらか一方だけ備えていて、備えているメモリが備えていない方のメモリと同様の機能を実現してもよい。各部の情報等は、メインメモリ43、グラフィックメモリ45のどちらに記憶されてもよい。また、各部の情報等は、メインメモリ43、グラフィックメモリ45を組み合わせて記憶されてもよい。In the first embodiment, the processing including the drawing processing performed by the drawing processing device 100 is performed by the GPU 44 and the graphic memory 45, and the processing other than the processing including the drawing processing performed by the drawing processing device 100 is performed by the CPU 42 and the main memory 43. Note that the drawing processing system 1 may have only one of the CPU 42 and the GPU 44, which may realize all the processing. Also, the drawing processing system 1 may have only one of the main memory 43 and the graphic memory 45, which may realize the same function as the memory that is not included. Information of each part may be stored in either the main memory 43 or the graphic memory 45. Also, information of each part may be stored in a combination of the main memory 43 and the graphic memory 45.

入力インターフェース46は、描画情報及びタグ情報を入力可能とする装置である。入力インターフェース46は、例えば、キーボード、マウス、音声入力などでの入力、通信を介した情報の受信などである。入力装置4は、入力インターフェース46にて実現する。 The input interface 46 is a device that allows drawing information and tag information to be input. The input interface 46 is, for example, an input using a keyboard, mouse, voice input, etc., and receiving information via communication. The input device 4 is realized by the input interface 46.

出力インターフェース47は、描画されたシーンを出力する装置である。出力インターフェース47は、例えば、ディスプレイ、プロジェクターなどの表示装置である。出力装置5は、出力インターフェース47にて実現する。 The output interface 47 is a device that outputs the drawn scene. The output interface 47 is, for example, a display device such as a display or a projector. The output device 5 is realized by the output interface 47.

なお、描画処理システム1の各機能は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせにより実現できる。描画処理システム1の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、描画処理システム1の一部は専用のハードウェアとしての処理回路でその機能を実現し、残りの部分はCPUがメモリに格納されたプログラムを読み出して実行することによってその機能を実現してもよい。ソフトウェア、ファームウェア、またはソフトウェアとファームウェアの組み合わせはプログラムとして記述されていればよい。 Each function of the drawing processing system 1 can be realized by hardware, software, firmware, or a combination of these. Each function of the drawing processing system 1 may be realized partially by dedicated hardware and partially by software or firmware. For example, part of the function of the drawing processing system 1 may be realized by a processing circuit as dedicated hardware, and the remaining part may be realized by a CPU reading and executing a program stored in memory. The software, firmware, or a combination of software and firmware may be written as a program.

次に、描画処理システム1の動作について説明する。 Next, the operation of the drawing processing system 1 will be described.

図3は、実施の形態1に係る描画処理システム1の動作を示すフローチャートである。図3を用いて、描画処理システム1の動作を以下に説明する。 Figure 3 is a flowchart showing the operation of the drawing processing system 1 according to embodiment 1. The operation of the drawing processing system 1 will be described below with reference to Figure 3.

ステップS1において、入力装置4は、描画対象を含む描画情報の入力を受け付ける。例えば、ユーザーがマウス、キーボードなどを用いて、描画情報を指定して入力装置4に入力し、入力装置4は、当該入力を受け付ける。In step S1, the input device 4 accepts input of drawing information including a drawing target. For example, a user uses a mouse, keyboard, etc. to specify drawing information and input it to the input device 4, and the input device 4 accepts the input.

なお、入力装置4が受け付ける描画情報は、ユーザーが指定しなくても、通信を介して受信した描画情報、予め定められた基準を満たしたものを自動的に抽出した描画情報、機械学習で抽出した描画情報など、どのようなものでもよい。実施の形態1では、例えば、描画対象を3次元のポリゴンモデルとし、描画情報はポリゴンモデルである描画対象の情報を含んでいるとする。ポリゴンモデルである描画対象の情報とは、RGB値、位置情報などである。 The drawing information received by the input device 4 may be any type of information, such as drawing information received via communication without being specified by the user, drawing information automatically extracted that satisfies predetermined criteria, drawing information extracted by machine learning, etc. In the first embodiment, for example, the drawing target is a three-dimensional polygon model, and the drawing information includes information on the drawing target which is a polygon model. The information on the drawing target which is a polygon model includes RGB values, position information, etc.

図4は、実施の形態1の描画情報の一例である。描画情報は、描画対象であるポリゴンモデル51と、ポリゴンモデル52と、ポリゴンモデル53と、ポリゴンモデル54とを含むとする。なお、図4では、描画の流れがわかりやすいように描画先バッファと同じ大きさのバッファの上にポリゴンモデル51~54が描画されているように表示している。 Figure 4 is an example of drawing information in embodiment 1. The drawing information includes polygon model 51, polygon model 52, polygon model 53, and polygon model 54, which are the drawing targets. Note that in Figure 4, polygon models 51 to 54 are shown as if they were drawn on a buffer of the same size as the drawing destination buffer, so as to make the drawing flow easier to understand.

図3に戻って、入力装置4は、描画情報と共に、受け付けた描画情報に含まれる描画対象において、適用描画対象と不適用描画対象とのいずれであるかの情報であるタグ情報の入力を受け付ける。なお、タグ情報は、各描画対象に対応している。Returning to FIG. 3, the input device 4 receives input of tag information, which is information indicating whether the drawing targets included in the received drawing information are applicable drawing targets or non-applicable drawing targets, together with the drawing information. The tag information corresponds to each drawing target.

例えば、ユーザーは、描画対象ごとに、描画サイズの大きさを基に、描画対象であるポリゴンモデルが詳細描画処理を行わなくてもいいほど大きいサイズか、それとも描画対象であるポリゴンモデルが詳細描画処理を行うほど小さいサイズかを判定する。ユーザーは、マウス、キーボード、音声入力などを用いて、大きいサイズであると判定した描画対象を不適用描画対象、小さいサイズと判定した描画対象を適用描画対象として、描画対象ごとにタグ付けをしたタグ情報を入力装置4に入力する。入力装置4は、当該入力を受け付ける。 For example, the user determines for each drawing target based on the drawing size whether the polygon model to be drawn is large enough that detailed drawing processing is not required, or whether the polygon model to be drawn is small enough that detailed drawing processing is required. The user inputs tag information tagging each drawing target into the input device 4 using a mouse, keyboard, voice input, etc., with drawing targets determined to be large as non-applicable drawing targets and drawing targets determined to be small as applicable drawing targets. The input device 4 accepts the input.

実施の形態1では、図4の描画情報に対して、ポリゴンモデル51~53は、詳細描画処理を行うほど小さいサイズであるとユーザーに判定されて、ポリゴンモデル54は、詳細描画処理を行わなくてもいいほど大きいサイズであるとユーザーに判定されたとする。入力装置4は、ユーザーによって入力された、ポリゴンモデル51が適用描画対象であるとタグ付けされたタグ情報と、ポリゴンモデル52が適用描画対象であるとタグ付けされたタグ情報と、ポリゴンモデル53が適用描画対象であるとタグ付けされたタグ情報と、ポリゴンモデル54が不適用描画対象であるとタグ付けされたタグ情報とを受け付けたとする。In the first embodiment, it is assumed that, with respect to the drawing information in Fig. 4, the user has determined that polygon models 51 to 53 are small enough in size to require detailed drawing processing, and that polygon model 54 is large enough in size that detailed drawing processing is not required. It is assumed that the input device 4 has received tag information input by the user, in which polygon model 51 is tagged as an applicable drawing target, tag information in which polygon model 52 is tagged as an applicable drawing target, tag information in which polygon model 53 is tagged as an applicable drawing target, and tag information in which polygon model 54 is tagged as a non-applicable drawing target.

なお、適用描画対象と不適用描画対象とのいずれであるかを判定する基準は、描画対象のサイズの大きさに限らない。例えば、ユーザーは、輝度、重要度などを基準に適用描画対象と不適用描画対象とのいずれであるかを判定してもよい。また、ユーザーは、描画サイズの大きさ、輝度、重要度などを組み合わせたものを基準に適用描画対象と不適用描画対象とのいずれであるかを判定してもよい。具体的には、ユーザーは、重要度が高く描画対象が消えてほしくないと判定した描画対象を適用描画対象、重要度が低い描画対象を不適用描画対象としてもよい。また、ユーザーは、描画対象のサイズが予め定められたサイズ以下で、描画対象の輝度が予め定められた輝度以上であった場合、適用描画対象とし、それ以外の描画対象を不適用描画対象としてもよい。描画対象が適用描画対象と不適用描画対象とのいずれであるかの判断は、ユーザーの好みで判定してもよい。 Note that the criteria for determining whether a drawing target is an applied drawing target or a non-applied drawing target are not limited to the size of the drawing target. For example, the user may determine whether a drawing target is an applied drawing target or a non-applied drawing target based on luminance, importance, etc. The user may also determine whether a drawing target is an applied drawing target or a non-applied drawing target based on a combination of the drawing size, luminance, importance, etc. Specifically, the user may determine a drawing target that is determined to be of high importance and that the user does not want to disappear as an applied drawing target, and a drawing target that is of low importance as a non-applied drawing target. The user may also determine a drawing target as an applied drawing target if its size is equal to or smaller than a predetermined size and its luminance is equal to or greater than a predetermined luminance, and other drawing targets as non-applied drawing targets. The determination of whether a drawing target is an applied drawing target or a non-applied drawing target may be determined based on the user's preference.

図3に戻って、入力装置4は、描画情報とタグ情報とを描画処理装置100に送信し、ステップS2に進む。Returning to Figure 3, the input device 4 transmits the drawing information and tag information to the drawing processing device 100 and proceeds to step S2.

ステップS2において、描画処理装置100は、入力装置4から描画情報とタグ情報とを受信する。描画処理装置100は、受信した描画情報とタグ情報とを用いて、描画処理を行う。詳細については、後述する。描画処理装置100は、描画先バッファに描画されたシーンを出力するように出力装置5を制御し、ステップS3に進む。In step S2, the drawing processing device 100 receives drawing information and tag information from the input device 4. The drawing processing device 100 performs drawing processing using the received drawing information and tag information. Details will be described later. The drawing processing device 100 controls the output device 5 to output the scene drawn in the destination buffer, and proceeds to step S3.

ステップS3において、出力装置5は、描画処理装置100の制御によって、描画先バッファに描画されたシーンをディスプレイなどの表示装置に出力する。In step S3, the output device 5 outputs the scene drawn in the destination buffer to a display device such as a display under the control of the drawing processing device 100.

ステップS3を実行した後もステップS1に戻り、電源をOFFにすること、あるいは終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。なお、上記のような処理を繰り返すとしたが、繰り返さず一回行うだけでもよい。After step S3 is executed, the process returns to step S1, and the above-described process is repeated until a trigger for terminating the process occurs, such as turning off the power or performing an end operation. Note that although the above-described process is repeated, it is also possible to perform the process only once without repeating it.

次に、描画処理装置100の動作について説明する。Next, the operation of the drawing processing device 100 will be described.

図5は、実施の形態1に係る描画処理装置100の動作を示すフローチャートである。図5を用いて、描画処理装置100の動作を以下に説明する。 Figure 5 is a flowchart showing the operation of the drawing processing device 100 according to embodiment 1. The operation of the drawing processing device 100 will be described below with reference to Figure 5.

ステップS11において、取得部101は、入力装置4から描画情報とタグ情報とを取得する。取得部101は、描画情報とタグ情報とを作成部102に送信し、ステップS12に進む。In step S11, the acquisition unit 101 acquires drawing information and tag information from the input device 4. The acquisition unit 101 transmits the drawing information and tag information to the creation unit 102 and proceeds to step S12.

ステップS12において、作成部102は、取得部101から描画情報とタグ情報とを受信し、描画先バッファ記憶部103に描画先バッファを作成する。また、作成部102は、詳細バッファ記憶部109に詳細バッファを作成する。当該詳細バッファには、適用描画対象すべてが描画されることになる。なお、詳細バッファは、描画先バッファと同じ解像度である。In step S12, the creation unit 102 receives the drawing information and tag information from the acquisition unit 101, and creates a drawing destination buffer in the drawing destination buffer storage unit 103. The creation unit 102 also creates a detail buffer in the detail buffer storage unit 109. All applicable drawing targets are drawn in the detail buffer. The detail buffer has the same resolution as the drawing destination buffer.

図6は、実施の形態1の描画先バッファ55及び詳細バッファ56の図である。実施の形態1では、描画先バッファ55は、縦が8ピクセルで、横が8ピクセルの合計64ピクセルとする。詳細バッファ56も、縦が8ピクセルで、横が8ピクセルの合計64ピクセルとする。つまり、詳細バッファ56は、描画先バッファ55と同じ解像度となる。 Figure 6 is a diagram of the destination buffer 55 and the detail buffer 56 in embodiment 1. In embodiment 1, the destination buffer 55 is 8 pixels high and 8 pixels wide, for a total of 64 pixels. The detail buffer 56 is also 8 pixels high and 8 pixels wide, for a total of 64 pixels. In other words, the detail buffer 56 has the same resolution as the destination buffer 55.

図5に戻って、作成部102は、描画情報とタグ情報とを適用判定部106に送信し、ステップS13に進む。Returning to Figure 5, the creation unit 102 transmits the drawing information and tag information to the application determination unit 106 and proceeds to step S13.

ステップS13において、適用判定部106は、作成部102から描画情報とタグ情報とを受信し、タグ情報を用いて、描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定する。適用判定部106は、描画情報と、不適用描画対象である描画対象のタグ情報のすべてとを不適用描画対象描画部107に送信する。不適用描画対象描画部107は、適用判定部106から描画情報と、不適用描画対象である描画対象のタグ情報とを受信し、描画先バッファ記憶部103の描画先バッファに不適用描画対象を描画する。In step S13, the application determination unit 106 receives the drawing information and tag information from the creation unit 102, and uses the tag information to determine whether the drawing target is an applied drawing target or a non-applied drawing target. The application determination unit 106 transmits the drawing information and all of the tag information of the drawing target that is a non-applied drawing target to the non-applied drawing target drawing unit 107. The non-applied drawing target drawing unit 107 receives the drawing information and the tag information of the drawing target that is a non-applied drawing target from the application determination unit 106, and draws the non-applied drawing target in the drawing destination buffer of the drawing destination buffer memory unit 103.

実施の形態1では、適用判定部106は、図4の描画情報に対して、描画情報と、不適用描画対象であるとタグ付けされたポリゴンモデル54のタグ情報とを不適用描画対象描画部107に送信する。不適用描画対象描画部107は、適用判定部106から描画情報と、不適用描画対象であるとタグ付けされたポリゴンモデル54のタグ情報とを受信し、描画先バッファ記憶部103の描画先バッファ55にポリゴンモデル54を描画する。In the first embodiment, the application determination unit 106 transmits the drawing information and the tag information of the polygon model 54 tagged as a non-applicable drawing target to the non-applicable drawing target drawing unit 107 in response to the drawing information in FIG. 4. The non-applicable drawing target drawing unit 107 receives the drawing information and the tag information of the polygon model 54 tagged as a non-applicable drawing target from the application determination unit 106, and draws the polygon model 54 in the drawing destination buffer 55 of the drawing destination buffer storage unit 103.

図7は、不適用描画対象のポリゴンモデル54を描画先バッファ55に描画した描画結果57と不適用描画対象のポリゴンモデル54とを重畳した図である。図7の描画結果57のように、不適用描画対象描画部107は、ポリゴンモデル54の形に類似するように描画先バッファ55のピクセルを描画情報に含まれる描画対象に付随したRGB値で塗りつぶす。 Figure 7 is a diagram superimposing the non-applied drawing target polygon model 54 and the drawing result 57 of the non-applied drawing target polygon model 54 drawn in the drawing destination buffer 55. As shown in the drawing result 57 in Figure 7, the non-applied drawing target drawing unit 107 fills the pixels of the drawing destination buffer 55 with the RGB values associated with the drawing target included in the drawing information so as to resemble the shape of the polygon model 54.

図8は、不適用描画対象のポリゴンモデル54を描画先バッファ55に描画した描画結果57を示した図である。図8は図7のポリゴンモデル54の重畳表示をなくし、実際の描画結果57のみを示している。 Figure 8 shows the rendering result 57 of the polygon model 54 to be rendered as a non-applied rendering target, rendered in the rendering destination buffer 55. Figure 8 shows only the actual rendering result 57, without the superimposed display of the polygon model 54 in Figure 7.

図5に戻って、不適用描画対象描画部107が描画先バッファに不適用描画対象を描画し終えたら、不適用描画対象描画部107は、描画先バッファへの描画の終了の通知を適用処理部106とブレンド処理部110に送信し、ステップS14に進む。Returning to Figure 5, when the non-applicable drawing target drawing unit 107 finishes drawing the non-applicable drawing target in the destination buffer, the non-applicable drawing target drawing unit 107 sends a notification of the end of drawing in the destination buffer to the application processing unit 106 and the blending processing unit 110, and proceeds to step S14.

ステップS14において、適用判定部106は、不適用描画対象描画部107から描画先バッファへの描画の終了の通知を受信すると、描画情報と、適用描画対象である描画対象のタグ情報とを算出部104に送信する。In step S14, when the application determination unit 106 receives a notification of the end of drawing to the destination buffer from the non-applied drawing target drawing unit 107, it transmits the drawing information and tag information of the drawing target that is the applied drawing target to the calculation unit 104.

実施の形態1では、適用判定部106は、図4の描画情報に対して、描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを算出部104に送信する。 In embodiment 1, the application determination unit 106 transmits to the calculation unit 104 the drawing information of Figure 4, the tag information of polygon model 51 tagged as an application drawing target, the tag information of polygon model 52 tagged as an application drawing target, and the tag information of polygon model 53 tagged as an application drawing target.

算出部104は、適用判定部106から描画情報と、適用描画対象である描画対象のタグ情報とを受信し、適用描画対象の面積を算出する。面積の算出方法は、適用描画対象ごとの面積を正確に計算してもよいし、バウンディングボックスなどを用いて近似して、適用描画対象ごとの面積の概算をしてもよい。なお、3次元の適用描画対象の場合は、適用描画対象を2次元に投影変換してから、適用描画対象の面積を計算する。The calculation unit 104 receives drawing information and tag information of the drawing target that is the applied drawing target from the application determination unit 106, and calculates the area of the applied drawing target. The area may be calculated accurately for each applied drawing target, or may be approximated using a bounding box or the like to roughly estimate the area of each applied drawing target. In the case of a three-dimensional applied drawing target, the applied drawing target is projected into two dimensions and then the area of the applied drawing target is calculated.

図9は、バウンディングボックス80を用いて3次元の描画対象81を2次元に投影変換して描画対象81の面積を概算することを示した概念図である。例えば、描画対象81の面積を概算する方法としては、家の形をした3次元の描画対象81をバウンディングボックス80で囲み、2次元に投影変換したい面に対応するバウンディングボックス80の面積82を3次元の描画対象81を2次元に投影変換したときの描画対象81の面積の概算値とする。 Figure 9 is a conceptual diagram showing how a three-dimensional drawing object 81 is projected into two dimensions using a bounding box 80 to estimate the area of the drawing object 81. For example, one method of approximating the area of the drawing object 81 is to surround the three-dimensional house-shaped drawing object 81 with a bounding box 80, and use the area 82 of the bounding box 80 corresponding to the surface to be projected into two dimensions as an estimate of the area of the drawing object 81 when the three-dimensional drawing object 81 is projected into two dimensions.

なお、図9は2次元に投影変換したい面にちょうどバウンディングボックス80の1面が重なっていたが、バウンディングボックス80の1面が重ならなくても、2次元に投影変換したい面にバウンディングボックス80を投影変換すれば、3次元の描画対象81を2次元に投影変換したときの描画対象81の面積の概算値は求まる。また、図9は平行投影について説明したが、透視投影などでも適用可能である。 In Fig. 9, one face of the bounding box 80 overlaps exactly with the surface to be projected into two dimensions, but even if one face of the bounding box 80 does not overlap, if the bounding box 80 is projected onto the surface to be projected into two dimensions, an approximate value of the area of the drawing object 81 when the three-dimensional drawing object 81 is projected into two dimensions can be obtained. Also, although Fig. 9 explains parallel projection, it is also applicable to perspective projection, etc.

このように、バウンディングボックス80を用いて3次元の描画対象81を2次元に投影変換して描画対象81の面積を概算することで、描画対象81をそのまま2次元に投影変換して描画対象81の面積を求めるよりも描画処理負荷を低減することができる。なお、描画対象81が複雑な形ほど描画処理負荷が高くなるため、描画対象81が複雑な形ほどバウンディングボックス80を用いて3次元の描画対象81を2次元に投影変換して描画対象81の面積を概算すると描画処理負荷の低減の効果が高くなる。In this way, by projecting the three-dimensional drawing object 81 into two dimensions using the bounding box 80 and estimating the area of the drawing object 81, the drawing process load can be reduced compared to projecting the drawing object 81 directly into two dimensions and calculating the area of the drawing object 81. Note that the more complex the shape of the drawing object 81, the higher the drawing process load, so the more complex the shape of the drawing object 81, the more effective it is at reducing the drawing process load when projecting the three-dimensional drawing object 81 into two dimensions using the bounding box 80 and estimating the area of the drawing object 81.

図5に戻って、実施の形態1では、算出部104は、適用判定部106から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを受信する。Returning to Figure 5, in embodiment 1, the calculation unit 104 receives from the application determination unit 106 drawing information, tag information of polygon model 51 tagged as an application drawing target, tag information of polygon model 52 tagged as an application drawing target, and tag information of polygon model 53 tagged as an application drawing target.

算出部104は、ポリゴンモデル51~53の面積を算出する。算出部104は、例えば、ポリゴンモデル51の面積を0.4ピクセル、ポリゴンモデル52の面積を0.7ピクセル、ポリゴンモデル53の面積を1.2ピクセルと算出したとする。以降は、算出部104が算出した適用描画対象の面積を示した情報を面積情報と呼ぶ。 The calculation unit 104 calculates the areas of polygon models 51 to 53. For example, the calculation unit 104 calculates the area of polygon model 51 to be 0.4 pixels, the area of polygon model 52 to be 0.7 pixels, and the area of polygon model 53 to be 1.2 pixels. Hereinafter, the information indicating the areas of the applicable drawing targets calculated by the calculation unit 104 will be referred to as area information.

算出部104は、描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象の面積情報とを決定部105に送信し、ステップS15に進む。The calculation unit 104 transmits the drawing information, the tag information of the drawing object that is the applicable drawing object, and the area information of the applicable drawing object to the determination unit 105, and proceeds to step S15.

ステップS15において、決定部105は、算出部104から描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象の面積情報とを受信する。決定部105は、面積情報を用いて、適用描画対象の透過度を表すアルファ値を決定する。具体的には、決定部105は、面積情報から、適用描画対象の面積が1.0ピクセル以下の面積の場合は、当該面積を適用描画対象のアルファ値に決定する。一方、決定部105は、面積情報から、適用描画対象の面積が1.0ピクセルよりも大きい面積の場合は、1.0を適用描画対象のアルファ値に決定する。In step S15, the determination unit 105 receives drawing information, tag information of the drawing object that is the applied drawing object, and area information of the applied drawing object from the calculation unit 104. The determination unit 105 uses the area information to determine an alpha value that represents the transparency of the applied drawing object. Specifically, when the area information indicates that the area of the applied drawing object is 1.0 pixel or less, the determination unit 105 determines the area as the alpha value of the applied drawing object. On the other hand, when the area information indicates that the area of the applied drawing object is greater than 1.0 pixel, the determination unit 105 determines 1.0 as the alpha value of the applied drawing object.

実施の形態1では、決定部105は、算出部104から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル51の面積が0.4ピクセルであるという面積情報と、ポリゴンモデル52の面積が0.7ピクセルであるという面積情報と、ポリゴンモデル53の面積が1.2ピクセルであるという面積情報とを受信する。In embodiment 1, the determination unit 105 receives from the calculation unit 104 drawing information, tag information of polygon model 51 tagged as an applicable drawing target, tag information of polygon model 52 tagged as an applicable drawing target, tag information of polygon model 53 tagged as an applicable drawing target, area information that the area of polygon model 51 is 0.4 pixels, area information that the area of polygon model 52 is 0.7 pixels, and area information that the area of polygon model 53 is 1.2 pixels.

決定部105は、ポリゴンモデル51の面積情報を用いて、ポリゴンモデル51のアルファ値を決定する。具体的には、決定部105は、面積情報から、ポリゴンモデル51の面積が1.0ピクセル以下である0.4ピクセルであることが分かるため、ポリゴンモデル51のアルファ値を0.4に決定する。The determination unit 105 determines the alpha value of the polygon model 51 using the area information of the polygon model 51. Specifically, the determination unit 105 determines the alpha value of the polygon model 51 to be 0.4 because it is known from the area information that the area of the polygon model 51 is 0.4 pixels, which is less than or equal to 1.0 pixel.

決定部105は、ポリゴンモデル52の面積情報を用いて、ポリゴンモデル52のアルファ値を決定する。具体的には、決定部105は、面積情報から、ポリゴンモデル52の面積が1.0ピクセル以下である0.7ピクセルであることが分かるため、ポリゴンモデル52のアルファ値を0.7に決定する。The determination unit 105 determines the alpha value of the polygon model 52 using the area information of the polygon model 52. Specifically, the determination unit 105 determines the alpha value of the polygon model 52 to be 0.7 because it is known from the area information that the area of the polygon model 52 is 0.7 pixels, which is less than or equal to 1.0 pixel.

決定部105は、ポリゴンモデル53の面積情報を用いて、ポリゴンモデル53のアルファ値を決定する。具体的には、決定部105は、面積情報から、ポリゴンモデル53の面積が1.0ピクセルよりも大きい1.2ピクセルであることが分かるため、ポリゴンモデル53のアルファ値を1.0に決定する。以降は、決定部105が決定した適用描画対象のアルファ値を示した情報をアルファ値情報と呼ぶ。The determination unit 105 determines the alpha value of the polygon model 53 using the area information of the polygon model 53. Specifically, the determination unit 105 determines the alpha value of the polygon model 53 to be 1.0 because it is known from the area information that the area of the polygon model 53 is 1.2 pixels, which is larger than 1.0 pixel. Hereinafter, the information indicating the alpha value of the applicable drawing target determined by the determination unit 105 is referred to as alpha value information.

決定部105は、描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象のアルファ値情報とを適用描画対象描画部108に送信し、ステップS16に進む。The determination unit 105 transmits the drawing information, tag information of the drawing target that is the applied drawing target, and alpha value information of the applied drawing target to the applied drawing target drawing unit 108, and proceeds to step S16.

ステップS16において、適用描画対象描画部108は、決定部105から描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象のアルファ値情報とを受信し、詳細バッファ記憶部109の詳細バッファに適用描画対象を描画する。このとき、詳細バッファにアルファ値情報も記憶される。また、適用描画対象描画部108は、詳細バッファに適用描画対象を描画する毎に、詳細バッファに描画されたピクセル数を取得する。In step S16, the applied drawing target drawing unit 108 receives drawing information, tag information of the drawing target that is the applied drawing target, and alpha value information of the applied drawing target from the determination unit 105, and draws the applied drawing target in the detail buffer of the detail buffer storage unit 109. At this time, the alpha value information is also stored in the detail buffer. In addition, the applied drawing target drawing unit 108 obtains the number of pixels drawn in the detail buffer each time it draws the applied drawing target in the detail buffer.

実施の形態1では、適用描画対象描画部108は、決定部105から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル51のアルファ値が0.4であるというアルファ値情報と、ポリゴンモデル52のアルファ値が0.7であるというアルファ値情報と、ポリゴンモデル53のアルファ値が1.0であるというアルファ値情報とを受信する。 In embodiment 1, the applied drawing target drawing unit 108 receives from the determination unit 105 drawing information, tag information of polygon model 51 tagged as the applied drawing target, tag information of polygon model 52 tagged as the applied drawing target, tag information of polygon model 53 tagged as the applied drawing target, alpha value information that the alpha value of polygon model 51 is 0.4, alpha value information that the alpha value of polygon model 52 is 0.7, and alpha value information that the alpha value of polygon model 53 is 1.0.

適用描画対象描画部108は、詳細バッファ記憶部109の詳細バッファ56にポリゴンモデル51を描画する。 The applicable drawing target drawing unit 108 draws the polygon model 51 in the detail buffer 56 of the detail buffer memory unit 109.

図10は、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と複数のポリゴンモデル51~53とを重畳した図である。ポリゴンモデル51は、詳細バッファ56の1つのピクセルの中心を含むため、当該ピクセルが描画情報に含まれるポリゴンモデル51に付随したRGB値で塗りつぶされて、ポリゴンモデル51が描画される。ポリゴンモデル51が描画された結果が、図10の1ピクセルの描画結果58である。 Figure 10 shows a drawing result 58 of the polygon model 51 to be applied, which is drawn in the detail buffer 56, superimposed on multiple polygon models 51 to 53. Since the polygon model 51 contains the center of one pixel in the detail buffer 56, the pixel is filled with the RGB values associated with the polygon model 51 contained in the drawing information, and the polygon model 51 is drawn. The result of drawing the polygon model 51 is the drawing result 58 of one pixel in Figure 10.

図11は、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58を示した図である。図11は図10の複数のポリゴンモデル51~53の重畳表示をなくし、実際の描画結果58のみを示している。 Figure 11 shows the rendering result 58 of the polygon model 51 to be applied, rendered in the detail buffer 56. Figure 11 shows only the actual rendering result 58, without the superimposed display of the multiple polygon models 51 to 53 in Figure 10.

適用描画対象描画部108は、ポリゴンモデル51のアルファ値情報から、描画結果58のピクセルに、ポリゴンモデル51のアルファ値が0.4であるというアルファ値を記憶させる。図11のピクセルの中の値は、記憶されているアルファ値を表す。The applied drawing target drawing unit 108 stores an alpha value, which is 0.4 for the alpha value of the polygon model 51, in the pixel of the drawing result 58 based on the alpha value information of the polygon model 51. The value in the pixel of Figure 11 represents the stored alpha value.

また、適用描画対象描画部108は、詳細バッファ56にポリゴンモデル51を描画する処理をした後、ポリゴンモデル51によって実際に詳細バッファ56が塗りつぶされたピクセル数を取得する。ポリゴンモデル51の場合は、図11から分かるように、適用描画対象描画部108は、詳細バッファ56に実際に描画されたピクセル数として1ピクセルという情報を取得する。In addition, after the applied drawing object drawing unit 108 has completed the process of drawing the polygon model 51 in the detail buffer 56, it acquires the number of pixels that have actually been filled in the detail buffer 56 by the polygon model 51. In the case of the polygon model 51, as can be seen from FIG. 11, the applied drawing object drawing unit 108 acquires information that the number of pixels actually drawn in the detail buffer 56 is 1 pixel.

同様に、適用描画対象描画部108は、詳細バッファ記憶部109の詳細バッファ56にポリゴンモデル52を描画する。Similarly, the applied drawing target drawing unit 108 draws the polygon model 52 in the detail buffer 56 of the detail buffer memory unit 109.

しかし、ポリゴンモデル52は、詳細バッファ56のどのピクセルの中心も含まないため、描画されず消えてしまう。したがって、適用描画対象描画部108は、詳細バッファ56にポリゴンモデル52を描画する処理をしても、ポリゴンモデル51だけが描画された図10及び図11のようになってしまう。However, since polygon model 52 does not include the center of any pixel in detail buffer 56, it is not drawn and disappears. Therefore, even if the applied drawing object drawing unit 108 performs a process to draw polygon model 52 in detail buffer 56, the result will be as shown in Figures 10 and 11, where only polygon model 51 is drawn.

適用描画対象描画部108は、詳細バッファ56にポリゴンモデル52を描画する処理をした後、ポリゴンモデル52によって実際に詳細バッファ56が塗りつぶされたピクセル数を取得する。ポリゴンモデル52の場合は、図11から分かるように、ポリゴンモデル52によって詳細バッファ56が1ピクセルも塗りつぶされていないため、適用描画対象描画部108は、ピクセル数として0ピクセルという情報を取得する。After the applied drawing object drawing unit 108 has completed the process of drawing the polygon model 52 in the detail buffer 56, it obtains the number of pixels that have actually been filled in the detail buffer 56 by the polygon model 52. In the case of the polygon model 52, as can be seen from FIG. 11, not a single pixel has been filled in the detail buffer 56 by the polygon model 52, so the applied drawing object drawing unit 108 obtains information that the number of pixels is 0.

次に、適用描画対象描画部108は、詳細バッファ記憶部109の詳細バッファ56にポリゴンモデル53を描画する。Next, the applicable drawing target drawing unit 108 draws the polygon model 53 in the detail buffer 56 of the detail buffer memory unit 109.

図12は、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と別の適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59と複数のポリゴンモデル51~53とを重畳した図である。ポリゴンモデル53は、詳細バッファ56の1つのピクセルの中心を含むため、当該ピクセルが描画情報に含まれるポリゴンモデル53に付随したRGB値で塗りつぶされて、ポリゴンモデル53が描画される。ポリゴンモデル53が描画された結果が、図10の1ピクセルの描画結果59である。 Figure 12 is a diagram superimposing a rendering result 58 obtained by rendering polygon model 51, which is the applicable rendering target, in detail buffer 56, a rendering result 59 obtained by rendering polygon model 53, which is another applicable rendering target, in detail buffer 56, and multiple polygon models 51 to 53. Since polygon model 53 includes the center of one pixel in detail buffer 56, polygon model 53 is rendered by filling that pixel with the RGB values associated with polygon model 53 included in the rendering information. The result of rendering polygon model 53 is rendering result 59 of one pixel in Figure 10.

図13は、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と別の適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59とを示した図である。図13は図12の複数のポリゴンモデル51~53の重畳表示をなくし、実際の描画結果58~59のみを示している。 Figure 13 shows a drawing result 58 obtained by drawing a polygon model 51, which is the applicable drawing target, in the detail buffer 56, and a drawing result 59 obtained by drawing a polygon model 53, which is another applicable drawing target, in the detail buffer 56. Figure 13 shows only the actual drawing results 58-59, without the superimposed display of the multiple polygon models 51-53 in Figure 12.

適用描画対象描画部108は、ポリゴンモデル53のアルファ値情報から、描画結果59のピクセルに、ポリゴンモデル53のアルファ値が1.0であるというアルファ値を記憶させる。図13の各ピクセルの中の値は、記憶されているアルファ値を表す。The applied drawing target drawing unit 108 stores an alpha value, which is 1.0 for the alpha value of the polygon model 53, in the pixel of the drawing result 59 based on the alpha value information of the polygon model 53. The value in each pixel in FIG. 13 represents the stored alpha value.

また、適用描画対象描画部108は、詳細バッファ56にポリゴンモデル53を描画する処理をした後、ポリゴンモデル53によって実際に詳細バッファ56が塗りつぶされたピクセル数を取得する。ポリゴンモデル53の場合は、図13から分かるように、適用描画対象描画部108は、詳細バッファ56に実際に描画されたピクセル数として1ピクセルという情報を取得する。以降は、適用描画対象描画部108が取得した適用描画対象によって詳細バッファに描画されたピクセル数を示す情報をピクセル数情報と呼ぶ。 After the applied drawing object drawing unit 108 has completed the process of drawing the polygon model 53 in the detail buffer 56, it acquires the number of pixels that have actually been filled in the detail buffer 56 by the polygon model 53. In the case of the polygon model 53, as can be seen from FIG. 13, the applied drawing object drawing unit 108 acquires information that one pixel is the number of pixels that have actually been drawn in the detail buffer 56. Hereinafter, the information indicating the number of pixels drawn in the detail buffer by the applied drawing object acquired by the applied drawing object drawing unit 108 will be referred to as pixel count information.

図5に戻って、適用描画対象描画部108は、描画情報と、適用描画対象である描画対象のタグ情報と、アルファ値情報と、ピクセル数情報とを打点部112に送信し、ステップS17に進む。Returning to Figure 5, the applied drawing target drawing unit 108 transmits the drawing information, tag information of the drawing target that is the applied drawing target, alpha value information, and pixel count information to the dotting unit 112, and proceeds to step S17.

ステップS17において、打点部112は、適用描画対象描画部108から描画情報と、適用描画対象である描画対象のタグ情報と、アルファ値情報と、ピクセル数情報とを受信する。打点部112は、ピクセル数情報から、適用描画対象描画部108で描画されず消えてしまった適用描画対象である消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。このとき、詳細バッファにアルファ値情報のアルファ値も記憶される。In step S17, the dotting unit 112 receives drawing information, tag information of the drawing target that is the applied drawing target, alpha value information, and pixel count information from the applied drawing target drawing unit 108. From the pixel count information, the dotting unit 112 identifies the lost applied drawing target that is the applied drawing target that was not drawn by the applied drawing target drawing unit 108 and disappeared, and marks a dot on the pixel in the detail buffer that corresponds to the position of the lost applied drawing target, and draws the lost applied drawing target in the detail buffer. At this time, the alpha value of the alpha value information is also stored in the detail buffer.

実施の形態1では、打点部112は、適用描画対象描画部108から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル51のアルファ値が0.4であるというアルファ値情報と、ポリゴンモデル52のアルファ値が0.7であるというアルファ値情報と、ポリゴンモデル53のアルファ値が1.0であるというアルファ値情報と、ポリゴンモデル51によって詳細バッファ56に描画されたピクセル数が1ピクセルであるというピクセル数情報と、ポリゴンモデル52によって詳細バッファ56に描画されたピクセル数が0ピクセルであるというピクセル数情報と、ポリゴンモデル53によって詳細バッファ56に描画されたピクセル数が1ピクセルであるというピクセル数情報とを受信する。In embodiment 1, the dotting unit 112 receives from the application drawing target drawing unit 108 drawing information, tag information of polygon model 51 tagged as the application drawing target, tag information of polygon model 52 tagged as the application drawing target, tag information of polygon model 53 tagged as the application drawing target, alpha value information that the alpha value of polygon model 51 is 0.4, alpha value information that the alpha value of polygon model 52 is 0.7, alpha value information that the alpha value of polygon model 53 is 1.0, pixel count information that the number of pixels drawn in the detail buffer 56 by polygon model 51 is 1 pixel, pixel count information that the number of pixels drawn in the detail buffer 56 by polygon model 52 is 0 pixels, and pixel count information that the number of pixels drawn in the detail buffer 56 by polygon model 53 is 1 pixel.

打点部112は、ピクセル数情報から、ピクセル数が0ピクセルである適用描画対象を適用描画対象描画部108で描画されず消えてしまった適用描画対象である消失適用描画対象として特定する。具体的には、打点部112は、ポリゴンモデル52のピクセル数情報が0ピクセルであるため、ポリゴンモデル52を消失適用描画対象として特定する。From the pixel count information, the dotting unit 112 identifies an applied drawing target with a pixel count of 0 pixels as a lost applied drawing target, which is an applied drawing target that has disappeared without being drawn by the applied drawing target drawing unit 108. Specifically, since the pixel count information of the polygon model 52 is 0 pixels, the dotting unit 112 identifies the polygon model 52 as a lost applied drawing target.

打点部112は、消失適用描画対象であるポリゴンモデル52の位置に対応した詳細バッファ56内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。具体的には、打点部112は、ポリゴンモデル52の頂点の位置に対応した詳細バッファ56内のピクセルに点を打つ。ここで、2次元以上の描画対象を描画する場合は、バッファに対してピクセルの中心が描画対象に含まれると、当該ピクセルが塗りつぶされ、描画対象が描画されるが、1次元の描画対象を描画する場合、つまり点を描画する場合は、バッファに対して点が打たれたピクセルが塗りつぶされ、描画対象が描画される。したがって、打点部112は、ポリゴンモデル52の頂点の位置に対応した詳細バッファ56内のピクセルに点を打つことによって、消失適用描画対象であるポリゴンモデル52を詳細バッファ56に描画することができる。なお、打点部112は、円、楕円など頂点がない描画対象の場合は、多角形に近似して、多角形の頂点の位置に点を打つ。The dotting unit 112 puts a dot on a pixel in the detail buffer 56 corresponding to the position of the polygon model 52, which is the disappearance application drawing target, and draws the disappearance application drawing target in the detail buffer. Specifically, the dotting unit 112 puts a dot on a pixel in the detail buffer 56 corresponding to the position of the vertex of the polygon model 52. Here, when drawing a drawing target of two or more dimensions, if the center of a pixel is included in the drawing target in the buffer, the pixel is filled and the drawing target is drawn, but when drawing a one-dimensional drawing target, that is, when drawing a point, the pixel where the dot is put in the buffer is filled and the drawing target is drawn. Therefore, the dotting unit 112 can draw the polygon model 52, which is the disappearance application drawing target, in the detail buffer 56 by putting a dot on a pixel in the detail buffer 56 corresponding to the position of the vertex of the polygon model 52. Note that, in the case of a drawing target without vertices such as a circle or an ellipse, the dotting unit 112 approximates a polygon and puts a dot at the position of the vertex of the polygon.

図14は、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と別の適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59とさらに別の適用描画対象のポリゴンモデル52を詳細バッファ56に描画した描画結果60と複数のポリゴンモデル51~53とを重畳した図である。ポリゴンモデル52は、頂点が3つあるため、打点部112は、ポリゴンモデル52の3つの頂点の位置に対応した詳細バッファ56内のピクセルに点を打つ。すると、ポリゴンモデル52の3つの頂点に対応した詳細バッファ56の3ピクセル分が、描画情報に含まれるポリゴンモデル52に付随したRGB値で塗りつぶされて、ポリゴンモデル52が描画される。ポリゴンモデル52が描画された結果が、図14の3ピクセルの描画結果60である。 Figure 14 is a diagram superimposing a drawing result 58 of polygon model 51, which is the applicable drawing target, drawn in detail buffer 56, a drawing result 59 of polygon model 53, which is another applicable drawing target, drawn in detail buffer 56, a drawing result 60 of polygon model 52, which is yet another applicable drawing target, drawn in detail buffer 56, and multiple polygon models 51 to 53. Since polygon model 52 has three vertices, dotting unit 112 dots pixels in detail buffer 56 that correspond to the positions of the three vertices of polygon model 52. Then, three pixels in detail buffer 56 that correspond to the three vertices of polygon model 52 are filled with the RGB values associated with polygon model 52 included in the drawing information, and polygon model 52 is drawn. The result of drawing polygon model 52 is the three-pixel drawing result 60 in Figure 14.

図15は、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と別の適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59とさらに別の適用描画対象のポリゴンモデル52を詳細バッファ56に描画した描画結果60とを示した図である。図15は図14の複数のポリゴンモデル51~53の重畳表示をなくし、実際の描画結果58~60のみを示している。 Figure 15 shows a drawing result 58 obtained by drawing polygon model 51, which is the applicable drawing target, in detail buffer 56, a drawing result 59 obtained by drawing polygon model 53, which is another applicable drawing target, in detail buffer 56, and a drawing result 60 obtained by drawing polygon model 52, which is yet another applicable drawing target, in detail buffer 56. Figure 15 shows only the actual drawing results 58-60, without the superimposed display of multiple polygon models 51-53 in Figure 14.

打点部112は、ポリゴンモデル52のアルファ値情報から、描画結果60を構成する各ピクセルに、ポリゴンモデル52のアルファ値が0.7であるというアルファ値を記憶させる。図15の各ピクセルの中の値は、記憶されているアルファ値を表す。 The dotting unit 112 stores an alpha value, which is 0.7 for the alpha value of the polygon model 52, in each pixel that constitutes the drawing result 60 based on the alpha value information of the polygon model 52. The values in each pixel in Figure 15 represent the stored alpha values.

図5に戻って、打点部112は、詳細バッファへの描画の終了の通知をブレンド処理部110に送信し、ステップS18に進む。また、打点部112は、消失適用描画対象がなかった場合は、適用描画対象はすでに詳細バッファに描画されているため、何もせず、詳細バッファへの描画の終了の通知をブレンド処理部110に送信し、ステップS18に進む。Returning to FIG. 5, the dotting unit 112 sends a notification of the end of drawing in the detail buffer to the blending processing unit 110, and proceeds to step S18. Also, if there is no loss-applied drawing target, the dotting unit 112 does nothing because the applicable drawing target has already been drawn in the detail buffer, and sends a notification of the end of drawing in the detail buffer to the blending processing unit 110, and proceeds to step S18.

ステップS18において、ブレンド処理部110は、不適用描画対象描画部107から描画先バッファへの描画の終了の通知を受信し、打点部112から詳細バッファへの描画の終了の通知を受信すると、描画先バッファ記憶部103に記憶されている描画先バッファに対して、詳細バッファ109に記憶されている詳細バッファの1ピクセルごとにアルファ値でRGB値をアルファブレンドして適用描画対象を描画先バッファに描画する。In step S18, when the blending processing unit 110 receives a notification of the end of drawing to the destination buffer from the non-applicable drawing object drawing unit 107 and a notification of the end of drawing to the detail buffer from the dotting unit 112, it alpha-blends the RGB values with the alpha value for each pixel of the detail buffer stored in the detail buffer 109 for the destination buffer stored in the destination buffer memory unit 103, and draws the applicable drawing object in the destination buffer.

実施の形態1では、ブレンド処理部110は、図8の描画先バッファ55に対して、図15の詳細バッファ56の1ピクセルごとにアルファ値でRGB値をアルファブレンドして適用描画対象であるポリゴンモデル51~53を描画先バッファ55に描画する。具体的には、ブレンド処理部110は、描画先バッファ記憶部103に記憶されている図8の描画先バッファ55に対して、図15のポリゴンモデル51の描画結果58の1ピクセルについて、アルファ値である0.4でポリゴンモデル51のRGB値をアルファブレンドする。同様に、ブレンド処理部110は、描画先バッファ記憶部103に記憶されている図8の描画先バッファ55に対して、図15のポリゴンモデル52の描画結果60の各ピクセルについて、各ピクセルのアルファ値である0.7でポリゴンモデル52のRGB値をアルファブレンドする。ブレンド処理部110は、描画先バッファ記憶部103に記憶されている図8の描画先バッファ55に対して、図15のポリゴンモデル53の描画結果59の1ピクセルについて、アルファ値である1.0でポリゴンモデル53のRGB値をアルファブレンドする。In the first embodiment, the blending processing unit 110 alpha-blends the RGB values for each pixel of the detail buffer 56 in FIG. 15 with an alpha value for the drawing destination buffer 55 in FIG. 8, and draws the polygon models 51 to 53 to be applied to the drawing destination buffer 55. Specifically, the blending processing unit 110 alpha-blends the RGB values of the polygon model 51 in FIG. 15 with an alpha value of 0.4 for each pixel of the drawing result 58 of the polygon model 51 in FIG. 15 for the drawing destination buffer 55 in FIG. 8 stored in the drawing destination buffer storage unit 103. Similarly, the blending processing unit 110 alpha-blends the RGB values of the polygon model 52 in FIG. 15 with an alpha value of 0.7 for each pixel of the drawing result 60 of the polygon model 52 in FIG. 15 for the drawing destination buffer 55 in FIG. 8 stored in the drawing destination buffer storage unit 103. The blending processing unit 110 alpha-blends the RGB values of the polygon model 53 in FIG. 15 for one pixel of the rendering result 59 of the polygon model 53 in FIG. 15 with an alpha value of 1.0 for the rendering destination buffer 55 in FIG. 8 stored in the rendering destination buffer memory unit 103.

図16は、全てのポリゴンモデルを描画先バッファ55に描画した描画結果を示した図である。ポリゴンモデル51を描画先バッファ55に描画したのが描画結果61となる。描画結果61は、図8の描画先バッファ55に対して、図15のポリゴンモデル51の描画結果58の1ピクセルについて、アルファ値である0.4でポリゴンモデル51のRGB値をアルファブレンドした結果であり、図16では模擬的に縦縞で塗られている。 Figure 16 shows the rendering result when all polygon models are rendered in destination buffer 55. Rendering of polygon model 51 in destination buffer 55 results in rendering result 61. Rendering result 61 is the result of alpha blending the RGB values of polygon model 51 with an alpha value of 0.4 for one pixel of rendering result 58 of polygon model 51 in Figure 15 to destination buffer 55 in Figure 8, and is painted with simulated vertical stripes in Figure 16.

ポリゴンモデル52を描画先バッファ55に描画したのが描画結果62となる。描画結果62は、図8の描画先バッファ55に対して、図15のポリゴンモデル52の描画結果60の3ピクセルそれぞれについて、アルファ値である0.7でポリゴンモデル52のRGB値をアルファブレンドした結果であり、図16では模擬的に斜線で塗られている。 The rendering result 62 is the result of rendering polygon model 52 in destination buffer 55. The rendering result 62 is the result of alpha blending the RGB values of polygon model 52 with an alpha value of 0.7 for each of the three pixels of rendering result 60 of polygon model 52 in Figure 15 to destination buffer 55 in Figure 8, and is simulated by being shaded in Figure 16.

ポリゴンモデル53を描画先バッファ55に描画したのが描画結果63となる。描画結果63は、図8の描画先バッファ55に対して、図15のポリゴンモデル53の描画結果59の1ピクセルについて、アルファ値である1.0でポリゴンモデル53のRGB値をアルファブレンドした結果であり、図16では模擬的に横縞で塗られている。 The rendering result 63 is the result of rendering polygon model 53 in destination buffer 55. The rendering result 63 is the result of alpha blending the RGB values of polygon model 53 with an alpha value of 1.0 for one pixel of rendering result 59 of polygon model 53 in Figure 15 to destination buffer 55 in Figure 8, and is painted with simulated horizontal stripes in Figure 16.

ポリゴンモデル54を描画先バッファ55に描画したのが描画結果57となる。図16の描画結果57は、図8の描画結果57と同様である。 The rendering result 57 is the result of drawing the polygon model 54 in the rendering destination buffer 55. The rendering result 57 in Figure 16 is the same as the rendering result 57 in Figure 8.

図5に戻って、ブレンド処理部110は、アルファブレンドの終了の通知を出力制御部111に送信し、ステップS19に進む。Returning to Figure 5, the blending processing unit 110 sends a notification of the end of alpha blending to the output control unit 111 and proceeds to step S19.

ステップS19において、出力制御部111は、ブレンド処理部110からアルファブレンドの終了の通知を受信し、描画先バッファ記憶部103に記憶されている描画先バッファを出力するように出力装置5を制御する。In step S19, the output control unit 111 receives a notification of the end of alpha blending from the blending processing unit 110 and controls the output device 5 to output the destination buffer stored in the destination buffer memory unit 103.

実施の形態1では、描画先バッファ記憶部103に記憶されている描画先バッファ55に描画されたシーンを出力するように出力装置5である表示装置を制御する。In embodiment 1, the display device, which is the output device 5, is controlled to output the scene drawn in the drawing destination buffer 55 stored in the drawing destination buffer memory unit 103.

ステップS19を実行した後もステップS11に戻り、電源をOFFにすること、あるいは終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。なお、上記のような処理を繰り返すとしたが、繰り返さず一回行うだけでもよい。After step S19 is executed, the process returns to step S11, and the above-described process is repeated until a trigger for terminating the process occurs, such as turning off the power or performing an end operation. Note that although the above-described process is repeated, it is also possible to perform the process only once without repeating it.

以上述べたように、実施の形態1の描画処理システム1は、適用判定部106によって不適用描画対象と判定された描画対象を、不適用描画対象描画部107が描画先バッファ記憶部103に記憶されている描画先バッファに描画し、算出部104が適用判定部106によって適用描画対象と判定された描画対象の面積を算出し、決定部105が算出した面積から適用描画対象のアルファ値を決定し、適用描画対象描画部108が描画先バッファとは異なるバッファである詳細バッファに適用描画対象を描画し、打点部112が適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打つことで適用描画対象を詳細バッファに描画し、ブレンド処理部110が適用描画対象のアルファ値で描画先バッファに詳細バッファをアルファブレンドし、出力制御部111が出力装置5に描画先バッファに描画されたシーンを出力するよう制御するため、ピクセルの中心に描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示させることができる。As described above, in the drawing processing system 1 of embodiment 1, the non-applicable drawing target drawing unit 107 draws the drawing target determined by the application determination unit 106 to be an applicable drawing target in the drawing destination buffer stored in the drawing destination buffer memory unit 103, the calculation unit 104 calculates the area of the drawing target determined by the application determination unit 106 to be an applicable drawing target, the determination unit 105 determines the alpha value of the applicable drawing target from the calculated area, the applicable drawing target drawing unit 108 draws the applicable drawing target in the detail buffer, which is a buffer different from the drawing destination buffer, the dotting unit 112 draws the applicable drawing target in the detail buffer by dotting pixels in the detail buffer corresponding to the position of the applicable drawing target, the blending processing unit 110 alpha-blends the detail buffer with the alpha value of the applicable drawing target, and the output control unit 111 controls the output device 5 to output the scene drawn in the drawing destination buffer. Therefore, even if the drawing target is not located at the center of the pixel, the drawing target can be drawn and displayed on the display screen.

実施の形態2.
実施の形態1では、描画処理システム1は、入力装置4が描画情報とタグ情報との入力を受け付け、取得部101が入力装置4から描画情報とタグ情報とを取得し、適用判定部106がタグ情報を用いて、描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定した。実施の形態2では、図17~図19に示すように、描画処理システム2は、入力装置6が受け付けるのは描画情報の入力だけであり、取得部201が入力装置6から描画情報を取得し、適用判定部202が描画情報から描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定する。
Embodiment 2.
In the first embodiment, in the drawing processing system 1, the input device 4 accepts input of drawing information and tag information, the acquisition unit 101 acquires the drawing information and the tag information from the input device 4, and the application determination unit 106 uses the tag information to determine whether the drawing target is an applied drawing target or a non-applied drawing target. In the second embodiment, as shown in Figures 17 to 19, in the drawing processing system 2, the input device 6 accepts only the input of drawing information, the acquisition unit 201 acquires the drawing information from the input device 6, and the application determination unit 202 determines from the drawing information whether the drawing target is an applied drawing target or a non-applied drawing target.

当該判定により、ユーザーがタグ情報を入力装置6に入力する必要がなく、描画処理システム2が自動で描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定するため、ユーザーの負荷を低減できる。 This determination eliminates the need for the user to input tag information into the input device 6, and the drawing processing system 2 automatically determines whether the drawing target is an applicable drawing target or an inapplicable drawing target, thereby reducing the burden on the user.

なお、実施の形態1では、描画処理システム1は、不適用描画対象も適用描画対象もまとめて描画をしていたが、実施の形態2では、描画処理システム2は、描画対象を1つずつ描画していく。それ以外は、実施の形態1と同様である。以下の説明において実施の形態1で説明した構成及び動作については、同一符号を付して、重複する説明を省略する。 Note that in embodiment 1, the drawing processing system 1 draws both non-applied and applied drawing targets together, but in embodiment 2, the drawing processing system 2 draws the drawing targets one by one. Other than that, it is the same as embodiment 1. In the following explanation, the configurations and operations explained in embodiment 1 are given the same reference numerals and duplicate explanations are omitted.

実施の形態2でも実施の形態1と同様に、一例として、シーン全体の描画の情報である描画情報内に、ピクセルの中心に描画対象が位置していない描画対象がある場合について、本開示を適用した場合を以下に説明する。As in the first embodiment, in the second embodiment, as an example, a case where the present disclosure is applied to a case where the drawing information, which is information about the drawing of the entire scene, contains a drawing target that is not located at the center of a pixel is described below.

図17は、実施の形態2に係る描画処理装置200を含む描画処理システム2のブロック図である。描画処理システム2は、描画情報が入力される入力装置6と、描画情報を用いて、描画情報を描画する処理を行う描画処理装置200と、描画処理装置200で処理されたシーンを出力する出力装置5とを備えている。 Figure 17 is a block diagram of a drawing processing system 2 including a drawing processing device 200 according to embodiment 2. The drawing processing system 2 includes an input device 6 to which drawing information is input, a drawing processing device 200 that performs processing to draw the drawing information using the drawing information, and an output device 5 that outputs a scene processed by the drawing processing device 200.

実施の形態2では、実施の形態1の図1の入力装置4と、取得部101と、適用判定部106と、不適用描画対象描画部107と、算出部104と、決定部105と、適用描画対象描画部108と、打点部112と、ブレンド処理部110との代わりに、入力装置6と、取得部201と、適用判定部202と、不適用描画対象描画部203と、算出部204と、決定部205と、適用描画対象描画部209と、打点部210と、ブレンド処理部207と、終了判定部206と、蓄積記憶部208とが機能ブロック図の構成として加わる。In embodiment 2, instead of the input device 4, acquisition unit 101, application determination unit 106, non-applicable drawing target drawing unit 107, calculation unit 104, determination unit 105, applied drawing target drawing unit 108, dotting unit 112, and blending processing unit 110 of embodiment 1, an input device 6, acquisition unit 201, application determination unit 202, non-applicable drawing target drawing unit 203, calculation unit 204, determination unit 205, applied drawing target drawing unit 209, dotting unit 210, blending processing unit 207, termination determination unit 206, and accumulation memory unit 208 are added to the functional block diagram configuration.

入力装置6は、例えば、ユーザーによって入力されたポリゴンモデルなどの描画対象の情報を含むシーン全体の描画情報のみを受け付ける。 The input device 6 only accepts drawing information of the entire scene, including information on the drawing target, such as a polygon model, input by the user.

描画処理装置200は、入力装置6から描画情報を取得する取得部201と、描画先バッファと詳細バッファとを作成する作成部102と、描画情報から描画対象を詳細描画処理するか否かによって、描画対象が、描画先バッファに描画される不適用描画対象と、描画先バッファとは異なるバッファである詳細バッファに描画される適用描画対象とのいずれであるかを判定する適用判定部202と、詳細描画処理を適用しないとタグ付けされた不適用描画対象を描画先バッファに描画する不適用描画対象描画部203と、詳細描画処理を適用するとタグ付けされた適用描画対象の面積を算出する算出部204と、算出した面積から適用描画対象のアルファ値を決定する決定部205と、詳細バッファに適用描画対象を描画し、描画されたピクセル数を取得する適用描画対象描画部209と、取得した描画されたピクセル数から、適用描画対象が詳細バッファに描画されず、消失してしまった適用描画対象である消失適用描画対象であるかを特定し、消失適用描画対象の場合は、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する打点部210と、描画情報内に描画先バッファあるいは詳細バッファに描画していない描画対象があるか否かで終了を判定する終了判定部206と、詳細バッファで塗られたピクセルに対応して、適用描画対象のアルファ値で適用描画対象のRGB値をアルファブレンドすることにより、適用描画対象を描画先バッファに描画するブレンド処理部207と、出力装置5に描画先バッファに描画されたシーンを出力するよう制御する出力制御部111と、描画先バッファを記憶する描画先バッファ記憶部103と、詳細バッファを記憶する詳細バッファ記憶部109と、詳細バッファに描画された情報を蓄積して記憶する蓄積記憶部208を備えている。なお、不適用描画対象描画部203は、第一の描画対象描画部に対応し、適用描画対象描画部209は、第二の描画対象描画部に対応する。The drawing processing device 200 includes an acquisition unit 201 that acquires drawing information from the input device 6, a creation unit 102 that creates a drawing destination buffer and a detail buffer, an application determination unit 202 that determines whether the drawing target is a non-applicable drawing target to be drawn in the drawing destination buffer or an applied drawing target to be drawn in a detail buffer that is a buffer different from the drawing destination buffer, depending on whether or not the drawing target is to be subjected to detailed drawing processing from the drawing information, a non-applicable drawing target drawing unit 203 that draws a non-applicable drawing target tagged as not to be subjected to detailed drawing processing in the drawing destination buffer, a calculation unit 204 that calculates the area of an applied drawing target tagged as being subjected to detailed drawing processing, a determination unit 205 that determines the alpha value of the applied drawing target from the calculated area, an applied drawing target drawing unit 209 that draws the applied drawing target in the detail buffer and acquires the number of pixels drawn, and a determination unit 208 that determines whether the applied drawing target is not drawn in the detail buffer and is erased from the acquired number of drawn pixels. The apparatus includes a dotting unit 210 for identifying whether the applicable drawing object is a lost applicable drawing object, and for the lost applicable drawing object, for drawing the lost applicable drawing object in the detail buffer by dotting a pixel in the detail buffer corresponding to the position of the lost applicable drawing object, a termination determination unit 206 for determining termination based on whether there is a drawing object in the drawing information that has not been drawn in the drawing destination buffer or the detail buffer, a blending processing unit 207 for drawing the applicable drawing object in the drawing destination buffer by alpha-blending the RGB value of the applicable drawing object with the alpha value of the applicable drawing object corresponding to the pixel painted in the detail buffer, an output control unit 111 for controlling the output device 5 to output the scene drawn in the drawing destination buffer, a drawing destination buffer storage unit 103 for storing the drawing destination buffer, a detail buffer storage unit 109 for storing the detail buffer, and an accumulation storage unit 208 for accumulating and storing information drawn in the detail buffer. The non-applied drawing object drawing unit 203 corresponds to the first drawing object drawing unit, and the applied drawing object drawing unit 209 corresponds to the second drawing object drawing unit.

次に、実施の形態2に係る描画処理システム2のハードウェア構成について説明する。描画処理システム2のハードウェア構成図は、実施の形態1の図2と同様である。Next, we will explain the hardware configuration of the drawing processing system 2 in embodiment 2. The hardware configuration diagram of the drawing processing system 2 is the same as Figure 2 in embodiment 1.

ただし、入力装置6のハードウェア構成は入力装置4と同様である。取得部201のハードウェア構成は取得部101と同様である。適用判定部202のハードウェア構成は適用判定部106と同様である。不適用描画対象描画部203のハードウェア構成は不適用描画対象描画部107と同様である。算出部204のハードウェア構成は算出部104と同様である。決定部205のハードウェア構成は決定部105と同様である。適用描画対象描画部209のハードウェア構成は適用描画対象描画部108と同様である。打点部210のハードウェア構成は打点部112と同様である。ブレンド処理部207のハードウェア構成はブレンド処理部110と同様である。終了判定部206は、グラフィックメモリ45に記憶するプログラムによって実現され、GPU44がグラフィックメモリ45にロードしたプログラムを読み込み、実行することにより実現する。蓄積記憶部208は、グラフィックメモリ45によって実現される。However, the hardware configuration of the input device 6 is the same as that of the input device 4. The hardware configuration of the acquisition unit 201 is the same as that of the acquisition unit 101. The hardware configuration of the application determination unit 202 is the same as that of the application determination unit 106. The hardware configuration of the non-applicable drawing target drawing unit 203 is the same as that of the non-applicable drawing target drawing unit 107. The hardware configuration of the calculation unit 204 is the same as that of the calculation unit 104. The hardware configuration of the determination unit 205 is the same as that of the determination unit 105. The hardware configuration of the applied drawing target drawing unit 209 is the same as that of the applied drawing target drawing unit 108. The hardware configuration of the dotting unit 210 is the same as that of the dotting unit 112. The hardware configuration of the blend processing unit 207 is the same as that of the blend processing unit 110. The termination determination unit 206 is realized by a program stored in the graphic memory 45, and is realized by the GPU 44 reading and executing the program loaded into the graphic memory 45. The accumulation memory unit 208 is realized by the graphic memory 45.

なお、グラフィックメモリ45は、終了判定部206の機能と他の部の機能とのそれぞれを別々のメモリで実現してもよい。また、蓄積記憶部208と、他の記憶部とのそれぞれを別々のメモリで実現してもよい。それ以外は、実施の形態1のハードウェア構成と同様である。In addition, the graphics memory 45 may be configured so that the functions of the termination determination unit 206 and the functions of the other units are realized by separate memories. Also, the accumulation storage unit 208 and the other storage units may be realized by separate memories. Otherwise, the hardware configuration is the same as that of the first embodiment.

次に、描画処理システム2の動作について説明する。 Next, the operation of the drawing processing system 2 will be described.

図18は、本開示の実施の形態2に係る描画処理システム2の動作を示すフローチャートである。図18を用いて、描画処理システム2の動作を以下に説明する。 Figure 18 is a flowchart showing the operation of the drawing processing system 2 according to embodiment 2 of the present disclosure. The operation of the drawing processing system 2 is described below with reference to Figure 18.

ステップS4において、入力装置6は、描画情報の入力を受け付ける。例えば、ユーザーがマウス、キーボードなどを用いて、描画情報を指定して入力装置6に入力し、入力装置6は、当該入力を受け付ける。In step S4, the input device 6 accepts input of drawing information. For example, the user uses a mouse, keyboard, etc. to specify drawing information and input it to the input device 6, and the input device 6 accepts the input.

なお、入力装置6が受け付ける描画情報は、実施の形態1と同様に、ユーザーが指定しなくても、通信を介して受信した描画情報、予め定められた基準を満たしたものを自動的に抽出した描画情報、機械学習で抽出した描画情報など、どのようなものでもよい。実施の形態2では、実施の形態1と同様に、例えば、描画対象を3次元のポリゴンモデルとし、描画情報はポリゴンモデルである描画対象の情報を含んでいるとする。 As in the first embodiment, the drawing information received by the input device 6 may be any type of drawing information, such as drawing information received via communication without being specified by the user, drawing information automatically extracted that satisfies a predetermined criterion, drawing information extracted by machine learning, etc. In the second embodiment, as in the first embodiment, for example, the drawing target is a three-dimensional polygon model, and the drawing information includes information on the drawing target that is a polygon model.

実施の形態2では、実施の形態1と同様に、図4に本開示を適用した場合を以下に説明する。入力装置6は、描画情報を描画処理装置200に送信し、ステップS5に進む。In the second embodiment, similarly to the first embodiment, the case where the present disclosure is applied to Fig. 4 will be described below. The input device 6 transmits drawing information to the drawing processing device 200, and the process proceeds to step S5.

ステップS5において、描画処理装置200は、入力装置6から描画情報を受信する。描画処理装置200は、受信した描画情報を用いて、描画処理を行う。詳細については、後述する。描画処理装置200は、描画先バッファに描画されたシーンを出力するように出力装置5を制御し、ステップS6に進む。In step S5, the drawing processing device 200 receives drawing information from the input device 6. The drawing processing device 200 performs drawing processing using the received drawing information. Details will be described later. The drawing processing device 200 controls the output device 5 to output the scene drawn in the destination buffer, and proceeds to step S6.

ステップS6において、出力装置5は、実施の形態1のステップS3と同様に、描画処理装置200の制御によって、描画先バッファに描画されたシーンをディスプレイなどの表示装置に出力する。In step S6, the output device 5 outputs the scene drawn in the destination buffer to a display device such as a display under the control of the drawing processing device 200, similar to step S3 in embodiment 1.

ステップS6を実行した後もステップS4に戻り、電源をOFFにすること、あるいは終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。なお、上記のような処理を繰り返すとしたが、繰り返さず一回行うだけでもよい。After step S6 is executed, the process returns to step S4, and the above-mentioned process is repeated until a trigger for terminating the process occurs, such as turning off the power or performing an end operation. Note that although the above-mentioned process is repeated, it is also possible to perform it only once without repeating it.

次に、描画処理装置200の動作について説明する。 Next, the operation of the drawing processing device 200 will be described.

図19は、本開示の実施の形態2に係る描画処理装置200の動作を示すフローチャートである。図19を用いて、描画処理装置200の動作を以下に説明する。 Figure 19 is a flowchart showing the operation of the drawing processing device 200 according to embodiment 2 of the present disclosure. The operation of the drawing processing device 200 is described below with reference to Figure 19.

ステップS21において、取得部201は、入力装置6から描画情報を取得する。取得部201は、描画情報を作成部102に送信し、ステップS22に進む。In step S21, the acquisition unit 201 acquires drawing information from the input device 6. The acquisition unit 201 transmits the drawing information to the creation unit 102 and proceeds to step S22.

ステップS22において、作成部102は、取得部201から描画情報を受信する。作成部102は、描画情報を適用判定部202に送信し、ステップS23に進む。それ以外は、ステップS22は、実施の形態1のステップS12と同様である。ただし、実施の形態1では、当該詳細バッファには、適用描画対象すべてが描画されるが、実施の形態2では、適用描画対象が1つ描画されることになる。In step S22, the creation unit 102 receives drawing information from the acquisition unit 201. The creation unit 102 transmits the drawing information to the application determination unit 202 and proceeds to step S23. Otherwise, step S22 is the same as step S12 in embodiment 1. However, in embodiment 1, all applied drawing targets are drawn in the detail buffer, whereas in embodiment 2, one applied drawing target is drawn.

ステップS23において、適用判定部202は、作成部102から描画情報を受信する。適用判定部202は、描画情報を用いて、描画情報に含まれる描画対象の1つについて、描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定する。実施の形態2では、例えば、適用判定部202は、描画対象の面積sを算出して、面積sが予め定めて記憶しておいた閾値X未満か否かを判定する。閾値Xは、1.0ピクセルや5.0ピクセルなど、ユーザーが描画対象に対して詳細描画処理を行わなくてもいいほど大きいサイズか、それとも詳細描画処理を行うほど小さいサイズかを好みで決定すればよい。In step S23, the application determination unit 202 receives drawing information from the creation unit 102. The application determination unit 202 uses the drawing information to determine whether one of the drawing targets included in the drawing information is an applied drawing target or a non-applied drawing target. In the second embodiment, for example, the application determination unit 202 calculates the area s of the drawing target and determines whether the area s is less than a predetermined and stored threshold value X. The threshold value X may be determined based on the user's preference, such as 1.0 pixel or 5.0 pixel, to determine whether the size is large enough that the user does not need to perform detailed drawing processing on the drawing target, or small enough that detailed drawing processing is performed.

描画対象の面積sを算出する方法は、描画対象そのものの面積を計算してもよいし、実施の形態1の図9のように、バウンディングボックスなどを用いて近似して、描画対象の面積の概算をしてもよい。実施の形態2では、例えば、図4のポリゴンモデル51の面積の概算値が0.8ピクセル、ポリゴン

モデル52の面積の概算値が1.4ピクセル、ポリゴンモデル53の面積の概算値が2.4ピクセル、ポリゴンモデル54の面積の概算値が16.8ピクセルであったとする。また、予め定めておいた閾値Xが3.0ピクセルであったとする。
The method of calculating the area s of the drawing target may be to calculate the area of the drawing target itself, or to roughly estimate the area of the drawing target by approximating using a bounding box or the like as in Fig. 9 of the first embodiment. In the second embodiment, for example, the approximate value of the area of the polygon model 51 in Fig. 4 is 0.8 pixels,

It is assumed that the estimated area of the model 52 is 1.4 pixels, the estimated area of the polygon model 53 is 2.4 pixels, and the estimated area of the polygon model 54 is 16.8 pixels. It is also assumed that the predetermined threshold value X is 3.0 pixels.

適用判定部202は、描画対象の面積sが予め定めておいた閾値X以上の場合は、ステップS23:Noとなる。適用判定部202は、描画対象の描画サイズが大きいため、詳細描画処理を行う必要がないとして、当該描画対象は不適用描画対象であるというタグ情報を生成する。適用判定部202は、描画情報と、不適用描画対象である描画対象のタグ情報とを不適用描画対象描画部203に送信し、ステップS24に進む。If the area s of the drawing object is equal to or greater than a predetermined threshold value X, the application determination unit 202 returns No in step S23. Since the drawing size of the drawing object is large, the application determination unit 202 determines that detailed drawing processing is not required and generates tag information indicating that the drawing object is a non-applicable drawing object. The application determination unit 202 transmits the drawing information and tag information of the drawing object that is a non-applicable drawing object to the non-applicable drawing object drawing unit 203, and proceeds to step S24.

実施の形態2では、ポリゴンモデル54の場合は、ポリゴンモデル54の面積の概算値が16.8ピクセルであり、予め定めておいた閾値である3.0ピクセル以上となるため、ポリゴンモデル54は、ステップS23:Noとなる。適用判定部202は、ポリゴンモデル54の描画サイズが大きいため、詳細描画処理を行う必要がないとして、ポリゴンモデル54は不適用描画対象であるというタグ情報を生成する。適用判定部202は、描画情報と、不適用描画対象であるとタグ付けされたポリゴンモデル54のタグ情報とを描画部203に送信し、ステップS24に進む。In the second embodiment, in the case of polygon model 54, the estimated area of polygon model 54 is 16.8 pixels, which is greater than the predetermined threshold value of 3.0 pixels, and therefore polygon model 54 is determined to be No in step S23. Since the drawing size of polygon model 54 is large, application determination unit 202 determines that detailed drawing processing is not required, and generates tag information indicating that polygon model 54 is an inapplicable drawing target. Application determination unit 202 transmits the drawing information and the tag information of polygon model 54 tagged as an inapplicable drawing target to drawing unit 203, and proceeds to step S24.

一方、適用判定部202は、描画対象の面積sが予め定めておいた閾値X未満の場合は、ステップS23:Yesとなる。適用判定部202は、描画対象の描画サイズが小さいため、詳細描画処理を行う必要があるとして、当該描画対象は適用描画対象であるというタグ情報を生成する。適用判定部202は、描画情報と、適用描画対象である描画対象のタグ情報とを算出部204に送信し、ステップS25に進む。On the other hand, if the area s of the drawing object is less than the predetermined threshold value X, the application determination unit 202 returns Yes in step S23. The application determination unit 202 determines that detailed drawing processing is necessary because the drawing size of the drawing object is small, and generates tag information indicating that the drawing object is an applicable drawing object. The application determination unit 202 transmits the drawing information and the tag information of the drawing object that is the applicable drawing object to the calculation unit 204, and proceeds to step S25.

実施の形態2では、ポリゴンモデル51の場合は、ポリゴンモデル51の面積の概算値が0.8ピクセルであり、予め定めておいた閾値である3.0ピクセル未満となるため、ポリゴンモデル51は、ステップS23:Yesとなる。適用判定部202は、ポリゴンモデル51の描画サイズが小さいため、詳細描画処理を行う必要があるとして、ポリゴンモデル51は適用描画対象であるというタグ情報を生成する。適用判定部202は、描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報とを算出部204に送信し、ステップS25に進む。In the second embodiment, in the case of polygon model 51, the estimated area of polygon model 51 is 0.8 pixels, which is less than the predetermined threshold value of 3.0 pixels, so the result for polygon model 51 is step S23: Yes. Since the drawing size of polygon model 51 is small, the application determination unit 202 determines that detailed drawing processing needs to be performed, and generates tag information indicating that polygon model 51 is an application drawing target. The application determination unit 202 transmits the drawing information and the tag information of polygon model 51 tagged as an application drawing target to the calculation unit 204, and proceeds to step S25.

同様に、ポリゴンモデル52の場合は、ポリゴンモデル52の面積の概算値が1.4ピクセルであり、予め定めておいた閾値である3.0ピクセル未満となるため、ポリゴンモデル52は、ステップS23:Yesとなる。適用判定部202は、ポリゴンモデル52の描画サイズが小さいため、詳細描画処理を行う必要があるとして、ポリゴンモデル52は適用描画対象であるというタグ情報を生成する。適用判定部202は、描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報とを算出部204に送信し、ステップS25に進む。Similarly, in the case of polygon model 52, the estimated area of polygon model 52 is 1.4 pixels, which is less than the predetermined threshold value of 3.0 pixels, so polygon model 52 is step S23: Yes. The application determination unit 202 determines that detailed drawing processing is required because the drawing size of polygon model 52 is small, and generates tag information indicating that polygon model 52 is an applicable drawing target. The application determination unit 202 transmits the drawing information and the tag information of polygon model 52 tagged as an applicable drawing target to the calculation unit 204, and proceeds to step S25.

ポリゴンモデル53の場合は、ポリゴンモデル53の面積の概算値が2.4ピクセルであり、予め定めておいた閾値である3.0ピクセル未満となるため、ポリゴンモデル53は、ステップS23:Yesとなる。適用判定部202は、ポリゴンモデル53の描画サイズが小さいため、詳細描画処理を行う必要があるとして、ポリゴンモデル53は適用描画対象であるというタグ情報を生成する。適用判定部202は、描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを算出部204に送信し、ステップS25に進む。In the case of polygon model 53, the estimated area of polygon model 53 is 2.4 pixels, which is less than the predetermined threshold value of 3.0 pixels, so step S23: Yes for polygon model 53. The application determination unit 202 determines that detailed drawing processing needs to be performed because the drawing size of polygon model 53 is small, and generates tag information indicating that polygon model 53 is an applicable drawing target. The application determination unit 202 transmits the drawing information and the tag information of polygon model 53 tagged as an applicable drawing target to the calculation unit 204, and proceeds to step S25.

ステップS24において、不適用描画対象描画部203は、適用判定部202から描画情報と、不適用描画対象である描画対象のタグ情報とを受信し、描画先バッファ記憶部103の描画先バッファに不適用描画対象を描画する。 In step S24, the non-applicable drawing target drawing unit 203 receives drawing information and tag information of the drawing target that is a non-applicable drawing target from the application determination unit 202, and draws the non-applicable drawing target in the drawing destination buffer of the drawing destination buffer memory unit 103.

実施の形態2では、不適用描画対象描画部203は、適用判定部202から描画情報と、不適用描画対象であるとタグ付けされたポリゴンモデル54のタグ情報とを受信し、描画先バッファ記憶部103の描画先バッファ55にポリゴンモデル54を描画する。 In embodiment 2, the non-applicable drawing target drawing unit 203 receives drawing information and tag information of a polygon model 54 tagged as a non-applicable drawing target from the application determination unit 202, and draws the polygon model 54 in the drawing destination buffer 55 of the drawing destination buffer memory unit 103.

ポリゴンモデル54を描画先バッファ55に描画した描画結果57とポリゴンモデル54とを重畳した図は、実施の形態1の図7と同様である。また、ポリゴンモデル54を描画先バッファ55に描画した描画結果57を示した図は、実施の形態1の図8と同様である。 The diagram showing the rendering result 57 of the polygon model 54 rendered in the rendering destination buffer 55 superimposed on the polygon model 54 is similar to FIG. 7 in the first embodiment. Also, the diagram showing the rendering result 57 of the polygon model 54 rendered in the rendering destination buffer 55 is similar to FIG. 8 in the first embodiment.

不適用描画対象描画部203が描画先バッファに1つの不適用描画対象を描画し終えたら、描画部203は、描画先バッファへの描画の終了の通知を終了判定部206に送信し、ステップS29に進む。When the non-applicable drawing target drawing unit 203 has finished drawing one non-applicable drawing target in the destination buffer, the drawing unit 203 sends a notification of the end of drawing in the destination buffer to the end determination unit 206 and proceeds to step S29.

一方、ステップS25において、算出204は、適用判定部202から描画情報と、適用描画対象である描画対象のタグ情報とを受信し、適用描画対象の面積を算出する。面積の算出方法は、実施の形態1のステップS14と同様である。On the other hand, in step S25, the calculation unit 204 receives the drawing information and the tag information of the drawing object that is the applied drawing object from the application determination unit 202, and calculates the area of the applied drawing object. The method of calculating the area is the same as in step S14 of the first embodiment.

実施の形態2では、算出部204は、適用判定部202から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報とを受信する。あるいは、算出部204は、適用判定部202から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報とを受信する。あるいは、算出部204は、適用判定部202から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを受信する。In the second embodiment, the calculation unit 204 receives from the application determination unit 202 drawing information and tag information of the polygon model 51 tagged as the application drawing target. Alternatively, the calculation unit 204 receives from the application determination unit 202 drawing information and tag information of the polygon model 52 tagged as the application drawing target. Alternatively, the calculation unit 204 receives from the application determination unit 202 drawing information and tag information of the polygon model 53 tagged as the application drawing target.

算出部204は、適用判定部202から受信したタグ情報に記載された適用描画対象の面積を算出する。算出部204は、タグ情報に記載された適用描画対象がポリゴンモデル51であった場合は、ポリゴンモデル51の面積を算出する。算出部204は、例えば、ポリゴンモデル51の面積を0.4ピクセルと算出したとする。The calculation unit 204 calculates the area of the applicable drawing target described in the tag information received from the application determination unit 202. If the applicable drawing target described in the tag information is a polygon model 51, the calculation unit 204 calculates the area of the polygon model 51. For example, the calculation unit 204 calculates the area of the polygon model 51 to be 0.4 pixels.

同様に、算出部204は、タグ情報に記載された適用描画対象がポリゴンモデル52であった場合は、ポリゴンモデル52の面積を算出する。算出部204は、例えば、ポリゴンモデル52の面積を0.7ピクセルと算出したとする。Similarly, when the applicable drawing target described in the tag information is polygon model 52, calculation unit 204 calculates the area of polygon model 52. For example, calculation unit 204 calculates the area of polygon model 52 to be 0.7 pixels.

算出部204は、タグ情報に記載された適用描画対象がポリゴンモデル53であった場合は、ポリゴンモデル53の面積を算出する。算出部204は、例えば、ポリゴンモデル53の面積を1.2ピクセルと算出したとする。以降は、算出部204が算出した適用描画対象の面積を示した情報を、実施の形態1と同様に、面積情報と呼ぶ。 When the applicable drawing target described in the tag information is polygon model 53, calculation unit 204 calculates the area of polygon model 53. For example, calculation unit 204 calculates the area of polygon model 53 to be 1.2 pixels. Hereinafter, information indicating the area of the applicable drawing target calculated by calculation unit 204 will be referred to as area information, as in embodiment 1.

算出部204は、描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象の面積情報とを決定部205に送信し、ステップS26に進む。The calculation unit 204 transmits the drawing information, the tag information of the drawing object that is the applicable drawing object, and the area information of the applicable drawing object to the determination unit 205, and proceeds to step S26.

ステップS26において、決定部205は、算出部204から描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象の面積情報とを受信する。決定部205は、面積情報を用いて、適用描画対象の透過度を表すアルファ値を決定する。アルファ値の決定方法は、実施の形態1のステップS15と同様である。In step S26, the determination unit 205 receives the drawing information, the tag information of the drawing object that is the applied drawing object, and the area information of the applied drawing object from the calculation unit 204. The determination unit 205 uses the area information to determine an alpha value that represents the transparency of the applied drawing object. The method of determining the alpha value is the same as in step S15 of the first embodiment.

実施の形態2では、例えば、決定部205は、算出部204から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、ポリゴンモデル51の面積が0.4ピクセルであるという面積情報とを受信する。ポリゴンモデル51のアルファ値の決定方法は、実施の形態1のステップS15と同様であり、決定部205は、ポリゴンモデル51のアルファ値を0.4に決定する。In the second embodiment, for example, the determination unit 205 receives from the calculation unit 204 the drawing information, the tag information of the polygon model 51 tagged as the applicable drawing target, and the area information indicating that the area of the polygon model 51 is 0.4 pixels. The method of determining the alpha value of the polygon model 51 is the same as in step S15 in the first embodiment, and the determination unit 205 determines the alpha value of the polygon model 51 to be 0.4.

あるいは、決定部205は、算出部204から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、ポリゴンモデル52の面積が0.7ピクセルであるという面積情報とを受信する。ポリゴンモデル52のアルファ値の決定方法は、実施の形態1のステップS15と同様であり、決定部205は、ポリゴンモデル52のアルファ値を0.7に決定する。Alternatively, the determination unit 205 receives from the calculation unit 204 the drawing information, the tag information of the polygon model 52 tagged as the applicable drawing target, and the area information indicating that the area of the polygon model 52 is 0.7 pixels. The method of determining the alpha value of the polygon model 52 is the same as in step S15 of the first embodiment, and the determination unit 205 determines the alpha value of the polygon model 52 to be 0.7.

あるいは、決定部205は、算出部204から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル53の面積が1.2ピクセルであるという面積情報とを受信する。ポリゴンモデル53のアルファ値の決定方法は、実施の形態1のステップS15と同様であり、決定部205は、ポリゴンモデル53のアルファ値を1.0に決定する。以降は、決定部205が決定した適用描画対象のアルファ値を示した情報を、実施の形態1と同様に、アルファ値情報と呼ぶ。 Alternatively, the determination unit 205 receives from the calculation unit 204 the drawing information, tag information of the polygon model 53 tagged as the applicable drawing target, and area information indicating that the area of the polygon model 53 is 1.2 pixels. The method of determining the alpha value of the polygon model 53 is similar to step S15 in the first embodiment, and the determination unit 205 determines the alpha value of the polygon model 53 to be 1.0. Hereinafter, the information indicating the alpha value of the applicable drawing target determined by the determination unit 205 is referred to as alpha value information, as in the first embodiment.

決定部205は、描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象のアルファ値情報とを適用描画対象描画部209に送信し、ステップS27に進む。The determination unit 205 transmits the drawing information, tag information of the drawing target that is the applied drawing target, and alpha value information of the applied drawing target to the applied drawing target drawing unit 209, and proceeds to step S27.

ステップS27において、適用描画対象描画部209は、決定部205から描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象のアルファ値情報とを受信し、詳細バッファ記憶部109の詳細バッファに適用描画対象を描画する。このとき、詳細バッファにアルファ値情報も記憶される。また、適用描画対象描画部209は、詳細バッファに描画されたピクセル数を取得する。描画対象を描画する方法、詳細バッファにアルファ値情報が記憶される方法、詳細バッファに描画されたピクセル数を取得する方法は、実施の形態1のステップS16と同様である。ただし、実施の形態2では、描画処理システム2は、描画対象を1つずつ描画していくため、ポリゴンモデル51とポリゴンモデル52とポリゴンモデル53とは同時には描画されない。In step S27, the applied drawing target drawing unit 209 receives drawing information, tag information of the drawing target that is the applied drawing target, and alpha value information of the applied drawing target from the determination unit 205, and draws the applied drawing target in the detail buffer of the detail buffer storage unit 109. At this time, the alpha value information is also stored in the detail buffer. The applied drawing target drawing unit 209 also obtains the number of pixels drawn in the detail buffer. The method of drawing the drawing target, the method of storing the alpha value information in the detail buffer, and the method of obtaining the number of pixels drawn in the detail buffer are the same as in step S16 in embodiment 1. However, in embodiment 2, the drawing processing system 2 draws the drawing targets one by one, so polygon model 51, polygon model 52, and polygon model 53 are not drawn simultaneously.

実施の形態2では、例えば、適用描画対象描画部209は、決定部205から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、ポリゴンモデル51のアルファ値が0.4であるというアルファ値情報とを受信する。適用描画対象描画部209は、詳細バッファ記憶部109の詳細バッファ56にポリゴンモデル51を描画する。適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と複数のポリゴンモデル51~53とを重畳した図は、実施の形態1の図10と同様である。また、適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58を示した図は、実施の形態1の図11と同様である。適用描画対象描画部209は、描画結果58のピクセルに、ポリゴンモデル51のアルファ値が0.4であるというアルファ値を記憶させる。また、適用描画対象描画部209は、ポリゴンモデル51によって実際に詳細バッファ56が塗りつぶされたピクセル数として1ピクセルという情報を取得する。In the second embodiment, for example, the applied drawing target drawing unit 209 receives drawing information from the determination unit 205, tag information of the polygon model 51 tagged as the applied drawing target, and alpha value information indicating that the alpha value of the polygon model 51 is 0.4. The applied drawing target drawing unit 209 draws the polygon model 51 in the detail buffer 56 of the detail buffer storage unit 109. The drawing result 58 in which the applied drawing target polygon model 51 is drawn in the detail buffer 56 and the multiple polygon models 51 to 53 are superimposed is the same as FIG. 10 in the first embodiment. Also, the drawing result 58 in which the applied drawing target polygon model 51 is drawn in the detail buffer 56 is the same as FIG. 11 in the first embodiment. The applied drawing target drawing unit 209 stores an alpha value indicating that the alpha value of the polygon model 51 is 0.4 in the pixel of the drawing result 58. Furthermore, the applied drawing object drawing unit 209 acquires information that the number of pixels actually filled in the detail buffer 56 by the polygon model 51 is 1 pixel.

あるいは、適用描画対象描画部209は、決定部205から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、ポリゴンモデル52のアルファ値が0.7であるというアルファ値情報とを受信する。適用描画対象描画部209は、詳細バッファ記憶部109の詳細バッファ56にポリゴンモデル52を描画する。しかし、ポリゴンモデル52は、詳細バッファ56のどのピクセルの中心も含まないため、実施の形態1と同様に、描画されず消えてしまう。したがって、適用描画対象描画部209は、詳細バッファ56にポリゴンモデル52を描画する処理をしても、ポリゴンモデル52は描画されないため、何も描画されていない図6の詳細バッファ56のままになってしまう。適用描画対象描画部209は、ポリゴンモデル52によって実際に詳細バッファ56が塗りつぶされたピクセル数として0ピクセルという情報を取得する。Alternatively, the applied drawing target drawing unit 209 receives drawing information from the determination unit 205, tag information of the polygon model 52 tagged as the applied drawing target, and alpha value information indicating that the alpha value of the polygon model 52 is 0.7. The applied drawing target drawing unit 209 draws the polygon model 52 in the detail buffer 56 of the detail buffer storage unit 109. However, since the polygon model 52 does not include the center of any pixel in the detail buffer 56, it is not drawn and disappears, as in the first embodiment. Therefore, even if the applied drawing target drawing unit 209 performs a process of drawing the polygon model 52 in the detail buffer 56, the polygon model 52 is not drawn, and the detail buffer 56 in FIG. 6 remains empty. The applied drawing target drawing unit 209 obtains information that 0 pixels is the number of pixels actually filled in the detail buffer 56 by the polygon model 52.

あるいは、適用描画対象描画部209は、決定部205から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル53のアルファ値が1.0であるというアルファ値情報とを受信する。適用描画対象描画部209は、詳細バッファ記憶部109の詳細バッファ56にポリゴンモデル53を描画する。適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59と複数のポリゴンモデル51~53とを重畳した図は、実施の形態1の図12から適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58を削除した図と同様となる。また、適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59を示した図は、実施の形態1の図13から適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58を削除した図と同様となる。適用描画対象描画部209は、描画結果59のピクセルに、ポリゴンモデル53のアルファ値が1.0であるというアルファ値を記憶させる。また、適用描画対象描画部209は、ポリゴンモデル53によって実際に詳細バッファ56が塗りつぶされたピクセル数として1ピクセルという情報を取得する。以降は、適用描画対象描画部209が取得した適用描画対象によって詳細バッファに描画されたピクセル数を示す情報を、実施の形態1と同様に、ピクセル数情報と呼ぶ。Alternatively, the applied drawing target drawing unit 209 receives drawing information from the determination unit 205, tag information of the polygon model 53 tagged as the applied drawing target, and alpha value information indicating that the alpha value of the polygon model 53 is 1.0. The applied drawing target drawing unit 209 draws the polygon model 53 in the detail buffer 56 of the detail buffer storage unit 109. A drawing result 59 in which the applied drawing target polygon model 53 is drawn in the detail buffer 56 and multiple polygon models 51 to 53 are superimposed is the same as the drawing in FIG. 12 of the first embodiment from which the drawing result 58 in which the applied drawing target polygon model 51 is drawn in the detail buffer 56 is deleted. Also, a drawing showing the drawing result 59 in which the applied drawing target polygon model 53 is drawn in the detail buffer 56 is the same as the drawing in FIG. 13 of the first embodiment from which the drawing result 58 in which the applied drawing target polygon model 51 is drawn in the detail buffer 56 is deleted. The applied drawing target drawing unit 209 stores an alpha value, in which the alpha value of the polygon model 53 is 1.0, in a pixel of the drawing result 59. The applied drawing target drawing unit 209 also acquires information that the number of pixels actually filled in the detail buffer 56 by the polygon model 53 is 1 pixel. Hereinafter, the information indicating the number of pixels drawn in the detail buffer by the applied drawing target acquired by the applied drawing target drawing unit 209 will be referred to as pixel number information, as in the first embodiment.

適用描画対象描画部209は、描画情報と、適用描画対象である描画対象のタグ情報と、アルファ値情報と、ピクセル数情報と、適用描画対象のアルファ値情報とを打点部210に送信し、ステップS28に進む。The applied drawing target drawing unit 209 transmits the drawing information, tag information of the drawing target that is the applied drawing target, alpha value information, pixel count information, and alpha value information of the applied drawing target to the dotting unit 210, and proceeds to step S28.

ステップS28において、打点部210は、適用描画対象描画部209から描画情報と、適用描画対象である描画対象のタグ情報と、アルファ値情報と、ピクセル数情報とを受信する。打点部210は、ピクセル数情報から、適用描画対象が適用描画対象描画部209で描画されず消えてしまった適用描画対象である消失適用描画対象であるかを特定する。打点部210は、適用描画対象が消失適用描画対象であった場合は、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。このとき、詳細バッファにアルファ値情報も記憶される。消失適用描画対象であるかを特定する方法、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する方法、詳細バッファにアルファ値情報を記憶する方法は、実施の形態1のステップS17と同様である。また、打点部210は、適用描画対象が消失適用描画対象でなかった場合は、適用描画対象はすでに詳細バッファに描画されているため、実施の形態1のステップS17と同様に、何もしない。In step S28, the dotting unit 210 receives drawing information, tag information of the drawing target that is the applied drawing target, alpha value information, and pixel number information from the applied drawing target drawing unit 209. The dotting unit 210 determines from the pixel number information whether the applied drawing target is a lost applied drawing target that is an applied drawing target that has disappeared without being drawn by the applied drawing target drawing unit 209. If the applied drawing target is a lost applied drawing target, the dotting unit 210 marks a pixel in the detail buffer corresponding to the position of the lost applied drawing target, and draws the lost applied drawing target in the detail buffer. At this time, alpha value information is also stored in the detail buffer. The method of determining whether the applied drawing target is a lost applied drawing target, the method of marking a pixel in the detail buffer corresponding to the position of the lost applied drawing target, and drawing the lost applied drawing target in the detail buffer, and the method of storing alpha value information in the detail buffer are the same as in step S17 of the first embodiment. Also, if the applied drawing target is not a lost applied drawing target, the dotting unit 210 does nothing, as in step S17 of the first embodiment, since the applied drawing target has already been drawn in the detail buffer.

実施の形態2では、例えば、打点部210は、適用描画対象描画部209から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、ポリゴンモデル51のアルファ値が0.4であるというアルファ値情報と、ポリゴンモデル51によって詳細バッファ56に描画されたピクセル数が1ピクセルであるというピクセル数情報とを受信する。打点部210は、ピクセル数情報から、ポリゴンモデル51のピクセル数情報が1ピクセルであるため、ポリゴンモデル51は消失適用描画対象ではないと特定する。ポリゴンモデル51はすでに詳細バッファに描画されているため、打点部210は、何もしない。In the second embodiment, for example, the dotting unit 210 receives drawing information from the application drawing target drawing unit 209, tag information of the polygon model 51 tagged as the application drawing target, alpha value information indicating that the alpha value of the polygon model 51 is 0.4, and pixel count information indicating that the number of pixels drawn by the polygon model 51 in the detail buffer 56 is 1 pixel. From the pixel count information, the dotting unit 210 determines that the polygon model 51 is not a loss application drawing target because the pixel count information of the polygon model 51 is 1 pixel. Since the polygon model 51 has already been drawn in the detail buffer, the dotting unit 210 does nothing.

あるいは、打点部210は、適用描画対象描画部209から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、ポリゴンモデル52のアルファ値が0.7であるというアルファ値情報と、ポリゴンモデル52によって詳細バッファ56に描画されたピクセル数が0ピクセルであるというピクセル数情報とを受信する。打点部210は、ピクセル数情報から、ポリゴンモデル52のピクセル数情報が0ピクセルであるため、ポリゴンモデル52は消失適用描画対象であると特定する。Alternatively, the dotting unit 210 receives from the application drawing target drawing unit 209 drawing information, tag information of the polygon model 52 tagged as the application drawing target, alpha value information indicating that the alpha value of the polygon model 52 is 0.7, and pixel count information indicating that the number of pixels drawn in the detail buffer 56 by the polygon model 52 is 0 pixels. From the pixel count information, the dotting unit 210 identifies the polygon model 52 as the disappearance application drawing target since the pixel count information of the polygon model 52 is 0 pixels.

打点部210は、実施の形態1のステップS17と同様に、消失適用描画対象を詳細バッファに描画する。適用描画対象のポリゴンモデル52を詳細バッファ56に描画した描画結果60と複数のポリゴンモデル51~53とを重畳した図は、実施の形態1の図14から適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と別の適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59とを削除した図と同様となる。適用描画対象のポリゴンモデル52を詳細バッファ56に描画した描画結果60を示した図は、実施の形態1の図15から適用描画対象のポリゴンモデル51を詳細バッファ56に描画した描画結果58と別の適用描画対象のポリゴンモデル53を詳細バッファ56に描画した描画結果59とを削除した図と同様となる。打点部210は、ポリゴンモデル52のアルファ値情報から、描画結果60を構成する各ピクセルに、ポリゴンモデル52のアルファ値が0.7であるというアルファ値を記憶させる。The dotting unit 210 draws the disappearance application drawing target in the detail buffer, as in step S17 in the first embodiment. The drawing result 60 of the application drawing target polygon model 52 in the detail buffer 56 and the multiple polygon models 51 to 53 are superimposed on each other in the figure shown in FIG. 14 in the first embodiment, with the drawing result 58 of the application drawing target polygon model 51 in the detail buffer 56 and the drawing result 59 of another application drawing target polygon model 53 in the detail buffer 56 deleted. The drawing result 60 of the application drawing target polygon model 52 in the detail buffer 56 is similar to the drawing in FIG. 15 in the first embodiment, with the drawing result 58 of the application drawing target polygon model 51 in the detail buffer 56 and the drawing result 59 of another application drawing target polygon model 53 in the detail buffer 56 deleted. The dotting section 210 stores, based on the alpha value information of the polygon model 52, an alpha value that the alpha value of the polygon model 52 is 0.7 in each pixel that constitutes the drawing result 60.

あるいは、打点部210は、適用描画対象描画部209から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル53のアルファ値が1.0であるというアルファ値情報と、ポリゴンモデル53によって詳細バッファ56に描画されたピクセル数が1ピクセルであるというピクセル数情報とを受信する。打点部210は、ピクセル数情報から、ポリゴンモデル53のピクセル数情報が1ピクセルであるため、ポリゴンモデル53は消失適用描画対象ではないと特定する。ポリゴンモデル53はすでに詳細バッファに描画されているため、打点部210は、何もしない。 Alternatively, the dotting unit 210 receives drawing information from the application drawing target drawing unit 209, tag information of the polygon model 53 tagged as the application drawing target, alpha value information indicating that the alpha value of the polygon model 53 is 1.0, and pixel count information indicating that the number of pixels drawn by the polygon model 53 in the detail buffer 56 is 1 pixel. From the pixel count information, the dotting unit 210 determines that the polygon model 53 is not a loss application drawing target because the pixel count information of the polygon model 53 is 1 pixel. Since the polygon model 53 has already been drawn in the detail buffer, the dotting unit 210 does nothing.

打点部210は、詳細バッファへの描画の終了の通知を終了判定部206に送信し、ステップS29に進む。The dotting unit 210 sends a notification of the end of drawing to the detail buffer to the end determination unit 206 and proceeds to step S29.

ステップS29において、終了判定部206は、不適用描画対象描画部203から描画先バッファへの描画の終了の通知を受信、あるいは打点部210から詳細バッファへの描画の終了の通知を受信した場合、描画先バッファに描画すべき描画対象が他にあるか否かを判定する。In step S29, when the end determination unit 206 receives a notification of the end of drawing to the destination buffer from the non-applicable drawing object drawing unit 203, or a notification of the end of drawing to the detail buffer from the dotting unit 210, it determines whether there are any other drawing objects to be drawn in the destination buffer.

終了判定部206は、まだ不適用描画対象描画部203、適用描画対象描画部209、あるいは打点部210にて描画の処理をする描画処理をしておらず、描画先バッファに描画すべき描画対象がある場合は、ステップS29:Yesとなる。終了判定部206は、不適用描画対象描画部203から描画先バッファへの描画の終了の通知を受信し、かつ描画先バッファに描画すべき描画対象がまだある場合は、ステップS23に戻って、描画処理をしていない描画対象を描画処理する。 If the end determination unit 206 has not yet performed drawing processing in the non-applicable drawing object drawing unit 203, the applicable drawing object drawing unit 209, or the dotting unit 210, and there is a drawing object to be drawn in the drawing destination buffer, the result is step S29: Yes. If the end determination unit 206 receives a notification of the end of drawing to the drawing destination buffer from the non-applicable drawing object drawing unit 203, and there is still a drawing object to be drawn in the drawing destination buffer, the process returns to step S23 and performs drawing processing on the drawing object that has not yet been drawn.

終了判定部206は、打点部210から詳細バッファへの描画の終了の通知を受信し、かつ描画先バッファに描画すべき描画対象がまだある場合は、蓄積記憶部208に詳細バッファ記憶部109に記憶させていた描画処理をした詳細バッファを記憶させ、詳細バッファ記憶部109に新しい詳細バッファを作成できるようにしてから、ステップS23に戻って、描画処理装置200は描画処理をしていない描画対象を描画処理する。 When the completion determination unit 206 receives a notification from the dotting unit 210 that drawing to the detail buffer has been completed, and if there are still drawing objects to be drawn in the destination buffer, it stores in the accumulation memory unit 208 the detail buffer that has undergone drawing processing that was stored in the detail buffer memory unit 109, and makes it possible to create a new detail buffer in the detail buffer memory unit 109. Then, the process returns to step S23, and the drawing processing device 200 performs drawing processing on the drawing objects that have not yet been drawn.

一方、終了判定部206は、まだ描画処理をしておらず、描画先バッファに描画すべき描画対象がない場合は、ステップS29:Noとなる。終了判定部206は、蓄積記憶部208に記憶させた詳細バッファのすべてを一括でブレンド処理部207に送信し、ステップS30に進む。On the other hand, if the completion determination unit 206 has not yet performed the drawing process and there is no drawing target to be drawn in the drawing destination buffer, the result is step S29: No. The completion determination unit 206 transmits all of the detailed buffers stored in the accumulation memory unit 208 to the blend processing unit 207 in a lump, and proceeds to step S30.

実施の形態2では、終了判定部206は、ポリゴンモデル51と、ポリゴンモデル52と、ポリゴンモデル53と、ポリゴンモデル54とのうち、1つでも描画処理をしていないものがある場合は、ステップS29:Yesとなる。終了判定部206は、ポリゴンモデル54の描画処理がされ、不適用描画対象描画部203から描画先バッファへの描画の終了の通知を受信し、かつ描画先バッファに描画すべき描画対象がまだある場合は、ステップS23に戻って、描画処理をしていない描画対象を描画処理する。In the second embodiment, if there is any one of polygon model 51, polygon model 52, polygon model 53, and polygon model 54 that has not been subjected to the rendering process, the termination determination unit 206 returns to step S29: Yes. If the rendering process of polygon model 54 is performed, the termination determination unit 206 receives a notification from the non-applicable rendering object rendering unit 203 that rendering to the rendering destination buffer has been completed, and there is still a rendering object to be rendered in the rendering destination buffer, the termination determination unit 206 returns to step S23 and performs rendering of the rendering object that has not been subjected to the rendering process.

終了判定部206は、ポリゴンモデル51~53のいずれかの描画処理がされ、打点部210から詳細バッファへの描画の終了の通知を受信し、かつ描画先バッファに描画すべき描画対象がまだある場合は、蓄積記憶部208に詳細バッファ記憶部109に記憶させていたポリゴンモデル51~53のいずれかが描画された詳細バッファを記憶させ、詳細バッファ記憶部109に新しい詳細バッファを作成できるようにしてから、ステップS23に戻って、描画処理をしていない描画対象を描画処理する。When the completion determination unit 206 receives a notification from the dotting unit 210 that the drawing of any of the polygon models 51 to 53 has been completed, and there is still a drawing object to be drawn in the drawing destination buffer, it causes the accumulation memory unit 208 to store the detail buffer in which any of the polygon models 51 to 53 stored in the detail buffer memory unit 109 has been drawn, and makes it possible to create a new detail buffer in the detail buffer memory unit 109, and then returns to step S23 to perform the drawing process of the drawing object that has not yet been drawn.

一方、終了判定部206は、ポリゴンモデル51~54のすべての描画処理をした場合は、ステップS29:Noとなる。終了判定部206は、蓄積記憶部208に記憶させたポリゴンモデル51~53がそれぞれ描画された各詳細バッファのすべてを一括でブレンド処理部207に送信し、ステップS30に進む。On the other hand, if the completion determination unit 206 has completed the rendering process for all of the polygon models 51 to 54, the result of step S29 is No. The completion determination unit 206 transmits all of the detailed buffers in which the polygon models 51 to 53 stored in the accumulation memory unit 208 have been rendered to the blend processing unit 207 in a batch, and proceeds to step S30.

ステップS30において、ブレンド処理部207は、終了判定部206から適用描画対象がそれぞれ描画された各詳細バッファのすべてを一括で受信する。実施の形態1では、ブレンド処理部110は、詳細バッファ1つと描画先バッファとをアルファブレンドしたが、実施の形態2では、ブレンド処理部207は、複数の詳細バッファと描画先バッファとをアルファブレンドする。具体的には、ブレンド処理部207は、詳細バッファ1つと描画先バッファとをアルファブレンドする処理を詳細バッファの数だけ順番に行う。アルファブレンドの方法は、実施の形態1のステップS18と同様である。全てのポリゴンモデルを描画先バッファ55に描画した描画結果を示した図は、実施の形態1の図16と同様である。In step S30, the blending processing unit 207 receives all of the detail buffers in which the applicable drawing target has been drawn from the end determination unit 206 at once. In the first embodiment, the blending processing unit 110 alpha-blends one detail buffer with the drawing destination buffer, but in the second embodiment, the blending processing unit 207 alpha-blends multiple detail buffers with the drawing destination buffer. Specifically, the blending processing unit 207 performs the process of alpha-blending one detail buffer with the drawing destination buffer in sequence for the number of detail buffers. The alpha-blending method is the same as in step S18 in the first embodiment. The drawing result in which all polygon models are drawn in the drawing destination buffer 55 is the same as in FIG. 16 in the first embodiment.

ブレンド処理部207は、アルファブレンドの終了の通知を出力制御部111に送信し、ステップS31に進む。それ以外は、ステップS30は、実施の形態1のステップS18と同様である。The blending processing unit 207 sends a notification of the end of alpha blending to the output control unit 111 and proceeds to step S31. Otherwise, step S30 is the same as step S18 in embodiment 1.

ステップS31において、出力制御部111は、ブレンド処理部207からアルファブレンドの終了の通知を受信する。それ以外は、ステップS31は、実施の形態1のステップS19と同様である。In step S31, the output control unit 111 receives a notification of the end of alpha blending from the blend processing unit 207. Otherwise, step S31 is the same as step S19 in embodiment 1.

ステップS31を実行した後もステップS21に戻り、電源をOFFにすること、あるいは終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。なお、上記のような処理を繰り返すとしたが、繰り返さず一回行うだけでもよい。After step S31 is executed, the process returns to step S21, and the above-described process is repeated until a trigger for terminating the process occurs, such as turning off the power or performing an end operation. Note that although the above-described process is repeated, it may be performed only once without repeating the process.

以上述べたように、実施の形態2の描画処理システム2は、適用判定部202によって不適用描画対象と判定された描画対象を、不適用描画対象描画部203が描画先バッファ記憶部103に記憶されている描画先バッファに描画し、算出部204が適用判定部202によって適用描画対象と判定された描画対象の面積を算出し、決定部205が算出した面積から適用描画対象のアルファ値を決定し、適用描画対象描画部209が描画先バッファとは異なるバッファである詳細バッファに適用描画対象を描画し、打点部210が適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打つことで適用描画対象を詳細バッファに描画し、ブレンド処理部207が適用描画対象のアルファ値で描画先バッファに詳細バッファをアルファブレンドし、出力制御部111が出力装置5に描画先バッファに描画されたシーンを出力するよう制御するため、ピクセルの中心に描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示させることができる。As described above, in the drawing processing system 2 of the second embodiment, the non-applicable drawing target drawing unit 203 draws the drawing target determined by the application determination unit 202 to be an applicable drawing target in the drawing destination buffer stored in the drawing destination buffer memory unit 103, the calculation unit 204 calculates the area of the drawing target determined by the application determination unit 202 to be an applicable drawing target, the determination unit 205 determines the alpha value of the applicable drawing target from the calculated area, the applicable drawing target drawing unit 209 draws the applicable drawing target in the detail buffer, which is a buffer different from the drawing destination buffer, the dotting unit 210 draws the applicable drawing target in the detail buffer by dotting pixels in the detail buffer corresponding to the position of the applicable drawing target, the blending processing unit 207 alpha-blends the detail buffer with the alpha value of the applicable drawing target, and the output control unit 111 controls the output device 5 to output the scene drawn in the drawing destination buffer. Therefore, even if the drawing target is not located at the center of the pixel, the drawing target can be drawn and displayed on the display screen.

また、実施の形態2においては、描画処理システム2は、入力装置6が受け付けるのは描画情報の入力だけであり、取得部201が入力装置6から描画情報を取得し、適用判定部202が描画情報から描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定する。当該判定により、ユーザーなどがタグ情報を入力装置6に入力する必要がなく、描画処理システム2が自動で描画対象が適用描画対象と不適用描画対象とのいずれであるかを判定するため、ユーザーの負荷を低減できる。 In addition, in the second embodiment, the drawing processing system 2 has the input device 6 only accept input of drawing information, the acquisition unit 201 acquires the drawing information from the input device 6, and the application determination unit 202 determines from the drawing information whether the drawing target is an applied drawing target or a non-applied drawing target. This determination eliminates the need for a user or the like to input tag information into the input device 6, and the drawing processing system 2 automatically determines whether the drawing target is an applied drawing target or a non-applied drawing target, thereby reducing the burden on the user.

なお、実施の形態2のステップS23において、例えば、適用判定部202は、描画対象の面積sを算出して、面積sが予め定めて記憶しておいた閾値X未満か否かを判定したが、描画対象ごとの輝度値、重要度などで描画対象ごとに閾値を変動させてもよい。例えば、描画対象の輝度値が閾値Yよりも低い場合は、輝度が低いとして閾値Xを小さくし、描画対象の輝度値が閾値Yよりも高い場合は、輝度が高いとして閾値Xを大きくする。当該閾値Xの変更をすることで、輝度が低い描画対象は、より面積が小さくても適用描画対象とならないため、不適用描画対象と判定される確率が高くなり、描画処理負荷を低減させることができる。一方、輝度が高い描画対象は、より面積が大きくないと不適用描画対象とならないため、適用描画対象と判定される確率が高くなり、より消えにくくなる。同様に、例えば、描画対象に予め重要度が付与されている場合、描画対象の重要度が閾値Zよりも低い場合は、重要度が低いとして閾値Xを小さくし、描画対象の重要度が閾値Zよりも高い場合は、重要度が高いとして閾値Xを大きくする。当該閾値Xの変更をすることで、重要度が低い描画対象は、より面積が小さくても適用描画対象とならないため、不適用描画対象と判定される確率が高くなり、描画処理負荷を低減させることができる。一方、重要度が高い描画対象は、より面積が大きくないと不適用描画対象とならないため、適用描画対象と判定される確率が高くなり、より消えにくくなる。 In step S23 of the second embodiment, for example, the application determination unit 202 calculates the area s of the drawing object and determines whether the area s is less than the threshold value X that has been previously determined and stored. However, the threshold value may be changed for each drawing object based on the brightness value, importance, etc. of each drawing object. For example, if the brightness value of the drawing object is lower than the threshold Y, the brightness is determined to be low and the threshold X is reduced, and if the brightness value of the drawing object is higher than the threshold Y, the brightness is determined to be high and the threshold X is increased. By changing the threshold X, a drawing object with low brightness will not be an applicable drawing object even if its area is smaller, so the probability of it being determined to be a non-applicable drawing object increases, and the drawing processing load can be reduced. On the other hand, a drawing object with high brightness will not be an non-applicable drawing object unless its area is larger, so the probability of it being determined to be a applicable drawing object increases and it becomes more difficult to disappear. Similarly, for example, if importance is given to the drawing object in advance, if the importance of the drawing object is lower than the threshold Z, the threshold X is reduced as the importance is low, and if the importance of the drawing object is higher than the threshold Z, the threshold X is increased as the importance is high. By changing the threshold value X, a drawing target with low importance will not be an applied drawing target even if its area is smaller, so the probability of it being determined as a non-applied drawing target increases, and the drawing processing load can be reduced. On the other hand, a drawing target with high importance will not be an applied drawing target unless its area is larger, so the probability of it being determined as a applied drawing target increases, and it becomes more difficult to disappear.

実施の形態2において、描画処理システム2は、蓄積記憶部208を備えており、終了判定部206は、描画先バッファに描画すべき描画対象がまだある場合は、蓄積記憶部208に詳細バッファ記憶部109に記憶させていた描画処理をした詳細バッファを記憶させ、詳細バッファ記憶部109に新しい詳細バッファを作成できるようにしてから、描画処理装置200は描画処理をしていない描画対象を描画処理するようにしていた。しかし、描画処理システム2は、蓄積記憶部208を備えず、描画処理装置200は、詳細バッファ記憶部109に記憶されている描画処理をした詳細バッファに上書き保存していくように、描画処理をしていない描画対象を描画処理するようにしてもよい。In the second embodiment, the drawing processing system 2 includes an accumulation storage unit 208, and when there is still a drawing object to be drawn in the drawing destination buffer, the end determination unit 206 stores the detailed buffer that has been subjected to drawing processing stored in the detail buffer storage unit 109 in the accumulation storage unit 208, and after a new detailed buffer can be created in the detail buffer storage unit 109, the drawing processing device 200 performs drawing processing on the drawing object that has not been subjected to drawing processing. However, the drawing processing system 2 does not include the accumulation storage unit 208, and the drawing processing device 200 may perform drawing processing on the drawing object that has not been subjected to drawing processing by overwriting and saving the detailed buffer that has been subjected to drawing processing stored in the detail buffer storage unit 109.

実施の形態3.
実施の形態1では、描画処理システム1は、作成部102が詳細バッファ記憶部109に描画先バッファと同じ解像度の詳細バッファを1つ作成し、適用描画対象描画部108あるいは打点部112が当該詳細バッファに適用描画対象すべてを描画した。実施の形態3では、図20~図31に示すように、割り当て作成部302が詳細バッファ記憶部303に適用描画対象ごとの範囲に対応した詳細バッファを作成し、適用描画対象描画部108あるいは打点部112が適用描画対象の範囲に対応した詳細バッファに当該適用描画対象を描画する。
Embodiment 3.
In the first embodiment, in the drawing processing system 1, the creation unit 102 creates one detailed buffer with the same resolution as the drawing destination buffer in the detailed buffer storage unit 109, and the applied drawing object drawing unit 108 or the dotting unit 112 draws all the applied drawing objects in the detailed buffer. In the third embodiment, as shown in Figs. 20 to 31, the allocation creation unit 302 creates a detailed buffer in the detailed buffer storage unit 303 corresponding to the range of each applied drawing object, and the applied drawing object drawing unit 108 or the dotting unit 112 draws the applied drawing object in the detailed buffer corresponding to the range of the applied drawing object.

当該描画により、適用描画対象の描画に使用しない範囲の割合が高い場合に、適用描画対象の範囲に対応した詳細バッファを作成するだけでいいため、無駄にバッファを作成する必要がなく、メモリの使用量を低減することができる。それ以外は、実施の形態1と同様である。以下の説明において実施の形態1で説明した構成及び動作については、同一符号を付して、重複する説明を省略する。 When the proportion of the range not used in drawing the applicable drawing target is high due to this drawing, it is only necessary to create a detailed buffer corresponding to the range of the applicable drawing target, so there is no need to create buffers unnecessarily and memory usage can be reduced. Other than that, it is the same as in embodiment 1. In the following explanation, the configuration and operation explained in embodiment 1 are given the same reference numerals and duplicate explanations are omitted.

実施の形態3でも実施の形態1と同様に、一例として、シーン全体の描画の情報である描画情報内に、ピクセルの中心に描画対象が位置していない描画対象がある場合について、本開示を適用した場合を以下に説明する。As in embodiment 1, in embodiment 3, as an example, a case in which the present disclosure is applied to a case in which the drawing information, which is information about the drawing of the entire scene, contains a drawing target that is not located at the center of a pixel is described below.

図20は、実施の形態3に係る描画処理装置300を含む描画処理システム3のブロック図である。描画処理システム3は、描画情報に含まれる各描画対象において詳細描画処理を適用するか否かのタグ情報と描画情報とが入力される入力装置4と、描画情報とタグ情報とを用いて、描画情報を描画する処理を行う描画処理装置300と、描画処理装置300で処理されたシーンを出力する出力装置5とを備えている。 Figure 20 is a block diagram of a drawing processing system 3 including a drawing processing device 300 according to embodiment 3. The drawing processing system 3 includes an input device 4 to which tag information indicating whether detailed drawing processing is to be applied to each drawing target included in the drawing information and the drawing information are input, a drawing processing device 300 that performs processing to draw the drawing information using the drawing information and the tag information, and an output device 5 that outputs the scene processed by the drawing processing device 300.

実施の形態3では、実施の形態1の図1の作成部102と、詳細バッファ記憶部109と、適用描画対象描画部108と、打点部112と、ブレンド処理部110の代わりに、作成部301と、詳細バッファ記憶部303と、適用描画対象描画部304と、打点部305と、ブレンド処理部306と、割り当て作成部302とが機能ブロック図の構成として加わる。In embodiment 3, instead of the creation unit 102, detail buffer memory unit 109, applied drawing target drawing unit 108, dotting unit 112, and blending processing unit 110 in FIG. 1 of embodiment 1, a creation unit 301, a detail buffer memory unit 303, an applied drawing target drawing unit 304, dotting unit 305, a blending processing unit 306, and an allocation creation unit 302 are added as components of the functional block diagram.

描画処理装置300は、入力装置4から描画対象を含む描画情報とタグ情報とを取得する取得部101と、描画先バッファを作成する作成部301と、タグ情報を用いて描画対象を詳細描画処理するか否かによって、描画対象が、描画先バッファに描画される不適用描画対象と、描画先バッファとは異なるバッファである詳細バッファに描画される適用描画対象とのいずれであるかを判定する適用判定部106と、詳細描画処理を適用しないとタグ付けされた不適用描画対象を描画先バッファに描画する不適用描画対象描画部107と、詳細描画処理を適用するとタグ付けされた適用描画対象の範囲に対応した詳細バッファをそれぞれ作成する割り当て作成部302と、詳細描画処理を適用するとタグ付けされた適用描画対象の面積を算出する算出部104と、算出した面積から適用描画対象のアルファ値を決定する決定部105と、詳細バッファに適用描画対象を描画し、描画されたピクセル数を取得する適用描画対象描画部304と、適用描画対象ごとに取得した描画されたピクセル数から、詳細バッファに描画されず、消失してしまった適用描画対象である消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する打点部305と、詳細バッファで塗られたピクセルに対応して、消失適用描画対象を含む適用描画対象のアルファ値で消失適用描画対象を含む適用描画対象のRGB値をアルファブレンドすることにより、消失適用描画対象を含む適用描画対象を描画先バッファに描画するブレンド処理部306と、出力装置5に描画先バッファに描画されたシーンを出力するよう制御する出力制御部111と、描画先バッファを記憶する描画先バッファ記憶部103と、詳細バッファを記憶する詳細バッファ記憶部303とを備えている。なお、不適用描画対象描画部107は、第一の描画対象描画部に対応し、適用描画対象描画部304は、第二の描画対象描画部に対応する。The drawing processing device 300 includes an acquisition unit 101 that acquires drawing information and tag information including a drawing target from the input device 4, a creation unit 301 that creates a drawing destination buffer, an application determination unit 106 that uses the tag information to determine whether the drawing target is a non-applicable drawing target to be drawn in the drawing destination buffer or an applicable drawing target to be drawn in a detailed buffer that is a buffer different from the drawing destination buffer, depending on whether or not the drawing target is to be subjected to detailed drawing processing, a non-applicable drawing target drawing unit 107 that draws a non-applicable drawing target tagged as not to be subjected to detailed drawing processing in the drawing destination buffer, an allocation creation unit 302 that creates detailed buffers corresponding to the range of an applicable drawing target tagged as being subjected to detailed drawing processing, a calculation unit 104 that calculates the area of an applicable drawing target tagged as being subjected to detailed drawing processing, a determination unit 105 that determines the alpha value of the applicable drawing target from the calculated area, and a detailed buffer that draws the applicable drawing target in the detailed buffer. the applied drawing object drawing unit 304 for calculating the number of pixels drawn and acquiring the number of pixels drawn, a dotting unit 305 for identifying a lost applied drawing object which is an applied drawing object that has not been drawn in the detail buffer and has disappeared from the number of pixels drawn acquired for each applied drawing object, and for drawing the lost applied drawing object in the detail buffer by dotting a pixel in the detail buffer corresponding to the position of the lost applied drawing object, a blending processing unit 306 for drawing the applied drawing object including the lost applied drawing object in the drawing destination buffer by alpha-blending the RGB values of the applied drawing object including the lost applied drawing object with the alpha value of the applied drawing object including the lost applied drawing object in response to the pixel painted in the detail buffer, an output control unit 111 for controlling the output device 5 to output the scene drawn in the drawing destination buffer, a drawing destination buffer storage unit 103 for storing the drawing destination buffer, and a detail buffer storage unit 303 for storing the detail buffer. Note that the non-applied drawing object drawing unit 107 corresponds to the first drawing object drawing unit, and the applied drawing object drawing unit 304 corresponds to the second drawing object drawing unit.

次に、実施の形態3に係る描画処理システム3のハードウェア構成について説明する。描画処理システム3のハードウェア構成図は、実施の形態1の図2と同様である。Next, we will explain the hardware configuration of the drawing processing system 3 in embodiment 3. The hardware configuration diagram of the drawing processing system 3 is the same as Figure 2 in embodiment 1.

ただし、作成部301のハードウェア構成は作成部102と同様である。詳細バッファ記憶部303のハードウェア構成は詳細バッファ記憶部109と同様である。適用描画対象描画部304のハードウェア構成は適用描画対象描画部108と同様である。打点部305のハードウェア構成は打点部112と同様である。ブレンド処理部306のハードウェア構成はブレンド処理部110と同様である。割り当て作成部302は、グラフィックメモリ45に記憶するプログラムによって実現され、GPU44がグラフィックメモリ45にロードしたプログラムを読み込み、実行することにより実現する。なお、グラフィックメモリ45は、割り当て作成部302の機能と他の部の機能とのそれぞれを別々のメモリで実現してもよい。 However, the hardware configuration of the creation unit 301 is the same as that of the creation unit 102. The hardware configuration of the detail buffer memory unit 303 is the same as that of the detail buffer memory unit 109. The hardware configuration of the applied drawing target drawing unit 304 is the same as that of the applied drawing target drawing unit 108. The hardware configuration of the dot unit 305 is the same as that of the dot unit 112. The hardware configuration of the blend processing unit 306 is the same as that of the blend processing unit 110. The allocation creation unit 302 is realized by a program stored in the graphics memory 45, and is realized by the GPU 44 reading and executing the program loaded into the graphics memory 45. Note that the graphics memory 45 may realize the functions of the allocation creation unit 302 and the functions of the other units in separate memories.

次に、描画処理システム3及び描画処理装置300の動作について説明する。 Next, the operation of the drawing processing system 3 and the drawing processing device 300 will be described.

本開示の実施の形態3に係る描画処理システム3の動作を示すフローチャートは、実施の形態1の図3と同様である。 The flowchart showing the operation of the drawing processing system 3 relating to embodiment 3 of the present disclosure is similar to Figure 3 of embodiment 1.

図21は、本開示の実施の形態3に係る描画処理装置300の動作を示すフローチャートである。図21を用いて、描画処理装置300の動作を以下に説明する。 Figure 21 is a flowchart showing the operation of the drawing processing device 300 according to embodiment 3 of the present disclosure. The operation of the drawing processing device 300 will be described below with reference to Figure 21.

ステップS41において、取得部101は、描画情報とタグ情報とを作成部301に送信し、ステップS42に進む。それ以外は、ステップS41は、実施の形態1のステップS11と同様である。In step S41, the acquisition unit 101 transmits the drawing information and the tag information to the creation unit 301, and proceeds to step S42. Otherwise, step S41 is the same as step S11 in the first embodiment.

ステップS42において、作成部301は、描画先バッファのみを作成し、詳細バッファを作成しない。作成部301は、描画情報とタグ情報とを適用判定部106に送信し、ステップS43に進む。それ以外は、ステップS42は、実施の形態1のステップS12と同様である。In step S42, the creation unit 301 creates only a drawing destination buffer and does not create a detail buffer. The creation unit 301 transmits the drawing information and tag information to the application determination unit 106 and proceeds to step S43. Otherwise, step S42 is the same as step S12 in the first embodiment.

ステップS43において、適用判定部106は、作成部301から描画情報とタグ情報とを受信する。不適用描画対象描画部107は、描画先バッファへの描画の終了の通知を適用処理部106とブレンド処理部306に送信し、ステップS44に進む。それ以外は、ステップS43は、実施の形態1のステップS13と同様である。In step S43, the application determination unit 106 receives drawing information and tag information from the creation unit 301. The non-applied drawing target drawing unit 107 sends a notification of the end of drawing to the drawing destination buffer to the application processing unit 106 and the blending processing unit 306, and proceeds to step S44. Otherwise, step S43 is the same as step S13 in embodiment 1.

ステップS44において、適用判定部106は、不適用描画対象描画部107から描画先バッファへの描画の終了の通知を受信すると、描画情報と、適用描画対象である描画対象のタグ情報とを割り当て作成部302に送信する。In step S44, when the application determination unit 106 receives a notification of the end of drawing to the drawing destination buffer from the non-applied drawing target drawing unit 107, it transmits the drawing information and tag information of the drawing target that is the applied drawing target to the allocation creation unit 302.

実施の形態3では、適用判定部106は、図4の描画情報に対して、描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを割り当て作成部302に送信する。 In embodiment 3, the application determination unit 106 transmits to the allocation creation unit 302 the drawing information of Figure 4, the tag information of polygon model 51 tagged as an application drawing target, the tag information of polygon model 52 tagged as an application drawing target, and the tag information of polygon model 53 tagged as an application drawing target.

割り当て作成部302は、適用判定部106から描画情報と、適用描画対象である描画対象のタグ情報とを受信し、詳細バッファ記憶部303に適用描画対象ごとに対応する詳細バッファを作成する。各詳細バッファには、対応する各適用描画対象が描画されることになる。なお、詳細バッファは、描画先バッファと同じ解像度である。また、割り当て作成部302は、各詳細バッファが描画先バッファのどこの位置に対応するかという情報である位置情報を作成し、各詳細バッファに記憶させる。The allocation creation unit 302 receives drawing information and tag information of the drawing target that is the applicable drawing target from the application determination unit 106, and creates a corresponding detailed buffer for each applicable drawing target in the detail buffer storage unit 303. Each corresponding applicable drawing target is drawn in each detailed buffer. Note that the detail buffer has the same resolution as the destination buffer. The allocation creation unit 302 also creates position information, which is information about which position in the destination buffer each detailed buffer corresponds to, and stores this in each detailed buffer.

実施の形態3では、割り当て作成部302は、適用判定部106から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを受信する。割り当て作成部302は、詳細バッファ記憶部303にポリゴンモデル51に対応する詳細バッファ64を作成する。また、割り当て作成部302は、詳細バッファ記憶部303にポリゴンモデル52に対応する詳細バッファ65を作成する。さらに、割り当て作成部302は、詳細バッファ記憶部303にポリゴンモデル53に対応する詳細バッファ66を作成する。詳細バッファ64には、ポリゴンモデル51が、詳細バッファ65には、ポリゴンモデル52が、詳細バッファ66には、ポリゴンモデル53が、それぞれ描画されることになる。なお、詳細バッファ64~66は、描画先バッファ55と同じ解像度である。In the third embodiment, the allocation creation unit 302 receives from the application determination unit 106 the drawing information, the tag information of the polygon model 51 tagged as the application drawing target, the tag information of the polygon model 52 tagged as the application drawing target, and the tag information of the polygon model 53 tagged as the application drawing target. The allocation creation unit 302 creates a detail buffer 64 corresponding to the polygon model 51 in the detail buffer storage unit 303. The allocation creation unit 302 also creates a detail buffer 65 corresponding to the polygon model 52 in the detail buffer storage unit 303. The allocation creation unit 302 also creates a detail buffer 66 corresponding to the polygon model 53 in the detail buffer storage unit 303. The polygon model 51 is drawn in the detail buffer 64, the polygon model 52 in the detail buffer 65, and the polygon model 53 in the detail buffer 66. The detail buffers 64 to 66 have the same resolution as the drawing destination buffer 55.

図22は、実施の形態3の適用描画対象のポリゴンモデル51~53に対応する詳細バッファ64~66と実施の形態1の詳細バッファ56との対比関係を示した図である。実施の形態3では、詳細バッファ64~66は、実施の形態1と同じ描画先バッファ55と同じ解像度であるとする。つまり、実施の形態1の詳細バッファ56と、実施の形態3の詳細バッファ64~66とは、同じ解像度であるとする。 Figure 22 is a diagram showing a comparison between the detail buffers 64-66 corresponding to the polygon models 51-53 to be applied in embodiment 3 and the detail buffer 56 in embodiment 1. In embodiment 3, the detail buffers 64-66 have the same resolution as the rendering destination buffer 55, which is the same as in embodiment 1. In other words, the detail buffer 56 in embodiment 1 and the detail buffers 64-66 in embodiment 3 have the same resolution.

ここで、実施の形態1の詳細バッファ56は、縦が8ピクセルで、横が8ピクセルの合計64ピクセルである。一方、実施の形態3の詳細バッファ64は、縦が3ピクセルで、横が3ピクセルの合計9ピクセルである。詳細バッファ65は、縦が2ピクセルで、横が3ピクセルの合計6ピクセルである。詳細バッファ66は、縦が3ピクセルで、横が3ピクセルの合計36ピクセルである。実施の形態3では、詳細バッファ64~66以外の範囲の詳細バッファは作成しないため、実施の形態1よりも作成する詳細バッファの大きさが小さくなり、メモリの使用量を低減することができる。 Here, the detail buffer 56 in embodiment 1 is 8 pixels high and 8 pixels wide, for a total of 64 pixels. Meanwhile, the detail buffer 64 in embodiment 3 is 3 pixels high and 3 pixels wide, for a total of 9 pixels. The detail buffer 65 is 2 pixels high and 3 pixels wide, for a total of 6 pixels. The detail buffer 66 is 3 pixels high and 3 pixels wide, for a total of 36 pixels. In embodiment 3, no detail buffers are created outside of the detail buffers 64 to 66, so the size of the detail buffers created is smaller than in embodiment 1, making it possible to reduce memory usage.

図23は、実施の形態3の適用描画対象のポリゴンモデル51に対応する詳細バッファ64と別の適用描画対象のポリゴンモデル52に対応する別の詳細バッファ65とさらに別の適用描画対象のポリゴンモデル53に対応するさらに別の詳細バッファ66とを示した図である。 Figure 23 is a diagram showing a detail buffer 64 corresponding to a polygon model 51 that is the target of application drawing in embodiment 3, another detail buffer 65 corresponding to a polygon model 52 that is another target of application drawing, and a further detail buffer 66 corresponding to a polygon model 53 that is yet another target of application drawing.

また、割り当て作成部302は、詳細バッファ64が描画先バッファ55のどこの位置に対応するかという情報である位置情報67と、詳細バッファ65が描画先バッファ55のどこの位置に対応するかという情報である位置情報68と、詳細バッファ66が描画先バッファ55のどこの位置に対応するかという情報である位置情報69とを作成する。割り当て作成部302は、詳細バッファ64に位置情報67を、詳細バッファ65に位置情報68を、詳細バッファ66に位置情報69を記憶させる。 Also, the allocation creation unit 302 creates position information 67, which is information regarding which position in the drawing destination buffer 55 the detail buffer 64 corresponds to, position information 68, which is information regarding which position in the drawing destination buffer 55 the detail buffer 65 corresponds to, and position information 69, which is information regarding which position in the drawing destination buffer 55 the detail buffer 66 corresponds to. The allocation creation unit 302 stores the position information 67 in the detail buffer 64, the position information 68 in the detail buffer 65, and the position information 69 in the detail buffer 66.

図24は、詳細バッファ64が描画先バッファ55のどこの位置に対応するかという情報である位置情報67を模擬的に示した図である。描画先バッファ55上の点線の範囲64が詳細バッファ64の位置に対応する。 Figure 24 is a diagram showing an example of position information 67, which is information about which position in the destination buffer 55 the detail buffer 64 corresponds to. The dotted line area 64 on the destination buffer 55 corresponds to the position of the detail buffer 64.

図25は、別の詳細バッファ65が描画先バッファ55のどこの位置に対応するかという情報である位置情報68を模擬的に示した図である。描画先バッファ55上の点線の範囲65が詳細バッファ65の位置に対応する。 Figure 25 is a diagram showing an example of position information 68, which is information indicating which position in the destination buffer 55 another detail buffer 65 corresponds to. The dotted range 65 on the destination buffer 55 corresponds to the position of the detail buffer 65.

図26は、さらに別の詳細バッファ66が描画先バッファ55のどこの位置に対応するかという情報である位置情報69を模擬的に示した図である。描画先バッファ55上の点線の範囲66が詳細バッファ66の位置に対応する。 Figure 26 is a diagram showing an example of position information 69, which is information indicating which position in the destination buffer 55 a further detailed buffer 66 corresponds to. The dotted range 66 on the destination buffer 55 corresponds to the position of the detailed buffer 66.

なお、実施の形態3では、適用描画対象のポリゴンモデルごとに位置情報を分けたが、適用描画対象のポリゴンモデルすべてがそれぞれ描画先バッファ55のどこの位置に対応するかという情報として位置情報を1つにまとめて、詳細バッファ記憶部303が記憶していてもよい。In the third embodiment, the position information is separated for each polygon model to be applied for drawing, but the detailed buffer memory unit 303 may store a single piece of position information indicating which position in the drawing destination buffer 55 each of all polygon models to be applied for drawing corresponds to.

図27は、詳細バッファ64が描画先バッファ55のどこの位置に対応するかという情報と、別の詳細バッファ65が描画先バッファ55のどこの位置に対応するかという情報と、さらに別の詳細バッファ66が描画先バッファ55のどこの位置に対応するかという情報とをまとめた位置情報を模擬的に示した図である。描画先バッファ55上の点線の範囲64が詳細バッファ64の位置に対応し、描画先バッファ55上の点線の範囲65が詳細バッファ65の位置に対応し、描画先バッファ55上の点線の範囲66が詳細バッファ66の位置に対応する。 Figure 27 is a diagram showing an example of position information that combines information on which position in destination buffer 55 detail buffer 64 corresponds to, information on which position in destination buffer 55 another detail buffer 65 corresponds to, and information on which position in destination buffer 55 yet another detail buffer 66 corresponds to. The dotted-line range 64 on destination buffer 55 corresponds to the position of detail buffer 64, the dotted-line range 65 on destination buffer 55 corresponds to the position of detail buffer 65, and the dotted-line range 66 on destination buffer 55 corresponds to the position of detail buffer 66.

なお、ポリゴンモデル51に対応する詳細バッファ64の範囲は、ポリゴンモデル51全体が描画できる範囲である。ポリゴンモデル52に対応する詳細バッファ65の範囲は、ポリゴンモデル52全体が描画できる範囲である。ポリゴンモデル53に対応する詳細バッファ66の範囲は、ポリゴンモデル53全体が描画できる範囲である。適用描画対象に対応する詳細バッファの範囲は、予め決められていてもよいし、ユーザーからの入力の受付によってユーザーが決められるようにしてもよいし、描画対象の面積に対応して決められるなど、範囲の決め方は限定しない。 The range of the detail buffer 64 corresponding to polygon model 51 is the range in which the entire polygon model 51 can be drawn. The range of the detail buffer 65 corresponding to polygon model 52 is the range in which the entire polygon model 52 can be drawn. The range of the detail buffer 66 corresponding to polygon model 53 is the range in which the entire polygon model 53 can be drawn. The range of the detail buffer corresponding to the applicable drawing target may be determined in advance, may be determined by the user by receiving input from the user, or may be determined according to the area of the drawing target; there are no limitations on how the range is determined.

例えば、描画対象の面積に対応して決める場合は、割り当て作成部302は、実施の形態1の算出部104のように描画対象ごとの面積を計算してもよいし、バウンディングボックスなどを用いて近似して、描画対象ごとの面積の概算をしてもよい。なお、3次元の描画対象の場合は、描画対象を2次元に投影変換してから、描画対象の面積を計算する。バウンディングボックスなどを用いて描画対象ごとの面積の概算をする方法は、実施の形態1の図9と同様である。なお、割り当て作成部302は、適用描画対象よりも範囲に余裕を持たせて詳細バッファを作成してもよい。 For example, when determining based on the area of the drawing target, the allocation creation unit 302 may calculate the area of each drawing target as in the calculation unit 104 of embodiment 1, or may approximate the area of each drawing target by approximating using a bounding box or the like. In the case of a three-dimensional drawing target, the drawing target is projected into two dimensions and then the area of the drawing target is calculated. The method of approximating the area of each drawing target using a bounding box or the like is the same as in Figure 9 of embodiment 1. The allocation creation unit 302 may create a detailed buffer with a larger range than the applicable drawing target.

図21に戻って、割り当て作成部302は、描画情報と、適用描画対象である描画対象のタグ情報とを算出部104に送信し、ステップS45に進む。実施の形態3では、割り当て作成部302は、描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを算出部104に送信する。Returning to FIG. 21, the allocation creation unit 302 transmits the drawing information and the tag information of the drawing target that is the applied drawing target to the calculation unit 104, and proceeds to step S45. In embodiment 3, the allocation creation unit 302 transmits to the calculation unit 104 the drawing information, the tag information of polygon model 51 tagged as the applied drawing target, the tag information of polygon model 52 tagged as the applied drawing target, and the tag information of polygon model 53 tagged as the applied drawing target.

ステップS45において、算出部104は、割り当て作成部302から描画情報と、適用描画対象である描画対象のタグ情報とを受信する。実施の形態3では、算出部104は、割り当て作成部302から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報とを受信する。それ以外は、ステップS45は、実施の形態1のステップS14と同様である。In step S45, the calculation unit 104 receives drawing information and tag information of the drawing target that is the applied drawing target from the assignment creation unit 302. In embodiment 3, the calculation unit 104 receives drawing information, tag information of polygon model 51 tagged as the applied drawing target, tag information of polygon model 52 tagged as the applied drawing target, and tag information of polygon model 53 tagged as the applied drawing target from the assignment creation unit 302. Otherwise, step S45 is the same as step S14 in embodiment 1.

ステップS46において、決定部105は、描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象のアルファ値情報とを適用描画対象描画部304に送信し、ステップS47に進む。それ以外は、ステップS46は、実施の形態1のステップS15と同様である。In step S46, the determination unit 105 transmits the drawing information, the tag information of the drawing target that is the applied drawing target, and the alpha value information of the applied drawing target to the applied drawing target drawing unit 304, and proceeds to step S47. Otherwise, step S46 is the same as step S15 in the first embodiment.

ステップS47において、適用描画対象描画部304は、決定部105から描画情報と、適用描画対象である描画対象のタグ情報と、適用描画対象のアルファ値情報とを受信し、詳細バッファ記憶部303の各詳細バッファに各適用描画対象を描画する。このとき、各詳細バッファにアルファ値情報も記憶される。また、適用描画対象描画部304は、詳細バッファに適用描画対象を描画する毎に、詳細バッファに描画されたピクセル数を取得する。In step S47, the applied drawing target drawing unit 304 receives drawing information, tag information of the drawing target that is the applied drawing target, and alpha value information of the applied drawing target from the determination unit 105, and draws each applied drawing target in each detailed buffer of the detail buffer storage unit 303. At this time, the alpha value information is also stored in each detailed buffer. In addition, the applied drawing target drawing unit 304 obtains the number of pixels drawn in the detail buffer each time it draws the applied drawing target in the detail buffer.

実施の形態3では、適用描画対象描画部304は、実施の形態1と同様に、決定部105から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル51のアルファ値が0.4であるというアルファ値情報と、ポリゴンモデル52のアルファ値が0.7であるというアルファ値情報と、ポリゴンモデル53のアルファ値が1.0であるというアルファ値情報とを受信する。 In embodiment 3, similarly to embodiment 1, the applied drawing target drawing unit 304 receives from the determination unit 105 drawing information, tag information of polygon model 51 tagged as the applied drawing target, tag information of polygon model 52 tagged as the applied drawing target, tag information of polygon model 53 tagged as the applied drawing target, alpha value information that the alpha value of polygon model 51 is 0.4, alpha value information that the alpha value of polygon model 52 is 0.7, and alpha value information that the alpha value of polygon model 53 is 1.0.

適用描画対象描画部304は、詳細バッファ記憶部303の詳細バッファ64にポリゴンモデル51を描画する。また、適用描画対象描画部304は、詳細バッファ記憶部303の詳細バッファ65にポリゴンモデル52を描画する。さらに、適用描画対象描画部304は、詳細バッファ記憶部303の詳細バッファ66にポリゴンモデル53を描画する。The applied drawing target drawing unit 304 draws a polygon model 51 in the detail buffer 64 of the detail buffer storage unit 303. The applied drawing target drawing unit 304 also draws a polygon model 52 in the detail buffer 65 of the detail buffer storage unit 303. The applied drawing target drawing unit 304 also draws a polygon model 53 in the detail buffer 66 of the detail buffer storage unit 303.

図28は、適用描画対象のポリゴンモデル51を詳細バッファ64に描画した描画結果70と別の適用描画対象のポリゴンモデル53を別の詳細バッファ66に描画した描画結果71と複数の適用描画対象のポリゴンモデル51~53とを重畳した図である。 Figure 28 shows a superimposition of a drawing result 70 in which polygon model 51, which is the applicable drawing target, is drawn in detail buffer 64, a drawing result 71 in which polygon model 53, which is another applicable drawing target, is drawn in another detail buffer 66, and multiple polygon models 51 to 53, which are applicable drawing targets.

実施の形態1と同様に、図28のように、ポリゴンモデル51は、詳細バッファ64の1つのピクセルの中心を含むため、当該ピクセルが描画情報に含まれるポリゴンモデル51に付随したRGB値で塗りつぶされて、ポリゴンモデル51が描画される。ポリゴンモデル51が描画された結果が、図28の1ピクセルの描画結果70である。ポリゴンモデル52は、詳細バッファ65のどのピクセルの中心も含まないため、描画されず消えてしまう。したがって、詳細バッファ65には、何も描画されない。ポリゴンモデル53は、詳細バッファ66の1つのピクセルの中心を含むため、当該ピクセルが描画情報に含まれるポリゴンモデル53に付随したRGB値で塗りつぶされて、ポリゴンモデル53が描画される。ポリゴンモデル53が描画された結果が、図28の1ピクセルの描画結果71である。実施の形態3の描画結果70は、実施の形態1の図12の描画結果58と同じになる。実施の形態3の描画結果71は、実施の形態1の図12の描画結果59と同じになる。As in the first embodiment, as shown in FIG. 28, polygon model 51 includes the center of one pixel in detail buffer 64, so that pixel is filled with the RGB values associated with polygon model 51 included in the drawing information, and polygon model 51 is drawn. The result of drawing polygon model 51 is drawing result 70 of one pixel in FIG. 28. Polygon model 52 does not include the center of any pixel in detail buffer 65, so it is not drawn and disappears. Therefore, nothing is drawn in detail buffer 65. Polygon model 53 includes the center of one pixel in detail buffer 66, so that pixel is filled with the RGB values associated with polygon model 53 included in the drawing information, and polygon model 53 is drawn. The result of drawing polygon model 53 is drawing result 71 of one pixel in FIG. 28. The drawing result 70 in the third embodiment is the same as drawing result 58 in FIG. 12 in the first embodiment. The rendering result 71 of the third embodiment is the same as the rendering result 59 of the first embodiment shown in FIG.

図29は、適用描画対象のポリゴンモデル51を詳細バッファ64に描画した描画結果70と別の適用描画対象のポリゴンモデル53を別の詳細バッファ66に描画した描画結果71とを示した図である。図29は図28の複数のポリゴンモデル51~53の重畳表示をなくし、実際の描画結果70~71のみを示している。図28と同様に、実施の形態3の描画結果70は、実施の形態1の図13の描画結果58と同じになる。実施の形態3の描画結果71は、実施の形態1の図13の描画結果59と同じになる。 Figure 29 shows a drawing result 70 obtained by drawing polygon model 51, which is the applicable drawing target, in detail buffer 64, and a drawing result 71 obtained by drawing polygon model 53, which is another applicable drawing target, in another detail buffer 66. Figure 29 shows only the actual drawing results 70-71, without the superimposed display of multiple polygon models 51-53 in Figure 28. As with Figure 28, the drawing result 70 of embodiment 3 is the same as drawing result 58 in Figure 13 of embodiment 1. The drawing result 71 of embodiment 3 is the same as drawing result 59 in Figure 13 of embodiment 1.

適用描画対象描画部304は、ポリゴンモデル51のアルファ値情報から、描画結果70のピクセルに、ポリゴンモデル51のアルファ値が0.4であるというアルファ値を記憶させる。また、適用描画対象描画部304は、ポリゴンモデル53のアルファ値情報から、描画結果71のピクセルに、ポリゴンモデル53のアルファ値が1.0であるというアルファ値を記憶させる。図29のピクセルの中の値は、記憶されているアルファ値を表す。 The applied drawing target drawing unit 304 stores an alpha value, where the alpha value of polygon model 51 is 0.4, in a pixel of the drawing result 70, based on the alpha value information of polygon model 51. The applied drawing target drawing unit 304 also stores an alpha value, where the alpha value of polygon model 53 is 1.0, in a pixel of the drawing result 71, based on the alpha value information of polygon model 53. The values in the pixels in Figure 29 represent the stored alpha values.

適用描画対象描画部304は、詳細バッファ64にポリゴンモデル51を描画する処理をした後、ポリゴンモデル51によって実際に詳細バッファ64が塗りつぶされたピクセル数を取得する。ポリゴンモデル51の場合は、図29から分かるように、適用描画対象描画部304は、詳細バッファ64に実際に描画されたピクセル数として1ピクセルという情報を取得する。適用描画対象描画部304は、詳細バッファ65にポリゴンモデル52を描画する処理をした後、ポリゴンモデル52によって実際に詳細バッファ65が塗りつぶされたピクセル数を取得する。ポリゴンモデル52の場合は、図29から分かるように、ポリゴンモデル52によって詳細バッファ65が1ピクセルも塗りつぶされていないため、適用描画対象描画部304は、ピクセル数として0ピクセルという情報を取得する。適用描画対象描画部304は、詳細バッファ66にポリゴンモデル53を描画する処理をした後、ポリゴンモデル53によって実際に詳細バッファ66が塗りつぶされたピクセル数を取得する。ポリゴンモデル53の場合は、図29から分かるように、適用描画対象描画部304は、詳細バッファ66に実際に描画されたピクセル数として1ピクセルという情報を取得する。以降は、適用描画対象描画部304が取得した適用描画対象によって詳細バッファに描画されたピクセル数を示す情報を、実施の形態1と同様に、ピクセル数情報と呼ぶ。After the applied drawing target drawing unit 304 has performed a process of drawing the polygon model 51 in the detail buffer 64, it obtains the number of pixels that have actually been filled in the detail buffer 64 by the polygon model 51. In the case of the polygon model 51, as can be seen from FIG. 29, the applied drawing target drawing unit 304 obtains information that the number of pixels that have actually been drawn in the detail buffer 64 is 1 pixel. After the applied drawing target drawing unit 304 has performed a process of drawing the polygon model 52 in the detail buffer 65, it obtains information that the number of pixels that have actually been filled in the detail buffer 65 by the polygon model 52. In the case of the polygon model 52, as can be seen from FIG. 29, not a single pixel has been filled in the detail buffer 65 by the polygon model 52, so the applied drawing target drawing unit 304 obtains information that the number of pixels is 0 pixel. After the applied drawing target drawing unit 304 has performed a process of drawing the polygon model 53 in the detail buffer 66, it obtains information that the number of pixels that have actually been filled in the detail buffer 66 by the polygon model 53. 29, in the case of polygon model 53, the applied drawing object drawing unit 304 acquires information that the number of pixels actually drawn in the detail buffer 66 is 1 pixel. Hereinafter, the information indicating the number of pixels drawn in the detail buffer by the applied drawing object acquired by the applied drawing object drawing unit 304 will be referred to as pixel number information, as in the first embodiment.

図21に戻って、適用描画対象描画部304は、描画情報と、適用描画対象である描画対象のタグ情報と、アルファ値情報と、ピクセル数情報とを打点部305に送信し、ステップS48に進む。Returning to Figure 21, the application drawing target drawing unit 304 transmits the drawing information, tag information of the drawing target that is the application drawing target, alpha value information, and pixel count information to the dotting unit 305, and proceeds to step S48.

ステップS48において、打点部305は、適用描画対象描画部304から描画情報と、適用描画対象である描画対象のタグ情報と、アルファ値情報と、ピクセル数情報とを受信する。打点部305は、ピクセル数情報から、適用描画対象描画部304で描画されず消えてしまった適用描画対象である消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。このとき、詳細バッファにアルファ値情報のアルファ値も記憶される。In step S48, the dotting unit 305 receives drawing information, tag information of the drawing target that is the applied drawing target, alpha value information, and pixel count information from the applied drawing target drawing unit 304. From the pixel count information, the dotting unit 305 identifies the lost applied drawing target that is the applied drawing target that was not drawn by the applied drawing target drawing unit 304 and disappeared, and dots the pixel in the detail buffer that corresponds to the position of the lost applied drawing target, and draws the lost applied drawing target in the detail buffer. At this time, the alpha value of the alpha value information is also stored in the detail buffer.

実施の形態3では、打点部305は、実施の形態1と同様に、適用描画対象描画部304から描画情報と、適用描画対象であるとタグ付けされたポリゴンモデル51のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル52のタグ情報と、適用描画対象であるとタグ付けされたポリゴンモデル53のタグ情報と、ポリゴンモデル51のアルファ値が0.4であるというアルファ値情報と、ポリゴンモデル52のアルファ値が0.7であるというアルファ値情報と、ポリゴンモデル53のアルファ値が1.0であるというアルファ値情報と、ポリゴンモデル51によって詳細バッファ56に描画されたピクセル数が1ピクセルであるというピクセル数情報と、ポリゴンモデル52によって詳細バッファ56に描画されたピクセル数が0ピクセルであるというピクセル数情報と、ポリゴンモデル53によって詳細バッファ56に描画されたピクセル数が1ピクセルであるというピクセル数情報とを受信する。In embodiment 3, similarly to embodiment 1, the dotting unit 305 receives from the application drawing target drawing unit 304 drawing information, tag information of polygon model 51 tagged as the application drawing target, tag information of polygon model 52 tagged as the application drawing target, tag information of polygon model 53 tagged as the application drawing target, alpha value information that the alpha value of polygon model 51 is 0.4, alpha value information that the alpha value of polygon model 52 is 0.7, alpha value information that the alpha value of polygon model 53 is 1.0, pixel count information that the number of pixels drawn in the detail buffer 56 by polygon model 51 is 1 pixel, pixel count information that the number of pixels drawn in the detail buffer 56 by polygon model 52 is 0 pixels, and pixel count information that the number of pixels drawn in the detail buffer 56 by polygon model 53 is 1 pixel.

打点部305は、実施の形態1と同様に、ピクセル数情報から、ピクセル数が0ピクセルである適用描画対象を適用描画対象描画部304で描画されず消えてしまった適用描画対象である消失適用描画対象として特定する。具体的には、打点部305は、ポリゴンモデル52のピクセル数情報が0ピクセルであるため、ポリゴンモデル52を消失適用描画対象として特定する。As in the first embodiment, the dotting unit 305 uses the pixel count information to identify an applied drawing target with a pixel count of 0 pixels as a lost applied drawing target, which is an applied drawing target that has disappeared without being drawn by the applied drawing target drawing unit 304. Specifically, since the pixel count information of the polygon model 52 is 0 pixels, the dotting unit 305 identifies the polygon model 52 as a lost applied drawing target.

打点部305は、消失適用描画対象であるポリゴンモデル52の位置に対応した詳細バッファ65内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する。打点部305は、ポリゴンモデル52の頂点の位置に対応した詳細バッファ65内のピクセルに点を打ち、消失適用描画対象であるポリゴンモデル52を詳細バッファ65に描画する。なお、打点部305は、円、楕円など頂点がない描画対象の場合は、多角形に近似して、多角形の頂点の位置に点を打つ。The dotting unit 305 puts dots on pixels in the detail buffer 65 that correspond to the positions of the polygon model 52, which is the drawing target for loss application, and draws the drawing target for loss application in the detail buffer. The dotting unit 305 puts dots on pixels in the detail buffer 65 that correspond to the positions of the vertices of the polygon model 52, and draws the polygon model 52, which is the drawing target for loss application, in the detail buffer 65. Note that in the case of a drawing target that has no vertices, such as a circle or ellipse, the dotting unit 305 approximates a polygon and puts dots at the positions of the vertices of the polygon.

図30は、適用描画対象のポリゴンモデル51を詳細バッファ64に描画した描画結果70と別の適用描画対象のポリゴンモデル53を詳細バッファ66に描画した描画結果71とさらに別の適用描画対象のポリゴンモデル52を詳細バッファ65に描画した描画結果72と複数のポリゴンモデル51~53とを重畳した図である。ポリゴンモデル52は、実施の形態1と同様に、頂点が3つあるため、打点部305は、ポリゴンモデル52の3つの頂点の位置に対応した詳細バッファ65内のピクセルに点を打つ。すると、ポリゴンモデル52の3つの頂点の位置に対応した詳細バッファ65の3ピクセル分が、描画情報に含まれるポリゴンモデル52に付随したRGB値で塗りつぶされて、ポリゴンモデル52が描画される。ポリゴンモデル52が描画された結果が、図30の3ピクセルの描画結果72である。 Figure 30 shows a drawing result 70 of polygon model 51, which is the applicable drawing target, drawn in detail buffer 64, a drawing result 71 of polygon model 53, which is another applicable drawing target, drawn in detail buffer 66, a drawing result 72 of polygon model 52, which is yet another applicable drawing target, drawn in detail buffer 65, and multiple polygon models 51 to 53 superimposed on each other. As polygon model 52 has three vertices, as in embodiment 1, dotting unit 305 dots pixels in detail buffer 65 corresponding to the positions of the three vertices of polygon model 52. Then, three pixels in detail buffer 65 corresponding to the positions of the three vertices of polygon model 52 are filled with RGB values associated with polygon model 52 included in the drawing information, and polygon model 52 is drawn. The result of drawing polygon model 52 is the three-pixel drawing result 72 in Figure 30.

図31は、適用描画対象のポリゴンモデル51を詳細バッファ64に描画した描画結果70と別の適用描画対象のポリゴンモデル53を詳細バッファ66に描画した描画結果71とさらに別の適用描画対象のポリゴンモデル52を詳細バッファ65に描画した描画結果72とを示した図である。図31は図30の複数のポリゴンモデル51~53の重畳表示をなくし、実際の描画結果70~72のみを示している。 Figure 31 shows a drawing result 70 in which polygon model 51, the applicable drawing target, is drawn in detail buffer 64, a drawing result 71 in which polygon model 53, another applicable drawing target, is drawn in detail buffer 66, and a drawing result 72 in which polygon model 52, yet another applicable drawing target, is drawn in detail buffer 65. Figure 31 shows only the actual drawing results 70-72, without the superimposed display of multiple polygon models 51-53 in Figure 30.

打点部305は、ポリゴンモデル52のアルファ値情報から、描画結果72を構成する各ピクセルに、ポリゴンモデル52のアルファ値が0.7であるというアルファ値を記憶させる。図31の各ピクセルの中の値は、記憶されているアルファ値を表す。 The dotting unit 305 stores an alpha value, which is 0.7 for the alpha value of the polygon model 52, in each pixel that constitutes the drawing result 72 based on the alpha value information of the polygon model 52. The values in each pixel in Figure 31 represent the stored alpha values.

図21に戻って、打点部305は、詳細バッファへの描画の終了の通知をブレンド処理部306に送信し、ステップS49に進む。また、打点部305は、消失適用描画対象がなかった場合は、適用描画対象はすでに詳細バッファに描画されているため、何もせず、詳細バッファへの描画の終了の通知をブレンド処理部306に送信し、ステップS49に進む。Returning to FIG. 21, the dotting unit 305 sends a notification of the end of drawing to the detail buffer to the blending processing unit 306, and proceeds to step S49. Also, if there is no loss-applied drawing target, the dotting unit 305 does nothing because the applicable drawing target has already been drawn in the detail buffer, and sends a notification of the end of drawing to the detail buffer to the blending processing unit 306, and proceeds to step S49.

ステップS49において、ブレンド処理部306は、不適用描画対象描画部107から描画先バッファへの描画の終了の通知を受信し、打点部305から詳細バッファへの描画の終了の通知を受信すると、詳細バッファ303に記憶されている各詳細バッファの位置情報を用いて、描画先バッファ記憶部103に記憶されている描画先バッファに対して、詳細バッファ303に記憶されている各詳細バッファの1ピクセルごとにアルファ値でRGB値をアルファブレンドして適用描画対象を描画先バッファに描画する。In step S49, when the blending processing unit 306 receives a notification of the end of drawing to the destination buffer from the non-applicable drawing object drawing unit 107 and a notification of the end of drawing to the detail buffer from the dotting unit 305, it uses the position information of each detailed buffer stored in the detail buffer 303 to alpha-blend the RGB values with the alpha value for each pixel of each detailed buffer stored in the detail buffer 303 for the drawing destination buffer stored in the destination buffer memory unit 103, and draws the applicable drawing object in the drawing destination buffer.

実施の形態3では、ブレンド処理部306は、詳細バッファ64に記憶されている位置情報67を用いて、図8の描画先バッファ55に対して、図31の詳細バッファ64の1ピクセルごとにアルファ値でRGB値をアルファブレンドして適用描画対象であるポリゴンモデル51を描画先バッファ55に描画する。具体的には、ブレンド処理部306は、描画先バッファ記憶部103に記憶されている図8の描画先バッファ55に対して、位置情報67に対応した位置に、図31のポリゴンモデル51の描画結果70の1ピクセルについて、アルファ値である0.4でポリゴンモデル51のRGB値をアルファブレンドする。In the third embodiment, the blending processing unit 306 uses the position information 67 stored in the detail buffer 64 to alpha-blend the RGB values with the alpha value for each pixel of the detail buffer 64 in Fig. 31 for the drawing destination buffer 55 in Fig. 8, and draws the polygon model 51, which is the applicable drawing target, in the drawing destination buffer 55. Specifically, the blending processing unit 306 alpha-blends the RGB values of the polygon model 51 with an alpha value of 0.4 for each pixel of the drawing result 70 of the polygon model 51 in Fig. 31 at a position corresponding to the position information 67 for the drawing destination buffer 55 in Fig. 8 stored in the drawing destination buffer storage unit 103.

同様に、ブレンド処理部306は、詳細バッファ65に記憶されている位置情報68を用いて、図8の描画先バッファ55に対して、図31の詳細バッファ65の1ピクセルごとにアルファ値でRGB値をアルファブレンドして適用描画対象であるポリゴンモデル52を描画先バッファ55に描画する。具体的には、ブレンド処理部306は、描画先バッファ記憶部103に記憶されている図8の描画先バッファ55に対して、位置情報68に対応した位置に、図31のポリゴンモデル52の描画結果72の各ピクセルについて、各ピクセルのアルファ値である0.7でポリゴンモデル52のRGB値をアルファブレンドする。Similarly, the blending processing unit 306 uses the position information 68 stored in the detail buffer 65 to alpha-blend the RGB values with the alpha value for each pixel of the detail buffer 65 in FIG. 31 for the drawing destination buffer 55 in FIG. 8, and draws the polygon model 52, which is the applicable drawing target, in the drawing destination buffer 55 in FIG. 8. Specifically, the blending processing unit 306 alpha-blends the RGB values of the polygon model 52 with the alpha value of each pixel of the drawing result 72 of the polygon model 52 in FIG. 31 at a position corresponding to the position information 68 for the drawing destination buffer 55 in FIG. 8 stored in the drawing destination buffer storage unit 103.

ブレンド処理部306は、詳細バッファ66に記憶されている位置情報69を用いて、図8の描画先バッファ55に対して、図31の詳細バッファ66の1ピクセルごとにアルファ値でRGB値をアルファブレンドして適用描画対象であるポリゴンモデル53を描画先バッファ55に描画する。具体的には、ブレンド処理部306は、描画先バッファ記憶部103に記憶されている図8の描画先バッファ55に対して、位置情報69に対応した位置に、図31のポリゴンモデル53の描画結果71の1ピクセルについて、アルファ値である1.0でポリゴンモデル53のRGB値をアルファブレンドする。The blending processing unit 306 uses the position information 69 stored in the detail buffer 66 to alpha-blend the RGB values with the alpha value for each pixel of the detail buffer 66 in Fig. 31 for the drawing destination buffer 55 in Fig. 8, and draws the polygon model 53, which is the applicable drawing target, in the drawing destination buffer 55. Specifically, the blending processing unit 306 alpha-blends the RGB values of the polygon model 53 with an alpha value of 1.0 for each pixel of the drawing result 71 of the polygon model 53 in Fig. 31 at a position corresponding to the position information 69 for the drawing destination buffer 55 in Fig. 8 stored in the drawing destination buffer storage unit 103.

全てのポリゴンモデルを描画先バッファ55に描画した描画結果を示した図は、図16と同様である。 The diagram showing the rendering result when all polygon models are rendered in the destination buffer 55 is similar to Figure 16.

ブレンド処理部306は、アルファブレンドの終了の通知を出力制御部111に送信し、ステップS50に進む。The blending processing unit 306 sends a notification of the end of alpha blending to the output control unit 111 and proceeds to step S50.

ステップS50において、出力制御部111は、ブレンド処理部306からアルファブレンドの終了の通知を受信する。それ以外は、ステップS50は、実施の形態1のステップS19と同様である。In step S50, the output control unit 111 receives a notification of the end of alpha blending from the blend processing unit 306. Otherwise, step S50 is the same as step S19 in embodiment 1.

ステップS50を実行した後もステップS41に戻り、電源をOFFにすること、あるいは終了操作がなされる等の処理の終了のトリガーがあるまで上記のような処理を繰り返す。なお、上記のような処理を繰り返すとしたが、繰り返さず一回行うだけでもよい。After step S50 is executed, the process returns to step S41, and the above-described process is repeated until a trigger for terminating the process occurs, such as turning off the power or performing an end operation. Note that although the above-described process is repeated, it is also possible to perform the process only once without repeating it.

以上述べたように、実施の形態3の描画処理システム3は、適用判定部106によって不適用描画対象と判定された描画対象を、不適用描画対象描画部107が描画先バッファ記憶部103に記憶されている描画先バッファに描画し、算出部104が適用判定部106によって適用描画対象と判定された描画対象の面積を算出し、決定部105が算出した面積から適用描画対象のアルファ値を決定し、適用描画対象描画部304が描画先バッファとは異なるバッファである詳細バッファに適用描画対象を描画し、打点部305が適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打つことで適用描画対象を詳細バッファに描画し、ブレンド処理部306が適用描画対象のアルファ値で描画先バッファに詳細バッファをアルファブレンドし、出力制御部111が出力装置5に描画先バッファに描画されたシーンを出力するよう制御するため、ピクセルの中心に描画対象が位置していない場合でも、描画対象が描画され、描画対象を表示画面上に表示させることができる。As described above, in the drawing processing system 3 of the third embodiment, the non-applicable drawing target drawing unit 107 draws the drawing target determined by the application determination unit 106 as a non-applicable drawing target in the drawing destination buffer stored in the drawing destination buffer memory unit 103, the calculation unit 104 calculates the area of the drawing target determined by the application determination unit 106 as an applicable drawing target, the determination unit 105 determines the alpha value of the applicable drawing target from the calculated area, the applicable drawing target drawing unit 304 draws the applicable drawing target in the detail buffer, which is a buffer different from the drawing destination buffer, the dotting unit 305 draws the applicable drawing target in the detail buffer by dotting pixels in the detail buffer corresponding to the position of the applicable drawing target, the blending processing unit 306 alpha-blends the detail buffer with the alpha value of the applicable drawing target, and the output control unit 111 controls the output device 5 to output the scene drawn in the drawing destination buffer, so that even if the drawing target is not located at the center of the pixel, the drawing target can be drawn and displayed on the display screen.

また、実施の形態3においては、描画処理システム3は、割り当て作成部302が詳細バッファ記憶部303に適用描画対象ごとの範囲に対応した詳細バッファを作成し、適用描画対象描画部304と打点部305とが適用描画対象の範囲に対応した詳細バッファに当該適用描画対象を描画する。当該描画により、描画処理システム3は、適用描画対象の描画に使用しない範囲の割合が高い場合に、適用描画対象の範囲に対応した詳細バッファを作成するだけでいいため、無駄にバッファを作成する必要がなく、メモリの使用量を低減することができる。 In addition, in the third embodiment, the drawing processing system 3 has the allocation creation unit 302 create a detailed buffer in the detail buffer storage unit 303 corresponding to the range of each applied drawing object, and the applied drawing object drawing unit 304 and the dotting unit 305 draw the applied drawing object in the detailed buffer corresponding to the range of the applied drawing object. By this drawing, when the proportion of the range not used for drawing the applied drawing object is high, the drawing processing system 3 only needs to create a detailed buffer corresponding to the range of the applied drawing object, so there is no need to create buffers unnecessarily and memory usage can be reduced.

実施の形態1~3においては、描画処理システム1~3は、同一シーンに描画サイズ差が大きい描画対象が混在する場合に、従来の描画処理装置では、シーン全体を描画する必要があり、例えば、1ピクセル未満の小さい描画対象などを表示画面上から消失させないように描画するには、その分高い倍率あるいはピクセルの分割数を多くして描画対象を描画する必要がある。つまり、従来の描画処理装置では、シーンの中に、描画サイズ差が大きい描画対象が混在する場合、一番小さい描画対象に対応した倍率あるいは分割数でシーン全体を描画すると、他の描画対象も高解像度、あるいは分割数を多くして描画するため、描画処理負荷が大きくなってしまう。しかし、描画処理システム1~3は、高解像度で描画する必要がないため、描画対象を表示画面上から消失させないように描画することによる描画処理負荷を低減させることができる。In the first to third embodiments, when drawing objects with large differences in drawing size are mixed in the same scene, conventional drawing processing devices are required to draw the entire scene, and in order to draw small drawing objects, such as those smaller than one pixel, so that they do not disappear from the display screen, it is necessary to draw the drawing objects at a higher magnification or with a larger number of pixel divisions. In other words, in a conventional drawing processing device, when drawing objects with large differences in drawing size are mixed in a scene, if the entire scene is drawn at a magnification or division number corresponding to the smallest drawing object, the other drawing objects are also drawn at a higher resolution or with a larger number of divisions, which increases the drawing processing load. However, since drawing processing systems 1 to 3 do not need to draw at a higher resolution, it is possible to reduce the drawing processing load caused by drawing objects so that they do not disappear from the display screen.

実施の形態1~3においては、描画処理システム1~3は、算出部が適用描画対象の面積を算出し、決定部が当該面積からアルファ値を算出するため、描画対象の輝度値を描画対象のサイズに応じて決定し、適切な輝度にすることができる。また、描画処理システム1~3は、アルファブレンドをするため、背景となる色が消えることもない。 In embodiments 1 to 3, drawing processing systems 1 to 3 have a calculation unit that calculates the area of the applicable drawing object and a determination unit that calculates an alpha value from that area, so that the luminance value of the drawing object can be determined according to the size of the drawing object, resulting in an appropriate luminance. Furthermore, drawing processing systems 1 to 3 perform alpha blending, so the background color does not disappear.

なお、実施の形態1~3において、描画処理システム1~3は、適用描画対象描画部が、詳細バッファに適用描画対象を描画し、描画されたピクセル数を取得し、打点部が、適用描画対象ごとに取得した描画されたピクセル数から、詳細バッファに描画されなかった消失適用描画対象を特定し、消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画していた。しかし、描画処理システム1~3は、適用描画対象描画部をなくし、打点部がすべての適用描画対象対して、適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、すべての適用描画対象を詳細バッファに描画してもよい。ただし、適用描画対象描画部をなくし、打点部がすべての適用描画対象を詳細バッファに描画するためには、適用描画対象が複雑な形状であった場合、打つべき点の数が増えるため、適用描画対象描画部を設けて、打点部が消失適用描画対象の位置に対応した詳細バッファ内のピクセルに点を打ち、消失適用描画対象を詳細バッファに描画する方が、描画処理の負荷が軽減できる。また、描画処理システム1~3は、適用描画対象描画部である程度の面積を持った適用描画対象を描画した方が、正確に描画をすることができる。In the first to third embodiments, the drawing processing systems 1 to 3 have an applied drawing object drawing unit that draws the applied drawing object in the detail buffer and obtains the number of drawn pixels, and a dotting unit that identifies the lost applied drawing object that was not drawn in the detail buffer from the number of drawn pixels obtained for each applied drawing object, dots the pixels in the detail buffer corresponding to the position of the lost applied drawing object, and draws the lost applied drawing object in the detail buffer. However, the drawing processing systems 1 to 3 may eliminate the applied drawing object drawing unit, and the dotting unit may dot the pixels in the detail buffer corresponding to the position of the applied drawing object for all applied drawing objects, and draw all applied drawing objects in the detail buffer. However, in order to eliminate the applied drawing object drawing unit and have the dotting unit draw all applied drawing objects in the detail buffer, if the applied drawing object has a complex shape, the number of dots to be dotted increases, so it is better to provide an applied drawing object drawing unit and have the dotting unit dot the pixels in the detail buffer corresponding to the position of the lost applied drawing object, and draw the lost applied drawing object in the detail buffer, thereby reducing the load on the drawing process. Furthermore, the drawing processing systems 1 to 3 can perform drawing more accurately if they draw an applicable drawing object having a certain area in the applicable drawing object drawing section.

実施の形態1~3において、描画処理システム1~3は、打点部が消失適用描画対象の頂点の位置に対応した詳細バッファ内のピクセルに点を打ったが、消失適用描画対象の重心の位置に対応した詳細バッファ内のピクセルに点を打ってもよい。ただし、打点部が消失適用描画対象の重心の位置に対応した詳細バッファ内のピクセルに点を打つ場合は、重心を算出する必要がある。描画処理システム1~3は、打点部が消失適用描画対象の頂点の位置に対応した詳細バッファ内のピクセルに点を打つ方が、消失適用描画対象の重心の位置に対応した詳細バッファ内のピクセルに点を打つよりも描画処理負荷を低減できる。 In embodiments 1 to 3, the drawing processing systems 1 to 3 have a dot marking unit that marks pixels in the detail buffer corresponding to the positions of the vertices of the disappearance-applied drawing object, but it is also possible to mark pixels in the detail buffer corresponding to the position of the center of gravity of the disappearance-applied drawing object. However, if the dot marking unit marks pixels in the detail buffer corresponding to the position of the center of gravity of the disappearance-applied drawing object, it is necessary to calculate the center of gravity. The drawing processing systems 1 to 3 can reduce the drawing processing load by having the dot marking unit mark pixels in the detail buffer corresponding to the positions of the vertices of the disappearance-applied drawing object, rather than marking pixels in the detail buffer corresponding to the position of the center of gravity of the disappearance-applied drawing object.

実施の形態1~3において、描画処理システム1~3は、不適用描画対象の描画をしてから、適用描画対象の描画をするように順番に処理していたが、同時に並列に描画してもいいし、描画の順番を逆にしてもよいし、不適用描画対象の描画と適用描画対象の描画とをランダムな順番に処理してもよい。また、不適用描画対象が複数ある場合は、描画処理システム1~3は、複数の不適用描画対象を順番に描画してもよいし、同時に並列に不適用描画対象を描画してもよい。同様に、適用描画対象が複数ある場合は、描画処理システム1~3は、複数の適用描画対象を順番に描画してもよいし、同時に並列に適用描画対象を描画してもよい。 In embodiments 1 to 3, drawing processing systems 1 to 3 sequentially process the drawing of non-applied drawing targets and then the drawing of applied drawing targets, but they may be drawn simultaneously in parallel, the drawing order may be reversed, or the drawing of non-applied drawing targets and the drawing of applied drawing targets may be processed in a random order. Also, if there are multiple non-applied drawing targets, drawing processing systems 1 to 3 may draw the multiple non-applied drawing targets in sequence, or may draw the non-applied drawing targets in parallel simultaneously. Similarly, if there are multiple applied drawing targets, drawing processing systems 1 to 3 may draw the multiple applied drawing targets in sequence, or may draw the applied drawing targets in parallel simultaneously.

実施の形態1~3において、描画処理システム1~3は、詳細バッファ記憶部を備えているが、複数に記憶部を分けて処理してもよい。また、描画処理システム1~3は、描画処理装置100~300が描画先バッファ記憶部及び詳細バッファ記憶部を備えていたが、これらの記憶部はクラウドなど描画処理装置100~300とは異なる装置に備えられていてもよい。描画処理装置100~300は、通信によって記憶部と情報を授受すればよい。In embodiments 1 to 3, the drawing processing systems 1 to 3 are provided with a detailed buffer storage unit, but the storage unit may be divided into multiple units for processing. Also, in the drawing processing systems 1 to 3, the drawing processing devices 100 to 300 are provided with a drawing destination buffer storage unit and a detailed buffer storage unit, but these storage units may be provided in a device different from the drawing processing devices 100 to 300, such as a cloud. The drawing processing devices 100 to 300 may exchange information with the storage units via communication.

実施の形態1において、描画処理システム1は、ステップS12において作成部102が描画先バッファと詳細バッファとを作成したが、予め描画先バッファと詳細バッファとが作成されていてもよい。また、ステップS12において作成部102が描画先バッファを作成した後、ステップS13~ステップS16との間で、作成部102が詳細バッファを作成してもよい。描画先バッファの作成は、描画先バッファに描画がなされる前であればいつもでよい。また、詳細バッファの作成は、詳細バッファに描画がなされる前であればいつもでよい。同様に、実施の形態2及び実施の形態3においても、描画先バッファの作成は、描画先バッファに描画がなされる前であればいつもでよい。また、詳細バッファの作成は、詳細バッファに描画がなされる前であればいつもでよい。 In the first embodiment, in the drawing processing system 1, the creation unit 102 creates a destination buffer and a detail buffer in step S12, but the destination buffer and the detail buffer may be created in advance. Also, after the creation unit 102 creates the destination buffer in step S12, the creation unit 102 may create the detail buffer between steps S13 to S16. The destination buffer may be created any time before drawing is performed in the destination buffer. Also, the detail buffer may be created any time before drawing is performed in the detail buffer. Similarly, in the second and third embodiments, the destination buffer may be created any time before drawing is performed in the destination buffer. Also, the detail buffer may be created any time before drawing is performed in the detail buffer.

実施の形態1~3において、描画処理システム1~3は、描画対象ごとの面積の概算値を算出する場合にバウンディングボックス80を用いたが、ボックスでなくても、球、ラグビーボール型、三角柱、三角錐などの描画対象よりも頂点数が少なく、描画対象の面積の算出よりも面積が算出しやすい形状でもよい。また、これらの組合せでもよい。なお、バウンディングボックスなどは、3次元の描画対象の面積の概算だけでなく、2次元の描画対象の面積の概算にも用いることができる。この場合、球は円、ラグビーボール型は楕円、三角柱及び三角錐は三角形などの概算しやすい形状に置き換わる。In the first to third embodiments, the drawing processing systems 1 to 3 use a bounding box 80 when calculating an approximate value of the area of each drawing object, but it is not limited to a box; it may be a shape that has fewer vertices than the drawing object, such as a sphere, a rugby ball shape, a triangular prism, or a triangular pyramid, and whose area is easier to calculate than the area of the drawing object. A combination of these may also be used. Note that bounding boxes and the like can be used not only to estimate the area of three-dimensional drawing objects, but also to estimate the area of two-dimensional drawing objects. In this case, a sphere is replaced with a circle, a rugby ball shape with an ellipse, and triangular prisms and pyramids with triangles, which are easier to calculate.

実施の形態1~3において、描画処理システム1~3は、例えば、描画対象が3次元グラフィックスのサーフェースモデルの1つであるポリゴンモデルである場合について適用したが、ポリゴンモデル以外のサーフェースモデル、ソリットモデル、ポイントモデルなどでも適用できる。また、描画対象が3次元グラフィックスではなく、描画対象が2次元グラフィックスである場合にも、描画処理システム1~3を適用できる。 In the first to third embodiments, the drawing processing systems 1 to 3 are applied, for example, to the case where the drawing object is a polygon model, which is one of the surface models of three-dimensional graphics, but they can also be applied to surface models other than polygon models, solid models, point models, etc. Also, the drawing processing systems 1 to 3 can be applied to the case where the drawing object is not three-dimensional graphics but two-dimensional graphics.

実施の形態1~3において、描画処理システム1~3は、例えば、描画対象がRGB値で表されるRGBカラーの描画を表示する場合に適用したが、グレースケール、HSBカラーで表される描画を表示する場合にも適用できる。 In embodiments 1 to 3, the drawing processing systems 1 to 3 are applied, for example, when the drawing object is to display an RGB color drawing represented by RGB values, but they can also be applied when displaying a drawing represented in grayscale or HSB color.

ところで、上記した実施の形態に示した描画処理装置、描画処理システム、描画処理方法、および描画処理プログラムは一例に過ぎず、適宜、他の装置と組み合わせて構成することが出来るものであって、実施の形態単独の構成に限られるものではない。 However, the drawing processing device, drawing processing system, drawing processing method, and drawing processing program shown in the above-mentioned embodiments are merely examples, and can be configured in combination with other devices as appropriate, and are not limited to the configuration of the embodiments alone.

1~3 描画処理システム、 4, 6 入力装置、
5 出力装置、 41 バス、 42 CPU、
43 メインメモリ、 44 GPU、
45 グラフィックメモリ、 46 入力インターフェース、
47 出力インターフェース、 51~54 ポリゴンモデル、
55 描画先バッファ、
56, 64~66, 70~72 詳細バッファ、
57~63 描画結果、 67~69 位置情報、
80 バウンディングボックス、
81 描画対象、 82 面積、
100~300 描画処理装置、 101, 201 取得部、
102, 301 作成部、 103 描画先バッファ記憶部、
104, 204 算出部、 105, 205 決定部、
106, 202 適用判定部、
107, 203 不適用描画対象描画部、
108, 209, 304 適用描画対象描画部、
109, 303 詳細バッファ記憶部、
110, 207, 306 ブレンド処理部、
111出力制御部、 112, 210, 305 打点部、
206 終了判定部、 208 蓄積記憶部、
302 割り当て作成部。
1 to 3: drawing processing system; 4, 6: input device;
5 output device, 41 bus, 42 CPU,
43 main memory, 44 GPU,
45 Graphic memory, 46 Input interface,
47 Output interface, 51-54 Polygon model,
55 drawing destination buffer,
56, 64 to 66, 70 to 72 Detail buffer,
57-63 Drawing results, 67-69 Position information,
80 bounding boxes,
81 Drawing object, 82 Area,
100 to 300: drawing processing device; 101, 201: acquisition unit;
102, 301 creation unit, 103 drawing destination buffer storage unit,
104, 204 calculation unit, 105, 205 determination unit,
106, 202 application determination unit,
107, 203 non-applicable drawing object drawing section,
108, 209, 304 Applied drawing object drawing unit,
109, 303 detailed buffer memory unit,
110, 207, 306 blend processing unit,
111 output control unit, 112, 210, 305 dotting unit,
206 End determination unit, 208 Accumulation storage unit,
302 Allocation creation unit.

Claims (13)

2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画する打点部と、
前記バッファに描画されたシーンを出力装置に出力するように制御する出力制御部と
前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定する適用判定部と、
前記適用判定部によって前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画する第一の描画対象描画部と、
前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドするブレンド処理部とを備え、
前記バッファは、前記第二のバッファであり、
前記打点部は、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打ち、前記第二の描画対象を前記第二のバッファに描画し、
前記出力制御部は、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する
画処理装置。
a dotting unit that draws dots on pixels in a buffer corresponding to positions of a two or more dimensional drawing object, and draws the drawing object in the buffer;
an output control unit that controls the scene drawn in the buffer to be output to an output device ;
an application determination unit that determines whether the drawing target is a first drawing target to be drawn in a first buffer that is a drawing destination, or a second drawing target to be drawn in a second buffer that is a buffer different from the first buffer;
a first drawing object drawing unit that draws the drawing object determined to be the first drawing object by the application determination unit in the first buffer;
a blend processing unit that alpha-blends the first buffer with the second buffer using an alpha value that represents the transparency of the drawing object,
the buffer is the second buffer,
the dotting unit draws a dot on a pixel in the second buffer corresponding to a position of the second drawing object, thereby drawing the second drawing object in the second buffer;
The output control unit controls so as to output the alpha-blended scene drawn in the first buffer to the output device.
Drawing processing unit.
前記適用判定部によって前記第二の描画対象と判定された前記描画対象の面積を算出する算出部と、
前記算出部により算出された前記面積から前記第二の描画対象の透過度を表すアルファ値を決定する決定部とを備える
請求項に記載の描画処理装置。
a calculation unit that calculates an area of the drawing object determined to be the second drawing object by the application determination unit;
The drawing processing device according to claim 1 , further comprising a determination unit that determines an alpha value representing a transparency of the second drawing object from the area calculated by the calculation unit.
前記第二の描画対象を前記第二のバッファに描画し、前記第二の描画対象を前記第二のバッファに描画したときに塗りつぶされたピクセル数を取得する第二の描画対象描画部を備え、
前記打点部は、前記ピクセル数が0ピクセルである前記第二の描画対象に対応した前記第二のバッファの位置に点を打ち、前記第二の描画対象を前記第二のバッファに描画する
請求項1又は2に記載の描画処理装置。
a second drawing object drawing unit that draws the second drawing object in the second buffer and obtains the number of pixels filled when the second drawing object is drawn in the second buffer;
3. The drawing processing device according to claim 1, wherein the dotting unit dots a dot at a position in the second buffer corresponding to the second drawing object where the pixel count is 0 pixels, and draws the second drawing object in the second buffer.
前記打点部は、前記第二の描画対象の頂点の位置または前記第二の描画対象の重心の位置に対応した前記第二のバッファ内のピクセルに点を打つ
請求項からのいずれか1項に記載の描画処理装置。
4. The drawing processing device according to claim 1 , wherein the dotting unit puts a dot on a pixel in the second buffer corresponding to a position of a vertex of the second drawing object or a position of a center of gravity of the second drawing object.
前記算出部は、前記第二の描画対象に近似した前記第二の描画対象よりも頂点数が少ない形状で概算した面積を前記第二の描画対象の前記面積として算出する
請求項に記載の描画処理装置。
The drawing processing device according to claim 2 , wherein the calculation unit calculates, as the area of the second drawing object, an area roughly estimated using a shape that is similar to the second drawing object and has a smaller number of vertices than the second drawing object.
前記第二の描画対象ごとの面積に応じて、前記第二の描画対象ごとの前記第二のバッファを作成する割り当て作成部を備える
請求項からのいずれか1項に記載の描画処理装置。
The drawing processing device according to claim 1 , further comprising an allocation creation unit that creates the second buffer for each of the second drawing objects in accordance with an area of each of the second drawing objects.
前記割り当て作成部は、前記第二の描画対象に近似した前記第二の描画対象よりも頂点数が少ない形状で概算した面積を前記第二の描画対象の前記面積として、前記第一のバッファに対する前記第二の描画対象ごとの前記第二のバッファの大きさを算出する
請求項に記載の描画処理装置。
7. The drawing processing device according to claim 6, wherein the allocation creation unit calculates a size of the second buffer for each of the second drawing objects relative to the first buffer by setting the area of the second drawing object to an approximate area of a shape that is similar to the second drawing object and has fewer vertices than the second drawing object.
前記描画対象が前記第一の描画対象と前記第二の描画対象とのいずれであるかの情報であるタグ情報を取得する取得部を備え、
前記適用判定部は、前記タグ情報を用いて、前記描画対象が前記第一の描画対象と前記第二の描画対象とのいずれであるかを判定する
請求項からのいずれか1項に記載の描画処理装置。
an acquisition unit that acquires tag information that is information indicating whether the drawing target is the first drawing target or the second drawing target;
The drawing processing device according to claim 1 , wherein the application determination unit determines whether the drawing target is the first drawing target or the second drawing target by using the tag information.
前記適用判定部は、前記描画対象の面積を用いて、前記描画対象が前記第一の描画対象と前記第二の描画対象とのいずれであるかを判定する
請求項からのいずれか1項に記載の描画処理装置。
The drawing processing device according to claim 1 , wherein the application determination unit determines whether the drawing target is the first drawing target or the second drawing target by using an area of the drawing target.
前記適用判定部は、前記描画対象の輝度、または前記描画対象に予め付与された重要度のうち少なくとも1つを用いて、前記描画対象が前記第一の描画対象と前記第二の描画対象とのいずれであるかの判定に用いる閾値を変動させる
請求項に記載の描画処理装置。
The drawing processing device according to claim 9 , wherein the application determination unit varies a threshold value used to determine whether the drawing object is the first drawing object or the second drawing object by using at least one of the luminance of the drawing object or an importance previously assigned to the drawing object .
2次元以上の描画対象の入力を受け付ける入力装置と、
前記描画対象をバッファにシーンとして描画する描画処理を行う描画処理装置と、
前記シーンを出力する出力装置とを備え、
前記描画処理装置は、
前記描画対象の位置に対応した前記バッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画する打点部と、
前記バッファに描画されたシーンを前記出力装置に出力するように制御する出力制御部と
前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定する適用判定部と、
前記適用判定部によって前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画する第一の描画対象描画部と、
前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドするブレンド処理部とを備え、
前記バッファは、前記第二のバッファであり、
前記打点部は、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打ち、前記第二の描画対象を前記第二のバッファに描画し、
前記出力制御部は、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する
画処理システム。
an input device that accepts input of a two or more dimensional drawing object;
a drawing processing device that performs drawing processing to draw the drawing object in a buffer as a scene;
an output device for outputting the scene;
The drawing processing device includes:
a dotting unit that draws a dot on a pixel in the buffer corresponding to a position of the drawing object, thereby drawing the drawing object in the buffer;
an output control unit that controls the scene drawn in the buffer to be output to the output device ;
an application determination unit that determines whether the drawing target is a first drawing target to be drawn in a first buffer that is a drawing destination, or a second drawing target to be drawn in a second buffer that is a buffer different from the first buffer;
a first drawing object drawing unit that draws the drawing object determined to be the first drawing object by the application determination unit in the first buffer;
a blend processing unit that alpha-blends the first buffer with the second buffer using an alpha value that represents the transparency of the drawing object,
the buffer is the second buffer,
the dotting unit draws a dot on a pixel in the second buffer corresponding to a position of the second drawing object, thereby drawing the second drawing object in the second buffer;
The output control unit controls so as to output the alpha-blended scene drawn in the first buffer to the output device.
Drawing processing system.
打点部が、2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画するステップと、
出力制御部が、前記バッファに描画されたシーンを出力装置に出力するように制御するステップと
適用判定部が、前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定するステップと、
第一の描画対象描画部が、前記適用判定部によって前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画するステップと、
ブレンド処理部が、前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドするステップとを備え、
前記バッファは、前記第二のバッファであり、
前記打点部は、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打ち、前記第二の描画対象を前記第二のバッファに描画し、
前記出力制御部は、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する
画処理方法。
a dotting unit drawing dots on pixels in a buffer corresponding to positions of a drawing object in two or more dimensions, thereby drawing the drawing object in the buffer;
an output control unit controlling the scene drawn in the buffer to be output to an output device ;
a step of an application determination unit determining whether the drawing target is a first drawing target to be drawn in a first buffer that is a drawing destination, or a second drawing target to be drawn in a second buffer that is a buffer different from the first buffer;
a first drawing object drawing unit drawing the drawing object determined to be the first drawing object by the application determination unit in the first buffer;
a blending processing unit alpha-blending the second buffer into the first buffer using an alpha value that represents a transparency of the rendering object;
the buffer is the second buffer,
the dotting unit draws a dot on a pixel in the second buffer corresponding to a position of the second drawing object, thereby drawing the second drawing object in the second buffer;
The output control unit controls so as to output the alpha-blended scene drawn in the first buffer to the output device.
Drawing processing method.
コンピュータに、
2次元以上の描画対象の位置に対応したバッファ内のピクセルに点を打ち、前記描画対象を前記バッファに描画する処理と、
前記バッファに描画されたシーンを出力装置に出力するように制御する処理と
前記描画対象が、描画先となる第一のバッファに描画される第一の描画対象と、前記第一のバッファとは異なるバッファである第二のバッファに描画される第二の描画対象とのいずれであるかを判定する処理と、
前記判定する処理において前記第一の描画対象と判定された前記描画対象を前記第一のバッファに描画する処理と、
前記描画対象の透過度を表すアルファ値で前記第一のバッファに前記第二のバッファをアルファブレンドする処理とを行わせ、
前記バッファは、前記第二のバッファであり、
前記コンピュータに、前記第二の描画対象の位置に対応した前記第二のバッファ内のピクセルに点を打たせ、前記第二の描画対象を前記第二のバッファに描画させ、
前記コンピュータを、アルファブレンドした前記第一のバッファに描画されたシーンを前記出力装置に出力するように制御する
画処理プログラム。
On the computer,
plotting pixels in a buffer corresponding to positions of a two or more dimensional object to be drawn in the buffer;
a process of controlling output of the scene drawn in the buffer to an output device ;
a process of determining whether the drawing target is a first drawing target to be drawn in a first buffer that is a drawing destination, or a second drawing target to be drawn in a second buffer that is a buffer different from the first buffer;
a process of drawing the drawing target determined to be the first drawing target in the process of determining, in the first buffer;
alpha-blending the first buffer with the second buffer using an alpha value that represents the transparency of the rendering target;
the buffer is the second buffer,
causing the computer to plot pixels in the second buffer corresponding to the location of the second object, thereby rendering the second object into the second buffer;
Controlling the computer to output the alpha-blended scene drawn in the first buffer to the output device.
Drawing processing program.
JP2023508301A 2021-03-25 2021-03-25 Drawing processing device, drawing processing system, drawing processing method, and drawing processing program Active JP7471512B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/012491 WO2022201413A1 (en) 2021-03-25 2021-03-25 Drawing processing device, drawing processing system, drawing processing method, and drawing processing program

Publications (3)

Publication Number Publication Date
JPWO2022201413A1 JPWO2022201413A1 (en) 2022-09-29
JPWO2022201413A5 JPWO2022201413A5 (en) 2023-07-03
JP7471512B2 true JP7471512B2 (en) 2024-04-19

Family

ID=83395432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023508301A Active JP7471512B2 (en) 2021-03-25 2021-03-25 Drawing processing device, drawing processing system, drawing processing method, and drawing processing program

Country Status (2)

Country Link
JP (1) JP7471512B2 (en)
WO (1) WO2022201413A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346605A (en) 2004-06-07 2005-12-15 Matsushita Electric Ind Co Ltd Antialias drawing method and drawing apparatus using the same
JP2010146255A (en) 2008-12-18 2010-07-01 Mitsubishi Electric Corp Vector graphics drawing device
WO2014087541A1 (en) 2012-12-07 2014-06-12 三菱電機株式会社 Graphics rendering device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346605A (en) 2004-06-07 2005-12-15 Matsushita Electric Ind Co Ltd Antialias drawing method and drawing apparatus using the same
JP2010146255A (en) 2008-12-18 2010-07-01 Mitsubishi Electric Corp Vector graphics drawing device
WO2014087541A1 (en) 2012-12-07 2014-06-12 三菱電機株式会社 Graphics rendering device

Also Published As

Publication number Publication date
WO2022201413A1 (en) 2022-09-29
JPWO2022201413A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
US11182952B2 (en) Hidden culling in tile-based computer generated images
KR100896155B1 (en) Flexible antialiasing in embedded devices
US10102663B2 (en) Gradient adjustment for texture mapping for multiple render targets with resolution that varies by screen location
JP4769984B2 (en) Tile-based graphic rendering
US6961065B2 (en) Image processor, components thereof, and rendering method
KR102122454B1 (en) Apparatus and Method for rendering a current frame using an image of previous tile
TWI434226B (en) Image processing techniques
US20100265254A1 (en) Graphics filled shape drawing
KR20160069801A (en) Apparatus and Method for rendering
TWI789452B (en) Graphic processor performing sampling-based rendering and method of operating the same
US10332290B2 (en) Fast, coverage-optimized, resolution-independent and anti-aliased graphics processing
US7898549B1 (en) Faster clears for three-dimensional modeling applications
KR20170040698A (en) Method and apparatus for performing graphics pipelines
CN110599564A (en) Image display method and device, computer equipment and storage medium
KR20180038793A (en) Method and apparatus for processing image data
JP7471512B2 (en) Drawing processing device, drawing processing system, drawing processing method, and drawing processing program
JP4183082B2 (en) 3D image drawing apparatus and 3D image drawing method
JP7444276B2 (en) Drawing processing device, drawing processing system, drawing processing method, and drawing processing program
JP3872056B2 (en) Drawing method
CN110764674B (en) Method and system for erasing note primitives of electronic whiteboard and electronic whiteboard
JP2011028641A (en) Image processing device and image processing method
JP2003187260A (en) Image rendering program, recording medium in which image rendering program is recorded, image rendering apparatus and method
CN113421308A (en) Image calibration method and device
JP6205200B2 (en) Image processing apparatus and image processing method having sort function
JP2004086479A (en) Information processor for displaying graphic, information processing method, program for realizing same method, and recording medium with its program recorded

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409

R150 Certificate of patent or registration of utility model

Ref document number: 7471512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150