JP2006301925A - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP2006301925A
JP2006301925A JP2005122370A JP2005122370A JP2006301925A JP 2006301925 A JP2006301925 A JP 2006301925A JP 2005122370 A JP2005122370 A JP 2005122370A JP 2005122370 A JP2005122370 A JP 2005122370A JP 2006301925 A JP2006301925 A JP 2006301925A
Authority
JP
Japan
Prior art keywords
image processing
polygons
polygon
processing method
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005122370A
Other languages
Japanese (ja)
Other versions
JP4681929B2 (en
Inventor
Toshihiro Kobayashi
俊広 小林
Hiroyuki Tsunoda
弘幸 角田
Toshiichi Oshima
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005122370A priority Critical patent/JP4681929B2/en
Publication of JP2006301925A publication Critical patent/JP2006301925A/en
Application granted granted Critical
Publication of JP4681929B2 publication Critical patent/JP4681929B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow adjustment for improving responsiveness to user's operations, without changing shapes of CG objects even when drawing a CG object having a high drawing load. <P>SOLUTION: In an apparatus which draws CG objects read out from an object storage part 500 by an object drawing part 550, when a drawn object is moved in accordance with input of a user's operation from an operation input part 510, polygons of the object CG are divided into groups of drawing object polygons and drawing non-object polygons by a polygon grouping part 540 on the basis of a reduction rate set by a drawing setting part 530 and only drawing object polygons are drawn, whereby responsiveness is improved. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理方法および画像処理装置に関し、特に、描画負荷の高いCGオブジェクトを描画するときにおいても、CGオブジェクトの形状を変更することなく、ユーザからの操作に対する応答性を高めることができる画像処理方法および画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus, and in particular, when drawing a CG object having a high drawing load, the responsiveness to an operation from a user can be improved without changing the shape of the CG object. The present invention relates to an image processing method and an image processing apparatus.

従来から、コンピュータ・グラフィックス(CG)技術を用いて、仮想的な三次元空間内に設定された視点(仮想視点)から、同じ仮想的な三次元空間内に存在する物品(CGオブジェクト)を観察した画像を生成し、ユーザに提示する画像処理装置が数多く存在している。   Conventionally, by using computer graphics (CG) technology, an article (CG object) existing in the same virtual three-dimensional space from a viewpoint (virtual viewpoint) set in the virtual three-dimensional space. There are many image processing apparatuses that generate observed images and present them to users.

このような画像処理装置は、ユーザが操作入力装置を操作することによって、仮想視点の位置姿勢およびCGオブジェクトの位置姿勢を変更することによって、所望の見え方での画像を生成する機能を備えている。   Such an image processing apparatus has a function of generating an image with a desired appearance by changing the position and orientation of the virtual viewpoint and the position and orientation of the CG object by the user operating the operation input device. Yes.

ユーザの所望の見え方での画像を生成するためには、ユーザが操作入力装置を操作して、CGオブジェクトの位置姿勢や、CGオブジェクトを観測する仮想視点の位置姿勢を変更しながら、提示される画像中でCGオブジェクトの見え方を確認する。その結果を受けて、また操作を行い、設定値を変更するということを繰り返すのが一般的である。   In order to generate an image with a user's desired appearance, the user operates the operation input device to change the position and orientation of the CG object and the position and orientation of the virtual viewpoint for observing the CG object. Confirm how the CG object looks in the image. In response to the result, it is common to repeat the operation to change the set value.

そのため、少なくともユーザがCGオブジェクトや仮想視点の位置姿勢を変更する操作を行っている間は、操作内容が即座にCGオブジェクトの描画結果に反映されなければならない。ユーザの操作に対して、CGオブジェクトの描画結果に遅延があると、ユーザの意図通りに位置姿勢の変更が行えず、作業効率が大幅に低下することとなる。   For this reason, at least while the user is performing an operation of changing the position and orientation of the CG object or the virtual viewpoint, the operation content must be immediately reflected in the drawing result of the CG object. If there is a delay in the drawing result of the CG object with respect to the user's operation, the position / orientation cannot be changed as intended by the user, and the work efficiency is greatly reduced.

描画負荷の高いCGオブジェクトを描画するときにおいても、描画速度の低下を防ぎ、ユーザからの操作に対する応答性を維持するために、従来よりいくつかの取り組みがなされている。   Even when drawing a CG object with a high drawing load, several efforts have been made in the past in order to prevent a reduction in drawing speed and maintain responsiveness to operations from the user.

LOD(Level−of−Detail)と呼ばれる手法は、詳細度の異なる複数のCGオブジェクトを用意し、必要に応じてこれらのCGオブジェクトを切り替えて表示することによって、描画速度の低下を最小限に抑えるものである。LODを用いる場合には、あらかじめ詳細度の異なる複数のCGオブジェクトを用意する必要があるため、ユーザの負担が大きいという問題がある。   A technique called LOD (Level-of-Detail) prepares a plurality of CG objects with different levels of detail, and displays these CG objects by switching them as necessary, thereby minimizing a reduction in drawing speed. Is. When LOD is used, it is necessary to prepare a plurality of CG objects having different levels of detail in advance, which causes a problem that the burden on the user is heavy.

また、詳細度の低いCGオブジェクトは、詳細度の高いCGオブジェクトから頂点数・ポリゴン数を削減することによって生成されるため、CGオブジェクトの形状が損なわれてしまうという問題がある。特に、他のCGオブジェクトと干渉するような場合には、形状が損なわれることによって、CGオブジェクトを正確に操作できなくなる可能性がある。   Further, since a CG object with a low degree of detail is generated by reducing the number of vertices and the number of polygons from a CG object with a high degree of detail, there is a problem that the shape of the CG object is impaired. In particular, in the case of interference with other CG objects, there is a possibility that the CG object cannot be accurately operated because the shape is damaged.

このような従来技術として、特開平1−205277号公報(特許文献1)がある。この特許文献1には、詳細度の高い詳細モデルから、詳細度の低い省略モデルを自動的に生成し、表示されるCGオブジェクトの大きさに応じて、詳細モデルと省略モデルとを切り替える方法が示されている。   As such a prior art, there is JP-A-1-205277 (Patent Document 1). In Patent Document 1, a method of automatically generating an abbreviated model with a low level of detail from a detailed model with a high level of detail and switching between the detailed model and the abbreviated model according to the size of the displayed CG object. It is shown.

また、特開平5−225354号公報(特許文献2)がある。特許文献2には、CGオブジェクトが回転しているときのみ、CGオブジェクトをワイヤフレームで描画する方法が示されている。ワイヤフレームで描画を行った場合、シェーディングの処理が不要となるため、ある程度の高速化が期待できる。
特開平1−205277号公報 特開平5−225354号公報
There is also JP-A-5-225354 (Patent Document 2). Patent Document 2 discloses a method of drawing a CG object with a wire frame only when the CG object is rotating. When drawing is performed with a wire frame, shading processing is not necessary, so that a certain degree of speedup can be expected.
JP-A-1-205277 JP-A-5-225354

しかしながら、特許文献1に記載の方法の場合には、省略モデルをあらかじめ作成しておかなければならないという問題は回避されるものの、省略モデルの形状が損なわれるという問題は依然として残されたままである。   However, in the case of the method described in Patent Document 1, the problem that the omitted model has to be created in advance is avoided, but the problem that the shape of the omitted model is lost remains.

また、特許文献2に記載の方法の場合には、高速化の程度についてはレンダリングを行うハードウェアや、CGオブジェクトのポリゴン数、使用しているシェーディングモデル、シーンの光源数などに大きく依存するため、状況によっては、ユーザが操作するのに十分な応答性が得られない可能性がある。さらに、この方法は、高速化の程度を調整することができないため、十分な応答性が得られなければ、それ以上の対処ができないという問題がある。   In the case of the method described in Patent Document 2, the degree of speed-up depends greatly on the hardware that performs rendering, the number of polygons of the CG object, the shading model used, the number of light sources in the scene, and the like. Depending on the situation, there is a possibility that sufficient response for the user to operate cannot be obtained. Furthermore, since this method cannot adjust the degree of speeding up, there is a problem in that further measures cannot be taken unless sufficient responsiveness is obtained.

本発明は、上記の課題に鑑みてなされたものであり、描画負荷の高いCGオブジェクトを描画するときにおいても、CGオブジェクトの形状を変更することなく、ユーザからの操作に対する応答性を高めるための調整が可能な画像処理方法および画像処理装置を提供することを目的とする。   The present invention has been made in view of the above problems, and is intended to improve responsiveness to an operation from a user without changing the shape of a CG object even when drawing a CG object having a high drawing load. An object is to provide an image processing method and an image processing apparatus capable of adjustment.

また、本発明は、描画速度が低下することなく、ユーザの操作性に対する応答性の良い画像処理方法および画像処理装置を提供することを目的とする。   Another object of the present invention is to provide an image processing method and an image processing apparatus that have good responsiveness to user operability without reducing the drawing speed.

上記の目的を達成するための本発明による画像処理方法は、以下の構成を備える。すなわち、
三次元CGオブジェクトから二次元画像を生成する画像処理方法において、前記CGオブジェクトを構成するポリゴンを第一の集合と第二の集合とに分類する分類工程と、前記ポリゴンを描画する描画工程とを備え、前記描画工程は、前記第二の集合に属するポリゴンを描画せず前記第一の集合に属するポリゴンを描画する。
In order to achieve the above object, an image processing method according to the present invention comprises the following arrangement. That is,
In an image processing method for generating a two-dimensional image from a three-dimensional CG object, a classification step of classifying polygons constituting the CG object into a first set and a second set, and a drawing step of drawing the polygon The drawing step draws polygons belonging to the first set without drawing polygons belonging to the second set.

また、上記の目的を達成するための本発明による画像処理装置は、三次元CGオブジェクトから二次元画像を生成する画像処理装置において、前記CGオブジェクトを構成するポリゴンを第一の集合と第二の集合とに分類する分類手段と、前記ポリゴンを描画する描画手段とを備え、前記描画手段は、前記第二の集合に属するポリゴンを描画せず前記第一の集合に属するポリゴンを描画する。   According to another aspect of the present invention, there is provided an image processing apparatus for generating a two-dimensional image from a three-dimensional CG object. The polygons constituting the CG object are divided into a first set and a second set. Classifying means for classifying into a set and drawing means for drawing the polygon are provided, and the drawing means draws the polygon belonging to the first set without drawing the polygon belonging to the second set.

本発明は、描画負荷の高いCGオブジェクトを描画するときにおいても、CGオブジェクトの形状を変更することなく、応答性を高めることができる。   The present invention can enhance the responsiveness without changing the shape of the CG object even when drawing a CG object with a high drawing load.

以下、添付の図面を参照して、本発明の好適な実施形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

[第1の実施形態]
図1は本発明による画像処理装置(以下、本装置と略)の第1の実施形態におけるハードウェア構成を示すブロックである。
[First Embodiment]
FIG. 1 is a block diagram showing a hardware configuration in a first embodiment of an image processing apparatus (hereinafter abbreviated as this apparatus) according to the present invention.

図1において、本装置はコンピュータ100、操作デバイス200、表示装置300から構成される。コンピュータ100は、さらにCPU10、RAM20、ディスク装置30、操作入力装置40、画像描画装置50から構成される。   In FIG. 1, the apparatus includes a computer 100, an operation device 200, and a display device 300. The computer 100 further includes a CPU 10, a RAM 20, a disk device 30, an operation input device 40, and an image drawing device 50.

CPU10は、ディスク装置30に保持されているプログラムコードをRAM20に転送し、その命令に基づいて処理を実行する。CPU10はシステムバス60に接続され、RAM20、ディスク装置30、操作入力装置40、画像描画装置50と相互に通信し、それらを制御することが可能である。   CPU10 transfers the program code currently hold | maintained at the disk apparatus 30 to RAM20, and performs a process based on the command. The CPU 10 is connected to the system bus 60, and can communicate with the RAM 20, the disk device 30, the operation input device 40, and the image drawing device 50 to control them.

RAM20は、メモリ等の主記憶装置によって実現される。RAM20は、システムバス60を介して、情報処理を実行するプログラムコードやプログラムの制御情報、三次元CGオブジェクト(以下、単に、CGオブジェクト)の頂点座標や面構成情報などの各種データを一時的に保持する。   The RAM 20 is realized by a main storage device such as a memory. The RAM 20 temporarily stores various data such as program code for executing information processing, control information of the program, vertex coordinates of the three-dimensional CG object (hereinafter simply referred to as CG object) and surface configuration information via the system bus 60. Hold.

ディスク装置30は、ハードディスク等の補助記憶装置によって実現される。ディスク装置30は、本実施形態の画像処理装置を実現するプログラムのプログラムコードやプログラムの制御情報、CGオブジェクトの頂点情報や面構成情報などを保持する。   The disk device 30 is realized by an auxiliary storage device such as a hard disk. The disk device 30 holds the program code of the program that implements the image processing apparatus of the present embodiment, control information of the program, vertex information of the CG object, surface configuration information, and the like.

操作入力装置40は、各種インタフェース機器によって実現される。コンピュータ100の外部に接続された操作デバイス200からの信号をデータとして入力し、システムバス60を介して、RAM20にデータを格納する。   The operation input device 40 is realized by various interface devices. A signal from the operation device 200 connected to the outside of the computer 100 is input as data, and the data is stored in the RAM 20 via the system bus 60.

画像描画装置50は、グラフィックスカードなどの機器によって実現される。本実施形態では、画像出力装置50は、CPU10からの指令を受け、CG描画処理を行い、描画結果となる画像を生成し、適切な画像信号に変換したのち表示装置300へ送出する。   The image drawing device 50 is realized by a device such as a graphics card. In the present embodiment, the image output device 50 receives a command from the CPU 10, performs CG drawing processing, generates an image as a drawing result, converts the image into an appropriate image signal, and sends the image to the display device 300.

システムバス60は、コンピュータ100を構成する各機器が接続され、上記機器が相互に通信するための通信路である。   The system bus 60 is a communication path through which the devices constituting the computer 100 are connected and the devices communicate with each other.

操作デバイス200は、マウス、キーボード、各種スイッチ等の機器によって実現され、ユーザが操作デバイス200を操作することによって、本装置に指令を与えるために用いる。操作デバイス200は、ユーザからの入力を受けると、制御信号を操作入力装置40に送出する。   The operation device 200 is realized by a device such as a mouse, a keyboard, and various switches, and is used for giving a command to the apparatus when the user operates the operation device 200. When receiving an input from the user, the operation device 200 sends a control signal to the operation input device 40.

表示装置300は、CRT、液晶表示装置などのディスプレイ装置によって実現される。表示装置300は画像描画装置50から送出される画像信号を表示し、ユーザに処理結果を提示する。   The display device 300 is realized by a display device such as a CRT or a liquid crystal display device. The display device 300 displays the image signal sent from the image drawing device 50 and presents the processing result to the user.

図2は本発明による画像処理装置の第1の実施形態における概略機能構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic functional configuration in the first embodiment of the image processing apparatus according to the present invention.

図2において、オブジェクト記憶部500は、図1に示したディスク装置30から構成され、表示するCGオブジェクトの形状に関する情報であるCGオブジェクトデータを保持している。より具体的には、CGオブジェクトを構成するポリゴンの各頂点座標や、面を構成する座標のIDを保持している。または、自由曲面の種類を示すIDと自由曲面を構成する制御点の座標を保持している。本実施形態においては、CGオブジェクトデータは、CGオブジェクトの形状に関する情報のみから構成されているが、色やマテリアル、テクスチャなど、CGオブジェクトを描画するために必要な、他のパラメータをCGオブジェクトデータに含め、オブジェクト記憶部500に保持させるようにしてもよい。   2, the object storage unit 500 includes the disk device 30 illustrated in FIG. 1, and holds CG object data that is information regarding the shape of the CG object to be displayed. More specifically, it holds the vertex coordinates of the polygons that make up the CG object and the IDs of the coordinates that make up the surface. Alternatively, an ID indicating the type of free-form surface and the coordinates of control points constituting the free-form surface are held. In the present embodiment, the CG object data is composed only of information relating to the shape of the CG object. However, other parameters necessary for drawing the CG object, such as color, material, and texture, are included in the CG object data. In addition, the object storage unit 500 may hold them.

操作入力部510は、ユーザが本装置に接続されている操作デバイス200に対して行った指示操作を装置に入力し、その指示操作の内容を制御部520に送る。本実施形態の場合、ユーザが本装置に対して行う操作として、本装置の起動、終了、CGオブジェクトデータの読み込み、仮想視点位置姿勢の変更、CGオブジェクト位置姿勢の変更、描画ポリゴン削減率の変更などが含まれるが、これら以外の操作を受け付けるようにしてもよい。   The operation input unit 510 inputs an instruction operation performed by the user on the operation device 200 connected to the apparatus to the apparatus, and sends the contents of the instruction operation to the control unit 520. In the case of the present embodiment, the operations performed by the user on the apparatus include activation and termination of the apparatus, reading of CG object data, change of the virtual viewpoint position and orientation, change of the CG object position and orientation, and change of the drawing polygon reduction rate. However, operations other than these may be accepted.

制御部520は、操作入力部510からの入力を受けると、ユーザの操作内容に応じて所定の操作指令を発行し、描画設定部530、ポリゴングルーピング部540に対して操作指令を送出することによって、各部の動作を制御する。   Upon receiving an input from the operation input unit 510, the control unit 520 issues a predetermined operation command according to the user's operation content, and sends the operation command to the drawing setting unit 530 and the polygon grouping unit 540. Control the operation of each part.

本実施形態では、制御部520が発行する指令には、CGオブジェクトデータ読み込み指令、CGオブジェクト位置姿勢設定指令、仮想視点位置姿勢設定指令、ポリゴングルーピング指令、ポリゴン削減率設定指令などがある。   In the present embodiment, commands issued by the control unit 520 include a CG object data read command, a CG object position / posture setting command, a virtual viewpoint position / posture setting command, a polygon grouping command, a polygon reduction rate setting command, and the like.

例えば、操作入力部510がユーザから仮想視点位置姿勢変更の操作を入力した場合には、制御部520は描画設定部530に対して仮想視点位置姿勢設定指令を、ポリゴングルーピング部540に対してポリゴングルーピング指令を発行し、各々送出する。   For example, when the operation input unit 510 inputs an operation of changing the virtual viewpoint position / orientation from the user, the control unit 520 issues a virtual viewpoint position / orientation setting command to the drawing setting unit 530 and a polygon to the polygon grouping unit 540. A grouping command is issued and each is sent out.

描画設定部530は、CGオブジェクトデータ読み込み、CGオブジェクトの位置姿勢の設定、CGオブジェクトを観測する仮想視点の位置姿勢の設定を行う。これらの動作は、制御部520より送出される操作指令に応じて決定される。   The drawing setting unit 530 reads CG object data, sets the position and orientation of the CG object, and sets the position and orientation of the virtual viewpoint for observing the CG object. These operations are determined according to an operation command sent from the control unit 520.

CGオブジェクトの位置姿勢の設定、仮想視点の位置姿勢の設定については、対応する操作指令が入力されない場合には、既に描画設定部530が保持している値、または、あらかじめ定められた既定値が使用され、値の更新は行われない。また、描画設定部530は、オブジェクト記憶部500が保持しているCGオブジェクトが自由曲面で構成されている場合には、テセレーションを行うことにより自由曲面をポリゴンに分割し、ポリゴンを構成する頂点座標と面を構成する座標のIDとを生成する。   Regarding the setting of the position and orientation of the CG object and the setting of the position and orientation of the virtual viewpoint, when a corresponding operation command is not input, a value already held by the drawing setting unit 530 or a predetermined default value is set. Used, no value update is performed. In addition, when the CG object held by the object storage unit 500 is composed of a free-form surface, the drawing setting unit 530 divides the free-form surface into polygons by performing tessellation, and apexes constituting the polygons The coordinates and the IDs of the coordinates constituting the surface are generated.

ポリゴングルーピング部540は、制御部520からの指令に基づき、CGオブジェクトを構成する各ポリゴンに対し、描画対象とするポリゴンと、描画対象としないポリゴンとを分類し、グルーピングする。   Based on a command from the control unit 520, the polygon grouping unit 540 classifies and groups the polygons to be drawn and the polygons that are not to be drawn for each polygon constituting the CG object.

ここで、ポリゴングルーピング部540の処理について、より詳細に説明する。   Here, the processing of the polygon grouping unit 540 will be described in more detail.

例えば、オブジェクト記憶部500には、図3に示すような、オブジェクトを構成するポリゴンに関するデータが保持されているものとする。図3のデータは全部で20のポリゴンから構成され、各ポリゴンには1から20までのIDが付与されている。なお、1つのオブジェクトについて説明するが、実際の表示には複数のオブジェクトを表示するために、それぞれのオブジェクト毎に以下の処理を行うものとする。   For example, it is assumed that the object storage unit 500 holds data relating to polygons constituting the object as shown in FIG. The data in FIG. 3 is composed of a total of 20 polygons, and IDs from 1 to 20 are assigned to each polygon. Although one object will be described, in order to display a plurality of objects in actual display, the following processing is performed for each object.

ポリゴングルーピング部540は、制御部520よりポリゴングルーピング指令およびポリゴン削減率設定指令を入力する。ポリゴングルーピング指令は、ユーザが操作デバイス200に対して、仮想視点またはCGオブジェクトの位置姿勢を変更する操作を行った場合に発行される指令である。ポリゴングルーピング部540にポリゴングルーピング指令が入力された場合には、以下のポリゴングルーピング処理を行う。   Polygon grouping unit 540 receives a polygon grouping command and a polygon reduction rate setting command from control unit 520. The polygon grouping command is a command issued when the user performs an operation for changing the position and orientation of the virtual viewpoint or the CG object on the operation device 200. When a polygon grouping command is input to the polygon grouping unit 540, the following polygon grouping process is performed.

ポリゴングルーピング部540は、制御部520よりポリゴン描画削減率設定指令を入力すると、同時にポリゴン削減率r(正の実数)を設定する。ポリゴン描画削減率設定指令が入力されなかった場合には、既にポリゴングルーピング部540が前回使用し保持している値、または、あらかじめ定められている既定の値がポリゴン削減率rとして設定され、値の更新は行われない。   When a polygon drawing reduction rate setting command is input from the control unit 520, the polygon grouping unit 540 sets a polygon reduction rate r (positive real number) at the same time. When the polygon drawing reduction rate setting command is not input, a value previously used and held by the polygon grouping unit 540 or a predetermined default value is set as the polygon reduction rate r. Will not be updated.

ポリゴングルーピング部540は、各ポリゴンを描画対象ポリゴングループ(以下、Pとする)と描画非対象ポリゴングループ(以下、Qとする)のいずれかに分類する。このとき、PとQの構成ポリゴン数の比が1−r:rとなるように分類する。rの値が大きいほどQのポリゴン数、すなわち描画されないポリゴン数が多くなり、描画が高速化される。CGオブジェクトの描画時には、Qに属するポリゴンについては描画が行われないため、CGオブジェクトの一部が欠落したような描画結果となり、その部分については、ディテールが損なわれる。ただし、従来手法と異なり、CGオブジェクトの形状そのものは不変であるため、ユーザがCGオブジェクトの形状を把握することに対しての影響は少ない。   The polygon grouping unit 540 classifies each polygon into either a drawing target polygon group (hereinafter referred to as P) or a drawing non-target polygon group (hereinafter referred to as Q). At this time, classification is performed so that the ratio of the number of constituent polygons of P and Q is 1-r: r. As the value of r is larger, the number of polygons of Q, that is, the number of polygons that are not drawn increases, and drawing is speeded up. At the time of drawing the CG object, drawing is not performed for the polygon belonging to Q. Therefore, the drawing result is such that a part of the CG object is missing, and the detail is lost in that part. However, unlike the conventional method, since the shape of the CG object itself is unchanged, there is little influence on the user grasping the shape of the CG object.

例えば、制御部520によってr=0.5が指定された場合、ポリゴングルーピング部540は、全ポリゴンに対し、Pに属するポリゴン数の割合が0.5(すなわちPとQとのポリゴン数の比が1:1)となるようにグルーピングを行う。   For example, when r = 0.5 is designated by the control unit 520, the polygon grouping unit 540 determines that the ratio of the number of polygons belonging to P is 0.5 (ie, the ratio of the number of polygons between P and Q) with respect to all polygons. Is grouped so as to be 1: 1).

図4はr=0.5のときにグルーピングを行った結果について示している。図4ではIDが奇数であるポリゴンをP(図4でグレーで示されているポリゴン)、IDが偶数であるポリゴンをQとなるように分類している。すなわち、図4の例では、グレーで示されているポリゴンのみがオブジェクト描画部550によって描画されることとなる。各ポリゴンをPとQとに分類する方法として、偶数・奇数の別だけではなく、乱数などの別の手段で分類することも可能である。   FIG. 4 shows the result of grouping when r = 0.5. In FIG. 4, polygons with an odd ID are classified as P (polygons shown in gray in FIG. 4), and polygons with an even ID are classified as Q. That is, in the example of FIG. 4, only the polygons indicated in gray are drawn by the object drawing unit 550. As a method of classifying each polygon into P and Q, it is possible to classify by other means such as a random number as well as an even number and an odd number.

図5はr=0.2のときにグルーピングを行った結果について示している。図4の例と同様に、グレーで示されているポリゴンがオブジェクト描画部550によって描画される。図5の例では、ポリゴン削減率がr=0.2に指定されているため、PとQとのポリゴン数の比が4:1となる。この場合、図4の例よりも多くのポリゴンがPに分類されるため、図4の例よりも描画速度は低下するが、CGオブジェクトのディテールの欠損は少なくなる。   FIG. 5 shows the result of grouping when r = 0.2. Similar to the example of FIG. 4, polygons shown in gray are drawn by the object drawing unit 550. In the example of FIG. 5, since the polygon reduction rate is specified as r = 0.2, the ratio of the number of polygons of P and Q is 4: 1. In this case, since more polygons are classified into P than in the example of FIG. 4, the drawing speed is lower than in the example of FIG. 4, but the loss of detail in the CG object is reduced.

ポリゴングルーピング部540は、グルーピングを行う際に、前フレームでの分類結果を参照してもよい。例えば、ポリゴングルーピング部540は、Pに属すポリゴンを決定するときに、前フレームにおいてQに属していたポリゴンを優先的にPに属させるようにする。このような方法でPとQとを分類することによって、描画対象ポリゴングループの構成が毎フレーム変化するため、一定の時間内ではすべてのポリゴンが描画されることとなり、時系列で見たときに各ポリゴンが描画される確率が均一となり、CGオブジェクトのディテールの欠損を最小限に抑えることができる。   The polygon grouping unit 540 may refer to the classification result in the previous frame when performing grouping. For example, when determining the polygon belonging to P, the polygon grouping unit 540 preferentially assigns the polygon belonging to Q in the previous frame to P. By classifying P and Q in this way, the configuration of the drawing target polygon group changes every frame, so that all polygons are drawn within a certain period of time. The probability that each polygon is drawn becomes uniform, and the loss of details of the CG object can be minimized.

また、本実施形態では、PとQとのポリゴン数の比が1−r:rとなるように分類を行ったが、この比はポリゴン数に限られるものではない。例えば、PとQとで、ポリゴンの総面積の比が1−r:rとなるように分類を行ってもよい。   In this embodiment, classification is performed such that the ratio of the number of polygons of P and Q is 1-r: r, but this ratio is not limited to the number of polygons. For example, classification may be performed so that the ratio of the total area of polygons is 1-r: r between P and Q.

制御部520よりポリゴングルーピング指令が入力されなかった場合には、全ポリゴンをPに所属させる。   If no polygon grouping command is input from the control unit 520, all polygons belong to P.

オブジェクト描画部550は、ポリゴングルーピング部540でグルーピングされたポリゴンのうち、描画対象となったポリゴン(すなわちPに属するポリゴン)のみを描画する。   The object drawing unit 550 draws only the polygons to be drawn (that is, polygons belonging to P) among the polygons grouped by the polygon grouping unit 540.

また、オブジェクト描画部550は、Pに属するポリゴンの他に、CGオブジェクト全体に対する輪郭線を同時に描画するようにしてもよい。   In addition to the polygon belonging to P, the object drawing unit 550 may simultaneously draw the outline for the entire CG object.

また、操作入力部510を通じて,ポリゴン削減率rをユーザが入力する、またはポリゴン削減率rとして既定の値が用いられるようになっているが、オブジェクト描画部550の処理速度に応じて、制御部520が自動的にrを決定するようにしてもよい。この場合、制御部520は目標フレームレートfの値を保持している。fはオブジェクト描画部550が1秒あたり何フレームの描画処理が行えるようにするかという値であり、fの値は操作入力部510を通じて、ユーザが入力してもよいし、既定の値(例えば※f=30)を用いるようにしてもよい。制御部520は、初期値としてr=0を設定し、r=0の状態でオブジェクト描画部550が実際に1秒間に描画したフレーム数f’を測定する。もしf’<fであれば、制御部520は新たにrに0.1増加させた値r=0.1を設定する。このようにして、制御部520はf’>fとなるように(ただし最大0.9まで)rを増加させる。このようにして,ユーザにとってより理解しやすい値であるフレームレートを基準にして、ポリゴン削減率rを自動的に調整することが可能である。   In addition, the user inputs the polygon reduction rate r through the operation input unit 510, or a predetermined value is used as the polygon reduction rate r, but depending on the processing speed of the object drawing unit 550, the control unit 520 may automatically determine r. In this case, the control unit 520 holds the value of the target frame rate f. f is a value indicating how many frames per second the object drawing unit 550 can perform, and the value of f may be input by the user through the operation input unit 510 or a predetermined value (for example, * F = 30) may be used. The control unit 520 sets r = 0 as an initial value, and measures the number of frames f ′ that the object drawing unit 550 has actually drawn in one second in a state where r = 0. If f ′ <f, the control unit 520 sets a value r = 0.1 that is newly increased by 0.1 to r. In this way, the control unit 520 increases r so that f ′> f (up to 0.9). In this way, it is possible to automatically adjust the polygon reduction rate r based on the frame rate, which is a value that is more easily understood by the user.

以上のような構成を備えた本実施の形態の制御について、以下説明する。図6は、本実施形態の情報処理装置が行う処理のフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内のディスク装置30やRAM20などの記憶装置内に格納され、CPU10により読み出され、実行される。   The control of the present embodiment having the above configuration will be described below. FIG. 6 is a flowchart of processing performed by the information processing apparatus of this embodiment. The program code according to the flowchart is stored in a storage device such as the disk device 30 or the RAM 20 in the device of the present embodiment, and is read out and executed by the CPU 10.

まず、本実施形態の画像処理装置が起動されると、ステップS1010において、CPU10によって、オブジェクト記憶部500を構成するディスク装置30に格納されているCGオブジェクトのデータが読み出され、RAM20に保持される。   First, when the image processing apparatus of the present embodiment is activated, the CPU 10 reads out the data of the CG object stored in the disk device 30 constituting the object storage unit 500 and holds it in the RAM 20 in step S1010. The

次に、ステップS1020において、操作入力部510は、ユーザが操作デバイス200に対して行った操作を本装置に入力する。操作入力部510が入力した操作情報は、制御部520に送出される。制御部520では、ユーザの操作内容に応じて適切な指令が発行され、描画設定部530、ポリゴングルーピング部540に送出される。   Next, in step S1020, the operation input unit 510 inputs an operation performed by the user on the operation device 200 to the apparatus. The operation information input by the operation input unit 510 is sent to the control unit 520. In the control unit 520, an appropriate command is issued according to the user's operation content, and is sent to the drawing setting unit 530 and the polygon grouping unit 540.

ステップS1030において、描画設定部530は、CGオブジェクトの位置姿勢、CGオブジェクトを観測する仮想視点の位置姿勢を設定する。   In step S1030, the drawing setting unit 530 sets the position and orientation of the CG object and the position and orientation of the virtual viewpoint for observing the CG object.

ステップS1040において、ポリゴングルーピング部540は、ポリゴングルーピング処理を行う。   In step S1040, the polygon grouping unit 540 performs polygon grouping processing.

ステップS1050において、オブジェクト描画部550は、CGオブジェクトのポリゴンの描画処理を行う。   In step S1050, the object drawing unit 550 performs a polygon drawing process of the CG object.

ステップS1060では、ステップS1020において、ユーザから本装置の終了に対応する操作が入力された場合には、本装置の処理を終了する。そうでない場合には、ステップS1020に戻る。   In step S1060, if an operation corresponding to termination of the apparatus is input from the user in step S1020, the process of the apparatus is terminated. Otherwise, the process returns to step S1020.

本実施形態において、ステップS1020からステップS1060までの一連の処理は、短時間のうちに行われ、これらの処理を一回完了するまでに要する時間は、通常、数ミリ秒から数百ミリ秒程度以内である。   In this embodiment, a series of processing from step S1020 to step S1060 is performed in a short time, and the time required to complete these processing once is usually about several milliseconds to several hundred milliseconds. Is within.

なお、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。   In the present invention, a storage medium recording software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the storage medium in the storage medium. Needless to say, this can also be achieved by reading and executing the programmed program code.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フロッピディスク,ハードディスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,DVD−ROM,DVD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。   Examples of the storage medium for supplying the program code include a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, DVD-ROM, DVD-R, magnetic tape, nonvolatile memory card, A ROM or the like can be used.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) operating on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

以上述べたように、本発明の実施形態によれば、描画負荷の高いCGオブジェクトを描画するときにおいても、CGオブジェクトの形状を変更することなく、ユーザからの操作に対する応答性を高めることが可能となる。   As described above, according to the embodiment of the present invention, even when drawing a CG object having a high drawing load, it is possible to improve the responsiveness to the operation from the user without changing the shape of the CG object. It becomes.

また、本発明の実施形態によれば、応答性を高めるために別々のオブジェクトを持つ必要がない。   Moreover, according to the embodiment of the present invention, it is not necessary to have separate objects in order to improve responsiveness.

更に、本発明の実施形態によれば、フレームレートに応じてCGオブジェクトの削減率を変更するので、CGオブジェクトの複雑さ、や装置の能力に応じて適切な削減率を設定することができる。   Furthermore, according to the embodiment of the present invention, since the reduction rate of the CG object is changed according to the frame rate, an appropriate reduction rate can be set according to the complexity of the CG object and the capability of the apparatus.

本発明による画像処理装置の第1の実施形態におけるハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions in 1st Embodiment of the image processing apparatus by this invention. 本発明による画像処理装置の第1の実施形態における概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration in a first embodiment of an image processing apparatus according to the present invention. 本発明による画像処理装置の第1の実施形態におけるポリゴンデータの例を示す図である。It is a figure which shows the example of the polygon data in 1st Embodiment of the image processing apparatus by this invention. 本発明による画像処理装置の第1の実施形態において、r=0.5のときの描画結果の例を示す図である。In the first embodiment of the image processing apparatus according to the present invention, it is a diagram showing an example of a drawing result when r = 0.5. 本発明による画像処理装置の第1の実施形態において、r=0.2のときの描画結果の例を示す図である。In the first embodiment of the image processing apparatus according to the present invention, it is a diagram showing an example of a drawing result when r = 0.2. 本発明による画像処理装置の第1の実施形態における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in 1st Embodiment of the image processing apparatus by this invention.

符号の説明Explanation of symbols

500 オブジェクト記憶部
510 操作入力部
520 制御部
530 描画設定部
540 ポリゴングルーピング部
550 オブジェクト描画部
500 Object Storage Unit 510 Operation Input Unit 520 Control Unit 530 Drawing Setting Unit 540 Polygon Grouping Unit 550 Object Drawing Unit

Claims (10)

三次元CGオブジェクトから二次元画像を生成する画像処理方法において、
前記CGオブジェクトを構成するポリゴンを第一の集合と第二の集合とに分類する分類工程と、
前記CGオブジェクトを構成するポリゴンを描画する描画工程とを備え、
前記描画工程は、前記第二の集合のポリゴンを描画せず前記第一のポリゴンを描画することを特徴とする画像処理方法。
In an image processing method for generating a two-dimensional image from a three-dimensional CG object,
A classification step of classifying the polygons constituting the CG object into a first set and a second set;
A drawing step of drawing a polygon constituting the CG object,
The image processing method characterized in that the drawing step draws the first polygon without drawing the polygon of the second set.
前記CGオブジェクトの位置姿勢および仮想視点の位置姿勢を設定する位置姿勢設定工程を更に有し、
前記分類工程は、前記位置姿勢設定工程による前記CGオブジェクトの位置姿勢または前記仮想視点の位置姿勢のいずれも変化しないときに、前記CGオブジェクトを構成するポリゴンを前記第一の集合に分類することを特徴とする請求項1に記載の画像処理方法。
A position and orientation setting step of setting the position and orientation of the CG object and the position and orientation of the virtual viewpoint;
The classifying step classifies the polygons constituting the CG object into the first set when neither the position / posture of the CG object or the position / posture of the virtual viewpoint is changed by the position / posture setting step. The image processing method according to claim 1, wherein:
分類パラメータを入力する分類パラメータ設定工程を更に備え、
前記分類工程は、前記分類パラメータに基づきポリゴンを分類することを特徴とする請求項1または請求項2に記載の画像処理方法。
A classification parameter setting step for inputting classification parameters;
The image processing method according to claim 1, wherein the classification step classifies the polygons based on the classification parameters.
前記分類工程は、前記第一の集合に属するポリゴン数と前記第二の集合に属するポリゴン数とが、前記分類パラメータによって決定される割合となるように分類することを特徴とする請求項3に記載の画像処理方法。   4. The classification step according to claim 3, wherein the number of polygons belonging to the first set and the number of polygons belonging to the second set are classified so that the ratio is determined by the classification parameter. The image processing method as described. 前記分類工程は、前記第一の集合に属するポリゴンの総面積と前記第二の集合に属するポリゴンの総面積とが、前記分類パラメータによって決定される割合となるように分類することを特徴とする請求項3に記載の画像処理方法。   The classifying step classifies the total area of polygons belonging to the first set and the total area of polygons belonging to the second set so as to be a ratio determined by the classification parameter. The image processing method according to claim 3. 前記描画工程は、CGオブジェクトの輪郭線を描画することを特徴とする請求項1乃至5のいずれかに記載の画像処理方法。   6. The image processing method according to claim 1, wherein the drawing step draws a contour line of a CG object. 前記分類工程は、過去のフレームにおいて前記第二の集合に属していたポリゴンの一部または全部を、前記第一の集合に属するように分類することを特徴とする請求項1乃至6に記載の画像処理方法。   7. The classification step according to claim 1, wherein a part or all of polygons belonging to the second set in a past frame are classified so as to belong to the first set. Image processing method. 三次元CGオブジェクトから二次元画像を生成する画像処理装置において、
前記CGオブジェクトを構成するポリゴンを第一の集合と第二の集合とに分類する分類手段と、
前記ポリゴンを描画する描画手段とを備え、
前記描画手段は、前記第二の集合のポリゴンを描画せず前記第一の集合に属するポリゴンを描画することを特徴とする画像処理装置。
In an image processing apparatus that generates a two-dimensional image from a three-dimensional CG object,
Classification means for classifying the polygons constituting the CG object into a first set and a second set;
Drawing means for drawing the polygon,
The image processing apparatus, wherein the drawing means draws polygons belonging to the first set without drawing the polygons of the second set.
請求項1乃至7の何れかに記載の画像処理方法をコンピュータに実現させるためのプログラム。   A program for causing a computer to implement the image processing method according to claim 1. 請求項1乃至7の何れかに記載の画像処理方法をコンピュータに実現させるためのプログラムを格納した記憶媒体。   A storage medium storing a program for causing a computer to implement the image processing method according to claim 1.
JP2005122370A 2005-04-20 2005-04-20 Image processing method and image processing apparatus Expired - Fee Related JP4681929B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005122370A JP4681929B2 (en) 2005-04-20 2005-04-20 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005122370A JP4681929B2 (en) 2005-04-20 2005-04-20 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2006301925A true JP2006301925A (en) 2006-11-02
JP4681929B2 JP4681929B2 (en) 2011-05-11

Family

ID=37470141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005122370A Expired - Fee Related JP4681929B2 (en) 2005-04-20 2005-04-20 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4681929B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205277A (en) * 1987-10-09 1989-08-17 Hitachi Ltd Computer graphic display device
JPH05225354A (en) * 1992-02-10 1993-09-03 Hitachi Ltd Method and device for three-dimensional graphic display processing and graphic display method
JPH05266212A (en) * 1992-01-02 1993-10-15 Internatl Business Mach Corp <Ibm> Method for generating object
JP2000207581A (en) * 1999-01-12 2000-07-28 Nec Corp Device and method for displaying three-dimensional information and machine readable recording medium recording program
JP2000347562A (en) * 1999-06-02 2000-12-15 Matsushita Electric Ind Co Ltd Stereoscopic topographical map display device
JP2003115055A (en) * 2001-10-05 2003-04-18 Canon Inc Image generator

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01205277A (en) * 1987-10-09 1989-08-17 Hitachi Ltd Computer graphic display device
JPH05266212A (en) * 1992-01-02 1993-10-15 Internatl Business Mach Corp <Ibm> Method for generating object
JPH05225354A (en) * 1992-02-10 1993-09-03 Hitachi Ltd Method and device for three-dimensional graphic display processing and graphic display method
JP2000207581A (en) * 1999-01-12 2000-07-28 Nec Corp Device and method for displaying three-dimensional information and machine readable recording medium recording program
JP2000347562A (en) * 1999-06-02 2000-12-15 Matsushita Electric Ind Co Ltd Stereoscopic topographical map display device
JP2003115055A (en) * 2001-10-05 2003-04-18 Canon Inc Image generator

Also Published As

Publication number Publication date
JP4681929B2 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
US6867787B1 (en) Character generator and character generating method
JP3184327B2 (en) Three-dimensional graphics processing method and apparatus
US7733341B2 (en) Three dimensional image processing
KR100907154B1 (en) Image processing apparatus and constituent parts thereof, rendering method
US5684936A (en) Method and apparatus for generating a rendering order for use in rendering images using a pre-processing technique
JPWO2009145155A1 (en) Cutting simulation display device, cutting simulation display method, and cutting simulation display program
CN103150699A (en) Graphics command generation device and graphics command generation method
EP1295256B1 (en) Method and system for image rendering with tiles
CN105531743A (en) Rendering device
US20010017629A1 (en) Methods and apparatus for drawing contours of objects in video games
JP3350473B2 (en) Three-dimensional graphics drawing apparatus and method for performing occlusion culling
US5666474A (en) Image processing
US6712700B1 (en) Stereo model displaying method and apparatus in video game, game apparatus, and computer-readable recording medium stored with stereo model displaying program for video game
JP2003115055A (en) Image generator
JP2005228110A (en) Information processing method and apparatus
JP5864474B2 (en) Image processing apparatus and image processing method for processing graphics by dividing space
JP4681929B2 (en) Image processing method and image processing apparatus
KR100469820B1 (en) Method and system for renewing screen
JP2001084396A (en) Rendering method and device, game device and computer readable recording medium storing program for rendering stereoscopic model
JP4733757B2 (en) Polygon processing apparatus, program, and information recording medium
US6580429B1 (en) Method of generating data for three-dimensional graphic recording medium and three-dimensional graphic system
JP2000331185A (en) Image processing method and device and program supply medium
JP2000516747A (en) Image processing method and apparatus
JP3688765B2 (en) Drawing method and graphics apparatus
JP3617225B2 (en) Drawing processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080215

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100809

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110207

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees