JPH0997343A - Method and device for texture data generation and computer controller - Google Patents

Method and device for texture data generation and computer controller

Info

Publication number
JPH0997343A
JPH0997343A JP7252790A JP25279095A JPH0997343A JP H0997343 A JPH0997343 A JP H0997343A JP 7252790 A JP7252790 A JP 7252790A JP 25279095 A JP25279095 A JP 25279095A JP H0997343 A JPH0997343 A JP H0997343A
Authority
JP
Japan
Prior art keywords
texture
image
area
quadrangle
designating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7252790A
Other languages
Japanese (ja)
Other versions
JP3610131B2 (en
Inventor
Shinji Uchiyama
晋二 内山
Hiroyuki Yamamoto
裕之 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP25279095A priority Critical patent/JP3610131B2/en
Priority to US08/721,219 priority patent/US6400369B1/en
Priority to EP96307096A priority patent/EP0766206B1/en
Priority to DE69630752T priority patent/DE69630752T2/en
Publication of JPH0997343A publication Critical patent/JPH0997343A/en
Application granted granted Critical
Publication of JP3610131B2 publication Critical patent/JP3610131B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate photography for preparing a texture source image and eliminate a waste when a necessary area is extracted from the texture source image. SOLUTION: A source image that a texture is based on is read in through an input/output interface (step S201) and the necessary area is specified on the texture source image that the texture is based on with feature points at sticking destination (step S202); and quadrangles encircling the specified area is generated according to a specific rule and the quadrangle of the least area among generated quadrangles is extracted (steps S203-S207). Then the image encircled with the extracted quadrangle is converted into a quadrangular image of desired size (steps S208-S212) and the specific area (feature points) is converted into an area on a rectangular image (step S213). The obtained rectangular image and data on the feature points specifying the area are outputted as texture data (step S214).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータグラ
フィクスにおけるテクスチャデータの生成方法及び装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for generating texture data in computer graphics.

【0002】[0002]

【従来の技術】コンピュータグラフィックスにおける3
次元のシーンの描画方法に、表面の模様をテクスチャデ
ータとして用意し、これを3次元シーンの形状データに
貼り付けるという手法がある。このテクスチャデータと
しては、自然画を撮影して得られた画像を適用すること
ができる。
2. Description of the Related Art 3 in Computer Graphics
As a method of drawing a three-dimensional scene, there is a method of preparing a surface pattern as texture data and pasting the texture data to shape data of a three-dimensional scene. An image obtained by shooting a natural image can be applied as the texture data.

【0003】このように、自然画をテクスチャデータと
する場合、そのテクスチャデータの生成方法には、従
来、以下のような2通りの方法が存在した。
As described above, when a natural image is used as texture data, there are conventionally two methods of generating the texture data as follows.

【0004】(1)テクスチャデータとすべき画像の形
状、大きさに合わせて画像の撮影を行ってテクスチャ原
画像を得て、貼り付け先の形状と対応する点(頂点等)
を当該テクスチャ原画像上に設定する。そして、このテ
クスチャ原画像上に与えられた点と貼り付け先の点とを
対応付けながら画像の貼り付けを行う。
(1) An image is taken according to the shape and size of an image to be texture data to obtain an original texture image, and a point (vertex etc.) corresponding to the shape of the pasting destination.
Is set on the original texture image. Then, the image is pasted while associating the given point and the pasting point on the original texture image.

【0005】(2)撮影で得られたテクスチャの原画像
上に所望の矩形を設定し、テクスチャ原画像から必要な
領域を矩形で切り出す。この切り出された矩形の画像を
テクスチャ原画像として上記(1)と同様の手順(頂点
の設定及び貼り付け)で画像の貼り付けを行う。
(2) A desired rectangle is set on the original image of the texture obtained by photographing, and a necessary area is cut out from the original texture image as a rectangle. The cut-out rectangular image is used as a texture original image and the image is pasted by the same procedure (setting and pasting of vertices) as in the above (1).

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上記従
来のテクスチャデータの生成手法には次のような問題が
ある。まず、上記(1)の手法では、テクスチャとして
利用する対象の撮影を、その形状、大きさに合わせて行
わなければならない。即ち、テクスチャとして利用する
対象の全体を含むとともに、当該画像を極力大きく撮影
することが望ましく、撮影を簡便に行うことができな
い。ここで、テクスチャとして利用する対象を極力大き
さ撮影するのは、貼り付け後のテクスチャの細部につい
ての再現性を向上するためである。
However, the conventional texture data generation method described above has the following problems. First, in the above method (1), the object to be used as a texture must be photographed according to its shape and size. In other words, it is desirable to capture the image as large as possible while including the entire target to be used as the texture, and the image capturing cannot be performed easily. Here, the reason why the object used as a texture is photographed as much as possible is to improve the reproducibility of the details of the texture after pasting.

【0007】また、テクスチャの対象として例えば平面
的な表面を撮影する場合、斜め方向から撮影すると、そ
の撮影結果において当該表面の模様等が部分的に縮んだ
ようになる。そのため、縮んだ箇所の細部を表現しよう
とすると高い解像度が要求されてしまい、テクスチャデ
ータのデータ量が増加してしまう。従って、撮影はテク
スチャとして利用する対象の真上から行うことが望まし
く、このことも撮影を困難にする要因である。
Further, for example, when an image of a flat surface is taken as an object of texture, if the image is taken from an oblique direction, the pattern of the surface appears to be partially shrunk in the result of the image pickup. Therefore, a high resolution is required to represent the details of the contracted portion, and the amount of texture data increases. Therefore, it is desirable to shoot from directly above the object used as a texture, which is another factor that makes shooting difficult.

【0008】また、上記(2)の手法では、テクスチャ
の原画像中の必要領域は長方形の形をしているとは限ら
ないため、無駄な領域を多く残してしまう可能性がある
という問題があった。また、テクスチャとして利用する
対象を斜めから撮影してしまった場合は上述の(1)の
場合と同様の問題が発生する。
Further, in the above method (2), the necessary area in the original image of the texture is not necessarily in the shape of a rectangle, so that there is a possibility that a lot of useless areas may be left. there were. Further, when the object used as the texture is photographed from an angle, the same problem as in the case of the above (1) occurs.

【0009】本発明は上記の問題に鑑みてなされたもの
で、テクスチャ原画像を用意する際の撮影を簡便にし、
かつ、テクスチャ原画像から必要な領域を抽出する際の
無駄を解消する(必要でない領域の削減)ことを可能と
するテクスチャデータの生成方法及び装置を提供するこ
とを目的とする。
The present invention has been made in view of the above problems, and simplifies photographing when preparing a texture original image,
Another object of the present invention is to provide a texture data generation method and apparatus capable of eliminating waste (reducing unnecessary areas) when extracting a necessary area from a texture original image.

【0010】[0010]

【課題を解決するための手段】上記の目的を達成するた
めの本発明のテクスチャデータ生成装置は以下の構成を
備えている。即ち、コンピュータグラフィクスに用いる
テクスチャデータを生成するテクスチャデータ生成装置
であって、テクスチャの基となるテクスチャ原画像上
に、必要とする領域を指定する指定手段と、前記指定手
段で指定された領域を囲む四角形を所定の規則に基づい
て生成し、面積の最少となる四角形を抽出する生成手段
と、前記生成手段で抽出された四角形で囲まれる画像を
所望の大きさの長方形画像に変換する第1変換手段と、
前記指定手段で指定された指定領域を前記長方形画像上
の領域に変換する第2変換手段と、前記第1変換手段で
得られた長方形画像と前記第2変換手段で得られた指定
領域を示す情報をテクスチャデータとして出力する出力
手段とを備える。
The texture data generating apparatus of the present invention for achieving the above object has the following configuration. That is, a texture data generation device for generating texture data used for computer graphics, in which a designating unit designating a required region and a region designated by the designating unit are provided on a texture original image which is a basis of a texture. Generating means for generating a quadrangle surrounding the quadrangle based on a predetermined rule and extracting the quadrangle having the smallest area, and first converting an image enclosed by the quadrangle extracted by the generating means into a rectangular image of a desired size. Conversion means,
Second conversion means for converting the specified area specified by the specifying means into an area on the rectangular image, the rectangular image obtained by the first converting means, and the specified area obtained by the second converting means are shown. And output means for outputting information as texture data.

【0011】また、好ましくは、前記指定手段は、貼り
付け先の画像の形状を表す複数の特徴点をテクスチャ画
像上に指定することで、必要とする領域を指定し、前記
第2変換手段は、前記指定手段で指定された前記複数の
特徴点を前記長方形画像上の対応する位置の特徴点に変
換する。貼り付け先の特徴点(頂点や制御点等)を指定
するので、得られた長方形画像に対して再度特徴点を指
示することが不要となり、操作性が向上する(これに対
して、従来はテクスチャ原画像からの矩形画像の切り出
しと特徴点の指示が別々の処理であったため、操作が煩
わしかった)。
Preferably, the designating means designates a required area by designating a plurality of feature points representing the shape of the pasting image on the texture image, and the second converting means , Converting the plurality of feature points designated by the designation means into feature points at corresponding positions on the rectangular image. Since the feature points (vertices, control points, etc.) of the pasting destination are specified, it is not necessary to designate the feature points again for the obtained rectangular image, and the operability is improved. The operation was cumbersome because the rectangular image was cut out from the original texture image and the feature points were specified separately.

【0012】また、好ましくは、前記生成手段は、前記
複数の特徴点を囲む凸包多角形を形成し、該凸包多角形
の4辺を含む直線で形成される四角形のうち、面積が最
少となる四角形を抽出する。
[0012] Preferably, the generating means forms a convex hull polygon surrounding the plurality of feature points, and has a minimum area of a quadrangle formed by a straight line including four sides of the convex hull polygon. Extract the quadrangle that becomes.

【0013】[0013]

【発明の実施の形態】以下に添付の図面を参照し手本発
明の好適な実施の形態を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

【0014】図1は本実施形態におけるコンピュータ装
置の概略の構成を表すブロック図である。図中、101
はCPUであり、本実施形態の手順を含む各種の処理を
実行する。102はメモリでありROM102a、RA
M102bを含む。ROM102aはCPU101が実
行する制御プログラムや各種データを格納し、RAM1
02bはCPU101が各種制御を実行するための作業
領域を提供する。
FIG. 1 is a block diagram showing the schematic arrangement of a computer device according to this embodiment. In the figure, 101
Is a CPU and executes various processes including the procedure of the present embodiment. 102 is a memory, which is a ROM 102a, RA
Including M102b. The ROM 102a stores the control program executed by the CPU 101 and various data, and the RAM 1
02b provides a work area for the CPU 101 to execute various controls.

【0015】103は記憶装置であり、例えばハードデ
ィスク、フロッピーディスクで構成される。記憶装置1
03には、テクスチャ原画像データ等、各種のデータが
格納される。
Reference numeral 103 denotes a storage device, which is composed of, for example, a hard disk or a floppy disk. Storage device 1
Various data such as texture original image data is stored in 03.

【0016】104は、処理するデータを装置の外部か
ら入力あるいは出力するための入出力インターフェース
である。例えば、カメラで撮影して得られたテクスチャ
原画像をスキャナで読み取り、これを入出力インターフ
ェース104を介して取り込むことができる。105は
キーボードであり、データを選択したり、手順の入力を
行う。106はポインティングデバイスであり、表示装
置上での指示点を指定するもので、例えばマウスで構成
される。107は表示装置であり、処理状況や処理結
果、処理過程、処理データを表示する。
Reference numeral 104 denotes an input / output interface for inputting or outputting data to be processed from outside the device. For example, a texture original image obtained by shooting with a camera can be read by a scanner and can be captured via the input / output interface 104. A keyboard 105 is used for selecting data and inputting procedures. Reference numeral 106 is a pointing device for designating a pointing point on the display device, and is constituted by, for example, a mouse. A display device 107 displays a processing status, a processing result, a processing process, and processing data.

【0017】次に、上記構成を有するコンピュータ装置
において実現される本実施形態のテクスチャデータ生成
処理を説明する。図2は本実施形態のテクスチャデータ
生成処理の手順を表すフローチャートである。
Next, the texture data generation processing of this embodiment, which is realized by the computer device having the above-mentioned configuration, will be described. FIG. 2 is a flowchart showing the procedure of the texture data generation process of this embodiment.

【0018】ステップS201にて、生成したいテクス
チャのもとであるテクスチャ原画像を入出力インターフ
ェース104を通して読込み、テクスチャ原画像として
記憶装置103に格納する。ここで、テクスチャ原画像
とは、生成したいテクスチャを含む通常のカラーまたは
濃淡画像である。そして、以下の処理により、このテク
スチャ原画像中の一部の領域の画像データを利用して、
テクスチャデータとなる画像を生成することとなる。
In step S201, the texture original image which is the source of the texture to be generated is read through the input / output interface 104 and stored in the storage device 103 as the texture original image. Here, the texture original image is a normal color or grayscale image containing a texture to be generated. Then, by the following processing, using the image data of a part of the area of the original texture image,
An image serving as texture data will be generated.

【0019】ステップS202にて、テクスチャ原画像
上にテクスチャデータとして必要となる領域を指定す
る。このステップは、テクスチャを張り込む先であるパ
ッチデータ(平面や曲面)の頂点や制御点がテクスチャ
原画像上にどこにくるかを複数の点で指定するなどによ
り行われる。この点の指定は、記憶装置103に格納さ
れているテクスチャ原画像を表示装置107上に表示
し、その表示画面の上で、マウス106を用いて指定す
ることにより指定される。指定された頂点や制御点等の
特徴点は、指示点情報データとして記憶装置103に格
納される。
In step S202, an area required as texture data is designated on the original texture image. This step is performed by designating a plurality of points where the vertices and control points of the patch data (plane or curved surface) where the texture is pasted are located on the original texture image. This point is designated by displaying the original texture image stored in the storage device 103 on the display device 107 and using the mouse 106 on the display screen. Characteristic points such as designated vertices and control points are stored in the storage device 103 as designated point information data.

【0020】次に、ステップS203にて、ステップS
202で指定されたテクスチャ原画像上の指定点により
テクスチャデータに必要とされると規定された領域を囲
む凸包を生成する。例えば、パッチが平面パッチ(ポリ
ゴン)である場合は、頂点である指定点を囲む凸包を生
成すればよい。また、曲面パッチの場合、例えばテクス
チャを貼り付けるべき曲面を規定する制御点をテクスチ
ャ原画像上に指定し、該制御点によってにより規定され
る曲面を囲む凸包を生成することとなる。この場合、必
ずしも制御点が凸包に含まれるようになるとは限らな
い。更に説明すれば、制御点で規定される空間中の曲面
パッチを、テクスチャ原画像の平面上に描写し、この描
写された曲面パッチを含む凸包を形成することになる。
Next, in step S203, step S
A convex hull that encloses a region defined as required for the texture data is generated by the designated point on the texture original image designated by 202. For example, when the patch is a plane patch (polygon), a convex hull enclosing the specified point that is the vertex may be generated. In the case of a curved surface patch, for example, a control point that defines a curved surface to which a texture is to be attached is specified on the original texture image, and a convex hull enclosing the curved surface defined by the control point is generated. In this case, the control points are not always included in the convex hull. More specifically, the curved surface patch in the space defined by the control points is drawn on the plane of the original texture image, and the convex hull including the drawn curved surface patch is formed.

【0021】次に、ステップS204において、ステッ
プS203で生成された凸包を構成している辺のうちか
ら、4辺を選択する。続いて、ステップS205にて、
選択された4辺を含む直線で四角形を生成する。このと
き、生成される四角形が凸包の全体を包含しないものは
除外し、凸包全体を包含する四角形のみを生成する。生
成された四角形の面積が最小(今まで生成してきた中で
最小)のものであった場合、この四角形を四角形Sとし
てRAM102bに記憶しておく。ステップS207に
て、凸包のすべての4辺の組み合せに対してステップS
204〜S206の処理が行われたかをチェックし、す
べての4辺の組み合わせに対してこれらのステップを行
うようにする。これにより、凸包を包含する四角形のう
ち面積が最少となる四角形Sを生成できる。ここまでの
処理の概念を図3に示す。
Next, in step S204, four sides are selected from the sides forming the convex hull generated in step S203. Then, in step S205,
A quadrangle is generated by a straight line including the selected four sides. At this time, a quadrangle that does not include the entire convex hull is excluded, and only a quadrangle that includes the entire convex hull is generated. If the area of the generated quadrangle is the smallest (the smallest that has been generated so far), the quadrangle is stored in the RAM 102b as the quadrangle S. In step S207, step S207 is performed for all combinations of four sides of the convex hull.
It is checked whether the processes of 204 to S206 have been performed, and these steps are performed for all combinations of four sides. This makes it possible to generate the quadrangle S having the smallest area among the quadrangles including the convex hull. The concept of the processing so far is shown in FIG.

【0022】図3はテクスチャ原画像における凸包及び
四角形Sの生成手順を説明する図である。図3の(a)
は、テクスチャ原画像中に指定された頂点又は制御点を
示す。このように頂点や制御点により、テクスチャ原画
像中のテクスチャデータとして必要な領域が設定され
る。(b)では、テクスチャ原画像中に設定された点に
基づいて凸包図形が生成された状態が示されている。凸
包図形とは、図3の(b)に示されているように、設定
された頂点・制御点の幾つかを結んでできる多角形で、
全ての頂点・制御点を包含し、かつ、最大面積を有する
多角形である。
FIG. 3 is a diagram for explaining the procedure for generating the convex hull and the quadrangle S in the original texture image. FIG. 3 (a)
Indicates a vertex or a control point specified in the original texture image. In this way, the regions required as texture data in the original texture image are set by the vertices and control points. In (b), a state in which a convex hull figure is generated based on the points set in the original texture image is shown. The convex hull figure is a polygon formed by connecting some of the set vertices / control points, as shown in FIG.
It is a polygon that includes all vertices and control points and has the largest area.

【0023】図3の(b)のように凸包図形が得られる
と、この凸包図形におけるいずれかの4辺を含む直線で
形成される四角形のうち面積が最少のものを四角形Sと
して決定する(図3の(c))。
When a convex hull figure is obtained as shown in FIG. 3B, the quadrangle S formed by the straight lines including any four sides of the convex hull figure having the smallest area is determined as the quadrangle S. ((C) of FIG. 3).

【0024】以上のようにして生成した四角形Sを用い
て、ステップS208以降でテクスチャデータの生成を
行うことになる。
Using the quadrangle S generated as described above, texture data is generated in step S208 and the subsequent steps.

【0025】ステップS208では、長方形Rというあ
る任意の長方形を想定し、四角形Sを長方形Rに変換す
る第1の座標変換系を生成する。図4は四角形Sと長方
形Rとの対応を説明する図である。また、図5は四角形
Sと長方形Rの内部の点の対応を説明する図である。第
1の座標変換系では、図4に示すように四角形Sと長方
形Rの頂点並びに内部を対応させ、図5に示すように、
四角形Sの内部の点(u,v)を、長方形Rの内部の点
(s,t)(ここで0≦s≦1,0≦t≦1)に対応さ
せるために、双一次補間を用いて、次式 u=(1−t)・{(1−s)・x1+s・x2}+t・{(1−s)・x4+s・x3・s} v=(1−t)・{(1−s)・y1+s・y2}+t・{(1−s)・y4+s・y3・s} のような座標変換を行う。ここで、(x1,y1),(x
2,y2),(x3,y3),(x4,y4)は、それぞれ四
角形P1,P2,P3,P4の頂点座標である。以上のよう
に第1の座標変換系の生成では、(s,t)を代入すれ
ば(u,v)が求まる変換系が生成される。
In step S208, a certain coordinate rectangle R is assumed, and a first coordinate conversion system for converting the rectangle S into the rectangle R is generated. FIG. 4 is a diagram for explaining the correspondence between the quadrangle S and the rectangle R. Further, FIG. 5 is a diagram for explaining the correspondence between points inside the quadrangle S and the rectangle R. In the first coordinate conversion system, as shown in FIG. 4, the vertices S and the vertices of the rectangle R are associated with each other, and as shown in FIG.
Bilinear interpolation is used to make the point (u, v) inside the quadrangle S correspond to the point (s, t) inside the rectangle R (where 0 ≦ s ≦ 1, 0 ≦ t ≦ 1). Then, the following equation u = (1-t). {(1-s) .x1 + s.x2} + t. {(1-s) .x4 + s.x3.s} v = (1-t). {(1- s) · y1 + s · y2} + t · {(1-s) · y4 + s · y3 · s}. Where (x1, y1), (x
2, y2), (x3, y3), (x4, y4) are the vertex coordinates of the quadrangle P1, P2, P3, P4, respectively. As described above, in the generation of the first coordinate conversion system, a conversion system in which (u, v) is obtained by substituting (s, t) is generated.

【0026】また、同様に、ステップS209にて、そ
の変換の逆変換となる長方形Rを四角形Sに変換する第
2の座標変換系を生成する。これは、上式を(s,t)
の連立方程式とみなし、これを(s,t)について解け
ば、(u,v)値から(s,t)値を求める変換式とな
る。このような第2の座標変換系が必要である理由は、
図3にあるように、形状の頂点(制御点)が画像中では
どこに対応するかを指定しているが、この画像を四角形
が長方形になるように変形してしまうと、その点がどこ
であったかがわからなくなってしまうためである。即
ち、指定した時点での頂点に対応する指定点は四角形S
上に乗っており、(u,v)で与えられる。これらの指
定点が、長方形R上ではどこに対応するかを求めておか
ないと、変形した画像と形状との対応がとれなくなって
しまう。よって、四角形S上の点(u,v)からそれに
対応する長方形R上の(s,t)を求める変換系が必要
となる。
Similarly, in step S209, a second coordinate transformation system for transforming the rectangle R into the quadrangle S, which is the inverse transformation of the transformation, is generated. This is the above equation (s, t)
If it is regarded as a simultaneous equation of and is solved for (s, t), it becomes a conversion formula for obtaining the (s, t) value from the (u, v) value. The reason why such a second coordinate transformation system is necessary is
As shown in FIG. 3, where the vertices (control points) of the shape correspond to in the image is specified. If this image is transformed into a rectangle, what is that point? The reason is that you don't understand. That is, the designated point corresponding to the vertex at the designated time is the quadrangle S
It is on the top and is given by (u, v). If it is not determined where these designated points correspond on the rectangle R, the deformed image and the shape cannot be associated. Therefore, a conversion system for obtaining (s, t) on the rectangle R corresponding to the point (u, v) on the quadrangle S is required.

【0027】次に、ステップS210にて、長方形Rを
ある解像度の画像とみなし、記憶装置103内にこの長
方形Rの画像データを格納する領域を確保する。そし
て、この長方形Rの画像のある画素Aの位置P(s,
t)を第1の座標変換系により変換し、テクスチャ原画
像上での位置P’(u,v)を計算する。ここで、位置
Pは長方形Rの画像の画素の位置そのものの値ではな
く、縦横それぞれで、正規化した値であり、(s,t)
で表されている。次にステップS211において、こう
して得られたテクスチャ原画像上での位置P’に最も近
いテクスチャ原画像の画素を見つけ、その画素値を画素
Aとして記憶装置301内の画像データに格納する。以
上のステップS210からS211までの処理を、長方
形Rの画像の全画素に対して行う(ステップS21
2)。こうして、長方形Rの画像データが得られ、これ
を画像データとして記憶装置103に格納する。
Next, in step S210, the rectangle R is regarded as an image of a certain resolution, and an area for storing the image data of this rectangle R is secured in the storage device 103. Then, the position P (s,
t) is converted by the first coordinate conversion system, and the position P ′ (u, v) on the original texture image is calculated. Here, the position P is not the value of the pixel position itself of the image of the rectangle R, but the normalized value in each of the vertical and horizontal directions, and (s, t)
It is represented by. Next, in step S211, the pixel of the texture original image closest to the position P ′ on the texture original image thus obtained is found, and the pixel value is stored as the pixel A in the image data in the storage device 301. The above steps S210 to S211 are performed on all pixels of the image of the rectangle R (step S21).
2). In this way, the image data of the rectangle R is obtained, and this is stored in the storage device 103 as image data.

【0028】さらに、ステップS202で指定した頂点
・制御点などの領域指定に用いた指示点が、長方形R上
ではどの位置に相当するか、すなわち、ステップS21
0〜S212で生成した画像上のどの位置に相当するか
を、第2の座標変換系を用いて計算する(ステップS2
13)。得られた指示点は、やはり指示点情報データと
して記憶装置103に格納される。最後に、ステップS
212までで生成した画像と、ステップS213で算出
した指示点の該画像上での位置をテクスチャデータとし
て出力する。これにより、テクスチャ用画像データと、
テクスチャが貼られる側(パッチなど)の頂点・制御点
といった情報の両方が獲得できる。
Further, to which position on the rectangle R the designated point used for the region designation such as the vertices / control points designated in step S202 corresponds, that is, step S21.
The position on the image generated in 0 to S212 is calculated using the second coordinate conversion system (step S2).
13). The obtained pointing point is also stored in the storage device 103 as pointing point information data. Finally, step S
The images generated up to 212 and the position of the designated point calculated in step S213 on the image are output as texture data. By this, image data for texture,
Both the information such as vertices and control points on the side where the texture is pasted (patch etc.) can be acquired.

【0029】図6,図7に本実施形態を適用した結果の
例を示す。図6は、ステップS201で読み込んだテク
スチャ原画像に、ステップS202で必要とする領域の
指定を行った図である。×印で示した点が、パッチの頂
点に相当する。これを元に、ステップS203〜S21
4までの処理を行い、出力された結果を図7に示す。必
要とされる領域のみを切り出した画像データ、および、
指定点のデータがこのように獲得される。なお、図6、
図7はカラーの濃淡画像である。
6 and 7 show examples of results obtained by applying the present embodiment. FIG. 6 is a diagram in which an area required in step S202 is specified in the texture original image read in step S201. The points indicated by crosses correspond to the vertices of the patch. Based on this, steps S203 to S21
The process up to 4 is performed and the output result is shown in FIG. Image data that cuts out only the required area, and
The data of the designated point is thus obtained. Note that FIG.
FIG. 7 is a color grayscale image.

【0030】図6は家屋内の玄関部分を撮影したもの
で、×印で囲まれた床には、全体に網目状の模様がほど
かされている。図6では、このテクスチャデータの対象
となる床部分が斜め上の方向から撮影されているので、
図面上で上部へいくほど模様が縮まったようになる。こ
のようなテクスチャ画像を従来の矩形領域を用いて切り
出すと、上部の方の細かい模様を再現するために高い解
像度が要求され、結果的にテクスチャデータのデータ量
が増加してしまう。あるいは、解像度を制限した場合
に、部分的に画像が劣化することになる。
FIG. 6 is a photograph of the entrance of the house, where the floor surrounded by the crosses has a net-like pattern unwound. In FIG. 6, since the floor portion that is the target of this texture data is photographed from an obliquely upper direction,
The pattern seems to shrink as it goes up in the drawing. If such a texture image is cut out using a conventional rectangular area, a high resolution is required to reproduce the finer pattern in the upper part, resulting in an increase in the amount of texture data. Alternatively, when the resolution is limited, the image partially deteriorates.

【0031】これに対して、本実施形態では、図7のよ
うに長方形にデータを変換し、ほぼ均一な模様(実際の
模様に近い)を再現し、これをテクスチャデータとする
ので、不必要に高い解像度を有する必要がなく、テクス
チャデータのデータ量を低減することが可能となる。更
に、必要な領域を可能な限り大きく含むようにテクスチ
ャデータが生成されるので、テクスチャデータに含まれ
る無駄なデータを低減でき、テクスチャデータのデータ
量を低減できる。なお、図7の長方形の縦横比は3次元
形状に合わせて設定するのが好ましい。例えば、図6上
部の縮んだ模様を復元するには、図7の長方形Rの縦横
の長さの比が、実際の玄関の床の縦横の比と一致させる
のが好ましい。
On the other hand, in the present embodiment, the data is converted into a rectangle as shown in FIG. 7, a substantially uniform pattern (close to the actual pattern) is reproduced, and this is used as texture data, so it is unnecessary. It is not necessary to have a high resolution, and the amount of texture data can be reduced. Further, since the texture data is generated so as to include the necessary area as large as possible, useless data included in the texture data can be reduced and the data amount of the texture data can be reduced. The aspect ratio of the rectangle in FIG. 7 is preferably set according to the three-dimensional shape. For example, in order to restore the contracted pattern in the upper portion of FIG. 6, it is preferable that the aspect ratio of the rectangle R in FIG. 7 matches the aspect ratio of the actual entrance floor.

【0032】以上のように本実施形態によれば、テクス
チャとして利用する対象の撮影において、その対象の大
きさ、撮影方向の自由度が増すので、テクスチャ原画像
の撮影が簡便化される。また、テクスチャ原画像から必
要な領域を取り出すに際して、無駄な領域が効果的に除
外されるので、テクスチャデータのデータ容量を低減で
きる。
As described above, according to the present embodiment, in shooting an object used as a texture, the size of the object and the degree of freedom in the shooting direction are increased, so that the shooting of the original texture image is simplified. In addition, when extracting a necessary area from the original texture image, useless areas are effectively excluded, so that the data capacity of the texture data can be reduced.

【0033】更に、撮影方向の影響で、上述の図6に示
したように、テクスチャとして利用する対象の画像が部
分的に細かくなってしまうような場合でも、不必要に解
像度を上げずに、しかも画像に劣化を生じさせずにテク
スチャデータを生成することができる。
Further, even if the image to be used as a texture is partially fine as shown in FIG. 6 due to the influence of the photographing direction, the resolution is not increased unnecessarily, Moreover, the texture data can be generated without causing deterioration of the image.

【0034】上記装置の機能もしくは方法の機能によっ
て達成される本発明の目的は、前述の実施例のプログラ
ムを記憶させた記憶媒体によっても達成できる。即ち、
上記装置に、その記憶媒体を装着し、その記憶媒体から
読み出したプログラム自体が本発明の新規な機能を達成
するからである。この場合、図1の構成において、例え
ば記憶装置103をフロッピーディスクで構成し、フロ
ッピーディスクからプログラムを供給することができ
る。フロッピーディスクから供給されたプログラムはR
AM102bにロードされて、CPU101によって実
行される。このための、本発明にかかるプログラムの構
造的特徴は、図8に示す通りである。
The object of the present invention achieved by the function of the above apparatus or the function of the method can also be achieved by the storage medium in which the program of the above-mentioned embodiment is stored. That is,
This is because the storage medium is mounted on the device and the program itself read from the storage medium achieves the novel function of the present invention. In this case, in the configuration of FIG. 1, for example, the storage device 103 can be configured by a floppy disk and the program can be supplied from the floppy disk. The program supplied from the floppy disk is R
It is loaded into the AM 102b and executed by the CPU 101. The structural characteristics of the program according to the present invention for this purpose are as shown in FIG.

【0035】図8の(a)は、プログラムによる制御実
行の手順を表す図である。80は読取り処理であり、テ
クスチャの基となる原画像を入出力インターフェースを
介して読取り、記憶装置103に格納する(図2のステ
ップS201)。81は指定処理であり、テクスチャの
基となるテクスチャ原画像上に、必要とする領域を、貼
り付け先のパッチの頂点や制御点で指定する(ステップ
S202)。82は生成処理であり、指定処理81で指
定された領域を囲む四角形を所定の規則に基づいて生成
し、生成された四角形のうち面積が最少となる四角形を
抽出する(ステップS203〜ステップS207)。
FIG. 8A is a diagram showing a procedure of control execution by a program. Reference numeral 80 denotes a reading process, which reads an original image that is the basis of the texture through the input / output interface and stores it in the storage device 103 (step S201 in FIG. 2). Reference numeral 81 is a designation process, which designates a necessary area on the texture original image which is the basis of the texture, by the vertices or control points of the patch of the pasting destination (step S202). Reference numeral 82 denotes a generation process, which generates a quadrangle surrounding the area designated in the designation process 81 based on a predetermined rule, and extracts a quadrangle having the smallest area from the generated quadrilaterals (steps S203 to S207). .

【0036】83は第1変換処理であり、生成処理82
で抽出された四角形で囲まれる画像を所望の大きさの長
方形画像に変換する(ステップS208〜ステップS2
12)。更に、84は第2変換処理であり、先の指定処
理81において指定された指定領域(特徴点)を、前記
長方形画像上の領域に変換する(ステップS213)。
そして、85は出力処理であり、第1変換処理83で得
られた長方形画像と第2変換処理84で得られた指定領
域を示す情報をテクスチャデータとして出力する(ステ
ップS214)。
Reference numeral 83 denotes a first conversion process, which is a generation process 82.
The image surrounded by the quadrangle extracted in step S4 is converted into a rectangular image of a desired size (step S208 to step S2).
12). Further, 84 is a second conversion process, which converts the specified area (feature point) specified in the previous specification processing 81 into an area on the rectangular image (step S213).
Then, 85 is an output process, which outputs the rectangular image obtained by the first conversion process 83 and the information indicating the designated area obtained by the second conversion process 84 as texture data (step S214).

【0037】図8の(b)は、上記各処理を実行するた
めのプログラムモジュールの記憶媒体への格納状態を表
すメモリマップである。読取り処理モジュール80’、
指定処理モジュール81’、生成処理モジュール8
2’、第1変換処理モジュール83’、第2変換処理モ
ジュール84’、出力処理モジュール85’は、それぞ
れ読取り処理80、指定処理81、生成処理82、第1
変換処理83、第2変換処理84、出力処理85を実行
するためのプログラムモジュールである。
FIG. 8B is a memory map showing the storage state of the program module for executing each of the above processes in the storage medium. Read processing module 80 ',
Designation processing module 81 ', generation processing module 8
2 ′, the first conversion processing module 83 ′, the second conversion processing module 84 ′, and the output processing module 85 ′ respectively include a reading processing 80, a designation processing 81, a generation processing 82, and a first processing.
It is a program module for executing the conversion process 83, the second conversion process 84, and the output process 85.

【0038】また、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器からなる装置に適
用してもよい。また、本発明はシステム或は装置にプロ
グラムを供給することによって達成される場合にも適用
できることは言うまでもない。この場合、本発明に係る
プログラムを格納した記憶媒体が、本発明を構成するこ
とになる。そして、該記憶媒体からそのプログラムをシ
ステム或は装置に読み出すことによって、そのシステム
或は装置が、予め定められた仕方で動作する。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus. In this case, the storage medium storing the program according to the present invention constitutes the present invention. Then, by reading the program from the storage medium to the system or device, the system or device operates in a predetermined manner.

【0039】[0039]

【発明の効果】以上説明したように、本発明によれば、
テクスチャ原画像を用意する際の撮影が簡便になるとと
もに、テクスチャ原画像から必要な領域を抽出する際の
無駄を解消する(必要でない領域を削減する)ことが可
能となる。
As described above, according to the present invention,
It is possible to simplify the shooting when preparing the texture original image and eliminate waste (reduce unnecessary areas) when extracting a necessary area from the texture original image.

【0040】[0040]

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態におけるコンピュータ装置の概略の
構成を表すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a computer device according to the present embodiment.

【図2】本実施形態のテクスチャデータ生成処理の手順
を表すフローチャートである。
FIG. 2 is a flowchart showing a procedure of texture data generation processing according to the present embodiment.

【図3】テクスチャ原画像における凸包及び四角形Sの
生成手順を説明する図である。
FIG. 3 is a diagram illustrating a procedure for generating a convex hull and a quadrangle S in a texture original image.

【図4】四角形Sと長方形Rとの対応を説明する図であ
る。
FIG. 4 is a diagram illustrating a correspondence between a quadrangle S and a rectangle R.

【図5】四角形Sと長方形Rの内部の点の対応を説明す
る図である。
FIG. 5 is a diagram illustrating correspondence between points inside a rectangle S and a rectangle R;

【図6】テクスチャ原画像及び領域指定を行った状態の
一例を表す図である。
FIG. 6 is a diagram showing an example of a texture original image and a state in which an area is designated.

【図7】図6のテクスチャ原画像から得たテクスチャデ
ータを表す図である。
7 is a diagram showing texture data obtained from the original texture image of FIG.

【図8】本実施の形態の制御を実現するための制御プロ
グラムを格納した記憶媒体の構成を説明する図である。
FIG. 8 is a diagram illustrating a configuration of a storage medium that stores a control program for realizing the control of the present embodiment.

【符号の説明】[Explanation of symbols]

101 CPU 102 記憶装置2 103 記憶装置1 104 入出力インターフェース 105 キーボード 106 マウス 107 表示装置 101 CPU 102 Storage Device 2 103 Storage Device 1 104 Input / Output Interface 105 Keyboard 106 Mouse 107 Display Device

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 コンピュータグラフィクスに用いるテク
スチャデータを生成するテクスチャデータ生成装置であ
って、 テクスチャの基となるテクスチャ原画像上に、必要とす
る領域を指定する指定手段と、 前記指定手段で指定された領域を囲む四角形を所定の規
則に基づいて生成し、面積の最少となる四角形を抽出す
る生成手段と、 前記生成手段で抽出された四角形で囲まれる画像を所望
の大きさの長方形画像に変換する第1変換手段と、 前記指定手段で指定された指定領域を前記長方形画像上
の領域に変換する第2変換手段と、 前記第1変換手段で得られた長方形画像と前記第2変換
手段で得られた指定領域を示す情報をテクスチャデータ
として出力する出力手段とを備えることを特徴とするテ
クスチャデータ生成装置。
1. A texture data generation device for generating texture data used for computer graphics, comprising: a designating unit for designating a required area on a texture original image which is a basis of a texture; and a designating unit designated by the designating unit. Generating means for generating a quadrangle surrounding the region based on a predetermined rule and extracting the quadrangle having the smallest area; and converting the image enclosed by the quadrangle extracted by the generating means into a rectangular image of a desired size. A first conversion means, a second conversion means for converting the designated area designated by the designation means into an area on the rectangular image, and the rectangular image obtained by the first transformation means and the second conversion means. An output unit that outputs the obtained information indicating the specified area as texture data.
【請求項2】 前記指定手段は、貼り付け先の画像の形
状を表す複数の特徴点をテクスチャ画像上に指定するこ
とで、必要とする領域を指定し、 前記第2変換手段は、前記指定手段で指定された前記複
数の特徴点を前記長方形画像上の対応する位置の特徴点
に変換することを特徴とする請求項1に記載のテクスチ
ャデータ生成装置。
2. The designating unit designates a required area by designating a plurality of feature points representing a shape of an image to be pasted on a texture image, and the second converting unit designates the designating region. The texture data generation device according to claim 1, wherein the plurality of feature points designated by the means are converted into feature points at corresponding positions on the rectangular image.
【請求項3】 前記生成手段は、前記複数の特徴点を囲
む凸包多角形を形成し、該凸包多角形の4辺を含む直線
で形成される四角形のうち、面積が最少となる四角形を
抽出することを特徴とする請求項2に記載のテクスチャ
データ生成装置。
3. The generating means forms a convex hull polygon surrounding the plurality of feature points, and a quadrangle having the smallest area among quadrangles formed by straight lines including four sides of the convex hull polygon. The texture data generation device according to claim 2, wherein
【請求項4】 コンピュータグラフィクスに用いるテク
スチャデータを生成するテクスチャデータ生成方法であ
って、 テクスチャの基となるテクスチャ原画像上に、必要とす
る領域を指定する指定工程と、 前記指定工程で指定された領域を囲む四角形を所定の規
則に基づいて生成し、面積の最少となる四角形を抽出す
る生成工程と、 前記生成工程で抽出された四角形で囲まれる画像を所望
の大きさの長方形画像に変換する第1変換工程と、 前記指定工程で指定された指定領域を前記長方形画像上
の領域に変換する第2変換工程と、 前記第1変換工程で得られた長方形画像と前記第2変換
工程で得られた指定領域を示す情報をテクスチャデータ
として出力する出力工程とを備えることを特徴とするテ
クスチャデータ生成方法。
4. A texture data generation method for generating texture data used for computer graphics, comprising: a designating step of designating a required area on a texture original image which is a basis of texture; and a designating step designated by the designating step. Generating a quadrangle surrounding the region based on a predetermined rule and extracting the quadrangle having the smallest area; and converting the image enclosed by the quadrangle extracted in the generating step into a rectangular image of a desired size. A first conversion step, a second conversion step of converting the specified area specified in the specification step into an area on the rectangular image, and the rectangular image obtained in the first conversion step and the second conversion step. An output step of outputting the obtained information indicating the designated area as texture data.
【請求項5】 前記指定工程は、貼り付け先の画像の形
状を表す複数の特徴点をテクスチャ画像上に指定するこ
とで、必要とする領域を指定し、 前記第2変換工程は、前記指定工程で指定された前記複
数の特徴点を前記長方形画像上の対応する位置の特徴点
に変換することを特徴とする請求項4に記載のテクスチ
ャデータ生成方法。
5. The designating step designates a required area by designating a plurality of feature points representing the shape of an image to be pasted on the texture image, and the second converting step comprises designating the designated area. The texture data generation method according to claim 4, wherein the plurality of feature points designated in the step are converted into feature points at corresponding positions on the rectangular image.
【請求項6】 前記生成工程は、前記複数の特徴点を囲
む凸包多角形を形成し、該凸包多角形の4辺を含む直線
で形成される四角形のうち、面積が最少となる四角形を
抽出することを特徴とする請求項5に記載のテクスチャ
データ生成方法。
6. The generating step forms a convex hull polygon surrounding the plurality of feature points, and a quadrangle having the smallest area among quadrangles formed by straight lines including four sides of the convex hull polygon. The texture data generating method according to claim 5, wherein the texture data is extracted.
【請求項7】 メモリ媒体から所定のプログラムを読み
こんでコンピュータを制御するコンピュータ制御装置で
あって、前記メモリ媒体は、 テクスチャの基となるテクスチャ原画像上に、必要とす
る領域を指定する指定工程の手順コードと、 前記指定工程で指定された領域を囲む四角形を所定の規
則に基づいて生成し、面積の最少となる四角形を抽出す
る生成工程の手順コードと、 前記生成工程で抽出された四角形で囲まれる画像を所望
の大きさの長方形画像に変換する第1変換工程の手順コ
ードと、 前記指定工程で指定された指定領域を前記長方形画像上
の領域に変換する第2変換工程の手順コードと、 前記第1変換工程で得られた長方形画像と前記第2変換
工程で得られた指定領域を示す情報をテクスチャデータ
として出力する出力工程の手順コードとを備えることを
特徴とするコンピュータ制御装置。
7. A computer control device for controlling a computer by reading a predetermined program from a memory medium, wherein the memory medium designates a necessary area on a texture original image which is a basis of a texture. The procedure code of the process, the procedure code of the generation process of generating a quadrangle surrounding the area designated in the designation process based on a predetermined rule, and extracting the quadrangle having the smallest area, and the procedure code of the generation process. Procedure code of a first conversion step for converting an image surrounded by a rectangle into a rectangular image of a desired size, and a procedure of a second conversion step for converting a designated area designated in the designation step into an area on the rectangular image An output process that outputs, as texture data, a code, a rectangular image obtained in the first conversion step, and information indicating the designated area obtained in the second conversion step. Computer controller, characterized in that it comprises a procedure code.
JP25279095A 1995-09-29 1995-09-29 Texture data generation method and apparatus, and computer control apparatus Expired - Fee Related JP3610131B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP25279095A JP3610131B2 (en) 1995-09-29 1995-09-29 Texture data generation method and apparatus, and computer control apparatus
US08/721,219 US6400369B1 (en) 1995-09-29 1996-09-26 Information processing method and apparatus for generating texture-data for computer graphics
EP96307096A EP0766206B1 (en) 1995-09-29 1996-09-27 Image processing method and apparatus
DE69630752T DE69630752T2 (en) 1995-09-29 1996-09-27 Image processing method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25279095A JP3610131B2 (en) 1995-09-29 1995-09-29 Texture data generation method and apparatus, and computer control apparatus

Publications (2)

Publication Number Publication Date
JPH0997343A true JPH0997343A (en) 1997-04-08
JP3610131B2 JP3610131B2 (en) 2005-01-12

Family

ID=17242298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25279095A Expired - Fee Related JP3610131B2 (en) 1995-09-29 1995-09-29 Texture data generation method and apparatus, and computer control apparatus

Country Status (1)

Country Link
JP (1) JP3610131B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110782387A (en) * 2018-07-30 2020-02-11 优视科技有限公司 Image processing method and device, image processor and electronic equipment
WO2022091569A1 (en) * 2020-10-26 2022-05-05 株式会社Nttドコモ Image processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274650A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH06301792A (en) * 1993-04-15 1994-10-28 Sony Corp Texture mapping device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06274650A (en) * 1993-03-23 1994-09-30 Dainippon Printing Co Ltd Image synthesizer
JPH06301792A (en) * 1993-04-15 1994-10-28 Sony Corp Texture mapping device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110782387A (en) * 2018-07-30 2020-02-11 优视科技有限公司 Image processing method and device, image processor and electronic equipment
CN110782387B (en) * 2018-07-30 2023-09-22 阿里巴巴(中国)有限公司 Image processing method and device, image processor and electronic equipment
WO2022091569A1 (en) * 2020-10-26 2022-05-05 株式会社Nttドコモ Image processing system

Also Published As

Publication number Publication date
JP3610131B2 (en) 2005-01-12

Similar Documents

Publication Publication Date Title
JP4363151B2 (en) Imaging apparatus, image processing method thereof, and program
US7903111B2 (en) Depth image-based modeling method and apparatus
US7227557B2 (en) Method, system and record medium for generating wide-area high-resolution image
JP2007226643A (en) Image processor
JP2006074512A (en) Photographing device, and image processing method, and program for photographing device
JPH1049704A (en) Image conversion method
JP3278623B2 (en) Map three-dimensionalization system, map three-dimensionalization method, and storage medium storing map three-dimensionalization program
JP4541397B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program
JPH11250273A (en) Image synthesizing device
JP2005195867A5 (en)
JP2005195867A (en) Electronic apparatus and image display method
JP3610131B2 (en) Texture data generation method and apparatus, and computer control apparatus
JP2004072677A (en) Device, method and program for compositing image and recording medium recording the program
JPH0457570A (en) Picture processor
JPH09212626A (en) Image editing method and device therefor
JP4458720B2 (en) Image input apparatus and program
EP0766206B1 (en) Image processing method and apparatus
JP4075778B2 (en) Pseudo three-dimensional image generation apparatus, pseudo three-dimensional image generation method, and pseudo three-dimensional image generation program
JP3648099B2 (en) Image composition display method and apparatus, and recording medium on which image composition display program is recorded
JP3089489B2 (en) Image data processing device
JP3341926B2 (en) Image conversion device
JP3065855B2 (en) Image processing device
JP4222238B2 (en) Imaging apparatus and imaging control method
JP2899168B2 (en) Image data operation method and image data operation device
JP3610130B2 (en) Information processing method and apparatus, and computer control apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041018

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071022

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081022

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091022

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091022

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101022

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101022

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111022

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111022

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121022

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees