JP3501479B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3501479B2
JP3501479B2 JP25580293A JP25580293A JP3501479B2 JP 3501479 B2 JP3501479 B2 JP 3501479B2 JP 25580293 A JP25580293 A JP 25580293A JP 25580293 A JP25580293 A JP 25580293A JP 3501479 B2 JP3501479 B2 JP 3501479B2
Authority
JP
Japan
Prior art keywords
image
texture
data
animation
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25580293A
Other languages
Japanese (ja)
Other versions
JPH07110873A (en
Inventor
浩和 秋定
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP25580293A priority Critical patent/JP3501479B2/en
Priority to US08/307,152 priority patent/US5687307A/en
Publication of JPH07110873A publication Critical patent/JPH07110873A/en
Application granted granted Critical
Publication of JP3501479B2 publication Critical patent/JP3501479B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像処理装置に関するも
のであり、特に3次元空間内の複数個の物体それぞれに
独立したテクスチャアニメーションを施したコンピュー
タグラフィックスアニメーション(CGアニメーショ
ン)を実現することを特徴とする画像処理装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to realizing a computer graphics animation (CG animation) in which a plurality of objects in a three-dimensional space are independently texture-animated. The present invention relates to a characteristic image processing device.

【0002】[0002]

【従来の技術】従来のコンピュータグラフィックス、特
に3次元物体を表現した画像を形成する3次元グラフィ
ックスにおいては、通常画像を得るためには大きく分け
て、 ・モデリング ・レンダリング という2つの作業が必要となる。
2. Description of the Related Art Conventional computer graphics, particularly three-dimensional graphics for forming an image representing a three-dimensional object, are roughly divided into two parts in order to obtain a normal image. Becomes

【0003】まずモデリングは、画像の中で表現したい
対象物の形、色、表面の性質などのデータをコンピュー
タの中に作成する作業である。例えば、人間の顔の画像
を作るのであれば、その表面の形がどうなっているの
か、顔のどの部分がどのような色をしているのか、光の
反射率はどうか、といったデータを作成し、あとのレン
ダリングで使えるような形式でコンピュータ内に格納す
る。このようなデータの集まりを物体のモデルという。
First of all, modeling is an operation of creating in a computer data such as the shape, color and surface property of an object desired to be expressed in an image. For example, if you are making an image of a human face, create data such as what the shape of the surface is, what part of the face has what color, and what the light reflectance is. Then, store it in the computer in a format that can be used for later rendering. Such a collection of data is called an object model.

【0004】またレンダリングは、モデルができあがっ
た後で、その物体をある位置から見たときにどのように
見えるかを考え、その見え方にしたがった画像を作成す
ることをいう。したがって、レンダリングを行うには、
モデルの他に、見る位置(視点)や照明に関する条件を
考える必要がある。レンダリング作業を細分化すると次
のようになる。
Rendering refers to creating an image according to the appearance of the object after considering the appearance of the object when viewed from a certain position. So to render,
In addition to the model, it is necessary to consider the conditions for viewing position (viewpoint) and lighting. The rendering work is subdivided as follows.

【0005】・座標変換 ・隠面消去 ・シェーディング ・リアルさを出すための工夫· Coordinate conversion ・ Hidden surface removal ·shading ・ Ingenuity for realism

【0006】まず、座標変換はモデルを表している種々
の座標値に対して、視点の位置から見たときに、画面上
のどの位置に見えるのかを計算して、画面上の座標に変
換することを意味する。
First, in coordinate conversion, with respect to various coordinate values representing a model, which position on the screen is viewed from the viewpoint position is calculated and converted into coordinates on the screen. Means that.

【0007】次に、隠面消去によって、モデルの中で、
現在の視点の位置から考えて、どの部分が見え、どの部
分が見えないかを判断する。隠面消去の代表的な手法と
してはZバッファ法やスキャンライン法といったアルゴ
リズムが挙げられる。そして、隠面消去が済んで、物体
のどの部分が見えるかが確定したら、次に照明を考えて
各部分がどのような色、どのような明るさに見えるかを
判断し、その色を画面、すなわち、ピクセルに塗るシェ
ーディングの処理を行う。
Next, by hidden surface removal, in the model,
Judging from the current position of the viewpoint, which part is visible and which part is not visible is determined. Algorithms such as the Z-buffer method and the scanline method are typical methods of hidden surface removal. Then, after the hidden surface removal is completed and it is decided which part of the object can be seen, the next step is to consider the lighting to determine what color and how bright each part looks like, and display that color on the screen. That is, the shading process of painting the pixels is performed.

【0008】そして、通常レンダリングの最後に実行さ
れるのが、リアルさを出すための工夫である。これは、
視野変換、隠面消去、シェーディングを行って画像を作
成しても、得られる絵は実在の物体とはほど遠い面白み
のないものとなってしまうためである。この理由として
は、このような手法が、物体の表面は理想的な平面ある
いは数式で表せる完全に滑らかな曲面であったり、表面
の色が面ごとに一定であるといった仮定に基づいている
ためである。こうした状況を避け、得られる画像をより
現実に近いものとするために行われる代表的手法の一つ
にテクスチャマッピングがある。テクスチャマッピング
はあらかじめ用意した2次元パターンを三次元空間内の
物体モデルの表面に貼り付ける(数学的に言えば写像す
る)手法で、単調な表面で構成された物体を複雑な表面
を持つ物体に疑似的に見せかけることを目的としてい
る。これにより、たとえば単純な直方体のモデルを金属
や石材のように見せることが可能となる。
[0008] Then, what is usually executed at the end of the rendering is a device for giving realism. this is,
This is because even if an image is created by performing visual field conversion, hidden surface removal, and shading, the obtained picture will not be as interesting as a real object. The reason for this is that such a method is based on the assumption that the surface of an object is an ideal plane or a perfectly smooth curved surface that can be expressed by a mathematical expression, or that the surface color is constant for each surface. is there. Texture mapping is one of the typical methods performed in order to avoid such a situation and make the obtained image more realistic. Texture mapping is a method in which a 2D pattern prepared in advance is pasted (mathematically speaking) onto the surface of an object model in 3D space, and an object composed of a monotonous surface is converted into an object with a complex surface. The purpose is to imitate it. This allows, for example, a simple rectangular parallelepiped model to look like metal or stone.

【0009】さて、以上に述べたような方法により得ら
れる絵に動きをつけたコンピュータグラフィックスアニ
メーション(CGアニメーション)を作成する場合、大
別して次の2つの方法がある。
In the case of creating a computer graphics animation (CG animation) in which a motion is added to a picture obtained by the above-mentioned method, there are roughly the following two methods.

【0010】第1番目の方法としては、3次元空間にお
き、照明条件、視点条件(視点の位置・方向・画角)、
および物体モデルの形状や色等を少しずつ変化させ、そ
の都度レンダリングを行うことで一連のアニメーション
用の画像群を得たのち(または一つの画像をレンダリン
グするごとに)、それらをビデオレコーダ等の録画装置
を用いて1コマ1コマ録画(コマ録画)し、すべての録
画が終わったあとで再生装置で再生する方法である。
The first method is to place in a three-dimensional space and set lighting conditions, viewpoint conditions (viewpoint position / direction / angle of view),
After changing the shape and color of the object model little by little and rendering each time to obtain a group of images for a series of animation (or each time one image is rendered), use them in a video recorder, etc. This is a method of recording one frame by one frame (frame recording) using a recording device, and reproducing by the reproducing device after all recording is completed.

【0011】この方法においては、画像のレンダリング
の際にかかる時間は許される範囲で長くしてよいので
(1つの画像のレンダリングに要する時間と作成するア
ニメーションの全体の時間に依存する)、画面上に複雑
な形状の物体を多数配置したり、レイトレーシング(光
線追跡法)に代表されるような長い計算時間を必要とす
るレンダリング手法を用いて高品質な画像を作成するこ
とも可能である。たとえば、現在のテレビコマーシャル
やSF映画等で用いられているCG映像はほとんどこの
方法によって作成されたものである。
In this method, the time required to render an image may be set as long as possible (depending on the time required to render one image and the total time of the animation to be created). It is also possible to arrange a large number of objects having a complicated shape, or to create a high-quality image by using a rendering method that requires a long calculation time as represented by ray tracing (ray tracing method). For example, most CG images used in current TV commercials, SF movies, etc. are created by this method.

【0012】また、第2番目の方法としては、前述の照
明条件、視点条件、および物体モデルの形状や色を変更
しながらのレンダンリング、およびそのレンダリング処
理によって得られた画像の表示という2つの処理を高速
に繰り返すことでCGアニメーションを実行する方法が
ある。これは一般的にリアルタイムCGアニメーション
と呼ばれるもので、ユーザからの指示を直接レンダリン
グに反映させることでCGアニメーションの動きをリア
ルタイムにコントロールするインタラクティブ(対話
的)処理が可能なことが最大の特徴である。
The second method is to render while changing the illumination condition, the viewpoint condition, and the shape and color of the object model, and display the image obtained by the rendering process. There is a method of executing CG animation by repeating one process at high speed. This is generally called real-time CG animation, and its greatest feature is that it is possible to perform interactive processing to control the movement of CG animation in real time by directly reflecting the instruction from the user in rendering. .

【0013】反面、実現に関しては実行するコンピュー
タのパフォーマンスにかなり依存し、画面上に表示でき
る物体の個数に制限があったり、レンダリング手法とし
て単純で高速なものに限定されてしまうといった制約が
あるため、前者と比較して作成される画像は低品質なも
のとなる。航空機操縦練習用のフライトシミュレータや
ゲームセンター用のレーシングゲームがその好例であ
る。
On the other hand, the implementation is considerably dependent on the performance of the computer to be executed, and the number of objects that can be displayed on the screen is limited, and the rendering method is limited to a simple and high-speed rendering method. , The image created compared to the former is of low quality. Flight simulators for practicing aircraft pilots and racing games for arcades are good examples.

【0014】[0014]

【発明が解決しようとしている課題】しかし、上記従来
の技術で説明したコンピュータグラフィックス装置にお
いて、レンダリング画像内の物体へのテクスチャマッピ
ングは、主に現実に存在する物体の素材感や感触を模倣
するために行われているため、CGアニメーション進行
中のテクスチャの視覚的な変化は、視点条件や光線条件
の変化に伴う微妙な色の変化のみであり、テクスチャの
形状や色がダイナミックに変化するような、アート性を
重視したテクスチャ・アニメーションを持ったCGアニ
メーションは実現されていなかった。
However, in the computer graphics device described in the above-mentioned prior art, the texture mapping to the object in the rendered image mainly imitates the texture and feel of the object that actually exists. This is done for the purpose of visualizing the texture, and the visual change of the texture during the progress of the CG animation is only a subtle change of the color due to the change of the viewpoint condition and the light ray condition. However, CG animation with texture animation that emphasizes art has not been realized.

【0015】また、入力するテクスチャ用画像が少ない
場合、その限られた画像を複数の物体にマッピングする
ことになるため、得られるCGアニメーションの画像が
単調で面白みのないものになるという欠点があった。
Further, when the number of texture images to be input is small, the limited images are mapped to a plurality of objects, so that the obtained CG animation image has a drawback that it is monotonous and has no interest. It was

【0016】さらに、各物体にマッピングするテクスチ
ャ、およびそのテクスチャに対して行われるテクスチャ
アニメーションがCGアニメーション進行中に切り替わ
るCGアニメーションを実現するコンピュータグラフィ
ックス装置が存在しないのは言うまでもなかった。
Further, it goes without saying that there is no computer graphics device that realizes a CG animation in which the texture to be mapped to each object and the texture animation performed for the texture are switched while the CG animation is in progress.

【0017】[0017]

【課題を解決するための手段及び作用】本願発明の画像
処理装置は、上記課題を解決することを目的としたもの
であり、3次元空間内に存在する各物体に対し固有のテ
クスチャアニメーション状態値を割り当て、CGアニメ
ーションを形成する複数の画像の生成過程で前記テクス
チャアニメーション状態値を変化させることで以下のこ
とを実行する。
The image processing apparatus of the present invention is intended to solve the above-mentioned problems, and a texture animation state value unique to each object existing in a three-dimensional space. And changing the texture animation state value in the process of generating a plurality of images forming a CG animation, the following is executed.

【0018】・個々の物体に割り当てたテクスチャおよ
びそのテクスチャに対して実行されているテクスチャア
ニメーションをそれぞれ他のテクスチャ、他のテクスチ
ャアニメーションに切り替える。
The texture assigned to each object and the texture animation being executed for that texture are switched to another texture and another texture animation, respectively.

【0019】・複数の異なる物体上のテクスチャに対し
同じアニメーションが実行されている場合でも、それぞ
れのテクスチャアニメーション状態値内のテクスチャア
ニメーション変数を違えることで動きに変化をつける。
Even when the same animation is executed for textures on a plurality of different objects, the movement is changed by changing the texture animation variable in each texture animation state value.

【0020】これにより、個々の物体にマッピングした
テクスチャがダイナミックに変化する従来にないアート
性に満ちたCGアニメーションを実現することを特徴と
する画像処理装置を提供しようとするものである。
Accordingly, an object of the present invention is to provide an image processing apparatus characterized in that it realizes a CG animation which is full of unprecedented artistic properties in which textures mapped to individual objects dynamically change.

【0021】したがって、あらかじめ複数のテクスチャ
アニメーションを用意しておけば、入力したテクスチャ
画像の個数がたとえ少ない場合も、その少ない画像を用
いてバリエーションに富んだ変化を持つテクスチャアニ
メーションを実現したCGアニメーションが可能とな
る。
Therefore, if a plurality of texture animations are prepared in advance, even if the number of input texture images is small, a CG animation which realizes a texture animation having a variety of variations using the few images is provided. It will be possible.

【0022】[0022]

【実施例】まず、本願発明の実施例の特徴を明確化する
ため、3次元立体のモデリングから画像のレンダリン
グ、さらにはそのレンダリングによる生成画像の表示ま
での処理の流れを説明する。
First, in order to clarify the characteristics of the embodiment of the present invention, a flow of processing from modeling of a three-dimensional solid to rendering of an image and display of an image generated by the rendering will be described.

【0023】<1.モデリング> はじめに、3次元物体のモデリングについて説明する。
これは、モデリング座標系における物体の3次元形状デ
ータの入力を行うことである。ただし、モデリング座標
系とは物体の形状を定義し操作するための座標系のこと
である。たとえば、図2のような立方体の形状モデリン
グを行う場合、まず図のように立方体のある一つの頂点
を原点としたモデリング座標系を考える。そして、この
座標系における立方体の8個の頂点の座標データをたと
えば次のように決定する。
<1. Modeling> First, modeling of a three-dimensional object will be described.
This is to make your Keru input three-dimensional shape data of the object in the modeling coordinate system. However, the modeling coordinate system is a coordinate system for defining and manipulating the shape of an object. For example, when performing shape modeling of a cube as shown in FIG. 2, first consider a modeling coordinate system with one vertex of the cube as the origin as shown in the figure. Then, the coordinate data of the eight vertices of the cube in this coordinate system is determined as follows, for example.

【0024】 <座標データ>(頂点番号は上から順番につける) 8 ・・・・すべての頂点数 (0.0 0.0 0.0) ・・・・各頂点の(x、y、z)座標 (1.0 0.0 0.0) (1.0 1.0 0.0) (0.0 1.0 0.0) (0.0 0.0 −1.0) (1.0 0.0 −1.0) (1.0 1.0 −1.0) (0.0 1.0 −1.0) そして、どの点とどの点を結んで面を作るかといった面
ループデータを次のように決定する。
<Coordinate data> (vertex numbers are assigned in order from the top) 8 ... All the number of vertices (0.0 0.0 0.0 0.0) ... (x, y, z of each vertex) ) Coordinates (1.0 0.0 0.0) (1.0 1.0 0.0) (0.0 1.0 0.0) (0.0 0.0-1.0) (1. 0 0.0-1.0) (1.0 1.0-1.0) (0.0 1.0-1.0) Then, a surface loop such as which points are connected to form a surface. Determine the data as follows.

【0025】 <面ループデータ> 6 ・・・物体を構成する面の数 4 ・・・1番目の面ループを構成する頂点数 1 2 3 4 ・・・1番目の面の頂点番号列 4 ・・・2番目の面ループを構成する頂点数 5 6 7 8 ・・・2番目の面の頂点番号列 4 ・・・3番目の面ループを構成する頂点数 4 3 7 8 ・・・3番目の面の頂点番号列 4 ・・・4番目の面ループを構成する頂点数 1 5 8 4 ・・・4番目の面の頂点番号列 4 ・・・5番目の面ループを構成する頂点数 1 2 6 5 ・・・5番目の面の頂点番号列 4 ・・・6番目の面ループを構成する頂点数 2 6 7 3 ・・・6番目の面の頂点番号列 このようにして得られた一組の座標データと面ループデ
ータが、図2に示す物体のモデリングデータとなる。
<Surface Loop Data> 6 ... Number of faces constituting object 4 ... Number of vertices constituting first face loop 1 2 3 4 ... Vertex number sequence 4 of first face 4 ..Number of vertices forming second surface loop 5 6 7 8 ... Vertex number sequence 4 of second surface 4 ... Number of vertices forming third surface loop 4 3 7 8 ... 3rd Number of vertices forming the fourth face loop of the face No. 4 ... The number of vertices forming the fourth face loop 1 5 8 4 ... The number of vertices of the fourth face 4 ... 2 6 5 ... 5th face vertex number sequence 4 ... 6th face loop number of vertices 2 6 7 3 ... 6th face vertex number sequence Obtained in this way A set of coordinate data and surface loop data becomes modeling data of the object shown in FIG.

【0026】<2.レンダリング> ○投影変換 物体の3次元形状のモデリングが終わったら、次に投影
変換を行う。これは写真撮影にたとえると、レンズの選
定や撮影する場所(視点)、カメラの向き(視軸)の決
定に相当する。
<2. Rendering> ○ Projection conversion After modeling the three-dimensional shape of the object, projection conversion is performed next. This is equivalent to the selection of a lens, the shooting location (viewpoint), and the camera orientation (visual axis) when compared to photography.

【0027】図3は、投影変換のための4つの座標系を
示した図である。まず、モデリング座標系において定義
された物体の形状データはワールド座標系(物体の形を
表すときにモデル内の座標に用いる座標系)におけるデ
ータに変換される。そして、対象となる物体を見ること
ができるように、選定したカメラをいろいろな方向に向
けることでビューイング変換(視野変換)を行う。この
際、ワールド座標系で表された物体のデータが視点座標
系のデータに変換されることになる。
FIG. 3 is a diagram showing four coordinate systems for projection conversion. First, the shape data of the object defined in the modeling coordinate system is converted into data in the world coordinate system (the coordinate system used for the coordinates in the model when representing the shape of the object). Then, the viewing conversion (field of view conversion) is performed by pointing the selected camera in various directions so that the target object can be viewed. At this time, the data of the object represented by the world coordinate system is converted into the data of the viewpoint coordinate system.

【0028】また、この変換のためにワールド座標系の
中にスクリーン(視野窓)を指定し、このスクリーンが
物体の最終的な投影面となる。そして、このスクリーン
を定義するための座標系がUVN座標系(スクリーン座
標系)と呼ばれる。ただし、視点前方のすべてのものを
描くと、不必要な計算時間をとる場合があるので作画領
域を決めることも必要である(この作画領域はビューボ
リューム(視野空間)と呼ばれ、またこの作業はクリッ
ピングと呼ばれる)。
For this conversion, a screen (view window) is designated in the world coordinate system, and this screen becomes the final projection plane of the object. The coordinate system for defining this screen is called the UVN coordinate system (screen coordinate system). However, drawing everything in front of the viewpoint may take unnecessary calculation time, so it is also necessary to determine the drawing area (this drawing area is called the view volume (view space). Is called clipping).

【0029】次に、投影変換についてより詳細に説明す
る。図4は投影変換を示した図である。図において、ま
ず空間に投影の中心となる視点を置き、その視点からの
視軸(視点を端として人間が見ている方向に向かう半直
線)および視角(画角)θを考える。そして、視軸を直
交し視点からの距離がfである平面を投影面(スクリー
ン)と考えると、投影面と視錐(視点を中心として視軸
を軸とする円錐面)の交わる部分は円形をしている。そ
して、図のように、この円弧上に4つの頂点を持ち、横
の長さをh、縦の長さをvである矩形領域を考え、この
領域をスクリーンとする。
Next, the projection conversion will be described in more detail. FIG. 4 is a diagram showing the projection conversion. In the figure, first, a viewpoint that is the center of projection is placed in space, and the visual axis (half line extending from the viewpoint toward the direction in which a person is looking) and the visual angle (angle of view) θ are considered. When a plane orthogonal to the visual axis and having a distance f from the viewpoint is considered as a projection surface (screen), the intersection of the projection surface and the view cone (the conical surface having the view axis as the axis) is circular. Are doing Then, as shown in the figure, consider a rectangular area having four vertices on this arc and having a horizontal length of h and a vertical length of v, and this area is used as a screen.

【0030】ここで、このhとvをθとfから計算する
方法を考える。ただし、hとvの比率は表示画像の横と
縦の比率と同じであるとする。図において、まず、OE
は前述の円形部分の半径であるので ∠OPE=θ/2 (式0) となり、この結果、 len(OE)=f×tan(θ/2) (式1) また、点OはEGの中点であるので、式1を用い、 len(EG)=2×len(OE)=2×f×tan(θ/2)(式2) となる。
Now, consider a method of calculating h and v from θ and f. However, it is assumed that the ratio of h and v is the same as the horizontal and vertical ratios of the display image. In the figure, first, OE
Is the radius of the above-mentioned circular portion, so that ∠OPE = θ / 2 (Equation 0), and as a result, len (OE) = f × tan (θ / 2) (Equation 1) Since it is a point, using Equation 1, len (EG) = 2 × len (OE) = 2 × f × tan (θ / 2) (Equation 2).

【0031】次に、表示画像の横と縦の画素数をそれぞ
れaとbで既知であるとすると、この2つの比率はhと
vの比率と同じであるので、 a:b=h:v (式3) となる。また、三平方の定理により、 h×h+v×v=len(EG)×len(EG) (式4) したがって、式2、式3、式4より h=2×f×tan(θ/2)/sqrt(1+(a/b)×(a/b)) (式5) v=2×f×tan(θ/2)/sqrt(1+(b/a)×(b/a)) (式6) となる。
Next, assuming that the numbers of horizontal and vertical pixels of the display image are known for a and b, respectively, the ratio of these two is the same as the ratio of h and v, so a: b = h: v (Equation 3) Further, according to the Pythagorean theorem, h × h + v × v = len (EG) × len (EG) (Equation 4) Therefore, from Equations 2, 3, and 4, h = 2 × f × tan (θ / 2) / Sqrt (1+ (a / b) × (a / b)) (Equation 5) v = 2 × f × tan (θ / 2) / sqrt (1+ (b / a) × (b / a)) (Equation 6) becomes.

【0032】ただし、len(AB)は線分ABの長さ
を返す関数、またsqrt(C)はCの平方根を返す関
数である。
However, len (AB) is a function that returns the length of the line segment AB, and sqrt (C) is a function that returns the square root of C.

【0033】そして、このスクリーンをいろいろな方向
に動かすことで視野変換を行う。そして、視野変換が決
定したのち、空間に存在する物体の3次元形状の各点に
対し、視点と投影面の交点を求める操作を行うことで図
4に示すようにスクリーン上に投影図を得る(ただし、
この場合は視点と投影面の距離が有限である透視投影を
示している)。したがって、投影変換が行われると前述
の視点座標系で表されたデータはUVN座標系における
データに変換されたことになる。
The field of view is converted by moving the screen in various directions. Then, after the field of view conversion is determined, an operation for obtaining the intersection of the viewpoint and the projection surface is performed for each point of the three-dimensional shape of the object existing in the space to obtain a projection view on the screen as shown in FIG. (However,
In this case, it shows perspective projection in which the distance between the viewpoint and the projection surface is finite). Therefore, when the projection conversion is performed, the data expressed in the above-mentioned viewpoint coordinate system is converted into the data in the UVN coordinate system.

【0034】この投影変換が終わり、UVN座標系によ
って示された図形は最終的なデバイス座標系に変換され
表示装置に表示される。ただし、デバイス座標系とは、
画像の中でピクセルやドットの位置を表すときに用いる
座標系のことをいい、表示画像における座標系と同一で
あるとする。
After this projection conversion, the figure shown by the UVN coordinate system is converted into the final device coordinate system and displayed on the display device. However, the device coordinate system is
The coordinate system used to represent the positions of pixels and dots in the image is the same as the coordinate system in the display image.

【0035】以上に説明した座標変換を、実際にどのよ
うにして実現しているかを数式を使って説明する。
How to actually implement the coordinate conversion described above will be described using mathematical expressions.

【0036】まず、X−Z平面を水平に、Y軸は鉛直に
なるように設定されたワールド座標系において、視点の
位置と方向、対象となる物体が決定される。また、視点
座標系のx軸は視軸と平行に、y軸はUVN座標系のU
軸に平行となるように設定する。ここでワールド座標空
間における任意の点Pの座標を(X,Y,Z)と示すと
する。視点の座標を(Xe、Ye、Ze)、ワールド座
標系における方位角(左右の角度)をα、仰角(上下の
角度)をβ、点Pの視点座標系での座標を(x,y,
z)で示すと、両者の間には次の関係が成立する。
First, in the world coordinate system set so that the XZ plane is horizontal and the Y axis is vertical, the position and direction of the viewpoint and the target object are determined. The x-axis of the viewpoint coordinate system is parallel to the visual axis, and the y-axis is U of the UVN coordinate system.
Set to be parallel to the axis. Here, the coordinates of an arbitrary point P in the world coordinate space are shown as (X, Y, Z). The coordinates of the viewpoint are (Xe, Ye, Ze), the azimuth angle (horizontal angle) in the world coordinate system is α, the elevation angle (vertical angle) is β, and the coordinates of the point P in the viewpoint coordinate system are (x, y, Ze).
z), the following relationship is established between them.

【0037】[0037]

【外1】 ただし、[Outer 1] However,

【0038】[0038]

【外2】 である。[Outside 2] Is.

【0039】そして、3次元立体を投影する投影面は、
視点座標系のx軸に垂直であるとし、また、視距離は前
述のようにfであるとすると、空間内の点Pを投影面で
あるU−V平面上に投影した点P’の座標(x’,
y’)は、 x’=−f・(x/z) y’=−f・(y/z) で示される。
The projection plane for projecting the three-dimensional solid is
If it is assumed that it is perpendicular to the x-axis of the viewpoint coordinate system and that the viewing distance is f as described above, the coordinates of the point P ′ obtained by projecting the point P in space onto the UV plane that is the projection plane. (X ',
y ') is shown by x' =-f * (x / z) y '=-f * (y / z).

【0040】○画像の生成と表示そして、最終的にU−
V平面内のスクリーン領域が表示画像(デバイス座標
系)におけるピクセル(画素)の列に変換されるが、そ
の際のスクリーン内の点P’に対応する表示画像上の点
を図5に示すようにP”(x”,y”)とすると、座標
値x”,y”はそれぞれ、 x”=a・x’/h+a/2 y”=b・y’/v+b/2 で与えられる。ただし、hとvはそれぞれスクリーンの
横と縦の長さを、また、aとbはそれぞれ表示画像(デ
バイス座標系)の横と縦の画素数を示すものとする。
Generation and display of image, and finally U-
The screen area in the V plane is converted into a column of pixels in the display image (device coordinate system), and a point on the display image corresponding to the point P ′ in the screen at that time is shown in FIG. Let P ″ (x ″, y ″) be the coordinate values x ″, y ″ given by x ″ = a · x ′ / h + a / 2 y ″ = b · y ′ / v + b / 2, respectively. , H and v respectively indicate the horizontal and vertical lengths of the screen, and a and b respectively indicate the horizontal and vertical pixel numbers of the display image (device coordinate system).

【0041】そして、この座標変換を用いて最終的な出
力画像内の画素に対応するスクリーン上の点(サンプル
ポイント)を考え、まず物体の内部に含まれるサンプル
ポイントを探し出し、さらにそれに対応する表示画像中
の画素をその点における物体上のテクスチャの色の値で
塗りつぶしていくことにより、UVN座標系に変換され
た物体が最終的な2次元画像のピクセルの列に変換され
ることになる。
Then, using this coordinate transformation, points on the screen (sample points) corresponding to the pixels in the final output image are considered, first the sample points contained in the object are searched, and the corresponding display is performed. By filling the pixels in the image with the color value of the texture on the object at that point, the object converted into the UVN coordinate system is converted into the final row of pixels in the two-dimensional image.

【0042】なお、このような方法で複数個の物体を描
く場合、表示デバイスの画素ごとに奥行き情報を格納す
る領域(Zバッファ)を設け、この領域を用いて複数個
の物体の奥行きを比較し隠れた面を消去する手法(隠面
消去法)が用いられるのが一般的である。
When drawing a plurality of objects by such a method, an area (Z buffer) for storing depth information is provided for each pixel of the display device, and the depths of a plurality of objects are compared using this area. Generally, a method of erasing hidden surfaces (hidden surface elimination method) is used.

【0043】<3.CGアニメーション処理>以下、本
発明の一実施例におけるCGアニメーション処理を図面
に基づき詳細に説明する。
<3. CG Animation Processing> Hereinafter, the CG animation processing in one embodiment of the present invention will be described in detail with reference to the drawings.

【0044】図1は、本発明の一実施例のコンピュ−タ
グラフィック装置のブロック図を示したものである。
FIG. 1 is a block diagram of a computer graphic device according to an embodiment of the present invention.

【0045】図において、2はCGアニメーション処理
のスタート、物体にマッピングするテクスチャの選択、
およびテクスチャアニメーションの選択、およびCGア
ニメーション処理実行中のテクスチャアニメーション状
態値の変更等の指示を与えるコマンド入力装置2であ
り、例えばマウスが用いられる。ただし、このマウスは
3個のボタン(左ボタン、中ボタン、右ボタン)を有す
るものとする。
In the figure, 2 is the start of CG animation processing, selection of texture to be mapped to an object,
And a command input device 2 for giving instructions such as selection of texture animation and change of texture animation state value during execution of CG animation processing, and for example, a mouse is used. However, this mouse has three buttons (left button, middle button, right button).

【0046】3は物体のモデリングデータ、視点条件等
の初期値の入力を行うためのデータ入力装置3であり、
例えばキーボードが用いられる。
Reference numeral 3 denotes a data input device 3 for inputting modeling data of an object, initial values such as viewpoint conditions,
For example, a keyboard is used.

【0047】4は、テクスチャ用画像を入力するための
画像入力装置4であり、例えばドラムスキャナーが用い
られる。
Reference numeral 4 is an image input device 4 for inputting a texture image, and for example, a drum scanner is used.

【0048】5は、テクスチャ用画像を撮影するための
撮影装置5であり、例えば写真機が用いられる。
Reference numeral 5 denotes a photographing device 5 for photographing a texture image, and for example, a camera is used.

【0049】6は、各種変数の更新、および物体のモデ
リングデータ、視点条件、画像処理後のテクスチャ画像
による表示画像のレンダリング処理等を行う演算装置で
ある。
Reference numeral 6 denotes an arithmetic unit for updating various variables, modeling data of an object, viewpoint conditions, rendering processing of a display image by a texture image after image processing, and the like.

【0050】7は、物体のモデリングデータ、視点条
件、およびアニメーション変数等の各種データを格納す
るファイル装置であり、例えばハードディスク、フロッ
ピーディスク、光磁気ディスク等である。
Reference numeral 7 is a file device for storing various data such as object modeling data, viewpoint conditions, and animation variables, and is, for example, a hard disk, floppy disk, magneto-optical disk or the like.

【0051】8はレンダリング処理により生成された表
示画像を表示するための画像表示装置であり、例えばC
RTモニタが用いられる。
Reference numeral 8 denotes an image display device for displaying the display image generated by the rendering process, for example, C
An RT monitor is used.

【0052】8aはデータ入力の際のユーザに対する指
示、およびユーザが入力する数値データ等を表示するた
めのデータ表示装置であり、例えば液晶ディスプレイが
用いられる。
Reference numeral 8a denotes a data display device for displaying instructions to the user at the time of data input, numerical data input by the user, and the like, for example, a liquid crystal display is used.

【0053】9は、2次元画像に対し後述のモザイク処
理を施した画像を生成する画像処理装置Aである。
Reference numeral 9 is an image processing apparatus A for generating an image obtained by subjecting a two-dimensional image to a mosaic process described later.

【0054】10は、2次元画像に対し同じく後述の色
変換処理を施した画像を生成する画像処理装置Bであ
る。
Reference numeral 10 denotes an image processing apparatus B which produces an image in which a color conversion process, which will be described later, is performed on the two-dimensional image.

【0055】11は、視点位置の移動、および視点の方
位角、仰角の変化を入力するための視点入力装置11で
あり、例えばスペースボールが用いられる。スペースボ
ールは一般的には図6に示すような形をしており、その
球状の部分を微妙に動かすことで任意の方向への移動、
および任意の軸を中心とした回転を検出する装置であ
る。
Reference numeral 11 denotes a viewpoint input device 11 for inputting movement of the viewpoint position and changes in the azimuth angle and elevation angle of the viewpoint, for example, a space ball is used. The space ball generally has a shape as shown in FIG. 6, and by moving the spherical part subtly, movement in any direction,
And a device for detecting rotation about an arbitrary axis.

【0056】本実施例では、図6(a)のように、ある
方向にボールの中心が動いた場合には、その移動ベクト
ルのX、Y、Zの各移動量成分Dx、Dy、Dzを出力
し、また、図(b)のようにある軸を中心としてボール
が回転した場合には、その方位角と仰角の各回転量成分
Dα、Dβを出力するものとする。
In this embodiment, when the center of the ball moves in a certain direction, as shown in FIG. 6A, the X, Y and Z movement amount components Dx, Dy and Dz of the movement vector are calculated. Further, when the ball is rotated about a certain axis as shown in FIG. 6B, the rotation amount components Dα and Dβ of the azimuth angle and the elevation angle are output.

【0057】1は制御装置であり、コマンド入力装置
2、データ入力装置3、画像入力装置5、演算装置6、
ファイル装置7、画像表示装置8、データ表示装置8
a、画像処理装置A9、画像処理装置B10を制御する
ものである。
[0057] 1 is a control equipment, command input device 2, the data input device 3, the image input unit 5, arithmetic unit 6,
File device 7, image display device 8, data display device 8
a, the image processing apparatus A9, and the image processing apparatus B10 are controlled.

【0058】以上のように構成されたコンピュ−タグラ
フィック装置について、本実施例ではリアルタイムCG
アニメーションの場合につき、データの流れにしたがっ
て説明する。
In the present embodiment, the real-time CG is applied to the computer graphic device constructed as described above.
The case of animation will be described according to the flow of data.

【0059】まず、ユーザがコマンド入力装置2である
キーボードのキーを押すことでCGアニメーション処理
が開始する。次に形状データの入力待ち状態になり、ユ
ーザは複数の物体の形状データを系モデリング座標系
(モデリング座標系はワールド座標系と一致しているも
のとする)における座標値を用いて入力することで物体
の形状モデリングを行う。
First, when the user presses a key on the keyboard which is the command input device 2, the CG animation process is started. Next, the system waits for the input of shape data, and the user inputs the shape data of multiple objects using the coordinate values in the system modeling coordinate system (the modeling coordinate system is assumed to match the world coordinate system). Model the shape of the object.

【0060】次に、視点条件(視点座標、視角(画
角)、仰角、方位角、スクリーンまでの距離)、の初期
化が行われる。
Next, the viewpoint conditions (viewpoint coordinates, viewing angle (angle of view), elevation angle, azimuth angle, distance to the screen) are initialized.

【0061】次に、撮影装置5によって撮影されたテク
スチャ用の入力画像、たとえば風景の入力画像は画像入
力装置4によってA/D(アナログ/デジタル)変換さ
れ、ファイル装置7に格納される。ここで、便宜上入力
画像の各画素構成する赤、緑、青のデータをそれぞれ
R、G、Bで表す。また1画素は各成分8ビット構成、
すなわち256階調で表現可能なデータであり、最高輝
度を255、最低輝度を0とするが、これに限定される
ものではない。なお、本実施例では、この画像入力の際
に、制御装置1によって指定された画像の読み取りピッ
チによって、入力画像の縦横の画素数が決定する。
Next, the input image for texture photographed by the photographing device 5, for example, the input image of landscape is A / D (analog / digital) converted by the image input device 4 and stored in the file device 7. Here, for convenience, red, green, and blue data forming each pixel of the input image are represented by R, G, and B, respectively. Each pixel consists of 8 bits for each component,
That is, the data can be expressed in 256 gradations, and the maximum brightness is 255 and the minimum brightness is 0, but the invention is not limited to this. In this embodiment, the number of vertical and horizontal pixels of the input image is determined by the image reading pitch designated by the control device 1 when the image is input.

【0062】次に、ユーザはモデリングした複数の物体
それぞれにつき、マッピングするテクスチャ画像を入力
画像群の中から選択し、また、各テクスチャに対し実行
するテクスチャアニメーションをあらかじめ登録されて
いるものの中から選択する。そして、それぞれの物体に
つき指定されたテクスチャアニメーション変数の初期化
を行う。
Next, the user selects a texture image to be mapped for each of the plurality of modeled objects from the input image group, and selects a texture animation to be executed for each texture from those registered in advance. To do. Then, the texture animation variable designated for each object is initialized.

【0063】このようにして、すべてのテクスチャアニ
メーション状態値の初期化が完了したら、CGアニメー
ション開始待ち状態となり、ユーザより開始の命令が下
されるとCGアニメーションがスタートする。そして、
次にユーザからのコマンド受付チェックが行われる。こ
の際、ユーザによる命令が無い場合には、そのままの視
点条件、テクスチャアニメーション状態値を基に前述の
方法で画像のレンダリング処理および表示が行われる。
ただし、たとえ視点条件が変化しなくても物体上のテク
スチャアニメーションは初期値の状態を保って(テクス
チャアニメーションの速度等を示す状態値に応じて)変
化する。反対に、もしユーザよる視点条件の変化、およ
びテクスチャアニメーション状態値の変化の命令があっ
たら、その変化に応じてテクスチャの選択およびテクス
チャの画像処理が行われ、空間内の物体に処理後のテク
スチャがマッピングされた3次元CG画像のレンダリン
グが行われることになる。
In this way, when all the texture animation state values have been initialized, the CG animation start wait state is entered, and the CG animation starts when the user gives a start instruction. And
Next, a command reception check from the user is performed. At this time, if there is no command from the user, image rendering processing and display are performed by the above method based on the viewpoint condition and the texture animation state value as they are.
However, even if the viewpoint condition does not change, the texture animation on the object changes with the initial state (according to the state value indicating the speed of the texture animation). On the contrary, if the user gives an instruction to change the viewpoint condition and the texture animation state value, the texture is selected and the image processing of the texture is performed according to the change, and the texture in the object in the space is processed. The three-dimensional CG image in which is mapped will be rendered.

【0064】また、同様にコマンド受付チェックの際、
CGアニメーション終了の命令が入力されるとCGアニ
メーション処理は終了する。なお、本実施例における画
像のレンダリング処理の中では、従来例で述べたシェー
ディングは特に触れていないが、本発明はこれに限定さ
れるものではない。
Similarly, when checking the command reception,
When the CG animation end command is input, the CG animation processing ends. In the image rendering process of this embodiment, the shading described in the conventional example is not particularly mentioned, but the present invention is not limited to this.

【0065】ここで、本実施例における2つの画像処理
方法(モザイク処理、色変換処理)について説明する。
Here, two image processing methods (mosaic processing and color conversion processing) in this embodiment will be described.

【0066】まず、本実施例におけるモザイク処理につ
いて説明する。モザイク処理は、図7に示すように、画
像をある一定の画素数(単位画素数)を一辺とする正方
形領域に分割し、個々の領域に含まれるすべての画素を
その領域中のある一つの画素(代表画素:図の場合は、
各正方形領域の最も左上のグレーで色付けされた点)の
色の値で置き換える処理のことをいう。ただし、分割は
画像の左上の点を基準点として行われ、画像の右端と下
端に接した領域で辺の長さが単位画素に満たない場合は
その場合にできる長方形領域を同様に代表画素の色で塗
りつぶすこととする。
First, the mosaic processing in this embodiment will be described. In the mosaic processing, as shown in FIG. 7, the image is divided into square areas each having a certain number of pixels (the number of unit pixels) as one side, and all the pixels included in each area are included in a certain area in the area. Pixel (representative pixel: In the case of the figure,
This is the process of replacing with the color value of the upper leftmost gray colored point in each square area). However, the division is performed using the upper left point of the image as a reference point, and if the side length is less than the unit pixel in the area that touches the right edge and the lower edge of the image, the rectangular area that can be formed in that case is similarly defined as It will be filled with color.

【0067】また、本実施例における色変換処理とは、
R、G、Bそれぞれの色に対する変化量を設定し、画像
におけるすべての画素のR、G、Bのそれぞれの値に対
し、対応する色の変化量を加算(または減算)する処理
のことである。ただし、この加算(または減算)によっ
て求められた新しい値が、0より小さい場合は新しい値
を0とし、また255より大きい場合は新しい値を25
5とするものとする。
The color conversion processing in this embodiment is
It is a process of setting the change amount for each color of R, G, B and adding (or subtracting) the change amount of the corresponding color to each value of R, G, B of all pixels in the image. is there. However, if the new value obtained by this addition (or subtraction) is smaller than 0, the new value is set to 0, and if it is larger than 255, the new value is set to 25.
It shall be 5.

【0068】ここで、N個の画素で構成された画像のi
番目の画素の色を(Ri,Gi,Bi)(i=1,…,
N)、RGBそれぞれの色の変化量をSR、SG、SB
とすると、この色変換処理は次式で与えられる。
Here, i of the image composed of N pixels
Let the color of the th pixel be (Ri, Gi, Bi) (i = 1, ...,
N), RGB color change amount SR, SG, SB
Then, this color conversion process is given by the following equation.

【0069】Ri←Ri+SR Gi←Gi+SG Bi←Bi+SB ここで、i=1,…,Nである。Ri ← Ri + SR Gi ← Gi + SG Bi ← Bi + SB Here, i = 1, ..., N.

【0070】以上、説明した画像処理方法は、以下のC
Gアニメーション処理の中で用いられる。
The image processing method described above is based on the following C
Used in G animation processing.

【0071】次に、本実施例におけるテクスチャマッピ
ング方法について説明する。
Next, the texture mapping method in this embodiment will be described.

【0072】図8は、空間内の物体へのテクスチャマッ
ピングの代表的手法であるパースペクティブ・コーディ
ネート(投射コーディネート)を示した図である。
FIG. 8 is a diagram showing perspective coordination (projection coordination), which is a typical method of texture mapping on an object in space.

【0073】まず、空間上に投影の中心となる点Pを置
き、この点を中心として、3次元物体をすっぽり含むよ
うな四角錐P−ABCDを考える(ただし四角形ABC
Dは長方形であるとする)。また、四角形ABCDの2
本の対角線の交点をNとする。そして、点Pと物体との
間に、PNと垂直になる平面gを置き、この平面が四角
錐を切り取る矩形領域をA’B’C’D’とする。
First, a point P, which is the center of projection, is placed in the space, and a quadrangular pyramid P-ABCD that completely includes a three-dimensional object is considered with this point as the center (however, the quadrangle ABC
Suppose D is a rectangle). In addition, 2 of square ABCD
Let N be the intersection of the diagonals of the book. Then, a plane g perpendicular to PN is placed between the point P and the object, and a rectangular area in which this plane cuts a quadrangular pyramid is A′B′C′D ′.

【0074】また、四角形A’B’C’D’の2本の対
角線の交点をN’をする。ここで、テクスチャ画像を表
す領域をEFGHとし、EFGHの2本の対角線の交点
をN”とする。そして、N”をN’に重ね、テクスチャ
EFGHが四角形A’B’C’D’をすっぽり囲むよう
に配置した状態で、点Pからの投影を行い、物体上にテ
クスチャの一部分をマッピングする(図では、テクスチ
ャに描かれた“M”が球状の物体の表面へマッピングさ
れている)。
Further, the intersection of two diagonal lines of the quadrangle A'B'C'D 'is N'. Here, the area representing the texture image is EFGH, and the intersection of the two diagonal lines of EFGH is N ″. In a state of being arranged so as to surround it, projection from the point P is performed, and a part of the texture is mapped onto the object (in the figure, "M" drawn on the texture is mapped onto the surface of the spherical object).

【0075】例えば、図8に示すようにテクスチャマッ
ピングを施した球状の物体を、ある視点条件において見
た場合にスクリーン上に投影される画像は図9(a)の
ようになり、また、それとは違った視点条件で見た場合
にスクリーン上に投影される画像は図9(b)のように
なる。なお、本実施例では、簡単のため物体としては一
つの平面からなるもののみを扱うが、本発明はこれに限
られたものではない。
For example, when a spherical object subjected to texture mapping as shown in FIG. 8 is viewed under a certain viewpoint condition, the image projected on the screen is as shown in FIG. 9 (a). An image projected on the screen when viewed under different viewpoint conditions is as shown in FIG. In addition, in the present embodiment, for the sake of simplicity, only an object formed of one plane is dealt with, but the present invention is not limited to this.

【0076】以上に説明したテクスチャマッピングの方
法は以下のCGアニメーション処理の中で用いられる。
The texture mapping method described above is used in the following CG animation processing.

【0077】次に、本実施例におけるCGアニメーショ
ン処理について説明する。
Next, the CG animation processing in this embodiment will be described.

【0078】図10は、本実施例におけるCGアニメー
ション処理を示したフローチャートである。
FIG. 10 is a flowchart showing the CG animation processing in this embodiment.

【0079】以下、データの流れにしたがって処理方法
を詳細に説明する。
The processing method will be described in detail below according to the flow of data.

【0080】(ステップS1) <四角形座標データの入力>ユーザは四角形の座標デー
タの入力を行う。
(Step S1) <Input of Square Coordinate Data> The user inputs square coordinate data.

【0081】すなわち、制御装置1は、データ表示装置
8に、 “四角形の座標データを入力して下さい−−−>” との表示を行い、コマンド入力装置2であるキーボード
をコマンド入力待ち状態とする。ここでユーザはキーボ
ードによりこの表示に続けて、例えば、 “4 1.0 0.0 0.0 2.0 0.0 0.
0 2.0 1.00.0 1.0 1.0 1.0
0.0” とタイプし、最後にリターン(改行)キーを押すとこれ
らの数値データが四角形の座標データとしてファイル装
置7に格納される。ただし、これらの数値データの内、
第1番目の数値が四角形の頂点の数を、また第2番目か
ら第4番目、第5番目から第7番目、第8番目から第1
0番目、第11番目から第13番目の3個毎のの数値の
組がそれぞれ四角形の各頂点のx、y、z座標を示すも
のとする。
That is, the control device 1 displays on the data display device 8 "Please input the coordinate data of the rectangle --->" and sets the keyboard which is the command input device 2 to the command input waiting state. To do. Here, the user continues to this display with the keyboard, for example, “4 1.0 0.0 0.0 0.0 2.0 0.0 0.0.
0 2.0 1.00.0 1.0 1.0 1.0
Type "0.0" and press the return (line feed) key at the end to store these numerical data as rectangular coordinate data in the file device 7. However, among these numerical data,
The first number is the number of vertices of the quadrangle, the second to the fourth, the fifth to the seventh, and the eighth to the first.
It is assumed that the 0th, 11th to 13th sets of numerical values for each three indicate the x, y, z coordinates of each vertex of the quadrangle.

【0082】<四角形面ループデータの入力>次に、ユ
ーザは四角形の面ループデータの入力を行う。
<Input of Square Surface Loop Data> Next, the user inputs square surface loop data.

【0083】すなわち、制御装置1はデータ表示装置8
に、 “四角形の面ループデータを入力して下さい−−−>” との表示を行い、コマンド入力装置2であるキーボード
をコマンド入力待ち状態とする。ここでユーザはキーボ
ードによりこの表示に続けて、例えば、 “1 4 1 2 3 4” とタイプし、最後にリターン(改行)キーを押すとこれ
らの数値データが四角形の面ループデータとしてファイ
ル装置7に格納される。ただし、これらの数値データの
内、第1番目の数値が物体を構成する面の数を、第2番
目の数値が面ループを構成する頂点数を、また第3番目
から第6番目の数値が四角形の面の頂点番号列を示すも
のとする。
That is, the control device 1 has the data display device 8
Is displayed, "Please input the square loop data --->" is displayed, and the keyboard which is the command input device 2 is put in the command input waiting state. Here, the user continues to display this on the keyboard, for example, by typing "1 4 1 2 3 4" and pressing the return (line feed) key at the end, these numerical data are converted into rectangular surface loop data as file device 7 Stored in. However, of these numerical data, the first numerical value is the number of faces that make up the object, the second numerical value is the number of vertices that make up the surface loop, and the third to sixth numerical values are It is assumed that the vertex number sequence of the quadrangular surface is shown.

【0084】<三角形の座標データの入力>次に、ユー
ザは三角形の座標データの入力を行う。
<Input of Triangle Coordinate Data> Next, the user inputs triangle coordinate data.

【0085】すなわち、制御装置1は、データ表示装置
8に、 “三角形の座標データを入力して下さい−−−>” との表示を行い、コマンド入力装置2であるキーボード
をコマンド入力待ち状態とする。ここでユーザはキーボ
ードによりこの表示に続けて、例えば、 “3 −1.0 0.0 0.0 −1.0 1.0
0.0 −2.0 0.0 0.0” とタイプし、最後にリターン(改行)キーを押すとこれ
らの数値データが三角形の座標データとしてファイル装
置7に格納される。ただし、この数値データの内、第1
番目の数値が三角形の頂点の数を、また第2番目から第
4番目、第5番目から第7番目、第8番目から第10番
目の3個毎の数値の組がそれぞれ三角形の各頂点のx、
y、z座標を示すものとする。
That is, the control device 1 displays on the data display device 8 "Please input the coordinate data of the triangle --->", and sets the keyboard which is the command input device 2 to the command input waiting state. To do. Here, the user uses the keyboard to continue the display, for example, "3-1.0 0.0 0.0 -1.0 1.0
Type "0.0-2.0 0.0 0.0" and press the return (line feed) key at the end to store these numerical data in the file device 7 as triangular coordinate data. First of the data
The third number is the number of vertices of the triangle, and the second to fourth, fifth to seventh, eighth to tenth sets of numbers are the triangle vertices. x,
The y and z coordinates are shown.

【0086】<三角形の面ループの入力>次に、ユーザ
は三角形の面ループデータの入力を行う。
<Input of Triangular Surface Loop> Next, the user inputs triangular surface loop data.

【0087】すなわち、制御装置1はデータ表示装置
8’に、 “三角形の面ループデータを入力して下さい−−−>” との表示を行い、コマンド入力装置2であるキーボード
をコマンド入力待ち状態とする。ここでユーザはキーボ
ードによりこの表示に続けて、例えば、 “1 3 1 2 3” とタイプし、最後にリターン(改行)キーを押すとこれ
らの数値データが三角形の面ループデータとしてファイ
ル装置7に格納される。ただし、この数値データの内、
第1番目の数値が物体を構成する面の数を、第2番目の
数値が面ループを構成する頂点数を、また第3番目から
第5番目の数値が三角形の面の頂点番号列を示すものと
する。
That is, the control device 1 displays on the data display device 8 ', "Please input triangle surface loop data --->", and causes the keyboard, which is the command input device 2, to wait for command input. And Here, the user uses the keyboard to continue the display and, for example, types "1 3 1 2 3" and presses the return (line feed) key at the end, and these numerical data are stored in the file device 7 as triangular surface loop data. Is stored. However, in this numerical data,
The first number indicates the number of faces that make up the object, the second number indicates the number of vertices that make up the face loop, and the third to fifth numbers indicate the vertex number sequence of the triangular faces. I shall.

【0088】(ステップS2)次に、ユーザは視点条件
データの初期値の入力を行う。
(Step S2) Next, the user inputs the initial value of the viewpoint condition data.

【0089】すなわち、制御装置1はデータ表示装置8
aに、 “視点条件を入力して下さい−−−>” との表示を行い、コマンド入力装置2であるキーボード
をコマンド入力待ち状態とする。ここでユーザはキーボ
ードにより、この表示に続けて、例えば、 “0.0 0.0 −10.0 2.0 0.0 0.
0 5.0” とタイプし最後にリターン(改行)キーを押すとこれら
の数値データが視点条件データの初期値としてファイル
装置7に格納される。ただし、これらの数値データの
内、第1番目から第3番目の数値が視点座標Pe(X
e、Ye、Ze)の各座標を、また第4番目から第7番
目の数値がそれぞれ、視角θ、方位角α、仰角β、視距
離fを示すものとする。
That is, the control device 1 has the data display device 8
A message "Please input the viewpoint condition --->" is displayed on a and the keyboard which is the command input device 2 is set in the command input waiting state. Here, the user uses the keyboard to continue to this display, for example, "0.0 0.0 -10.0 2.0 0.0 0.0.
If you type 0 5.0 "and press the return (line feed) key at the end, these numerical data are stored in the file unit 7 as the initial values of the viewpoint condition data. The third numerical value from is the viewpoint coordinate Pe (X
e, Ye, Ze), and the fourth to seventh numerical values indicate the viewing angle θ, the azimuth angle α, the elevation angle β, and the viewing distance f, respectively.

【0090】(ステップS3)次に、ユーザは撮影装置
5で撮影された風景と人物の2枚の写真原稿を、画像入
力装置4であるたとえばドラムスキャナーのドラム上に
貼り付け、コマンド入力装置2から処理開始の命令を制
御装置1へ送る。制御装置1は、処理開始の命令を受け
取ると、画像入力装置4にスキャン開始の命令を送る。
そして、入力装置4は、スキャン開始の命令を受け取る
と、ドラムに貼り付けられた画像をスキャンして、入力
画像、例えば8ビット量子化データを出力する。そし
て、制御装置1は画像入力装置4が出力した2個の画像
データをテクスチャ画像としてファイル装置7内に格納
する。
(Step S3) Next, the user pastes the two photograph originals of the landscape and the person photographed by the photographing device 5 on the drum of the image input device 4, for example, the drum scanner, and the command input device 2 Sends a processing start command to the control device 1. When the control device 1 receives the processing start command, it sends a scan start command to the image input device 4.
Then, when the input device 4 receives the scan start command, it scans the image attached to the drum and outputs the input image, for example, 8-bit quantized data. Then, the control device 1 stores the two image data output from the image input device 4 in the file device 7 as texture images.

【0091】またこの際、演算装置6は写真原稿の横の
長さa1、縦の長さb1、人物の写真原稿の横の長さa
2、縦の長さb2、および画像入力の際の読み取りピッ
チpより、風景の画像の横と縦の画素数X1、Y1、お
よび人物の画像の横と縦の画素数X2、Y2を次式によ
り計算し、ファイル装置7内に格納する。
At this time, the arithmetic unit 6 determines that the horizontal length a1 of the photographic original, the vertical length b1, and the horizontal length a of the photographic original of a person.
2, the vertical length b2, and the horizontal and vertical pixel counts X1 and Y1 of the landscape image and the horizontal and vertical pixel counts X2 and Y2 of the person image, based on the reading pitch p at the time of image input. And stored in the file device 7.

【0092】X1=a1/p Y1=b1/p X2=a2/p Y2=b2/pX1 = a1 / p Y1 = b1 / p X2 = a2 / p Y2 = b2 / p

【0093】(ステップS4)次に、ユーザは四角形物
体におけるテクスチャアニメーション状態値の入力を行
う。
(Step S4) Next, the user inputs the texture animation state value for the quadrilateral object.

【0094】すなわち、制御装置1は、データ表示装置
8a上に以下の表示を行い、データ入力装置3をデータ
入力待ち状態とする。そして、ユーザはキーボードによ
りその表示上の各項目の矢印の後に続けてその項目に対
応する数値をタイプすることでマッピング画像番号1
(風景の画像)、またアニメーション番号1(モザイク
処理)の入力を行う。
That is, the control device 1 displays the following on the data display device 8a and puts the data input device 3 into a data input waiting state. Then, the user types the numerical value corresponding to the item following the arrow of each item on the display with the keyboard, and the mapping image number 1
(Landscape image) and animation number 1 (mosaic processing) are input.

【0095】<四角形のテクスチャアニメーション状態
値の入力> ・マッピング画像番号 NT−−−−>1 ・アニメーション番号 NA−−−−>1 次に、制御装置は上述のようにアニメーション番号の
1、つまりモザイク処理が指定されたのを受けてデータ
表示装置8aに以下の表示を行い、ユーザにモザイク処
理アニメーションの各変数の初期値の入力を促す。ユー
ザは上述と同様の方法でそれぞれの項目に対する数値デ
ータをキーボードにより行う。
<Input of square texture animation state value> Mapping image number NT ---> 1 Animation number NA ---> 1 Next, the control device sets the animation number 1, that is, as described above. In response to the designation of the mosaic processing, the following display is displayed on the data display device 8a to prompt the user to input the initial value of each variable of the mosaic processing animation. The user uses the keyboard to perform numerical data for each item in the same manner as described above.

【0096】○モザイク処理の各変数の初期値を入力し
てください ・単位画素数 N−−−>5 ・単位画素数の変化のスピード Sm−−−>2 ・単位画素数の変化の増減方向 Dm−−−>1 ・単位画素数の最小値 Nmin−−−>1 ・単位画素数の最大値 Nmax−−−>100 ただし、モザイクの単位画素数の変化の増減方向は1
(増加)または−1(減少)のどちらかの値をとるもの
とする。
Input the initial value of each variable of mosaic processing.-Number of unit pixels N ---> 5-Speed of change of unit pixel number Sm ---> 2-Increase / decrease direction of change of unit pixel number Dm ---> 1-Minimum value of the number of unit pixels Nmin ---> 1-Maximum value of the number of unit pixels Nmax ---> 100 However, the change direction of the number of unit pixels of the mosaic is 1
The value shall be either (increase) or -1 (decrease).

【0097】(ステップS5)次に、ユーザは三角形物
体におけるテクスチャアニメーション状態値の入力を行
う。
(Step S5) Next, the user inputs the texture animation state value for the triangular object.

【0098】すなわち、制御装置1は、データ表示装置
8a上に以下の表示を行い、データ入力装置3をデータ
入力待ち状態とする。そして、ユーザはキーボードによ
りその表示上の各項目の矢印の後に続けてその項目に対
応する数値をタイプすることでマッピング画像番号2
(人物の画像)、およびアニメーション番号2(色変換
処理)の入力を行う。
That is, the control device 1 displays the following on the data display device 8a and puts the data input device 3 into a data input waiting state. Then, the user types the numerical value corresponding to the item following the arrow of each item on the display using the keyboard, and the mapping image number 2
(Person image) and animation number 2 (color conversion process) are input.

【0099】<三角形のテクスチャアニメーション状態
値の入力> ・マッピング画像番号 NT−−−−>2 ・アニメーション番号 NA−−−−>2 次に、制御装置は上でアニメーション番号の2、つまり
色変換処理が指定されたのを受けてデータ表示装置8a
に以下の表示を行い、ユーザに色変換処理アニメーショ
ンの各変数の初期値の入力を促す。ユーザは上と同様の
方法でそれぞれの項目に対する数値データをキーボード
により行う。
<Input of triangle texture animation state value> Mapping image number NT ---> 2 Animation number NA ---> 2 Next, the control unit displays the animation number 2 above, that is, color conversion. In response to the designation of processing, the data display device 8a
The following display is displayed to prompt the user to input the initial value of each variable of the color conversion processing animation. The user uses the keyboard to perform numerical data for each item in the same manner as above.

【0100】○色変換処理の各変数の初期値を入力して
下さい ・Rの変化スピード SR−−−>10 ・Rの変化の増減方向 DR−−−>1 ・Gの変化スピード SG−−−>20 ・Gの変化の増減方向 DG−−−>−1 ・Bの変化スピード SB−−−>30 ・Bの変化の増減方向 DB−−−>−1 ただし、R、G、Bそれぞれの色の変化の増減方向は1
(増加)または−1(減少)のどちらかの値をとるもの
とする。そして、入力されたこれらの値はファイル装置
7内に格納される。
○ Enter the initial value of each variable of color conversion process ・ R change speed SR ---> 10 ・ R change increase / decrease direction DR ---> 1 ・ G change speed SG --- -> 20 ・ Increase / decrease direction of change of G DG --->-1 ・ Speed of change of B SB ---> 30 ・ Increase / decrease direction of change of B DB --->-1 However, R, G, B respectively The increase / decrease direction of the color change is 1
The value shall be either (increase) or -1 (decrease). Then, these input values are stored in the file device 7.

【0101】(ステップS6)次に、制御装置1の命令
により、コマンド入力装置2はコマンド入力待ち状態と
なり、ユーザがYESを入力すると次のステップへ進み
(CGアニメーションが開始し)、NOを入力するとス
テップS1に戻る(最初から入力をやり直す)。
(Step S6) Next, in response to a command from the control device 1, the command input device 2 enters a command input waiting state, and if the user inputs YES, the process proceeds to the next step (CG animation starts) and NO is input. Then, the process returns to step S1 (input is redone from the beginning).

【0102】(ステップS7)制御装置1の命令によ
り、CGアニメーション主要部の処理を行い、しかるべ
き終了命令が下されるとCGアニメーション処理は終了
する。
(Step S7) The CG animation main part is processed by the command of the control device 1, and the CG animation process is ended when an appropriate end command is given.

【0103】次に、CGアニメーション処理の主要部で
ある前述のステップS7で行われる処理に、図11を用
いて説明する。
Next, the processing performed in step S7, which is the main part of the CG animation processing, will be described with reference to FIG.

【0104】図11は、CGアニメーションの主要部で
行われる処理を示したフローチャートである。
FIG. 11 is a flowchart showing the processing performed in the main part of the CG animation.

【0105】以下、データの流れにしたがって処理方法
を詳細に説明する。
The processing method will be described in detail below according to the data flow.

【0106】(ステップT1)制御装置1の命令によ
り、コマンド入力装置2であるマウスはコマンド入力チ
ェック状態となり、ユーザがマウスの中ボタンを押すこ
とでCGアニメーション終了の命令を下した場合はCG
アニメーション処理を終了し、そうでない場合は次のス
テップへ進む。
(Step T1) The command of the control device 1 causes the mouse, which is the command input device 2, to enter the command input check state, and when the user gives a command to end the CG animation by pressing the middle button of the mouse, CG
End the animation processing, and if not, proceed to the next step.

【0107】(ステップT1’)制御装置1の命令によ
り、コマンド入力装置2であるマウスはコマンド入力チ
ェック状態となり、ユーザがマウスの左ボタンを押して
いたならば、四角形および三角形の各アニメーション状
態値内のテクスチャ番号NTを以下のように更新する。
(Step T1 ') According to the instruction of the control device 1, the mouse which is the command input device 2 is in the command input check state, and if the user has pressed the left button of the mouse, within the respective animation state values of the rectangle and the triangle. The texture number NT of is updated as follows.

【0108】NT←NT+1 ただし、この計算によりNTがテクスチャ画像の総数を
越えたならば、 NT←1 とする。
NT ← NT + 1 However, if NT exceeds the total number of texture images by this calculation, NT ← 1 is set.

【0109】(ステップT1”)制御装置1の命令によ
り、コマンド入力装置2であるマウスはコマンド入力チ
ェック状態となり、ユーザがマウスの右ボタンを押して
いたならば、四角形および三角形の各アニメーション状
態値内のアニメーション番号NAを以下のように更新す
る。
(Step T1 ") By the command of the control device 1, the mouse which is the command input device 2 is in the command input check state, and if the user has pressed the right button of the mouse, within the rectangular and triangular animation state values. The animation number NA of is updated as follows.

【0110】NA←NA+1 ただし、この計算によりNTがテクスチャアニメーショ
ンの種類の総数を越えたならば、 NA←1 とする。
NA ← NA + 1 However, if NT exceeds the total number of types of texture animation by this calculation, NA ← 1.

【0111】(ステップT2)制御装置1の命令によ
り、視点入力装置11であるスペースボールは移動ベク
トルにおけるX、Y、Z方向のそれぞれ成分Dx、D
y、Dz、および、回転方向における左右と上下のそれ
ぞれの回転成分Dα、Dβを測定し、ファイル装置7内
に格納する。
(Step T2) In response to a command from the control device 1, the space ball, which is the viewpoint input device 11, has components Dx and D in the X, Y, and Z directions of the movement vector, respectively.
The y, Dz, and the left and right rotation components Dα, Dβ in the rotation direction are measured and stored in the file device 7.

【0112】(ステップT3)制御装置1の命令によ
り、演算装置6はファイル装置7内のDx、Dy、Dz
を用い、視点の位置Xe、Ye、Zeを次式で更新す
る、 Xe←Xe+Dx Ye←Ye+Dy Ze←Ze+Dz また、同じくファイル装置7内のDαとDβを用い、方
位角αと仰角βを次式で更新する。
(Step T3) In accordance with a command from the control unit 1, the arithmetic unit 6 has Dx, Dy, Dz in the file unit 7.
The position Xe, Ye, Ze of the viewpoint is updated by the following equations: Xe ← Xe + Dx Ye ← Ye + Dy Ze ← Ze + Dz Similarly, using Dα and Dβ in the file device 7, the azimuth α and the elevation β Update with.

【0113】α←α+Dα β←β+Dβ そして、これらの新しいXe、Ye、Ze、α、βはフ
ァイル装置7内に格納される。
Α ← α + Dα β ← β + Dβ Then, these new Xe, Ye, Ze, α and β are stored in the file device 7.

【0114】(ステップT4)制御装置1の命令によ
り、演算装置6はファイル装置7内のDx、Dy、D
z、Dα、Dβを用いてアニメーション状態値の更新を
行う。
(Step T4) In response to a command from the control unit 1, the arithmetic unit 6 receives Dx, Dy, D in the file unit 7.
The animation state value is updated using z, Dα, and Dβ.

【0115】まず、演算装置6はDα、Dβを用いてこ
の時点でモザイク処理アニメーションを行っているテク
スチャ画像のアニメーション状態値の更新を、たとえば
次のように行う。
First, the arithmetic unit 6 updates the animation state value of the texture image for which the mosaic processing animation is being performed at this point using Dα and Dβ, for example, as follows.

【0116】Sm←Sm+omit(Dα) Dm←Dm*mark(Dβ) N←N+Sm*Dm (ただし、N<Nminの場合:N←Nmin、また、
N>Nmaxの場合:N←Nmaxとする) Nmin←Nmin (変化なし) Nmax←Nmax (変化なし) ただし、omit(A)はAの小数点以下を切り捨てる
関数、またmark(B)はBの符号が正か負によりそ
れぞれ1と−1を返す関数であるとする。
Sm ← Sm + omit (Dα) Dm ← Dm * mark (Dβ) N ← N + Sm * Dm (where N <Nmin: N ← Nmin, or
If N> Nmax: N ← Nmax) Nmin ← Nmin (no change) Nmax ← Nmax (no change) where omit (A) is a function that rounds down the decimal point of A, and mark (B) is the sign of B Is a function that returns 1 and −1 depending on whether it is positive or negative.

【0117】次に、演算装置6はDx、Dy、Dzを用
いて三角形上の色変換処理を示すアニメーション状態値
の更新を、たとえば次のように行う。
Next, the arithmetic unit 6 updates the animation state value indicating the color conversion processing on the triangle using Dx, Dy, and Dz, for example, as follows.

【0118】SR←SR+omit(Dx) DR←DR×mark(Dy) SG←SG+omit(Dy) DG←DG×mark(Dz) SB←SB+omit(Dz) DB←DB×mark(Dx) そして、これらの更新値はファイル装置7内に格納され
る。
SR ← SR + omit (Dx) DR ← DR × mark (Dy) SG ← SG + omit (Dy) DG ← DG × mark (Dz) SB ← SB + omit (Dz) DB ← DB × mark (Dx) And these updates The value is stored in the file device 7.

【0119】(ステップT5)制御装置1の命令によ
り、画像処理装置A9はの物体のテクスチャアニメーシ
ョン状態変数を用いて、同じく四角形の物体に指定され
たファイル装置7内の風景の画像に対し、同じく四角形
物体に指定されたモザイク処理を施す。
(Step T5) In response to a command from the control device 1, the image processing device A9 uses the texture animation state variable of the object for the image of the landscape in the file device 7 which is also designated as a rectangular object. The specified mosaic processing is applied to the rectangular object.

【0120】また同様に、制御装置1の命令により、画
像処理装置B10は三角形物体のテクスチャアニメーシ
ョン状態変数を用いて、三角形物体に指定されたファイ
ル装置7内の人物の画像に対し、同じく三角形物体に指
定された色変換処理を施す。
Similarly, in response to a command from the control device 1, the image processing device B10 uses the texture animation state variable of the triangular object to compare the triangular object with the image of the person in the file device 7 designated as the triangular object. The color conversion processing specified in is applied.

【0121】そして、処理後の2つのテクスチャ画像は
ファイル装置7内へ格納される。
Then, the two processed texture images are stored in the file device 7.

【0122】(ステップT6)制御装置1の命令によ
り、演算装置6は画像のレンダリング処理を行う。
(Step T6) In accordance with a command from the control unit 1, the arithmetic unit 6 performs image rendering processing.

【0123】まず、演算装置6は生成画像とおなじ大き
さの背景画像を作成し、すべての画素をたとえば黒の色
データ、 (R、G、B)=(0、0、0) で初期化する。
First, the arithmetic unit 6 creates a background image having the same size as the generated image, and initializes all pixels with, for example, black color data, (R, G, B) = (0, 0, 0). To do.

【0124】そして、演算装置6は前述のレンダリング
方法により、ファイル装置7内の視点条件値を用いて、
空間内の四角形物体に、同じくファイル装置7内のモザ
イク処理後のテクスチャをマッピングを施した物体を作
成された背景画像上のしかるべき位置に描写する。
Then, the arithmetic unit 6 uses the viewpoint condition value in the file unit 7 by the rendering method described above,
Similarly, a quadrangle object in space is mapped to the texture after the mosaic processing in the file device 7, and an object is drawn at an appropriate position on the created background image.

【0125】また、同様に演算装置6は前述のレンダリ
ング方法により、ファイル装置7内の視点条件値を用い
て、空間内の三角形物体に、同じくファイル装置7内の
色変換処理後のテクスチャをマッピングを施した物体を
背景画像のしかるべき位置に描写する。
Similarly, the arithmetic unit 6 maps the texture after the color conversion processing in the file unit 7 to the triangular object in the space by using the viewpoint condition value in the file unit 7 by the rendering method described above. The object with the mark is drawn at an appropriate position on the background image.

【0126】ただし、これら2つの平面物体へのテクス
チャマッピングは、前述のパースペクティブ・コーディ
ネートにおける投影の中心軸が平面物体と垂直になるよ
うに設定され行われるものとする。
However, it is assumed that the texture mapping to these two plane objects is set so that the central axis of the projection in the above-mentioned perspective coordination is perpendicular to the plane object.

【0127】この結果得られた生成画像は、ファイル装
置7内に格納される。
The generated image obtained as a result is stored in the file device 7.

【0128】(ステップT7)制御装置1の命令によ
り、画像表示装置8はファイル装置7内の生成画像を表
示した(生成画像を画像表示装置へ出力)後、ステップ
S8へ戻る。
(Step T7) In response to a command from the control device 1, the image display device 8 displays the generated image in the file device 7 (outputs the generated image to the image display device), and then returns to step S8.

【0129】以上に説明したように、本発明によれば、
3次元空間内に存在する各物体に対し固有のテクスチャ
アニメーション状態値を割り当て、CGアニメーション
を形成する複数の画像の生成過程で前記テクスチャアニ
メーション状態値を変化させることで、個々の物体に割
り当てたテクスチャおよびそのテクスチャに対して実行
されているテクスチャアニメーションをそれぞれ他のテ
クスチャ、他のテクスチャアニメーションに切り替えた
り、また、複数の異なる物体上のテクスチャに対し同じ
アニメーションが実行されている場合にそれぞれのテク
スチャアニメーション状態値内のテクスチャアニメーシ
ョン変数を違えて動きに変化をつけることにより、個々
の物体にマッピングしたテクスチャがダイナミックに変
化する従来にないアート性に満ちたCGアニメーション
を実現するコンピュータグラフィックス装置を提供する
ことができる。
As described above, according to the present invention,
A texture animation state value unique to each object existing in the three-dimensional space is changed, and the texture animation state value is changed in the process of generating a plurality of images forming a CG animation. And the texture animation executed for that texture to another texture, another texture animation, or each texture animation when the same animation is executed for textures on different objects A computer-aided computer graphics animation that realizes unprecedented artistic CG animation in which the texture mapped to each object dynamically changes by changing the texture animation variable in the state value. It is possible to provide a chromatography data graphics devices.

【0130】したがって、あらかじめ複数のテクスチャ
アニメーションを用意しておけば、入力したテクスチャ
画像の個数がたとえ少ない場合も、その少ない画像を用
いてバリエーションに富んだ変化を持つテクスチャアニ
メーションを実現したCGアニメーションが可能とな
る。
Therefore, if a plurality of texture animations are prepared in advance, even if the number of input texture images is small, a CG animation that realizes a texture animation having a variety of variations using the few images can be obtained. It will be possible.

【0131】なお、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器からなるシステム
に適用してもよい。
The present invention may be applied to a system composed of a plurality of devices or a system composed of one device.

【0132】また、本発明は、システムあるいは装置に
プログラムを供給することで実現される場合にも適用で
きることはいうまでもない。
It goes without saying that the present invention can also be applied to the case where it is realized by supplying a program to a system or an apparatus.

【0133】[0133]

【発明の効果】以上説明したように、本発明によれば、
3次元空間内に存在する各物体の各面毎に対して1つの
テクスチャ画像データと固有のテクスチャアニメーショ
ン状態値を割り当て、CGアニメーションを形成する複
数の画像の生成過程で前記テクスチャアニメーション状
態値を変化させることで、複数の異なる物体上のテクス
チャに対し同じアニメーションが実行されている場合に
それぞれのテクスチャアニメーション状態値内のテクス
チャアニメーション変数を違えて動きに変化をつけるこ
とにより、個々の物体にマッピングしたテクスチャがダ
イナミックに変化する従来にないアート性に満ちたCG
アニメーションを実現することができる。
As described above, according to the present invention,
And to each surface of each object existing in three-dimensional space one
By assigning texture image data and a unique texture animation state value, and changing the texture animation state value in the process of generating a plurality of images forming a CG animation, the same animation is executed for textures on different objects. If the texture animation variable in each texture animation state value is changed and the movement is changed, the texture mapped to each object dynamically changes.
Animation can be realized.

【0134】したがって、あらかじめ複数のテクスチャ
アニメーションを用意しておけば、入力したテクスチャ
画像の個数がたとえ少ない場合も、その少ない画像を用
いてバリエーションに富んだ変化を持つテクスチャアニ
メーションを実現したCGアニメーションが可能とな
る。
Therefore, if a plurality of texture animations are prepared in advance, even if the number of input texture images is small, a CG animation that realizes a texture animation having a variety of variations using the few images is provided. It will be possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の画像処理装置のブロック図FIG. 1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.

【図2】モデリング座標系における3次元物体を示した
FIG. 2 is a diagram showing a three-dimensional object in a modeling coordinate system.

【図3】投影変換のための4つの座標系を示した図FIG. 3 is a diagram showing four coordinate systems for projection conversion.

【図4】投影変換を示した概念図FIG. 4 is a conceptual diagram showing projection conversion.

【図5】スクリーンと表示画像の対応を示した概念図FIG. 5 is a conceptual diagram showing the correspondence between screens and display images.

【図6】スペースボールを示す図FIG. 6 is a diagram showing a space ball.

【図7】モザイク処理を説明するための概念図FIG. 7 is a conceptual diagram for explaining mosaic processing.

【図8】テクスチャマッピングの様子を示した概念図FIG. 8 is a conceptual diagram showing a state of texture mapping.

【図9】テクスチャマッピングを施した物体の見え方を
示した図
FIG. 9 is a diagram showing the appearance of an object subjected to texture mapping.

【図10】CGアニメーション処理全体を示したフロー
チャート
FIG. 10 is a flowchart showing the entire CG animation processing.

【図11】CGアニメーション処理の主要部分の処理を
示したフローチャート
FIG. 11 is a flowchart showing the processing of the main part of CG animation processing.

【符号の説明】[Explanation of symbols]

1 制御装置 2 コマンド入力装置 3 データ入力装置 4 画像入力装置 5 撮影装置 6 演算装置 7 ファイル装置 8 画像表示装置 8a データ表示装置 9 画像処理装置A 10 画像処理装置B 1 control device 2 Command input device 3 data input device 4 Image input device 5 Imaging device 6 arithmetic unit 7 file device 8 Image display device 8a Data display device 9 Image processing device A 10 Image processing device B

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 17/40 G06T 15/00 G06T 15/70 CSDB(日本国特許庁)Front page continued (58) Fields investigated (Int.Cl. 7 , DB name) G06T 17/40 G06T 15/00 G06T 15/70 CSDB (Japan Patent Office)

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 物体の3次元形状データを入力すること
でモデリングを行うデータ入力手段と、 テクスチャ画像データを入力する画像入力手段と、 前記3次元形状データを構成する面毎に、前記画像入力
手段で入力された1つのテクスチャ画像データを対応付
ける対応付け手段と、 前記対応付け手段により前記面毎に対応付けられたテク
スチャ画像データ に対する所定のアニメーション処理を
行う際に利用する状態値の初期値を入力する状態値入力
手段と、前記面毎に前記状態値入力手段で入力した状態
値を、当該初期値に含まれる変更速度情報に基づいてそ
れぞれ更新する状態値更新手段と、 前記面毎の状態値に基づいて、前記1つのテクスチャ画
データをそれぞれ加工する画像処理手段と、 該画像処理手段により生成されたテクスチャ画像データ
を、対応するそれぞれの面にテクスチャマッピングを行
ってテクスチャマッピングを施した画像を生成する画像
生成手段と、 生成された画像を表示する画像表示手段とを備えること
を特徴とする画像処理装置。
1. A data input unit for modeling by inputting three-dimensional shape data of an object, an image input unit for inputting texture image data, and the image input for each surface constituting the three-dimensional shape data. with corresponding one of the texture image data input by means
And the technology associated with each surface by the associating means.
The state value input means for inputting the initial value of the state value used when performing a predetermined animation process on the stature image data, and the state value input by the state value input means for each surface are included in the initial value. State value updating means for updating each based on the change speed information, image processing means for processing each of the one texture image data based on the state value for each surface, and a texture image generated by the image processing means data <br/>, image producing means for producing an image subjected to texture mapping performed corresponding texture mapping on each side, characterized in that it comprises an image display means for displaying the generated image Image processing device.
【請求項2】 更に、前記画像表示手段による3次元物
体の表示を行っている最中に、視点を変更する変更手段
を備えることを特徴とする請求項1に記載の画像処理装
置。
2. The image processing apparatus according to claim 1, further comprising changing means for changing a viewpoint while displaying the three-dimensional object by the image displaying means.
【請求項3】 前記テクスチャアニメーション内のアニ
メーション状態値は前記コンピュータグラフィックスア
ニメーション実行中において可変であることを特徴とす
る請求項第1項に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the animation state value in the texture animation is variable during execution of the computer graphics animation.
【請求項4】 物体の3次元形状データを入力すること
でモデリングを行うデータ入力工程と、 テクスチャ画像データを入力する画像入力工程と、 前記3次元形状データを構成する面毎に、前記画像入力
工程で入力された1つのテクスチャ画像データを対応付
ける対応付け工程と、 前記対応付け工程により前記面毎に対応付けられたテク
スチャ画像データ に対して所定のアニメーション処理を
行う際に利用する状態値の初期値を入力する状態値入力
工程と、 前記面毎に前記状態値入力工程で入力した状態値を、当
該初期値に含まれる変更速度情報に基づいてそれぞれ更
新する状態値更新工程と、 前記面毎の状態値に基づいて、前記1つのテクスチャ画
データをそれぞれ加工する画像処理工程と、 該画像処理工程により生成されたテクスチャ画像データ
を、対応するそれぞれの面にテクスチャマッピングを行
ってテクスチャマッピングを施した画像を生成する画像
生成工程と、 生成された画像を表示する画像表示工程とを備えること
を特徴とする画像処理方法。
4. A data input step of modeling by inputting three-dimensional shape data of an object, an image input step of inputting texture image data, and the image input for each surface constituting the three-dimensional shape data. Correspond to one texture image data input in the process
And the technology associated with each of the faces by the associating step.
The state value input step of inputting the initial value of the state value used when performing a predetermined animation process on the stature image data , and the state value input in the state value input step for each surface is set to the initial value. A state value updating step of updating each based on the included change speed information, an image processing step of processing each of the one texture image data based on the state value of each surface, and an image processing step generated by the image processing step. A texture image data , an image generating step of performing texture mapping on each corresponding surface to generate an image subjected to the texture mapping, and an image displaying step of displaying the generated image. Image processing method.
JP25580293A 1993-09-21 1993-10-13 Image processing device Expired - Fee Related JP3501479B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP25580293A JP3501479B2 (en) 1993-10-13 1993-10-13 Image processing device
US08/307,152 US5687307A (en) 1993-09-21 1994-09-16 Computer graphic animation in which texture animation is independently performed on a plurality of objects in three-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25580293A JP3501479B2 (en) 1993-10-13 1993-10-13 Image processing device

Publications (2)

Publication Number Publication Date
JPH07110873A JPH07110873A (en) 1995-04-25
JP3501479B2 true JP3501479B2 (en) 2004-03-02

Family

ID=17283842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25580293A Expired - Fee Related JP3501479B2 (en) 1993-09-21 1993-10-13 Image processing device

Country Status (1)

Country Link
JP (1) JP3501479B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100501768C (en) * 1995-05-19 2009-06-17 世嘉股份有限公司 Image processing device, image processing method, and equipment
JP3133299B2 (en) 1999-03-12 2001-02-05 株式会社スクウェア Game device, moving image display method, and recording medium
JP2004246877A (en) * 2003-01-24 2004-09-02 Sega Corp Program projecting image onto game character, game machine incorporating program, storage medium storing program
JP4572222B2 (en) * 2007-09-05 2010-11-04 株式会社ソフイア Pachinko machine
JP4572221B2 (en) * 2007-09-05 2010-11-04 株式会社ソフイア Pachinko machine

Also Published As

Publication number Publication date
JPH07110873A (en) 1995-04-25

Similar Documents

Publication Publication Date Title
US5687307A (en) Computer graphic animation in which texture animation is independently performed on a plurality of objects in three-dimensional space
US6222551B1 (en) Methods and apparatus for providing 3D viewpoint selection in a server/client arrangement
US5856829A (en) Inverse Z-buffer and video display system having list-based control mechanism for time-deferred instructing of 3D rendering engine that also responds to supervisory immediate commands
US5459529A (en) Video processing for composite images
EP1064619B1 (en) Stochastic level of detail in computer animation
US5966132A (en) Three-dimensional image synthesis which represents images differently in multiple three dimensional spaces
CN100458850C (en) Method and apparatus for cost effective digital image and video editing, using general 3D graphic pipeline
JP4481166B2 (en) Method and system enabling real-time mixing of composite and video images by a user
US5877769A (en) Image processing apparatus and method
EP1033682A2 (en) Image processing apparatus and image processing method
JPS62231380A (en) Picture synthesizing device
JP3626144B2 (en) Method and program for generating 2D image of cartoon expression from 3D object data
JPH01265374A (en) Electron image processor
US8698830B2 (en) Image processing apparatus and method for texture-mapping an image onto a computer graphics image
KR910009102B1 (en) Image synthesizing apparatus
US5261030A (en) Real-time digital computer graphics processing method and apparatus
US5793372A (en) Methods and apparatus for rapidly rendering photo-realistic surfaces on 3-dimensional wire frames automatically using user defined points
JP3501479B2 (en) Image processing device
JP2001148030A (en) Image processor, recording medium and program
JP2003115055A (en) Image generator
JPH0935084A (en) Image information processor and image information processing method
US20040004621A1 (en) Method for interactively viewing full-surround image data and apparatus therefor
JP3850080B2 (en) Image generation and display device
JP3453410B2 (en) Image processing apparatus and method
JPH11331700A (en) Image processing unit and image processing method

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101212

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees