JPH01106284A - Three-dimensional image display control device - Google Patents

Three-dimensional image display control device

Info

Publication number
JPH01106284A
JPH01106284A JP26410587A JP26410587A JPH01106284A JP H01106284 A JPH01106284 A JP H01106284A JP 26410587 A JP26410587 A JP 26410587A JP 26410587 A JP26410587 A JP 26410587A JP H01106284 A JPH01106284 A JP H01106284A
Authority
JP
Japan
Prior art keywords
mapping
buffer
display
dimensional model
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26410587A
Other languages
Japanese (ja)
Inventor
Toshiyuki Goto
敏行 後藤
Toshiya Mima
美間 俊哉
Yuji Nakagawa
祐治 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP26410587A priority Critical patent/JPH01106284A/en
Publication of JPH01106284A publication Critical patent/JPH01106284A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To rapidly display a three-dimensional model by storing the information of patterns on respective surfaces of the three-dimensional model independently of information relating to a light source. CONSTITUTION:A three-dimensional picture element display control device is constituted of a display processing part 3, a mapping processing part 4, a mapping buffer 5, a frame buffer 6, and a look-up table 8. The display processing part 3 inputs the three-dimensional model and the information of a light source or a color index corresponding to coordinates expressing the three-dimensional model, calculates the information of illumination on respective picture elements on the surfaces of the three-dimensional model or color coordinates and stores the calculated result in the frame buffer 6. The mapping processing part 4 outputs an image to which a mapping pattern is stuck to the mapping buffer 5. The look-up table 8 composes the contents of the frame buffer 6 with that of the mapping buffer 5 and displays the composed result on a CRT display 9.

Description

【発明の詳細な説明】 〔目 次〕 概要 産業上の利用分野 従来の技術と発明が解決しようとする問題点問題点を解
決するための手段 作用 実施例 発明の効果 〔概要〕 ドツト表現されたマツピングパターンを3次元モデルの
表面に張りつけて表示する3次元画像表示制御装置に係
り、特に、マツピング処理技術に関し、 3次元画像表示処理の内の時間のかがるマツピング処理
と、光源情報の変更に伴う表示処理とを独立に制御して
3次元画像表示を高速に行うことを目的とし、 3次元画像を表示するのに、該3次元モデルと光源の情
報(光源の位置9種類等)、或いは上記3次元モデルを
表現する座標に対応する色指標を入力して、該3次元モ
デルの表面上の各画素における照明の情報(輝度や色指
標)を算出してフレームバッファに格納する表示処理部
と、該表示処理部の制御の元に、3次元モデルの表面上
の各画素と、マツピングパターンとの対応関係を計算し
て、該3次元モデルにマツピングパターンを張り付けた
画像をマツピングバッファに出力するマツピング処理部
と、上記フレームバッファとマツピングバッファの内容
を合成してCRTデイスプレィに表示するルックアップ
テーブル(LIT)とを設け、該3次元モデルの表面の
模様(マツピングパターン)の情報を、光源に関する情
報とは独立に保持するようにして、且つ、表示プログラ
ムが格納されているセグメントバッファを該表示プログ
ラム中に設定されているマツピングフラグ(MPF)の
値を元に走査して、必要な表示プログラムを取り出し、
上記マツピングバッファとフレームバッファを独立に制
御して該3次元画像を表示するように構成する。
[Detailed Description of the Invention] [Table of Contents] Overview Industrial Application Fields Prior Art and Problems to be Solved by the Invention Means for Solving the Problems Action Examples Effects of the Invention [Summary] Expressed in dots It relates to a 3D image display control device that pastes and displays a mapping pattern on the surface of a 3D model, and in particular relates to mapping processing technology, including time-consuming mapping processing in 3D image display processing and changing light source information. The aim is to display 3D images at high speed by independently controlling the display processing associated with the 3D image, and to display the 3D image, information about the 3D model and the light source (9 types of light source positions, etc.), Alternatively, a display process that inputs a color index corresponding to the coordinates expressing the three-dimensional model, calculates illumination information (brightness and color index) at each pixel on the surface of the three-dimensional model, and stores it in a frame buffer. Under the control of the display processing section, the correspondence between each pixel on the surface of the three-dimensional model and the mapping pattern is calculated, and an image in which the mapping pattern is pasted onto the three-dimensional model is mapped. It is equipped with a mapping processing unit that outputs to a pin buffer, and a look-up table (LIT) that combines the contents of the frame buffer and the mapping buffer and displays it on a CRT display. ) is held independently from the information regarding the light source, and the segment buffer in which the display program is stored is stored based on the value of the mapping flag (MPF) set in the display program. Scan and extract the necessary display program,
The three-dimensional image is displayed by controlling the mapping buffer and the frame buffer independently.

〔産業上の利用分野〕[Industrial application field]

本発明は、ドツト表現されたマツピングパターンを3次
元モデルの表面に張りつけて表示する3次元画像表示制
御装置に係り、特に、マツピング処理技術に関する。
The present invention relates to a three-dimensional image display control device for pasting and displaying a mapping pattern expressed as dots on the surface of a three-dimensional model, and particularly relates to a mapping processing technique.

最近の画像処理技術の進歩に伴って、計算機支援設計(
CAD) 、計算機支援製造(CAM)等の分野におい
ても、該画像処理によって、設計、製造対象の物体をい
ろいろな視点から見た画像を表示することが求められる
ようになっているが、従来においては、2次元表示か、
或いは凝似3次元(ワイヤフレーム)で表示されるのが
現実であった。
With recent advances in image processing technology, computer-aided design (
In fields such as CAD) and computer-aided manufacturing (CAM), it is now necessary to use image processing to display images of objects to be designed and manufactured from various viewpoints. Is it a two-dimensional display?
Or, in reality, it was displayed in a simulated three-dimensional form (wire frame).

従って、出来上がりの形状が明確に把握できない問題が
あり、質感を持った、実際の形に近い表示が求められ、
所謂ソリッドモデル表示の可能なデイスプレィ装置が必
要とされるようになってきた。
Therefore, there is a problem that the finished shape cannot be clearly grasped, and a display that has texture and is close to the actual shape is required.
A display device capable of displaying a so-called solid model is now required.

この場合、該自動設計、製造作業の各段階でのレスポン
スタイムの短縮が必須条件であり、できる限り高速に、
該ソリッドモデル表示のできる表示制御手段を備えた3
次元画像表示制御装置が必要とされる。
In this case, it is essential to shorten the response time at each stage of the automatic design and manufacturing work, and as quickly as possible,
3 equipped with a display control means capable of displaying the solid model;
A dimensional image display controller is required.

〔従来の技術と発明が解決しようとする問題点〕第5図
は従来の3次元画像表示制御方式を説明する図である。
[Prior art and problems to be solved by the invention] FIG. 5 is a diagram illustrating a conventional three-dimensional image display control system.

先ず、表示処理部3゛においては、入力された3次元モ
デル、マツピングパターン、及び光源の情報(光源の位
置1種類9色指標等)を元に、該3次元モデルの各表面
上の各画素における照明の情報(明るさ1色等)を算出
すると共に、マツピング処理部4′で算出された該3次
元モデルの表面上の模様とを合成し、フレームバッフフ
ロ゛ に格納する。
First, in the display processing unit 3', each image on each surface of the three-dimensional model is displayed based on the input three-dimensional model, mapping pattern, and light source information (one type of light source position, nine color indicators, etc.). The illumination information (brightness, one color, etc.) at the pixel is calculated, and the mapping processing unit 4' combines the information with the pattern on the surface of the three-dimensional model calculated and stores it in the frame buffer.

上記処理の内、表示処理の詳細を以下に説明する。Among the above processes, details of the display process will be explained below.

第6図は表示処理の概念を説明した図であって、(a)
は輝度算出(シェーディング)処理を示し、(bl、b
2)は面塗り処理を示している。
FIG. 6 is a diagram explaining the concept of display processing, and (a)
indicates brightness calculation (shading) processing, (bl, b
2) shows surface painting processing.

複数個の面から構成される3次元モデルのある面(例え
ば、面2)に対する視点、光源の位置を(a)図に示し
たものとすると、接面2での各頂点の輝度1iは、例え
ば、図示の式で表される。該輝度の算出式については、
例えば、(J、D、フォレイ、A、V、ダン著“対話に
よる計算機画像処理の基礎”の第16章、アディソンー
ウェスリー出版会社刊、1982 (J、D、Fole
y and^、V、Dan、 ”Fundamenta
ls of Interactive Con+put
er Graphics″+  @16+Addiso
n−Wesley Publiishing Comp
any Inc、、19B2、)参照) この式に基づいて、各頂点での輝度が算出できる。
Assuming that the viewpoint and the position of the light source for a certain surface (for example, surface 2) of a three-dimensional model composed of multiple surfaces are shown in Figure (a), the brightness 1i of each vertex on the tangent surface 2 is For example, it is expressed by the formula shown. Regarding the formula for calculating the brightness,
For example, (Chapter 16 of "Fundamentals of Interactive Computer Image Processing" by J. D. Foley, A. V. Dunn, Addison-Wesley Publishing Company, 1982 (J. D. Fole
y and^, V, Dan, “Fundamenta
ls of Interactive Con+put
er Graphics″+ @16+Addiso
n-Wesley Publishing Comp
any Inc., 19B2) Based on this formula, the brightness at each vertex can be calculated.

次に、(bl、b2)図によって、接面2での面塗り処
理について説明する。
Next, the surface painting process on the contact surface 2 will be explained with reference to the (bl, b2) diagrams.

接面塗り処理においては、接面2を(bl)図の黒点で
示した各頂点の座標(但し、上記輝度算出処理で求めら
れている各頂点対応の輝度1.を含む)((X++V+
+2++I+)+ (Xz+yz+Zz+Ig)+’−
”)を1組にして表す。
In the tangent surface painting process, the tangent surface 2 is expressed as the coordinates of each vertex indicated by the black dot in the figure (bl) (including the brightness 1. corresponding to each vertex obtained in the brightness calculation process described above) ((X++V+
+2++I+)+ (Xz+yz+Zz+Ig)+'-
”) are expressed as one set.

該頂点座標から各頂点を結ぶベクトルを発生し、該ベク
トル上の各画素から、縦、又は横方向に(b2)図(本
例では、横方向)に示したようなベクトル列を発生し、
その端点座標データ列を公知のディジタル微分解析器(
ODA)に出力する。
Generate a vector connecting each vertex from the vertex coordinates, and generate a vector string from each pixel on the vector in the vertical or horizontal direction as shown in the diagram (b2) (in this example, in the horizontal direction),
The end point coordinate data string is processed using a known digital differential analyzer (
output to ODA).

該ディジタル微分解析器(ODA)においては、該ベク
トルの端点を結ぶ座標列を各画素毎に発生する。この座
標列には、3次元座標(x、 L z)の他に輝度値(
1)が含まれている。
In the digital differential analyzer (ODA), a coordinate string connecting the end points of the vector is generated for each pixel. In addition to the three-dimensional coordinates (x, L z), this coordinate string also includes luminance values (
1) is included.

当該面塗り処理においては、このようなデ、イジタル微
分解析(DD^)による補間処理によって、該3次元モ
デルの各面の各画素の座標値と、輝度とを高速に求める
In the surface painting process, the coordinate values and brightness of each pixel on each surface of the three-dimensional model are determined at high speed by interpolation processing using digital differential analysis (DD^).

次に、該3次元画像表示でよく用いられるマツピング処
理について説明する。
Next, mapping processing often used in three-dimensional image display will be explained.

第7図はマツピング処理の概念を示した図であって、(
a)は3次元モデル■を示し、(b)はマツピングパタ
ーン■を示し、(c)は3次元モデル■とマツピングパ
ターン■との対応付は処理を示し、(d)は対応付は結
果の例を示し、(el、e2)は上記表示処理で求めた
3次元モデル■の各面の各画像の輝度に対応してマツピ
ングパターン■を張り付ける処理を示し、(f)は3次
元モデル■の各面の各座標からマツピングパターン■上
の座標を求める方法を示している。
FIG. 7 is a diagram showing the concept of mapping processing, and (
a) shows the 3D model ■, (b) shows the mapping pattern ■, (c) shows the correspondence between the 3D model ■ and the mapping pattern ■, and (d) shows the correspondence An example of the results is shown, (el, e2) shows the process of pasting the mapping pattern ■ corresponding to the brightness of each image on each side of the three-dimensional model ■ obtained in the above display process, and (f) shows the process of pasting the mapping pattern ■. It shows how to obtain the coordinates on the mapping pattern ■ from each coordinate of each surface of the dimensional model ■.

該マツピング処理は、本図の(a) =+(b) =+
(c)→(d)→(el、e2)の処理過程から明らか
なように、マツピングパターン■((b)図参照)の座
標軸を3次元モデル■((a)図参照)の各面1.2.
−・で設定したベースベクトル3アツプベクトル((C
)図参照)に合わせて座標変換を施し、各面に対応付け
を行い張り付ける処理である。
The mapping process is as follows: (a) =+(b) =+ in this figure.
As is clear from the processing process of (c) → (d) → (el, e2), the coordinate axes of the mapping pattern ■ (see figure (b)) are 1.2.
- Base vector 3 up vector ((C
)), the process performs coordinate transformation according to the figure), associates each surface with each other, and pastes the images.

実際には、(f)図に示しであるように、前述の表示処
理で求めた3次元モデル■の各面の各画素の座標(x+
y、z)に基づいて、マツピングパターン■上の座標(
X□yp)に乗る変換行列を計算して、マツピングパタ
ーン■上の座標(xp+yr)を求め、その座標(Xr
+Yp)に対応するマツピングパターン■を該3次元モ
デル■の各面の各画素の輝度((el)図では、各面の
輝度を、それぞれ、黒塗り、網線1点で区別しである)
と合成して実際の表示情報(明るさ1色等)とする。
Actually, as shown in figure (f), the coordinates (x+
y, z), coordinates (
Calculate the transformation matrix that rides X□yp), find the coordinates (xp+yr) on the mapping pattern ■, and
+Yp) is mapped to the luminance of each pixel on each surface of the three-dimensional model ((el)). )
The actual display information (brightness, one color, etc.) is synthesized with the following information.

上記に説明したマツピング処理((f)図参照)は、例
えば、国際標準化機構(ISO)の規格r DP959
2−1:1987(E)、PHIGS 2nd DP、
P−49〜」に、その−例が規定されているので、ここ
ではその詳細については省略する。
The mapping process described above (see figure (f)), for example, is based on the International Organization for Standardization (ISO) standard r DP959.
2-1:1987(E), PHIGS 2nd DP,
An example of this is specified in "P-49 ~", so the details thereof will be omitted here.

以上の説明から明らかな如く、表示処理においては、後
述するように各種(明るさ9色等)の補間手段(所謂、
ODA処理)を用いて高速化が図れるが、マツピング処
理については、3次元モデル■の表面上の各画素のアド
レスと対応するマツピングパターン■のアドレスとを各
画素毎に計算(変換行列の計算)する必要があり、従来
の3次元画像表示制御方式では、第5図の構成図からも
明らかな如く、例えば、光源の位置、方向9種類(点光
源、平行光)等を変更する場合でも、上記表示処理、及
びマツピング処理の全ての処理を行う必要がある為、表
示の高速化が困難であると云う問題があった。
As is clear from the above explanation, in the display processing, various (9 brightness colors, etc.) interpolation means (so-called
However, for mapping processing, the address of each pixel on the surface of the three-dimensional model ■ and the corresponding address of the mapping pattern ■ are calculated for each pixel (calculation of the transformation matrix). ), and in the conventional three-dimensional image display control system, as is clear from the configuration diagram in Figure 5, even when changing the position of the light source, nine types of directions (point light source, parallel light), etc. , the above-mentioned display processing, and mapping processing, there is a problem in that it is difficult to speed up the display.

本発明は上記従来の欠点に鑑み、ドツト表示された2次
元画像のマツピングパターンを3次元モデルの表面に張
り付けて表示する3次元画像表示における表示速度の高
速化を図ることのできる3次元画像表示制御装置を提供
することを目的とするものである。
In view of the above conventional drawbacks, the present invention provides a three-dimensional image that can increase the display speed in three-dimensional image display in which a mapping pattern of a two-dimensional image displayed as dots is pasted onto the surface of a three-dimensional model. The object of the present invention is to provide a display control device.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は本発明の3次元画像表示制御装置の原理図であ
る。上記の問題点は下記構成の3次元画像表示制御装置
によっ−で解決される。
FIG. 1 is a diagram showing the principle of a three-dimensional image display control device according to the present invention. The above problems are solved by a three-dimensional image display control device having the following configuration.

(1)  ドツト表現されたマツピングパターンを3次
元モデルの表面に張りつけて表示する3次元画像表示制
御装置であって、 上記3次元モデルに対する光源の位置1種類。
(1) A three-dimensional image display control device that displays a mapping pattern expressed as dots pasted on the surface of a three-dimensional model, which has one type of light source position with respect to the three-dimensional model.

或いは色指標に基づいて、各表面上の各画素に対する照
明の情報(輝度値1色指標等)、或いは上記3次元モデ
ルを表現する3次元座標、及び各座標に対応する色指標
に基づいて、表面画素に対する色指標を算出する表示処
理部3と、 該表示処理部3から出力される該3次元モデルを形成す
る図形要素を構成する画素毎の3次元アドレス(X、Y
、Z)を基に、そのZアドレス値が、Zバッファ34の
2次元アドレス(X、Y)の内容と等しい場合に、その
アドレス(X、Y)に対応するマツピングパターンのア
ドレス(XP’、YP)を算出するマツピング処理部4
と、 上記マツピング処理部4で算出された、3次元モデルを
形成する図形要素の各画素(X、Y)毎に対応するマツ
ピングパターンのアドレス(Xp、Yp)のの内容を書
き込み、保持するマツピングバッファ5と、 上記表示処理部3から出力される該3次元モデルを形成
する図形要素を構成する画素(X、Y)毎の輝度値、或
いは色指標を記憶するフレームバッファ6と、上記マツ
ピングバッファ5の内容を合成するか、或いは、上記表
示処理部3から出力される該3次元モデルを形成する図
形要素を構成する画素(X、Y)毎の揮度値、或いは色
指標と、上記マツピングバッファ6の内容を合成するル
ックアップテーブル(LUT) 8とを設けるように構
成する。
Alternatively, based on the color index, illumination information for each pixel on each surface (luminance value, one color index, etc.), or the three-dimensional coordinates expressing the three-dimensional model, and the color index corresponding to each coordinate, A display processing unit 3 that calculates color indices for surface pixels, and a three-dimensional address (X, Y
, Z), if the Z address value is equal to the contents of the two-dimensional address (X, Y) of the Z buffer 34, the address (XP') of the mapping pattern corresponding to that address (X, Y) is , YP)
and writes and holds the contents of the address (Xp, Yp) of the mapping pattern corresponding to each pixel (X, Y) of the graphic element forming the three-dimensional model, calculated by the mapping processing unit 4. a mapping buffer 5; a frame buffer 6 for storing the luminance value or color index for each pixel (X, Y) constituting the graphic element forming the three-dimensional model output from the display processing unit 3; Either the contents of the mapping buffer 5 are combined, or the volatility value or color index of each pixel (X, Y) constituting the graphic element forming the three-dimensional model output from the display processing section 3 is combined. , and a look-up table (LUT) 8 for synthesizing the contents of the mapping buffer 6.

(2)上記3次元画像表示制御装置において、セグメン
トバッファ11内に格納されている表示プログラムを走
査し、該表示プログラム中のマツピングフラグ(MPF
)が“オフ゛のとき取り出した表示プログラムに基づい
て4、上記フレームバッファ6に対する書き込みを行い
、上記マツピングフラグ(MPF)が“オン”のとき取
り出した表示プログラムに基づいて上記マツピングバッ
ファ5に対する書き込みを行うセグメント管理部1とを
備えて、該セグメント管理部1で、上記セグメントバッ
ファ11内の表示プログラムを上記マツピングフラグ(
MPF)を基に選択的に走査することにより、上記マツ
ピングバッファ5に対する書き込みを行うマツピング処
理と、フレームバッファ6への書き込みを行う表示処理
とを独立に制御して3次元画像を表示するように構成す
る。
(2) In the three-dimensional image display control device, the display program stored in the segment buffer 11 is scanned, and the mapping flag (MPF) in the display program is scanned.
) is "off", the data is written to the frame buffer 6, and when the mapping flag (MPF) is "on", data is written to the mapping buffer 5 based on the display program taken out. and a segment management unit 1 that performs writing, and the segment management unit 1 updates the display program in the segment buffer 11 with the mapping flag (
MPF), the mapping process for writing to the mapping buffer 5 and the display process for writing to the frame buffer 6 are independently controlled to display a three-dimensional image. Configure.

〔作用〕[Effect]

即ち、本発明によれば、表示処理部と、マツピング処理
部と、フレームバッファと、マツピングバッファと、ル
ックアップテーブル(LUT)とから構成されていて、
表示制御部は、3次元モデルと光源の情報(位置9種類
等)、或いは上記3次元モデルを表現する座標に対応す
る色指標を入力し、3次元モデルの表面上の各画素にお
ける照明の情報、或いは色指標を算出して、フレーム、
バッファに格納する。
That is, according to the present invention, it is composed of a display processing section, a mapping processing section, a frame buffer, a mapping buffer, and a lookup table (LUT),
The display control unit inputs information on the 3D model and light source (9 types of positions, etc.) or a color index corresponding to the coordinates expressing the 3D model, and displays information on illumination at each pixel on the surface of the 3D model. , or calculate the color index and set the frame,
Store in buffer.

マツピング処理部は、上記表示処理部の制御の基に、3
次元モデルの表面上の各画素とマツピングパターンとの
対応関係を変換行列を用いて計算し、3次元モデルに該
マツピングパターンを張り付けた画像をマンピングバッ
ファに出力する。
The mapping processing section performs three operations under the control of the display processing section.
The correspondence between each pixel on the surface of the dimensional model and the mapping pattern is calculated using a transformation matrix, and an image in which the mapping pattern is pasted onto the three-dimensional model is output to a mapping buffer.

そして、ルックアップテーブル(LUT)は上記フレー
ムバッファとマツピングバッファの内容を合成しCRT
デイスプレィに表示するように機能する。
Then, the lookup table (LUT) combines the contents of the frame buffer and mapping buffer and outputs the CRT.
It functions to display on the display.

このように構成することによって、3次元モデルの各表
面の模様(即ち、マツピングパターン)の情報を、光源
に関する情報(輝度、或いは色指標)とは独立に保持す
ることができるので、光源の位置、方向1種類等の変更
に当たっては、表示処理のみを実行して、ルックアップ
アップテーブル(LUT)で合成するだけで済むため、
3次元モデルの高速表示が可能となる効果がある。
With this configuration, information about the pattern on each surface of the three-dimensional model (i.e., mapping pattern) can be held independently of information about the light source (brightness or color index), so the information about the light source When changing one type of position or direction, you only need to perform display processing and synthesize using a lookup table (LUT).
This has the effect of enabling high-speed display of three-dimensional models.

〔実施例] 以下本発明の実施例を図面によって詳述する。〔Example] Embodiments of the present invention will be described in detail below with reference to the drawings.

前述の第1図が本発明の3次元画像表示制御装置の原理
図で、(a)はフレームバッファとマツピングバッファ
との内容を合成して表示する場合を示し、(b)は表示
処理部で生成した輝度と、マツピングバッファの内容を
合成したものをフレームバッファに格納して表示する場
合を示しており、第2図は本発明の一実施例をブロック
図で示した図であり、第3図は本発明のセグメント管理
部の管理動作を説明する図であって、(a)は図形表示
プログラムの例を示し、(b)は図形表示プログラムに
対する走査例を示しており、第4図は座標変換処理の一
例を示した図であって、第1図、第2図における表示処
理部3.マツピング処理部5゜セグメント管理部1.及
びルックアップテーブル(LUT) 8が本発明を実施
するのに必要な手段である。尚、全、図を通して同じ符
号は同じ対象物を示している。
The above-mentioned FIG. 1 is a principle diagram of the three-dimensional image display control device of the present invention, in which (a) shows the case where the contents of the frame buffer and the mapping buffer are combined and displayed, and (b) shows the display processing unit. This shows a case where the luminance generated in 1 and the contents of the mapping buffer are combined and stored in a frame buffer and displayed. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a diagram explaining the management operation of the segment management section of the present invention, in which (a) shows an example of a graphic display program, (b) shows an example of scanning for the graphic display program, and FIG. The figure shows an example of coordinate transformation processing, and shows the display processing unit 3. Mapping processing section 5° segment management section 1. and a look-up table (LUT) 8 are the necessary means to implement the invention. Note that the same reference numerals indicate the same objects throughout the figures.

以下、第1図を参照しながら、第2図〜第4図によって
、本発明の3次元画像表示制御装置を説明する。
Hereinafter, the three-dimensional image display control device of the present invention will be explained with reference to FIGS. 2 to 4 while referring to FIG.

先ず、第2図において、セグメントバッファ11には、
3次元モデル、光源情報(位置1強度等)、マツピング
パターン、マツピングフラグ(MPP)等が図形表示プ
ログラムとして格納されている。
First, in FIG. 2, in the segment buffer 11,
A three-dimensional model, light source information (position 1 intensity, etc.), mapping pattern, mapping flag (MPP), etc. are stored as a graphic display program.

第3図(a)は、上記図形表示プログラムの一例を示し
たもので、■は表示対象の3次元モデルの一例を示し、
■はマツピングパターンの一例を示し、■が該3次元モ
デル■を■のマツピングパターンを用いて表示するプロ
グラムの例である。
FIG. 3(a) shows an example of the graphic display program described above, where ■ indicates an example of a three-dimensional model to be displayed;
(2) shows an example of a mapping pattern, and (2) is an example of a program that displays the three-dimensional model (2) using the mapping pattern (2).

本図形表示プログラム■において、 MPF  ON:マツピングフラグ(MPF)を“オン
゛ とするコマンドである。
In this graphic display program (■), MPF ON: This is a command to turn on the mapping flag (MPF).

5ET−R3(10,0,0)、Po、10,1:光源
情報を指定する命令であって、(10,0,0)は該光
源の位置を示している。
5ET-R3 (10,0,0), Po, 10,1: A command specifying light source information, where (10,0,0) indicates the position of the light source.

S E T−M P (16,16)、 (0,1,0
,1,−・、0,1.0) :例えば、16画素X16
画素からなる■に示したマツピングパターンを、マツピ
ング処理部4の図示していないメモリ領域に登録するコ
マンドで、(0,1゜0、L−,0,1,0)はそのド
ツトパターンを示している。
S E T-M P (16,16), (0,1,0
,1,-・,0,1.0): For example, 16 pixels x 16
(0,1°0,L-,0,1,0) is a command to register the mapping pattern shown in (■) consisting of pixels in a memory area (not shown) of the mapping processing unit 4. (0,1°0,L-,0,1,0) It shows.

MDL  l:■で示した3次元モデルの名称の指定を
行う命令であって、続いて記述されるコマンド(SET
−MP−REF、 PLG3.等)群が、該3次元モデ
ル■に対する表示条件を指定する。
MDL l: This is a command to specify the name of the three-dimensional model indicated by ■, and the command written next (SET
-MP-REF, PLG3. etc.) specifies display conditions for the three-dimensional model (2).

SET−MP−REF(0,6,2)、(2,3,1)
、(0,3,2)、・−・:例えば、■の3次元モデル
の面1に対するマツピング用参照点であるアップベクト
ル、ベースベクトルを指定するコマンドである。
SET-MP-REF (0,6,2), (2,3,1)
, (0, 3, 2), . . .: For example, these are commands that specify the up vector and base vector, which are the mapping reference points for surface 1 of the three-dimensional model (3).

P L G 3 (0,0,2)、(0,6,2)、(
4,6,0)、(4,0,0)、−−−−−:■の3次
元モデルの面1に対する図形表示用コマンド(又は、オ
ーダ)で、上記マツピング条件に基づいて表示すること
を指示している。
P L G 3 (0,0,2), (0,6,2), (
4,6,0), (4,0,0), -------: Graphic display command (or order) for surface 1 of the 3D model of ■ to display based on the above mapping conditions. is instructing.

以下、各面2,3,4.5について同様の表示プログラ
ムが記述される。
Similar display programs will be described below for each side 2, 3, and 4.5.

第2図のセグメント管理部1は、上記のような図形表示
プログラム■が格納されているセグメントバッファ11
の管理、及び当該表示装置の全体の制御を行う。
The segment management unit 1 in FIG.
management and overall control of the display device.

即ち、3次元モデル■の表示に当たって、セグメント管
理部1は、最初に、マツピングフラグ(MPF)を“オ
フ”にして、セグメントバッファlI内の図形表示プロ
グラム■を順次走査(第1走査と云う)し、マツピング
処理に関するコマンド(例えば、SET−MP等)を除
外したコマンド群■を抽出して座標変換・クリップ部2
に出力する。
That is, when displaying the three-dimensional model ■, the segment management unit 1 first turns off the mapping flag (MPF) and sequentially scans the graphic display program ■ in the segment buffer II (referred to as the first scan). ), extracts the command group ■ excluding commands related to mapping processing (for example, SET-MP, etc.), and executes the coordinate transformation/clipping unit 2.
Output to.

(第3図(b)参照) 次に、マツピングフラグ(MPP)を°オン゛にして、
再度図形表示プログラム■を走査(第2走査と云う)し
、光源の位置等を指示するコマンド群を除外したコマン
ド群■を座標変換・クリップ部2に出力する。(第3図
(b)参照) 該出力されたコマンド群■、■が実行されることにより
、それぞれ、例えば、フレームバッファ6に対する書き
込み処理、マツピングバッファ5に対する書き込み処理
を含む表示処理が実行される。
(See Figure 3(b)) Next, turn on the mapping flag (MPP),
The graphic display program (2) is scanned again (referred to as a second scan), and the command group (2), excluding the command group for instructing the position of the light source, etc., is output to the coordinate conversion/clipping section 2. (Refer to FIG. 3(b)) By executing the output command groups ■ and ■, display processing including, for example, writing processing to the frame buffer 6 and writing processing to the mapping buffer 5 is executed, respectively. Ru.

座標変換・クリップ部2においては、3次元モデル■の
持つ入力座標値に対して、第4図に示すような変換マト
リックス(カレントマトリックス)を用いて公知のマト
リックス演算を行い、該3次元モデル■の回転、移動、
拡大、縮小等の幾何学的な変換を行い出力座標値を生成
する。このとき、該出力座標値が表示領域外にはみ出し
た場合には、所謂クリッピングを行う。
The coordinate transformation/clipping section 2 performs known matrix operations on the input coordinate values of the three-dimensional model (■) using a transformation matrix (current matrix) as shown in FIG. rotation, movement,
Geometric transformations such as enlargement and reduction are performed to generate output coordinate values. At this time, if the output coordinate value protrudes outside the display area, so-called clipping is performed.

更に、上記の図形表示プログラム■、又は■によって、
上記座標変換に必要なカレントマトリックスの変更が指
示されている場合には、変更後の変換マトリックスを順
次出力する。
Furthermore, using the graphic display program ■ or ■ above,
If a change in the current matrix required for the coordinate transformation is instructed, the changed transformation matrices are sequentially output.

次の輝度算出部31においては、上記マツピングフラグ
(MPF)が“オフ゛、即ち、マツピング処理を行わな
いで表示する場合には、表示処理に必要な輝度算出処理
を、座標変換・クリップ部2から入力される3次元モデ
ル■の各頂点の座標値。
In the next brightness calculation unit 31, when the mapping flag (MPF) is “off”, that is, when displaying without performing mapping processing, the brightness calculation process necessary for display processing is performed by the coordinate transformation/clipping unit 31. Coordinate values of each vertex of the 3D model ■ input from.

法線ベクトル、各面での正規の反射率(拡散反射率、鏡
面反射率)、及び光源の情報(位置、輝度等)に基づい
て、各頂点における正規化された反射光の強度、及び色
情報(If)(第6図参照)を、図示していない表示用
のカラーテーブルを検索する為のカラーインデックス(
色指標:Ii)として出力すると共に、前述の座標変換
・クリップ部2で生成されたカレントマトリックス(変
換マトリックス)については、該輝度算出処理には関係
しないので、その侭、次の面塗り部32に出力する。
The normalized reflected light intensity and color at each vertex based on the normal vector, the normal reflectance (diffuse reflectance, specular reflectance) on each surface, and light source information (position, brightness, etc.) The information (If) (see Figure 6) is searched by a color index (not shown) for searching a display color table (not shown).
The current matrix (transformation matrix) generated by the coordinate transformation/clipping section 2 described above is not related to the brightness calculation process, so it is output as a color index: Ii), and is then outputted to the next surface painting section 32. Output to.

然し、上記マツピングフラグ(MPF)が“オン゛の場
合には、前述のように、輝度算出処理は行わないので、
上記座憚変換・クリップ部2等で生成された全ての情報
、例えば、3次元モデル■の出力座標値、カレントマト
リックス、アップベクトル、ベースベクトル等を、当該
輝度算出部31では何もしないでその侭、面塗り部32
に送出する。
However, if the mapping flag (MPF) is "on", the brightness calculation process is not performed as described above.
All the information generated by the above-mentioned transformation/clipping section 2, etc., such as the output coordinate values of the three-dimensional model (■), the current matrix, the up vector, the base vector, etc., are transferred to the luminance calculation section 31 without doing anything. Side, surface painting part 32
Send to.

面塗り部32においては、該3次元モデル■を内実する
ベクトル列(第6tl(b2)参照)を発生し、更に、
上記マツピングフラグ(MPF)が“オフ゛の場合には
、輝度算出のみ必要となるので、各ベクトル列の端点に
おける前述のカラーインデックス(It’、It’″)
を、上記各頂点のカラーインデックス(■ム)を用いて
、後述のDDA部33で補間することにより高速に算出
する。(第6図(b2)参照) 次のDDA部33においては、上記面塗り部32で生成
されたベクトル列を入力して、各ベクトル列の端点を結
ぶ座標列を各画素ごとに発生し、更に、上記マツピング
フラグ(MPP)が“オフ゛の場合には、各ベクトルの
端点における上記カラーインデックス(If”+Ii”
)を補間して、各画素におけるカラーインデックスを高
速に生成する。
In the surface painting section 32, a vector sequence (see 6th tl (b2)) that internalizes the three-dimensional model (2) is generated, and further,
When the mapping flag (MPF) is "off", only the brightness calculation is required, so the color index (It', It''') at the end point of each vector sequence is
is calculated at high speed by interpolation in the DDA unit 33, which will be described later, using the color index (■) of each vertex. (See FIG. 6 (b2)) The next DDA section 33 inputs the vector string generated by the surface painting section 32 and generates a coordinate string connecting the end points of each vector string for each pixel, Furthermore, if the mapping flag (MPP) is "off", the color index (If"+Ii") at the end point of each vector is
) to quickly generate a color index at each pixel.

Zバッファ34においては、上記DDA部33より出力
された座標値(X+LZ)を入力して、該Zバッファ3
4上の座標(x、y)の内容(Z値)が、新たに入力さ
れてきたZ値よりを小さい場合、即ち、接面が表面にあ
ると認識された場合に、その座標(x、y)のZ値を新
たなZ値に更新すると共に、フレームバッファ6上の座
標(x、y)に対して、上記ODA 32で生成されて
いる該座標(x、y)のカラーインデックス(Ii)の
書き込みを可能にする信号(WFB)をフレームバッフ
ァ6に送出する。
In the Z buffer 34, the coordinate value (X+LZ) output from the DDA section 33 is input, and the Z buffer 3
If the content (Z value) of the coordinates (x, y) on 4 is smaller than the newly input Z value, that is, if the tangent surface is recognized to be on the surface, the coordinates (x, y) y) to a new Z value, and at the same time update the color index (Ii ) is sent to the frame buffer 6.

従って、該フレームバッファ6においては、上記マツピ
ングフラグ(MPF)が“オフ”であって、且つ、上記
Zバッファ34からの上記書き込み許可信号(WFB)
が入力されてきた場合に限って、対応する座標(x、y
)の内容(カラーインデックス二色指標(It) )を
更新する。
Therefore, in the frame buffer 6, the mapping flag (MPF) is "off" and the write permission signal (WFB) from the Z buffer 34 is
The corresponding coordinates (x, y
) (color index two-color index (It)) is updated.

又、マツピング処理部4においては、上記マツピングフ
ラグ(MPF)が゛オン゛の場合に限って、上記DDA
 32から出力される座標値(x+y+z)を入力し、
該当座標のZ値が、上記Zバッファ34の当該座標(x
、y)のZ値と等しい場合、即ち、最も表面にある面で
あると認識された場合に限り、その座標値(x+y+z
)に対するマツピングパターンの座標値(Xp+)’r
)を算出しく第7図(f)参照)、その内容(マツピン
グパターンのドツトデータ)をマツピングバッファ5上
の当該座標値(x、y)にに占き込むように機能する。
In addition, in the mapping processing section 4, only when the mapping flag (MPF) is "on", the mapping processing section 4 processes the DDA
Input the coordinate values (x+y+z) output from 32,
The Z value of the corresponding coordinate is the corresponding coordinate (x
, y), that is, only when it is recognized as the surface that is the closest to the surface, its coordinate value (x+y+z
) of the mapping pattern coordinate value (Xp+)'r
) is calculated (see FIG. 7(f)), and its contents (dot data of the mapping pattern) are inserted into the corresponding coordinate values (x, y) on the mapping buffer 5.

ルックアップテーブル(LIT) 8は、第2図の実施
例においては、マツピングバッファ5と、フレームバッ
ファ6の内容を合成し、CRTデイスプレィ9に出力し
て表示する。(第1図(a)対応)具体的には、3次元
モデルの座標変換された新たな座標に対応した各画素に
対するマツピングバッファ5の値と、フレームバッファ
の値とで、ルックアップテーブルを検索し、読み出され
た輝度。
In the embodiment shown in FIG. 2, a lookup table (LIT) 8 combines the contents of the mapping buffer 5 and the frame buffer 6, and outputs the result to the CRT display 9 for display. (Corresponding to Figure 1 (a)) Specifically, a lookup table is created using the values of the mapping buffer 5 and the frame buffer for each pixel corresponding to the new coordinates of the 3D model that have been transformed. Searched and read brightness.

色に基づいて該画素が表示されることになる。The pixel will be displayed based on color.

上記の例は、−旦書き込まれたマツピングバッファ5と
フレームバッファ6の内容に基づいて、マツピング表示
を行うか否かの切り換えを高速に行うことができる。
In the above example, it is possible to quickly switch whether or not to perform mapping display based on the contents of the mapping buffer 5 and frame buffer 6 that have been previously written.

第1図(b)に示した構成例においては、表示処理部3
の結果データ (力°ラーインデックス:■、)と、前
取て生成されているマツピングバッファ6の結果データ
とをルックアップテーブル(LtlT) 8で合成シて
フレームバッファ5に書き込み、該フレームバッファ5
の内容を表示するので、光源の位置や種類を変更した場
合、第1図(a)の場合に比較して、フレームバッファ
6への書き込みに余分な時間が必要となるが、第1図(
a)の例と同じくマツピング処理の省略は可能であり、
本発明の主旨を妨げるものではない、。
In the configuration example shown in FIG. 1(b), the display processing unit 3
The result data (force index: ■,) and the result data of the mapping buffer 6 that has been generated in advance are synthesized using a lookup table (LtlT) 8 and written to the frame buffer 5. 5
Therefore, if the position or type of the light source is changed, it will take extra time to write to the frame buffer 6 compared to the case shown in Fig. 1(a).
As in example a), it is possible to omit the mapping process,
This does not impede the gist of the present invention.

いずれの場合においても、本発明を実施することにより
、3次元モデルの表面の模様(マツピングパターン)の
情報(マツピングバッファ)を、光源に関する情報(フ
レームバッファ)と独立に保持するように制御されるの
で、光源の位置や種類の変更にあたっては、アドレス計
算の為に時間のかかるマツピング処理を省略することが
でき、3次元モデルを高速に表示できると云う特徴があ
る。
In either case, by implementing the present invention, information on the surface pattern (mapping pattern) of the three-dimensional model (mapping buffer) is controlled to be held independently from information on the light source (frame buffer). Therefore, when changing the position or type of the light source, time-consuming mapping processing for address calculation can be omitted, and the three-dimensional model can be displayed at high speed.

〔発明の効果〕〔Effect of the invention〕

以上、詳細に説明したように、本発明の3次元画像表示
装置は、3次元画像を表示するのに、該3次元モデルと
光源の情報(光源の位置1種類等)、或いは上記3次元
モデルを表現する座標に対応する色指標を入力して、該
3次元モデルの表面上の各画素における照明の情報(輝
度や色指標)を算出してフレームバッファに格納する表
示処理部と、該表示処理部の制御の元に、3次元モデル
の表面上の各画素と、マツピングパターンとの対応関係
を計算して、該3次元モデルにマツピングパターンを張
り付けた画像をマツピングバッファに出力するマツピン
グ処理部と、上記フレームバッファとマツピングバッフ
ァの内容を合成してCRTデイスプレィに表示するルッ
クアップテーブル(LUT)とを設け、該3次元モデル
の表面の模様(マツピングパターン)の情報を、光源に
関する情報とは独立に保持するようにして、且つ、表示
プログラムが格納されているセグメントバッファを該表
示プログラム中に設定されているマツピングフラグ(M
PF)の値を元に走査して、必要な表示プログラムを取
り出し、上記マツピングバッファとフレームバッファを
独立に制御して該3次元画像を表示するようにしたもの
であるので、光源の位置、方向9種類等の変更に際して
は、表示処理のみの実行ですむ為、3次元モデルの高速
表示が可能となる効果がある。
As described above in detail, the three-dimensional image display device of the present invention displays the three-dimensional image using the three-dimensional model and information on the light source (one type of light source position, etc.), or the three-dimensional model. a display processing unit that inputs a color index corresponding to the coordinates representing the three-dimensional model, calculates illumination information (brightness and color index) at each pixel on the surface of the three-dimensional model, and stores it in a frame buffer; Under the control of the processing unit, the correspondence between each pixel on the surface of the three-dimensional model and the mapping pattern is calculated, and an image in which the mapping pattern is pasted onto the three-dimensional model is output to the mapping buffer. A mapping processing unit and a look-up table (LUT) that combines the contents of the frame buffer and the mapping buffer and displays the result on a CRT display are provided, and information on the surface pattern (mapping pattern) of the three-dimensional model is provided. The segment buffer in which the display program is stored is stored independently of the information regarding the light source, and the mapping flag (M
PF), extracts the necessary display program, and independently controls the mapping buffer and frame buffer to display the three-dimensional image, so the position of the light source, When changing the nine types of directions, etc., only display processing is required, which has the effect of enabling high-speed display of the three-dimensional model.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図が本発明の3次元画像表示制御装置の原理図。 第2図は本発明の一実施例をブロック図で示した図。 第3図は本発明のセグメント管理部の管理動作を説明す
る図。 第4図は座標変換処理の一例を示した図。 第5図は従来の3次元画像表示方式を説明する同第6図
は表示処理の概念を示した図。 第7図はマツピング処理の概念を示した図。 である。 図面において、 1はセグメント管理部。 2は座標変換・クリップ部。 3.3゛は表示処理部、31は輝度算出部。 32は面塗り部、33はDDA部。 34はZバッファ。 4.4′はマツピング処理部。 5はマツピングバッファ。 6.6゛はフレームバッファ。 8はルックアップテーブル(LIT) 。 9はCRTデイスプレィ。 ■は3次元モデル。 ■はマツピングパターン。 ■〜■は図形表示プログラム。 をそれぞれ示す。 ヲ炎7L七デル /2 ノド拶を明Q亡クツ。 吠BA″fう図 ; : (cL) ;bi 理イqシQ 1シJ澄已夏シクグ/Fを第ヲ図 A′4 、ノε 493.ス’、n FL  L17 
づり を 力ζ 17! Lの矛4図 財/7ヲ吠足画喋表ポセ1羨r乃収 を嗟明り団 第6図 (α〕 (工5.?、、2.,1.) 表ネ良理のaj迄濾例tf=図 」\
FIG. 1 is a diagram showing the principle of a three-dimensional image display control device according to the present invention. FIG. 2 is a block diagram showing an embodiment of the present invention. FIG. 3 is a diagram explaining the management operation of the segment management section of the present invention. FIG. 4 is a diagram showing an example of coordinate transformation processing. FIG. 5 illustrates a conventional three-dimensional image display method, and FIG. 6 illustrates the concept of display processing. FIG. 7 is a diagram showing the concept of mapping processing. It is. In the drawing, 1 is the segment management department. 2 is the coordinate transformation/clip part. 3.3' is a display processing section, and 31 is a brightness calculation section. 32 is the surface painting part, and 33 is the DDA part. 34 is Z buffer. 4.4' is the mapping processing section. 5 is a mapping buffer. 6.6 is the frame buffer. 8 is a lookup table (LIT). 9 is a CRT display. ■ is a 3D model. ■ is a matsuping pattern. ■~■ are graphic display programs. are shown respectively. wo flame 7L seven del/2 throat greeting wo Ming Q death shoes. : (cL) ;bi RiqshiQ 1shiJ Sumami Natsushikugu/F ヲfig.A'4,ノε 493.S',n FL L17
Zuri wo force ζ 17! L's Spear 4 Pictures / 7 Hosoku Gakko Omote Pose 1 Envy R no Yu wo Mitedan No. 6 (α) (Work 5.?, 2., 1.) Up to Aj of Omotone Yori Filter example tf=Figure”\

Claims (2)

【特許請求の範囲】[Claims] (1)ドット表現されたマッピングパターンを3次元モ
デルの表面に張りつけて表示する3次元画像表示制御装
置であって、 上記3次元モデルに対する光源の位置、種類、或いは色
指標に基づいて、各表面上の各画素に対する照明の情報
(輝度値、色指標等)、或いは上記3次元モデルを表現
する3次元座標、及び各座標に対応する色指標に基づい
て、表面画素に対する色指標を算出する表示処理部(3
)と、 該表示処理部(3)から出力される該3次元モデルを形
成する図形要素を構成する画素毎の3次元アドレス(X
、Y、Z)を基に、そのZアドレス値が、Zバッファ(
34)の2次元アドレス(X、Y)の内容と等しい場合
に、そのアドレス(X、Y)に対応するマッピングパタ
ーンのアドレス(X_P、Y_P)を算出するマッピン
グ処理部(4)と、 上記マッピング処理部(4)で算出された、3次元モデ
ルを形成する図形要素の各画素(X、Y)毎に対応する
マッピングパターンのアドレス(X_P、Y_P)の内
容を書き込み、保持するマッピングバッファ(5)と、 上記表示処理部(3)から出力される該3次元モデルを
形成する図形要素を構成する画素(X、Y)毎の輝度値
、或いは色指標を記憶するフレームバッファ(6)と、
上記マッピングバッファ(5)の内容を合成するか、或
いは、上記表示処理部(3)から出力される該3次元モ
デルを形成する図形要素を構成する画素(X、Y)毎の
輝度値、或いは色指標と、上記マッピングバッファ(6
)の内容を合成するルックアップテーブル(LUT)(
8)とを有することを特徴とする3次元画像表示制御装
置。
(1) A three-dimensional image display control device that displays a dot-expressed mapping pattern pasted on the surface of a three-dimensional model, which A display that calculates a color index for the surface pixel based on illumination information (brightness value, color index, etc.) for each pixel above, or three-dimensional coordinates expressing the three-dimensional model, and a color index corresponding to each coordinate. Processing section (3
) and a three-dimensional address (X
, Y, Z), the Z address value is stored in the Z buffer (
a mapping processing unit (4) that calculates an address (X_P, Y_P) of a mapping pattern corresponding to the address (X, Y) when the content is equal to the two-dimensional address (X, Y) of 34); A mapping buffer (5) that writes and holds the contents of the address (X_P, Y_P) of the mapping pattern corresponding to each pixel (X, Y) of the graphic element forming the three-dimensional model, calculated by the processing unit (4). ), a frame buffer (6) that stores the brightness value or color index for each pixel (X, Y) constituting the graphic element forming the three-dimensional model output from the display processing unit (3);
The contents of the mapping buffer (5) are synthesized, or the brightness value of each pixel (X, Y) constituting the graphic element forming the three-dimensional model output from the display processing unit (3), or color index and the above mapping buffer (6
) to synthesize the contents of the lookup table (LUT) (
8) A three-dimensional image display control device comprising:
(2)上記3次元画像表示制御装置において、セグメン
トバッファ(11)内に格納されている表示プログラム
を走査し、該表示プログラム中のマッピングフラグ(M
PF)が‘オフ’のとき取り出した表示プログラムに基
づいて、上記第1項記載のフレームバッファ(6)に対
する書き込みを行い、上記マッピングフラグ(MPF)
が‘オン’のとき取り出した表示プログラムに基づいて
、上記第1項記載のマッピングバッファ(5)に対する
書き込みを行うセグメント管理部(1)とを備えて、 該セグメント管理部(1)で、上記セグメントバッファ
(11)内の表示プログラムを上記マッピングフラグ(
MPF)を基に選択的に走査することにより、上記マッ
ピングバッファ(5)に対する書き込みを行うマッピン
グ処理と、上記フレームバッファ(6)への書き込みを
行う表示処理とを独立に制御して3次元画像を表示する
ことを特徴とする特許請求の範囲第1項に記載の3次元
画像表示制御装置。
(2) In the three-dimensional image display control device, the display program stored in the segment buffer (11) is scanned, and the mapping flag (M
Based on the display program taken out when the mapping flag (MPF) is 'off', writing is performed to the frame buffer (6) described in item 1 above, and the mapping flag (MPF) is
a segment management unit (1) that writes to the mapping buffer (5) described in the above item 1 based on the display program retrieved when the segment management unit (1) is 'on'; The display program in the segment buffer (11) is set to the above mapping flag (
By selectively scanning based on MPF), the mapping process that writes to the mapping buffer (5) and the display process that writes to the frame buffer (6) are independently controlled to create a three-dimensional image. The three-dimensional image display control device according to claim 1, wherein the three-dimensional image display control device displays:
JP26410587A 1987-10-20 1987-10-20 Three-dimensional image display control device Pending JPH01106284A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26410587A JPH01106284A (en) 1987-10-20 1987-10-20 Three-dimensional image display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26410587A JPH01106284A (en) 1987-10-20 1987-10-20 Three-dimensional image display control device

Publications (1)

Publication Number Publication Date
JPH01106284A true JPH01106284A (en) 1989-04-24

Family

ID=17398579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26410587A Pending JPH01106284A (en) 1987-10-20 1987-10-20 Three-dimensional image display control device

Country Status (1)

Country Link
JP (1) JPH01106284A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320578A (en) * 1991-04-19 1992-11-11 Koudo Eizou Gijutsu Kenkyusho:Kk Device and method for storing image
JPH0877385A (en) * 1994-08-29 1996-03-22 Internatl Business Mach Corp <Ibm> Computer graphics device
US20110157314A1 (en) * 2009-12-24 2011-06-30 Samsung Electronics Co., Ltd. Image Processing Apparatus, Image Processing Method and Recording Medium
JP2011134133A (en) * 2009-12-24 2011-07-07 Samsung Electronics Co Ltd Image processing apparatus, image processing method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04320578A (en) * 1991-04-19 1992-11-11 Koudo Eizou Gijutsu Kenkyusho:Kk Device and method for storing image
JPH0877385A (en) * 1994-08-29 1996-03-22 Internatl Business Mach Corp <Ibm> Computer graphics device
US20110157314A1 (en) * 2009-12-24 2011-06-30 Samsung Electronics Co., Ltd. Image Processing Apparatus, Image Processing Method and Recording Medium
JP2011134133A (en) * 2009-12-24 2011-07-07 Samsung Electronics Co Ltd Image processing apparatus, image processing method and program

Similar Documents

Publication Publication Date Title
US5786822A (en) Method and apparatus for mapping texture on an object displayed at a varying view angle from an observer
US5877769A (en) Image processing apparatus and method
US6271848B1 (en) Image processing device, image processing method and storage medium for storing image processing programs
TW200304626A (en) Image processor, components thereof, and rendering method
US8698830B2 (en) Image processing apparatus and method for texture-mapping an image onto a computer graphics image
JP3704734B2 (en) Texture mapping method and apparatus
JP3124999B1 (en) Rendering method and apparatus, game apparatus, and computer-readable recording medium storing program for calculating data on shadow of object in virtual space
US6437779B1 (en) Image processing method image processing unit and recording medium recording integrated shaping model data and image processing program to be used thereof
JPH0997344A (en) Method and system for texture generation
JP2006285511A (en) Program, information storage medium and image generation system
JPH01106284A (en) Three-dimensional image display control device
JPH06222899A (en) Multiwindow display system
JPH09245191A (en) Transparency transformation method, its device and image processor
JP3352458B2 (en) Graphic Coloring Method for Graphic Display System
JP2000339499A (en) Texture mapping and texture mosaic processor
JP3002972B2 (en) 3D image processing device
JP2000331175A (en) Method and device for generating border line generating data, recording system, computer readable execution medium stored with data and entertainment system for adding outline to object according to data
JP4839760B2 (en) Image generation device, image generation method, etc.
JP3680370B2 (en) Image display device
JPH05342368A (en) Method and device for generating three-dimensional picture
JP3268667B2 (en) Interactive polygon selection device
JP4204114B2 (en) Polygon data processing method
JP3453410B2 (en) Image processing apparatus and method
JP3270535B2 (en) How to create and display terrain models including objects
JP6344619B2 (en) Depth information editing apparatus, depth information editing method, depth information editing program, and computer-readable recording medium recording depth information editing program