JPH0385688A - Stereographic image display system - Google Patents

Stereographic image display system

Info

Publication number
JPH0385688A
JPH0385688A JP22413489A JP22413489A JPH0385688A JP H0385688 A JPH0385688 A JP H0385688A JP 22413489 A JP22413489 A JP 22413489A JP 22413489 A JP22413489 A JP 22413489A JP H0385688 A JPH0385688 A JP H0385688A
Authority
JP
Japan
Prior art keywords
processing
data
image
display
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22413489A
Other languages
Japanese (ja)
Other versions
JP3014395B2 (en
Inventor
Hiroaki Ishihata
石畑 宏明
Hiroyuki Sato
弘幸 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP1224134A priority Critical patent/JP3014395B2/en
Publication of JPH0385688A publication Critical patent/JPH0385688A/en
Application granted granted Critical
Publication of JP3014395B2 publication Critical patent/JP3014395B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Generation (AREA)

Abstract

PURPOSE:To accelerate an image generation processing by performing the asynchronous decentralized processing of a processing unit stereographic part with each processing part, and the centralized processing of common image area partial image data obtained at each processing part with a correspondence processing part. CONSTITUTION:The decentralized processing of respective processing unit stereographic part processed at each processing part 6i by using the initial data of a three-dimensional body inputted from an input part 2 to each processing part 6i is performed between each processing part 6i via a network 10. The common image area partial image data obtained by being processed at each processing part is written on a corresponding image data storage part 8j. In parallel with the write of the data, output with prescribed display time series from each image data storage part 8i can be taken out by supplying output control with an output control circuit 14 to a multiplexer 12. A picture element data string outputted via the multiplexer 12 is supplied to a display device 4, then, the three-dimensional body can be displayed on a screen. In such a way, image data can be generated at high speed.

Description

【発明の詳細な説明】 〔目 次〕 〔概 要〕 〔従来の技術〕 第13図システムにおける処理フローを示す図(第14
図) 〔発明が解決しようとする課題〕 〔課題を解決するための手段〕 〔作 用〕 〔実施例〕 本発明の一実施例を示す図(第2図)、プロセッサの構
成図(第3図)、 ネットワークの構成図(第4図)、 各PEの画像出力及びマルチプレクサの制御回路系を示
す図(第5図)、 システムの処理フローを示す図(第6図)、各PEの処
理フローを示す図(第7図)、〔発明の効果〕 〔概 要〕 三次元物体の処理単位立体部分の各々の分散処理及び表
示制御上共通な画像領域部分の集中処理を非同期的に用
いる立体画像表示システムに関し、三次元物体の処理単
位立体部分に対する非同期的分散処理等による高速画像
生成を目的とし、三次元物体の初期データを入力する入
力部と、表示装置と、入力部に接続され同一構成の複数
の処理部と、複数の処理部対応の画像データ記憶部と、
複数の処理部相互間の非同期データ転送に供されるネッ
トワークと、マルチプレクサと、表示装置の表示と同期
して複数の画像データ記憶部の画像出力を前記マルチプ
レクサを介して表示装置へ所定の表示時系列で出力せし
める出力制御回路とを備え、表示装置の画面に表示した
い三次元物体の処理単位物体部分の各々についての処理
については各処理部へネットワークを介して分散して処
理し、処理された処理単位立体部分間において表示制御
上共通な画像領域部分については該共通な画像領域部分
に予め割り付けられた処理部へネットワークを介して転
送処理されて得られた共通な画像領域部分画像データを
対応する画像データ記憶部に書き込み、マルチプレクサ
を介して表示装置の画面に表示せしめるようにして構成
した。
[Detailed Description of the Invention] [Table of Contents] [Overview] [Prior Art] Fig. 13 A diagram showing the processing flow in the system (Fig. 14)
[Problem to be solved by the invention] [Means for solving the problem] [Operation] [Example] A diagram showing an embodiment of the present invention (Fig. 2), a configuration diagram of a processor (Fig. 3) ), Network configuration diagram (Figure 4), Diagram showing the image output of each PE and control circuit system of the multiplexer (Figure 5), Diagram showing the system processing flow (Figure 6), Processing of each PE Diagram showing the flow (Fig. 7), [Effects of the invention] [Summary] A three-dimensional object that asynchronously uses distributed processing of each processing unit three-dimensional part of a three-dimensional object and intensive processing of a common image area part for display control. Regarding the image display system, for the purpose of high-speed image generation by asynchronous distributed processing etc. for the processing unit solid part of the three-dimensional object, an input section for inputting initial data of the three-dimensional object, a display device, and an input section connected to the same unit are used. a plurality of processing units, an image data storage unit corresponding to the plurality of processing units;
A network provided for asynchronous data transfer between a plurality of processing units, a multiplexer, and a plurality of image data storage units that output images from the plurality of image data storage units to the display device via the multiplexer in synchronization with the display of the display device at a predetermined time. It is equipped with an output control circuit that outputs the output in series, and the processing for each processing unit object part of the three-dimensional object to be displayed on the screen of the display device is distributed to each processing unit via a network, and the processed For image area parts that are common in terms of display control between processing unit three-dimensional parts, common image area partial image data obtained by transfer processing via a network to a processing unit allocated in advance to the common image area part is handled. The image data is written in an image data storage section and displayed on the screen of a display device via a multiplexer.

〔産業上の利用分野〕[Industrial application field]

本発明は、三次元物体の処理単位物体部分の各々につい
ては複数のプロセッサによる非同期的分散処理、及び表
示制御上共通な画像領域部分については該共通な画像領
域部分に予め割り付けられたプロセッサによる処理を用
いる立体画像表示システムに関する。
The present invention provides asynchronous distributed processing by a plurality of processors for each processing unit object portion of a three-dimensional object, and processing by a processor assigned in advance to the common image region portion for display control. The present invention relates to a three-dimensional image display system using a three-dimensional image display system.

従来のCADやコンピュータアニメーションなどにおけ
る表示装置の表示画面に実際に表示される画像は、三次
元物体のモデルデータに対し座標変換処理、クリッピン
グ処理、隠面処理、塗り潰し処理(シェーディング処理
)を施して得られた画像データが表示制御装置の制御の
下に表示装置へ与えることによって、その表示画面に映
し出される。従って、その画面に表示される画像は、前
述のような各種処理を要する関係上、その表示にそれら
処理時間が入るのを避けることができない。
The image actually displayed on the display screen of a display device in conventional CAD or computer animation is created by applying coordinate transformation processing, clipping processing, hidden surface processing, and filling processing (shading processing) to model data of a three-dimensional object. The obtained image data is displayed on the display screen by being applied to the display device under the control of the display control device. Therefore, since the image displayed on the screen requires various types of processing as described above, it is unavoidable that the processing time is included in the display.

加うるに、それら処理に成ることが目に感しられない程
の時間間隔での、例えば−秒間に数千回のそれら処理の
時間も画像表示には入って来る。それ故、画像生成シス
テムにおける会話的な操作に何らの抵抗も与えないため
には、その会話操作に即時的にその処理応答をシステム
側から返して来ることが、この種システムを構築する上
で重要な事柄である。
In addition, the image display involves the processing of thousands of times per second, at time intervals that are imperceptible to the naked eye. Therefore, in order to avoid any resistance to conversational operations in an image generation system, it is important for the system to immediately return a processing response to the conversational operations when building this type of system. This is an important matter.

〔従来の技術〕[Conventional technology]

前述のような要求を満たすために、従来においてもその
工夫を満足した立体画像生成システムが開発されている
。そのシステムは、第13図に示される如き構成を有し
、前述座標変換、クリッピングと云った図形の処理や、
隠面処理、塗り潰し処理などの画素処理に専用プロセッ
サを使用して前述処理応答性の向上を図っている。この
システムにおける画像生成の大要を説明すると次のよう
になる。 メインプロセッサ50は、そこに装備される
グラフィックプログラム(第14図の102参照)によ
ってアプリケーションプログラム(第14図の100参
照)からの描画要求に従って決まるデイスプレィリスト
(第14図の104参照)を生成するほか、その編集、
グラフィックプロセッサ54へのデータの転送、外部と
の通信、システム全体の制御も行なう。このメインプロ
セッサ50は、処理内容を複雑とするが、後述のグラフ
ィックプロセッサ54及び描画プロセッサ56程高速性
は要求されないので汎用のマイクロプロセッサが用いら
れる。デイスプレィリストは階層的データ構造とされる
場合が多く、メインプロセッサ50の主記憶装置52に
記憶されることもあれば、専用メモリに記憶されること
もある。階層的データ構造とされる理由は、複雑な物体
の記述ができて、その図形の変更容易性があるからであ
る。その記述における三次元物体は、多数の単純図形(
部品)を組み合わせることによって表わされる。そして
、その各部品は、それぞれの部品固有の座標系で完成さ
れた表現データで表わされる。
In order to meet the above-mentioned requirements, three-dimensional image generation systems that satisfy the above-mentioned ideas have been developed in the past. The system has a configuration as shown in FIG. 13, and handles graphic processing such as coordinate transformation and clipping,
A dedicated processor is used for pixel processing such as hidden surface processing and fill-in processing to improve the responsiveness of the aforementioned processes. The outline of image generation in this system is explained as follows. The main processor 50 generates a display list (see 104 in FIG. 14) determined by a graphics program (see 102 in FIG. 14) installed therein according to a drawing request from an application program (see 100 in FIG. 14). In addition to editing,
It also transfers data to the graphics processor 54, communicates with the outside, and controls the entire system. Although the main processor 50 has complicated processing, it is not required to be as fast as the graphics processor 54 and drawing processor 56 described later, so a general-purpose microprocessor is used. The display list is often a hierarchical data structure and may be stored in main memory 52 of main processor 50 or in dedicated memory. The reason why it is a hierarchical data structure is that it allows the description of complex objects and its shape can be easily changed. A three-dimensional object in that description is a large number of simple figures (
expressed by combining parts). Each part is represented by expression data completed in a coordinate system unique to each part.

グラフインクプロセッサ54は、バス51を介してメイ
ンプロセッサ50から与えられるデイスプレィリスト内
のデータに対する座標変換処理(第14図の106参照
)及びクリッピング処理(第14図の108参照)や、
文字1図形の発生(第14図の110参照)を行なう。
The graph ink processor 54 performs coordinate conversion processing (see 106 in FIG. 14) and clipping processing (see 108 in FIG. 14) for data in the display list given from the main processor 50 via the bus 51.
A character 1 figure is generated (see 110 in FIG. 14).

座標変換には、モデリング変換、ビューイング変換、透
視変換などを含む。モデリング変換は、前述のように三
次元の物体をそれに必要な多数の部品で表現されること
になるが、それらの各部品を拡大縮小したり同転したり
してワールド座標系内に前記三次元物体を組み立て上げ
るのに要する座標変換である。
Coordinate transformations include modeling transformation, viewing transformation, perspective transformation, and the like. As mentioned above, modeling transformation involves expressing a three-dimensional object with the many parts necessary for it, and by scaling and rotating each of those parts, the three-dimensional object is expressed within the world coordinate system. This is the coordinate transformation required to assemble the original object.

そのワールド座標系内に組み立てられた三次元物体を、
該ワールド座標系における任意の位置及び方向から当該
三次元物体を眺めたなら見えるであろう看取表示態様で
の三次元物体として画面上においても眺め得るように、
ワールド座標系で記述されている物体データの座標を視
点座標系における座標に変換するのが、ビューイング変
換である。
A three-dimensional object assembled within that world coordinate system,
so that it can be viewed on the screen as a three-dimensional object in an at-a-glance display mode that would be visible if the three-dimensional object were viewed from any position and direction in the world coordinate system;
Viewing transformation converts the coordinates of object data described in the world coordinate system to coordinates in the viewpoint coordinate system.

このビューイング変換において、ワールド座標系内にお
ける視点及び視線方向とが設定されてこれを基準として
前記各部品の座標は視点座標系へ座標変換される。この
視点座標系における三次元物体を、その変換に用いられ
た視点及び視点方向から見た適当な投影面への投影が透
視変換である。
In this viewing transformation, a viewpoint and a line-of-sight direction within the world coordinate system are set, and the coordinates of each component are coordinate-transformed into the viewpoint coordinate system using these as a reference. Perspective transformation is the projection of a three-dimensional object in this viewpoint coordinate system onto an appropriate projection plane viewed from the viewpoint and viewpoint direction used for the transformation.

この透視変換によって、視点座標系で表わされる三次元
の物体データは、前記投影面上における二次元の図形デ
ータへ変換される。
Through this perspective transformation, three-dimensional object data expressed in the viewpoint coordinate system is transformed into two-dimensional graphic data on the projection plane.

クリッピング処理は、前記投影面へ投影された三次元物
体データの二次元図形内から指定された表示領域内に含
まれる図形データのみを切り出す処理である。
The clipping process is a process of cutting out only figure data included within a designated display area from within the two-dimensional figure of the three-dimensional object data projected onto the projection plane.

グラフィックプロセッサ54でのクリッピング処理後に
、その図形データについて三次元物体領域に対する隠面
処理及びシェーディング処理を行なうため、その図形デ
ータがバス51等を介して描画プロセッサ56に取り込
まれる。隠面処理は、その図形データを用いて三次元物
体表面のうち、前記視点及び視線方向から見た場合に隠
れた表面領域の表示をしないようにする処理であり、塗
り潰し処理は、前記三次元物体表面の向きと光線の方向
で決まる明度で面の陰影付けを行なう処理である。シェ
ーディング処理には、1つの面を同し明るさで塗り潰す
コンスタントシェーディングと、1つの面内で明るさや
色を補間して塗り潰すスムースシェーディングとがある
。この描画プロセッサ56も又、前記グラフィックプロ
セッサ54もその処理計算は比較的単純であるが、その
処理に係わって来るデータ量が多くなり、その計算に要
する時間が長くなって来るのでそれによる前記処理応答
性に欠けて来るのを回避しなければならない関係上、処
理の高速性が要求され、これら両プロセッサはマイクロ
プログラム制御の専用プロセッサが用いられる。
After the clipping process in the graphics processor 54, the graphic data is taken into the drawing processor 56 via the bus 51 etc. in order to perform hidden surface processing and shading processing on the three-dimensional object region. Hidden surface processing is a process that uses the graphic data to avoid displaying hidden surface areas on the surface of a three-dimensional object when viewed from the above-mentioned viewpoint and line-of-sight direction. This is a process of shading a surface using the brightness determined by the orientation of the object surface and the direction of the light beam. Shading processing includes constant shading, which fills one surface with the same brightness, and smooth shading, which fills one surface by interpolating brightness and color. Both the drawing processor 56 and the graphic processor 54 have relatively simple processing calculations, but the amount of data involved in the processing increases and the time required for the calculation increases. Since a lack of responsiveness must be avoided, high-speed processing is required, and both of these processors are dedicated processors controlled by a microprogram.

前述のような隠面処理及び塗り潰し処理を施されて生成
された前記投影面内の表示領域の各画素データはフレー
ムバッファ58に書き込まれる。
Each pixel data of the display area within the projection plane, which has been generated through the hidden surface processing and filling processing as described above, is written into the frame buffer 58.

前述のように、グラフィックプロセッサ54も描画プロ
セッサ56もメインプロセッサ50のバス51に直接接
続する密結合型で構成されるのは、前述の処理応答性に
プロセッサ間の転送時間がマイナス要素として作用しな
くするための1つの工夫である。そのような他の工夫と
して、メインプ0 ロセッサ50とグラフィックプロセッサ54との間、グ
ラフィックプロセッサ54と描画プロセッサ56との間
を直接高速ハス53,55.57で接続することも行な
われる。
As mentioned above, the fact that both the graphics processor 54 and the drawing processor 56 are configured in a tightly coupled type in which they are directly connected to the bus 51 of the main processor 50 is that the transfer time between the processors acts as a negative factor on the processing responsiveness mentioned above. This is one way to eliminate this problem. As another such device, the main processor 50 and the graphics processor 54 and the graphics processor 54 and the drawing processor 56 are directly connected by high-speed hubs 53, 55, and 57.

フレームバッファ58に書き込まれた図形データは、ビ
デオコントローラ60によって読み出され、変換装置(
LUT)62によってアナログビデオ信号に変換されて
表示装置64に表示される。
The graphic data written in the frame buffer 58 is read out by the video controller 60 and is read out by the conversion device (
LUT) 62 converts the signal into an analog video signal and displays it on a display device 64.

データのフレームバッファ58からの読出しは両面上の
ちらつき(フリッカ−)を除くため毎秒30乃至70回
の割合で行なわれる。高解像度の表示装置64の表示に
は、極めて高速なデータ転送速度が必要なため、ビデオ
コントローラ60.フレームバッファ58にも各種の工
夫が為されている。
Data is read from frame buffer 58 at a rate of 30 to 70 times per second to eliminate flicker on both sides. Because display on high resolution display device 64 requires extremely high data transfer rates, video controller 60. Various improvements have been made to the frame buffer 58 as well.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

前述の従来システムにおいては、専用ハードウェアを含
んで構成しなければそのシステムを構築し得ないから、
その開発に長期間を要する上、そ■ の開発コストも高くならざるを得ない。こうして開発さ
れたシステムにおける各種ハードウェア(プロセッサ)
の性能を異にするため、それらハードウェア間の性能バ
ランスをとる上で難しさを伴うほか、各プロセッサ間の
データ転送が性能向上阻害要因となり易い。そして、こ
の各種の技術的課題要求を含んで構成されるシステムに
おいて、性能を更に引き上げるべく全プロセッサに何ら
かの手法で並列処理能力を付与してそのシステムを構築
せんとする場合には、そのシステムの一段の複雑化を避
けることはできない。
In the conventional system mentioned above, the system cannot be constructed unless it includes dedicated hardware.
Not only does it take a long time to develop, but the cost of developing it is also high. Various hardware (processors) in the system developed in this way
Since the performance of the processors differs, it is difficult to balance the performance among these hardwares, and data transfer between each processor tends to be a factor that inhibits performance improvement. In a system that includes these various technical challenges, if you want to build the system by giving all processors parallel processing capability by some means to further improve the performance, then Further complication cannot be avoided.

又、曲面(円、楕円)の表示における前述の座標変換や
、頂点の輝度計算においては、前記システム構成におい
て見合う手法としてその曲面を多数の微小多角形で近似
する手法を採用していることから、表面を滑らかに表示
したい場合には、少なくとも数十枚の微小多角形で近似
する必要がある。そのため、数十個の球を表示する必要
のある分子モデルの設計や、分子動力学のシ旦ニレ−ジ
ョンなどにおいては、前記システム構成においては、前
記計算処理の効率の悪さが顕在化して来る。
Furthermore, in the aforementioned coordinate transformation for displaying curved surfaces (circles, ellipses) and brightness calculations at vertices, a method of approximating the curved surface with a large number of minute polygons is adopted as a method suitable for the system configuration described above. , if you want to display a smooth surface, it is necessary to approximate it with at least several dozen micro polygons. Therefore, in the design of molecular models that require the display of dozens of spheres, simulations of molecular dynamics, etc., the inefficiency of the calculation processing becomes apparent in the system configuration described above. .

本発明は、斯かる技術的課題に鑑みて創作されたもので
、画像データ生成における処理単位物体部分の各々につ
いての非同期的分散処理等により画像データを高速に生
威し得る立体画像表示システムを提供することをその目
的とする。
The present invention was created in view of such technical problems, and provides a three-dimensional image display system that can produce image data at high speed through asynchronous distributed processing for each processing unit object part in image data generation. Its purpose is to provide.

〔課題を解決するための手段〕[Means to solve the problem]

第1図は本発明の原理ブロック図を示す。この図に示す
ように、本発明は、三次元物体の初期データを入力する
入力部2と、表示装置4と、前記入力部2に接続され、
前記表示装置4の画面に表示したい三次元物体の処理単
位立体部分についての処理、及び表示制御上共通な画像
領域部分の処理を行なう同一構成の複数の処理部Elz
  (i=12、・・・、n)と、該複数の処理部6.
対応の画像データ記憶部8.と、前記複数の処理部6゜
相互間の非同期データ転送に供されるネットワーク10
と、マルチプレクサ12と、前記表示装置4の表示と同
期して前記複数の画像データ記憶部3 81の画像出力を前記マルチプレクサ12を介して前記
表示装置4へ所定の表示時系列で出力せしめる出力制御
回路14とを備える。そして、前記表示装置4の画面に
表示したい三次元物体の処理単位立体部分の各々につい
ての処理については各処理部68へ前記ネットワーク1
0を介して分散して処理し、処理された処理単位立体部
分間において表示制御上共通な画像領域部分の処理を当
該共通な画像領域部分に予め割り付けられた処理部へ前
記ネットワーク10を介して転送し、又は転送せずして
処理されて得られた共通な画像領域部分画像データを対
応する画像データ記憶部に書き込み、前記マルチプレク
サ12を介して前記表示装置4の画面に表示せしめるよ
うにして構成される。
FIG. 1 shows a block diagram of the principle of the present invention. As shown in this figure, the present invention includes an input section 2 for inputting initial data of a three-dimensional object, a display device 4, connected to the input section 2,
A plurality of processing units Elz having the same configuration perform processing for a processing unit solid portion of a three-dimensional object to be displayed on the screen of the display device 4, and processing for a common image area portion for display control.
(i=12, . . . , n) and the plurality of processing units 6.
Corresponding image data storage unit 8. and a network 10 for asynchronous data transfer between the plurality of processing units 6.
and a multiplexer 12, and output control for outputting the image outputs of the plurality of image data storage units 381 to the display device 4 in a predetermined display time series via the multiplexer 12 in synchronization with the display on the display device 4. A circuit 14 is provided. Then, processing for each processing unit solid portion of the three-dimensional object to be displayed on the screen of the display device 4 is sent to each processing unit 68 through the network 1.
0, and the processing of an image area portion that is common in terms of display control between the processed processing unit three-dimensional portions is sent via the network 10 to a processing unit that has been allocated in advance to the common image area portion. Common image area partial image data obtained by processing with or without transfer is written into the corresponding image data storage section and displayed on the screen of the display device 4 via the multiplexer 12. configured.

〔作 用〕[For production]

入力部2から各処理部68へ入力された三次元物体の初
期データを用いて各処理部6iで処理される処理単位立
体部分の各々については、各処理4 部68間でその処理をネットワーク8を介して分散して
処理する。その処理単位立体部分間において表示制御上
共通な画像領域部分についての処理は、ネットワーク1
0を介して該共通な画像領域部分に予め割り付けられた
処理部6J (jはiの内の1つで、成る共通な画像領
域部分に予め割り付けられた処理部を代表して示す。)
へ転送して、又その共通な画像領域部分についての処理
が自処理部のものであるならば転送せずして処理する。
For each of the processing unit three-dimensional parts processed in each processing section 6i using the initial data of the three-dimensional object input from the input section 2 to each processing section 68, the processing is carried out by the network 8 between each processing section 68. Distributed processing via . Processing for image area parts that are common in terms of display control between the processing unit three-dimensional parts is carried out by the network 1.
0 (j is one of i, which represents the processing unit previously allocated to the common image area).
If the processing for the common image area is performed by the own processing section, processing is performed without transferring.

こうして各処理部で処理して得られた共通な画像領域部
分画像データは対応する画像データ記憶部8Jに書き込
まれる。
In this way, the common image area partial image data obtained by processing in each processing section is written into the corresponding image data storage section 8J.

このような画像データ記憶部8jへの書込みと並行して
、各画像データ記憶部8.からの所定の表示時系列での
出力が、出力制御回路14による出力制御をマルチプレ
クサ12に与えることによって生ぜしめられ、そのマル
チプレクサ12を介して出力されて来る画素データ列は
表示装置10へ供給されることによって、その両面上に
三次元物体が表示される。
In parallel with such writing to the image data storage section 8j, each image data storage section 8. The output in a predetermined display time series is produced by applying output control to the multiplexer 12 by the output control circuit 14, and the pixel data string outputted via the multiplexer 12 is supplied to the display device 10. By doing so, a three-dimensional object is displayed on both sides.

前述のように、表示したい三次元物体の処理単位立体部
分については、各処理部4、による非同期分散処理が行
なわれ、又各処理部で処理して得られた共通な画像領域
部分画像データの処理については、対応処理部による集
中処理が行なわれるので、専用のハードウェアを用いる
ことなしに、その画像生成処理が高速となり、システム
側の処理応答性が良くなるほか、システム構築性の向上
になる。
As mentioned above, each processing unit 4 performs asynchronous distributed processing on the processing unit solid part of the three-dimensional object to be displayed, and the common image area partial image data obtained by processing in each processing unit is As for processing, since the corresponding processing unit performs centralized processing, the image generation process becomes faster without the use of dedicated hardware, improving processing responsiveness on the system side and improving system constructability. Become.

〔実施例〕〔Example〕

第2図は本発明の一実施例を示す。この図において、ホ
スト計算機2.は、バス22を介してプロセッサ(PE
I)24.乃至プロセッサ(PEn)24.へ接続され
る。プロセッサ24+乃至プロセッサ24I、は、ネッ
トワーク10を介して相互に接続され、又マルチプレク
サ12、ビデオコントローラ26を介してラスター形式
のカラーCRT表示装置(以下、単に表示装置と云う。
FIG. 2 shows an embodiment of the invention. In this figure, host computer 2. is connected to the processor (PE) via bus 22.
I)24. to processor (PEn) 24. connected to. The processors 24+ to 24I are connected to each other via a network 10, and via a multiplexer 12 and a video controller 26 to a raster format color CRT display device (hereinafter simply referred to as a display device).

)41へ接続される。) 41.

プロセッサ24.乃至プロセッサ241+は、第3図に
示すように構成されている。プロセッサ24、乃至プロ
セッサ24I、は、いずれもCPU30、内部バス32
、メモリ34、ホスト−PE間通信インタフェース36
iネットワーク通信インタフェース3日、画像メモリ4
0及びアドレスカウンタ42から成る。第3図において
は、各プロセッサの区別を示す添字、を付せずにその参
照番号だけを付しである。ホスト−PE間通信インタフ
ェース36はバス22を介してホスト計算機21へ接続
される。メモリ34には、第7図に示す処理フローを実
行するプログラムが格納されている。ネットワーク通信
インタフェース38はネットワーク10へ接続される。
Processor 24. The processors 241+ are configured as shown in FIG. The processors 24 to 24I all have a CPU 30 and an internal bus 32.
, memory 34, host-PE communication interface 36
i-network communication interface 3 days, image memory 4 days
0 and an address counter 42. In FIG. 3, only the reference numbers are used without adding subscripts to distinguish the processors. The host-PE communication interface 36 is connected to the host computer 21 via the bus 22. The memory 34 stores a program that executes the processing flow shown in FIG. Network communication interface 38 is connected to network 10 .

画像メモリ40の出力はマルチプレクサ12へ接続され
、アドレスカウンタ42はビデオコントローラ26から
同期信号及びクロックを受ける(第5図も参照)。又、
画像メモリ40は画面対応に画素データを記憶する。
The output of image memory 40 is connected to multiplexer 12, and address counter 42 receives synchronization signals and a clock from video controller 26 (see also FIG. 5). or,
The image memory 40 stores pixel data corresponding to the screen.

ネットワーク10は、第4図の(1)及び(2)に示す
7 ようないずれの形式で構成されてもよい。各プロセッサ
間に非同期の通信を提供し得ることをその要件とする。
The network 10 may be configured in any format shown in (1) and (2) in FIG. The requirement is to be able to provide asynchronous communication between each processor.

マルチプレクサ12は、ビデオコントローラ26からの
選択信号に応答して、後述す条如くプロセッサ24.乃
至プロセッサ24.、の画像メモリ401からの画素デ
ータをビデオコントローラ26へ画素データ列として出
力する。
Multiplexer 12, in response to a selection signal from video controller 26, connects processors 24 . to processor 24. , and outputs the pixel data from the image memory 401 to the video controller 26 as a pixel data string.

第2図乃至第6図において、ホスト計算機2Iは第1図
の入力部2に対応し、プロセッサ24゜は第1図の処理
部68に対応し、画像メモリ40、は第1図の画像デー
タ記憶部88に対応する。
2 to 6, the host computer 2I corresponds to the input section 2 of FIG. 1, the processor 24° corresponds to the processing section 68 of FIG. 1, and the image memory 40 stores the image data of FIG. It corresponds to the storage section 88.

ビデオコントローラ26は第1図の出力制御回路14に
相当する。
Video controller 26 corresponds to output control circuit 14 in FIG.

前述の本発明システムの動作を、以下に説明する。The operation of the above-mentioned system of the present invention will be explained below.

システムの動作が開始されると、ホスト計算機2、から
各PEへ初期データが転送される(第6図のS1参照)
。各PEへ転送される初期データは、ホスト計算機21
において決められる。前記初期データは表示装置4の画
面に表示したい物体8 にっていの定数〔物体定義データ、物体を見る視線方向
、視線位置等の各種パラメータ〕であり、以下の説明で
は表示装置4の画面に表示したい物体を、例えば球の立
体的結合で表される分子モデルであるとする。
When the system starts operating, initial data is transferred from the host computer 2 to each PE (see S1 in Figure 6).
. The initial data transferred to each PE is transferred to the host computer 21
It is decided in. The initial data are constants for the object 8 to be displayed on the screen of the display device 4 (object definition data, various parameters such as the line of sight direction for viewing the object, and the position of the line of sight). Assume that the object to be displayed is, for example, a molecular model represented by spherical steric bonds.

その初期データがホスト−PE間間通バインタフエース
36介してメモリ34へ書き込まれると、各PEの応用
プログラムがその初期データについて計算処理をなしく
第7図の31参照)、物体データを生成する(第6図の
32、第7図の32参照)。この物体データは、前述の
如く画面に表示したい物体が球(原子)の立体的結合で
表される分子モデルであるとすると、その各々の球を表
現する3次元データである。この3次元データは、分子
モデルの立体的結合における原子の種類、位置等のデー
タを含む。この物体データを生成する各PEの応用プロ
グラムは、それぞれ独立にその処理を進める。
When the initial data is written to the memory 34 via the host-PE interface 36, the application program of each PE performs calculation processing on the initial data (see 31 in FIG. 7) and generates object data. (See 32 in Figure 6 and 32 in Figure 7). Assuming that the object to be displayed on the screen is a molecular model represented by three-dimensional bonds of spheres (atoms) as described above, this object data is three-dimensional data representing each sphere. This three-dimensional data includes data such as the types and positions of atoms in the steric bonds of the molecular model. The application programs of each PE that generate this object data proceed with their processing independently.

生成された物体データは、ネットワーク10を介してす
べてのPEのスパン分解タスクへ分配される。この分配
は、例えばPEIからPEnまで順番に為されて行く。
The generated object data is distributed to the span decomposition tasks of all PEs via the network 10. This distribution is performed in order, for example, from PEI to PEn.

各PE内における、又PE間における応用タスクも、又
分配される物体データを受けるスパン分解タスクも、更
らには後述の塗り潰しタスクも、それぞれ非同期にそれ
ぞれのタスク処理を行なっているので、スパン分解タス
クにおいてその処理対象とされないままにある物体デー
タは、分配後において再度分配される。もし、各PEの
応用プログラムで生成される物体データ量が、いずれの
PEにおいてもほぼ同しであるとするならば、前記分配
は自己のPEのスパン分解タスクだけとするようにする
The application tasks within each PE and between PEs, the span decomposition task that receives the distributed object data, and the filling task described below all perform their task processing asynchronously. Object data that remains unprocessed in the decomposition task is distributed again after distribution. If it is assumed that the amount of object data generated by the application program of each PE is almost the same for all PEs, the distribution is performed only for the span decomposition task of the own PE.

(本頁以下余白) 0 各PEのスパン分解タスクへ分配されて来た物体データ
(第7図のSll参照)は、そこに含まれている視点デ
ータに従って座標変換される。この座標変換は、次のマ
トリクスを 球の中心の位置及び法王の任意の一点の両座標に掛ける
ことで為される。前記マトリクス内のAは回転のパラメ
ータ、Bは投影のパラメータ、Cは並行移動のパラメー
タ、Dはスケーリングのパラメータである。
(Margins below this page) 0 The object data distributed to the span decomposition tasks of each PE (see Sll in FIG. 7) is coordinate-transformed according to the viewpoint data contained therein. This coordinate transformation is performed by multiplying both the coordinates of the position of the center of the sphere and an arbitrary point on the pope by the following matrix. In the matrix, A is a rotation parameter, B is a projection parameter, C is a translation parameter, and D is a scaling parameter.

又、従来と同様にして、クリピング処理を行なう。この
クリピング処理は、前述の座標変換された球の中心の位
置及び法王の任意の一点の両座標に、次のマトリクス 1 を掛けることで為される。そして、(前述の従来技法に
よる)透視変換を必要に応じて為す。
In addition, clipping processing is performed in the same manner as in the prior art. This clipping process is performed by multiplying both the coordinates of the center position of the sphere whose coordinates have been transformed and the coordinates of an arbitrary point on the pope by the following matrix 1. A perspective transformation (according to the conventional technique described above) is then performed as necessary.

これらの変換後に、当該スパン分解タスクにおいて順次
の処理対象とされる球(物体データ)についてのスパン
データの生成を行なう。このスパンデータの生成(第1
3図の312参照)は、前記視点座標系での前記クリピ
ング処理したその平面で当該法を切断したときの切断面
において、第9図に示すように生成画像の解像度で前記
切断面を順次に切断したときに形成される交線(弦)が
、本発明で云うスパンであり、スパンデータは、次の各
データから威る。スパンの開始位置及び終了位置(PL
、PR)、球の半径及びその中心位置座標、並びに開始
位置の色情報(当該法の表示色)2 であり、そのPLXPRは次式で表される。
After these conversions, span data is generated for the sphere (object data) that is sequentially processed in the span decomposition task. Generation of this span data (first
(See 312 in Fig. 3) is a section plane when the method is cut by the plane subjected to the clipping process in the viewpoint coordinate system, and the section planes are sequentially cut at the resolution of the generated image as shown in Fig. 9. The intersection line (chord) formed when cutting is the span referred to in the present invention, and the span data is determined from the following data. Span start and end positions (PL
, PR), the radius of the sphere, the coordinates of its center position, and the color information of the starting position (display color of the method)2, and its PLXPR is expressed by the following equation.

PL−(x、Y−Yl、Z) PR= (x、Y+Y1.Z) 但し、上式のYlは Yl−刀ゴー可Vニア戸7 である。このスパンデータは、以下に述べるようにして
一意的に決められるそれぞれのPEの塗り潰しタスクへ
ネットワーク10を介して転送される。
PL-(x, Y-Yl, Z) PR= (x, Y+Y1.Z) However, Yl in the above formula is Yl-Katana Goka V Near Door 7. This span data is transferred via the network 10 to the filling task of each PE, which is uniquely determined as described below.

前述の如くして投影面上へ投影された各二次元図形をス
パンに分解したスパンデータの各々は、その分解処理担
当のPEから、ネットワーク10を介して同一スパンデ
ータ列を担当するPEとして画面生成上から一意的に決
められるPEの塗り潰しタスクへ転送される。これを図
解したのが第10図及び第11図である。これらの図は
、画像メモリ内容についての表示装置画面対応展開を示
し、表示装置画面に表示される画像データを、第10図
の縦方向ラインに分割し、その各ラインの塗り潰し処理
を担当するPEを予め決める。前記3 画像メモリの読出し方向が画面タスクに対し直角である
とすると、各PEへ縦ラインの割付け(図示の如く、左
から第1番目の縦ラインにはPEOを、第2番目の縦ラ
インにはPEIを割り付ける如し。)を行なう。画像メ
モリの読出し方向と画面タスクとが一致しているときに
は、第10図に示す縦方向ラインではなく、これに直角
な横方向ラインを各PEに割り付ける。いずれの方向の
ラインでも、そのライン担当のPEは、画面生成がタス
ク方式である場合には前述のところから一意的に決めら
れ、−旦決められると、各ラインとPEとの間は固定の
関係になる。従って、このような関係から上述の如く各
分解処理担当のPEにおいて生成されたスパンデータで
あって、前述同一ライン上にあるスパンデータは、該同
一ライン担当のPEのみヘネソトワーク10を介して転
送される(第7図の313参照)。
Each of the span data obtained by decomposing each two-dimensional figure onto the projection plane into spans as described above is sent from the PE in charge of the decomposition processing to the screen as a PE in charge of the same span data string via the network 10. It is transferred to the filling task of the PE, which is uniquely determined from the generation. This is illustrated in FIGS. 10 and 11. These figures show the development of the image memory contents corresponding to the display device screen, and the image data displayed on the display device screen is divided into vertical lines as shown in FIG. Decide in advance. 3. Assuming that the reading direction of the image memory is perpendicular to the screen task, assign vertical lines to each PE (as shown in the figure, the first vertical line from the left is the PEO, the second vertical line is the PEO, etc.) is like assigning a PEI). When the reading direction of the image memory and the screen task match, instead of the vertical line shown in FIG. 10, a horizontal line perpendicular thereto is assigned to each PE. For lines in either direction, the PE in charge of that line is uniquely determined from the above if screen generation is a task method, and once determined, there is a fixed line between each line and the PE. Become a relationship. Therefore, due to this relationship, the span data generated by each PE in charge of disassembly processing and located on the same line as described above is transferred only to the PE in charge of the same line via the Hennessoto work 10. (See 313 in Figure 7).

こうして、各P’Eの塗り潰しタスクへ塗り潰し処理ラ
イン対応のスパンデータの各々が転送されて来るが(第
7図の321参照)、各塗り潰しり4 スフはそのスパンデータに対しシェーティングモデルに
従って画素の輝度値補間及び画像メモリの塗り潰しを行
なう(第7図の322参照)。この様子を示す例が第1
2図である。
In this way, each of the span data corresponding to the filling processing line is transferred to the filling task of each P'E (see 321 in Fig. 7), and each filling 4 screen is divided into pixels according to the shading model for the span data. Interpolation of brightness values and filling of the image memory are performed (see 322 in FIG. 7). The first example shows this situation.
This is Figure 2.

第12図は、上述の如く分子モデル等における球につい
て塗り潰しの例を示している。この図においては、説明
の都合上、第12図に示す展開対応の画面を90度面回
転せて図示する視点座標系上における1つの球を示して
いる。この球についてのスパンデータSDは、前述の如
く当該スパンデータSDを含むライン担当のp E i
  (Jの意味は〔作 用〕の項での説明と同義である
。)へ、前述スパン分解タスクからネットワーク10を
介して転送されて来る。該スパン分解タスクは、他のP
Hのスパン分解タスクに自己PEのものを含んでその全
体を構成されることもあれば、自己PEのスパン分解タ
スクを含まずしてその全体を構成されることもある。
FIG. 12 shows an example of filling in a sphere in a molecular model, etc., as described above. In this figure, for convenience of explanation, one sphere is shown on the viewpoint coordinate system, which is illustrated by rotating the screen corresponding to development shown in FIG. 12 by 90 degrees. As mentioned above, the span data SD for this ball is the p E i of the line that includes the span data SD.
(The meaning of J is the same as the explanation in the [Operation] section.) is transferred via the network 10 from the span decomposition task described above. The span decomposition task is performed using other P
The entire span decomposition task of H may include that of the self PE, or the entire span decomposition task of H may not include the span decomposition task of the self PE.

スパンデータSDは、スパンの両端位置PL(=Y−Y
 1 ) 、 PR(−Y+Y 1 ) 、球半径r、
5 その中心位置○座標(x、 y、  z) 、当該球の
表示色から威り、第12図に示す球を担当するPEのス
パン分解タスクからネットワーク10を介して該スパン
データSDを含むライン塗り潰し担当のPEJへ転送さ
れて来る。このスパンデータSDを含むラインにおいて
視点座標系X、Y平面に垂直な方向(図示例では、紙面
に垂直な方向)の面で球を切った場合における、当該球
の表面上の各点P (x、  y、  z)の位置を求
める。これら各点Pは、Xについては同一座標上で、y
については画像の解像度で決まる変分でY座標の値を変
えた場合の、(x、y、z)の値となる。その2のイ直
は、 PL −(x、  Y−Yl、  Z)  、 
PR=  (xy+Y1.Z)であるから、 となる。これら各点Pでの法線ベクトルNは、その表面
が球面であることから、 N= (x−X、  y−Y、  z−Z)として与え
られる。
The span data SD is the span end position PL (=Y-Y
1), PR(-Y+Y1), sphere radius r,
5 The center position ○ coordinates (x, y, z) are determined from the display color of the sphere, and from the span decomposition task of the PE in charge of the sphere shown in FIG. It will be forwarded to PEJ who is in charge of filling it out. Each point P ( Find the position of x, y, z). Each of these points P is on the same coordinates for X, y
is the value of (x, y, z) when the value of the Y coordinate is changed by a variation determined by the resolution of the image. The second direct is PL - (x, Y-Yl, Z),
Since PR= (xy+Y1.Z), it becomes. The normal vector N at each of these points P is given as N=(x-X, y-Y, z-Z) since its surface is a spherical surface.

この法線ベクトルNと、前記投影面に投影され6 た三次元物体(前述)に対し光を照射する光源の位置及
び方向についての処理開始時に予め設定された各データ
を用いて、フォノのモデルに従った球の塗り潰し処理(
シェーティング処理)(第7図の322参照)を行なう
。この塗り潰し処理のための各点Pにおυる輝度■は、
それら各点についての正規化された法線ベクトルN′及
び正規化された光線の方向ベクトルL、を用いてI=k
・ (N’  ・L) +a として求められる。ただし、この弐のに、  aは表示
のための定数である。
Using this normal vector N and each data set in advance at the start of processing regarding the position and direction of the light source that irradiates light to the three-dimensional object (described above) projected on the projection plane, a phono model is created. Sphere filling process according to (
shading processing) (see 322 in FIG. 7). The brightness ■ at each point P for this filling process is
Using the normalized normal vector N' and the normalized ray direction vector L for each point, I=k
・It is obtained as (N' ・L) +a. However, in this second case, a is a constant for display.

スパンデータSDで表わされる線分で切られる球に対し
隠面処理を行ないつつ核球の前記各点Pにおける前述輝
度Iに応した塗り潰しを行なえば、前記塗り潰し処理の
内の、前述スパンデータSDで規定される表示線分につ
いての処理が終了する。
If the sphere cut by the line segment represented by the span data SD is filled in according to the luminance I at each point P of the nuclear sphere while performing hidden surface processing, the span data SD in the filling process is performed. The processing for the display line segment defined by is completed.

この表示線分の両側に存在する前記球のための各表示線
分は、それぞれの表示線分が位置するライン担当のPE
において、前述PEJで行なったと同様の塗り潰し処理
が同時並行的に進められる。
Each display line segment for the ball existing on both sides of this display line segment is displayed by the PE in charge of the line where each display line segment is located.
, the same fill-in process as that performed in the PEJ described above is carried out concurrently.

7 前述の隠面処理には、例えばZバッファアルゴリズムが
用いられる。Zバッファアルゴリズムは、画像データの
各画素対応の視点からの距離を記憶するメモリ(Zバッ
ファ)を用いて隠面処理を行なうものである。図形描画
開如時にZバッファをクリアする(つまり、無限遠の値
にセントする)。
7 For example, a Z-buffer algorithm is used for the hidden surface processing described above. The Z buffer algorithm performs hidden surface processing using a memory (Z buffer) that stores the distance from the viewpoint corresponding to each pixel of image data. Clear the Z buffer (i.e., set it to the value at infinity) when you start drawing.

図形の入力画素を書き込む際に、その画素の距離Zの値
とZバッファ内の当該入力画素対応の画素の距離Zの値
とを比較し、前記入力画素が該入力画素に対応するZバ
ッファ内画素よりも手前のものであれば、前記入力画素
は前記視点から見えるものと判断してその入力画素を前
記比較対象とされたZバッファ内の画素記憶位置に書き
込むが、逆の場合には前記更新処理は行なわない如き処
理を、図形内の各入力画素について繰り返すことで、そ
の隠面処理を行なうものである。
When writing an input pixel of a figure, the distance Z value of the pixel is compared with the distance Z value of the pixel corresponding to the input pixel in the Z buffer, and the input pixel is determined to be within the Z buffer corresponding to the input pixel. If the input pixel is in front of the pixel, it is determined that the input pixel is visible from the viewpoint, and the input pixel is written to the pixel storage location in the Z buffer that is the comparison target. Hidden surface processing is performed by repeating processing for each input pixel in a figure without performing update processing.

前述のような各タスク(応用タスク、スパン分解タスク
及び塗り潰しタスク)の処理は、前述したところから明
らかな如く、各PE内でも、又PE間でも非同期に進行
されており、各PEにおけ8 るタスクの処理優先度は、塗り潰しタスク、スパン分解
タスク、そして応用タスクの順に順次低くなるように設
定されているから、各PEの応用タスクにおける物体デ
ータの生成量に偏りが生じていたとしても各PE毎に自
己のスパン分解タスクを含むシステム内の全スパン分解
タスクへ非同期的に分配されるので、前記処理優先度と
の関係でシステム全体の処理終了(第6図の33参照)
までに前記物体データの各PEへの配分は均等化される
As is clear from the above, the processing of each task (applied task, span decomposition task, and fill-in task) is progressed asynchronously within each PE and between PEs, and each PE has 8 The processing priority of the tasks is set to decrease in the order of filling tasks, span decomposition tasks, and application tasks, so even if there is a bias in the amount of object data generated in the application tasks of each PE, Since each PE is asynchronously distributed to all span decomposition tasks in the system including its own span decomposition task, the processing of the entire system is completed in relation to the processing priority (see 33 in Figure 6).
By then, the distribution of the object data to each PE has been equalized.

このような物体データの分配が行なわれる間、スパンデ
ータについての塗り潰し処理も順次に各ライン担当のP
Eで並行的に為される。
While such object data is being distributed, the filling process for span data is also sequentially performed by the P in charge of each line.
This is done in parallel with E.

塗り潰し処理された画素データは、当該画素データが所
属する前述のライン担当PEの画像メモリ内の、表示画
面画素対応記憶位置に、上述のように順次に書き込まれ
て行く。
The pixel data subjected to the filling process is sequentially written as described above to the storage locations corresponding to the display screen pixels in the image memory of the above-mentioned line PE to which the pixel data belongs.

その各画像メモリの読出し方向を図式的に第11図の一
直鎖線SLのようなものであったとすると、各画像メモ
リの読出しが丁度−直鎖、%9!SLに9 来たときに、各縦ライン担当PEの画像メモリのための
読出しアドレスは、該画像メモリのためのアドレスカウ
ンクから出力されるが、それは次の通りである。前記−
点鎮#i!SL上の左側最初の縦ライン担当PEの画像
メモリへ前記−点鎖線SLと前記最初の縦ラインとの交
点対応の画像メモリ読出しアドレスを対応アドレスカウ
ンクから出力し、次の読出しクロック時に第2番目の縦
ライン担当PEの画像メモリへ前記−点鎖線SLと前記
第2番目の縦ラインとの交点対応の画像メモリ読出しア
ドレスを、該ライン担当PEのアドレスカウンクから出
力する。以下、順次の読出しクロックでも同様である。
Assuming that the readout direction of each image memory is diagrammatically shown as a straight chain line SL in FIG. 11, the readout of each image memory is exactly -straight chain, %9! When reaching SL, the read address for the image memory of each vertical line PE is output from the address counter for the image memory, and is as follows. Said-
Dianzhen #i! The image memory read address corresponding to the intersection of the - dotted chain line SL and the first vertical line is outputted from the corresponding address counter to the image memory of the PE in charge of the first vertical line on the left side on SL, and the second PE is read out at the next read clock. The image memory read address corresponding to the intersection of the -dot chain line SL and the second vertical line is output to the image memory of the PE in charge of the th vertical line from the address count of the PE in charge of the line. The same applies to sequential read clocks.

このようにして、前記−点鎖線SL対応の読出しが最左
端縦ライン担当PHの画像メモリから最右端縦ライン担
当PEの画像メモリへ終了するまでに、前記−点鎖線S
L対応の表示装置タスクのための画素データ列の各画素
データが前記最左端縦ライン担当PEの画像メモリから
前記最右端縦ライン担当PEの画像メモリまでの各画素
データ出力に順次に出力される。この0 順次に出力される画素データの各々は、ビデオコントロ
ーラ26からマルチプレクサ12へ順次に供給される選
択信号によってマルチプレクサ12からビデオコントロ
ーラ26を介して表示装置4へ供給され、その画面に前
記−点鎖線SL対応のタスクを表示させる。このような
タスク形式の読出しは、他タスク対応の読出しにおいて
も順次に行なわれる。そして、表示装置が飛越し走査方
式であるかそうでないかによって決まる所定回数、例え
ば1秒間に30又は60回前述の読出しが繰り返される
In this way, by the time the reading corresponding to the -dotted chain line SL is completed from the image memory of the PH in charge of the leftmost vertical line to the image memory of the PE in charge of the rightmost vertical line, the -dotted chain line S
Each pixel data of the pixel data string for the L-compatible display device task is sequentially output to each pixel data output from the image memory of the PE in charge of the leftmost vertical line to the image memory of the PE in charge of the rightmost vertical line. . Each of the pixel data sequentially outputted is supplied from the multiplexer 12 to the display device 4 via the video controller 26 in response to a selection signal sequentially supplied from the video controller 26 to the multiplexer 12, and is displayed on the screen of the display device 4. Display the tasks corresponding to the chain line SL. Such task-type reading is also performed sequentially in reading corresponding to other tasks. The above reading is then repeated a predetermined number of times, for example 30 or 60 times per second, depending on whether the display device is of an interlaced scanning type or not.

上述のようにして塗り潰し処理された各画像メモリに対
するタスク形式の読出しにおいては、画像メモリの読出
し速度は、前述の多重読出しにより表示装置における画
素データクロックの画像メモリ数分の1となる。
In the task-type readout for each image memory that has been filled in as described above, the readout speed of the image memory is reduced to 1/the number of image memories of the pixel data clock in the display device due to the multiple readout described above.

なお、前記実施例においては、三次元物体を球の立体的
結合で形成される例について説明したが、その他の単一
形状の三次元物体であってもよい。
In the above embodiments, an example in which the three-dimensional object is formed by a three-dimensional combination of spheres has been described, but the three-dimensional object may have another single shape.

又、画像メモリは、少なくとも当該PEが担当す3す るライン分の容量を有すれば良く、必ずしも一画面分の
容量を有しなくてもよい。この場合には、当然に、その
読出し制御は前述したところと異なって来る。又、いず
れの場合にも、画像メモリは、PEの塗り潰しタスクと
の対応が取れていればよく、必ずしもPE内に設けられ
ていなくてもよい。
Further, the image memory only needs to have a capacity for at least three lines handled by the PE, and does not necessarily have a capacity for one screen. In this case, the readout control will naturally be different from that described above. In any case, the image memory only needs to be compatible with the filling task of the PE, and does not necessarily have to be provided in the PE.

初期データの入力は通信回線を介して与えられるように
システムが槽底される場合であっても本発明は実施し得
る。
The present invention may be practiced even if the system is configured such that initial data input is provided via a communication line.

〔発明の効果〕〔Effect of the invention〕

以上述べたところから明らかなように本発明によれば、
表示したい三次元物体についての表示に必要なデータ処
理に複数の同一構成のプロセッサを用い、それらのプロ
セッサに表示したい三次元物体についての初期データか
ら各プロセッサ毎に担当する三次元物体についての1つ
、又は2以上の処理単位立体部分を表す物体データの生
成を為さしめ、それらの物体データを該物体データを生
成したプロセッサを含め、又は含めずしてすべて2 のプロセッサへ、スパンデータの生成とは非同期で分配
しつつ、各プロセッサにおいてそこへ割りつけられてい
るスパンデータを用いて塗り潰し処理を行なうようにし
て、前記処理単位立体部分の処理の非同期的分散処理及
び塗り潰し処理の非同期的集中処理によって表示したい
三次元物体についての表示に必要なデータ処理を達成す
るようにしたので、表示したい三次元物体についての画
像データを得るのに専用のハードウェアを不要としつつ
、表示したい三次元物体の多数の微小多角形への分割に
よる処理の低速化の回避と各プロセッサの負荷均一化の
容易性とを両立させて三次元物体の高速描画(即時的操
作応答性)を享受し得る。
As is clear from the above description, according to the present invention,
Multiple processors with the same configuration are used to process the data necessary for displaying the three-dimensional object that you want to display, and each processor is responsible for one processor that processes the initial data about the three-dimensional object that you want to display. , or generates object data representing two or more processing unit three-dimensional parts, and sends those object data to all two processors, including or excluding the processor that generated the object data, to generate span data. While distributing it asynchronously, each processor performs the filling process using the span data assigned to it, thereby achieving asynchronous distributed processing of the processing of the processing unit 3D part and asynchronous concentration of the filling process. Since the data processing necessary for displaying the three-dimensional object to be displayed is achieved through processing, there is no need for dedicated hardware to obtain image data about the three-dimensional object to be displayed, and the three-dimensional object to be displayed can be displayed. It is possible to enjoy high-speed drawing of a three-dimensional object (immediate operational responsiveness) by avoiding slowdown of processing due to division into a large number of small polygons and by making it easy to equalize the load on each processor.

前記各プロセッサでの表示したい三次元物体についての
表示に必要なデータの並列処理は、プロセッサの利用率
を向上させる。又、各プロセッサの画像メモリに書き込
まれつつある、又は処理完了となった表示したい三次元
物体についての画像データを、それらの各画像メモリか
ら多重的に読み出し得ることは、高解像度表示装置に対
する良好3 な適合性をシステムに付与し得る。
Parallel processing of data necessary for displaying a three-dimensional object to be displayed by each of the processors improves the utilization rate of the processors. Furthermore, it is advantageous for high-resolution display devices to be able to multiplexly read image data about a three-dimensional object to be displayed that is being written to the image memory of each processor or has been processed, from each image memory. 3. It can give the system a great deal of adaptability.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理ブロック図、 第2図は本発明の一実施例を示す図、 第3図はプロセッサの構成図、 第4図はネットワークの構成図、 第5図は各PEの画像出力及びマルチプレクサの制御回
路系を示す図、 第6図はシステムの処理フローを示す図、第7図は各P
Eの処理フローを示す図、第8図は物体データのPEへ
の分配例を示す因、第9図はスパンデータ生成の説明図
、 第10図は塗り潰し処理ラインへの各PEへの割付けを
図解する図、 第11図は第8図の分配例においてPEOへ割り付けら
れた塗り潰し処理ラインのみを示す図、第12図は塗り
潰し処理ライン例についての塗り潰し処理説明図、 第13図は従来の立体画像生成システムを示す図、4 第14図は第13図システムにおける処理フローを示す
図である。 第1図乃至第6図において、 2は入力部(ホスト計算機2、)、 4は表示装置、 6iは処理部(プロセッサ248)、 8Lは画像データ記憶部(画像メモ1J40i)、10
はネットワーク、 12はマルチプレクサ、 14は出力制御回路(ビデオコントローラ26)である
。 アブリグ−シリ/タスク 特開平3 85688 (13) スパン#pI草タスタ ンtすよる二L7タス7 そPEの ヌm理フD− 第 図 9労イー4−芥夕のPEへ○ づケ13ろブタq第8図 スle/テニク住へゝ/)言先B月図 第 図 第 1 図 第 0 図
Figure 1 is a block diagram of the principle of the present invention, Figure 2 is a diagram showing an embodiment of the present invention, Figure 3 is a configuration diagram of a processor, Figure 4 is a configuration diagram of a network, and Figure 5 is a diagram of each PE. Figure 6 is a diagram showing the image output and multiplexer control circuit system, Figure 6 is a diagram showing the system processing flow, Figure 7 is a diagram showing each P
Figure 8 shows an example of the distribution of object data to PEs, Figure 9 is an explanatory diagram of span data generation, and Figure 10 shows the allocation to each PE to the filling processing line. Figure 11 is a diagram showing only the filling process line assigned to PEO in the distribution example of Figure 8, Figure 12 is an explanatory diagram of the filling process for the example of the filling process line, and Figure 13 is a conventional three-dimensional diagram. FIG. 4 is a diagram showing the image generation system. FIG. 14 is a diagram showing the processing flow in the system shown in FIG. 1 to 6, 2 is an input unit (host computer 2), 4 is a display device, 6i is a processing unit (processor 248), 8L is an image data storage unit (image memo 1J40i), 10
is a network, 12 is a multiplexer, and 14 is an output control circuit (video controller 26). Abrig-Siri/Task JP-A-3 85688 (13) Span #pI Kusatastan t Suyoru 2 L7 Tas 7 So PE's Numarifu D- Figure 9 Labor Yi 4- To Keyu's PE ○ Zuke 13ro Pig q fig.

Claims (1)

【特許請求の範囲】[Claims] (1)三次元物体の初期データを入力する入力部(2)
と、 表示装置(4)と、 前記入力部(2)に接続され、前記表示装置(4)の画
面に表示したい三次元物体の処理単位立体部分について
の処理、及び表示制御上共通な画像領域部分の処理を行
なう同一構成の複数の処理部(6_i)(i=1,2,
・・・,n)と、該複数の処理部(6_i)対応の画像
データ記憶部(8_i)と、 前記複数の処理部(6_i)相互間の非同期データ転送
に供されるネットワーク(10)と、マルチプレクサ(
12)と、 前記表示装置(4)の表示と同期して前記複数の画像デ
ータ記憶部(8_i)の画像出力を前記マルチプレクサ
(12)を介して前記表示装置(4)へ所定の表示時系
列で出力せしめる出力制御回路(14)とを備え、 前記表示したい三次元物体の処理単位立体部分の各々に
ついての処理については各処理部(6_i)へ前記ネッ
トワーク(10)を介して分散して処理し、処理された
処理単位立体部分間において表示制御上共通な画像領域
部分の処理を当該共通な画像領域部分に予め割り付けら
れた処理部へ前記ネットワーク(10)を介して転送し
、又は転送せずして処理されて得られた共通な画像領域
部分画像データを対応する画像データ記憶部に書き込み
、前記出力制御回路(14)の制御により前記マルチプ
レクサ(12)を介して前記表示装置(4)の画面に表
示せしめることを特徴とする立体画像表示システム。
(1) Input section for inputting initial data of a three-dimensional object (2)
, a display device (4), and an image area that is connected to the input section (2) and is common for processing and display control of the processing unit stereoscopic part of the three-dimensional object to be displayed on the screen of the display device (4). A plurality of processing units (6_i) (i=1, 2,
..., n), an image data storage unit (8_i) corresponding to the plurality of processing units (6_i), and a network (10) provided for asynchronous data transfer between the plurality of processing units (6_i). , multiplexer (
12), the image outputs of the plurality of image data storage units (8_i) are sent to the display device (4) via the multiplexer (12) in a predetermined display time series in synchronization with the display of the display device (4); and an output control circuit (14) for outputting the output, and the processing for each processing unit three-dimensional part of the three-dimensional object to be displayed is distributed to each processing unit (6_i) via the network (10). The processing of the image area portion that is common in terms of display control between the processed processing unit three-dimensional portions is transferred, or not transferred, to a processing unit previously allocated to the common image area portion, via the network (10). The common image area partial image data obtained by the above processing is written into the corresponding image data storage section, and is sent to the display device (4) via the multiplexer (12) under the control of the output control circuit (14). A stereoscopic image display system characterized by displaying images on a screen.
JP1224134A 1989-08-30 1989-08-30 3D image display system Expired - Fee Related JP3014395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1224134A JP3014395B2 (en) 1989-08-30 1989-08-30 3D image display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1224134A JP3014395B2 (en) 1989-08-30 1989-08-30 3D image display system

Publications (2)

Publication Number Publication Date
JPH0385688A true JPH0385688A (en) 1991-04-10
JP3014395B2 JP3014395B2 (en) 2000-02-28

Family

ID=16809079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1224134A Expired - Fee Related JP3014395B2 (en) 1989-08-30 1989-08-30 3D image display system

Country Status (1)

Country Link
JP (1) JP3014395B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121184A (en) * 2005-10-31 2007-05-17 Hioki Ee Corp Electronic device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS643784A (en) * 1987-06-26 1989-01-09 Nec Corp Graphic display conversion processing system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS643784A (en) * 1987-06-26 1989-01-09 Nec Corp Graphic display conversion processing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007121184A (en) * 2005-10-31 2007-05-17 Hioki Ee Corp Electronic device

Also Published As

Publication number Publication date
JP3014395B2 (en) 2000-02-28

Similar Documents

Publication Publication Date Title
US7737982B2 (en) Method and system for minimizing an amount of data needed to test data against subarea boundaries in spatially composited digital video
US5185599A (en) Local display bus architecture and communications method for Raster display
US6292200B1 (en) Apparatus and method for utilizing multiple rendering pipes for a single 3-D display
US8497865B2 (en) Parallel graphics system employing multiple graphics processing pipelines with multiple graphics processing units (GPUS) and supporting an object division mode of parallel graphics processing using programmable pixel or vertex processing resources provided with the GPUS
US5630043A (en) Animated texture map apparatus and method for 3-D image displays
US5357599A (en) Method and apparatus for rendering polygons
US5786822A (en) Method and apparatus for mapping texture on an object displayed at a varying view angle from an observer
US5877769A (en) Image processing apparatus and method
GB2211706A (en) Local display bus architecture and communications method for raster display
US5877779A (en) Method and apparatus for efficient rendering of three-dimensional scenes
JPH0687267B2 (en) Wire frame graphic display generation method and device and hidden line removal system
JPH0916806A (en) Stereoscopic image processor
JP3638637B2 (en) Polygon data conversion device and three-dimensional simulator device
JP2000011204A (en) Image processing method and recording medium with image processing program recorded thereon
JPH09330423A (en) Three-dimensional shape data transforming device
JPH0793579A (en) Formation system of three-dimensional simulation image
England A graphics system architecture for interactive application-specific display functions
RU2295772C1 (en) Method for generation of texture in real time scale and device for its realization
KR20020032619A (en) Image processing system, device, method, and computer program
US7528839B1 (en) Faster clears for three-dimensional modeling applications
JPH0714029A (en) Equipment and method for drawing of line
JP3642259B2 (en) Multi-screen display device
JPH01131976A (en) Device and method for texture mapping
US7372461B2 (en) Image processing apparatus and method of same
JPH0385688A (en) Stereographic image display system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees