JP2766478B2 - Image processing system - Google Patents

Image processing system

Info

Publication number
JP2766478B2
JP2766478B2 JP62042963A JP4296387A JP2766478B2 JP 2766478 B2 JP2766478 B2 JP 2766478B2 JP 62042963 A JP62042963 A JP 62042963A JP 4296387 A JP4296387 A JP 4296387A JP 2766478 B2 JP2766478 B2 JP 2766478B2
Authority
JP
Japan
Prior art keywords
image
dimensional
information
processing system
partial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP62042963A
Other languages
Japanese (ja)
Other versions
JPS63211075A (en
Inventor
泰 福永
良 藤田
和義 古賀
猛 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP62042963A priority Critical patent/JP2766478B2/en
Publication of JPS63211075A publication Critical patent/JPS63211075A/en
Priority to US07/634,818 priority patent/US5371839A/en
Priority to US08/715,472 priority patent/US6088037A/en
Application granted granted Critical
Publication of JP2766478B2 publication Critical patent/JP2766478B2/en
Priority to US09/584,498 priority patent/US6292196B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Generation (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、濃淡画像をデイスプレイ上に表示する画像
処理システムに係り、特に、照明等の影響により、各画
素によつて明度が異なる画像を高速にデイスプレイ上に
表示する画像処理システムに関する。 〔従来技術〕 カラー画像を高速に処理するため、特願昭59−30278
号、「画像メモリのアクセス装置」に開示されているよ
うに、フレームメモリのプレーン単位に演算器を設け、
並列に処理する方式が示されている。 〔発明が解決しようとする問題点〕 上記従来技術は、濃淡画像の巾広い演算系について配
慮されておらず、このため、濃淡画像の濃度変換処理を
行なおうとすると、ホストプロセツサ(CPU)で画像の
再計算を行なう必要があり、リアルタイムで表示を変更
できない問題があつた。 この問題点を明確化するためのアプリケーシヨンの要
求について、図を用いて、更に詳細に説明する。 第2図に示すように、左の画像データAは、2次元平
面上に濃淡を持つて定義されている。これを右のような
直方体の一面にはりつけるテクスチヤマツピング処理を
行つて画像Bを構成させた場合、面の後方と前方(又は
視界側からみて後方と手前)では濃度差を生じるように
マツピング(画像変換)しないと、実際の事象のように
は見えない。そこで、例えば前方を濃く、後方を薄くす
る。 この処理を実現するには、例えば、後方にマツピング
される画素については、2次平面上の濃淡画像の各画素
の値を0.6倍してマツピングを行い、前方については1.0
倍してマツピングを行い、その途中は、(0.6−1.0)倍
の中間の値をとるようにする必要がある。これによつて
後方は元の二次元平面上の濃度に比して薄くなる。 かかる処理での濃度変換は、従来、ホストプロセツサ
で行つており、リアルタイム処理は容易でなかつた。 本発明の目的は、各濃淡画素の明度情報を表示画面上
の異なる濃淡画像として演算処理によつて得るようにし
た画像処理システムを提供するにある。 〔問題点を解決するための手段〕 本発明は、明度情報を線形補間して求める演算装置
と、その演算結果に従つて各画素単位に、表面上の濃淡
情報を演算する乗算器等の演算器と、を持つこととし
た。 〔作用〕 線形補間の演算装置は、初期の明度値と、一回演算ご
との差分値を与えることにより、次々と明度値を演算す
る。乗算器は、この演算で求めた明度値を元の画像の各
画素単位に乗算する。これによつてデイスプレイ上に表
示すべき濃淡情報を求めることができる。この濃度情報
は、必要となる画素を含めたものであるため、必要な画
素のみをフレームメモリに書込めば、目的とする画像が
得られる。 〔実施例〕 第3図は、本発明の表示システム例図である。第1図
は本発明の最も特徴となるDDA回路部の実施例図であ
る。 第3図で、CPU1は、ホフトプロセツサであり、表示制
御プロセツサ2に対して、イメージの変換や、図形の描
画をバス5を介して指示する。 表示制御プロセツサ2は、バス5を介して指令された
内容をDDA回路部3が処理できる単位に分割し、バス6
を介してDDA回路部3へ指令する。 DDA回路部3は、各画素毎の濃淡値を計算し、バス7
を介してフレームメモリ(FM)4へ書込む。 FM4の内容は、常にデイスプレイに対してリフレツシ
ユ表示される(図示せず)。従つて作業者は作成された
画像を常にリアルタイムで見ることができる。 以上の第3図による処理例を、第4図の図形例をもと
に簡単に説明する。 第4図は左側のA図形を右側のB図形に変換する例を
示した。A図形は2次元図形、B図形は3次元図であ
り、A図形をB図形の一つの側面にはりつける処理を行
わせることとした。 この処理に際して、先ず、CPU1は、左側のA画像に対
し、右側のようにB図形上の一部に構成すべくマツピン
グ処理の指示を行う。この指示がバス5を介して表示制
御プロセツサ2に送られる。 表示制御プロセツサ2は、画像Aをラスタスキヤンす
る。各ラスタ走査線にあつては、第4図の走査線lで示
すように、その走査線lの始点(SX,SY)を指示し、こ
の始点(SX,SY)に対応するデイステイネーシヨンの座
標(DX,DY)を指示し、且つ明度情報I(0≦I≦1)
を指示し、且つ、SX,DX,DY,Iの次の点との変位ΔSX,Δ
X,ΔY,ΔIを指示する。 ここで、デイステイネーシヨンの座標(DX,DY)と
は、B図形上のA図形座標の対応値、SX,DX,DY,Iの次の
点とは、走査線l上での横方向(X方向)での次のスキ
ヤン点(例えば始点を現在のスキヤン点とすれば、その
始点の次のスキヤン点となる。一般に、X方向のスキヤ
ンピツチは一定である)。ΔSXがあつてΔSYが不要なの
は、1つの走査線lにあつては、Y座標の変化がないた
めであり、DX,DYが存在するのはB図形上では、走査線
lは、直線rとなり、この直線r上では、Xのみなら
ず、Yの値も変化するためである。また、終点aはa1と
なり、始点bはb1となる。更に走査線lは、図形上部か
ら図形下部に一定のY座標変位で変化する。その本数
は、事前に決まつている。 表示制御プロセツサ2は、以上の各データSX,SY,I,D
X,DY,ΔSX,ΔX,ΔX,ΔIをDDA回路部3で送る。 DDA回路部3は、これらの各データを元に、直線r上
での座標及び濃度を各画素毎に計算する。かくして得た
座標及び濃度をフレームメモリ4に格納し、次いで表示
すると、第4図のB図形上での一つの側面にはりつけた
状態での図形が得られる。 第1図の実施例を説明する。 DDA31…このDDA31は、対称形DDAを使用した。対称形D
DAの機能図を第5図に示す。ある数値を始点として次々
に微小値Δを加算し、各加算値毎に、その整数部分を次
々に出力させる。この出力整数値が始点から終点に至る
変換値となる。第5図はその機能を示す。小数部分に対
して微小値Δを加算して、前回の小数値に代つて埋め込
む。各埋め込み毎に、その際の整数値を出力する。尚、
埋込みによつて整数部分が更新される場合と、更新され
ない場合とがある。更新される場合とは、小数部分にΔ
を加算した結果、1なる整数値が得られる場合であり、
更新されない場合とは、小数部分にΔを加算しても1な
る整数値に達していない場合である。前者は、キヤリー
発生であり、後者はキヤリー発生しない例である。 ここで、始点とは、SX,DX,DY,Iの各値を云い、微小値
Δとは、ΔSX,ΔX,ΔY,ΔIの各値を云う。SYについて
は、1つの任意の走査線lに関しては、変化なしであ
り、Δ=0であり、上記演算は不用である。上記SX,DX,
DY,Iの5つのデータに対して第5図の処理が個別に行わ
れ、終点へのデータ更新が5つのデータそれぞれについ
て、個別に行われてゆく。 レジスタ32……n個のプレーンレジスタ321,322〜32n
より成る。各レジスタ321〜32nは、それぞれFIFO形のレ
ジスタである。各レジスタ321〜32nは、それぞれ16ビツ
ト×mの容量を持つ。 ここで、nとは、一画素を構成するビツト数であり、
16ビツトとは1回に転送されてくるビツト数であり、m
とはFIFOとしての個別レジスタの数である。従つて、m
はFIFOレジスタとしての容量を決める値である。nは、
4とか8とか16とかをとる例が多い。nの数が大きい
程、階調数は多くとれる。16ビツトの代りに8ビツトや
32ビツトの例もある。 このレジスタ32にはバス6を介して画像データがFI入
力する。 選択器33……n個の選択器331〜33nより成る。この選
択器33は、レジスタ32の出力かフレームメモリ(FM)4
からの読出しデータかのいずれか1つを選択する。この
選択は、選択信号で行う。この選択信号は、(SX,SY)
のアドレスが、メインメモリのアドレスを指示するとき
はレジスタ32のFO出力を選択し、(SX,SY)のアドレス
がフレームメモリのアドレスを指示するときはフレーム
メモリの出力(バス7−2を介してのFM DATA)を選択
する。この選択器33の選択器331〜33nは、レジスタ321
〜32nに対応する。また、選択器331〜33nはバス7−2
からのFM DATA出力の16×nに対応する。 ソースレジスタ34,35……それぞれn個のレジスタ341
〜34n,351〜35nより成る。この2つのソースレジスタ3
4,35は、32画素用であり、それぞれ16画素のバツフアリ
ングを行う。32画素としたのは、16画素のシフトしたデ
ータを発生させるためである。そこで、先ずレジスタ34
にデータをラツチし、次にこのデータをレジスタ35に送
つてラツチさせ、レジスタ34には新しいデータをラツチ
させるとの動作をさせる。 パレルシフター36……n個のパレルシフター361〜36n
より成る。このパレルシフター36は複数ビツトを一度に
シフトさせる機能を持つ。 乗算器37……16個の乗算器371〜37−16より成る。各
乗算器371〜37−16の各各は、一画素に対応している。
乗算は、情報Iと各画素データとの間で行う。 書込みデータバツフア38……n個のバツフア381〜38n
より成る。この書込み制御はDXの下位4ビツトのデコー
ド結果によつて行う。このデコードは、デコーダ70が行
う。 演算器39……n個の演算器(ALU)より成る。 制御回路71……DDA制御を行う。第5図に示した機能
中のループ数の指定L、及び開始コマンドCOMがセツト
され、もし、COMがスタートであれば、L=0になるま
でDDA演算を続行させ、もしFM読出し/書込みであればF
Mからの読出し又はFMへの書込みを行う。ここで、FM書
込みの条件は、(DYの整数部分が変化したこと)(DY
の値がメモリ境界を越えたこと)である。更に、DXの値
がメモリ境界を越えたこととは、DXの下位4ビツトから
5ビツト目にキヤリーが発生したこと、16画素単位がフ
レームメモリの境界時であること、を云う。 デイステイネーシヨンレジスタ(DSTREG)40……n個
のレジスタ401〜40nより成る。 以上の第1図の構成で、構成要素32,33,34,35,36,38,
39,40をn枚のプレーン構成としたのは、画像が一画素
nビツトとした場合にそのnビツトのプレーンをプレー
ン単位に共通に処理できるようにしたためである。これ
によつて、並列処理される。但し、乗算器37に関して
は、プレーン間のキヤリイ伝播を発生させるため、一画
素単位に個別に乗算器を設けた。 第1図の動作を説明する。 バス6を介して与えられた前記パラメータ(SX,SY,D
X,DY,I,ΔX,ΔY,ΔSX,ΔI)は、DDA回路31内のレジス
タにセツトされる。 (SX,SY)で始まるラスターがフレームメモリ4上に
ある場合は、選択器54によつて、SX,SYのアドレスがフ
レームメモリ4用のアドレスとしてバス7−1を介して
出力され、FM4をアクセスする。FM4からのこのアドレス
内からの読出しデータは、バス7−2を介して送られ、
選択器33はこのバス7−2上の読出しデータを選択して
取込む。 一方、SX,SYで始まるラスターがCPU1側のメインメモ
リ上にある場合は、バス6を介してFIFOレジスタ32にそ
の読出しデータを順次書込み、選択器33はこのレジスタ
32内のデータをFO方式に従つて取込む。 選択器33を介して得たデータは、16画素のデータであ
る。一画素nビツト構成であるから、16画素のデータと
は、16×nビツトのデータとなる。 選択器33で選択したデータはソースレジスタ(SORCE
REG)34にラツチされ、次いで、レジスタ35に送られ
る。このレジスタ34と35とで、2×16×nビツトの情報
をラツチする。 パレルシフタ36は、DDA内のSXレジスタ内の下位4ビ
ツト(16ビツトバス巾のどの位置にあたるかが示されて
いる)の内容によつて、レジスタ34,35から受けたデー
タをシフトする。その結果が、乗算器37によつて各画素
単位に明度情報のDDA内の格納値Iと乗算される。この
乗算結果は、一度、ラインデータバツフア38に格納され
る。一回に16画素分のデータを格納する。 尚、一般にFM4等はワード単位のアドレスであるた
め、ソースデータと対応するデイステイネーシヨンデー
タとの間は、αビツト(0≦α≦15,1ワード16ビツト
時)のずれを生じている。これを合わせる回路が要素3
4,35,36である。即ち、αビツトのシフトを行うのがシ
フター36であり、αシフトしても1ワードのデータが生
成できるようにソースデータを2ワード保持するのがレ
ジスタ34,35である。 一方、書込むフレームメモリアドレスは、DX,DYのDDA
31の出力50によつて与えられるため、そのアドレスが選
択器54によつて、FM4へのアドレス7−1として出力さ
れてFM4をアクセスし、このアクセスによつて読み出さ
れたデータは、バス7−2を介してデイステイネーシヨ
ンレジスタ40にセツトされる(16画素分)。 最終的な書込みデータはライトデータバツフア38とデ
イステイネーシヨンレジスタ40との内容が、演算器39に
よつて16画素同時に演算されることによつて得られる。
この結果は、バス7−2を介してFM4へ書込まれる。 以上の演算結果のFM4への書込みに関しては、基本的
にソースデータの書込みパターンはビツト境界であるの
に対し、FM4はワード単位のアクセスであるため、その
まま書込んでしまうと、元のデータをこわしてしまう。
このため、デイステイネーシヨンの元のデータを読出す
レジスタ40と、書込むべきデータ38との間をマージする
処理が必要である。このための演算器が演算器39であ
る。 尚、DDA31での処理は、前述したが、数式で示すと、
1回の指令ごとに下記の演算を実行する。 DX←DX+ΔX DY←DY+ΔY I←I+ΔI SX←SX+ΔSX SY…一定値 これによつて書込むべき次の画素のアドレスや明度情
報、書込まれるべきソース画素のアドレスを画素単位で
演算できる。 本実施例によれば、16画素まで一度に乗算を行うこと
ができるため、ソース画像とデイステイネーシヨン画像
のサイズが不変で、且つ明度情報を一定の場合は、16画
素一度に演算を実行することができ、更に高速化も達成
できる。 尚、16画素とは一例であり、8画素,32画素等の扱い
も可能である。 〔発明の効果〕 以上示したように、本発明によれば、濃淡情報を有す
るイメージデータを、逐次演算した明度情報によつて変
換することができるため、表示デイスプレイ上に照明度
で明度を異なつて表示する画像を作成することができ
る。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing system for displaying a grayscale image on a display, and more particularly to an image processing system for displaying an image having different brightness for each pixel due to the influence of illumination or the like. The present invention relates to an image processing system for displaying images on a display at high speed. [Prior Art] Japanese Patent Application No. 59-30278 for high-speed processing of color images
No., as disclosed in "Access Device for Image Memory", a computing unit is provided for each plane of the frame memory,
The method of processing in parallel is shown. [Problems to be Solved by the Invention] The above-mentioned prior art does not consider a wide calculation system of a grayscale image, and therefore, when performing a density conversion process of a grayscale image, the host processor (CPU) It was necessary to recalculate the image at the time, and the display could not be changed in real time. The application requirements for clarifying this problem will be described in more detail with reference to the drawings. As shown in FIG. 2, the left image data A is defined to have shading on a two-dimensional plane. When the image B is formed by performing a texture mapping process in which the image B is attached to one surface of a rectangular parallelepiped as shown on the right, a mapping is performed such that a density difference is generated between the rear and the front of the surface (or the rear and the front as viewed from the view side). Without image conversion, it doesn't look like a real event. Therefore, for example, the front is darkened and the rear is thinned. To realize this processing, for example, for a pixel mapped backward, mapping is performed by multiplying the value of each pixel of the grayscale image on the secondary plane by 0.6, and for a pixel mapped forward, 1.0
It is necessary to take the intermediate value of (0.6-1.0) times during the mapping. As a result, the rear portion becomes thinner than the original density on the two-dimensional plane. Conventionally, density conversion in such processing has been performed by a host processor, and real-time processing has not been easy. SUMMARY OF THE INVENTION It is an object of the present invention to provide an image processing system in which brightness information of each gray scale pixel is obtained as a different gray scale image on a display screen by arithmetic processing. [Means for Solving the Problems] The present invention relates to an arithmetic unit for calculating brightness information by linear interpolation, and an arithmetic unit such as a multiplier for calculating density information on the surface for each pixel according to the arithmetic result. And a container. [Operation] The linear interpolation calculation device calculates the brightness values one after another by giving a difference value for each calculation to the initial brightness value. The multiplier multiplies the brightness value obtained by this operation for each pixel of the original image. As a result, light and shade information to be displayed on the display can be obtained. Since this density information includes necessary pixels, a target image can be obtained by writing only necessary pixels in the frame memory. Embodiment FIG. 3 is a diagram showing an example of a display system according to the present invention. FIG. 1 is an embodiment diagram of a DDA circuit section which is the most characteristic of the present invention. In FIG. 3, a CPU 1 is a hoft processor, and instructs a display control processor 2 to convert an image or draw a graphic via a bus 5. The display control processor 2 divides the contents instructed via the bus 5 into units which can be processed by the DDA circuit unit 3, and
Command to the DDA circuit unit 3 via. The DDA circuit unit 3 calculates the gray value of each pixel, and
To the frame memory (FM) 4 via The contents of FM4 are always refreshed on the display (not shown). Therefore, the operator can always see the created image in real time. The above processing example of FIG. 3 will be briefly described based on the graphic example of FIG. FIG. 4 shows an example of converting the left A figure into the right B figure. The A figure is a two-dimensional figure and the B figure is a three-dimensional figure, and a process of attaching the A figure to one side of the B figure is performed. In this process, first, the CPU 1 instructs a mapping process on the left A image so as to constitute a part of the B graphic as shown on the right. This instruction is sent to the display control processor 2 via the bus 5. The display control processor 2 raster scans the image A. For each raster scanning line, as shown by the scanning line 1 in FIG. 4, a starting point (SX, SY) of the scanning line 1 is designated, and a destination corresponding to the starting point (SX, SY) is designated. (DX, DY) and brightness information I (0 ≦ I ≦ 1)
And the displacement ΔSX, Δ from the next point of SX, DX, DY, I
X, ΔY, ΔI are indicated. Here, the coordinates (DX, DY) of the destination are the corresponding values of the coordinates of the A figure on the B figure, and the point next to SX, DX, DY, I is the horizontal direction on the scanning line l. The next scan point in the (X direction) (for example, if the start point is the current scan point, the scan point is the next scan point after the start point. Generally, the scan pitch in the X direction is constant). The reason why ΔSX and ΔSY are unnecessary is that there is no change in the Y coordinate for one scanning line l. DX and DY exist because the scanning line l becomes a straight line r on the B figure. On the straight line r, not only the value of X but also the value of Y changes. The end point a is a1 and the start point b is b1. Further, the scanning line 1 changes from the upper part of the figure to the lower part of the figure with a constant Y coordinate displacement. The number is predetermined. The display control processor 2 stores the above data SX, SY, I, D
X, DY, ΔSX, ΔX, ΔX, ΔI are sent by the DDA circuit unit 3. The DDA circuit unit 3 calculates the coordinates and the density on the straight line r for each pixel based on these data. When the coordinates and density thus obtained are stored in the frame memory 4 and then displayed, a figure is obtained in a state of being attached to one side on the figure B in FIG. The embodiment of FIG. 1 will be described. DDA31: This DDA31 used a symmetric DDA. Symmetric D
FIG. 5 shows a functional diagram of the DA. Small values Δ are added one after another starting from a certain numerical value, and the integer part is output one after another for each added value. This output integer value is a converted value from the start point to the end point. FIG. 5 shows the function. A small value Δ is added to the decimal part and embedded in place of the previous decimal value. The integer value at that time is output for each embedding. still,
There are cases where the integer part is updated by embedding and cases where it is not updated. The case of being updated means that the decimal part
Is obtained as the result of adding
The case where it is not updated is a case where it does not reach an integer value of 1 even if Δ is added to the decimal part. The former is an example in which the carrier is generated, and the latter is an example in which the carrier is not generated. Here, the starting point refers to each value of SX, DX, DY, I, and the minute value Δ refers to each value of ΔSX, ΔX, ΔY, ΔI. For SY, there is no change for one arbitrary scan line l, Δ = 0, and the above operation is unnecessary. SX, DX,
The processing in FIG. 5 is individually performed on the five data of DY and I, and the data update to the end point is individually performed on each of the five data. Register 32: n plane registers 321, 322 to 32n
Consisting of Each of the registers 321 to 32n is a FIFO type register. Each of the registers 321 to 32n has a capacity of 16 bits × m. Here, n is the number of bits forming one pixel,
16 bits is the number of bits transmitted at one time, and m
Is the number of individual registers as FIFO. Therefore, m
Is a value that determines the capacity as a FIFO register. n is
There are many examples of taking 4, 8, or 16, etc. The greater the number n, the greater the number of gradations. 8 bits instead of 16 bits
Some examples are 32-bit. Image data is input to the register 32 via the bus 6. The selector 33 is composed of n selectors 331 to 33n. The selector 33 controls the output of the register 32 or the frame memory (FM) 4
Select one of the read data from. This selection is performed by a selection signal. This selection signal is (SX, SY)
Select the FO output of the register 32 when the address indicates the address of the main memory, and select the output of the frame memory (via the bus 7-2) when the address of (SX, SY) indicates the address of the frame memory. FM DATA). The selectors 331 to 33n of the selector 33
~ 32n. The selectors 331 to 33n are connected to the bus 7-2.
Corresponding to 16 × n of FM DATA output from. Source registers 34, 35 ... n registers 341 each
~ 34n and 351-35n. These two source registers 3
Reference numerals 4 and 35 are for 32 pixels, and perform buffering of 16 pixels each. The reason why the number of pixels is 32 is to generate data shifted by 16 pixels. So first register 34
Then, the data is sent to the register 35 for latching, and the register 34 is operated to latch new data. Parel shifter 36… n parallel shifters 361 to 36n
Consisting of The barrel shifter 36 has a function of shifting a plurality of bits at a time. Multiplier 37 is composed of 16 multipliers 371 to 37-16. Each of the multipliers 371 to 37-16 corresponds to one pixel.
The multiplication is performed between the information I and each pixel data. Write data buffer 38... N buffers 381 to 38n
Consisting of This write control is performed based on the decoding result of the lower 4 bits of DX. This decoding is performed by the decoder 70. Computing unit 39... Comprising n computing units (ALU). Control circuit 71... Performs DDA control. The designation L of the number of loops in the function shown in FIG. 5 and the start command COM are set. If COM is started, the DDA operation is continued until L = 0, and if the FM is read / written by FM read / write. If there is F
Read from M or write to FM. Here, the condition of FM writing is (the integer part of DY has changed) (DY
Has exceeded the memory boundary). Further, the fact that the value of DX has crossed the memory boundary means that a carry has occurred from the lower 4 bits to the 5th bit of DX, and that a unit of 16 pixels is at the boundary of the frame memory. A destination register (DSTREG) 40 is composed of n registers 401 to 40n. In the configuration of FIG. 1, the components 32, 33, 34, 35, 36, 38,
The reason why the planes 39 and 40 are composed of n planes is that when an image is composed of n bits of one pixel, the plane of n bits can be commonly processed in plane units. Thereby, parallel processing is performed. However, with respect to the multiplier 37, a multiplier is individually provided for each pixel in order to generate a carrier propagation between planes. The operation of FIG. 1 will be described. The parameters (SX, SY, D
X, DY, I, ΔX, ΔY, ΔSX, ΔI) are set in registers in the DDA circuit 31. When a raster starting with (SX, SY) is present on the frame memory 4, the address of SX, SY is output as an address for the frame memory 4 via the bus 7-1 by the selector 54, and FM4 is output. to access. Read data from within this address from FM4 is sent via bus 7-2,
The selector 33 selects and takes in the read data on the bus 7-2. On the other hand, if the raster starting with SX, SY is in the main memory of the CPU 1, the read data is sequentially written to the FIFO register 32 via the bus 6, and the selector 33
The data in 32 is taken in according to the FO method. The data obtained via the selector 33 is data of 16 pixels. Since each pixel has an n-bit configuration, 16-pixel data is 16 × n-bit data. The data selected by the selector 33 is stored in the source register (SORCE
REG) 34 and then sent to register 35. The registers 34 and 35 latch information of 2.times.16.times.n bits. The parallel shifter 36 shifts the data received from the registers 34 and 35 in accordance with the contents of the lower 4 bits (indicating the position of the 16-bit bus width) in the SX register in the DDA. The result is multiplied by the multiplier 37 with the stored value I of the brightness information in the DDA for each pixel. The result of this multiplication is once stored in the line data buffer 38. Stores data for 16 pixels at a time. Generally, since FM4 and the like are addresses in word units, a shift of α bits (0 ≦ α ≦ 15, 1 word 16 bits) occurs between the source data and the corresponding destination data. . The circuit that matches this is element 3
4,35,36. That is, the shifter 36 shifts the .alpha. Bit, and the registers 34 and 35 hold two words of source data so that one word of data can be generated even when the .alpha. Bit is shifted. On the other hand, the frame memory address to be written is DX, DY DDA
31, the address is output by selector 54 as address 7-1 to FM4 to access FM4, and the data read by this access is transmitted to bus The data is set in the destination register 40 via 7-2 (16 pixels). The final write data is obtained by calculating the contents of the write data buffer 38 and the destination register 40 simultaneously by the arithmetic unit 39 for 16 pixels.
This result is written to FM4 via bus 7-2. Regarding the writing of the above operation result to FM4, the writing pattern of the source data is basically a bit boundary, whereas the writing of FM4 is performed on a word-by-word basis. I will break.
Therefore, it is necessary to perform a process of merging the register 40 for reading the original data of the destination and the data 38 to be written. An arithmetic unit for this is the arithmetic unit 39. Note that the processing in DDA31 has been described above.
The following calculation is executed for each command. DX ← DX + ΔX DY ← DY + ΔY I ← I + ΔI SX ← SX + ΔSX SY ... Constant value By this, the address and brightness information of the next pixel to be written and the address of the source pixel to be written can be calculated in pixel units. According to the present embodiment, since multiplication can be performed up to 16 pixels at a time, when the size of the source image and the destination image is unchanged and the brightness information is constant, the calculation is performed at a time of 16 pixels. And speeding up can be achieved. Note that 16 pixels are merely an example, and that 8 pixels, 32 pixels, and the like can be handled. [Effects of the Invention] As described above, according to the present invention, image data having grayscale information can be converted by sequentially calculated brightness information, so that the brightness varies with the brightness on the display display. Image to be displayed.

【図面の簡単な説明】 第1図は、本発明の一実施例図、第2図は従来での図形
変換処理例図、第3図は、本発明の全体構成例図、第4
図は本発明の図形変換処理例図、 第5図はDDAでの処理例図である。 31……DDA、36……パレルシフター、37……乗算器。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram of an embodiment of the present invention, FIG. 2 is a diagram of an example of a conventional graphic conversion process, FIG.
FIG. 5 is a diagram showing an example of a graphic conversion process according to the present invention, and FIG. 31 ... DDA, 36 ... Parallel shifter, 37 ... Multiplier.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 加藤 猛 日立市大みか町5丁目2番1号 株式会 社日立製作所大みか工場内 (56)参考文献 特開 昭61−237171(JP,A) 特開 昭61−90275(JP,A) 特開 昭60−250479(JP,A) 松代ほか”三次元色彩図形表示処理専 用プロセッサHPRG”,グラフィック スとCADシンポジウム論文集,社団法 人情報処理学会,昭和59年12月7日,P 73〜80 (58)調査した分野(Int.Cl.6,DB名) G06T 15/50 JICST──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Takeshi Kato 5-2-1 Omikacho, Hitachi City Inside the Omika Plant, Hitachi, Ltd. (56) References JP-A-61-237171 (JP, A) Sho 61-90275 (JP, A) JP-A Sho 60-250479 (JP, A) Matsushiro et al. "Processor dedicated to 3D color graphic display processing HPRG", Proceedings of Graphics and CAD Symposium, Japan Society for Information Processing, December 7, 1984, pp. 73-80 (58) Fields investigated (Int. Cl. 6 , DB name) G06T 15/50 JICST

Claims (1)

(57)【特許請求の範囲】 1.二次元画像を三次元図形用に変換して該三次元図形
の表面のうち指示された部分領域に表示する画像処理シ
ステムにおいて、複数の乗算器により前記二次元画像を
保持するメモリから読み出された該二次元画像の濃淡情
報と各画素毎の明度情報から前記三次元図形用に変換し
た濃淡画像情報を求め該濃淡画像情報を前記メモリに書
き込み前記三次元図形の前記部分領域に表示させる画像
変換手段を備えることを特徴とする画像処理システム。 2.特許請求の範囲第1項において、前記乗算器1は1
画素単位に設けられ並列処理する構成としたことを特徴
とする画像処理システム。 3.二次元画像を三次元図形用に変換して該三次元図形
の表面のうち指示された部分領域に表示する画像処理シ
ステムにおいて、二次元画像を三次元図形用に変換して
三次元図形表面の前記部分領域に表示する命令を発行す
るCPUと、該CPUの命令を受け複数の乗算器により前記二
次元画像を保持するメモリから読み出した該二次元画像
の濃淡情報と各画素毎の明度情報から前記三次元図形用
に変換した濃淡画像情報を求め該濃淡画像情報を前記メ
モリに書き込み前記三次元図形の前記部分領域に表示さ
せる画像変換手段とを備えることを特徴とする画像処理
システム。 4.二次元画像を三次元図形用に変換して該三次元図形
の表面のうち指示された部分領域に表示する画像処理シ
ステムにおいて、二次元画像を三次元図形用に変換して
三次元図形表面の前記部分領域に表示する命令を発行す
るCPUと、該CPUの命令を受け複数の乗算器により前記二
次元画像を保持するメモリから読み出した該二次元画像
の濃淡情報と各画素毎の明度情報から前記三次元図形用
に変換した濃淡画像情報を求め該濃淡画像情報を前記メ
モリに書き込む画像変換手段と、該画像変換手段により
前記メモリに書き込まれた前記濃淡画像情報を前記三次
元図形の前記部分領域に表示する表示手段とを備えるこ
とを特徴とする画像処理システム。 5.二次元画像を三次元図形用に変換して該三次元図形
の表面のうち指示された部分領域に表示する画像処理シ
ステムにおいて、二次元画像を三次元図形用に変換して
三次元図形表面の前記部分領域に表示する命令を発行す
るCPUと、該CPUの命令を受け複数の乗算器により前記二
次元画像を保持する第1のメモリから読み出された該二
次元画像の濃淡情報と各画素毎の明度情報から前記三次
元図形用に変換した濃淡画像情報を求め該濃淡画像情報
を第2のメモリに書き込み前記三次元図形の前記部分領
域に表示させる画像変換手段とを備えることを特徴とす
る画像処理システム。 6.二次元画像を三次元図形用に変換して該三次元図形
の表面のうち指示された部分領域に表示する画像処理シ
ステムにおいて、二次元画像を三次元図形用に変換して
三次元図形表面の前記部分領域に表示するための情報を
出力するCPUと、複数の乗算器により前記二次元画像を
保持するメモリから読み出された該二次元画像の濃淡情
報と前記CPUから出力される前記情報のうち前記三次元
図形の前記部分領域の明度情報から濃度変換画像を求
め、前記CPUから出力される前記情報のうち前記三次元
図形の前記部分領域の表面座標値から該表面座標値に対
応する前記メモリのアドレスを求め該アドレスに従って
前記濃度変換画像を前記メモリに格納し該濃度変換画像
を前記三次元図形の前記部分領域に表示させる画像変換
手段とを備えることを特徴とする画像処理システム。 7.特許請求の範囲第6項において、前記CPUから出力
される前記表面座標値は、前記三次元図形の表面のうち
前記部分領域の端点であり、前記画像変換手段は、該端
点の座標を補間演算して前記メモリのアドレスを求める
ことを特徴とする画像処理システム。 8.特許請求の範囲第6項または第7項において、前記
CPUから出力される前記明度情報は、前記三次元図形の
表面のうち前記部分領域の端点の明度情報であり、前記
画像変換手段は、該端点の明度情報を補間演算して前記
二次元画像の全画素の濃度変換値を求めることを特徴と
する画像処理システム。 9.二次元画像を三次元図形用に変換して該三次元図形
の表面のうち指示された部分領域に表示する画像処理シ
ステムにおいて、前記変換を行う前の二次元画像を格納
する第1のメモリと、前記変換した後の変換画像を表示
画面対応のアドレスに格納して三次元図形表面の前記部
分領域に表示させる第2のメモリと、前記第1のメモリ
から読み出す前記二次元画像の読み出しアドレスと前記
第2のメモリに格納するときの前記変換画像の書き込み
アドレスとの間の変換処理を行うと共に該変換画像の濃
淡情報を複数の乗算器により求め該変換画像を前記第2
のメモリに格納する画像変換手段と、該画像変換手段に
対し前記第2のメモリの書き込みアドレスと前記明度情
報とを前記三次元図形の情報に基づき前記画像変換手段
に指示するCPUとを備えることを特徴とする画像処理シ
ステム。 10.特許請求の範囲第9項において、前記CPUが前記
画像変換手段に指示する前記書き込みアドレスは、三次
元図形表面の前記部分領域の端点の座標に対応するアド
レスであり、該画像変換手段は、該端点に対応するアド
レスを補間演算して前記書き込みアドレスを求めること
を特徴とする画像処理システム。 11.特許請求の範囲第9項または第10項において、前
記CPUが前記画像変換手段に指示する前記明度情報は、
三次元図形表面の前記部分領域の端点の明度情報であ
り、該画像変換手段は、該端点の明度情報を補間演算し
て前記変換画像の全画素の濃度変換値を求めることを特
徴とする画像処理システム。
(57) [Claims] In an image processing system for converting a two-dimensional image into a three-dimensional figure and displaying the two-dimensional image in a designated partial area on the surface of the three-dimensional figure, a plurality of multipliers read out the two-dimensional image from a memory holding the two-dimensional image. The image to be obtained is obtained from the density information of the two-dimensional image and the brightness information of each pixel, the density image information converted for the three-dimensional figure is written in the memory, and is displayed in the partial area of the three-dimensional figure. An image processing system comprising a conversion unit. 2. 2. The method according to claim 1, wherein the multiplier 1 is 1
An image processing system, wherein the image processing system is provided for each pixel and performs parallel processing. 3. In an image processing system that converts a two-dimensional image into a three-dimensional figure and displays the three-dimensional figure on a designated partial area of the surface, the two-dimensional image is converted into a three-dimensional figure and A CPU that issues an instruction to display the partial area, and a plurality of multipliers that receive the instruction from the CPU and read out the density information of the two-dimensional image read from the memory that holds the two-dimensional image and the brightness information of each pixel. An image processing system comprising: image conversion means for obtaining grayscale image information converted for the three-dimensional figure, writing the grayscale image information in the memory, and displaying the grayscale image information in the partial region of the three-dimensional figure. 4. In an image processing system that converts a two-dimensional image into a three-dimensional figure and displays the three-dimensional figure on a designated partial area of the surface, the two-dimensional image is converted into a three-dimensional figure and A CPU that issues an instruction to display the partial area, and a plurality of multipliers that receive the instruction from the CPU and read out the density information of the two-dimensional image read from the memory that holds the two-dimensional image and the brightness information of each pixel. Image conversion means for obtaining grayscale image information converted for the three-dimensional figure and writing the grayscale image information to the memory; and the part of the three-dimensional graphic by converting the grayscale image information written to the memory by the image conversion means. An image processing system, comprising: display means for displaying in an area. 5. In an image processing system that converts a two-dimensional image into a three-dimensional figure and displays the three-dimensional figure on a designated partial area of the surface, the two-dimensional image is converted into a three-dimensional figure and A CPU for issuing an instruction to display the partial area, density information of the two-dimensional image read from a first memory holding the two-dimensional image by a plurality of multipliers receiving the instruction from the CPU, and each pixel Image conversion means for obtaining grayscale image information converted for the three-dimensional figure from each brightness information, writing the grayscale image information in a second memory, and displaying the grayscale image information in the partial area of the three-dimensional figure. Image processing system. 6. In an image processing system that converts a two-dimensional image into a three-dimensional figure and displays the three-dimensional figure on a designated partial area of the surface, the two-dimensional image is converted into a three-dimensional figure and A CPU that outputs information to be displayed in the partial area; and a density information of the two-dimensional image read from a memory that holds the two-dimensional image by a plurality of multipliers, and the information output from the CPU. A density conversion image is obtained from the brightness information of the partial area of the three-dimensional graphic, and the information output from the CPU corresponds to the surface coordinate value of the partial area of the three-dimensional graphic. Image conversion means for obtaining an address of a memory, storing the density-converted image in the memory in accordance with the address, and displaying the density-converted image in the partial area of the three-dimensional figure. Image processing system. 7. 7. The surface coordinate value output from the CPU according to claim 6, wherein the surface coordinate value is an end point of the partial area on the surface of the three-dimensional figure, and the image conversion unit performs an interpolation operation on the coordinates of the end point. An image processing system for obtaining an address of the memory. 8. In Claim 6 or 7,
The brightness information output from the CPU is brightness information of an end point of the partial area on the surface of the three-dimensional figure, and the image conversion unit performs an interpolation operation on the brightness information of the end point to calculate the two-dimensional image. An image processing system for determining a density conversion value of all pixels. 9. An image processing system that converts a two-dimensional image into a three-dimensional figure and displays the two-dimensional image in a designated partial area on the surface of the three-dimensional figure; a first memory that stores the two-dimensional image before the conversion; A second memory for storing the converted image at an address corresponding to a display screen and displaying the converted image on the partial area of the surface of the three-dimensional graphic, and a read address of the two-dimensional image read from the first memory; A conversion process is performed between the converted image and the write address of the converted image when the converted image is stored in the second memory.
And a CPU for instructing the image conversion means on the image conversion means based on the information of the three-dimensional figure, the write address of the second memory and the brightness information for the image conversion means. An image processing system characterized by the following. 10. In claim 9, the write address specified by the CPU to the image conversion means is an address corresponding to a coordinate of an end point of the partial area on the surface of a three-dimensional figure, and the image conversion means includes An image processing system, wherein an interpolation operation is performed on an address corresponding to an end point to obtain the write address. 11. In claim 9 or claim 10, the brightness information instructed by the CPU to the image conversion means,
The image information is brightness information of an end point of the partial area on the surface of the three-dimensional figure, and the image conversion means obtains a density conversion value of all pixels of the converted image by performing an interpolation operation on the brightness information of the end point. Processing system.
JP62042963A 1987-02-27 1987-02-27 Image processing system Expired - Fee Related JP2766478B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP62042963A JP2766478B2 (en) 1987-02-27 1987-02-27 Image processing system
US07/634,818 US5371839A (en) 1987-02-27 1991-01-02 Rendering processor
US08/715,472 US6088037A (en) 1987-02-27 1996-09-18 Rendering processor
US09/584,498 US6292196B1 (en) 1987-02-27 2000-06-01 Rendering processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62042963A JP2766478B2 (en) 1987-02-27 1987-02-27 Image processing system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP34515297A Division JP3159431B2 (en) 1987-02-27 1997-12-15 Image processing system

Publications (2)

Publication Number Publication Date
JPS63211075A JPS63211075A (en) 1988-09-01
JP2766478B2 true JP2766478B2 (en) 1998-06-18

Family

ID=12650688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62042963A Expired - Fee Related JP2766478B2 (en) 1987-02-27 1987-02-27 Image processing system

Country Status (1)

Country Link
JP (1) JP2766478B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05298456A (en) * 1992-04-22 1993-11-12 Mitsubishi Electric Corp Texture mapping system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60125682U (en) * 1984-02-01 1985-08-24 日立電子株式会社 Line memory for graphic display
JPH0234068B2 (en) * 1984-05-25 1990-08-01 Hitachi Ltd MENNOTEKUSUCHAHYOJIHOSHIKI
JPS60256880A (en) * 1984-06-04 1985-12-18 Yokogawa Hokushin Electric Corp Display device of 3-dimensional pattern
JPS6190275A (en) * 1984-10-09 1986-05-08 Sharp Corp Image processing device
JPS61237171A (en) * 1985-04-12 1986-10-22 Sony Corp Image converter

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
松代ほか"三次元色彩図形表示処理専用プロセッサHPRG",グラフィックスとCADシンポジウム論文集,社団法人情報処理学会,昭和59年12月7日,P73〜80

Also Published As

Publication number Publication date
JPS63211075A (en) 1988-09-01

Similar Documents

Publication Publication Date Title
KR950012931B1 (en) Graphic display device
US6417858B1 (en) Processor for geometry transformations and lighting calculations
US5586234A (en) Parallel processing three-dimensional drawing apparatus for simultaneously mapping a plurality of texture patterns
US5469535A (en) Three-dimensional, texture mapping display system
JPH09223244A (en) Method and device for rendering three-dimensional object at a high speed
JPH05307610A (en) Texture mapping method and its device
JPH0916806A (en) Stereoscopic image processor
US5029225A (en) Texture mapping apparatus
KR910009102B1 (en) Image synthesizing apparatus
US4970499A (en) Apparatus and method for performing depth buffering in a three dimensional display
US6219062B1 (en) Three-dimensional graphic display device
JPH06236176A (en) Method and apparatus for giving of tranaparency to raster image
EP0658858A2 (en) Graphics computer
JP2766478B2 (en) Image processing system
US5418901A (en) Shading method and shading apparatus for computer graphics
EP0974935B1 (en) Spotlight characteristic forming method and image processor using the same
US4945497A (en) Method and apparatus for translating rectilinear information into scan line information for display by a computer system
US6847378B2 (en) System and method for performing scale and bias operations by preclamping input image data
JP3159431B2 (en) Image processing system
US6677950B1 (en) Graphics computer
US8576219B2 (en) Linear interpolation of triangles using digital differential analysis
JPH05298456A (en) Texture mapping system
JP3358891B2 (en) Z-value perspective transformation processing method and image processing apparatus
KR19980041754A (en) Method and apparatus for determining texture coordinates in computer graphics
KR100245820B1 (en) Floating point comparision circuit that supports z-buffering

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees