JPH0542703B2 - - Google Patents

Info

Publication number
JPH0542703B2
JPH0542703B2 JP28081884A JP28081884A JPH0542703B2 JP H0542703 B2 JPH0542703 B2 JP H0542703B2 JP 28081884 A JP28081884 A JP 28081884A JP 28081884 A JP28081884 A JP 28081884A JP H0542703 B2 JPH0542703 B2 JP H0542703B2
Authority
JP
Japan
Prior art keywords
data
memory
system bus
processor
data processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP28081884A
Other languages
Japanese (ja)
Other versions
JPS61150060A (en
Inventor
Yoshio Kitamura
Hiroshi Takizuka
Tadao Ishihara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28081884A priority Critical patent/JPS61150060A/en
Priority to CA000497467A priority patent/CA1254662A/en
Publication of JPS61150060A publication Critical patent/JPS61150060A/en
Publication of JPH0542703B2 publication Critical patent/JPH0542703B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Advance Control (AREA)
  • Multi Processors (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】[Detailed description of the invention]

〔産業上の利用分野〕 本発明はデータ処理装置に関し、例えば文書、
図面等のように、画と、文字等のキヤラクタとを
含んで構成された画像を表すデイジタルデータで
なる情報(以下これを画像情報と呼ぶ)を処理す
る場合に適用して好適なものである。 〔従来の技術〕 この種の画像情報を対象とするデータ処理装置
の適用範囲は拡大しつつあり、文書作成、電子フ
アイル、相互通信等を一連のシステムとして簡易
かつ安価に構築できれば、オフイスオートメーシ
ヨン(Office Automation)、フイウチヤーオブ
ザオフイス(Future of the office)、ペーパー
レスオフイス(paperless office)などの分野に
おける一般事務処理業務に有用なデータ処理装置
を提供し得ると考えられる。 ところがこの種の画像情報は、所定のコードに
コード化された一般のデータを処理する場合(例
えば数値演算、データプロセツシング、ワードプ
ロセツシング等の場合)と比較して、約100倍程
度以上の大量な情報量を有する。従つて画像情報
をデイジタル処理する際には、一般データを処理
する場合と比較して100倍以上のスループツトを
もつ機械を使用する必要がある。そのため従来
は、大量にデータ処理をなし得るように特殊仕様
によつて設計した専用のプロセツサ、専用のハー
ドウエアロジツク、または大型電子計算機を用い
ると共に、データを圧縮して処理量を低減させる
ことにより機械の負担を軽減させるような方法が
採用されている。 〔発明が解決しようとする問題点〕 ところがこの従来の方法を用いる場合には、デ
ータ処理装置全体としての構成が大型複雑になる
ことを避け得ず、しかも特殊設計の高価な装置を
用いなければならない問題がある。 かかる問題点を解決するためには、画像情報を
汎用装置として入手できるパーソナルコンピユー
タ、ミニコンピユータ、オフイスコンピユータな
どを用いて処理することが考えられるが、これら
の汎用装置は大量なデータを処理できるようには
構成されてはおらず、その処理速度は遅く、また
単独で多様な仕事を実行できるような処理能力を
もつていないため、単にこれらの汎用装置の機能
をそのまま用いても、大量なデータを短時間の間
に処理することはできない。 本発明は以上の点を考慮してなされたもので、
画像情報を処理するにつき、それ自体処理速度、
処理能力が低い汎用のマイクロプロセツサ、メモ
リ等のデバイスを多数個用いてシステムバスを介
して互いに結合すると共に、各デバイスにおける
データの処理を同時並列的に実行するような仲裁
機能をもたせるようにすることにより、実用上十
分な実行処理速度を有するデータ処理装置を提案
しようとするものである。 〔問題点を解決するための手段〕 かかる問題点を解決するため本発明において
は、データを入力するデータ入力手段9B,9
C,7Fと、入力されたデータ又は処理されたデ
ータを表示する表示手段9J,9Kと、入力され
たデータ又は処理されたデータを蓄積するフアイ
ル蓄積手段5と、これらの各手段とシステムバス
1を介して結合された共有記憶手段2とを少なく
とも有し、データ入力手段9B,9C,7Fによ
つて指定されたデータ処理を実行するデータ処理
装置において、データ処理についての仕事を複数
のサブシステム5〜12に分担させ、各サブシス
テム5〜12はシステムバス1にそれぞれ結合さ
れたプロセツサP0〜P7を用いてそれぞれ分担
した仕事を実行するようになされ、また共有記憶
手段2をそれぞれシステムバス1に結合された複
数のメモリバンクMB0〜MB7によつて構成
し、各サブシステム5〜12のプロセツサP0〜
P7がメモリバンクMB0〜MB7の1つを指定
してシステムバス1を通じてデータの送受をすべ
きことを内容とするメモリ要求を出したとき、仲
裁装置部16によつて、それぞれ指定されたメモ
リバンクの占有を許すイネーブル信号を発生する
ように仲裁装置部16は、プロセツサP0〜P7
及びメモリバンクMB0〜MB7間に送受される
データを所定データ量の区分データに区分し、複
数のプロセツサP0〜P7から同時に出されたメ
モリ要求についてのデータの処理を、システムバ
ス1のバスクロツクと同期しながら、区分データ
ごとに順次同時並列的に実行するようにする。 これに加えて、仲裁装置部16は、プロセツサ
P0〜P7及びメモリバンクMB0〜MB7間に
送受されるデータを所定データ量の区分データに
区分すると共に、複数のメモリバンクに対してそ
れぞれバスクロツクBCLKと同期するように形成
されたタイムスロツトを割当て、区分データを構
成する単位処理データを、メモリ要求によつて指
定されたメモリバンクに割当てられたタイムスロ
ツトのタイミングで、システムバス1を介して転
送することにより、同時並列的なデータ処理を実
現する。 〔作 用〕 データ処理装置は、各プロセツサからのメモリ
要求に基づいてそれぞれ処理すべきデータを所定
データ量の区分データに区分して、この区分デー
タごとに各メモリ要求に対応するデータの処理を
システムバスのバスクロツクに同期しながら同時
並列的に実行して行く。 このようにすれば、各プロセツサのメモリ要求
が順次シーケンシヤルに発生する場合に、各メモ
リ要求に対する全部のデータを一挙に処理せずに
区分データごとに処理できることにより、区分デ
ータについて順次同時並列的データ処理を実行で
きることになる。その結果全部のメモリ要求に対
応するデータ処理のうちの大部分を、同時に出さ
れた複数のメモリ要求についての区分データの処
理を同時に実行している時間TZ0(第3図)の
間に処理できることにより、全体としての処理時
間を格段的に短縮することができる。 従つてプロセツサ及びメモリバンクとしてスル
ープツトが小さい汎用のデバイスを用いたとして
も、実用上十分に速い実行処理時間で全部のデー
タの処理を実行できる。従つて画像データのよう
に、コード化されていないデータを含むデータを
処理するにつき、汎用のデバイスを複数個用いる
ことによつて、例えば専用の計算機を用いたと同
程度のスループツトをもつデータ処理装置を容易
に構築することができる。 かくするにつき特に本発明においては、複数の
メモリバンクMB0〜MB7に対するメモリ要求
を、各メモリバンクに対してバスクロツクと同期
するように形成されたタイムスロツトを割当て、
プロセツサとメモリバンクとの間にデータを転送
する際には、メモリ要求を出したメモリバンクに
割当てられたタイムスロツトのタイミングで、シ
ステムバスを用いてデータを転送するようにした
ことにより、同時に出された各メモリ要求に基づ
いてシステムバスの占有要求を効果的に仲裁し
得、かくして競合するデータの処理を確実に同時
並列処理することができる。 〔実施例〕 以下図面について本発明の一実施例を詳述す
る。 (全体の構成) データ処理装置は第1図に示すように、順次シ
ーケンシヤルに実行すべき一連のデータ処理ステ
ツプについての仕事をそれぞれ分担する8つのサ
ブシステムに結合されるシステムバス1を有し、
各サブシステムによつて共有される共有記憶装置
2に結合されている。 共有記憶装置2は、バス及びメモリコントロー
ラ(MBC)を搭載してなるボード2Aと、それ
ぞれ2〔mega byte〕(以下〔MB〕と表す)の記
憶容量を有するRAMを搭載してなる2枚のボー
ド2B及び2Cとを有し、バス及びメモリコント
ローラ(MBC)はシステムバス1を介して各サ
ブシステムからメモリ要求が到来したとき、対応
するデータをローカルバス2Dを通じてボード2
B及び2CのRAMから読出し、又は書込むよう
になされている。その際に特に、各サブシステム
からのメモリ要求が競合したとき、バス及びメモ
リコントローラ(MBC)は、この競合関係を仲
裁し、かくして同時並列的にデータを処理するこ
とができるようにすることにより、短時間の間に
全てのサブシステムの要求に応答する機能を有す
る。 システムバス1は、各サブシステムに設けられ
たプロセツサ(CPU)P0〜P7に接続され、
各プロセツサP0〜P7は共有記憶装置2のバス
及びメモリコントローラ(MBC)との間に、信
号及びデータの受け渡しをするために、全てのプ
ロセツサP0〜P7に共用される。 第1のサブシステムにはフアイル蓄積装置
(STS)5が割当てられ、2〔MB/sec〕のデー
タ処理速度を有するプロセツサP0がシステムバ
ス1に接続されている。プロセツサP0はボード
5Aに搭載され、データ処理装置のデータをフア
イリングするための蓄積装置を構成するDRAW
(Direct Read after Write)5B及びTDD
(Hard Disk Drive)5Cにフアイルデータを蓄
積し、又は読出し得るようになされている。この
実施例の場合、ボード5A上にDRAW5Bに対
するインターフエイス(DRAW I/F)が設け
られており、またHDD5Cに対するインターフ
エイス(HDD I/F)を搭載するボード5Dが
ローカルバス5Eを通じてプロセツサP0に結合
されている。 かくして、プロセツサP0は、共有記憶装置2
のデータをシステムバス1を用いてHDD5C又
はDRAW5Bに蓄積し、またHDD5C又は
DRAW5Bのデータをシステムバス1を用いて
共有記憶装置2に転送する。 また第2のサブシステムにはデータ伝送装置
(NTS)6が割当てられ、システムバス1に2
〔MB/sec〕のデータ処理速度を有するプロセツ
サP1が接続されている。プロセツサP1は伝送
コントロール回路(Ethernet Controller)と共
にボード6A上に搭載され、システムバス1から
伝送装置6Bを介して同軸ケーブルでなる伝送路
6Cに対してデータを送出すると共に、伝送路6
Cを介して到来するデータをシステムバス1側に
取込むことができるようになされている。 かくしてプロセツサP1によつて、共有記憶装
置2のデータをシステムバス1を用いて伝送装置
6Bに送出し、又は伝送装置6Bを介して外部か
ら到来するデータをシステムバス1を用いて共有
記憶装置2に取込む。その結果データ処理装置を
外部装置に結合することにより、さらに規模の大
きいデータ処理システムを構築できるようになさ
れている。 第3のサブシステムには画像読取プリント装置
(IDS)7が割当てられ、システムバス1に2
〔MB/sec〕の処理速度を有するプロセツサP2
が接続される。プロセツサP2は画像入出力コン
トローラ(ImageI/O Controller)と共にボ
ード7Aに搭載され、この画像入出力コントロー
ラの制御の下に、ローカルバス7Bを介し、さら
にそれぞれ画像プリンタインターフエイス(IP
I/F)のボード7C及び画像リーダインターフ
エイス(IR I/F)のボード7Dをそれぞれ介
して画像プリンタ(IP)7E及び画像リーダ
(IR)7Fに結合されている。かくしてプロセツ
サP2は画像リーダ7Fによつて読取つた画像デ
ータをシステムバス1を用いて共有記憶装置2に
取込み、また共有記憶装置2のデータをシステム
バス1を介して画像プリンタ7Eにおいてプリン
トするようになされている。 第4のサブシステムには画像情報圧縮伸長装置
(CDS)8が割当てられ、2〔MB/sec〕のデー
タ処理速度を有するプロセツサP3がシステムバ
ス1に接続されている。プロセツサP3は圧縮伸
長コントローラ(Compress/Decompress
controller)と共にボード8Aに搭載され、共有
記憶装置2のデータをシステムバス1を用いて読
取り、このデータをローカルバス8Bを通じてそ
れぞれ圧縮処理回路(COMP)のボード8C、
又は伸長処理回路(DECOMP)のボード8Dに
転送すると共に、圧縮又は伸長処理されたデータ
をシステムバス1を用いて共有記憶装置2に送出
する。 画像情報圧縮伸長装置8はフアイル蓄積装置5
のHDD5C又はDRAW5Bに蓄積すべきデータ
を例えばMH方式(Modified Huffman)又は
MR方式(Modified READ)によつて予め圧縮
処理することにより蓄積データ量を拡大できるよ
うにし、またHDD5C又はDRAW5Bから読出
された圧縮されたデータを伸長して表示、プリン
ト、伝送処理できるようにする。 第5のサブシステムには操作表示装置(DPS)
9が割当てられ、2.5〔MB/sec〕のデータ処理速
度を有するプロセツサP4がシステムバス1に接
続されている。プロセツサP4が搭載されている
ボード9Aには、プロセツサP4が読込んだ画像
データを映像表示信号に変換処理する際に用いる
処理プログラム及びデータを記憶するROM及び
RAMが搭載される。 また操作表示装置9は操作入力手段としてキー
ボード9B及びマウス9Cを有し、このキーボー
ド9B及びマウス9Cのデータをボード9Aに搭
載されているシリアル入力回路(S I/O)を
通じてプロセツサP4に入出力し得るようになさ
れている。 ここでキーボード9B及びマウス9Cから入力
されるデータはそれぞれ所定のフオーマツトを有
するコード化されたデータでなり、プロセツサP
4はこの入力データ(例えば文字、記号等でなる
キヤラクタデータ又はコマンドデータ)をシステ
ムバス1を用いて共有記憶装置2に転送し得る。 これに対してプロセツサP4は、画像データ
(すなわち画、キヤラクタ、又は画及びキヤラク
タの混合を表すデータでなる)を表示する場合に
は、これらのデータをローカルバス9Dを通じて
ボード9EのビツトマツプコントローラBMCに
コマンド及びデータとして与える。ここで、プロ
セツサP4は、コード化されたキヤラクタデータ
についてはこれをコマンドとしてビツトマツプコ
ントローラ(BMC)に転送して対応するフオン
トデータに変換した後、ローカルバス9Fを介し
てビデオメモリ(VRAM)のボード9G及び9
Hに転送して2次元の画面メモリ上に展開する。 一方画像データ7Fにおいて発生される画像デ
ータは、画素の白黒をそのまま表すコード化され
ていないデータでなり、これを表示するときプロ
セツサP4は、コード化されているキヤラクタデ
ータに対して行つたような変換はせずに、そのま
ま2次元の画面メモリ上に展開する。 このようにしてVRAM上に展開された画像デ
ータは、ボード9Iに搭載されたタイミング回路
(TIM)によつてローカルバス9Fを介して読出
されて例えば陰極線管(CRT)でなるデイスプ
レイ9J及び9K上に表示される。 以上の機能に加えてプロセツサP4は、システ
ムバス1を介して共有記憶装置2から画像データ
を読出して1枚の画面に組立て編集し、また1枚
の画面上にキーボード9Bから入力されたキヤラ
クタを挿入する機能をもつ。プロセツサP4は、
この組立編集の際の処理データをCRT9J,9
K上に表示し、また組立編集が終わつたデータを
システムバス1を介して共有記憶装置2に転送す
る。 かくして操作表示装置9は、フアイル蓄積装置
5から共有記憶装置2に読出された画像データを
用いて、操作入力手段としてのキーボード9B及
びマウス9Cの操作に応じて1枚の画面に組立編
集してデイスプレイ9J又は9Kに表示すると共
に、システムバス1を用いて共有記憶装置2に転
送する。このデータはフアイル蓄積装置5に蓄積
され、又は画像読取プリント装置7の画像プリン
タ7Eによつてプリントされ、又はデータ伝送装
置6から外部へ伝送される。 第6のサブシステムには主制御装置(PCS)1
0が割当てられ、2.5〔MB/sec〕のデータ処理速
度を有するプロセツサP5がシステムバス1に接
続されている。プロセツサP5が搭載されている
ボード10Aはローカルバス10Bを介してボー
ド10CのRAM及びボード10Dの入力装置
I/Oが結合され、フロツピデイスクドライブ
(FDD)からI/Oを介してローカルメモリとし
てのRAMに書込まれたシステム動作プログラム
(オペレーテイングシステム、アプリケーシヨン
プログラム等)によつて、システムバス1に結合
されている各サブシステム及び共有記憶装置2を
全体として制御する。かかる制御のためのインタ
ーラプト、アテンシヨン信号は制御信号ライン3
を介して主制御装置10及び全てのサブシステム
間に送受される。 またプロセツサP5は、ボード10CのRAM
に入力されたプログラムによつて画像プリンタ7
Eにおいてプリントする画像データの組立処理を
実行する。 第7及び第8のサブシステムには予備装置11
及び12が割当てられる(そのプロセツサをP6
及びP7で表す)。これにより新たな機能を追加
できるようになされている。 第1図の構成において、オペレータは操作表示
装置9のキーボード9B、マウス9Cを用いてモ
ードを指定するコマンド、及び文字、記号等のキ
ヤラクタデータを入力し得ると共に、画及びキヤ
ラクタを含んでなる画像データを画像読取プリン
ト装置7の画像リーダ7Fを用いて入力し得る。
ここでキーボード9B及びマウス9Cから入力さ
れるデータは転送、処理し易い所定のコードを有
するデータとして得られ、従つて比較的少ないデ
ータ量でキヤラクタデータの入力をし得る。これ
に対して画像読取プリント装置9の画像リーダ7
Fから入力される画像データは、各画素の白黒を
バイナリーコードで表すデータで構成されている
ので、データ量が格段的に大きくなる。 キーボード9B又はマウス9Cから入力された
データは、操作表示装置9のプロセツサP4から
システムバス1を用いて共有記憶装置2の一旦書
込まれた後、再度システムバス1を通じて画像情
報圧縮伸長装置8に転送されてデータの圧縮処理
をする。かくして処理されたデータは再度システ
ムバス1を用いて共有記憶装置2に転送される。
その後このデータは再度システムバス1を用いて
フアイル蓄積装置5に転送され、外部記憶装置と
してのHDD5C又はDRAW5Bに蓄積される。 同様にして画像読取プリント装置7から入力さ
れた画像データは、システムバス1を用いて一旦
共有記憶装置2に取込まれた後、再度システムバ
ス1を用いて画像情報圧縮伸長装置8に転送さ
れ、圧縮処理された後再度システムバス1を用い
て共有記憶装置2に転送され、その後再度システ
ムバス1を用いてフアイル蓄積装置5に転送され
てHDD5C又はDRAW5Bに蓄積される。 このようにしてHDD5C及びDRAW5Bには
画像情報圧縮伸長装置8において圧縮されたデー
タが蓄積されているが、このデータは操作表示装
置9のデイスプレイ9J,9K、又は画像読取プ
リント装置7の画像プリンタ7Eに出力される。
この場合HDD5C又はDRAW5Bのデータは、
操作表示装置9のキーボード9B又はマウス9C
からのデータに基づいてフアイル蓄積装置5の
HDD5C及びDRAW5Bの蓄積データをシステ
ムバス1を用いて共有記憶装置2に転送した後、
再度システムバス1を用いて画像情報圧縮伸長装
置8に転送してデータを伸長処理する。その結果
得られるデータは再度システムバス1を用いて共
有記憶装置2に転送された後、再度システムバス
1を用いて操作表示装置9のデイスプレイ9J,
9K、又は画像読取プリント装置7の画像プリン
タ7Eにおいて表示、又はプリントされる。この
ときデイスプレイ9J,9Kに供給される画像信
号についての画面の組立ては、操作表示装置9の
プロセツサP4において実行され、またプリンタ
7Eに供給される画像信号についての画面の組立
ては主制御装置10のプロセツサP5において実
行される。 さらにフアイル蓄積装置5に蓄積されたデータ
を編集し直したり、新たにキーボード9B、又は
画像リーダ7Fから入力される画像にキヤラクタ
を挿入処理するモードにおいては、各データを一
旦共有記憶装置2に転送した後、同様にしてプロ
セツサP4において編集する。 このようにして第1図のデータ処理装置は、主
制御装置10のボード10Cのローカルメモリ
RAMにフロツピーデイスクドライブFDDから入
力された動作プログラム(すなわちオペレーテイ
ングシステム又はアプリケーシヨンプログラム)
に基づいて、各動作モードにおける主制御装置1
0の制御の下にデータの処理を実行して行く。そ
してこのデータ処理を実行する際には、共有記憶
装置2に対して各サブシステムがシステムバス1
を共用しながら共有記憶装置2をアクセスする。 このとき共有記憶装置2は、1つのサブシステ
ムから出されたメモリ要求に基づいて当該メモリ
要求に基づくデータの処理が終了するまで共有記
憶装置2及びシステムバスを占有させる必要があ
る。しかしこの占有時間が余り長いと、その間に
他のサブシステムから出たメモリ要求に基づくデ
ータの処理を長時間の間またなければならなくな
る。この問題を解決するため共有記憶装置2は、
バス及びメモリコントローラ(MBC)が各サブ
システムのプロセツサからのデータの供給を同時
並列的に処理するような仲裁機能をもつように構
成され、かくして次に述べるように一連のシーケ
ンシヤルなデータの処理を時間直列的に実行した
場合と比較して格段的に処理時間を短縮できるよ
うになされている。 なお、以下の説明において、信号及びデータの
符号にバーを付した場合は、負論理に基づいて表
現したものであるものとする。 今、例えばフアイル蓄積装置5の外部記憶装置
としてのHDD5C及びDRAW5に格納されてい
る画像データ(圧縮処理されている)を検察して
操作表示装置9のデイスプレイ9J,9Kに表示
させる場合には、第2図に示す一連のデータ処理
を順次シーケンシヤルに処理して行く。 すなわち0番目のデータ処理ステツプPR0にお
いて、主制御装置10の制御の下にフアイル蓄積
装置5のHDD5C又はDRAW5Bから読出すべ
き画像データを論理的にサーチして検索する。 続く1番目のデータ処理ステツプPR1において
フアイル記憶装置5から当該検索されたデータが
読出されて共有記憶装置2に転送される。次に2
番目のデータ処理ステツプPR2において共有記憶
装置2に転送されたデータを画像情報圧縮伸長装
置8のプロセツサP3によつて読出して伸長処理
をした後共有記憶装置2に再書込する。次に3番
目のデータ処理ステツプPR3において共有記憶装
置2に再書込されたデータを操作表示装置9のプ
ロセツサP4が読出して画面の編集組立て及び字
の挿入等の処理を行つた後共有記憶装置2に再度
格納する。次に4番目のデータ処理ステツプPR4
において共有記憶装置2に再度格納されたデータ
を操作表示装置9が読出してビツトマツプコント
ローラ9E、VRAM9G,9Hを介してデイス
プレイ9J,9Kに表示させる。 これらの一連のデータ処理ステツプにおいて、
システムバス1を用いてデータを転送するステツ
プは、1番目〜4番目のデータ処理ステツプPR1
〜PR4であり、それぞれのステツプにおいてデー
タを処理するプロセツサのデータ処理速度と、処
理されるデータ量とに基づいて決まる処理時間T
1〜T4の総和処理時間が必要になる。 すなわちデータ処理ステツプPR1においては、
フアイル蓄積装置5のHDD5C又はDRAW5B
から読出されたデータが、プロセツサP0のデー
タ処理速度2〔MB/sec〕の速度で共有記憶装置
2に時間T1の間に転送される。また2番目のデ
ータ処理ステツプPR2においては、画像情報圧縮
伸長装置8のプロセツサP3が、そのデータ処理
速度2〔MB/sec〕の速度で共有記憶装置2のデ
ータを読出し、伸長処理されたデータをプロセツ
サP3が再度2〔MB/sec〕のデータ処理速度で
共有記憶装置2に格納し、かくして処理時間T2
を必要とする。また3番目のデータ処理ステツプ
PR3いおいて操作表示装置9のプロセツサP4が
2.5〔MB/sec〕のデータ処理速度で共有記憶装置
2からデータを読出した後画面の組立て、字の挿
入等の編集処理を実行し、その後プロセツサP4
が再度2.5〔MB/sec〕のデータ処理速度で編集後
のデータを共有記憶装置2に格納し、かかるデー
タ処理のために時間T3を必要とする。また4番
目のデータ処理ステツプPR4において操作表示装
置9のプロセツサP4がデータ処理速度2.5
〔MB/sec〕の速度で共有記憶装置2からデータ
を読出してデイスプレイ9J,9K上に表示さ
せ、かかるデータ処理を実行するために時間T4
を必要とする。 従つて第1図の構成のデータ処理装置におい
て、第2図の一連のデータ処理ステツプを順次シ
ーケンシヤルに時間直列的に実行したとすると、
データを処理するために必要な総和処理時間
TSMIは、 TSMI=T1+T2+T3+T4 ……(1) になる。 本発明においては、原理的に、かかるデータ量
の仕事を所定の区分データ(例えば16〔kB〕又は
8〔kB〕(KB=kilobyte)程度)に区分し、複数
のプロセツサを用いて、同時かつ並列的に当該1
区分データずつデータの処理を実行する。 すなわち第2図の一連のデータ処理ステツプ
PR1〜PR4においてそれぞれ処理すべきデータを
第3図に示すように複数区分(図示の場合7区
分)に区分し、各区分データを区分データ処理実
行時間TU1〜TU10ごとに順次シーケンシヤ
ルにかつ同時並列的に処理して行く。 第3図Aにおいて、第2図のデータ処理ステツ
プPR1において処理されるべき1番目の区分デー
タとしてフアイル蓄積装置5から1セクタ分又は
1トラツク分をプロセツサP0によつて読出して
処理実行時間TU1の処理ステツプPR11の間に
共有記憶装置2に転送する。この1番目の区分デ
ータは第3図Bに示すように、次の処理実行時間
TU2の間に、第2図のデータ処理ステツプPR2
の1番目の処理データとして処理ステツプPR21
において処理され、画像情報圧縮伸長装置8のプ
ロセツサP3によつて共有記憶装置2から読出さ
れた後伸長処理され、その後共有記憶装置2に再
格納される。この再格納された1番目の区分デー
タは第3図Cに示すように、第2図のデータ処理
ステツプPR3の1番目の処理データとして処理実
行時間TU3の処理ステツプPR31において処理
される。すなわちプロセツサP4は共有記憶装置
2の区分データを読出して編集処理をした後共有
記憶装置2に再格納する。この再格納された1番
目の区分データは第3図Dに示すように、第2図
のデータ処理ステツプPR4の1番目の処理データ
として処理実行時間TU4におけるデータ処理ス
テツプPR41において処理される。これにより共
有記憶装置2の区分データはプロセツサP4によ
つて読出されてデイスプレイ9J,9K上に表示
される。 かくして1番目の区分データが処理実行時間
TU1,TU2,TU3,TU4の間にデータ処理
ステツプPR11、PR21、PR31、PR41の順序でシ
ーケンシヤルに処理されて行く。 この間において、2番目の処理実行時間TU2
になると、フアイル蓄積装置5のプロセツサP0
がデータ処理ステツプPR12において外部記憶
装置から2番目の区分データを読出して共有記憶
装置2に格納する。この2番目の区分データは、
1番目の区分データの場合と同様にして順次続く
処理実行時間TU3,TU4,TU5に移るごと
に、データ処理ステツプPR22、PR32、PR42に
おいてデータ処理されて行き、その結果処理実行
時間TU5においてデイスプレイ9J,9K上に
表示される。 以下同様にして3番目、4番目、……の区分デ
ータが処理実行時間TU3,TU4……において
フアイル蓄積装置5から順次読出されて行き、こ
の3番目、4番目……の区分データが順次読く処
理実行時間TU4,TU5,TU6、TU5,TU
6,TU7……になるごとに順次処理ステツプ
(PR23、PR33、PR43)、(PR24、PR34、
PR44),……においてデータ処理されて順次デイ
スプレイ9J,9K上に表示されて行く。 このようにして第2図のデータ処理ステツプ
PR1、PR2、PR3、PR4において処理すべきデー
タは、1区分データずつ順次読く区分データ処理
実行時間ごとにシーケンシヤルに処理されて行く
が、各シーケンシヤルな処理は同時並列的に実行
されて行き(これをパイプライン処理と呼ぶ)、
その結果区分データ処理実行時間において各処理
ステツプにおける仕事が割当られているプロセツ
サが、同時並列的にデータ処理動作をすることに
なり、結局複数のプロセツサを全体として1つの
プロセツサとして見たときの処理能力を向上させ
ることになり、従つてデータの総和処理時間を短
縮できることになる。 このような結果を得ることができるのは、仮に
第2図について上述したようにデータ処理ステツ
プPR1〜PR4をシーケンシヤルにかつ時間直列的
に処理して行くとすれば、1つのデータ処理ステ
ツプにおける仕事を割当られたプロセツサがデー
タ処理動作をしている間は、他のプロセツサがデ
ータ処理をしていない状態のままコマンドが到来
するのを待受ける状態になつており、結局この無
駄時間があるために全体としてデータ処理時間が
長くなると考えられるが、第3図の方法によれ
ば、かかる無駄時間を格段的に短縮できることに
なるからである。 結局第3図の本発明によるデータ処理方法を実
行すれば、全てのデータを処理するに要するデー
タ総和処理時間TSM2が全てのプロセツサP0
〜P4によるデータ処理ステツプが重複している
時間TZ0と、その前後に生ずる重複していない
時間TZ1及びTZ2との和になり、その互いに重
複していない時間が小さくなるように各プロセツ
サに対する仕事を割当るようにすれば、全体とし
てのデータ処理時間を第2図の場合と比較して格
段的に短縮することができる。 例えば第3図A〜Dに示すように、各処理ステ
ツプにおける区分データ処理実行時間が互いに等
しくなるようにすれば、データ総和処理時間
TSM2は TSM2=〔K+(DSP−1)〕×TU ……(2) と表すことができる。ここで、Kは各区分データ
処理ステツプにおける区分データ数、DSPは同
時処理すべきプログラム数(すなわち第2図の処
理ステツプPR1〜PR4の数)、TUは区分データ
の処理実行時間をそれぞれ表す。 従つて第1図の構成によれば、プロセツサとし
てデータ処理速度がそれほど速くない汎用のマイ
クロプロセツサを用いたとしても、データ処理装
置全体としてのデータ総和処理時間が、データ量
の格段的に大きな画像データを処理するに適合す
るように実用上十分なスループツトを具えたデー
タ処理装置を実現し得る。 第1図の構成における区分データの同時並列処
理は、共有記憶装置2のバス及びメモリコントロ
ーラ(MBC)に設けられている仲裁装置部が、
システムバス1に接続されているサブシステムの
プロセツサの競合を同時並列的に処理することに
よつて達成される。 (共有記憶装置) 共有記憶装置2は第4図に示すように、サブシ
ステムを構成する6つの装置5〜10及び2つの
予備装置11及び12の各プロセツサP0,P
1,P2……P7(これをPi,i=0、1、2…
…7と表す)に結合されたシステムバス1と、
RAM2B及び2C(第1図)によつて構成され
るメモリ部15とを仲裁装置部16によつて制御
することにより、システムバス1をどのサブシス
テムのプロセツサに占有使用させるかを決定する
ようになされている。 この実施例の場合、システムバス1は20ビツト
のアドレスデータラインADDRESSと16ビツト
の読出データラインRDATAと、16ビツトの書込
データラインWDATAと、読出書込コマンド
R/高位バイト又は低位バイト選択信号,
UDSを転送する3ビツトのバスとで構成され、
終端部17によつて終端されている。 メモリ部15は、それぞれ250〔kiloward〕の
メモリ容量を有する8つのメモリバンクMB0,
MB1……MB7(これにMBj、j=0、1、2
……7と表す)に分割されており、各メモリバン
クMB0〜MB7に対してそれぞれシステムバス
1が結合されることによつて、各プロセツサP0
〜P7が各メモリバンクを各別にアクセスできる
ようになされている。このようにすることによ
り、1つのメモリバンクがデータの書込、読出動
作をしている。(これをメモリサイクルと呼ぶ)
間に他のメモリバンクをアクセスすることができ
る。システムバス1は仲裁装置部16に結合さ
れ、8つのサブシステムのプロセツサP0〜P7
からシステムバス1従つてメモリ部15に対して
互いに競合するメモリ要求が出されたとき、これ
を第5図〜第7図に示す構成によつて仲裁するこ
とにより、全てのメモリ要求に対して同時並列的
にデータの処理を実行し得るようにする。ここ
で、各プロセツサから送出されるメモリ要求の内
容は、共有記憶装置2にデータを書込むこと、又
は共有記憶装置2に格納されているデータを読出
すことのいずれか一方になる。 仲裁装置部16は、2つの仲裁任務を実行す
る。その第1の任務は、8つのプロセツサPi(i
=0、1、2……7)からそれぞれメモリ部15
に対するメモリ要求が同時に出されたとき、この
要求に対して占有を許可すべきメモリバンク
MBj(j=0、1、2……7)を割当てることで
ある。また仲裁装置部16の第2の任務は、同じ
1つのメモリバンクMBjに対して複数のプロセ
ツサPiからメモリ要求が出された時、どのプロセ
ツサPiに占有を許可するかを仲裁することであ
る。 仲裁装置部16は、第1の任務を実行するタイ
ムスロツト割当部16A(第5図)を有する。こ
のタイムスロツト割当部16Aは、第6図A〜H
に示すように、メモリバンクMB0〜MB7に対
応する8つのタイムスロツト信号TS0〜TS7(こ
れをTSj、j=1、2……7と表す)を順次循環
的に発生し、各タイムスロツト信号TS0〜TS7
立下り区間(これをタイムスロツトと呼ぶ)をサ
ブシステムのプロセツサP0〜P7に順次割当て
る。 ここで各タイムスロツト信号TS0〜TS7のタイ
ムスロツトの区間は、実際に順次処理されて行く
単位データ(例えば1〔ward〕)の処理時間に選
定され、従つて各タイムスロツトの繰返し周期
は、区分データを処理するに必要な処理実行時間
TU1〜TU10(第3図)と比較して十分短い
値に選定されている。このようにして実際には区
分データを多数の単位データずつ処理して行く。 かくしてタイムスロツト信号TS0,TS1,TS2
……TS7のタイムスロツトの間に、それぞれ対応
するプロセツサP0,P1,P2……P7からメ
モリ要求012……7(これをj

j=0、1、2……7と表す)が出された場合に
は、要求を出したサブシステムのプロセツサP
0,P1,P2……P7に対して当該タイムスロ
ツトの間それぞれシステムバス1を介してメモリ
バンクMB0,MB1,MB2……MB7の占有
を許して良いことを意味するイネーブル信号
12……7(これをj,j=0、
1、2……7と表す)を発生する。そこで仲裁装
置部16は、各プロセツサP0〜P7のメモリ要
求が競合しないときは、メモリバンクMB0〜
MB7のうちの1つに対するメモリ要求が出れ
ば、当該メモリバンクに対応するタイムスロツト
を無条件に用いてメモリ要求を処理させる機能
(これをタイムスロツト割当機能と呼ぶ)をもつ
ことになる。 これに加えて仲裁装置部16は、タイムスロツ
ト信号TSj(j=0、1……7)の各タイムスロ
ツトにおいて、対応するメモリ要求が発生されて
いないときには、当該メモリ要求がないタイムス
ロツトをそれ以外のタイムスロツトに割当てられ
たメモリバンクに対するメモリ要求を処理するた
めに利用させ得る機能(これをタイムスロツト利
用機能と呼ぶ)をもつ。 以上の関係を式で表せば次のようになる。7j=0 TSj=1 ……(3) ENj=TSjj-1・ENj-1 ……(4) ここでTSjはj番目(j=0、1、……7)の
メモリバンクMBjに割当てられたタイムスロツ
ト信号、jはj番目のメモリバンクMBjに対す
るリクエスト信号、ENjはj番目のメモリバンク
MBjの占有を許して良いことを表すイネーブル
信号をそれぞれ示す。 ここで(3)式は、タイムスロツト信号TSj(j=
0〜7)が連続して順次循環的にタイムスロツト
を発生するものであることを表している。これに
対して(4)式は、j番目のメモリバンクMBjに対
するイネーブル信号ENjが発生するので、第1に
当該メモリバンクMBjに割当てられたタイムス
ロツト信号TSjのタイムスロツトのタイミングで
あることを表す(第1項TSj)と共に、第2に1
つ前の(j−1)番目のメモリバンクMB(j−
1)に対応するタイムスロツトにおいてリクエス
ト信号RQj-1が発生されておらず、しかも当該タ
イムスロツトに対応するメモリバンクMB(j−
1)が使用されていないタイミングであることを
表している(第2項RQj-1・ENj-1)。 このようにしてj番目のメモリバンクMBjに
対してメモリ要求が出されているのに対して、そ
の前の(j−1)番目のタイムスロツトに対応す
るメモリバンクMB(j−1)についてのメモリ
要求が出されていなければ、この1つ前のタイム
スロツトを用いてj番目のメモリバンクMBjに
対する要求の処理をなし得るようになされてい
る。 このことはさらに、順次1つ前(すなわち(j
−2)番目、(j−3)番目……)のタイムスロ
ツトについてのメモリ要求がないときには、この
(j−2)番目、(j−3)番目……のメモリバン
クMB(j−2)、MB(j−3)……に割当てら
れたタイムスロツトを使つてj番目のメモリバン
クMBjをアクセスすることができることを意味
している(これを前倒し効果と呼ぶ)。 この(4)式の関係を各メモリバンクMB0〜MB
7に対するイネーブル信号EN1〜EN7として表せ
ば次のようになる。
[Industrial Application Field] The present invention relates to a data processing device, for example, a document processing device,
It is suitable for application when processing information (hereinafter referred to as image information) made up of digital data representing an image composed of images and characters such as characters, such as drawings. . [Prior Art] The scope of application of data processing devices for this type of image information is expanding, and if document creation, electronic files, mutual communication, etc. can be easily and inexpensively constructed as a series of systems, office automation will be possible. It is believed that the present invention can provide a data processing device useful for general office processing operations in fields such as Office Automation, Future of the Office, and Paperless Office. However, this type of image information requires approximately 100 times more processing time than processing general data encoded in a predetermined code (for example, in the case of numerical calculations, data processing, word processing, etc.). It contains a large amount of information. Therefore, when digitally processing image information, it is necessary to use a machine with a throughput that is 100 times or more greater than when processing general data. Therefore, in the past, in addition to using a dedicated processor, dedicated hardware logic, or large-scale computer designed with special specifications to be able to process large amounts of data, data was compressed to reduce the amount of processing. Methods are adopted to reduce the burden on the machine. [Problems to be solved by the invention] However, when using this conventional method, it is inevitable that the overall structure of the data processing device becomes large and complicated, and moreover, it is necessary to use specially designed and expensive equipment. There is a problem that cannot be solved. In order to solve this problem, it is possible to process image information using general-purpose devices such as personal computers, mini-computers, and office computers, but these general-purpose devices are not capable of processing large amounts of data. These general-purpose devices are not configured, their processing speed is slow, and they do not have the processing power to perform a variety of tasks independently, so even if you simply use the functions of these general-purpose devices, you will not be able to process large amounts of data. It cannot be processed in a short period of time. The present invention has been made in consideration of the above points, and
When processing image information, the processing speed itself
A large number of general-purpose microprocessors, memories, and other devices with low processing power are used to connect them to each other via a system bus, and an arbitration function is provided to execute data processing in each device simultaneously and in parallel. By doing so, we aim to propose a data processing device that has a practically sufficient execution processing speed. [Means for solving the problem] In order to solve the problem, the present invention provides data input means 9B, 9 for inputting data.
C, 7F, display means 9J, 9K for displaying input data or processed data, file storage means 5 for storing input data or processed data, each of these means, and system bus 1. In a data processing apparatus that has at least a shared storage means 2 coupled via a data input means 9B, 9C, and 7F, and executes data processing specified by the data input means 9B, 9C, and 7F, the data processing work is performed by a plurality of subsystems. 5 to 12, each subsystem 5 to 12 executes its assigned task using processors P0 to P7 respectively coupled to the system bus 1, and the shared storage means 2 is connected to the system bus 1, respectively. The processors P0 to MB7 of each subsystem 5 to 12 are connected to a plurality of memory banks MB0 to MB7.
When P7 specifies one of the memory banks MB0 to MB7 and issues a memory request indicating that data should be sent and received via the system bus 1, the arbitration device unit 16 selects one of the memory banks MB0 to MB7. The arbitration unit 16 generates an enable signal for allowing the processors P0 to P7 to occupy the processors P0 to P7.
It divides data sent and received between memory banks MB0 to MB7 into segmented data of a predetermined amount of data, and synchronizes data processing for memory requests issued simultaneously from multiple processors P0 to P7 with the bus clock of system bus 1. At the same time, each partitioned data is executed simultaneously and in parallel. In addition, the arbitration device section 16 divides the data transmitted and received between the processors P0 to P7 and the memory banks MB0 to MB7 into divided data of a predetermined amount of data, and also divides the data transmitted and received between the processors P0 to P7 and the memory banks MB0 to MB7 into divided data of a predetermined amount. Allocate time slots formed to be synchronized, and transfer unit processing data constituting the partitioned data via the system bus 1 at the timing of the time slot allocated to the memory bank specified by the memory request. This enables simultaneous and parallel data processing. [Operation] The data processing device divides the data to be processed into partitioned data of a predetermined amount of data based on memory requests from each processor, and processes the data corresponding to each memory request for each partitioned data. They are executed simultaneously and in parallel while synchronizing with the bus clock of the system bus. In this way, when memory requests from each processor occur sequentially, it is possible to process each piece of partitioned data without processing all the data for each memory request at once. The process can now be executed. As a result, most of the data processing corresponding to all memory requests can be performed during the time TZ0 (Figure 3) during which the processing of partitioned data for multiple memory requests issued at the same time is being executed simultaneously. As a result, the overall processing time can be significantly shortened. Therefore, even if general-purpose devices with small throughput are used as the processor and memory bank, all the data can be processed in a sufficiently fast execution time for practical use. Therefore, when processing data that includes non-coded data such as image data, by using multiple general-purpose devices, it is possible to create a data processing device that has a throughput comparable to that of using a dedicated computer, for example. can be easily constructed. For this reason, in particular, in the present invention, memory requests for a plurality of memory banks MB0 to MB7 are handled by assigning to each memory bank a time slot formed to be synchronized with the bus clock.
When transferring data between the processor and the memory bank, the data is transferred using the system bus at the timing of the time slot assigned to the memory bank that issued the memory request, so that data can be transferred at the same time. System bus occupancy requests can be effectively arbitrated based on each memory request made, thus ensuring simultaneous parallel processing of competing data. [Embodiment] An embodiment of the present invention will be described in detail below with reference to the drawings. (Overall Configuration) As shown in FIG. 1, the data processing device has a system bus 1 coupled to eight subsystems that each share the work of a series of data processing steps to be executed sequentially.
It is coupled to a shared storage 2 shared by each subsystem. The shared storage device 2 consists of a board 2A equipped with a bus and memory controller (MBC), and two boards each equipped with a RAM having a storage capacity of 2 mega bytes (hereinafter referred to as MB). When a memory request arrives from each subsystem via the system bus 1, the bus and memory controller (MBC) transfers the corresponding data to the board 2 via the local bus 2D.
It is configured to read from or write to RAM B and 2C. In particular, when memory requests from each subsystem conflict, the bus and memory controller (MBC) arbitrates this conflict and thus allows data to be processed in parallel. , has the ability to respond to requests from all subsystems within a short period of time. The system bus 1 is connected to processors (CPU) P0 to P7 provided in each subsystem.
Each processor P0-P7 is shared by all the processors P0-P7 in order to exchange signals and data between the bus of the shared storage device 2 and the memory controller (MBC). A file storage device (STS) 5 is assigned to the first subsystem, and a processor P0 having a data processing speed of 2 [MB/sec] is connected to the system bus 1. Processor P0 is mounted on board 5A, and is a DRAW processor that constitutes a storage device for filing data from the data processing device.
(Direct Read after Write) 5B and TDD
(Hard Disk Drive) File data can be stored in or read from the 5C. In this embodiment, an interface (DRAW I/F) for DRAW5B is provided on board 5A, and board 5D, which is equipped with an interface (HDD I/F) for HDD5C, is connected to processor P0 via local bus 5E. combined. Thus, processor P0 uses shared storage device 2
data is stored in HDD5C or DRAW5B using system bus 1, and
The data of DRAW 5B is transferred to the shared storage device 2 using the system bus 1. In addition, a data transmission device (NTS) 6 is assigned to the second subsystem, and two
A processor P1 having a data processing speed of [MB/sec] is connected. The processor P1 is mounted on the board 6A together with a transmission control circuit (Ethernet Controller), and transmits data from the system bus 1 via the transmission device 6B to the transmission line 6C made of a coaxial cable.
Data arriving via C can be taken into the system bus 1 side. Thus, the processor P1 sends data in the shared storage device 2 to the transmission device 6B using the system bus 1, or sends data arriving from the outside via the transmission device 6B to the shared storage device 2 using the system bus 1. Incorporate into. As a result, by connecting the data processing device to an external device, it is now possible to construct an even larger scale data processing system. An image reading/printing device (IDS) 7 is assigned to the third subsystem, and two
Processor P2 with a processing speed of [MB/sec]
is connected. The processor P2 is mounted on the board 7A together with an image input/output controller (Image I/O Controller), and under the control of this image input/output controller, each image printer interface (IP
It is coupled to an image printer (IP) 7E and an image reader (IR) 7F via an image reader interface (IR I/F) board 7C and an image reader interface (IR I/F) board 7D, respectively. Thus, the processor P2 reads the image data read by the image reader 7F into the shared storage device 2 using the system bus 1, and prints the data in the shared storage device 2 via the system bus 1 on the image printer 7E. being done. An image information compression/decompression device (CDS) 8 is assigned to the fourth subsystem, and a processor P3 having a data processing speed of 2 [MB/sec] is connected to the system bus 1. Processor P3 is a compression/decompression controller (Compress/Decompress).
It reads the data of the shared storage device 2 using the system bus 1, and sends this data to the compression processing circuit (COMP) board 8C and the compression processing circuit (COMP) board 8A through the local bus 8B.
Alternatively, the data is transferred to the board 8D of the decompression processing circuit (DECOMP), and the compressed or decompressed data is sent to the shared storage device 2 using the system bus 1. The image information compression/expansion device 8 is the file storage device 5
Data to be stored on HDD 5C or DRAW 5B of MH method (Modified Huffman) or
The amount of stored data can be expanded by pre-compression processing using the MR method (Modified READ), and the compressed data read from HDD5C or DRAW5B can be decompressed for display, printing, and transmission processing. . The fifth subsystem is a control display system (DPS).
A processor P4 having a data processing speed of 2.5 [MB/sec] is connected to the system bus 1. The board 9A on which the processor P4 is mounted includes a ROM and a ROM that store processing programs and data used to convert image data read by the processor P4 into video display signals.
RAM is installed. Further, the operation display device 9 has a keyboard 9B and a mouse 9C as operation input means, and inputs and outputs data from the keyboard 9B and mouse 9C to the processor P4 through a serial input circuit (S I/O) mounted on the board 9A. It has been made possible. Here, the data inputted from the keyboard 9B and the mouse 9C are encoded data each having a predetermined format, and the data input from the processor P
4 can transfer this input data (for example, character data or command data consisting of characters, symbols, etc.) to the shared storage device 2 using the system bus 1 . On the other hand, when displaying image data (that is, data representing an image, a character, or a mixture of an image and a character), the processor P4 sends these data to the bitmap controller BMC of the board 9E via the local bus 9D. as commands and data. Here, the processor P4 transfers the coded character data as a command to the bit map controller (BMC) to convert it into corresponding font data, and then transfers it to the video memory (VRAM) via the local bus 9F. Boards 9G and 9
The data is transferred to H and developed on a two-dimensional screen memory. On the other hand, the image data generated in the image data 7F is non-coded data that directly represents black and white pixels, and when displaying this, the processor P4 performs the same processing as it does for coded character data. The image is expanded as is on the two-dimensional screen memory without any conversion. The image data developed on the VRAM in this way is read out via the local bus 9F by a timing circuit (TIM) mounted on the board 9I and displayed on displays 9J and 9K made of cathode ray tubes (CRTs), for example. will be displayed. In addition to the above functions, the processor P4 reads image data from the shared storage device 2 via the system bus 1, assembles and edits it on one screen, and also displays characters input from the keyboard 9B on one screen. Has the ability to insert. Processor P4 is
The processing data for this assembly/editing is CRT9J, 9
The data that has been assembled and edited is transferred to the shared storage device 2 via the system bus 1. In this way, the operation display device 9 assembles and edits the image data read out from the file storage device 5 to the shared storage device 2 into a single screen according to the operations of the keyboard 9B and mouse 9C as operation input means. The data is displayed on the display 9J or 9K and transferred to the shared storage device 2 using the system bus 1. This data is stored in the file storage device 5, printed by the image printer 7E of the image reading and printing device 7, or transmitted from the data transmission device 6 to the outside. The sixth subsystem includes a main controller (PCS) 1
A processor P5 is connected to the system bus 1 and has a data processing speed of 2.5 [MB/sec]. The board 10A on which the processor P5 is mounted is connected to the RAM of the board 10C and the input device I/O of the board 10D via the local bus 10B, and is connected to the local memory via the I/O from the floppy disk drive (FDD). Each subsystem coupled to the system bus 1 and the shared storage device 2 are controlled as a whole by a system operation program (operating system, application program, etc.) written in the RAM as the system bus. Interrupt and attention signals for such control are provided on control signal line 3.
The information is transmitted and received between the main control device 10 and all subsystems via. In addition, processor P5 is the RAM of board 10C.
The image printer 7
At step E, assembly processing of image data to be printed is executed. The seventh and eighth subsystems have spare equipment 11
and 12 are assigned (that processor is assigned P6
and P7). This allows new functions to be added. In the configuration shown in FIG. 1, the operator can use the keyboard 9B and mouse 9C of the operation display device 9 to input commands for specifying modes and character data such as letters and symbols, and can also input character data such as pictures and characters. Image data can be input using the image reader 7F of the image reading and printing device 7.
Here, the data input from the keyboard 9B and mouse 9C are obtained as data having predetermined codes that are easy to transfer and process, and therefore character data can be input with a relatively small amount of data. In contrast, the image reader 7 of the image reading and printing device 9
Since the image data inputted from F is composed of data representing black and white of each pixel using a binary code, the amount of data becomes significantly large. Data input from the keyboard 9B or mouse 9C is once written to the shared storage device 2 from the processor P4 of the operation display device 9 using the system bus 1, and then transferred to the image information compression/decompression device 8 via the system bus 1 again. The data is transferred and compressed. The thus processed data is transferred to the shared storage device 2 using the system bus 1 again.
Thereafter, this data is again transferred to the file storage device 5 using the system bus 1 and stored in the HDD 5C or DRAW 5B as an external storage device. Similarly, image data input from the image reading/printing device 7 is once imported into the shared storage device 2 using the system bus 1, and then transferred to the image information compression/expansion device 8 using the system bus 1 again. After being compressed, the data is transferred to the shared storage device 2 using the system bus 1 again, and then transferred to the file storage device 5 using the system bus 1 again and stored in the HDD 5C or DRAW 5B. In this way, data compressed by the image information compression/expansion device 8 is stored in the HDD 5C and DRAW 5B. is output to.
In this case, the data on HDD5C or DRAW5B is
Keyboard 9B or mouse 9C of operation display device 9
of the file storage device 5 based on data from
After transferring the accumulated data of HDD5C and DRAW5B to shared storage device 2 using system bus 1,
Using the system bus 1 again, the data is transferred to the image information compression/expansion device 8 for decompression processing. The resulting data is transferred to the shared storage device 2 using the system bus 1 again, and then transferred to the display 9J of the operation display device 9 using the system bus 1 again.
9K or displayed or printed on the image printer 7E of the image reading and printing device 7. At this time, the screen assembly for the image signals supplied to the displays 9J and 9K is executed by the processor P4 of the operation display device 9, and the screen assembly for the image signals supplied to the printer 7E is executed by the main controller 10. It is executed in processor P5. Furthermore, in a mode in which data stored in the file storage device 5 is edited again or characters are newly inserted into an image input from the keyboard 9B or image reader 7F, each data is temporarily transferred to the shared storage device 2. After that, the processor P4 edits the data in the same manner. In this way, the data processing device of FIG.
Operating program (i.e. operating system or application program) input from the floppy disk drive FDD into RAM
The main controller 1 in each operation mode based on
Data processing is executed under the control of 0. When executing this data processing, each subsystem uses the system bus 1 for the shared storage device 2.
The shared storage device 2 is accessed while being shared. At this time, the shared storage device 2 needs to occupy the shared storage device 2 and the system bus based on a memory request issued by one subsystem until processing of data based on the memory request is completed. However, if this occupation time is too long, data based on memory requests issued by other subsystems must be processed again for a long period of time. To solve this problem, the shared storage device 2
The bus and memory controller (MBC) is configured to have an arbitration function that simultaneously handles the supply of data from each subsystem's processor in parallel, thus processing a series of sequential data as described below. The processing time can be significantly reduced compared to the case where the processing is executed in a time-series manner. In the following description, when a bar is attached to the symbol of a signal or data, it is assumed that the symbol is expressed based on negative logic. Now, for example, when image data (compressed) stored in the HDD 5C and DRAW 5 as external storage devices of the file storage device 5 is to be displayed on the displays 9J and 9K of the operation display device 9, The series of data processing shown in FIG. 2 is performed sequentially. That is, in the 0th data processing step PR0, image data to be read out from the HDD 5C or DRAW 5B of the file storage device 5 is logically searched under the control of the main controller 10. In the following first data processing step PR1, the retrieved data is read from the file storage device 5 and transferred to the shared storage device 2. Next 2
In the second data processing step PR2, the data transferred to the shared storage device 2 is read out by the processor P3 of the image information compression/decompression device 8, decompressed and then rewritten to the shared storage device 2. Next, in the third data processing step PR3, the processor P4 of the operation display device 9 reads out the data rewritten to the shared storage device 2, and after performing processing such as editing and assembling the screen and inserting characters, the data is rewritten to the shared storage device 2. Store it again in 2. Next, the fourth data processing step PR4
The operation display device 9 reads out the data stored in the shared storage device 2 again and displays it on the displays 9J and 9K via the bitmap controller 9E and VRAM 9G and 9H. In these series of data processing steps,
The steps for transferring data using system bus 1 are the first to fourth data processing steps PR1.
~PR4, which is a processing time T determined based on the data processing speed of the processor that processes data in each step and the amount of data processed.
A total processing time of 1 to T4 is required. That is, in data processing step PR1,
HDD5C or DRAW5B of file storage device 5
Data read from the processor P0 is transferred to the shared storage device 2 during a time T1 at a data processing speed of 2 [MB/sec] of the processor P0. In the second data processing step PR2, the processor P3 of the image information compression/decompression device 8 reads the data from the shared storage device 2 at a data processing speed of 2 [MB/sec], and reads the decompressed data. Processor P3 again stores the data in shared storage device 2 at a data processing speed of 2 [MB/sec], thus processing time T2
Requires. Also, the third data processing step
In PR3, the processor P4 of the operation display device 9
After reading the data from the shared storage device 2 at a data processing speed of 2.5 [MB/sec], editing processing such as assembling the screen and inserting characters is executed, and then the processor P4
The edited data is stored in the shared storage device 2 again at a data processing speed of 2.5 [MB/sec], and a time T3 is required for such data processing. Further, in the fourth data processing step PR4, the processor P4 of the operation display device 9 has a data processing speed of 2.5.
It takes time T4 to read data from the shared storage device 2 at a speed of [MB/sec] and display it on the displays 9J and 9K, and to execute such data processing.
Requires. Therefore, in the data processing apparatus having the configuration shown in FIG. 1, if the series of data processing steps shown in FIG. 2 are executed sequentially and in time series,
Total processing time required to process the data
TSMI is TSMI=T1+T2+T3+T4...(1). In principle, the present invention divides the work of this amount of data into predetermined data segments (for example, about 16 [kB] or 8 [kB] (KB = kilobyte)), and uses multiple processors to simultaneously and 1 in parallel
Process data piece by piece. In other words, the series of data processing steps shown in Figure 2
The data to be processed in each of PR1 to PR4 is divided into multiple sections (7 sections in the case shown) as shown in Figure 3, and each section of data is sequentially and simultaneously parallelized for each section data processing execution time TU1 to TU10. We will process it accordingly. In FIG. 3A, the processor P0 reads out one sector or one track from the file storage device 5 as the first segmented data to be processed in the data processing step PR1 of FIG. It is transferred to the shared storage device 2 during processing step PR11. As shown in Figure 3B, this first segment data is used for the next processing execution time.
During TU2, the data processing step PR2 in Figure 2
Processing step PR21 as the first processing data of
The image data is processed by the processor P3 of the image information compression/expansion device 8, read out from the shared storage device 2, decompressed, and then stored again in the shared storage device 2. As shown in FIG. 3C, this re-stored first classified data is processed in processing step PR31 of processing execution time TU3 as the first processing data of data processing step PR3 in FIG. That is, the processor P4 reads the segmented data from the shared storage device 2, performs editing processing, and then stores it again in the shared storage device 2. As shown in FIG. 3D, this re-stored first classified data is processed in data processing step PR41 at processing execution time TU4 as the first processing data of data processing step PR4 in FIG. As a result, the partitioned data in the shared storage device 2 is read out by the processor P4 and displayed on the displays 9J and 9K. Thus, the first partitioned data is the processing execution time.
Data processing steps PR11, PR21, PR31, and PR41 are sequentially processed during TU1, TU2, TU3, and TU4. During this period, the second processing execution time TU2
, the processor P0 of the file storage device 5
reads the second segmented data from the external storage device and stores it in the shared storage device 2 in data processing step PR12. This second segmented data is
In the same manner as in the case of the first partitioned data, data is processed in data processing steps PR22, PR32, PR42 each time the processing execution times TU3, TU4, and TU5 successively continue, and as a result, the display 9J is displayed at processing execution time TU5. , 9K. Thereafter, in the same manner, the 3rd, 4th, etc. classification data are sequentially read out from the file storage device 5 at processing execution times TU3, TU4... Processing execution time TU4, TU5, TU6, TU5, TU
6, TU7..., sequential processing steps (PR23, PR33, PR43), (PR24, PR34,
The data is processed in PR44), . . . and sequentially displayed on the displays 9J and 9K. In this way, the data processing steps in FIG.
The data to be processed in PR1, PR2, PR3, and PR4 is processed sequentially at each partitioned data processing execution time in which each partitioned data is read sequentially, but each sequential process is executed simultaneously and in parallel. This is called pipeline processing).
As a result, during the execution time of partitioned data processing, the processors that are assigned the work of each processing step will perform data processing operations simultaneously and in parallel. This improves the performance and therefore reduces the data summation processing time. Such a result can be obtained because if the data processing steps PR1 to PR4 are processed sequentially and in time series as described above with reference to FIG. While the assigned processor is processing data, other processors are not processing data and are waiting for commands to arrive, resulting in this wasted time. Although the overall data processing time is considered to be long, the method shown in FIG. 3 can significantly reduce this wasted time. After all, if the data processing method according to the present invention shown in FIG.
The work for each processor is calculated so that the sum of the time TZ0 in which the data processing steps in ~P4 overlap and the non-overlapping times TZ1 and TZ2 that occur before and after that is small, and the non-overlapping time becomes small. By doing so, the overall data processing time can be significantly shortened compared to the case of FIG. 2. For example, as shown in FIGS. 3A to 3D, if the execution time for segmented data processing in each processing step is made equal to each other, the data summation processing time
TSM2 can be expressed as TSM2=[K+(DSP-1)]×TU...(2). Here, K is the number of partitioned data in each partitioned data processing step, DSP is the number of programs to be processed simultaneously (ie, the number of processing steps PR1 to PR4 in FIG. 2), and TU is the processing execution time of the partitioned data. Therefore, according to the configuration shown in Figure 1, even if a general-purpose microprocessor whose data processing speed is not very fast is used as a processor, the data total processing time for the data processing device as a whole is significantly larger than the amount of data. A data processing device with a practically sufficient throughput suitable for processing image data can be realized. Simultaneous parallel processing of partitioned data in the configuration shown in FIG.
This is achieved by processing contention among the processors of the subsystems connected to the system bus 1 simultaneously and in parallel. (Shared Storage Device) The shared storage device 2, as shown in FIG.
1, P2...P7 (this is Pi, i=0, 1, 2...
... 7) coupled to the system bus 1;
By controlling the memory section 15 composed of RAMs 2B and 2C (FIG. 1) by the arbitration device section 16, it is possible to decide which subsystem's processor should exclusively use the system bus 1. being done. In this embodiment, the system bus 1 includes a 20-bit address data line ADDRESS, a 16-bit read data line RDATA, a 16-bit write data line WDATA, and a read/write command R/high byte or low byte selection signal. ,
It consists of a 3-bit bus that transfers UDS,
It is terminated by a terminal end 17. The memory unit 15 includes eight memory banks MB0, each having a memory capacity of 250 [kiloward].
MB1...MB7 (MBj, j=0, 1, 2
...7), and by connecting system bus 1 to each memory bank MB0 to MB7, each processor P0
~P7 can access each memory bank separately. By doing this, one memory bank performs data writing and reading operations. (This is called a memory cycle)
Other memory banks can be accessed in between. The system bus 1 is coupled to an arbitration device section 16 and is connected to eight subsystem processors P0 to P7.
When conflicting memory requests are issued to the system bus 1 and thus the memory unit 15 from the system bus 1 and thus the memory unit 15, by arbitrating these requests using the configuration shown in FIGS. 5 to 7, all memory requests can be satisfied. To enable data processing to be executed simultaneously and in parallel. Here, the content of the memory request sent from each processor is either writing data to the shared storage device 2 or reading data stored in the shared storage device 2. The arbitration device section 16 performs two arbitration tasks. Its first mission is to operate eight processors Pi (i
=0, 1, 2...7) respectively from the memory section 15.
Memory bank that should be granted occupancy for this request when memory requests for are issued at the same time.
It is to allocate MBj (j=0, 1, 2...7). The second mission of the arbitration unit 16 is to arbitrate which processor Pi is allowed to occupy the same memory bank MBj when memory requests are issued from a plurality of processors Pi. The arbitration device section 16 has a time slot allocation section 16A (FIG. 5) that performs a first task. This time slot allocating section 16A is shown in FIG.
As shown in the figure, eight time slot signals TS 0 to TS 7 (denoted as TS j , j=1, 2...7) corresponding to memory banks MB0 to MB7 are sequentially and cyclically generated, and each time slot signal is The falling sections (this is called a time slot) of the lot signals TS 0 -TS 7 are sequentially assigned to the processors P 0 -P 7 of the subsystem. Here, the time slot section of each time slot signal TS 0 to TS 7 is selected as the processing time of unit data (for example, 1 [ward]) that is actually processed sequentially, and therefore the repetition period of each time slot is , processing execution time required to process partitioned data
The value is selected to be sufficiently short compared to TU1 to TU10 (Fig. 3). In this way, the divided data is actually processed in units of many units of data. Thus, the time slot signals TS 0 , TS 1 , TS 2
...During the time slot of TS 7 , memory requests 0 , 1 , 2 ... 7 (this is called j

j = 0, 1, 2...7), the processor P of the subsystem that issued the request
An enable signal indicating that memory banks MB0, MB1, MB2, .
0 , 1 , 2 ... 7 (represent this as j , j=0,
1, 2...7) are generated. Therefore, when the memory requests of the processors P0 to P7 do not conflict, the arbitration device unit 16 selects the memory banks MB0 to MB0 to
When a memory request is made for one of the MBs 7, it has a function (this is called a time slot allocation function) that unconditionally uses the time slot corresponding to the memory bank to process the memory request. In addition, when no corresponding memory request is generated in each time slot of the time slot signal TS j (j=0, 1...7), the arbitration device section 16 selects the time slot for which there is no memory request. It has a function that can be used to process memory requests for memory banks allocated to other time slots (this is called a time slot utilization function). The above relationship can be expressed as follows. 7j=0 TS j =1 ...(3) EN j = TS j + j-1・EN j-1 ...(4) Here, TS j is the jth (j=0, 1, ...7 ), j is the request signal for the jth memory bank MBj, and EN j is the jth memory bank MBj.
Each shows an enable signal indicating that MBj can be occupied. Here, equation (3) is expressed as the time slot signal TS j (j=
0 to 7) indicate that time slots are generated sequentially and cyclically. On the other hand, in equation (4), since the enable signal EN j for the j-th memory bank MBj is generated, first, it must be the timing of the time slot of the time slot signal TS j assigned to the memory bank MBj. (the first term TS j ), and the second term is 1
The previous (j-1)th memory bank MB (j-
Request signal RQ j-1 is not generated in the time slot corresponding to 1), and the memory bank MB (j-1) corresponding to the time slot is not generated.
1) is not used (second term RQ j-1・EN j-1 ). In this way, while a memory request is issued for the jth memory bank MBj, a memory request is issued for the memory bank MB(j-1) corresponding to the previous (j-1)th time slot. If no memory request has been issued, the previous time slot can be used to process the request for the jth memory bank MBj. This also applies to the sequential previous one (i.e. (j
-2)th, (j-3)th...), when there is no memory request for the (j-2)th, (j-3)th... memory bank MB(j-2). , MB(j-3) . . . (this is called an advance effect). The relationship of this equation (4) is calculated for each memory bank MB0 to MB.
If this is expressed as enable signals EN 1 to EN 7 for EN 7, it will be as follows.

〔発明の効果〕〔Effect of the invention〕

以上のように本発明によれば、システムバスに
結合した複数のプロセツサに対してそれぞれ仕事
を分担させると共に、これらのプロセツサに共通
に設けられた共有記憶装置をそれぞれシステムバ
スに結合された複数のメモリバンクで構成し、プ
ロセツサ及びメモリバンク間に送受されるデータ
を所定データ量の区分データに区分すると共に、
各メモリバンクに対してタイムスロツトを割当
て、区分データを構成する単位処理データをメモ
リ要求によつて指定されたメモリバンクに対応す
るタイムスロツトのタイミングでシステムバスを
利用してデータを転送するようにすることによつ
て、各プロセツサから同時に出されるメモリ要求
に対して同時並列的に各メモリバンクを占有する
ことができるように仲裁できる。これによりプロ
セツサ及び共有記憶装置としてそれほどデータ処
理速度が速くない汎用のデバイスを用いたとして
も、全体としてのスループツトが十分に大きいデ
ータ処理装置を実現し得、かくしてデータ処理量
が格段的に大きい画像データを処理する手段とし
て好適なデータ処理装置を特殊な仕様をもたない
汎用のデバイスによつて構築することができる。
As described above, according to the present invention, a plurality of processors connected to a system bus are assigned tasks, and a shared storage device provided in common to these processors is shared by a plurality of processors connected to a system bus. It consists of a memory bank, and divides the data sent and received between the processor and the memory bank into divided data of a predetermined amount of data,
A time slot is assigned to each memory bank, and the unit processing data constituting the partitioned data is transferred using the system bus at the timing of the time slot corresponding to the memory bank specified by the memory request. By doing so, it is possible to arbitrate memory requests simultaneously issued from each processor so that each memory bank can be occupied simultaneously and in parallel. As a result, even if a general-purpose device whose data processing speed is not very fast is used as a processor and a shared storage device, a data processing device with a sufficiently large overall throughput can be realized, and thus an image processing device with a significantly large amount of data processing can be realized. A data processing device suitable as a means for processing data can be constructed using a general-purpose device without special specifications.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明によるデータ処理装置の全体構
成を示すブロツク図、第2図は処理すべき一連の
データ処理ステツプを示す略線図、第3図は同時
並列処理する際のデータ処理ステツプを示す略線
図、第4図は第1図のシステムバスに関連した構
成部分を示すブロツク図、第5図は第4図のタイ
ムスロツト割当部16Aの詳細構成を示すブロツ
ク図、第6図はそのタイムスロツト信号を示す信
号波形図、第7図は第4図のメモリアクセスコン
トロール部16Bの詳細構成を示すブロツク図、
第8図は第7図のメモリアクセス手段16B2j
のさらに詳細な構成を示すブロツク図、第9図は
第8図の優先選択手段31の詳細構成を示すブロ
ツク図、第10図はその優先順位の説明に供する
図表、第11図は第4図のメモリバンクイネーブ
ル信号発生部16Cの詳細構成を示すブロツク
図、第12図は第4図のメモリバンクMBjの詳
細構成を示すブロツク図、第13図〜第16図は
各部の信号を示す信号波形図、第17図は同時並
列処理する際のデータ処理手順を示す略線図であ
る。 1……システムバス、2……共有記憶装置、5
……フアイル蓄積装置、6……データ伝送装置、
7……画像読取プリント装置、8……画像情報圧
縮伸長装置、9……操作表示装置、10……主制
御装置、16……仲裁装置部、16A……タイム
スロツト割当部、16B……メモリアクセスコン
トロール部、16C……メモリバンクイネーブル
信号発生部、P0〜P7……プロセツサ、MB0
〜MB7……メモリバンク。
FIG. 1 is a block diagram showing the overall configuration of a data processing device according to the present invention, FIG. 2 is a schematic diagram showing a series of data processing steps to be processed, and FIG. 3 is a diagram showing data processing steps for simultaneous and parallel processing. 4 is a block diagram showing the components related to the system bus in FIG. 1, FIG. 5 is a block diagram showing the detailed configuration of the time slot allocation section 16A in FIG. 4, and FIG. A signal waveform diagram showing the time slot signal; FIG. 7 is a block diagram showing the detailed configuration of the memory access control section 16B in FIG. 4;
FIG. 8 shows the memory access means 16B2j of FIG.
9 is a block diagram showing a detailed structure of the priority selection means 31 of FIG. 8, FIG. 10 is a chart for explaining the priority order, and FIG. 12 is a block diagram showing the detailed configuration of the memory bank MBj in FIG. 4, and FIGS. 13 to 16 are signal waveforms showing the signals of each part. FIG. 17 is a schematic diagram showing a data processing procedure when performing simultaneous parallel processing. 1...System bus, 2...Shared storage device, 5
...File storage device, 6...Data transmission device,
7... Image reading and printing device, 8... Image information compression/expansion device, 9... Operation display device, 10... Main control device, 16... Arbitration device section, 16A... Time slot allocation section, 16B... Memory Access control section, 16C...Memory bank enable signal generation section, P0 to P7...Processor, MB0
~MB7...Memory bank.

Claims (1)

【特許請求の範囲】 1 データを入力するデータ入力手段と、入力さ
れたデータ又は処理されたデータを表示する表示
手段と、上記入力されたデータ又は処理されたデ
ータを蓄積するフアイル蓄積手段と、上記各手段
とシステムバスを介して結合された共有記憶手段
とを少なくとも有し、上記データ入力手段によつ
て指定されたデータ処理を実行するデータ処理装
置において、 a それぞれ上記システムバスに結合されたプロ
セツサを有し、上記データ処理についての仕事
を分担し、当該分担した仕事を上記プロセツサ
を用いてそれぞれ実行する複数のサブシステム
と、 b 上記システムバスにそれぞれ結合され、かつ
上記共有記憶手段を構成する複数のメモリバン
クと、 c 上記各サブシステムのプロセツサが上記メモ
リバンクの1つを指定して上記システムバスを
通じてデータの送受をすべきことを内容とする
メモリ要求を出したとき、上記各メモリ要求に
対して上記それぞれ指定されたメモリバンクの
占有を許すイネーブル信号を発生する仲裁装置
部と を具え、上記仲裁装置部は、上記プロセツサ及び
メモリバンク間に送受されるデータを所定データ
量の区分データに区分すると共に、上記複数のメ
モリバンクに対してそれぞれ上記システムバスの
バスクロツクと同期するように形成されたタイム
スロツトを割当て、上記区分データを構成する単
位処理データをメモリ要求によつて指定されたメ
モリバンクに割当てられた上記タイムスロツトの
タイミングで上記システムバスを介して転送する
ことにより、上記複数のプロセツサから同時に出
されたメモリ要求についてのデータの処理を、上
記システムバスのバスクロツクと同期しながら、
上記区分データごとに順次同時並列的に実行する
ようにしたことを特徴とするデータ処理装置。 2 上記複数のサブシステムには、互いに同じ仕
事を分担し合う2以上のサブシステムを含んでな
る特許請求の範囲第1項に記載のデータ処理装
置。 3 上記システムバスは、上記メモリ要求が出さ
れたメモリバンクのメモリ位置のアドレスを指定
するアドレスデータを転送するアドレスバスと、
上記アドレスデータによつて指定されたメモリ位
置に書込むべき書込データを転送する書込データ
バスと、上記アドレスデータによつて指定された
メモリ位置から読出した読出データを転送する読
出データバスとを含んでなる特許請求の範囲第1
項に記載のデータ処理装置。 4 上記プロセツサはマイクロプロセツサで構成
されてなる特許請求の範囲第1項に記載のデータ
処理装置。 5 上記メモリバンクはダイナミツクRAMで構
成されてなる特許請求の範囲第1項に記載のデー
タ処理装置。 6 上記タイムスロツトは、上記メモリバンクが
データを書込み、又はデータを読出す際に必要な
メモリサイクルより短い時間に選定されてなる特
許請求の範囲第1項に記載のデータ処理装置。 7 上記タイムスロツトは、上記プロセツサが上
記システムバスを介して読出したデータを当該プ
ロセツサの内部において処理する際に必要なデー
タ処理時間より短かい時間に選定されてなる特許
請求の範囲第1項に記載のデータ処理装置。
[Scope of Claims] 1. A data input means for inputting data, a display means for displaying the input data or processed data, and a file storage means for accumulating the input data or processed data. In a data processing device that has at least a shared storage means coupled to each of the above means via a system bus, and executes data processing designated by the data input means, a. a plurality of subsystems each having a processor, each of which shares the task of the data processing, and each executes the divided task using the processor; c. When a processor of each of the above-mentioned subsystems issues a memory request specifying one of the above-mentioned memory banks to transmit/receive data through the system bus, each of the above-mentioned memories an arbitration device section that generates an enable signal that allows the occupancy of the respective designated memory banks in response to a request; At the same time, time slots formed to be synchronized with the bus clock of the system bus are allocated to each of the plurality of memory banks, and unit processing data constituting the divided data is specified by a memory request. By transferring the data via the system bus at the timing of the time slot assigned to the memory bank, the processing of data for memory requests simultaneously issued by the plurality of processors is synchronized with the bus clock of the system bus. While
A data processing device characterized in that the processing is executed simultaneously and in parallel for each of the above-mentioned partitioned data. 2. The data processing device according to claim 1, wherein the plurality of subsystems include two or more subsystems that share the same work with each other. 3. The system bus is an address bus that transfers address data specifying the address of the memory location of the memory bank to which the memory request has been issued;
a write data bus that transfers write data to be written to the memory location specified by the address data; a read data bus that transfers read data read from the memory location specified by the address data; Claim 1 comprising:
The data processing device described in section. 4. The data processing device according to claim 1, wherein the processor is a microprocessor. 5. The data processing device according to claim 1, wherein the memory bank is composed of a dynamic RAM. 6. The data processing device according to claim 1, wherein the time slot is selected to be shorter than a memory cycle required when the memory bank writes or reads data. 7. According to claim 1, the time slot is selected to be shorter than the data processing time required when the processor internally processes data read out via the system bus. The data processing device described.
JP28081884A 1984-12-24 1984-12-24 Data processor Granted JPS61150060A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP28081884A JPS61150060A (en) 1984-12-24 1984-12-24 Data processor
CA000497467A CA1254662A (en) 1984-12-24 1985-12-12 Image data processor system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28081884A JPS61150060A (en) 1984-12-24 1984-12-24 Data processor

Publications (2)

Publication Number Publication Date
JPS61150060A JPS61150060A (en) 1986-07-08
JPH0542703B2 true JPH0542703B2 (en) 1993-06-29

Family

ID=17630403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28081884A Granted JPS61150060A (en) 1984-12-24 1984-12-24 Data processor

Country Status (1)

Country Link
JP (1) JPS61150060A (en)

Also Published As

Publication number Publication date
JPS61150060A (en) 1986-07-08

Similar Documents

Publication Publication Date Title
US4928234A (en) Data processor system and method
US4110823A (en) Soft display word processing system with multiple autonomous processors
JPH05205005A (en) Host-interface for logic-simulation-machine
US4839826A (en) Affine conversion apparatus using a raster generator to reduce cycle time
JPH0580697B2 (en)
JPH02170767A (en) Memory extending system
JPH0542703B2 (en)
JPH0544698B2 (en)
US4742343A (en) Digital stroke generator
JPS62245467A (en) Symbolic processing system and method
JP3053196B2 (en) Image data raster converter
CA1254662A (en) Image data processor system and method
JP2847861B2 (en) Portable byte string data converter
JP3447820B2 (en) Bus controller
JP3012748B2 (en) Computer system and form editing and output device
JPH0375905B2 (en)
JPH0724008B2 (en) External storage device
JPH03224078A (en) Interface device
JPS61116387A (en) Image data writing system
JPS5953939A (en) Memory device for real time
JPS61149365A (en) Data controlling device
JPH02181277A (en) Address control circuit for picture memory
JP2003223428A (en) Data transfer device
JPS5883375A (en) Stack storage device
JPH02116938A (en) Variable word length memory device

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term