JP2779044B2 - バッファ記憶制御方法 - Google Patents

バッファ記憶制御方法

Info

Publication number
JP2779044B2
JP2779044B2 JP2147774A JP14777490A JP2779044B2 JP 2779044 B2 JP2779044 B2 JP 2779044B2 JP 2147774 A JP2147774 A JP 2147774A JP 14777490 A JP14777490 A JP 14777490A JP 2779044 B2 JP2779044 B2 JP 2779044B2
Authority
JP
Japan
Prior art keywords
request
stage
data
processing
buffer storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2147774A
Other languages
English (en)
Other versions
JPH0439759A (ja
Inventor
誠司 金子
俊之 木下
章雄 山本
恭久 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2147774A priority Critical patent/JP2779044B2/ja
Priority to US07/710,336 priority patent/US5377341A/en
Publication of JPH0439759A publication Critical patent/JPH0439759A/ja
Application granted granted Critical
Publication of JP2779044B2 publication Critical patent/JP2779044B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0844Multiple simultaneous or quasi-simultaneous cache accessing
    • G06F12/0855Overlapped cache accessing, e.g. pipeline

Description

【発明の詳細な説明】 [発明の利用分野] 本発明は、複数台の処理装置から共有されるバッファ
記憶装置の制御方式に関する。
[従来の技術] 処理装置内のバッファ記憶装置と主記憶装置の間に、
複数の処理装置によって共有される大容量のバッファ記
憶装置を置くシステム構成法は、共有バッファ記憶装置
によって主記憶アクセス時間の等価的な改善を行うもの
であり、主記憶装置のアクセス速度と処理装置における
演算速度に大きな違いのある場合に好適な技術である。
このような構成を取る計算機システムとの例として、日
立製作所M−68xH処理装置がある。この処理装置の構成
は、日立製作所、『M−68xプロセッサグループ機能説
明書』、6080−2−002に記載があり、処理装置毎にス
トアスルータイプのバッファ記憶装置(以下BSと呼ぶ)
を持ち、また処理装置2台につき1台のストアインタイ
プの共有バッファ記憶装置(以下WSと呼ぶ)を持ち、そ
の接続関係は第2図に示すものである。
例として挙げたシステムでは、処理装置での命令実行
に伴って主記憶装置上のデータが必要となった場合、ま
ず自処理装置のBS内に必要なデータがあるかどうかを検
索する。BS内に求めるデータがバッファされていなかっ
た時にはこのデータの転送要求をWSに送出する。WSから
BSへのデータはブロックと呼ばれる管理単位で転送され
る。WS側では、この要求に対し、そのブロックがWS内に
バッファされているかどうかを検索し、存在していた時
にはそのデータをWSから読み出しデータ要求元の処理装
置のBSに対して転送する。
もう一つの技術として、マルチプロセッサ構成に於け
る主記憶参照の順序関係を保証するための技術がある。
複数台の処理装置をもつシステムでは、処理装置の命令
実行時間は処理装置内のバッファ記憶装置の状態、割込
みなどによって変化するため、複数台の処理装置間で命
令実行を同期させることは一般には困難である。これに
代わって処理装置間の主記憶アクセスに伴なうデータア
クセスの整合性を確保するため、各処理装置からの主記
憶装置の参照の順序に対して保証が必要となる。例とし
てIBM社,“370/XA Principles of Operation",SA22−7
085,5−25〜5−29に規定された条件は、「処理装置か
ら主記憶装置の参照、更新は、処理装置での命令実行順
序に必ずしも従う必要はないが、主記憶装置に接続され
ているその他の処理装置から、当該処理装置の主記憶ア
クセスが順序に従っていないことが観測されてはならな
い」ことを要求する。この条件における「観測」とは、
ある主記憶装置からの処理が上記に規定した順序制御を
守って処理された場合にはあり得ないデータを他処理装
置からの主記憶参照時に読み出すことができる、という
意味である。
上記文献で規定される順序保証においては命令実行結
果に矛盾が生じないかぎり、主記憶ないしはWS上で処理
装置からの要求の順序を命令実行の順序にしたがって処
理する必要はないが、他処理装置からの読み出しと書き
込みは非同期であるため、処理順序を守らず処理する方
式を取り入れた場合に、他処理装置からみて更新順序が
守られている場合には起こりえない主記憶のデータを読
み出すことができないことを保証することは、何らかの
追加処理を必要とする。このような処理は障害時などを
含めて実現することは難しく、従来は実際に順序を守っ
て処理する構成としていた。例えば、上記のような処理
の順序を保証するため、バッファ記憶装置内の処理にお
いて先行する処理がバッファ記憶装置内の何らかの要因
で待たされているとき、後続の要求は待たされている要
求より先に処理されないように制御することによって要
求の順序を保障する。このような方式を実現した公知例
として、特許公報特開昭61−45355がある。この公知例
では先行の要求が終了したことを示す信号を受け取って
から後続の要求を選択する要求選択方式の例が示されて
いる。
これとは別の従来技術として、バッファ記憶装置処理
のパイプライン化が知られている。処理装置内部のバッ
ファ記憶は応答時間が重要であるが、それに比べ共用さ
れるバッファ記憶装置では処理の応答のみならず処理の
スループットを確保することが設計上重要な問題とな
る。このため、演算処理で知られたパイプライン処理を
バッファ記憶の制御に適用し、装置のトータルのスルー
プットを高めるようにしたバッファ記憶装置の構成法が
知られている。
このようなパイプライン処理の方式を以下処理の例を
もとに説明する。処理装置間で共有されたバッファ記憶
装置では、処理装置からのバッファ記憶装置を参照、更
新する要求に対して、以下の3つの処理が順に行われ
る。
(1)処理装置間の要求の調停を行い、存在する要求か
ら1つを選びだす。(以下この処理をPステージと呼
ぶ) (2)Pステージにて選び出された要求に対して、対象
となる主記憶領域がバッファ記憶装置内にバッファされ
ているかどうかを検索する。(以下この処理をJステー
ジと呼ぶ) (3)Jステージ処理によって求めるデータがバッファ
記憶装置内にあった要求を、記憶部に転送する。(以下
この処理をEステージと呼ぶ) (4)記憶部では、バッファ記憶装置から所定のデータ
を読み出し、あるいは書き込みを行なう。(以下この処
理をWステージと呼ぶ) 以上の各ステップの処理が各1サイクルで実施可能で
あるとすれば、1つの要求の処理では計4サイクルが必
要となる。このようなバッファ記憶装置のパイプライン
処理方式では、各ステージをオーバラップして実行し処
理に要する時間を短縮せずに、毎サイクル新たな要求を
処理できるようにし、等価的にスループットを向上させ
る。
一方もう一つの公知なスループット性能向上の方式と
して、処理の並列性をあげて1度に受け付ける要求の数
を増やす構成が知られている。これはパイプライン方式
と併用可能であり、前の処理の例に適用すれば、Pステ
ージで複数の要求を切り出し、J以降のステージで1サ
イクルに同時に複数の要求を処理できるようにすること
によって実現することができる。例えば上記のパイプラ
イン方式を取るバッファ記憶装置において、低速なメモ
リを用いるためメモリの読み出しに複数サイクルを必要
とする場合には、メモリ部を多重化し同時に複数の素子
を動作させることによって必要な性能を確保すればよ
い。このような制御を行う場合のパイプラインの流れの
例を第4図に示す。この例ではWステージに2サイクル
要し、Wステージにおいて2つの処理を並列に実行でき
る(図ではW0とW1と記す)場合を示している。
[発明が解決しようとする問題点] 従来例において説明したパイプライン方式を取るバッ
ファ記憶装置では、始めに説明したバッファ記憶装置に
おける順序制御は各ステージにおいてPステージでの要
求の順序を守ることによって達成される。この制御の例
を第6図に示す。例えば処理装置Aからの要求のあと
に、処理装置Bからのバッファ記憶装置を2つ一度に起
動する要求は、前の要求の処理が終了した時点で投入可
能であり、その間空きとなったバッファ記憶装置に対し
ては他処理装置からの空いているバッファ記憶装置のみ
を用いる要求を先行して処理することによって順序保証
が可能となる。このため、第6図に示す処理装置Aから
のバッファ記憶装置を2つ使用する要求は、先行の要求
2が終了する時点まで投入することができない。一方別
処理装置からの要求4は、要求3に比べ後に到着したも
のであるが、先行の2つのバンクを使用する要求より先
に処理でき、かつ先に処理することによってバッファ記
憶部の空き時間を減らし、バッファ記憶部を有効に使用
することができる。
一方このようなバッファ記憶部のビジーを予測しなが
ら、バッファ記憶部に対して要求を投入する方式には、
処理装置からのブロックデータの読み出し要求を高速に
処理できないという問題点がある。一般にこのような共
用バッファ記憶装置に対する処理装置からの読み込みの
要求は、処理装置内のバッファ記憶装置(以下区別のた
めBSと呼ぶ)の管理単位(以下ブロックと呼ぶ)に要求
されたデータの転送を行なうが、このとき処理装置の演
算器が処理において実際に必要とするデータ(以下ター
ゲットデータと呼ぶ)はブロックデータの一部である。
また、演算器からBSに対するデータ要求に答えるために
は、ターゲットデータを演算器に送出することができれ
ばよく、ブロックの残りのデータは先読みの効果を期待
したものである。このため、ブロックデータの読み込み
ではターゲットデータの早い送出が性能上クリティカル
パスとなり、ブロックデータの他の部分はそれに比べや
や遅れても良い。またブロックデータはストアデータに
比較的に大きなサイズを読みだすため、バッファ記憶の
記憶ユニットを複数1度に起動するよう制御し、ブロッ
クデータ読み出し時間を短縮する必要がある。このため
バッファ記憶部のビジーを予測する制御方式では、先行
する要求に対してブロック転送を起動するときにはブロ
ック転送に用いるすべてのバッファ制御部が空かないか
ぎり投入しない。このため、ブロック転送にかぎらず、
複数のバッファ記憶ユニットを1度に起動する要求は、
1つのバッファ記憶ユニットのみを起動する要求に比べ
て投入されにくく、バッファ記憶部での処理投入待ち時
間が長くなり、応答時間の増加によってシステムの性能
が低下しやすい。本発明は、上記の問題点を解決するた
めになされたものである。
本発明の目的は、処理の順序性を保証しつつ、ターゲ
ットデータに対するバッファ記憶部の応答を改善し、か
つ比較的簡単な構成のバッファ記憶装置を実現すること
にある。
[問題点を解決するための手段] 従来技術において問題であったターゲットデータに対
するバッファ記憶装置の応答を改善する方式として、バ
ッファ記憶部の一部がビジー状態である場合においても
ターゲットデータに対するバッファ記憶部が空きである
ならば要求を切り出すよう構成しターゲットデータを先
行送出する方法が考えられる。この方法ではターゲット
以外のデータに対するバッファ記憶部で要求が滞留する
ことがあっても、ターゲットデータに対する処理は当該
バッファ記憶部が空きのため処理が行われデータが送出
されるため、ターゲットデータに関するバッファ記憶装
置の応答は改善される。しかしながらこの時には切り出
したブロック転送要求が先行の要求と競合を起こすた
め、要求の滞留が発生し、従来の方式の項で説明したよ
うにバッファ記憶の順序保証のためバッファ記憶部の利
用効率は低下する。このため、さらに本発明では、バッ
ファ記憶装置内の制御に順序制御を保証しながら、後続
要求の追越処理を取り入れることによって、バッファ記
憶部の利用効率の低下を防ぐ。具体的には、WS部での処
理パイプラインのステップを、システム内全体の処理順
序性を保証する必要のあるステップと、各サブシステム
の内のみの順序性を保証すればよいステップに分離し
て、後者のステップに対してサブシステム間の処理の追
越を行うことによって処理の順序性を保証したままサブ
システムの利用効率を高めようとするものである。
一般に、このようなバッファ記憶装置の処理における
順序保証は、要求された順序を守って処理されなければ
ならない処理内容と、データの一貫性さえ保つことがで
きれば処理自体は入れ替わっても良い処理内容に分ける
ことができる。前者の例としては、例えば主記憶に対す
る書き込みにともなうバッファ記憶一致制御などがあ
り、後者としてはバッファ記憶装置に対する実際の書き
込み、読み出しがある。従って、このようなシステムに
おいてはバッファ記憶装置パイプラインを順序を守るス
テージと、データの一貫性のみを保証するステージによ
って構成し、バッファ記憶装置一致制御などの順序を保
証する処理は前者のステージに同期して、バッファ記憶
装置に対する読み出し、書き込みは後者のステージに同
期して実行する。このとき、また前者のステージに処理
要求が滞留しているときには後続の要求の切り出しを抑
止し、後者のステージに要求が滞留しているときには、
後続の要求の切り出しはデータの一貫性を保つ範囲で可
能とする。また前者のステージに対する切り出しは、先
行した処理要求との間では前者のステージ内にて競合が
生じないように制御する。このような制御によって、バ
ッファ記憶部が空きとなることが避けられ、バッファ記
憶の利用効率が低下することはない。
[作用] このように構成されたシステムにおいては、上記のバ
ッファ制御における順序性はPステージにて順序を守る
ことによって保障することができる。またEステージに
て追越を可能とするように制御することによって、バッ
ファ記憶部の利用効率の低下も抑えることができる。ま
たEステージにてブロックデータ読み出しのターゲット
以外の部分を待たせるように制御することによって先行
要求によるターゲットデータ送出の遅れを最小限に抑
え、かつ制御は比較的簡単なものすることができる。本
発明においてもPステージでの要求の滞留が起きたとき
には従来同様にバッファ記憶部の利用効率の低下が発生
するが、Eステージにて要求が滞留可能であり、かつ大
部分の参照、更新に関するビジーはバッファ記憶部のビ
ジーであるため、Pステージでの要求滞留がまれにしか
発生しないよう制御することは比較的容易である。
[実施例] 本発明の実施例を図面を用い説明する。本実施例は、
日立製作所のMシリーズアーキテクチャに従った計算機
に関するものであり、アーキテクチャの詳細に関して
は、以下に示す参考文献を参照されたい。
日立製作所、“Mシリーズ処理装置”、8080−2−00
1 日立製作所、“Mシリーズ処理装置(M/EXモー
ド)”、8080−2−093 本実施例でのシステム構成は第2図に示すものであ
り、2台の命令処理装置10〜11が、1台のシステム制御
装置3を介して主記憶装置9に接続された構成を持つ。
システム制御装置3は、命令処理装置10、11からの主記
憶装置9に対する参照を管理する。このとき各命令処理
装置10〜11は内部に小容量のストアスルータイプの専用
バッファ記憶装置101〜102(以下BSと呼ぶ)を持ち、命
令処理装置で実行すべき命令コードおよび命令実行に必
要となるオペランドデータは通常はBS101〜102から読み
出され、BS内に必要なデータがなかった場合にはデータ
の要求がシステム制御装置3に送出される。またBS101
〜102はストアスルー方式を取り、命令実行にともなう
書き込みはBS内に書かれ、かつシステム制御装置3側に
も書き込み要求として送出される。システム制御装置3
内には、主記憶に対する要求の頻度を軽減し、アクセス
速度を等価的に改善するため、2台の命令処理装置10〜
11から共用されるストアインタイプの共用バッファ記憶
装置4(以下WSと呼ぶ)を持つ。WS4では、2台の命令
処理装置10〜11(以下この2つを合わせ,処理装置と呼
ぶ)からの主記憶に対するデータ読み出しと書き込み要
求に対し、WS4内にバッファされているデータによって
処理が行えるときには要求された処理を行い、WS4内に
該データがバッファされていない場合はそのデータを主
記憶装置9から読み出し、データの要求元に対して要求
されたデータを送るとともに、WS4内にそのデータの登
録を行なう。
また、システム制御装置3内には処理装置内のBS101
〜102の内容の一致制御を行なうバッファ記憶一致制御
論理8(以下FAAとよぶ)を持つ。この論理は主記憶に
対する書き込み時にBS101〜102の内容の整合性を保証す
る論理であり、WS4の動作と同期して動作する。共用バ
ッファ記憶からは該論理に処理装置からの要求の内容と
要求アドレスを送出し(信号線80)、同論理が処理実行
中であることを示すビジー信号81を受信する。
以下本実施例でのWS4の構成を第1図と第3図によっ
て説明する。第1図はWS4の構成の概要を示したもので
ある。また第3図は第1図のリクエスト制御論理42の、
処理装置10〜11からの要求を選択し、パイプラインに投
入する制御を行なう論理(これを以下プライオリティ制
御系論理と呼ぶ)の詳細な構成を示す。
本実施例において、処理装置10〜11からの主記憶の参
照・更新要求の処理内容は、 (1)処理装置内のBS101〜102へのブロック転送要求 (2)主記憶装置への書き込み要求のうち、8バイト幅
で更新を行うもの。(フルストアという) (3)主記憶装置への書き込み要求のうち、8バイト幅
の一部分のみの更新を行うもの。(部分ストアという) の3種類であり、その指定は、主記憶のアドレス、
主記憶操作の要求内容(以下オーダと呼ぶ):即ち、参
照なのか更新なのかの指定、更新の場合、書き込むべ
きデータ、の3つの情報によって行われる。第1図にお
いて、処理装置10〜11からの主記憶に対する要求は、WS
内でパイプライン処理される。パイプラインは5段から
なり、この各段での処理は以下に示すものである。
Pステージ:処理装置10〜11からの要求をキューから
取りだし、Jステージで使用するアドレス・データ・オ
ーダのレジスタに各々設定する。
Jステージ:Pステージにて切り出された要求のアドレ
スをアドレスアレイ441〜442にて検索し、WS4内にある
かどうかを検索する。
Eステージ:Jステージにおいて切り出された要求を、
所定のWSデータアレイ51〜54に転送する。
Sステージ:WSデータアレイ内で、所定のメモリ素子
にアドレスとデータを転送する。
Wステージ:メモリからデータを読み出し、処理装置
に対して転送する。
また、上記の各パイプラインステージは、ステージに
同期したリソースを持つ。以下第1図に即し、単独の要
求の処理を説明する。
処理装置10〜11から到着した要求は、まず処理を待つ
ためキューイングされる。キューは処理装置10〜11ごと
に独立に設けられており、第1図においてアドレスとオ
ーダに対しては411〜412、書き込みデータは414〜415で
ある。キューの要求はFiFO処理され、キューの先頭の要
求の情報は制御線420〜421から制御論理42に入力され、
ある条件のもとに選択される。条件については制御論理
の説明と合わせ後述する。
Pステージの処理は、キューのもっとも前に到着した
要求(以下簡単のため、これをキューの要求と呼ぶ)か
ら、先行要求との競合、他キューの要求との競合、プラ
イオリティなどの条件から、どの要求を選択するかを判
定し、次ステージで使用するため、セレクタ431〜434に
よって選択をおこない、次(J)ステージ処理で使用す
るP同期レジスタ群435〜436に要求内容を示すアドレ
ス、オーダを設定、また書き込みデータが必要なストア
処理に対してはP同期のデータレジスタ437〜438に書き
込みデータを設定することである。以下、セレクタとP
同期レジスタ431〜438を合わせて、P同期リソースとい
う。選択(以降明確化のため切り出すという語を用い
る)処理は制御論理42(第3図)によって行われ、一度
に最大2つまでの要求を選択できる。このとき同じ処理
装置からの要求を2個同時に受け付けることはない。
Pステージで切出された要求は、次にJステージで処
理される。JステージではP同期レジスタ435〜436に設
定されたアドレスとオーダを用いてアドレスアレイ論理
441〜442にて要求されたデータがWSデータアレイ51〜54
内にバッファされているかどうかを検索する。アドレス
アレイ論理441〜442は、Jステージで同時に2つまでの
要求を処理するため2重化されている。アドレスアレイ
論理441〜442の検索により、求めるデータがWSデータア
レイ51〜54に存在すると判定された時には、Jステージ
の要求を要求の種類と要求されたデータのアドレスに応
じた所定のWSデータアレイ部51〜54に送出するため、ア
ドレスとオーダをセレクタ460〜463によって所定のデー
タアレイ51〜54に対応したJ同期レジスタ群470〜473に
設定する。書き込みのばあいは、同時に書き込みデータ
を書き込みデータレジスタ464〜467に設定する。また、
各データアレイに対して起動信号782が送出される。ま
た、Jステージに同期して、BS一致制御論理8にアドレ
スとオーダが送出される。これら、Jステージ処理によ
って使用され、設定されるセレクタ460〜467、レジスタ
470〜477を合わせ、J同期リソースと呼ぶ。
WSデータアレイ部51〜54はアドレスによって8バイト
ごとに分割されて割り付けられている。WS内のアドレス
によるデータの割り付けを第9図に示す。これにより、
全WSデータアレイ51〜54を同時に起動すると32バイトの
連続したアドレスのデータが得られ、データアレイ内バ
ッファ520〜522を介して処理装置10〜11に送出可能とな
る。この実施例では読み出し、書き込みに要するメモリ
サイクルが2クロックサイクルであるメモリ素子をWS素
子として用いている。
Sデータアレイ部51〜54の各面は、1つのメモリ部51
0を持ち、独立動作可能である。WSデータアレイ51〜54
は、制御論理42から起動信号782を受け取ることによっ
て操作を開始する。動作はデータアレイ内制御論理531
によって、制御される。データアレイ内は3つのパイプ
ラインE、S、Wによって処理される。
起動信号782を受け取った制御論理531は、E同期レジ
スタ541〜542にJステージで設定されたJ同期レジスタ
群470〜477の値をセットする。
次のSステージでは、設定されたE同期レジスタの値
をメモリ素子内のレジスタ512に転送する。最後のWス
テージでは、読み出したメモリの値を処理装置へ転送す
るためバッファ520〜522に転送する。データアレイ内の
処理は、処理装置10〜11からの要求の性質によって異な
るため、第10図から第12図を用いて、WS4に対する要求
オーダのうち、主要な3つのタイプの処理である、処理
装置へのブロック転送要求、フルストア要求、部分スト
ア要求に対してその処理を説明する。
(1)ブロック転送 ブロック転送でのアドレスとデータの流れを第10図に
太線にて示す。処理装置10〜11内のBS101〜102はブロッ
クと呼ばれるデータ量単位に管理され、読み込みもこの
ブロックの大きさ単位に行なう。ブロック転送では処理
装置10〜11から与えられる情報は、要求のオーダとアド
レスである。この実施例では、ブロックサイズは32バイ
トであり、このデータをWSの全データアレイ51〜54を起
動することによって読み出す。処理装置からの要求内容
はオーダ、アドレス信号線420〜421を経由し制御論理42
に入力され、制御論理が以降の動作を制御する。ブロッ
ク転送要求では、制御論理42が要求を受け付けた時点
で、その要求のアドレスとオーダがP同期セレクタ431
〜432で選択された系のP同期レジスタ群435〜436に設
定される。ブロック転送の場合書き込みデータはともな
わないため、書き込みデータのキュー414〜415、セレク
タ433〜434、レジスタ437〜438は操作しない。第10図で
は、レジスタ435の側が選ばれた場合を示している。J
ステージでは与えられたアドレスに対してアドレスアレ
イ441を検索し、求めるブロックがWS4中にあった場合に
は、4つのデータアレイ部51〜54にアドレスとオーダを
送って起動し、各データアレイ部51〜54では指定された
ブロックのデータを読み出し、それを要求元の処理装置
10、11に転送する。このときデータアレイの起動信号78
2は同時に送出される必要はない。これについては第8
図の説明の項で詳説する。データアレイ51〜54では起動
信号782を受け取った後、メモリ素子を起動し、データ
を読み出し、データをWSデータアレイ部のバッファ520
〜521に蓄え、処理装置10〜11に対して8バイト/クロ
ックサイクルで2サイクルにわけて転送される。
ブロック転送の要求では、処理装置10〜11内の処理に
必要なデータ(以下ターゲットデータと呼ぶ)が処理装
置10〜11に到着するまで処理装置での命令実行処理が待
たされているため、性能低下を防ぐためには要求を受け
付けてからのブロックデータ、特にターゲットデータを
送出するまでの時間が短くなるように制御しなければな
らない。
(2)ストア処理 ストア処理は、フルストア処理と部分ストア処理の2
種類に分けられる。フルストア処理とは、8バイトのデ
ータアレイ幅全体を更新する処理であり、部分ストア処
理はデータアレイ幅より短いデータを更新するものであ
る。この実施例ではWS4のデータに信頼性向上のため各
データアレイ511幅ごとにチェックコードを用意し、WS
データアレイ更新時にチェックコードの再計算を行う必
要があるため、部分ストア処理とフルストア処理では動
作が異なる。部分ストア処理ではデータアレイ幅の一部
分の更新に対してデータアレイ幅全体に対するチェック
コードを計算するため、8バイト内の更新しない部分の
データを読み出して更新データとマージし、チェックコ
ードを計算する処理が必要となるためである。フルスト
アの処理でのアドレスとデータの流れを第11図に、部分
ストアの場合を第12図に各々太線にて示す。ストア処理
でのアドレスのキューイングと要求の選択、アドレスア
レイ検索などは、ブロック転送処理と同じであるが、ス
トア処理では対象となるデータ幅が小さく起動するWSア
ドレスアレイ51〜54は1つであり、また同時に処理装置
10〜11からの更新データをキューイングしているストア
データキュー414〜415から更新データが取り出され、WS
データアレイ51〜54に送られる。P,J,Eステージの処理
についてはブロック転送と同様であるが、ストア動作の
場合はストアデータがストアデータキュー414〜415から
取り出され、P同期レジスタ437〜438、J同期レジスタ
474〜477に各々設定される。
WSデータアレイ51〜54では1回のフルストアに2サイ
クルを要し、部分ストアでは始めにメモリ素子から読み
出しを行い、それを使ってチェックビットの再計算を行
なう。この処理によって、WSデータアレイは6サイクル
ビジーとなる。
この実施例ではBSがストアスルー方式を取るため処理
装置の行なうストアが、そのままWSに要求として送出さ
れる。このためストアのデータ幅は、ブロック転送時の
データの幅の1/8程度の4バイトないしは8バイトであ
り要求回数も多い。一方、制御命令実行などにおいてシ
リアライゼーションが必要となる場合を除いて、メモリ
に対するストア処理は、データの整合性を論理によって
別途保障すれば命令実行と同期して行なう必要はなく
(所謂突き放し制御)、ストア要求の処理が時間的に遅
れることによる性能への直接の影響はない。このため、
ストア要求の処理に関しては、応答より要求のスループ
ットを優先するよう設計する。
つぎにバッファ記憶装置の制御動作に関して説明す
る。始めにこの実施例でのWS4の制御のタイミングチャ
ートの例を第8図に示す。ワーク記憶に対する要求はパ
イプライン化されて処理されており、パイラインは、前
述のように1マシンサイクルピッチで動作するPJESの4
つのステージと、素子に対応するWステージ、あわせて
5つのステージによって構成される。
処理装置10、11から要求をシステム制御装置3の共用
バッファ記憶装置(WS)4に対して送出した場合、前述
のように順に後続のJESWの各ステージに遷移し、データ
格納部であるデータアレイ部51〜54を起動してデータの
読み出し・書き込みをおこなう。このとき、各ステージ
にある要求は独立に処理され、リソースは競合せず、P
ステージの要求を毎サイクル切り出すことができる。こ
のとき、各処理装置からの要求は、各処理装置10〜11対
応には到着順が守られる。すなわち1つの処理装置10〜
11の要求のキュー411〜412はその処理装置に対応したキ
ュー内で先入れ先出しを守るが、処理装置間では要求の
到着順序と処理の順序は無関係である。ただし、要求が
長時間滞留しないように処理装置間のプライオリティが
制御されある程度の時間内にはサービスされるようにす
る。以下各処理装置10、11からの要求といった場合に
は、要求の受付キューの先頭にある最も前に到着した要
求を指すものとする。
Pステージでは、その時点での処理装置10、11からの
要求の中からJステージのリソースの2面用意されたア
ドレスアレイ441、442の検索を行なおうとする要求を最
大2つ選択する。バッファ一致制御を伴う他処理装置の
バッファ記憶装置101、102の検索と更新、および主記憶
キー素子の更新を行なう。Jステージに存在する要求を
第8図ではアドレスアレイに対応してJ0とJ1と呼んでい
る。このパイプライン制御においては、P、J、Eの3
つのステージにおいて要求を滞留させることができる。
Pステージで要求が滞留するとは、処理装置からの要求
が選択されなかったということであり、選択されるまで
キューで待つ。Jステージでは以下の2つの場合に要求
が滞留する。
(1)Pステージにおいて切り出された要求の使用する
WSデータアレイに対応するEステージに要求が滞留して
いるとき。
(2)主記憶キー、バッファ一致制御論理がビジーであ
りJステージ処理を実行できないとき。
またE、S、WステージにはWSデータアレイ51〜54対
応に同時に最大4つの要求が存在可能であり、データア
レイ内の各データアレイの動作を制御する。ステージに
存在する4つの要求に対して、第8図ではWSデータアレ
イ51〜54に対応して0から3までの添字をつけて区別す
る。先に述べたようにEステージでは要求を滞留させる
ことが可能であり、またEステージでは要求に対応する
WSデータアレイ部51〜54がビジーのとき要求が滞留す
る。
この実施例では、従来技術の項で説明した要求の順序
を保証するために、Jステージにおいては後続要求の追
越を行わないように制御する。即ち、Jステージに要求
が1つ滞留しているときに、Jステージは同時に2つの
要求を処理可能であるためアドレスアレイ441、442の片
面は空いているが、後続要求を新たにPステージから切
り出さない。
一方Eステージでは同じデータアレイ間での追越しは
行わないように制御し、異なったデータアレイ間の追越
は許す。すなわち、Eステージの1つのWSデータアレイ
51〜54に要求が滞留しているときにはそのWSデータアレ
イを必要とする要求がJステージからEステージに遷移
しないようにする。E以降のステージは滞留処理を行わ
ず、要求の内容に対応した一定時間で処理が終了する。
このような制御のもとでのパイプラインの流れの例とし
て、第8図の動作を説明する。
ここでは簡単のために処理装置0(10)からの要求は
第1サイクル目から3つ、各サイクルに1つずつ到着
し、処理装置1(11)の要求は第二サイクル目から各サ
イクル1つずつ到着するものとする。処理装置0(10)
から要求された内容は順に WSデータアレイW1(52)を使用するフルストア処理 WSデータアレイW2(53)を使用するフルストア処理 WSデータアレイW2(53)を使用するフルストア処理 の3つである。また処理装置1(11)から要求された内
容は、順に WSデータアレイW0(51)を使用するフルストア処理 全WSデータアレイを使用するブロック転送処理であ
り、ターゲットデータはデータアレイW1(52)より送出
される。
WSデータアレイW1(52)を使用するフルストア処理 の3つである。このとき、処理は第8図では以下のよう
に行われる。
(1)第一サイクルでは、処理装置0(10)からの要求
のみ存在する。使用するWSデータアレイW1はビジーでな
いと予測されるため、この要求はすぐにJステージに切
り出す。
(2)第二サイクルでは、処理装置0(10)からの要求
はWSデータアレイW2(53)を使用するストアであり、処
理装置1からの要求はWSデータアレイW2(53)を使用す
るストアである。この両者の使用するWSデータアレイは
異なり、また先行の要求とも競合しないため、この両要
求をJステージに切り出す。
(3)第3サイクルでは、処理装置0(10)からの要求
はWSデータアレイW2(53)を使用するストアであり、処
理装置1(11)からの要求は全WSデータアレイ51〜54を
使用するブロック転送であるため、後続ステージで使用
WSデータアレイが競合し、両者を同時には切り出せな
い。このときは、ブロック転送の優先順位が高いため、
処理装置1(11)のブロック転送要求を先に切り出す。
このとき、先行の要求は滞留せずJステージからEステ
ージに遷移した。
(4)第4サイクルでは第3サイクルで切り出したブロ
ック転送要求のため全WSデータアレイ51〜54がビジーで
あるため、処理装置10、11からのストア要求はいずれも
切り出せない。また先行の要求はいずれも滞留せず遷移
した。
(5)第5サイクルではまず先行の第2サイクルで切り
出した2つのストアと第3サイクルで切り出したブロッ
ク転送がWSデータアレイW0とW2(51、53)で競合するた
め、WSデータアレイW0とW2(51、53)に対するブロック
転送要求はEステージE0とE2にて滞留する。一方新規の
要求では処理装置0(10)からのWSデータアレイW3(5
4)を使用するフルストア要求と処理装置1(11)から
のWSデータアレイW1(52)を使用するストア要求が処理
の対象となる。このとき処理装置0(10)からのストア
要求の使用するWSデータアレイW2(53)は先行要求が滞
留しているためEステージがビジーであり切り出せな
い。一方処理装置1(11)からのストア要求は先行の要
求と競合しないため、Jステージに投入する。
(6)第6サイクルでは、Eステージに滞留していた要
求は2つとも競合条件が解消され、Sステージに遷移す
る。新規要求は処理装置0(10)からのストア要求で、
これは先行の要求と競合しないため、Jステージに投入
する。他の要求は滞留せず遷移する。
(7)第7サイクルでは切り出すべき要求はもうない。
また投入済みのすべての要求が保留なく遷移する。
以上が切り出しの処理の概要である。第三サイクルで
切り出されたブロック転送要求は先行の第1、第2サイ
クルで切り出された要求とWSデータアレイ競合を起こす
ため、Eステージにて先行の要求によりWSデータアレイ
のビジーが解除されるまで滞留する。
以下、上記のように切り出すべき要求の選択を行う論
理例を第3図に即し説明する。本実施例でのPステージ
の要求切り出し部の論理構成は第3図に示す構成であ
る。このとき、Pステージの切り出しアルゴリズムは以
下のようになり、第3図の要求選択論理は以下のアルゴ
リズムにしたがって要求を選択する組合せ論理である。
(1)要求の種類によらず、Jステージに要求が滞留し
ているときには新規の要求を切り出さない。
(2)直前のサイクルでブロック転送要求を切り出した
ときには、WSデータアレイ部のどのWSデータアレイもビ
ジーであるため、新規の要求を切り出さない。
(3)どちらかの処理装置10、11からの要求がブロック
転送処理である場合には、1サイクル後にEステージに
おいて要求が滞留しない場合、Jステージに切り出す。
この条件が満たされない場合、切り出したブロック転送
要求はEステージのビジーのためJステージで滞留する
ため、Jステージに切り出さない。
またブロック転送の要求が複数ある場合には、以下の
2つの条件のいずれかを満たす側を選択する。
2サイクル後に、ターゲットデータに対するWSデータ
アレイがビジーでない。
の条件を両者が満たす、あるいは両者が満たさない
ときは別途生成されたプライオリティによって優先順位
の高い側を選択する。
(4)処理装置10、11からの要求が両方ともストア要求
であった時には、先行の要求と競合しない要求のうち、
切り出せる最大の数の要求を切り出す。即ち処理装置1
0、11からのストア要求から、以下の条件を共に満たす
ものを選択する。
ストアを行なおうとするWSデータアレイ51〜54に対応
するEステージにおいて1サイクル後に要求が滞留しな
い。これは、切り出した要求がWSデータアレイのビジー
によってJステージで滞留しないための条件である。
この要求がWSデータアレイ51〜54に到着する3サイク
ル後に、ストアを行なうデータアレイがビジーでない。
このような要求の中から、同じWSデータアレイを使用
しない要求を2つ、また2つ選べないときには1つ選択
する。選択にあたって条件を満たす要求が複数ある場合
には別途生成されたプライオリティに従って選択する。
このアルゴリズムを実現するための第3図の論理は、
選択された要求によるWSデータアレイのビジーを予測す
る論理73とJステージ、Eステージに要求が滞留するこ
とを予測する論理71、72、滞留・ビジー状態の予測結果
と処理装置間のプライオリティからJステージに切り出
す要求を選択する組合せ論理70、要求間のプライオリテ
ィを生成する論理74の3つの部分からなる。以下各論理
の構成を順に説明する。
はじめに要求を選択する組合せ論理70を説明する。こ
の組合せ論理70では、処理装置10、11間の優先順位、要
求選択アルゴリズムは同じであり、処理装置0(10)と
処理装置1(11)に対する要求選択論理は同一構成であ
る。よって命令処理装置0(10)に対する要求選択論理
の構成を説明する。処理装置1(11)に対する同様の論
理は、すべての0を1に、すべての1を0に置き換える
ことによって得ることができる。要求を選択するかどう
かを判定する式は2段の組合せ論理からなり第1段で指
定した要求が先行した要求と競合するかどうかをテスト
し、競合しない要求を選択する。第二段で、プライオリ
ティを考慮してその要求を実際に選択するかどうかを判
定する。第1段での要求の競合条件の判定式は、以下に
示す第1式によって記述される。
RQVk :処理装置Kからの要求が先行の要求と競合しな
い. RQEk :処理装置Kからの要求が存在する. BP :Jステージがビジーである. BT :直前の要求はブロック輸送である. RQOk=BT:当該要求はブロック輸送である. BWi :WSデータアレイiに対するEステージがビジーで
ある. RQBkj:当該要求はWSデータアレイjをターゲットバンク
として使用. RQWki:当該要求はWSデータアレイiを使用. BBj :WSデータアレイjがビジーである. ^ :否定を示す. 第1式の第1項は、切り出す要求があることを、第2
項はPステージにて滞留がないことをチェックする項で
ある。第3項は先行する要求とこの要求が競合するかど
うかをチェックする項である。第3項の括弧内の第1節
はブロック転送要求に対するもので、ブロック転送要求
の場合には先行要求によってターゲットデータを送出す
るデータアレイがビジーの時要求を切り出さず、それ以
外のデータアレイがビジーであっても要求を切り出すと
いう条件を見る項である。第2節はストア要求に対し
て、使用するデータアレイがビジーなら要求を切り出さ
ないという条件を見る項である。
また第二段の、要求を選択する論理を与える式を第二
式に示す。
SLk :処理装置Kからの要求をJステージに切りだすよ
う、選択する. PV01:処理装置0のプライオリティが処理装置1より高
い. この第二式の第2項は、切り出し可能な処理装置から
の要求のうちJステージに切り出し可能なものを、その
時点での処理装置間のプライオリティを用いて実際に切
り出すかどうかを判定する項である。処理装置10、11か
らの先行する要求と競合しない要求は、以下の4条件の
うち少なくとも一つが成立したとき、切り出すことがで
きる。
他に切り出し可能な要求が存在していない。
他の要求と使用WSデータアレイが競合しない。
自要求がブロック転送であり、他の要求はすべてスト
ア要求である。ストア要求よりブロック転送要求の優先
順位を高く設定し、ブロック転送を先に処理する。
自処理装置のプライオリティが、他処理装置のプライ
オリティより高い。
第2項の括弧内の第1項は上記項番を、第2項は
を、第3項はを、第4項はを各々示している。
次に、第13図にWSデータアレイ部51〜54のビジー状態
を予測計算するアレイビジー予測論理73の1データアレ
イ分の詳細な構成を示す。この論理73は、各WSデータア
レイ51〜54対応に計4個あり、各WSデータアレイのビジ
ー状態を要求の内容と使用WSデータアレイから3サイク
ル前に予測する。この時間関係は、そのサイクルでPス
テージから切り出した要求がWSデータアレイ部に到着す
るときのWSデータアレイ部のビジーが該予測論理の出力
となるよう構成されている。この論理73は、要求のオー
ダのデコード論理731、ビジー時間設定論理732、ビジー
時間を計算するダウンカウンタ部733の3つの部分から
なる。各WSデータアレイ対応の論理はPステージから切
り出された要求がEステージにおいて滞留しないと予測
されたとき、Jステージ内の2つの要求各々に対して対
応するWSデータアレイが起動されるかどうかを判定し、
起動される場合にはデータアレイがビジーとなる時間を
要求のオーダとアドレス内容にしたがって計算する。2
つのPステージに存在する要求が同時に同じWSデータア
レイを使用することはないため、計算された起動を判定
する信号735のたかだか一方のみが信号値1であり、ま
た計算されたビジー時間も少なくとも一方は0である。
ここから、Jステージに存在する2要求に対して論理
和、算術和を作成し736、737、Jステージの要求2つに
対してその使用するWSデータアレイに対しての新たに設
定するビジー時間を計算し、ダウンカウンタ入力の選択
論理7331からビジー時間をダウンカウンタのレジスタ73
32に設定する。ダウンカウンタ7332は1クロックサイク
ルごとにその時の値から1減算し、0となったところで
減算を停止する。このカウンタの値が1以上である間
は、そのデータアレイがビジーであることを示し、この
ビジー情報753をプライオリティ選択論理74及びEステ
ージ滞留判定論理72に出力する。
次に、第14図にEステージでの要求の滞留を予測する
論理72の構成を示す。この論理72は、WSデータアレイ51
〜54に対応して4組あり、Eステージでの要求の滞留を
2サイクル前に予測する。この時間関係はWSデータアレ
イ部のビジー予測論理に準ずる。各論理の構造は、「E
ステージに要求が存在し、その要求の用いるWSデータア
レイがその時点でビジーであれば、Eステージで要求は
滞留している」ことによる判定論理によって作成されて
いる。この論理72は自要求の使用するWSデータアレイが
先行要求によってビジーとなっていないかどうかを判定
するアレイ競合判定論理721と要求の滞留論理722〜726
からなる。あるWSデータアレイ51〜54に対応するEステ
ージに要求が滞留していないとき(正確には第14図に示
した論理に要求が滞留していない、即ち滞留FF725の値
が“0"のときであり、実際の滞留が発生する時刻より2
サイクル前)、JステージにそのEステージを使用する
要求を切り出すことができる。このとき、切り出された
要求がJステージにて滞留しないと予測されるならば、
Eステージでの滞留のテストを行なう。Jステージの要
求が使用するデータアレイの情報をオーダとアドレスか
ら作成し、アレイビジー予測論理からのアレイビジー情
報753を用いて先行要求と使用するデータアレイ51〜54
が競合するかどうかを判定し、競合するときは信号線72
7を論理値“1"にする。このときJステージ滞留検出論
理から73からJステージに滞留がないという判定結果が
信号線761経由で報告されているため、論理和ゲート722
の出力は論理値“1"となる。このとき、信号線727が論
理値“1",即ちWSデータアレイの競合があるときには論
理積ゲート723の出力は“1"で、ゲート724の出力は“0"
となり、Eステージに滞留している要求があるという判
定結果が信号線752経由でJステージ滞留予測論理73の
Pステージ要求切り出し論理70に報告される。またこの
ときEステージからSステージへの遷移を示す報告信号
線762は“0"のままであり、滞留している信号によって
アレイビジー情報は更新されない。また要求が滞留した
ときは、その要求のアドレスとオーダ情報をレジスタ72
6の更新を信号線752の結果によって抑止し、保持する。
また滞留した要求はFF725に保持されアレイビジー信号
が“0"となるまでEステージの滞留情報を報告し続け
る。信号線727の結果が“0"のときはEステージの滞留
は起こらず、信号線752は“0"、信号線762は“1"とな
り、アレイビジー情報が更新される。
次に、第15図にJステージでの要求の滞留を予測する
論理71を示す。この論理71は、各Jステージ対応に2組
ある。各論理の構造は、「Jステージに要求が存在し、
かつJステージの要求が遷移しようとするEステージに
要求が存在し、そのEステージの要求が次サイクルにS
ステージに遷移しないならば、Jステージで要求は滞留
している」という判定条件によって作成されている。論
理構成は第14図と同様であり、説明は繰り返さない。こ
こでFF7180と7181は時間関係を合わせるため信号を1サ
イクル遅らせる。
本実施例ではプライオリティ生成部の処理アルゴリズ
ムは、本発明の効果に関係しない。例えばフリーランカ
ウンタによって作成する疑似ランダムシーケンスによっ
て作成することができる。このプライオリティ生成アル
ゴリズムは、システムの性質と目的に応じて適宜選択す
べきものである。
以上の制御を行うことによって、要求の処理における
順序関係が保存されることを示す。Jステージに同期し
た処理(例えばBSの一致制御など)については、Jステ
ージでは要求処理の順序を追越を行わないよう制御する
ことによって保障しているため順序に関する矛盾は生じ
ない。Eステージでの要求の処理の順序性は、異なるWS
データアレイで見た場合には必ずしも保証されないが、
以下に示す理由によってこの順序制御の乱れは観測でき
ない。
(1)WSにおけるデータ整合性は、Eステージの各WSデ
ータアレイ個別に見た場合には、Pステージにて切り出
された順に要求が処理されるため、あるアドレスでの参
照・更新の順序は常にPステージでの切り出し順序と同
じとなり矛盾は生じない。
(2)処理装置側での読み出しデータの順序は、各WSデ
ータアレイ51〜54内では(1)と同様の理由で保障され
るが、データアレイ間では処理順序は保障されない。し
かしながら、BS側で各ブロック転送時に4つのWSデータ
アレイごとに応答を管理し、整序を行うことによってWS
データアレイ間の時間的前後を吸収できる。また従来技
術の項で説明した、他処理装置により観測可能な順序
は、バッファの一致制御はJステージに同期して実施さ
れるため各要求がJステージを通過した順序と常に一致
しており、観測によってデータとしてありえない値が読
み出されることはない。
この制御において、WSデータアレイ51〜54の競合によ
ってJステージに要求が滞留する場合のうち、先行要求
がEステージで滞留し、かつその要求が滞留したデータ
アレイをその要求が使用する場合は、これは上記Pステ
ージの切り出しアルゴリズムにおいて先行要求がEステ
ージで滞留することを予測し、その滞留したWSデータア
レイ51〜54に対して要求を切り出さないように制御して
いるため、発生しない。したがってJステージで要求が
滞留する場合は、主記憶キーとBS一致制御論理部のいず
れかのビジー時のみである。
この実施例において、WSがストアスルー方式を採った
場合は、ストア要求が主記憶装置に対しても送出される
ことを除いて実施例の構成に大きな変更はない。このと
き主記憶装置に対するストア要求の送出は、Jステージ
に同期して送出しても、Eステージに同期しても良い。
この実施例において、WS内の他の各サブユニットがビ
ジーである条件は簡略化しているが、その他のビジー条
件は、WSデータアレイ51〜54内のビジー要因はEステー
ジの滞留要因に加え、それ以外の要因はPステージの滞
留要因か、要求を切り出さない条件に加えることによっ
て追加できる。
本実施例の変型として、Eステージ内でアドレスが一
致していない読み出しの要求と書き込みの要求の順序を
入れ換える制御を行うことも可能である。この場合に、
WS上でのデータの整合性のみ保証することによって、従
来技術の項で説明した順序保証を行うことができる。ま
たこの変型方式を用いることによって、ストアインタイ
プのBSに対して本発明を実施することが可能である。
「発明の効果」 この発明の実施により、従来技術の項で説明したバッ
ファ記憶装置に対する処理の順序を守り、かつバッファ
記憶装置の利用効率を改善し、またブロック転送に対す
るターゲットデータの応答が早いバッファ記憶装置を得
ることができる。
【図面の簡単な説明】
第1図は、本発明の共有バッファ記憶装置の構成を示す
図、 第2図は、本発明のシステム構成を示す図、 第3図は、本発明の共有バッファ記憶装置における要求
選択論理の構成を示す図、 第4図から第6図は従来のパイプラインの流れを示す
図、 第7図は本発明によるパイプラインの流れを示す図、 第8図は、本発明の1実施例におけるパイプラインの流
れを示す図、 第9図は、アドレスとWSデータアレイとの対応を示した
図、 第10図は、ブロックデータの読み出しの際のデータの流
れを示す図、 第11図は、フルストアの処理の際のデータの流れを示す
図、 第12図は、部分ストアの処理の際のデータの流れを示す
図、 第13図は、データアレイのビジーを予測する論理構成を
示す図、 第14図は、Eステージにおける滞留を予測する論理構成
を示す図、 第15図は、Jステージにおける滞留を予測する論理構成
を示す図である。 図中、10、11……命令処理装置、3……システム制御装
置、4……共用バッファ記憶装置、411〜412……リクエ
ストキュー、441〜442……アドレスアレイ論理、42……
制御論理、51〜54……データアレイ部、70……要求選択
論理、71……データアレイビジー予測論理、72……Eス
テージ滞留予測論理、73……Jステージ滞留予測論理。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 田村 恭久 神奈川県川崎市麻生区王禅寺1099番地 株式会社日立製作所システム開発研究所 内 (56)参考文献 特開 平2−228761(JP,A) 特開 平3−15965(JP,A) 特開 平2−186455(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06F 15/163 JOIS EPAT WPI

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】主記憶装置のデータの複写を保持するバッ
    ファ記憶装置であって、該バッファ記憶装置は同時に動
    作可能な複数のメモリ部より構成され、該バッファ記憶
    装置に対する複数の処理装置からの参照または更新の要
    求を処理するバッファ記憶装置制御方式において、要求
    が複数のメモリ部内のデータのアクセスをするとき、ア
    クセス可能状態にあるか否かに応じて、それぞれのメモ
    リ部へのアクセスタイミングを決定するバッファ記憶装
    置の制御方法。
JP2147774A 1990-06-05 1990-06-05 バッファ記憶制御方法 Expired - Fee Related JP2779044B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2147774A JP2779044B2 (ja) 1990-06-05 1990-06-05 バッファ記憶制御方法
US07/710,336 US5377341A (en) 1990-06-05 1991-06-05 Buffer storage control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2147774A JP2779044B2 (ja) 1990-06-05 1990-06-05 バッファ記憶制御方法

Publications (2)

Publication Number Publication Date
JPH0439759A JPH0439759A (ja) 1992-02-10
JP2779044B2 true JP2779044B2 (ja) 1998-07-23

Family

ID=15437875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2147774A Expired - Fee Related JP2779044B2 (ja) 1990-06-05 1990-06-05 バッファ記憶制御方法

Country Status (2)

Country Link
US (1) US5377341A (ja)
JP (1) JP2779044B2 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5510973A (en) * 1991-08-15 1996-04-23 Fujitsu Limited Buffer storage control system
JPH05233422A (ja) * 1992-02-19 1993-09-10 Hitachi Ltd メモリ参照要求処理方式
JPH06187302A (ja) * 1992-12-18 1994-07-08 Fujitsu Ltd 転送要求キュー制御方式
US5588128A (en) * 1993-04-02 1996-12-24 Vlsi Technology, Inc. Dynamic direction look ahead read buffer
JPH0793216A (ja) * 1993-09-27 1995-04-07 Hitachi Ltd キャッシュ記憶制御装置
JP3304577B2 (ja) * 1993-12-24 2002-07-22 三菱電機株式会社 半導体記憶装置とその動作方法
US5751995A (en) * 1994-01-04 1998-05-12 Intel Corporation Apparatus and method of maintaining processor ordering in a multiprocessor system which includes one or more processors that execute instructions speculatively
SG47981A1 (en) * 1994-03-01 1998-04-17 Intel Corp Pipeline process of instructions in a computer system
US5666506A (en) * 1994-10-24 1997-09-09 International Business Machines Corporation Apparatus to dynamically control the out-of-order execution of load/store instructions in a processor capable of dispatchng, issuing and executing multiple instructions in a single processor cycle
US5829010A (en) * 1996-05-31 1998-10-27 Sun Microsystems, Inc. Apparatus and method to efficiently abort and restart a primary memory access
US6418478B1 (en) * 1997-10-30 2002-07-09 Commvault Systems, Inc. Pipelined high speed data transfer mechanism
US7581077B2 (en) 1997-10-30 2009-08-25 Commvault Systems, Inc. Method and system for transferring data in a storage operation
US6519682B2 (en) * 1998-12-04 2003-02-11 Stmicroelectronics, Inc. Pipelined non-blocking level two cache system with inherent transaction collision-avoidance
US6330630B1 (en) * 1999-03-12 2001-12-11 Intel Corporation Computer system having improved data transfer across a bus bridge
JP4201927B2 (ja) * 1999-08-25 2008-12-24 株式会社ルネサステクノロジ データ処理管理装置
US6684301B1 (en) * 2001-05-31 2004-01-27 Lsi Logic Corporation Out of order execution memory access request FIFO
US8370542B2 (en) 2002-09-16 2013-02-05 Commvault Systems, Inc. Combined stream auxiliary copy system and method
US20050004988A1 (en) * 2003-07-03 2005-01-06 Farry Damian J. Method for providing content-neutral control over electronic mail message exchange
CA2544063C (en) 2003-11-13 2013-09-10 Commvault Systems, Inc. System and method for combining data streams in pilelined storage operations in a storage network
US7512693B2 (en) * 2004-05-13 2009-03-31 International Business Machines Corporation Dual-component state token with state data direct access index for systems with high transaction volume and high number of unexpired tokens
US9904481B2 (en) 2015-01-23 2018-02-27 Commvault Systems, Inc. Scalable auxiliary copy processing in a storage management system using media agent resources
US9898213B2 (en) 2015-01-23 2018-02-20 Commvault Systems, Inc. Scalable auxiliary copy processing using media agent resources
US11010261B2 (en) 2017-03-31 2021-05-18 Commvault Systems, Inc. Dynamically allocating streams during restoration of data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58222361A (ja) * 1982-06-18 1983-12-24 Fujitsu Ltd デ−タ処理システムにおけるアクセス要求の優先順位決定制御方式
JPS58225432A (ja) * 1982-06-24 1983-12-27 Toshiba Corp 要求バツフア装置
JPS6145355A (ja) * 1984-08-09 1986-03-05 Nec Corp マルチプロセツサ制御方式
US5050066A (en) * 1988-10-14 1991-09-17 Intel Corporation Apparatus with a single memory and a plurality of queue counters for queuing requests and replies on a pipelined packet bus

Also Published As

Publication number Publication date
US5377341A (en) 1994-12-27
JPH0439759A (ja) 1992-02-10

Similar Documents

Publication Publication Date Title
JP2779044B2 (ja) バッファ記憶制御方法
US6088788A (en) Background completion of instruction and associated fetch request in a multithread processor
US6772327B2 (en) Floating point unit pipeline synchronized with processor pipeline
US7873785B2 (en) Multi-core multi-thread processor
US5881308A (en) Computer organization for multiple and out-of-order execution of condition code testing and setting instructions out-of-order
US7904700B2 (en) Processing unit incorporating special purpose register for use with instruction-based persistent vector multiplexer control
US9021237B2 (en) Low latency variable transfer network communicating variable written to source processing core variable register allocated to destination thread to destination processing core variable register allocated to source thread
US7904699B2 (en) Processing unit incorporating instruction-based persistent vector multiplexer control
US6108766A (en) Structure of processor having a plurality of main processors and sub processors, and a method for sharing the sub processors
EP0686912A2 (en) Data processor with an execution unit for performing load instructions and method of operation
US7191320B2 (en) Apparatus and method for performing a detached load operation in a pipeline microprocessor
JP3683808B2 (ja) 命令履歴情報を持つ基本キャッシュ・ブロック・マイクロプロセッサ
JPH0648479B2 (ja) 多重プロセッサ計算機システムのための記憶サブシステム
US20100332800A1 (en) Instruction control device, instruction control method, and processor
TWI235916B (en) Multilevel cache structure and method using multiple issue algorithm with over subscription avoidance for high bandwidth cache pipeline
US5031096A (en) Method and apparatus for compressing the execution time of an instruction stream executing in a pipelined processor
US7725659B2 (en) Alignment of cache fetch return data relative to a thread
JPH02239331A (ja) データ処理システム及びその命令実行を促進する方法
EP0518420A2 (en) Computer system for concurrent processing of multiple out-of-order instructions
JP3629551B2 (ja) 基本キャッシュ・ブロックを利用したマイクロプロセッサ
WO2017088456A1 (zh) 多输入多输出处理器流水线数据同步装置及方法
EP0378816B1 (en) Production line method and apparatus for instruction execution
JP3153906B2 (ja) コンピュータの分散型パイプライン制御装置及び方法
KR100431975B1 (ko) 분기에의한중단이없는파이프라인방식의마이크로프로세서를위한다중명령디스패치시스템
US5623685A (en) Vector register validity indication to handle out-of-order element arrival for a vector computer with variable memory latency

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees