JP2004500608A - Universal resource access controller - Google Patents

Universal resource access controller Download PDF

Info

Publication number
JP2004500608A
JP2004500608A JP2000582896A JP2000582896A JP2004500608A JP 2004500608 A JP2004500608 A JP 2004500608A JP 2000582896 A JP2000582896 A JP 2000582896A JP 2000582896 A JP2000582896 A JP 2000582896A JP 2004500608 A JP2004500608 A JP 2004500608A
Authority
JP
Japan
Prior art keywords
memory
command
controller
access
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000582896A
Other languages
Japanese (ja)
Inventor
ストラコブスキー・ヘンリー
シャベルスキー・ピオトル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/439,544 external-priority patent/US6532505B1/en
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of JP2004500608A publication Critical patent/JP2004500608A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/161Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement
    • G06F13/1621Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement by maintaining request order
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0215Addressing or allocation; Relocation with look ahead addressing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/161Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement
    • G06F13/1626Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement by reordering requests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/1652Handling requests for interconnection or transfer for access to memory bus based on arbitration in a multiprocessor architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multi Processors (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】
【解決手段】ユニバーサルリソースアクセスコントローラ(104)は、要求元システム(102)とリソース(108)とに結合されているので、要求元システム(102)は、要求元システム(102)からリソース(108)へのアクセスが必要とされる場合にリソースアクセス要求を生成し、それをユニバーサルリソースコントローラ(104)に引き渡す。すると、ユニバーサルリソースコントローラ(104)は、要求されたリソースの特定の動作特性パラメータと、要求されたリソースの現在の状態とを使用し、要求元システム(102)が必要とするリソース(108)へのアクセスに適した対応する順序づけられたユニバーサルアクセス要求コマンドを生成する。
【選択図】図1A
【Task】
The universal resource access controller (104) is coupled to the requesting system (102) and the resource (108), so that the requesting system (102) is moved from the requesting system (102) to the resource (108). ) Generates a resource access request when access is required and hands it off to the universal resource controller (104). The universal resource controller (104) then uses the specific operating characteristic parameters of the requested resource and the current state of the requested resource to provide the resource (108) required by the requesting system (102). Generate a corresponding ordered universal access request command suitable for the access of
[Selection diagram] FIG. 1A

Description

【0001】
【発明の属する技術分野】
本発明は、広義にはコンピュータシステムに関する。より具体的には、本発明は、マルチプロセッサコンピュータシステムなどのコンピュータシステムにおける共用リソースへのアクセスに関する。特に、共用リソースへのユニバーサルアクセスを提供するための装置および方法が記載される。
【0002】
【従来の技術】
基本的なコンピュータシステムにおいては、中央処理機構、またはCPUが、関連するメモリ内に記憶されている所定のプログラムまたは命令一式に従って動作する。そのような、プロセッサの動作を規定する、記憶されている命令一式またはプログラム以外にも、処理中における中央プロセッサの情報操作を容易にするために、メモリ空間がプロセッサメモリまたは関連する追加メモリ内に備えられている。追加メモリは、プロセッサによって作成される情報の記憶場所を提供し、加えて、プログラムの処理に際してプロセッサが臨時に、すなわち“メモ帳”代わりにして使用する情報の記憶場所を提供する。さらに、関連メモリは命令一式を実行しているプロセッサの出力情報を設置する場所を提供し、システムの出力装置がその情報を利用できるようにする。
【0003】
現存するメモリにアクセスするために、多くの構成部分(プロセッサ、ハードドライブなど)が1つの共通のバスを共同使用しなければならないシステムにおいては、メモリへのアクセスをめぐる衝突が発生する可能性が上昇する。特にマルチプロセッサコンピュータシステムなどの場合、異なるプロセッサを利用するシステムが同時に操作されるため、メモリまたは他の共用リソースへのアクセスが複雑になる。各プロセッサまたはプロセッサシステムが同じメモリへのアクセスを同時に要求する可能性が高いので、プロセッサ間での衝突は一般的には回避不可能である。基本的に、マルチプロセッサコンピュータシステムにおける2つ以上のプロセッサまたはプロセッサシステムの動作は、結果として、共用メモリ或いは他の共用リソースに対するメモリコマンドの断続的な重複を生じさせる。
【0004】
共用メモリに対するメモリアクセス要求の衝突という問題の解決のために採られてきた従来の方策は、ある場合では、プロセッサのそれぞれに使用されるメモリの完全な重複や、プロセッサシステムの隔離が含まれる。しかし、メモリアクセス要求の衝突問題を解決するためのこの方策は、しばしば、多重プロセッサシステムにおいて意図された利点を無にしてしまう。そのような多重プロセッサは、一方のプロセッサが他方のプロセッサの動作を補助しながら、同じデータでの並行した算出動作を行うといった状況で操作される場合に最も効果的である。従来、そのようなプロセッサシステムは、プロセッサ同士がメモリなどの共用リソースへのアクセスを競い合うという時間的共用であるか、またはプロセッサシステムが二重のポートを有しており、各プロセッサは例えば個別にメモリバスを有し、一方がアクセスを許可された場合には他方は待機しているといった状態である。
【0005】
上記の衝突問題を回避するため様々な方策が採られてきた。ある方策では、各プロセッサの逐次的な使用、またはプロセッサの時間的共用によって衝突の回避が達成される。この方法では、単純に、衝突を避けるために、プロセッサが順番に共用リソースへのアクセスを行う。一般的に利用されるこのようなシステムは“リングパッシング”または“トークンシステム”を含み、それにより、ユーザーグループでのリングの伝達と類似する所定の連続動作に従って、衝突する可能性のあるプロセッサがシステムによってポーリングされる。
【0006】
残念ながら、プロセッサによる逐次的なアクセスの方法論は、コンピュータシステムの全体的な動作に著しい制限を課すことになる。この制限は、システムが、衝突するプロセッサをポーリングするためにかなりの時間を費やすという事実に起因する。さらに、単独のプロセッサが作動しており、例えば共用メモリへのアクセスを要求する場合には、システムによる連続動作の実行に伴い、共用リソースへのプロセッサアクセスの間で、各メモリサイクル毎に遅延が生じる。
【0007】
衝突回避のための他の一般的な方策は、コンピュータシステム内のプロセッサ間での優先順位付けによるものである。そのような方法では、各プロセッサに対してシステムの重要性の階層に従った優先順位が付される。衝突が発生するたびに、メモリコントローラは単純により高い優先順位を有するプロセッサにアクセスを提供する。例えば、2つのプロセッサを有するシステムの場合、共用メモリへは第一のプロセッサ、第二のプロセッサがアクセスする。共用メモリは、典型的には、メモリに維持記憶されているデータの周期的なリフレッシュが必要となるダイナミックDRAM(DRAM)型メモリ装置などである。一般的に、DRAM型メモリでは別の独立したリフレッシュシステムによってリフレッシュが行われる。そのようなマルチプロセッサシステムの場合、プロセッサとリフレッシュシステムとの双方が共用メモリへのアクセスを競うことになり、プロセッサおよびリフレッシュシステムに割り当てられた優先順位に従って、システムメモリコントローラがメモリアクセス要求の衝突やコマンドを処理する。そのようなシステムは、衝突の問題を解決し、さらに、単純な逐次的アクセスによる衝突回避のシステムよりも効果的である反面、依然として柔軟性に欠くものである。
【0008】
衝突解消のための他の従来的な方策は、メモリコントローラ内に組み込まれた意思決定機能である。残念ながら、メモリコントローラの意思決定部分はクロックシステムによる制御およびタイミングによって操作されるため、実際に意思決定を実行し、メモリコントローラが共用メモリへのアクセスを許可し得るようになるまでに多くの時間を費やすことになる。
【0009】
残念なことに、この実際の意思決定の実行という問題は、従来のメモリコントローラが有するマルチバンク型メモリシステムへのアクセス許可能力を実質上低下させる。マルチバンク型メモリシステムでは、実際のメモリコアは特定の領域、すなわちバンクに区分され、読み出されるデータもそこに記憶される。より迅速且つより効率的なメモリアクセスが提供できる反面、マルチバンクメモリ装置に対応するために従来のメモリコントローラには複雑な仕組みが求められ、その結果、全体的なシステムとしては、アクセススピードが全体的に著しく低下することになる。
【0010】
以上のことから、ユニバーサルデバイスアクセスコントローラが望まれていることがわかる。
【0011】
【発明の概要】
本発明にしたがって、例えばシンクロナスリンクDRAM(SLDRAM)等からなる関連リソースへのアクセスを制御するために、ユニバーサルリソースアクセスコントローラが提供される。本発明は、要求元システムとリソースとに結合されたユニバーサルリソースアクセスコントローラを備えるので、要求元システムは、リソースへのアクセスを必要とする場合にリソースアクセス要求を生成し、ユニバーサルリソースコントローラに引き渡す。すると、ユニバーサルリソースコントローラは、要求されたリソースの特定の動作特性パラメータと、要求されたリソースの現在の状態とを使用し、要求元システムが必要とするリソースへのアクセスに適した、対応する順序付けられたユニバーサルアクセス要求コマンドを生成する。
本発明の別の実施形態にしたがって、複数の要求元システムのうちの任意の要求元システムによる、複数のアクセス可能なデバイスのうちの任意のデバイスへのアクセスを制御するための装置を開示する。この装置は、ユニバーサルコントローラユニットと、ユニバーサルコントローラユニットに結合されたアドレス空間コントローラユニットとを備える。ユニバーサルコントローラユニットは、要求元システムから入力されたシステムアドレスとシステムコマンドとをデコードする。次いで、ユニバーサルコントローラユニットは、アドレス空間コントローラに格納され、アドレス空間コントローラによって提供されるデバイスパラメータに基づいて、関連するデバイスアドレスと対応するデバイスコマンドとを生成する。アドレス空間コントローラは、複数のデバイスのそれぞれにアドレス空間コントローラ内で自身のアドレス領域が与えられるように構成される。
【0012】
本発明の特質および利点については、本明細書中の以下に示される部分および図面により、その一層の理解が達成される。
【0013】
【発明の実施の形態】
プロセッサなどの複数の装置が同じリソースを共用するシステムの場合、1つ以上の装置が共用リソースへのアクセスを要求する際に典型的に発生する衝突を回避するために、様々な方策が採られてきた。ある方策では、プロセッサを順番に動作させることでその衝突を回避し、またはプロセッサの時間的な共用によって衝突回避を達成する。この方法においては、衝突を避けるために、単純に、プロセッサが順番に共用リソースへのアクセスを行う。一般的に利用されるこのようなシステムは“リングパッシング”または“トークンシステム”を含み、それにより、ユーザーグループでのリングの伝達と類似する所定の連続動作に従って、衝突する可能性のあるプロセッサがシステムによってポーリングされる。
【0014】
残念ながら、このようなプロセッサによる逐次的なアクセスの方法論では、衝突するプロセッサをシステムがポーリングするためにかなりの時間を費やすため、コンピュータシステムの全体的な動作に著しい制限を課すことになる。
【0015】
衝突回避のための他の一般的な方策は、コンピュータシステム内のプロセッサ間での優先順位付けによるものである。そのような方法では、各プロセッサに対してシステムの重要性の階層に従った優先順位が付される。そのようなシステムは衝突の問題を解決し、さらに、単純な逐次的アクセスによる衝突回避のシステムよりも効果的である反面、依然として柔軟性に欠くものである。
【0016】
衝突回避のためのさらに別な一般的方策は、コントローラ型装置に組み込まれた意思決定ロジックを含む。残念ながら、意思決定ロジックの複雑さから、実際の意思決定が実行されコントローラによる共用メモリへのアクセス許可が可能になるまでに、多くの時間を費やすこととなる。
【0017】
複雑なロジックがシステムの動作速度を低下させるこの問題は、それぞれに異なる動作特性を有しながら相互に接続された複数のメモリ装置の間に点在するメモリを含むマルチチップモジュール型メモリシステムにおいてはさらに顕著である。従来のロジックは、様々なメモリ装置に固有の、それぞれに異なるアクセス特性を補うようには構成され得ないので、全体的なシステムの実行性能を低下させることで解決しようとする。
【0018】
広義には、図1Aに示される通り、本発明は、それぞれがユニバーサルデバイスコントローラ104に結合された要求デバイス102を有するシステム100として示すことができる。ここで、要求デバイス102は、任意の数および種類の共用リソース108へのアクセスを提供するように適切に形成されたシステムバス106によってユニバーサルデバイスコントローラ104に結合される。1つの実施形態では、システムバス106は関連するシステムインターフェース層110によってユニバーサルコントローラ104に結合され、さらには、そのユニバーサルコントローラ104が共用リソースインターフェース109によって共用リソース108に結合される。広義には、ユニバーサルコントローラ104は、任意の要求元システム102からの共用リソースへの要求および共用リソース動作特性パラメータ113に基づき、共用リソース108の状態を判定するように設定される。
【0019】
要求元システム102がマルチプロセッサシステム内の1つのプロセッサであり、同じようにそこに結合されているほかのプロセッサによっても共用されているメモリ装置108としての共用リソース108に対するアクセスを要求する場合、ユニバーサルコントローラ104は、所望のリソースアクセス要求を完了するために、実行されるべき動作の順序を決定する。例えばメモリ装置108がSDRAMである場合、その動作は典型的にはプレチャージ、ページクローズ、ページオープン、およびページリードまたはページライトを含む。
【0020】
ある特定の動作順序が決定されると、例えばデータ衝突または他の種類の対立を回避するために、ユニバーサルコントローラ104が順序付けられた連続動作の間の適当な時間間隔を決定する。好ましい実施形態では、その時間間隔は、例えばルックアップテーブルに記憶されている共用メモリ装置の動作特性に、部分的に基づいて決定される。その後、適切に順序付けられたアクセスコマンドがユニバーサルコントローラにより出力され、次いで、共用メモリによって応答される。
【0021】
以下に示される本発明の詳細な説明では、発明についての完全な理解を促進するために複数の具体的な実施形態が示される。しかし、当業者には明白となるように、本発明はこれらの特定の詳細に依らず、または他の要素あるいは工程を利用することにより実践され得る。他の場合では、本発明の本質が不明瞭になることを避けるため、周知の工程、手順、構成要素、および回路についての詳細な説明が割愛されている。
【0022】
以下、本発明は、プロセッサと共用メモリとの間の連絡機構として機能するように設定されたメモリコントローラの観点から説明される。しかし、本発明は、共用であるか否かに関わらず、任意のリソースへのアクセスを制御し得るユニバーサルコントローラとしても実行し得ることに留意されたい。そのようなリソースはメモリである必要性は無く、事実、本発明は、例えば、バスアクセスの待ち時間を低減することによりシステムバスの効率的な帯域幅を増加させることを目的としてマルチプロセッサ内の情報量を制御するなど、共用システムバスへのアクセスを制御するためにも用いられ得る。
【0023】
次に、図1Bでは、プロセッサなどの要求デバイス102を有し、システムバス106によってユニバーサルコントローラ104に結合されるシステム100が示される。さらに、コントローラ104は共用リソース108に結合され、共用リソース108は、例えば、様々な形態を採り得るメモリ108であり、DRAM、SDRAM、SLDRAM,EDO、FPM、またはRDRAMなどである。例示の実施形態では、システムバス106は単方向アドレスバス106−1を含み、その単方向アドレスバス106−1はプロセッサ102によって出力されるメモリアドレス要求をユニバーサルコントローラ104に伝達する。さらにシステムバス106は単方向アドレスバス106−2も含み、その単方向アドレスバス106−2はアドレスバス106−1と連係してメモリアドレスに関するコマンドを伝達する。例えば、プロセッサ102がメモリ108における特定のメモリ位置に記憶されている実行可能な命令を要求する場合、プロセッサはコマンドバス106−2に対して読み取り要求(システムコマンドと称す)を出力し、実質的には同時に、アドレスバス106−1に対しても対応するメモリアドレス要求(システムアドレスと称す)の出力が行われる。システムアドレスおよびシステムコマンドの双方はコントローラ104に含まれる設定可能なシステムインターフェース110によって受け取られる。ここで、設定可能とは、受け取ったシステムコマンドおよびシステムアドレスが、メモリ108によって要求されるいかなる方法および形態のものでも、システムインターフェース110がそれを処理できるように、システムインターフェース110を設定し得るということを意味するものである。これにより、プロセッサ102が各メモリ装置に対して個別の要求を発する必要が無くなり、プロセッサ102が必要としているデータを、コントローラ104に結合する任意の数および種類のメモリ装置に格納することができる。
【0024】
例示の実施形態において、システムインターフェース110は、受け取ったシステムコマンドおよびシステムアドレスをユニバーサルコマンド200と称されるものに変換するよう設定されている。ユニバーサルコマンド200の例は図2Aに示される。1つの実施例では、共用リソースがDRAM型メモリ装置(SLDRAM、SDRAM、EDO DRAMなどを含む)である場合、ユニバーサルコマンド200は、メモリ108の任意のメモリアクセス要求を実行するために必要な全ての動作を含む5つのデータフィールドから形成される。そのような動作は、データプレチャージフィールド202によって示されているプレチャージ動作を含み、このフィールドは、特定のロウを予めチャージしておく必要が有るかどうかを表示するために用いられる、プレチャージ動作を含む。他の動作として、データ活性化フィールド204、データリードフィールド206、データライトフィールド208およびデータリフレッシュフィールド210を含む。例えばここで、メモリ108が、メモリバンク1において現在アクティブである(すなわち、リードまたはライトが行われた後のオープンされている)メモリページ1を有し、且つ、続くプロセッサコマンドが、メモリバンク1のページ2上に記憶されているデータを読み取り、プロセッサ102に出力するよう要求しているとする。この場合、プロセッサ102によって要求されるコマンドを実行するためには、ページ1がクローズされ(すなわち、ページ1がプレチャージされる)、ページ2は活性化されなければならない。活性化が完了した後、ページ2からのリードが行われる。したがって、図2Bに示されるユニバーサルコマンド212は、データフィールド202,204,206,208,210を有するユニバーサルコマンド生成部110によって生成され、そのうちのデータフィールド202,204,206は“関連する動作の実行”を示す“1”に設定され、データフィールド208,210は“関連する動作の不実行”(すなわち、“NOP”)を示す“0”に設定される。
【0025】
図1Bに戻る。メモリ108へのアクセスは複数の異なる要求デバイスによって共用されているため非常に動的であり、従ってメモリ108の状態は常に変化する。メモリの状態とは、特定のメモリ位置において特定の動作を間違いなく実行するためには、そのメモリ位置の状態を知る必要があることを意味する。例えば、特定のメモリページがクローズしている場合、リード動作を実行するためにはまずそのメモリページをオープンする必要がある。従って、特定のアドレス位置のその時点での状態を探知するために、特定のメモリ位置に対して実行された最も新しい動作が図3に示されるリソースタグ300によって識別される。本発明の1つの実施形態では、リソースタグ300は、特定のメモリアドレス位置を識別するために用いられるアドレスフィールド302、そのアドレスフィールド302によって識別されたアドレスに最後に発行されたコマンドを識別するために用いられる最終発行コマンドフィールド304、さらに最終コマンド発行時間データフィールド306を含む。例えば、メモリアドレスADD5のリソースタグ308は時間5φ(5システムクロック周期を示す)にページリードコマンドが発行されたことを示し、リソースタグ310は、同じメモリアドレスADD5について、時間10φにそのメモリページにページライトが実行されることを示している。メモリアドレスADD5の状態を観測することにより、ユニバーサルコントローラ104はADD5におけるメモリページが既にオープンしていること、従って、ページオープン操作は必要ないことを認知する。
【0026】
リソースタグバッファ114に記憶されているタグ300によって提供されるリソースの状態についての情報を元に、設定可能システムインターフェース110に結合されるコマンド順序付け器116は、ユニバーサルコマンド200のコマンド構成要素202〜210のそれぞれの間における適切な時間間隔を提示し、それにより、図2Cに示されるような、コマンド構成要素202〜204、およびコマンド構成要素204〜206がそれぞれ時間間隔t1およびt2となるよう構成された順序付け済みコマンド220が提供される。ここで、コマンド構成要素208〜210は“NOP”型のフィールドであるため、順序付け済みコマンド220はこれらのフィールドについて如何なる参照も含んでおらず、構成要素202〜206に必要なクロック周期と、t1+t2に実質的に等しい時間周期と、の合計に実質的に等しい時間周期を必要とするのみである。これにより、コマンド順序付け器116は、プロセッサ102とメモリ108との間のコマンドおよびデータの最適な流れを提供し得る。
【0027】
発明の別の実施形態では、共用リソース108がSDRAMなどのマルチバンク型メモリ装置である場合、または共用リソースがマルチチップモジュールなどのマルチ装置メモリである場合、リソースタグバッファ114は、例えば特定のバンクまたは装置においてオープンしているページ全てについてのリソースタグを記憶し得る。1つの実施例では、比較器(図示せず)がシステムアドレスにおけるバンク番号または装置識別子を探知し、ページアドレスおよびシステムアドレスをタグバッファ114の内容と比較する。比較結果が“一致”でない場合(すなわち、アドレスが適合しない場合)、ユニバーサルコントローラ104はタグバッファ114からのアドレスを用いて古いページをクローズしなければならず、さらに、新しいシステムコマンドに基づき新しいページをオープンしなければならない。
【0028】
複数の異なる装置がユニバーサルコントローラ104によって補助されている場合、特定の装置にのみ関連する動作パラメータであって、入力されるシステムアドレスにも関連している動作パラメータを選択し得ることが望ましい。ユニバーサルコントローラが複数の異なる装置を補助している場合に、ユニバーサルコントローラ104に結合されたアドレス空間コントローラ120が図1Cに示されている。例示の実施形態では、アドレス空間コントローラ120は入力されたシステムアドレスに関連する1つの装置を示す装置特有のパラメータのみを選択する性能を有する。図1Dに示される具体的な実施例では、アドレス空間コントローラ120は比較器122を含み、その比較器122が、入力されたシステムアドレスと、入力されたアドレスに関連する装置(または同様にして、メモリ領域)を識別する領域アドレス範囲バッファ124の内容とを比較する。特定の装置または領域が識別されると、装置パラメータレジスタ126および128(それぞれがバッファ124に結合され、特定の装置ごとに特有のパラメータを含む)のグループ中1つのレジスタが選択される。選択された装置パラメータレジスタは次いでそのシステムアドレスに対応する装置についての特定の動作パラメータを提示する。別の実施形態では、選択された装置パラメータレジスタの内容はLUT118に入力される。これにより、任意の数の異なる装置をユニバーサルコントローラ104によって補助することができ、各装置の特定の動作パラメータが識別されて、対応するユニバーサルコマンドの最適な順序付けに用いられる。
【0029】
ユニバーサルコントローラに結合された装置の1つがビジー状態で新しいコマンドを受付られないといった場合に、コマンド列で待機中の任意の別のコマンドを選択し得ることが有益であるという点に留意すべきである。発明の別の実施形態では、装置による応答およびユニバーサルコントローラによる要求のそれぞれが、それぞれ関連する識別番号150を有しており、例示の実施形態では、図1Eに示されるように、その識別番号は5ビット長のデータワードである。識別番号150は、2ビット長のグループセレクタフィールド152および3ビット長の要求番号フィールド153を含むように形成される。グループセレクタ(GS)は特定のシステム要求がどのグループに属するか(例えば、プロセッサ)を判定し、要求番号(RN)は、グループセレクタフィールド152によって識別された関連グループの要求または応答の番号を表す。その際、同一のトランシーバからの連続する要求は連続した要求番号を有する。
【0030】
別の実施形態では、グループ優先順位セレクタレジスタ154は応答グループまたは要求グループのそれぞれについての優先順位値を含み、より高い優先順位値を有する応答グループまたは要求グループが低い優先順位値のグループに先行する。これにより、優先順位値の低い要求や応答が次のクロック周期で処理され得ない場合に、その低順位値の要求または応答に先行して高順位値の要求または応答が処理され得る。いわゆる動ロック(ライブロック,Livelock)を防ぐため、動ロックカウンタレジスタ156は、低優先順位値の要求(または応答)に先行し得る、高優先順位値を有する連続する要求(または応答)の数の情報を含む。これにより、低優先順位値の要求(または応答)はクロック周期の多くの周期中放置されずにすむことになる。
【0031】
また別の留意点として、コマンドの流れとデータの流れの双方の制御を最適化するために、共用リソースのそれぞれがそれぞれに動作特性一式(例えば、DRAM型装置の場合はアクセス時間、CAS待ち時間など)を関連させている点があげられる。ユニバーサルコントローラ104によって1つ以上の共用リソースが補助されている場合、共用リソースのそれぞれは異なる動作特性の一式を有しており、別の実施形態では、その動作特性はコマンド順序付け器116に結合するルックアップテーブル(LUT)118に記憶される。コマンド順序付け器116は、リソースタグバッファ114に記憶されるリソースタグと連係してLUT118が提供する情報を用いて、コマンド構成要素202〜210を適切に順序付け、順序付け済みコマンド220を形成する。これは、共用リソースが、マルチチップモジュールなど、まさにそれぞれが実質的に異なる動作特性を有するメモリ装置の集合である場合には特にあてはまる。
【0032】
次に、図4は、発明の実施形態に従ってユニバーサルコントローラが共用リソースへのアクセスを図るプロセス400の詳細を示したフローチャートである。このプロセス400はシステムが共用リソースへのアクセスを要求する402から開始する。共用リソースがDRAM型メモリ装置の場合、その動作はプレチャージ、リフレッシュ、クローズ、オープン、リードおよびライトを含む。例えば、プロセッサが、システムコマンド(すなわちページリード)と、要求されているページが記憶されているメモリ内の場所を示す関連のシステムアドレスとを生成することにより、共用メモリ内に記憶されるメモリページを要求する。これは、好ましい実施形態では、404において、例えば、共用メモリ内でのアクティブなメモリ位置に関連したリソースタグを用いてリソースの状態が判定される。次いで、406にて、共用リソース対する所望の要求を実行するために必要な、動作の順序付けについての判定が行われる。408では、ユニバーサルコントローラが、所望の要求を実行するために必要な動作の連続順序に基づいてユニバーサルコマンドを生成する。例えば、ページリード動作を実行するためには、前段階でオープンされているページをクローズし、新しいページを活性化し、それからリード動作が実行される必要がある。その際、これら全てはユニバーサルコマンド構成1つで理解される。共用リソースについてのリソースタグおよび特有の動作特性を用いてユニバーサルコントローラがユニバーサルコマンドを形成すると、次いで、410にて、ユニバーサルコントローラはユニバーサルコマンドのコマンド構成要素それぞれの間の適切な時間間隔を判定する。その後、412において、順序付け済みコマンドが共用リソースに対して発行される。この際、別の実施形態では物理ステージが用いられる。最後に414において、共用リソースは、例えば、システムアドレスに示される位置に記憶されているデータを提示することなどによって、順序付け済みコマンドに応答する。
【0033】
発明の別の実施形態では、図5に示されるプロセス500を用いて、ユニバーサルコントローラがリソースの状態(404)および実行する動作の順番(406)を決定する。このプロセス500は、502にてリソース区分識別子(すなわち、メモリアドレスレジスタ)をリソース識別子(すなわち、リソースタグアドレスフィールド202)と比較することによって開始される。504において“一致”の発生が確認された場合(すなわち、新しいコマンドのアドレスがその時点でのタグアドレスフィールドと適合する場合)、続いて、506において次のコマンドが発行される。他方、新しいコマンドアドレスがその時点でのタグアドレスフィールドに適合しない場合(すなわち、不一致の場合)、次いで、508にて、古いページがまだオープンしているか否かの判定が行われる。古いページがオープンしている場合には、510にてそのページがクローズされ、512にて新しいページがオープンされる。しかし、508にて古いページがオープンしていないことが確認されると、次いで、512において新しいページがオープンされる。どちらの場合でも、一度新しいページがオープンされると、506にて次のコマンド(データ操作)が発行される。
【0034】
発明の別の実施形態において、ユニバーサルコントローラは、図6に示されるプロセス600に基づいて、連続動作のそれぞれの間における適切な時間間隔を決定する(410)。このプロセス600は、602において、ユニバーサルコントローラが、ある特定のリソースに対しての新しい一連のコマンドの最初のコマンドと、その時点までに同じリソースに対して発行されたコマンドのうち最も新しい一連のコマンドの最後のコマンドとを比較することによって開始される。604において、ユニバーサルコントローラは、新しいユニバーサルコマンドの最初のコマンド構成要素と、それ以前のもののうち最も新しいコマンドの最終コマンド要素とを比較することによって、ユニバーサルコマンド構成要素間の時間的な制約を判定する。別の実施形態では、ユニバーサルコントローラは表1に示されるような2次元配列の形態をとる2指標ルックアップテーブル(LUT)を用いる。その中で、配列の第一行は古い(すなわち今までのうちで最も新しい)コマンドを表し、配列の第一列は新しいコマンドを表す。例えば、表1を参照して、古いコマンドがページリードであった場合、且つ新しいコマンドがページクローズであった場合、それらの、ページクローズという新しいコマンドとページリードという古いコマンドとの交差位置には、それら2つの動作の間で許可される最低時間量(すなわち、発行に要する物理的な最低限の時間)が示される。通常、LUTに記憶される情報は共用リソースの製造者によって提供される。
【0035】
【表1】

Figure 2004500608
【0036】
特定のユニバーサルコマンド構成要素についてのリソースの物理的な制約が判定されると、606において、同じユニバーサルコマンドに更なるコマンド構成要素が存在しているか否かの判定が行われる。更なるコマンド構成要素が存在しない場合、608において、ユニバーサルコマンドおよび関連する構成要素の時間間隔に関する詳細が記憶される。他方、ユニバーサルコマンドに更なるコマンド構成要素が含まれている場合、制御は604に戻され、その構成要素について、対応する物理的な時間的制約が判定される。
【0037】
しかし、例えば複数のメモリバンクを有する共用メモリ108内の物理ページの状態を観測するためには、非常に多くのリソースタグが必要となり、それに従い非常に多くのキャッシュメモリがリソースタグバッファ114のために必要となる。これでは、それぞれが遠隔に位置するメモリの特定のメモリページについての固有のリソースタグを検索するために非常に多くの時間を要することになり、その結果、ユニバーサルコントローラ104の全体的な動作速度を低減させることになる。図7Aに示される別の実施形態では、ページヒット/ミスコントローラ702がユニバーサルコントローラ104に含まれ、ページレジスタ704の数Mがマルチバンクメモリ706内のメモリバンク数N未満になるよう設定される。これは、M個のページレジスタ704中で、全てのバンクが対応できるがわけではないからである。この動作において、Mページレジスタ704のそれぞれは、オープンているページのアドレスおよび状態データを記憶する。また、ランダムページレジスタ番号生成部708は、ページレジスタに対応する無作為なM以下の整数値を生成し、オープンしているページのアドレスと交換する。比較器710は、入力されたシステムアドレスと、M個のすべてのレジスタのバンク番号およびページアドレスとの比較を並行に行い、以下に示す4つの可能な結果のいずれかを得る。
【0038】
1)比較器710がヒット(一致)を示す場合、要求されているバンクの所望のページがオープンされ、アクセスへの準備が整う。
【0039】
2)比較器710がバンクのヒット(一致)およびページのミス(不一致)を示す場合、ユニバーサルコントローラ104は、ページレジスタからのページアドレスを利用して古いページをクローズし、且つ、システムアドレスからのページアドレスを利用して新しいページをオープンする必要がある。
【0040】
3)比較器710がバンクおよびページの双方でのミスを示す場合、ユニバーサルコントローラ104は、ランダムページレジスタ番号生成部によって提供される番号のバンクにおける任意の古いページをクローズし、且つシステムアドレスを利用して新しいページをオープンする必要がある。その後、所望のバンクへのアクセスを行う。
【0041】
4)バンクおよびページの双方がミスで、しかし少なくとも1つのページレジスタが未使用である場合、そのレジスタが利用されて、新しいページがオープンされる。
【0042】
別の実施形態では、図7Bに示されるように、ランダムページレジスタ番号生成部708は、最も以前に用いられた(LRU)比較器712によって代替され、M個のレジスタ704のうちのどれが最も長く未使用であるか(すなわち、最も以前に用いられたか)を判定する。
【0043】
マルチバンクメモリ706における物理ページの状態の観測に加え、図8に示されるバンクアクセスコントローラ800は、マルチバンクメモリ706に含まれるメモリバンク数Nに対応するN個のバンクレジスタ802を含む。関連するバンクの情報が記憶されるバンクレジスタ802は、バンクの識別番号を規定するバンク番号フィールド804を含む。さらに、バンクレジスタ802は、バンク番号フィールド804中のバンク番号によって識別される特定のバンクの状態を示すバンクステータスフィールド806を含む。具体的な実施形態では、バンクステータスフィールド806は表2に示されるような値をとり得る。
【0044】
【表2】
Figure 2004500608
【0045】
400〜800Mb/s/ピンの範囲の速度でバスデータを伝達するシンクロナスリンクDRAM(SLDRAM)などのパケット指向型高速メモリの発展に伴い、メモリアクセスの衝突に起因する問題は益々増加している。まず図9Aを参照すると、発明の実施形態による、例示的なSLDRAM型マルチプロセッサシステム900が示される。マルチプロセッサシステム900は、システムバス906によってコントローラ904に接続されるプロセッサ902を含む。ユニバーサルコントローラ904は、次いで、SLDRAMバスによってシンクロナスリンクDRAM(SLDRAM)908およびSLDRAM910に接続される。SLDRAMバスは単方向コマンドバス912および双方向データバス914で構成されている。留意点として、図9Aには2つのSLDRAMのみが示されているが、バス912および914によって、任意の数のSLDRAMがユニバーサルコントローラ904に接続され得ることがあげられる。別の場合では、SLDRAMは、SLDRAM908のようなSLDRAMを任意の適切な数だけ含むバッファ付きモジュールの形態をとり得る。ユニバーサルコントローラ904をSLDRAM908および910のそれぞれに接続する初期化/同期(I/S)バス916は、ユニバーサルコントローラ904によって生成される初期化信号および同期信号の信号経路を提供する。
【0046】
発明の別の実施形態では、ユニバーサルコントローラ904からのパケット化されたコマンド、アドレス、および制御情報が、コマンドバス912上をSLDRAM908および910に選択的に伝達される。データバス914は、ユニバーサルコントローラ904からのパケット化されたライトデータをSLDRAM908および910のいずれか選択された方へ伝達するよう設定される。または、データバス914が、SLDRAM908および910のいずれか選択された方からのパケット化されたリードデータをユニバーサルコントローラ904に送り返すようにも形成される。留意点として、コマンドバス912およびデータバス914は通常、例えば400MB/s/p、600MB/s/p、800MB/s/pなどの互いに同一の速度で動作することがあげられる。
【0047】
ユニバーサルコントローラ904により生成され、コマンドバス912によって伝達される複数の制御信号は、例えば、無差異の走行クロック信号(CCLK)、FLAG信号、コマンドアドレス信号CA,LISTEN信号、LINKON信号およびRESET信号を含む。通常、パケットコマンドは4つの連続する10ビットワードから成り、コマンドの最初のワードは、FLAG信号の最初のビットが“1”となっている。好ましい実施形態では、無差異の走行クロック信号CCLKの両端は、コマンドワードをラッチするためにSLDRAM908および910によって使用される。SLDRAM908および910は、入力されたコマンドについてコマンドバス912を調べることにより、HレベルのLISTEN信号に応答する。または、SLDRAM908および910は、省電力スタンバイモードに入ることによって、LレベルのLISTEN信号に応答する。LINKON信号およびRESET信号は、SLDRAM908および910のいずれか選択された方を既知の所望の状態になるように停止するかまたは起動するためにそれぞれ使用される。
【0048】
ここで議論の残された点に関しては、SLDRAM908は、適当と考えられる任意の数のSLDRAMがユニバーサルコントローラに接続され得ることが、よく理解された上でのみ論じられるであろう。上に論じた通り、SLDRAM908のような典型的なSLDRAMデバイスは、メモリ領域だけでなく、メモリバンク、カラム、ロウ、ビットによって階層的に編成されている。これらの各階層レベルが相互に異なった動作特性を持つことが実際に認められることに注意すべきである。そのような動作特性には、メモリアクセス時間、チップイネーブル時間、データ検索時間等のパラメータを含むが、これらに限定はされない。領域が、それぞれ異なるコマンド待ち時間やデータ待ち時間を持つ異なるメモリタイプやメモリグループといった異なるデバイスに定義されるのに対し、マルチバンクメモリ内のバンクが通常同じ動作特性を持つことは注記されるべきである。例えば、1つのローカルメモリグループがメモリコントローラにダイレクトに接続でき、また、ローカルメモリグループに関するコマンド待ち時間やデータ待ち時間を仲介するドライバが増加させるボード上に位置する第二の非ローカルメモリグループに接続できる。他のケースでは、マルチチップモジュールを形成する様々なメモリチップのそれぞれは、異なるメモリ領域であると考えられる。
【0049】
図9Aのシステムに関してさらに具体的に述べると、SLDRAM908は、コマンドバス912、データバス914、I/Sバス916によってそれぞれ個別にアクセス可能な4つのメモリチップA、B、C、Dを持つマルチチップモジュールである。メモリチップA〜Dのそれぞれは、コマンドやデータパケットを最適にスケジューリングするために、異なった動作特性を持つことができ(通常は製造者によって与えられる)、ユニバーサルコントローラ904は特定の階層レベル、およびまたは、対応するメモリ領域の動作特性を使用することができる。
【0050】
例として、図9Bは、図9に示されたマルチプロセッサシステムに従った代表的SLDRAMバストランザクションの典型的タイミング図を示している。演算の間、プロセッサは通常、例えばリードコマンド950やライトコマンド952のように、SLDRAM908の適当なメモリバンク(複数でも可)が応答するプロセッサコマンドパケットを生成する。通常、リードコマンド950やライトコマンド952は、それらが生成されるプロセッサ902の特定の要求に基づいて、システムバス906上でパイプライン化されており、SLDRAMの最適のパフォーマンスには適していない。システムクロックCLKsys(示されていない)は必要なタイミング信号を与える。
【0051】
この例では、プロセッサ902aは、SLDRAM908のメモリチップAに位置するメモリアドレスMA1を持つリードコマンド950を生成する。他方、プロセッサ902bは、同じくSLDRAM908のメモリチップAに位置するメモリアドレスMA2を持つリードコマンド952を生成する。この例では、リードコマンド950は、ライトコマンド952の出力に優先するシステム・バス906への出力である。ユニバーサルコントローラ904は、まずリードコマンド950を受け取り、続いてそのコマンド自体とコマンドアドレスMA1に基づいて、ユニバーサルコントローラ904内に格納された終点アドレス特定情報を使って、コマンドの処理を始める。いったん最短発行時間が決定されると、ユニバーサルコントローラ904は次に、受信したプロセッサ・コマンド950に応じて、SLDRAMコマンドパケットリード960を生成し、それをコマンドバス912に送り出す。
【0052】
一般に、SLDRAMコマンドパケットは、表3に示したように、8バンク、1024ロウアドレス、128カラムアドレスを持つ64MのSLDRAMを表わす4つの10ビットワードとして編成されている。示されたように、バンクアドレス(BNK)は3ビット、ロウ・アドレス(ROW)は10ビット、カラム・アドレス(COL)は7ビットである。他にも多くの編成や密度が可能であり、図示された40ビットフォーマットの他、適切と規定されうる他のどんなフォーマットでも収容されうる。電源が入っている間、ユニバーサルコントローラ904は、バンク、ロウ、カラムの番号や、その時にユニバーサルコントローラ904によって格納される関連付けられた動作特性などの要因についてのSLDRAMのポーリングに基づいてコマンドパケットを編成する。
【0053】
コマンドパケットの最初のワードは、複数のチップIDビットを含む。SLDRAMは、ローカルIDに整合しないコマンドはどれでも無視する。チップIDは電源オンとともにユニバーサルコントローラ904によって、初期化信号と同期信号を用いて割り当てられる。このようにして、ユニバーサルコントローラ904は、セパレートチップイネーブル信号またはグルーロジックの生成によって、マルチプロセッサシステム900のそれぞれのSLDRAMに一対一対応でアドレス指定する。
【0054】
【表3】
Figure 2004500608
【0055】
リードコマンド950とライトコマンド952はパイプライン化されているので、ユニバーサルコントローラ904は、リードコマンド950の受け取った後一定時間の後にライトコマンド952を受け取り(またはバッファに格納させておくこともできる)、次いで、ライトコマンド952に対応するSLDRAMコマンドパケットライト962を発行する。同一のバンク(A)が両方のコマンドにアクセスされるので前に発行されたリードコマンド960の干渉を避けるために、ユニバーサルコントローラ904は、MA2の特定の特性データならびに最短発行時間を生成させるためのリードコマンド960の発行時間(すなわち、発行の時刻)と、ライト962のデータオフセットを使う。
【0056】
このようにして、ユニバーサルコントローラ904は少なくとも、コマンドやデータパケットのストリームの現在の状態ならびに特定の終点アドレスデバイスの動作特性に基づいて、SLDRAMコマンドパケットの発行をダイナミックにスケジューリングできる。
【0057】
次に、本発明の実施形態に従ったメモリコントローラ1000のブロックダイヤグラムを図解した図10に言及する。メモリコントローラ1000が図1に示されたユニバーサルコントローラ104の実施形態の1つにすぎず、したがって本発明の限界を制限するものと捉えるべきでないことは注記すべきである。メモリコントローラ1000はシステム・インタフェース1002を含み、これはシステム・バス906を介してプロセッサ902をメモリ・スケジューラ1006(スケジューラと呼ぶ)に接続する。本発明の実施形態の1つにおいては、システムインタフェース1002は、プロセッサ902によって生成されたメモリコマンドパケットとそれに関連付けられた書き込みデータパケットの両方の、メモリコマンドパケットスケジューラ1004への伝送に備えるために配置されている。内部バッファがいっぱいで新しいコマンドが収容できないとスケジューラ1006が表示している状況では、システムインタフェース1002はスケジューラ1006が新しいコマンドを受け入れ準備完了と表示する時まで新しいコマンドをホールドする。
【0058】
シンクロナスリンク・メディアアクセスコントローラ(SLiMAC)1008は、スケジューラ1006とSLDRAM908間の物理的インタフェースを提供する。さらに具体的には、SLiMAC1008は、それぞれコマンドバス912とデータバス914を介して、SLiMAC1008をSLDRAM908に接続するコマンドインタフェース1010とデータインタフェース1012を含む。本発明の好適な実施形態では、コマンドインタフェース1010はメモリコマンドを、関連するコマンドクロックCCLKとともにSLiMAC100からSLDRAM908に伝送する。いくつかの実施形態では、通常200MHzで作動するコマンドクロック信号CCLKを生成させるために、SLiMAC1008はインタフェースクロック信号ICLK(およそ100MHzで作動できる)を使うクロックダブラを組み入れている。
【0059】
本発明の実施形態の1つでは、データインタフェース1012はデータバス914のデータの受信、送信両方をする。データバス914の幅は、必要とされる数のSLDRAMをサポートするのに十分な大きさにできることは注記すべきである。したがって、必要な帯域幅を供給するために、必要なだけ十分のデータインタフェースがSLiMACに含まれ得る。一例として、データバス914が32ビット幅(例えば、SLDRAMごとに16ビット)であれば、その場合、SLiMAC1008は、個々のSLDRAMに関連付けられた16ビットをそれぞれ制御できる2つのデータインタフェースを備えることができる。このようにして、SLiMAC1008に含まれたデータインタフェースのサイズは、それに接続されたSLDRAMの特定の構成に厳密に適合させることができる。
【0060】
コマンド・インタフェース1010を用いるのとほぼ同じ方法で、SLiMAC1008は、SLDRAM908からSLiMAC1008に送信されたリードデータに伴うデータクロック信号DCLKを供給することができる。本発明の実施形態の1つにおいては、データクロックDCLKは、インタフェースクロックICLK周波数を約100MHzから約1000MHzに増加させるクロック・ダブラを使うことで生成される。また、インタフェースクロック信号ICLK、コマンドクロック信号CCLK、データクロック信号DCLKが全位相同期的であることも注記されるべきである。
【0061】
本発明の好適な実施形態においては、スケジューラ1006は、システムコマンドとそれに関連付けられたシステムアドレスデータを、接続されたシステムインタフェース1002から受信するように配列された制限ブロック1016を含む。制限ブロック1016はSLDRAMコマンドパケットデータと関連付けられたタイミング情報を再順序付けブロック1018に供給する。ライトバッファ1020はシステムインタフェース1002からリードデータを受け取る。スケジューラ1006によって指示されたように、リードデータは、リードデータをシステム・インタフェース1002に供給するように配列されたデータバス914に接続されたリードバッファ1022を通してデータインタフェース1002から伝送される。初期化/同期(I/S)バス914に接続されたI/Sブロック1024は、適切な初期化および/または同期信号をSLDRAM908に要求通りに供給する。
【0062】
動作中において、スケジューラ1006は、プロセッサ902によって生成されたパイプライン化されたメモリコマンドパケットを受け取る。通常、メモリコマンドパケットはメモリコマンドとそれに関連付けられたメモリアドレスとで構成されている。本発明の実施形態の1つでは、スケジューラ1006は、メモリコマンドとそれに関連付けられたデータパケット(もしあれば)が差し向けられた終点アドレスを決定するために、受信された新コマンドに関連付けられたメモリアドレスをデコードする。いったんデコードされれば、スケジューラ1006は、新しいSLDRAMコマンドパケットを送り出すために、そこに格納された終点アドレス特定デバイス特性データを、直前に送り出されたメモリコマンドに関連付けられた情報とともに使う。新しいSLDRAMコマンドパケットはコマンドバス912への出力であり、最終的にはSLDRAMコマンドパケットに含まれたチップIDによって識別されるSLDRAMへの出力である。
【0063】
スケジューリングプロセスの一部として、スケジューラ1006は、新しいコマンドの発行前に、直前に発行された要求されたコマンドの発行後の最短時間量を決定する。上述のように、例えばメモリバンクなどのSLDRAMのそれぞれの階層レベルは、異なった動作特性を持つことができる(通常、製造者によって与えられている)ので、スケジューラ1006は、初期化の間に、それがサービスするSLDRAMのそれぞれにポーリングする。いくつかの実施形態では、接続されたメモリデバイスが動作特性を決定するためのポーリングを許さない場合、メモリ特定パラメータ(タイミングなど)は制限ブロックレジスタ1016に直接書き込むことができる。いったんSLDRAMがポーリングされれば、スケジューラ1006は、後で適切なスケジューリングプロトコルを展開するために使用するデバイス特定情報を格納する。このようにして、スケジューラ1006は、ハードワイヤリングを必要とすることもなく、さらなる時間の浪費や経費のかかる手続もなく、どんな数やタイプのSLDRAMにも適応するスケジューリングサービスを供給することが可能である。
【0064】
図11は、本発明の実施形態に従った制限ブロック1100を模式的に図解したものである。制限ブロック1100が図10に示された制限ブロックの唯一の可能な実施形態ではなく、したがってこれに限定されるものではないことは注記されるべきである。制限ブロック1100は、プロセッサ902によって生成される新しいメモリコマンドに関連付けられた受信した新しいアドレス信号をデコードするために配列され、システムインタフェース1002に接続されたアドレス・デコーダ1102を含む。デコードされた新しいアドレス信号は、配列タグ・レジスタ1104への入力を供給し、この配列タグレジスタには、関連するSLDRAMメモリバンクのすべてのための、または場合によってはサブセットのみのためのステータスや他の関連情報が格納されている。配列タグレジスタ1104は、セレクタ1106への入力を供給し、セレクタ1106は、デコードされた新しいコマンドに基づいて、選択された仮想バンクに関連するデータをルックアップテーブル(LUT)1108に伝える。
【0065】
制限ブロック1100はまた、システムインタフェース1002に接続された領域比較器1110を含んでおり、この領域比較器1110は、受信した新しいアドレス信号を用いて、新しいコマンドアドレスが存在するメモリ領域を示す領域識別子を供給する。このようにして、制限ブロック1100は、メモリ領域特定特性データに少なくとも部分的には基づいて、新しいメモリコマンドのための最善のスケジューリングプロトコルを提供することが可能である。領域比較器1110は、新しいコマンド信号とともに、領域識別子をLUT 1108に入力として供給する。次にLUT1108は、新しいコマンドとそれに関連付けられた新しいアドレスをSLDRAMコマンドパケットに変換するために使われる最小デルタ発行時間とデータオフセットを供給する。最小デルタ発行時間が、直前に発行された古いコマンドとの関係において新しいコマンドを発行する(クロックサイクルでの)デルタ時間を示していることは注記されるべきである。データオフセット時間は、新しいコマンドの発行後に新しいコマンドに関連付けられたリードデータパケットを受信するための、クロックサイクルにおけるデルタ時間を表わしている。
【0066】
本発明の一実施形態において、制限ブロック1100は16個の配列タグバンクレジスタを含み、LUT1108は、16個の関連付けられたレジスタを持つ4個のタイミング領域それぞれのために4つの異なったパラメータセットを格納可能である。
【0067】
図12は、本発明の実施形態の1つに従って、受信したプロセッサコマンドに応答するSLDRAMバス信号のタイミング図1200である。表4が、様々な発生信号を識別することにより、制限ブロックによって実行されるスケジューリングプロセスを要約していることは注記されるべきである。また、メモリコマンドが{コマンド,アドレス}の形式を取り、ここでは“コマンド”は実行されるべき命令を表わし、“アドレス”は関連付けられたメモリのロケーションを表わしていることも注記されるべきである。
【0068】
次に表4と図12に言及する。システムクロックサイクルΦ1の間、最初のコマンド{オープンページ,1000}がアドレスデコーダ302で受信され、並列的に領域比較器1110で受信される。この例では、アドレスデコーダ1102はオープンページコマンドアドレス“1000”を“100”および“400”としてデコードし、それを領域比較器1110がメモリ領域0内に含まれることを決定する。オープンページコマンドは受信されるべき最初のコマンドなので、仮想バンクB0−13のどれにも“ヒット”は無く、対応する置換カウンタは“0”に設定される。この実施形態では、置換カウンタは擬似ランダムカウンティング方法に基づいて更新されるのに対し、他の実施形態では、ランダム・カウンティングか他の適切な方法が使用される。最初のコマンド{オープンページ,1000}はオープンタイプコマンドなので、関連付けられた最小デルタ発行時間もデータオフセットも無く、したがってアドレス1000のページは最初のコマンドクロックサイクルΦC1で開かれる。
【0069】
次のシステムクロックサイクルΦ2の間に、{リード,1000}コマンドが制限ブロック1100で受信され、それをアドレスデコーダ1102が100および400としてデコードし(すなわち、メモリアドレスロケーション1000に前のクロックサイクルでオープンされたページをリードすること)、これらの値が、領域比較器1110に領域識別子を領域1に設定させる。しかしながらこの場合には、B0レジスタに格納されている前の、あるいは他の言い方では“古いコマンド”がB0において“ヒット”することになり、これにより、セレクタは、“リード”を“古いコマンド”入力としてLUT1108に出力する。他の入力としては、領域比較器1104により発せられた領域標識子「領域1」と、リードである“新しいコマンド”入力とを含む。LUT1108は、格納された特性データを用いて、3つのコマンドクロックサイクルΦ3の最小デルタ発行時間を生成する。これは、少なくとも3つのコマンドクロックサイクルが{ページオープン,1000}コマンドの発行と、それに関連付けられた{リード,1000}コマンドとを分離しなければならないということを示している。
【0070】
このようにして、制限ブロック1100において受信されたそれぞれのメモリコマンドパケットは、LUT1108に格納された特性データにしたがって、少なくともある程度は直前に発行されたコマンドに基づいて処理される。
【0071】
次に、本発明の特定の実施形態に従った、制限ブロックから受信されたコマンドの再順序付けを説明する。図13A〜図13Cは、時刻表1302,1304であり、単純なコマンド再順序付けの例を通して、本発明の特定の実施形態に従ったメモリコマンドの再順序付けによって実現される利点のいくつかを例示するのに役立つ。それぞれの時刻表は2つの異なったメモリバンクに対応する4つの読み出しコマンドを示している。CMD0とCMD1は、関連付けられたメモリのバンク1に差し向けられたリードコマンドである。CMD2とCMD3は、関連付けられたメモリのバンク2に差し向けられたリードコマンドである。時刻表1302は、コマンドがシステムプロセッサからメモリコントローラによって受信される順序で、メモリコントローラとメモリを接続するコマンドバス上に配置されたメモリコマンドを示している。CMD0が時間帯0を占め、CND1が時間帯3を占め、CMD2が時間帯4を占め、CMD3が時間帯7を占めている。それぞれの時間帯は1つのクロックサイクルを表わしている。
【0072】
上に述べたように、同じメモリバンクへのコマンドは、前に発行されたコマンドの処理を行うために、発行の間に最短の遅延が必要である。これは図13Aに、一対のコマンドの間の二つの時間帯によって表わされている。見てとれるように、図13Aに示された順序で4つのリードコマンドがメモリに送られたとすると、コマンドバスは4つの使用可能なクロックサイクル、すなわち時間帯1、2、5、6の間は、使われずに過ぎることになる。以下で論じるように、この非効率の少なくとも幾分かは、本発明に従ったコマンドの再順序付けによって改善されるであろう。
【0073】
図13Bと図13Cの時刻表1304と1306はそれぞれ、本発明の特定の実施形態に従った図13Aのコマンドの再順序付けと、それにより得られる利点の少なくともいくつかを図解している。この例においては、データバスのコンフリクトは簡便を期して考慮されていない。しかしながら以下に論じるように、メモリコマンドの効果的な再順序付けのためには、そのような考慮に注意が払われねばならない。CMD2とCMD3がCMD0とCMD1とは異なったメモリバンクに差し向けられているという事実のため、二対のコマンドの間にあるメモリ・アクセス待ち時間は問題とならず、無視してもよい。すなわち、コマンドは時刻表1304に示されたように配置し直すことができ、CMD2をCMD0の直後の時間帯1に置き、CMD3をCMD1の直後の時間帯4に置く。これは、異なったメモリバンクに差し向けられているという事実により、CMD0とCMD2の発行の間、CMD1とCMD3の発行の間には遅延は必要ないからである。しかしながら、図13Cに示したように、同じバンクに差し向けられたコマンドの対の間には最短の遅延時間、例えば2クロックサイクルが維持されねばならないことが理解されるだろう。すなわち、コマンドの再順序付けは同じメモリバンクへの連続するコマンド間の遅延時間を縮減する試みは含んでいない。
【0074】
コマンドの再順序付けの結果は図13Cに示されている。ここでは4つのコマンドが5クロックサイクル内に発行され、時間帯2だけが使われずに過ぎている。もちろん、さらに別のメモリバンクに向かう5番目のメモリコマンドが時間帯2に挿入され、コマンドバスが活用される効率をさらに極限まで増大させることは理解されるだろう。
【0075】
図14は、本発明の特定の実施形態に従って構成されたメモリコントローラの一部のブロックダイヤグラムである。再順序付け回路1400はシステム・プロセッサから入ってくるメモリコマンドシーケンス、すなわち1、2、3というコマンドシーケンスを受け取る。特定の実施形態によれば、メモリコマンドは制限回路(示されていない)を介して再順序付け回路1400に伝送され、制限回路は上述のように、選択されたコマンドに、関連付けられたメモリの同一の論理バンクに差し向けられた他のコマンドに応じて、発行時間の制約を課す。コマンドは、コマンドキュー1402内で再順序付けされ、そこからコマンドはメモリに向けて発行される。この例においては、コマンドは1、3、2の順に再順序付けされている。
【0076】
オリジナルのメモリコマンドシーケンス、すなわち1、2、3は、データ読み取り回路1406内のFIFOメモリに格納される。FIFO1404内のシーケンスは、コマンドが元々メモリコントローラによって受け取られた順序に対応するように、メモリから受け取ったデータを再順序付けするために使われる。しかしながら、プロセッサのいくつかは順序通りのデータを期待するのに対し、他のプロセッサは順序通りでないデータを期待するので、FIFO1404のスイッチを必要に応じてオン、オフすることにより、いかなるタイプのデータ順序もサポートされうることは注記されるべきである。これが必要なのは、プロセッサがコマンドを元々メモリコントローラに伝送した順序に対応する順序でデータを受け取ることを“期待する”からである。
【0077】
さらに、メモリからのデータはメモリコントローラによって、プロセッサがメモリコマンドを伝送する元のシーケンスに対応しないシーケンスで受け取られるかもしれないので、第3のシーケンスがデータキュー1408に格納される。このシーケンス(この例では3、2、1)は、コマンドシーケンス1、3、2に対応するデータがデータ読み取り回路1406に受け取られるであろう順序を表わしている。データキューシーケンスは、コマンドキューシーケンスとメモリの様々な論理バンクに関連付けされた既知の待ち時間に基づいて、再順序付け回路1400によって算出される。メモリがデータキュー1408に格納されたシーケンス(すなわち3、1、2)でメモリコントローラにデータを伝送するとき、データは読み取りデータバッファ1410に格納され、FIFO1404内の情報とデータキュー1408に基づいて、元のコマンドシーケンスの順序に対応する順序、すなわち1、2、3でプロセッサに伝送するように、再順序付けされる。
【0078】
図15は、本発明の特定の実施形態に従って構成されたメモリコントローラ内の再順序付け回路1500のブロック図である。再順序付け回路1500は、システムプロセッサから受け取ったコマンドを格納し再順序付けするコマンドキュー1502を含む。コマンドキュー1502は、メモリ内の同一の論理バンクに向かうコマンドに関連付けられたコマンド発行時間制約とデータバス使用制約を使って、それぞれのコマンドの発行時間を計算し、コマンドを発行し、発行されたコマンドをキューから外す。
【0079】
データキュー1504は、発行されたメモリコマンドに対応するデータ発生時刻を表わすデータ要素を格納し、キューへの新規入力それぞれに対する新しいデータ発生時刻を計算し、対応するメモリトランザクションが完了したときにキューエントリを外す。
【0080】
比較器マトリクス1506は、衝突検出機能を実行する。この機能では、コマンドキュー1502から発行準備のできているコマンドのデータ発生時刻(マルチプレクサ1508を介して伝達される)が、データキュー1504に表わされている前に発行されたコマンドのデータ発生時刻と比較される。衝突が検出されれば、コマンドの発行が延期される。
【0081】
図16は、図15の再順序付け回路1500のさらに詳細なブロック・ダイヤグラムである。図17のダイヤグラムに示されているように、コマンドキュー1502は、6つのコマンドキュー要素1602を含み、そのそれぞれは特定のメモリコマンドに関して61ビットの情報を格納している。コマンドフィールド1702は、メモリコマンドを特定する40ビットメモリコマンドパケットを含む。コマンド発行時間(Cd)フィールド1704は6ビットのフィールドであり、コマンドが発行される前のクロックサイクルのデルタ時間を表示する。フィールド1704の値は、上述の制限回路によって決定され、メモリ内の同一の論理バンクに対応する最新のメモリコマンドに関係する。すなわち、Cdフィールドの値は同一のバンクへの2つのコマンド間の待ち時間を表わす。それぞれのバンクに必要な待ち時間に関する情報は制限回路に格納され、大部分はメモリの物理的特性によって決定される。コマンドキュー内で、Cdフィールドはそれぞれのクロックサイクルに対して決定されるが、いくつかの例外がある。例えば、同一の論理バンクへの連続するコマンド間の待ち時間は変更されない。したがって、特定のバンクに向けられたコマンドのためのCdフィールドがゼロになり発行されない場合、最初のコマンドが発行されるまで、同じバンクへの他のコマンドのCdフィールドはデクリメントされない。
【0082】
データ発生時刻(Dd)フィールド1706は6ビットのフィールドであり、コマンドキューからのメモリコマンドの発行と、対応するデータの転送の間のクロックサイクルのデルタ時間を示す。Ddフィールド1706はコマンドキュー内では変更されてはならない。コマンドIDフィールド1708は5ビット・フィールドであり、コマンドパケット1702内のコマンドを一対一対応に識別する。この情報は、コマンドやデータの再順序付けが効を奏するように、どれがどのパケットか、どのデータがどのパケットに対応するか見失わないようにするため、FIFOの対応する情報とデータキューとともに使用される。論理バンク(B)フィールド1710は3ビットのフィールドであり、メモリ内のどの論理バンクにコマンドパケットが向けられているかを識別する。最後に、バースト標識(Db)フィールド1712は1ビットのフィールドであり、要求された、または書き込まれたデータが、1つまたは2つのクロックサイクルを占めることを示す。
【0083】
図16に戻って述べると、コマンドキューの動作はコマンドキューコントローラ1604によって制御されている。コントローラ1604は、どのコマンドキュー要素1602が使用可能かを見失わないようにして、空き位置識別部1606を介して、入ってくるコマンドの特定のキュー要素への挿入を制御する。コントローラ1604はまた、対応するコマンドが発行されたときに、コマンドキュー要素の情報をデータキュー1504に挿入するのを容易にする。特定の実施形態によれば、コマンドバスやデータバス上の空き時間スロットの利用可能性に関係なく、コマンドはコマンドキュー1502に挿入される。
【0084】
コマンドは、そのCdカウントがゼロで、かつ、データバス上に衝突がない場合、マルチプレクサ1608を介して、コマンドキュー要素1602のどの1つからでもコマンドバスに発行されうる。すなわち、コマンドバスおよび/またはデータバス上の空き時間スロットが識別されねばならない。コマンドがリードやライトではない場合(したがってデータバス・リソースを必要としない場合)、コマンドバス時間スロットのみが必要とされる。コマンドがリードやライトである場合には、コマンドバスとデータバス両方のスロットが必要とされる。
【0085】
コントローラ1604のゼロコンパレータ1610は、最初の決定、すなわちCd=0かどうかを決定するために使われる。減算器1612は、上記の例外すなわち発行できない特定のコマンドに対してCd=0であることがない場合に、それぞれのクロックサイクル毎に、それぞれのコマンドキュー要素1602に対するCdカウントから“1”を減じるために使われる。その場合、キューコントローラ1604は、すべてのキュー要素に対するCdフィールドとBフィールドを用いて、同一の論理バンクへの全コマンドに対するCdカウントがデクリメントするのを防ぐマスク信号(M)を発する。
【0086】
特定の実施形態によれば、Cd=0である2つのキュー要素があった場合、優先順位の最も高いもの(例えば、最も古いもの)が発行される。アドレスシフタ1614は、以下で図18を参照しつつ詳細に論じるように、キュー内のコマンドの優先順位を決定する。他の特定の実施形態によれば、新しいコマンドがコマンドキューに到着して、そのCdカウントがすでにゼロである場合、それはマルチプレクサ1608を介して直接メモリに伝送される。新しいコマンドは、そのCdカウントがゼロでない場合、または優先順位が上位でCd=0でコマンドキューに格納された他のコマンドがある場合、コマンドキュー要素1602に格納される。しかしながら、コマンドキューが空の場合には、新しいコマンドはただちに発行される(Cdがゼロに等しい場合)。
【0087】
リードコマンドやライトコマンドに関しては、衝突は、発行準備ができているコマンドを含むコマンドキュー要素1602のDdフィールドとDbフィールドを使って検出される。コマンドに対応するデータ発生時刻と持続時間はマルチプレクサ1508を介して比較器マトリクス1506に伝送され、マルチプレクサ1508はキューコントローラ1604によって制御される。すなわち、キューコントローラ1604は、コマンド発行時間すなわちCdがゼロであるキュー要素のデータ発生時刻と持続時間(1または2クロックサイクル)を伝送するために、マルチプレクサ1508を制御する。持続時間は1または2クロックサイクルであり、これは、加算器1616が、Dbビットをデータ発生時刻Ddに加算することによって、Dd+1に対する“0” (1クロックサイクルを表わす)または“1”(2クロックサイクルを表わす)を導き出すことにより得られる。次に、データ発生時刻および持続時間は、比較器マトリクス1506で、データキュー1504に格納された5つの以前に発行されたコマンドのデータ発生時刻および持続時間と比較される。特定の実施形態によれば、比較器マトリクス1506は2×10個のパラレル比較器マトリクスを含む。
【0088】
図18は、図16のアドレスシフタ1614の特定の実施形態のブロック図である。上述のように、アドレスシフタ1614はコマンドの優先順位を決定する。これもまた上述のように、新しいコマンドは、空き位置認識部1606にしたがって、任意のフリーコマンドキュー要素1602に挿入される。新しいコマンドが挿入されるコマンドキュー要素1602のアドレスは、最初の空き位置(A0〜A5)に最上位の優先順位で挿入される。結果として、アドレスシフタのA0ポジションは、未発行の最も古いコマンド用のキュー要素アドレスを格納する。コマンドがコマンドキューから発行されるとき、アドレスシフタ1614の対応するエントリが外され、下位の優先順位のコマンド用のアドレスが上位の優先順位のポジションに変更される。上述のように、コマンドキュー内のコマンドに対するCdカウントがゼロに達したとき、コマンドは発行される。しかしながら、Cd=0のコマンドが1つ以上ある場合には、最も古いコマンド、すなわちアドレスシフタ1614内のアドレスのポジションによって示される優先順位が最上位のコマンドが発行される。
【0089】
図16のデータキュー1504は5つのキュー要素1652を含み、そのそれぞれは図19によって図解されているように、以前に発行されたメモリコマンドに関する12ビットの情報を含んでいる。データ発生時刻(Dd)フィールド1902は、コマンドキューからのコマンドの発行と、対応するデータの受信との間のクロックサイクルでのデルタ時間を示す6ビットのフィールドである。それぞれのデータキュー要素1652に対するDdカウントは、その値がゼロに到達するまで、減算器1654の1つを用いてクロックサイクル毎にデクリメントされる。Dd=0のとき、対応するデータはデータバス上にある。したがって、任意の時刻にDd=0を持つデータキュー要素1652はただ1つであることが理解されるだろう。Ddカウントがゼロに到達した後、対応するデータキュー要素内の情報はデータキュー1504から外される。
【0090】
コマンドIDフィールド1904は、データが対応する発行済みコマンドを一対一対応に識別する5ビットのフィールドである。この情報は、コマンドがメモリコントローラに最初に伝送された元の順序に対応するようにデータを再順序付けするのに役立つ。最後に、バースト標識(Db)フィールド1906は、データが1つまたは2つのクロックサイクルを占めていることを示す1ビットのフィールドである。
【0091】
図16に戻って論じると上述のように、データキュー要素1652のそれぞれに対するデータ発生時刻(Dd)および持続時間は、発行準備ができているコマンド、すなわちCd=0のコマンドキュー1502内のコマンド用のDdおよび持続時間と、比較器マトリクス1506で比較される。持続時間は、1または2クロックサイクルであり、これは、加算器1616が、Dbビットをデータ発生時刻Ddに加算することによって、Dd+1に対する“0” (1クロックサイクルを表わす)または“1”(2クロックサイクルを表わす)を導き出すことによって得られる。比較によりデータバス上に衝突がないことがわかれば、コマンドがコマンドキューから発行される。
【0092】
データキューコントローラ1658は、データキュー1504の動作を制御する。空き位置識別部1660は、コマンドキューコントローラ1604とともに、データキュー要素1652内に新たなデータキュー要素情報を挿入することを容易にする。空き位置識別部はまた、対応するメモリアクセスが完了したときにデータキュー要素1652から情報を外すのを容易にする。ゼロコンパレータ1662とバースト識別部1664は、いつデータキュー要素1652のどれかに対するDdがゼロになるか、そしていつデータ転送がデータバスを占有しなくなるか、そしてそれゆえいつ対応する情報がデータキューから外されるべきかを決定するのに使われる。
【0093】
本発明の別の特定の実施形態によれば、衝突検出は2次元配列のコンパレータとマルチプレクサの使用を通して、さらに複雑になる。このアプローチは、上述の1次元アプローチよりさらにシリコン集約的で、発行準備のできたコマンドに対する1つの要素だけでなく、コマンドキュー内の全要素を見る。これは、以前に発行されたコマンドについてだけでなく、データバス上のデータパケットの順序についても、コマンドのスケジューリングを行う。
【0094】
新しいコマンドを挿入するためには、コマンドパイプの発行予定部分における2つの連続したステージのそれぞれの組み合わせが、それらの間に新しいコマンドを挿入できるか調べるために比較されなければならない。この比較は、コマンドが挿入されうる範囲を、実際に決定する。この範囲は以下に示すとおりである。
【0095】
CLENX=コマンドの長さ
Tcstart=tcA+CLENA  (1)
Tcend=tcB        (2)
【0096】
ここで、tcAとtcBは、連続するパイプライン要素AとBの発行時間である。パイプライン要素Aはパイプライン要素Bに先立ち、したがってその発行時間は2つの中の低い方である。挿入があるとすれば、当然AとBの要素の間には少なくとも1つのオープンスロットがなければならない。したがって:
【0097】
N=Tcend−Tcstart+1     (3)
(ここで、N=エレメントAB間の発行スロットの数)
LEN<=tcb−tca−CLENA  (4)
【0098】
ハードウェアでは、以下の条件を単純に実装することは容易である:
【0099】
(tcB−CLENA)−(tcA+CLENA)=>0 (5)
【0100】
範囲のスタートポイントとエンドポイントも、関連付けられたデータスロットの可能な範囲を特定する。この範囲は、オーバーラップがないかどうか、新しい範囲がどのようになるかを調べるために、データパイプ内のそれぞれの連続する要素と比較されなければならない。この比較には5つの異なるケースが存在する。
【0101】
ケース0:
このケースでは、データスロットtdAとtdBによって画される範囲は、2つの連続する要素MとNの範囲の完全に外部にある。このケースでは、したがって:
【0102】
tdA+CLENA=>tdN (6)
または、DLENX=データの長さとすると、
tdB<=tdM+DLENM (7)
【0103】
MとNのペアの間には可能なデータスロットはない。
【0104】
ケース1:
このケースでは、データスロットtdAとtdBによって画される範囲は、2つの連続する要素MとNの範囲の完全に内部にある。このケースでは、したがって:
【0105】
tdA+CLENA=>tdM+DLENM (8)
かつ、
tdB−CLEN+DLEN<=tdN(ここで、CLENはスロット内の新しいコマンドの長さ、DLENはスロット内の新しいデータの長さ)  (9)
【0106】
このケースにおける最も早い可能なデータスロット時間は、対応するコマンドの発行時間tcA+CLENAを持つtdA+LENAである。
【0107】
ケース2:
このケースでは、データスロットtdAとtdBによって画される範囲は、要素Mの長さに一致する。このケースでは、したがって:
【0108】
tdA+CLENA<tdM+DLENM (10)
かつ、
tdB−CLEN+DLEN>tdM+DLENM、かつ、tdB−CLEN+DLEN<tdM   (11)
【0109】
このケースにおける最も早い可能なデータスロット時間は、対応するコマンドの発行時間tcM+CLENM−DATA−OFFSETを持つtdM+DLENM+1である。ここでDATA−OFFSETは、コマンド発行時間とデータ占有時間の間の時間である。
【0110】
ケース3:
このケースでは、データスロットtdAとtdBによって画される範囲は、要素Nの長さに一致する。このケースでは、したがって:
【0111】
tdA+CLENA>tdM+DLENM  (12)
かつ、
tdA+CLENA+DLEN<tdN   (13)
【0112】
したがって、このケースにおける最も早い可能なデータスロット時間は、対応するコマンドの発行時間tcA+CLENA+1を持つtdA+CLENMである。このケースにはケース1も含まれていることは注記すべきである。
【0113】
ケース4:
このケースでは、データスロットtdAとtdBによって画される範囲は、要素MとNによって定義される範囲を包含する。このケースでは、したがって:
【0114】
tdA+CLENA<tdM+DLENM  (14)
かつ、
tdB−LEN>CtdN         (15)
【0115】
したがって、このケースにおける最も早い可能なデータスロット時間は、対応するコマンドの発行時間tcM+CLENA+DATA−OFFSETを持つtdM+DLENMである。ここでDATA−OFFSET=tdA−tcAである。
【0116】
最も早い可能なスロットが常に選ばれるようなスケジューリングという目的に照らすと、ケース1とケース3が同一になることは明らかである。従って、これらを合体したケースはケース3である。同様に、ケース2とケース4は、要求される結果がtdM+LENMであるので、同一である。このケースでは、tdMがtdAとtdBによって与えられる範囲に一致することが端的に示されねばならない。さらに、入ってくるコマンドに対する、最も早い可能な発行時間(tc)とデータスロット(td)が考慮されねばならない。それぞれのコマンドパイプのペアに対して、それぞれのデータパイプで行われなければならない比較は以下の通りである:
【0117】
【数1】
Figure 2004500608
【0118】
したがって、コマンドパイプに関して必要な演算は:
【0119】
【数2】
Figure 2004500608
【0120】
同様に、データパイプに関して必要な演算は:
【0121】
【数3】
Figure 2004500608
【0122】
従って、この決定ロジックは、上で定義されたコンパレータのマトリクスで構成されている。最適の選択は最も早いコマンド発行時間であり、これは単純な優先順位エンコーダによって決定される。
【0123】
再順序付けパイプ制御ロジックは、コマンドパイプとデータパイプのそれぞれの要素について、どの演算がなされるべきかをダイナミックに決定しなければならない。
【0124】
待機中のコマンドパイプでは、それぞれのパイプ要素は4つの動作が可能である。前の要素からの読み出し(パイプは前進する)、現内容の保持(パイプはホールドする)、次の要素からの読み出し(パイプはバックアップする)、入ってくるコマンドバスからの読み出しである。4つのケースによって定義されたパイプの様々なポイントに、多数組の条件が存在しうる。SLiMACへの発行元の要素は、要素0と定義され、それに対し発行から最も遠い要素は要素Mと定義される。再順序付け決定ロジックが、カレントパイプラインにおける最適の挿入点が要素N−1とNの間であることを発見した場合には、要素Nへの挿入が行われる。
【0125】
ケース1−ホールド:
SLiMACへの発行や新しいコマンドの挿入がない場合、パイプはホールドする。
【0126】
ケース2−ホールド&インサート:
このケースでは、SLiMACへの発行はないが、新しいコマンドのパイプへの挿入がある。挿入が要素Nに生じるならば、パイプは要素0から要素N−1までをホールドし、要素Nに挿入し、要素N+1から要素Mまでをバックアップする。
【0127】
ケース3−発行:
このケースでは、要素0からSLiMACへの発行があり、パイプの他の部分は、要素0が要素1の内容を、要素1が要素2の内容を、というように、要素M−1が要素Mの内容を含むようになるまで、先送りされる。
【0128】
ケース4−発行&挿入:
このケースでは、要素0からSLiMACへの発行があり、要素Nでの挿入がある。このケースでは、要素0からN−2では先送り動作が行われ、要素N−1では挿入動作が行われ、要素NからMはホールドされることになる。先送りは、直後の要素からのデータを格納することになる要素に行われ、要素Nでの挿入は(その要素はカレントパイプの要素N−1と要素Nの間に挿入されることになる)、実際には、挿入された要素が、更新されたパイプのN−1の位置に行くことを意味している。
【0129】
図20は、図15に示された衝突検出システム1500の別の実現である衝突検出システム2000を図解している。この実施形態では、衝突検出システム2000は、ターゲット応答制限に基づいた最適のコマンドシーケンスが得られるようにコマンドを再順序付けして、初期化コントローラとターゲットサブシステム間のデータ転送用の最適のスロットを決定する。コマンドの再順序付けはデータバス上の異なったデータパケット同志の衝突を引き起こしてはならないので、特定のコマンドに関係するコマンドデータ転送がデータコンフリクトを引き起こす場合この特定のコマンドの発行を差し止める衝突検出器2002が必要となる。この実施形態では、衝突検出システム2000は、コマンドキュー2004と結合される衝突検出器2002を備える。
【0130】
この実施形態では、衝突検出器2002は“発行予定の”コマンド(コマンドキュー2004に格納されている)と“発行済みの”コマンド(データキュー2006に格納されている)の間のすべての可能なデータ衝突を検出する。この実施形態では、それぞれマルチプレクサ2008と結合されているN個のコマンドキュー2004がある。N個のコマンドキュー2004のそれぞれは、発行予定のそれらのコマンドと、コマンドがターゲットデバイスに発行された後、データ転送がユニバーサルコントローラ104とターゲットデバイス(すなわち共有リソース)108間のデータバス上にいつ現れるかを示す時間ファクタ“d−timeND”と、データ・バースト転送を示すバーストビット(bND)と、リード/ライトビット(rwND)と、を格納するように構成されている。この実施形態では、データキュー2006は、すでにターゲットデバイスに発行済みの要求に対して、データ転送がユニバーサルコントローラ104とターゲットデバイス(すなわち共有リソース)108間のデータバス上にいつ現れるかを示す時間ファクタ“d−timeD”を格納する。コマンドキュー2006はまた、バーストビット(bND)、リード/ライトビット(rwND)も格納する。
【0131】
より好ましい実施形態では、衝突検出システム2000は、発行予定のコマンドを格納し再順序付けするように構成されたキュー&リンクコントローラユニット2010を備える。キュー&コントローラユニット2010は、新しいコマンドの発行時間と、データがデータバス上に現れる時間も計算する。キュー&コントローラユニット2010はまた、コマンドキューから発行されたデータをデータキューに転送し、同時にコマンド発行後にコマンドキューからそれを外す。キュー&コントローラユニット2010はまた、メモリへのアクセス完了後にデータキューからデータ要素を外す。
【0132】
図21を参照すると、ターゲットデバイスへのすべてのリード/ライトコマンドは、データパケット転送に関連付けられている。ターゲットデバイスへのコマンド発行の前に、新しいデータパケットND(New Data)が、衝突を起こさずにデータキューへの挿入が可能か調べるために、そのタイミング情報に従ってチェックされる。図21に示されたこの例では、発行されたデータパケットDはすでにデータキューの中に位置を占めており、新しいデータパケットNDは発行済みデータパケットDに対して比較される。発行済みデータパケットDと新しいデータパケットNDが両方ともバーストアクセスを表わしていることには留意されたい。したがってこの例では、データ衝突を起こさずに発行済みデータパケットDに配慮して新しいデータパケットNDが位置を占める可能性が2つある。新しいデータパケットNDは発行済みデータパケットDの左側か右側に位置を占めることができる。
【0133】
この特定の例は、非バーストデータ転送とバーストデータ転送(すなわち4データストリーム)の両方をサポートするメモリコントローラの衝突検出を図解している。データバスの双方向的性質のため、1クロックサイクルが連続するリード−ライトまたはライト−リード転送の間に挿入されなければならない。
【0134】
多くの可能な結果があることは留意されるべきであり、そのいくつかを以下に列挙する。
【0135】
1)NDがDの後または前に置かれる場合、衝突は起こらない。
【0136】
2)連続するリード−ライトまたはライト−リードデータ転送の間には、1クロックサイクルが挿入されなければならない。コマンドキューとデータキューのすべての要素は、その動作が“リードデータ”(rw=0)か“ライトデータ”(rw=1)かを示す“rw”ビットを格納している。
【0137】
3)データパケットは、1データストリーム(非バースト転送)か4データストリーム(バースト転送)で構成されている。コマンドキューとデータキューのすべての要素は、その動作が“バースト転送”(バースト=1)か“非バースト転送”(バースト=0)かを示す“バースト”ビットを格納する。
【0138】
発行予定データパケットと発行済みデータパケットのペアのそれぞれにおいて、発行予定コマンドについて行われるべき比較は以下のとおりである:
【0139】
【数4】
Figure 2004500608
【0140】
本発明のさらに別の実施形態では、連続する2つのメモリアクセス間の時間を予測する装置と方法が開示されている。この装置と方法は、新しいコマンドに対する最も早い“コマンド発行時間”の高速計算を可能とするものである。図22について述べれば、特定のページに発行された最新のコマンドとそのメモリへの予測された次のアクセス間の時間を格納するN個のページタイマ2022を持つ予測システム2200を図解したものである。同じページへの次のアクセスは“クローズ”、“オープン”、“リード”、“ライト”の場合がある。入ってくる新しいコマンド(例えば、リード)は、特定のページへのアクセスが発行前にどのくらい待たなければならないかを表示する1つの特定のページタイマを選ぶ。この新しいコマンドは次に、タイミングルックアップテーブル2204の中から、このコマンド(リード)と同じページへの可能な次のアクセス(クローズ、オープン、ライト、リード)の間に挿入されるべき適切な内容をら選ぶ。タイマの解像度は1クロックサイクルである。
【0141】
タイミングルックアップテーブル−データは、コマンド発行後データバス上のデータがどのくらいのサイクル有効かを示す時間を格納する。新しいコマンドが非アクティブの場合には、すべてのサイクル毎に、すべてのページタイマの値が“0”に達するまでになる。
【0142】
次に図23を参照すれば、本発明のさらに別の実施形態において、本発明の実施形態に従ったデバイスアクセス優先順位決定部2302を持つデバイスコントローラ2300が示されている。この実施形態では、優先順位決定部2302は、リクエストコントローラユニット2304に結合されたデバイス要求をいくつでも受け取り格納するのに適したリクエストキュー2303を含む。リクエストコントローラユニット2304は一部には、リクエストキュー2303の任意の位置から特定の応答をフェッチし、フェッチした応答を複数の共有デバイス108のうちの適切な1つに伝達するために使われる。この実施形態では、優先順位決定部2302はまた、応答キュー2306を含む。この応答キューは、応答コントローラユニット2308に結合された共有デバイス108のいずれからでも応答を受け取り格納するように構成されており、応答コントローラユニット2308は、格納された応答から、要求しているデバイス102に送られる特定の応答を選択するのに利用される。
【0143】
好ましい実施形態では、図1Eに示されているように、要求とそれに関連付けられた応答とが同じID番号150を持つように、応答と要求がID番号150とそれぞれ関連付けられている。上述のように、ID番号150は、5つのデータビットを含み、その1番目と2番目のデータビットは、その特定の応答/要求が属する要求元デバイスのグループ(マルチプロセッサコンピューティング環境におけるプロセッサの1グループなど)を識別するグループセレクタフィールド152である。さらに上述のように、要求番号フィールド(RN)153は、グループセレクタフィールド152によって識別された要求元デバイスのグループに関連付けられた要求および/または応答の番号を表しており、例えば、同一の要求デバイスからの連続する要求が連続する要求番号フィールド153を持つように表わされている。
【0144】
動作中は、リクエストコントローラ2304とレスポンスコントローラ2308の双方は、グループ優先順位セレクタレジスタ154と、動ロックカウンタレジスタ156と、再順序付けセレクタ2312とをそれぞれ組み入れている。グループ優先順位セレクタレジスタ154は、RN152によって識別された特定の要求/応答グループに関する優先順位情報を含む。それについて1つの実施形態では、“3”という値が最上位の優先順位を表わし、“0”という値が最下位の優先順位を表わしており、上位の優先順位の要求が優先順位の下位の要求を飛び越えることができる。
【0145】
動ロック状況を回避するために、動ロックカウンタレジスタ156は、何個の連続する優先順位上位の要求(または応答)が、優先順位下位の要求(または応答)を飛び越せるかに関する情報を含んでいる。動ロックカウンタレジスタ156が、優先順位上位のリクエストが優先順位下位のリクエストを飛び越える状況においてのみアクティブとなることは注記されるべきである。実際、適当なキューに優先順位下位の要求(または応答)がない場合には、動ロックカウンタレジスタ156は非アクティブとなる。
【0146】
以上、本発明の実施形態の幾つかを詳細に説明してきたが、本発明の趣旨と範囲から逸脱することなく他の多くの特定の形式で本発明を実施し得ることは理解されよう。したがって、ここに示した例は説明のためのものであり、これらに限定されるものではない。本発明は、ここに示された細部に限定されることなく、前記特許請求の範囲内で変形可能である。
【図面の簡単な説明】
【図1A】
本発明の実施形態によるユニバーサルコントローラの一般的な使用例を示す図である。
【図1B】
図1Aに示されるユニバーサルコントローラの具体的な使用例を示す図である。
【図1C】
本発明の実施形態によるユニバーサルコントローラに結合されたアドレス空間コントローラを示す図である。
【図1D】
図1Cに示されるアドレス空間コントローラの具体的な使用例を示す図である。
【図1E】
本発明の実施形態による例示的な要求/応答識別番号を示す図である。
【図2A】
本発明の実施形態による一般的なユニバーサルコマンドを示す図である。
【図2B】
図2Aと同種のユニバーサルコマンドで、メモリページリードコマンドに適する具体的なユニバーサルコマンドを示す図である。
【図2C】
図2Bの例示的なコマンドにおいて、コマンド構成要素間に適当な時間間隔を設けることによって形成される一連のコマンドの例を示す図である。
【図3】
本発明の実施形態によるリソースタグを示す図である。
【図4】
本発明の実施形態に従って、ユニバーサルコントローラが共用リソースにアクセスするプロセスの詳細を表すフローチャートである。
【図5】
本発明の実施形態に従って、ユニバーサルコントローラがリソースの状態および実行すべき動作の順序を決定するプロセスを示す図である。
【図6】
本発明の実施形態による工程に基づき、ユニバーサルコントローラが連続する動作の間における適切な時間間隔を決定する工程を示す図である。
【図7A】
本発明の実施形態によるページヒット/ミスコントローラを示す図である。
【図7B】
本発明の実施形態によるページヒット/ミスコントローラを示す図である。
【図8】
本発明の実施形態によるバンクアクセスコントローラを示す図である。
【図9A】
本発明の実施形態による例示的なSLDRAM型マルチプロセッサシステムを示す図である。
【図9B】
図9Aに示されるマルチプロセッサシステムによる例示的なSLDRAMバスの処理の流れを示すタイミング図である。
【図10】
本発明の実施形態によるメモリコントローラのブロック図である。
【図11】
本発明の実施形態による制限ブロックのブロック図である。
【図12】
本発明の実施形態による例示的なSLDRAMコマンドのタイミング図である。
【図13A】
本発明の具体的な実施形態による、メモリコマンドの再順序付けの流れを示した図である。
【図13B】
本発明の具体的な実施形態によるメモリコマンドの再順序付けの流れを示した図である。
【図13C】
本発明の具体的な実施形態によるメモリコマンドの再順序付けの流れを示した図である。
【図14】
本発明の具体的な実施形態により構成されたメモリコントローラの一部を示すブロック図である。
【図15】
本発明の具体的な実施形態により構成された再順序付け回路のブロック図である。
【図16】
図15の再順序付け回路のより詳細なブロック図である。
【図17】
本発明の具体的な実施形態によるコマンドキュー要素の内容を示す図である。
【図18】
アドレスシフタの具体的な実施形態を示すブロック図である。
【図19】
本発明の具体的な実施形態によるデータキュー要素の内容を示す図である。
【図20】
図15に示される衝突探知システムの別の実施例としての衝突探知システムを示す図である。
【図21】
ターゲットデバイスに対するリード/ライトコマンドのそれぞれがどのようにデータパケットの伝達に関連しているかを示す例示的なタイミング図である。
【図22】
特定のページに最後に発行されたコマンドとそのメモリへの予測される次期アクセスとの間の時間を記憶するNページタイマーを有する予測システムを示す図である。
【図23】
本発明の実施形態によるデバイスアクセス優先順位決定器を有するデバイスコントローラを示す図である。
【図24】
本発明の実施形態による制限ブロックにより実行されるスケジューリングプロセスを要約する表4を示す図である。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates generally to computer systems. More specifically, the present invention relates to accessing shared resources in a computer system, such as a multiprocessor computer system. In particular, an apparatus and method for providing universal access to shared resources is described.
[0002]
[Prior art]
In a basic computer system, a central processing unit, or CPU, operates according to a predetermined program or set of instructions stored in an associated memory. In addition to the stored set of instructions or programs that define the operation of the processor, the memory space may be resident in processor memory or associated additional memory to facilitate information manipulation of the central processor during processing. Provided. The additional memory provides a storage location for the information created by the processor, and additionally provides a storage location for the information that the processor uses temporarily, ie, instead of a "notepad," when processing the program. In addition, the associated memory provides a place to place the output information of the processor executing the set of instructions and make that information available to the output devices of the system.
[0003]
In systems where many components (processors, hard drives, etc.) must share a common bus to access existing memory, collisions over memory access can occur. To rise. Access to memory or other shared resources is complicated, particularly in systems such as multiprocessor computer systems, where systems utilizing different processors are operated simultaneously. Collisions between processors are generally unavoidable, as each processor or processor system is likely to request access to the same memory at the same time. Basically, the operation of two or more processors or processor systems in a multiprocessor computer system results in intermittent duplication of memory commands for shared memory or other shared resources.
[0004]
Conventional approaches that have been taken to solve the problem of conflicting memory access requests for shared memory include, in some cases, complete duplication of memory used for each of the processors and isolation of the processor system. However, this approach to solving the memory access request collision problem often negates the intended advantage in a multiprocessor system. Such multiprocessors are most effective when operated in a situation where one processor performs computations in parallel on the same data while assisting the operation of the other processor. Conventionally, such processor systems are either time-shared, with processors competing for access to shared resources such as memory, or the processor system has dual ports, and each processor is individually It has a memory bus, and when one is permitted to access, the other is in a standby state.
[0005]
Various measures have been taken to avoid the collision problem described above. In one approach, collision avoidance is achieved through sequential use of each processor, or time sharing of processors. In this method, the processor simply accesses the shared resource in order to avoid collision. Such systems commonly used include a "ring passing" or "token system" whereby a potentially conflicting processor follows a predetermined sequence of operations similar to the propagation of a ring in a group of users. Polled by the system.
[0006]
Unfortunately, the sequential access methodology by the processor places significant limitations on the overall operation of the computer system. This limitation is due to the fact that the system spends considerable time polling for conflicting processors. Further, when a single processor is operating and, for example, requests access to a shared memory, a delay occurs in each memory cycle between processor accesses to a shared resource with execution of a continuous operation by the system. Occurs.
[0007]
Another common strategy for collision avoidance is by prioritizing among the processors in the computer system. In such a manner, each processor is prioritized according to a hierarchy of system importance. Each time a collision occurs, the memory controller simply provides access to the higher priority processor. For example, in the case of a system having two processors, the first processor and the second processor access the shared memory. The shared memory is typically a dynamic DRAM (DRAM) type memory device or the like that requires periodic refresh of data maintained and stored in the memory. Generally, in a DRAM type memory, refresh is performed by another independent refresh system. In such a multiprocessor system, both the processor and the refresh system will compete for access to the shared memory, and the system memory controller may conflict with the memory access request according to the priority assigned to the processor and the refresh system. Process a command. While such systems solve the collision problem and are more effective than collision avoidance systems with simple sequential access, they are still inflexible.
[0008]
Another conventional strategy for conflict resolution is a decision making function built into the memory controller. Unfortunately, the decision-making part of the memory controller is driven by the control and timing of the clock system, so it takes a lot of time before it actually makes the decision and the memory controller can grant access to the shared memory. Will be spent.
[0009]
Unfortunately, the problem of making this actual decision substantially reduces the ability of conventional memory controllers to grant access to multi-bank memory systems. In a multi-bank type memory system, an actual memory core is divided into a specific area, that is, a bank, and data to be read is also stored therein. While faster and more efficient memory access can be provided, the conventional memory controller requires a complicated mechanism to cope with the multi-bank memory device, and as a result, the overall system has a low access speed. It will be significantly reduced.
[0010]
From the above, it can be seen that a universal device access controller is desired.
[0011]
Summary of the Invention
In accordance with the present invention, a universal resource access controller is provided for controlling access to related resources, such as, for example, a synchronous link DRAM (SLDRAM). The present invention comprises a universal resource access controller coupled to the requesting system and the resource, so that the requesting system generates a resource access request when it needs access to the resource and passes it on to the universal resource controller. The universal resource controller then uses the specific operating characteristic parameters of the requested resource and the current state of the requested resource to create a corresponding ordering suitable for accessing the resource required by the requesting system. The generated universal access request command is generated.
According to another embodiment of the present invention, an apparatus for controlling access by any of a plurality of requesting systems to any of a plurality of accessible devices is disclosed. The apparatus comprises a universal controller unit and an address space controller unit coupled to the universal controller unit. The universal controller unit decodes the system address and the system command input from the request source system. The universal controller unit then generates an associated device address and a corresponding device command based on the device parameters stored in the address space controller and provided by the address space controller. The address space controller is configured such that each of the plurality of devices is provided with its own address area in the address space controller.
[0012]
A better understanding of the nature and advantages of the present invention will be gained by the portions and drawings set forth below.
[0013]
BEST MODE FOR CARRYING OUT THE INVENTION
In systems where multiple devices, such as processors, share the same resource, various strategies have been employed to avoid the collisions that typically occur when one or more devices requests access to a shared resource. Have been. One approach is to operate the processors sequentially to avoid their collisions, or to achieve collision avoidance by sharing the processors in time. In this method, the processor simply accesses the shared resources in order to avoid collision. Such systems commonly used include a "ring passing" or "token system" whereby a potentially conflicting processor follows a predetermined sequence of operations similar to the propagation of a ring in a group of users. Polled by the system.
[0014]
Unfortunately, the sequential access methodology by such processors imposes significant limitations on the overall operation of the computer system, as the system spends considerable time polling for conflicting processors.
[0015]
Another common strategy for collision avoidance is by prioritizing among the processors in the computer system. In such a manner, each processor is prioritized according to a hierarchy of system importance. While such systems solve the collision problem and are more effective than simple sequential access collision avoidance systems, they are still inflexible.
[0016]
Yet another general strategy for collision avoidance involves decision logic embedded in a controller-type device. Unfortunately, the complexity of the decision logic means that much time is spent before the actual decision is made and the controller can be granted access to the shared memory.
[0017]
This problem of complicated logic slowing down the operation of the system is a problem in a multi-chip module type memory system including memories scattered between a plurality of interconnected memory devices, each having different operation characteristics. Even more noticeable. Since conventional logic cannot be configured to compensate for the different access characteristics inherent in various memory devices, it seeks to reduce the overall system execution performance.
[0018]
Broadly, as shown in FIG. 1A, the present invention can be depicted as a system 100 having request devices 102 each coupled to a universal device controller 104. Here, requesting device 102 is coupled to universal device controller 104 by a system bus 106 suitably configured to provide access to any number and type of shared resources 108. In one embodiment, system bus 106 is coupled to universal controller 104 by an associated system interface layer 110, which is further coupled to shared resource 108 by shared resource interface 109. In a broad sense, the universal controller 104 is configured to determine the state of the shared resource 108 based on requests to the shared resource from any requesting system 102 and the shared resource operating characteristic parameters 113.
[0019]
If the requesting system 102 is one processor in a multiprocessor system and requests access to a shared resource 108 as a memory device 108 that is also shared by other processors coupled to it, Controller 104 determines the order of operations to be performed to complete the desired resource access request. For example, if memory device 108 is an SDRAM, its operations typically include precharge, page close, page open, and page read or write.
[0020]
Once a particular order of operation has been determined, the universal controller 104 determines an appropriate time interval between the ordered sequence of operations, for example, to avoid data collisions or other types of conflicts. In a preferred embodiment, the time interval is determined in part based on operating characteristics of the shared memory device stored, for example, in a look-up table. Thereafter, properly ordered access commands are output by the universal controller and then responded to by the shared memory.
[0021]
In the following detailed description of the invention, a number of specific embodiments are set forth in order to facilitate a thorough understanding of the invention. However, it will be apparent to one skilled in the art that the present invention may be practiced without these specific details or by utilizing other elements or steps. In other instances, well-known processes, procedures, components, and circuits have not been described in detail so as not to obscure the present invention.
[0022]
Hereinafter, the present invention will be described in terms of a memory controller configured to function as a communication mechanism between a processor and a shared memory. However, it should be noted that the present invention can also be implemented as a universal controller that can control access to any resource, whether shared or not. Such resources need not be memory, and in fact, the present invention provides a multiprocessor within a multiprocessor for the purpose of increasing the efficient bandwidth of the system bus, for example, by reducing the latency of bus access. It can also be used to control access to a shared system bus, such as controlling the amount of information.
[0023]
1B, a system 100 having a requesting device 102, such as a processor, and coupled to a universal controller 104 by a system bus 106 is shown. Further, the controller 104 is coupled to a shared resource 108, which is, for example, a memory 108 that can take various forms, such as DRAM, SDRAM, SLDRAM, EDO, FPM, or RDRAM. In the illustrated embodiment, system bus 106 includes unidirectional address bus 106-1, which communicates memory address requests output by processor 102 to universal controller 104. The system bus 106 also includes a unidirectional address bus 106-2, which communicates commands related to memory addresses with the address bus 106-1. For example, if the processor 102 requests an executable instruction stored at a particular memory location in the memory 108, the processor outputs a read request (referred to as a system command) on the command bus 106-2, substantially. At the same time, a corresponding memory address request (referred to as a system address) is output to the address bus 106-1. Both system addresses and system commands are received by a configurable system interface 110 included in controller 104. Here, configurable means that the system interface 110 can be configured such that the received system command and system address can process the system interface 110 in any manner and form required by the memory 108. It means that. This eliminates the need for the processor 102 to issue individual requests to each memory device, and allows the data required by the processor 102 to be stored in any number and type of memory devices coupled to the controller 104.
[0024]
In the exemplary embodiment, system interface 110 is configured to translate received system commands and system addresses into what are referred to as universal commands 200. An example of a universal command 200 is shown in FIG. 2A. In one embodiment, if the shared resource is a DRAM-type memory device (including SLDRAM, SDRAM, EDO DRAM, etc.), universal command 200 may include all necessary memory access requests for memory 108 to perform. It is formed from five data fields containing the operation. Such operations include a precharge operation, indicated by a data precharge field 202, which is used to indicate whether a particular row needs to be precharged, Including actions. Other operations include a data activation field 204, a data read field 206, a data write field 208, and a data refresh field 210. For example, here, memory 108 has memory page 1 that is currently active in memory bank 1 (i.e., opened after a read or write has occurred), and a subsequent processor command causes memory bank 1 Requesting that the data stored on page 2 be read and output to processor 102. In this case, page 1 must be closed (ie, page 1 is precharged) and page 2 must be activated to execute the command required by processor 102. After the activation is completed, reading from page 2 is performed. Accordingly, the universal command 212 shown in FIG. 2B is generated by the universal command generation unit 110 having the data fields 202, 204, 206, 208, 210, of which the data fields 202, 204, 206 are "executing related operations". , And the data fields 208 and 210 are set to "0" indicating "non-execution of the related operation" (that is, "NOP").
[0025]
Returning to FIG. 1B. Access to memory 108 is very dynamic because it is shared by a number of different requesting devices, so the state of memory 108 is constantly changing. The state of a memory means that the state of that memory location must be known in order to perform a particular operation at that particular memory location. For example, when a specific memory page is closed, it is necessary to first open that memory page in order to execute a read operation. Accordingly, to locate the current state of a particular address location, the most recent operation performed on the particular memory location is identified by the resource tag 300 shown in FIG. In one embodiment of the present invention, the resource tag 300 includes an address field 302 used to identify a particular memory address location, to identify the last command issued to the address identified by that address field 302. , And a final command issue time data field 306. For example, the resource tag 308 of the memory address ADD5 indicates that a page read command was issued at time 5φ (indicating 5 system clock cycles), and the resource tag 310 assigns the same memory address ADD5 to the memory page at time 10φ. Indicates that a page write is to be performed. By observing the state of the memory address ADD5, the universal controller 104 recognizes that the memory page in ADD5 has already been opened, and that no page open operation is necessary.
[0026]
Based on information about the state of the resource provided by the tag 300 stored in the resource tag buffer 114, the command orderer 116 coupled to the configurable system interface 110 may use the command components 202-210 of the universal command 200. , So that the command components 202-204 and the command components 204-206 are configured to be the time intervals t1 and t2, respectively, as shown in FIG. 2C. An ordered command 220 is provided. Here, because the command components 208-210 are "NOP" type fields, the ordered command 220 does not include any reference to these fields, the clock period required for components 202-206, and t1 + t2 Only requires a time period substantially equal to and a time period substantially equal to the sum of: Thereby, command orderer 116 may provide optimal flow of commands and data between processor 102 and memory 108.
[0027]
In another embodiment of the invention, if shared resource 108 is a multi-bank memory device, such as an SDRAM, or if the shared resource is a multi-device memory, such as a multi-chip module, resource tag buffer 114 may include, for example, a specific bank. Alternatively, resource tags for all open pages on the device may be stored. In one embodiment, a comparator (not shown) looks up the bank number or device identifier in the system address and compares the page address and the system address with the contents of the tag buffer 114. If the result of the comparison is not a "match" (i.e., the addresses do not match), the universal controller 104 must close the old page using the address from the tag buffer 114 and, based on the new system command, Must be opened.
[0028]
Where multiple different devices are assisted by the universal controller 104, it is desirable to be able to select operating parameters that are only relevant to a particular device and that are also relevant to the input system address. An address space controller 120 coupled to the universal controller 104 is shown in FIG. 1C when the universal controller is assisting a plurality of different devices. In the exemplary embodiment, address space controller 120 has the ability to select only device-specific parameters that indicate one device associated with the input system address. In the specific embodiment shown in FIG. 1D, the address space controller 120 includes a comparator 122, which compares the input system address and the device associated with the input address (or, similarly, The contents of the area address range buffer 124 for identifying the memory area) are compared. Once a particular device or region is identified, one register in a group of device parameter registers 126 and 128 (each coupled to buffer 124 and containing parameters specific to a particular device) is selected. The selected device parameter register then presents specific operating parameters for the device corresponding to the system address. In another embodiment, the contents of the selected device parameter register are input to LUT 118. This allows any number of different devices to be assisted by the universal controller 104, and the particular operating parameters of each device are identified and used for optimal sequencing of the corresponding universal commands.
[0029]
It should be noted that it would be beneficial to be able to select any other command waiting in the command sequence, such as when one of the devices coupled to the universal controller is busy and cannot accept a new command. is there. In another embodiment of the invention, each of the response by the device and the request by the universal controller has an associated identification number 150, and in an exemplary embodiment, as shown in FIG. It is a 5-bit data word. The identification number 150 is formed to include a group selector field 152 having a length of 2 bits and a request number field 153 having a length of 3 bits. The group selector (GS) determines to which group a particular system request belongs (eg, a processor), and the request number (RN) represents the request or response number of the associated group identified by the group selector field 152. . In that case, successive requests from the same transceiver have consecutive request numbers.
[0030]
In another embodiment, group priority selector register 154 includes a priority value for each of the response or request groups, with the response or request group having a higher priority value preceding the group of lower priority value. . This allows a higher priority value request or response to be processed prior to a lower priority value request or response if the lower priority value request or response cannot be processed in the next clock cycle. To prevent so-called dynamic locks (Livelock), the dynamic lock counter register 156 stores a number of consecutive requests (or responses) having a high priority value that may precede requests (or responses) of a low priority value. Including information. As a result, a request (or response) of a low priority value does not have to be left for many clock cycles.
[0031]
Another point to keep in mind is that each of the shared resources has its own set of operating characteristics (eg, access time, CAS latency for DRAM devices, etc.) to optimize control of both command and data flows. Etc.) are related. If one or more shared resources are backed by universal controller 104, each of the shared resources has a different set of operating characteristics, and in another embodiment, the operating characteristics are coupled to command orderer 116. It is stored in a look-up table (LUT) 118. Command orderer 116 uses information provided by LUT 118 in conjunction with resource tags stored in resource tag buffer 114 to appropriately order command components 202-210 to form ordered commands 220. This is especially true when the shared resource is exactly a collection of memory devices, each having substantially different operating characteristics, such as a multi-chip module.
[0032]
Next, FIG. 4 is a flowchart illustrating details of a process 400 for a universal controller to gain access to a shared resource in accordance with an embodiment of the invention. The process 400 begins at 402 where the system requests access to a shared resource. If the shared resource is a DRAM type memory device, its operations include precharge, refresh, close, open, read and write. For example, a memory page stored in shared memory by the processor generating a system command (i.e., page read) and an associated system address indicating the location in memory where the requested page is stored. Request. This is, in the preferred embodiment, at 404, the state of the resource is determined using, for example, a resource tag associated with an active memory location in shared memory. Next, at 406, a determination is made as to the order of operations necessary to perform the desired request for the shared resource. At 408, the universal controller generates a universal command based on the sequence of operations necessary to perform the desired request. For example, in order to execute a page read operation, it is necessary to close a page opened in a previous stage, activate a new page, and then execute a read operation. All of this is understood by one universal command structure. Once the universal controller has formed the universal command using the resource tags and unique operating characteristics for the shared resource, then, at 410, the universal controller determines an appropriate time interval between each of the command components of the universal command. Then, at 412, an ordered command is issued for the shared resource. In this case, a physical stage is used in another embodiment. Finally, at 414, the shared resource responds to the ordered command, such as by presenting the data stored at the location indicated by the system address.
[0033]
In another embodiment of the invention, the universal controller determines the state of the resources (404) and the order of operations to be performed (406) using the process 500 shown in FIG. The process 500 begins by comparing a resource partition identifier (ie, a memory address register) with a resource identifier (ie, a resource tag address field 202) at 502. If the occurrence of a "match" is confirmed at 504 (i.e., the address of the new command matches the current tag address field), then at 506 the next command is issued. On the other hand, if the new command address does not match the current tag address field (ie, if there is a mismatch), then a determination is made at 508 whether the old page is still open. If an old page is open, the page is closed at 510 and a new page is opened at 512. However, if it is determined at 508 that the old page is not open, then at 512 a new page is opened. In either case, once a new page is opened, the next command (data operation) is issued at 506.
[0034]
In another embodiment of the invention, the universal controller determines an appropriate time interval between each of the successive operations based on the process 600 shown in FIG. 6 (410). The process 600 includes, at 602, the universal controller having the first command of a new set of commands for a particular resource and the most recent set of commands issued to the same resource up to that point. Is started by comparing with the last command. At 604, the universal controller determines a time constraint between the universal command components by comparing the first command component of the new universal command with the last command component of the newest previous command. . In another embodiment, the universal controller uses a two-index look-up table (LUT) in the form of a two-dimensional array as shown in Table 1. In it, the first row of the array represents the old (ie, newest) command and the first column of the array represents the new command. For example, referring to Table 1, if the old command is page read and the new command is page close, the intersection of the new command of page close and the old command of page read is , The minimum amount of time allowed between the two operations (ie, the minimum physical time required for issuance). Typically, the information stored in the LUT is provided by the manufacturer of the shared resource.
[0035]
[Table 1]
Figure 2004500608
[0036]
Once the resource constraints for a particular universal command component have been determined, a determination is made at 606 as to whether there are additional command components for the same universal command. If there are no more command components, at 608 details regarding the time interval of the universal command and associated components are stored. On the other hand, if the universal command includes additional command components, control is returned to 604, for which corresponding physical time constraints are determined.
[0037]
However, in order to observe the state of a physical page in the shared memory 108 having a plurality of memory banks, for example, a very large number of resource tags are required, and accordingly, a very large number of cache memories are used for the resource tag buffer 114. Is required. This would require a significant amount of time to retrieve a unique resource tag for a particular memory page of the remotely located memory, thereby reducing the overall operating speed of the universal controller 104. Will be reduced. In another embodiment shown in FIG. 7A, a page hit / miss controller 702 is included in the universal controller 104 and the number M of page registers 704 is set to be less than the number N of memory banks in the multi-bank memory 706. This is because not all banks can cope with the M page registers 704. In this operation, each of the M page registers 704 stores the address and status data of an open page. Further, the random page register number generation unit 708 generates a random integer value equal to or less than M corresponding to the page register and exchanges it with the address of the open page. Comparator 710 compares the input system address with the bank numbers and page addresses of all M registers in parallel to obtain one of the four possible results shown below.
[0038]
1) If the comparator 710 indicates a hit (match), the desired page of the requested bank is opened and ready for access.
[0039]
2) If the comparator 710 indicates a bank hit (match) and a page miss (mismatch), the universal controller 104 closes the old page using the page address from the page register and returns from the system address. A new page needs to be opened using the page address.
[0040]
3) If the comparator 710 indicates a miss in both bank and page, the universal controller 104 closes any old pages in the bank with the number provided by the random page register number generator and uses the system address. Need to open a new page. Thereafter, access to a desired bank is performed.
[0041]
4) If both the bank and page are missed, but at least one page register is unused, that register is used to open a new page.
[0042]
In another embodiment, as shown in FIG. 7B, the random page register number generator 708 is replaced by the least recently used (LRU) comparator 712, and which of the M registers 704 is most recently used. Determine if it has been unused for a long time (ie, has it been used most recently).
[0043]
In addition to observing the state of the physical page in the multi-bank memory 706, the bank access controller 800 shown in FIG. 8 includes N bank registers 802 corresponding to the number N of memory banks included in the multi-bank memory 706. The bank register 802 in which the information of the related bank is stored includes a bank number field 804 that defines the identification number of the bank. In addition, bank register 802 includes a bank status field 806 indicating the status of a particular bank identified by the bank number in bank number field 804. In particular embodiments, bank status field 806 may take on the values as shown in Table 2.
[0044]
[Table 2]
Figure 2004500608
[0045]
With the development of packet-oriented high-speed memories such as synchronous link DRAMs (SLDRAMs) that transmit bus data at speeds in the range of 400 to 800 Mb / s / pin, problems due to memory access collisions are increasing. . Referring first to FIG. 9A, an exemplary SLDRAM-type multiprocessor system 900 is shown, according to an embodiment of the invention. Multiprocessor system 900 includes a processor 902 connected to a controller 904 by a system bus 906. Universal controller 904 is then connected to synchronous link DRAM (SLDRAM) 908 and SLDRAM 910 by an SLDRAM bus. The SLDRAM bus includes a unidirectional command bus 912 and a bidirectional data bus 914. Note that although only two SLDRAMs are shown in FIG. 9A, any number of SLDRAMs may be connected to universal controller 904 by buses 912 and 914. In other cases, the SLDRAM may take the form of a buffered module that includes any suitable number of SLDRAMs, such as SLDRAM 908. An initialization / synchronization (I / S) bus 916 that connects the universal controller 904 to each of the SLDRAMs 908 and 910 provides a signal path for initialization and synchronization signals generated by the universal controller 904.
[0046]
In another embodiment of the invention, packetized command, address, and control information from universal controller 904 is selectively communicated on command bus 912 to SLDRAMs 908 and 910. Data bus 914 is set to transmit the packetized write data from universal controller 904 to the selected one of SLDRAMs 908 and 910. Alternatively, data bus 914 is formed to send packetized read data from the selected one of SLDRAMs 908 and 910 back to universal controller 904. It should be noted that the command bus 912 and data bus 914 typically operate at the same speed as one another, for example, 400 MB / s / p, 600 MB / s / p, 800 MB / s / p.
[0047]
The plurality of control signals generated by the universal controller 904 and transmitted by the command bus 912 include, for example, a running clock signal (CCLK), a FLAG signal, a command address signal CA, a LISTEN signal, a LINKON signal, and a RESET signal. . Typically, a packet command consists of four consecutive 10-bit words, with the first word of the command having the first bit of the FLAG signal set to "1". In a preferred embodiment, both ends of the running clock signal CCLK are used by SLDRAMs 908 and 910 to latch the command word. The SLDRAMs 908 and 910 respond to the H level LISTEN signal by checking the command bus 912 for the input command. Alternatively, SLDRAMs 908 and 910 respond to the L-level LISTEN signal by entering a power saving standby mode. The LINKON and RESET signals are used to stop or activate the selected one of SLDRAMs 908 and 910, respectively, to a known desired state.
[0048]
For the remainder of the discussion herein, the SLDRAM 908 will be discussed only with the understanding that any number of SLDRAMs deemed appropriate may be connected to the universal controller. As discussed above, a typical SLDRAM device, such as SLDRAM 908, is hierarchically organized by memory banks, columns, rows, and bits, as well as memory areas. It should be noted that it is indeed recognized that each of these hierarchical levels has different operating characteristics from one another. Such operating characteristics include, but are not limited to, parameters such as memory access time, chip enable time, data search time, and the like. It should be noted that while regions are defined for different devices, such as different memory types and memory groups, each with different command and data latencies, banks in multi-bank memories typically have the same operating characteristics. It is. For example, one local memory group can be directly connected to the memory controller and also connected to a second non-local memory group located on the board which increases the driver mediating command wait time and data wait time for the local memory group. it can. In other cases, each of the various memory chips forming the multi-chip module is considered to be a different memory area.
[0049]
9A, the SLDRAM 908 is a multi-chip having four memory chips A, B, C, and D, each individually accessible by a command bus 912, a data bus 914, and an I / S bus 916. Module. Each of the memory chips A-D may have different operating characteristics (typically provided by the manufacturer) to optimally schedule commands and data packets, and the universal controller 904 may operate at specific hierarchical levels, and Alternatively, the operating characteristics of the corresponding memory area can be used.
[0050]
By way of example, FIG. 9B shows a typical timing diagram of a typical SLDRAM bus transaction according to the multiprocessor system shown in FIG. During operation, the processor typically generates a processor command packet, such as a read command 950 or a write command 952, to which the appropriate memory bank (s) of the SLDRAM 908 respond. Typically, read commands 950 and write commands 952 are pipelined on system bus 906 based on the specific requirements of processor 902 in which they are generated, and are not suitable for optimal performance of SLDRAM. A system clock CLKsys (not shown) provides the necessary timing signals.
[0051]
In this example, the processor 902a generates a read command 950 having the memory address MA1 located on the memory chip A of the SLDRAM 908. On the other hand, the processor 902b generates a read command 952 having the memory address MA2 also located in the memory chip A of the SLDRAM 908. In this example, the read command 950 is an output to the system bus 906 that has priority over the output of the write command 952. The universal controller 904 first receives the read command 950, and then starts processing the command based on the command itself and the command address MA1, using the end point address specifying information stored in the universal controller 904. Once the shortest issuance time is determined, universal controller 904 then generates SLDRAM command packet read 960 in response to received processor command 950 and sends it out to command bus 912.
[0052]
In general, an SLDRAM command packet is organized as shown in Table 3 into four 10-bit words representing a 64M SLDRAM with 8 banks, 1024 row addresses, and 128 column addresses. As shown, the bank address (BNK) is 3 bits, the row address (ROW) is 10 bits, and the column address (COL) is 7 bits. Many other arrangements and densities are possible and can accommodate any of the 40 bit formats shown, as well as any other format that may be defined as appropriate. During power up, the universal controller 904 organizes command packets based on polling the SLDRAM for factors such as bank, row, column numbers and associated operating characteristics stored at that time by the universal controller 904. I do.
[0053]
The first word of the command packet contains a plurality of chip ID bits. The SLDRAM ignores any command that does not match the local ID. The chip ID is assigned by the universal controller 904 using the initialization signal and the synchronization signal when the power is turned on. In this way, the universal controller 904 addresses each SLDRAM of the multiprocessor system 900 one-to-one by generating a separate chip enable signal or glue logic.
[0054]
[Table 3]
Figure 2004500608
[0055]
Since the read command 950 and the write command 952 are pipelined, the universal controller 904 receives the write command 952 after a certain period of time after receiving the read command 950 (or may store it in a buffer), Next, an SLDRAM command packet write 962 corresponding to the write command 952 is issued. In order to avoid the interference of the previously issued read command 960 since the same bank (A) is accessed for both commands, the universal controller 904 uses the MA2 specific characteristic data as well as the shortest issue time to generate it. The issue time of the read command 960 (that is, the issue time) and the data offset of the write 962 are used.
[0056]
In this manner, the universal controller 904 can dynamically schedule issuance of SLDRAM command packets based at least on the current state of the stream of commands and data packets and the operating characteristics of the particular destination address device.
[0057]
Reference is now made to FIG. 10 illustrating a block diagram of a memory controller 1000 according to an embodiment of the present invention. It should be noted that memory controller 1000 is only one of the embodiments of universal controller 104 shown in FIG. 1 and should not be taken as limiting the limitations of the present invention. The memory controller 1000 includes a system interface 1002 that connects the processor 902 via a system bus 906 to a memory scheduler 1006 (referred to as a scheduler). In one embodiment of the present invention, the system interface 1002 is arranged to provide for transmission of both the memory command packet generated by the processor 902 and its associated write data packet to the memory command packet scheduler 1004. Have been. In situations where the scheduler 1006 indicates that the internal buffer is full and cannot accommodate a new command, the system interface 1002 holds the new command until the scheduler 1006 indicates that the new command is ready to accept.
[0058]
A synchronous link media access controller (SLiMAC) 1008 provides a physical interface between the scheduler 1006 and the SLDRAM 908. More specifically, SLiMAC 1008 includes a command interface 1010 and a data interface 1012 for connecting SLiMAC 1008 to SLDRAM 908 via command bus 912 and data bus 914, respectively. In a preferred embodiment of the present invention, command interface 1010 transmits a memory command from SLiMAC 100 to SLDRAM 908 with an associated command clock CCLK. In some embodiments, to generate a command clock signal CCLK that typically operates at 200 MHz, SLiMAC 1008 incorporates a clock doubler that uses an interface clock signal ICLK (which can operate at approximately 100 MHz).
[0059]
In one embodiment of the invention, data interface 1012 both receives and transmits data on data bus 914. It should be noted that the width of the data bus 914 can be large enough to support the required number of SLDRAMs. Thus, as many as necessary data interfaces may be included in the SLiMAC to provide the required bandwidth. As an example, if the data bus 914 is 32 bits wide (eg, 16 bits per SLDRAM), then the SLiMAC 1008 may have two data interfaces that can each control the 16 bits associated with an individual SLDRAM. it can. In this way, the size of the data interface included in the SLiMAC 1008 can be strictly adapted to the particular configuration of the SLDRAM connected to it.
[0060]
In much the same way as using the command interface 1010, the SLiMAC 1008 can provide a data clock signal DCLK associated with the read data transmitted from the SLDRAM 908 to the SLiMAC 1008. In one embodiment of the invention, the data clock DCLK is generated using a clock doubler that increases the interface clock ICLK frequency from about 100 MHz to about 1000 MHz. It should also be noted that the interface clock signal ICLK, command clock signal CCLK, and data clock signal DCLK are all phase synchronous.
[0061]
In a preferred embodiment of the present invention, scheduler 1006 includes a restriction block 1016 arranged to receive system commands and their associated system address data from connected system interface 1002. Restriction block 1016 provides timing information associated with the SLDRAM command packet data to reordering block 1018. The write buffer 1020 receives read data from the system interface 1002. As dictated by the scheduler 1006, read data is transmitted from the data interface 1002 through a read buffer 1022 connected to a data bus 914 arranged to provide the read data to the system interface 1002. An I / S block 1024 connected to the initialization / synchronization (I / S) bus 914 provides appropriate initialization and / or synchronization signals to the SLDRAM 908 as required.
[0062]
In operation, scheduler 1006 receives pipelined memory command packets generated by processor 902. Normally, a memory command packet is composed of a memory command and a memory address associated therewith. In one embodiment of the present invention, the scheduler 1006 is associated with the new command received to determine the destination address to which the memory command and its associated data packet, if any, were directed. Decode a memory address. Once decoded, scheduler 1006 uses the destination address specific device characteristic data stored therein, along with information associated with the previously sent memory command, to send out a new SLDRAM command packet. The new SLDRAM command packet is output to the command bus 912, and finally to the SLDRAM identified by the chip ID included in the SLDRAM command packet.
[0063]
As part of the scheduling process, before issuing a new command, scheduler 1006 determines the minimum amount of time since the issuance of the previously issued requested command. As described above, because each hierarchical level of the SLDRAM, eg, a memory bank, can have different operating characteristics (typically provided by the manufacturer), the scheduler 1006 will Polls each of the SLDRAMs it serves. In some embodiments, if the connected memory device does not allow polling to determine operating characteristics, memory specific parameters (such as timing) can be written directly to the restricted block register 1016. Once the SLDRAM is polled, the scheduler 1006 stores the device specific information that will be used later to deploy the appropriate scheduling protocol. In this way, the scheduler 1006 can provide a scheduling service that adapts to any number or type of SLDRAM without the need for hard wiring, without additional time consuming and costly procedures. is there.
[0064]
FIG. 11 schematically illustrates a restriction block 1100 according to an embodiment of the present invention. It should be noted that the restriction block 1100 is not the only possible embodiment of the restriction block shown in FIG. 10, and thus is not so limited. Restriction block 1100 includes an address decoder 1102 arranged to decode a received new address signal associated with a new memory command generated by processor 902 and connected to system interface 1002. The decoded new address signal provides an input to the array tag register 1104, which has status and other information for all or possibly only a subset of the associated SLDRAM memory banks. Related information is stored. The array tag register 1104 provides an input to a selector 1106, which communicates data associated with the selected virtual bank to a look-up table (LUT) 1108 based on the decoded new command.
[0065]
The restriction block 1100 also includes an area comparator 1110 connected to the system interface 1002, the area comparator 1110 using the received new address signal to indicate an area identifier indicating the memory area where the new command address is located. Supply. In this way, the restriction block 1100 can provide the best scheduling protocol for a new memory command based at least in part on the memory area specific property data. The region comparator 1110 provides the region identifier as an input to the LUT 1108 along with the new command signal. The LUT 1108 then provides the minimum delta issue time and data offset used to translate the new command and its associated new address into an SLDRAM command packet. It should be noted that the minimum delta issue time indicates the delta time (in clock cycles) at which a new command is issued in relation to the previously issued old command. The data offset time represents a delta time in a clock cycle for receiving a read data packet associated with the new command after issuing the new command.
[0066]
In one embodiment of the present invention, the restriction block 1100 includes 16 array tag bank registers, and the LUT 1108 includes four different parameter sets for each of the four timing regions with 16 associated registers. Can be stored.
[0067]
FIG. 12 is a timing diagram 1200 of an SLDRAM bus signal in response to a received processor command according to one embodiment of the present invention. It should be noted that Table 4 summarizes the scheduling process performed by the restriction block by identifying various generated signals. It should also be noted that the memory command takes the form of {command, address}, where "command" indicates the instruction to be executed and "address" indicates the location of the associated memory. is there.
[0068]
Reference is now made to Table 4 and FIG. During the system clock cycle φ1, the first command {open page, 1000} is received by the address decoder 302 and received in parallel by the area comparator 1110. In this example, the address decoder 1102 decodes the open page command address “1000” as “100” and “400”, and determines that the area comparator 1110 is included in the memory area 0. Since the open page command is the first command to be received, there is no "hit" in any of the virtual banks B0-13, and the corresponding replacement counter is set to "0". In this embodiment, the replacement counter is updated based on a pseudo-random counting method, whereas in other embodiments, random counting or another suitable method is used. Since the first command {open page, 1000} is an open type command, there is no associated minimum delta issue time or data offset, so the page at address 1000 is opened in the first command clock cycle φC1.
[0069]
During the next system clock cycle Φ2, a {Read, 1000} command is received at the restriction block 1100, which the address decoder 1102 decodes as 100 and 400 (ie, opens to memory address location 1000 in the previous clock cycle). These values cause the area comparator 1110 to set the area identifier to area 1. However, in this case, the "old command" before, or in other words, the "old command" stored in the B0 register will "hit" at B0, thereby causing the selector to replace the "read" with the "old command". Output to the LUT 1108 as input. Other inputs include an area indicator "area 1" issued by area comparator 1104 and a "new command" input which is a lead. The LUT 1108 generates a minimum delta issue time of three command clock cycles Φ3 using the stored characteristic data. This indicates that at least three command clock cycles must separate the issuance of the {page open, 1000} command and the associated {read, 1000} command.
[0070]
In this manner, each memory command packet received in the restriction block 1100 is processed, at least in part, based on the most recently issued command according to the characteristic data stored in the LUT 1108.
[0071]
Next, the reordering of commands received from restricted blocks according to certain embodiments of the present invention will be described. FIGS. 13A-13C are timetables 1302, 1304 that illustrate, through a simple command reordering example, some of the benefits realized by memory command reordering in accordance with certain embodiments of the present invention. Help. Each timetable shows four read commands corresponding to two different memory banks. CMD0 and CMD1 are read commands directed to bank 1 of the associated memory. CMD2 and CMD3 are read commands directed to bank 2 of the associated memory. The timetable 1302 shows the memory commands arranged on the command bus connecting the memory controller and the memory in the order in which the commands are received from the system processor by the memory controller. CMD0 occupies time zone 0, CND1 occupies time zone 3, CMD2 occupies time zone 4, and CMD3 occupies time zone 7. Each time period represents one clock cycle.
[0072]
As mentioned above, commands to the same memory bank require a minimum delay between issuances in order to process previously issued commands. This is represented in FIG. 13A by two time zones between a pair of commands. As can be seen, assuming that four read commands have been sent to memory in the order shown in FIG. 13A, the command bus has four available clock cycles, ie, during time zones 1, 2, 5, and 6. , Will not be used. As discussed below, at least some of this inefficiency will be improved by command reordering in accordance with the present invention.
[0073]
The timetables 1304 and 1306 of FIGS. 13B and 13C, respectively, illustrate the reordering of the commands of FIG. 13A and at least some of the benefits obtained in accordance with certain embodiments of the present invention. In this example, data bus conflicts are not considered for simplicity. However, as discussed below, attention must be paid to such considerations for effective reordering of memory commands. Due to the fact that CMD2 and CMD3 are directed to different memory banks from CMD0 and CMD1, the memory access latency between the two pairs of commands is not a problem and may be ignored. That is, the commands can be rearranged as shown in timetable 1304, with CMD2 placed in time zone 1 immediately after CMD0 and CMD3 placed in time zone 4 immediately after CMD1. This is because no delay is required between the issuance of CMD0 and CMD2 and between the issuance of CMD1 and CMD3 due to the fact that they are directed to different memory banks. However, it will be appreciated that a minimum delay time, eg, two clock cycles, must be maintained between pairs of commands directed to the same bank, as shown in FIG. 13C. That is, command reordering does not include attempts to reduce the delay between successive commands to the same memory bank.
[0074]
The result of the command reordering is shown in FIG. 13C. Here, four commands are issued within five clock cycles and only time zone 2 has not been used. Of course, it will be appreciated that a fifth memory command towards yet another memory bank is inserted at time zone 2, further increasing the efficiency with which the command bus is utilized.
[0075]
FIG. 14 is a block diagram of a portion of a memory controller configured in accordance with certain embodiments of the present invention. The reordering circuit 1400 receives an incoming memory command sequence from the system processor, ie, the command sequence 1, 2, 3. According to a particular embodiment, the memory command is transmitted to the reordering circuit 1400 via a limiting circuit (not shown), which, as described above, uses the same command in the memory associated with the selected command. Issue time constraints in response to other commands directed to the logical bank. Commands are reordered in command queue 1402, from which commands are issued to memory. In this example, the commands are reordered in the order 1, 3, 2.
[0076]
The original memory command sequence, ie, 1, 2, 3 is stored in the FIFO memory in the data reading circuit 1406. The sequence in FIFO 1404 is used to reorder the data received from memory such that the commands correspond to the order in which they were originally received by the memory controller. However, since some processors expect data out of order, while others expect data out of order, turning on and off the FIFO 1404 as needed may result in any type of data. It should be noted that order can also be supported. This is necessary because the processor "expects" to receive the data in an order corresponding to the order in which the commands were originally transmitted to the memory controller.
[0077]
Further, a third sequence is stored in data queue 1408 because data from memory may be received by the memory controller in a sequence that does not correspond to the sequence from which the processor transmitted the memory command. This sequence (3, 2, 1 in this example) represents the order in which data corresponding to command sequences 1, 3, 2 will be received by data reading circuit 1406. The data queue sequence is calculated by the reordering circuit 1400 based on the command queue sequence and the known latencies associated with the various logical banks of memory. When the memory transmits data to the memory controller in the sequence stored in the data queue 1408 (ie, 3, 1, 2), the data is stored in the read data buffer 1410 and based on the information in the FIFO 1404 and the data queue 1408, It is re-ordered for transmission to the processor in an order corresponding to the order of the original command sequence, ie, 1, 2, 3.
[0078]
FIG. 15 is a block diagram of a reordering circuit 1500 in a memory controller configured according to a particular embodiment of the present invention. The reordering circuit 1500 includes a command queue 1502 for storing and reordering commands received from the system processor. The command queue 1502 calculates the issue time of each command using the command issue time constraint and the data bus use constraint associated with the command going to the same logical bank in the memory, issues the command, and issues the command. Dequeue a command from the queue.
[0079]
The data queue 1504 stores a data element indicating a data occurrence time corresponding to the issued memory command, calculates a new data occurrence time for each new input to the queue, and sets a queue entry when the corresponding memory transaction is completed. Remove.
[0080]
The comparator matrix 1506 performs a collision detection function. In this function, the data generation time of a command that is ready to be issued from the command queue 1502 (transmitted via the multiplexer 1508) is the data generation time of a previously issued command represented in the data queue 1504. Is compared to If a collision is detected, the command issuance is postponed.
[0081]
FIG. 16 is a more detailed block diagram of the reordering circuit 1500 of FIG. As shown in the diagram of FIG. 17, command queue 1502 includes six command queue elements 1602, each of which stores 61 bits of information regarding a particular memory command. Command field 1702 includes a 40-bit memory command packet specifying a memory command. The command issue time (Cd) field 1704 is a 6-bit field, and indicates a delta time of a clock cycle before a command is issued. The value of field 1704 is determined by the limiting circuit described above and relates to the most recent memory command corresponding to the same logical bank in memory. That is, the value of the Cd field represents the latency between two commands to the same bank. Information about the latency required for each bank is stored in a limiting circuit, which is largely determined by the physical characteristics of the memory. In the command queue, the Cd field is determined for each clock cycle, with some exceptions. For example, the latency between successive commands to the same logical bank is not changed. Thus, if the Cd field for a command destined for a particular bank becomes zero and is not issued, the Cd field of other commands to the same bank will not be decremented until the first command is issued.
[0082]
The data generation time (Dd) field 1706 is a 6-bit field and indicates a delta time of a clock cycle between the issuance of a memory command from the command queue and the transfer of the corresponding data. Dd field 1706 must not be changed in the command queue. The command ID field 1708 is a 5-bit field, and identifies the command in the command packet 1702 on a one-to-one basis. This information is used together with the corresponding information in the FIFO and the data queue to keep track of which packets and which data correspond to which packets so that command and data reordering works. You. The logical bank (B) field 1710 is a 3-bit field and identifies which logical bank in the memory the command packet is directed to. Finally, the burst indicator (Db) field 1712 is a one-bit field, indicating that the requested or written data occupies one or two clock cycles.
[0083]
Referring back to FIG. 16, the operation of the command queue is controlled by the command queue controller 1604. The controller 1604 controls insertion of an incoming command into a specific queue element via the empty position identification unit 1606 so as to keep track of which command queue element 1602 is available. Controller 1604 also facilitates inserting command queue element information into data queue 1504 when a corresponding command is issued. According to a particular embodiment, commands are inserted into the command queue 1502 regardless of the availability of free time slots on the command bus or data bus.
[0084]
A command may be issued to the command bus from any one of the command queue elements 1602 via multiplexer 1608 if its Cd count is zero and there is no collision on the data bus. That is, free time slots on the command bus and / or data bus must be identified. If the command is not a read or write (and therefore does not require data bus resources), only a command bus time slot is needed. If the command is a read or a write, slots for both the command bus and the data bus are required.
[0085]
The zero comparator 1610 of the controller 1604 is used to make the first decision, that is, whether Cd = 0. Subtractor 1612 subtracts “1” from the Cd count for each command queue element 1602 at each clock cycle if the above exception, ie, Cd = 0 for a particular command that cannot be issued. Used for In that case, the queue controller 1604 uses the Cd and B fields for all queue elements to issue a mask signal (M) that prevents the Cd count for all commands to the same logical bank from decrementing.
[0086]
According to a particular embodiment, if there are two queue elements with Cd = 0, the one with the highest priority (eg, the oldest) is issued. The address shifter 1614 prioritizes commands in the queue, as discussed in detail below with reference to FIG. According to another particular embodiment, if a new command arrives in the command queue and its Cd count is already zero, it is transmitted directly to memory via multiplexer 1608. The new command is stored in the command queue element 1602 if its Cd count is not zero, or if there is another command with higher priority and stored in the command queue with Cd = 0. However, if the command queue is empty, a new command is issued immediately (if Cd is equal to zero).
[0087]
For read and write commands, collisions are detected using the Dd and Db fields of the command queue element 1602 containing commands that are ready to be issued. The data generation time and duration corresponding to the command are transmitted to a comparator matrix 1506 via a multiplexer 1508, which is controlled by a queue controller 1604. That is, the queue controller 1604 controls the multiplexer 1508 to transmit the data issuance time and the duration (1 or 2 clock cycles) of the queue element whose command issuance time, that is, Cd is zero. The duration is one or two clock cycles, which means that adder 1616 adds "0" (representing one clock cycle) or "1" (2 clocks) for Dd + 1 by adding the Db bit to data generation time Dd. (Representing a clock cycle). Next, the data occurrence time and duration are compared in comparator matrix 1506 with the data occurrence times and durations of the five previously issued commands stored in data queue 1504. According to a particular embodiment, comparator matrix 1506 includes 2 × 10 parallel comparator matrices.
[0088]
FIG. 18 is a block diagram of a specific embodiment of the address shifter 1614 of FIG. As described above, the address shifter 1614 determines the priority of the command. As also described above, a new command is inserted into an arbitrary free command queue element 1602 according to the empty position recognition unit 1606. The address of the command queue element 1602 into which a new command is inserted is inserted in the first empty position (A0 to A5) with the highest priority. As a result, the A0 position of the address shifter stores the queue element address for the oldest unissued command. When a command is issued from the command queue, the corresponding entry in address shifter 1614 is removed and the address for the lower priority command is changed to a higher priority position. As described above, a command is issued when the Cd count for a command in the command queue reaches zero. However, when there is one or more commands with Cd = 0, the oldest command, that is, the command with the highest priority indicated by the position of the address in the address shifter 1614 is issued.
[0089]
The data queue 1504 of FIG. 16 includes five queue elements 1652, each of which contains 12 bits of information regarding previously issued memory commands, as illustrated by FIG. Data generation time (Dd) field 1902 is a 6-bit field indicating a delta time in a clock cycle between the issuance of a command from the command queue and the reception of the corresponding data. The Dd count for each data queue element 1652 is decremented every clock cycle using one of the subtractors 1654 until its value reaches zero. When Dd = 0, the corresponding data is on the data bus. Thus, it will be appreciated that there is only one data queue element 1652 with Dd = 0 at any given time. After the Dd count reaches zero, the information in the corresponding data queue element is removed from data queue 1504.
[0090]
The command ID field 1904 is a 5-bit field that identifies the issued command corresponding to the data on a one-to-one basis. This information helps reorder the data so that it corresponds to the original order in which the commands were originally transmitted to the memory controller. Finally, a burst indicator (Db) field 1906 is a one-bit field that indicates that the data occupies one or two clock cycles.
[0091]
Returning to FIG. 16, as discussed above, the data generation time (Dd) and duration for each of the data queue elements 1652 may be determined for commands that are ready to be issued, ie, commands in the command queue 1502 with Cd = 0. Is compared with the Dd and duration in the comparator matrix 1506. The duration is one or two clock cycles, which means that adder 1616 adds "0" (representing one clock cycle) or "1" (for one clock cycle) to Dd + 1 by adding the Db bit to data generation time Dd. (Representing two clock cycles). If the comparison shows no collision on the data bus, the command is issued from the command queue.
[0092]
Data queue controller 1658 controls the operation of data queue 1504. The empty position identification unit 1660, together with the command queue controller 1604, facilitates insertion of new data queue element information into the data queue element 1652. The free location identifier also facilitates removing information from data queue element 1652 when the corresponding memory access is completed. Zero comparator 1662 and burst identifier 1664 determine when Dd for any of data queue elements 1652 will be zero, and when data transfer will no longer occupy the data bus, and therefore when the corresponding information is removed from the data queue. Used to determine if it should be removed.
[0093]
According to another particular embodiment of the present invention, collision detection is further complicated through the use of a two-dimensional array of comparators and multiplexers. This approach is more silicon intensive than the one-dimensional approach described above, and looks at all elements in the command queue, not just one element for ready-to-issue commands. It schedules commands not only for previously issued commands, but also for the order of data packets on the data bus.
[0094]
In order to insert a new command, each combination of two consecutive stages in the to-be-issued portion of the command pipe must be compared to see if a new command can be inserted between them. This comparison actually determines the range in which the command can be inserted. This range is as shown below.
[0095]
CLENX = command length
Tcstart = tcA + CLENA (1)
Tcend = tcB (2)
[0096]
Here, tcA and tcB are the issue times of the continuous pipeline elements A and B. Pipeline element A precedes pipeline element B, so its issue time is the lower of the two. If there is an insertion, there must of course be at least one open slot between the A and B elements. Therefore:
[0097]
N = Tcend−Tcstart + 1 (3)
(Where N = number of issue slots between elements AB)
LEN <= tcb-tca-CLENA (4)
[0098]
In hardware, it is easy to simply implement the following conditions:
[0099]
(TcB-CLENA)-(tcA + CLENA) => 0 (5)
[0100]
The start and end points of the range also specify the possible range of the associated data slot. This range must be compared to each successive element in the datapipe to see if there is any overlap and what the new range will be. There are five different cases in this comparison.
[0101]
Case 0:
In this case, the range delimited by data slots tdA and tdB is completely outside the range of two consecutive elements M and N. In this case, therefore:
[0102]
tdA + CLENA => tdN (6)
Or, if DLENX = length of data,
tdB <= tdM + DLENM (7)
[0103]
There are no possible data slots between the M and N pairs.
[0104]
Case 1:
In this case, the range defined by data slots tdA and tdB is completely inside the range of two consecutive elements M and N. In this case, therefore:
[0105]
tdA + CLENA => tdM + DLENM (8)
And,
tdB-CLEN + DLEN <= tdN (where CLEN is the length of a new command in a slot and DLEN is the length of new data in a slot) (9)
[0106]
The earliest possible data slot time in this case is tdA + LENA with the issuance time of the corresponding command tcA + CLENA.
[0107]
Case 2:
In this case, the range defined by data slots tdA and tdB corresponds to the length of element M. In this case, therefore:
[0108]
tdA + CLENA <tdM + DLENM (10)
And,
tdB-CLEN + DLEN> tdM + DLENM, and tdB-CLEN + DLEN <tdM (11)
[0109]
The earliest possible data slot time in this case is tdM + DLENM + 1 with the corresponding command issue time tcM + CLENM-DATA-OFFSET. Here, DATA-OFFSET is the time between the command issue time and the data occupation time.
[0110]
Case 3:
In this case, the range defined by data slots tdA and tdB corresponds to the length of element N. In this case, therefore:
[0111]
tdA + CLENA> tdM + DLENM (12)
And,
tdA + CLENA + DLEN <tdN (13)
[0112]
Thus, the earliest possible data slot time in this case is tdA + CLENM with the corresponding command issue time tcA + CLENA + 1. It should be noted that this case also includes Case 1.
[0113]
Case 4:
In this case, the range defined by data slots tdA and tdB includes the range defined by elements M and N. In this case, therefore:
[0114]
tdA + CLENA <tdM + DLENM (14)
And,
tdB-LEN> CtdN (15)
[0115]
Therefore, the earliest possible data slot time in this case is tdM + DLENM with the corresponding command issuance time tcM + CLENA + DATA-OFFSET. Here, DATA-OFFSET = tdA-tcA.
[0116]
For the purpose of scheduling such that the earliest possible slot is always chosen, it is clear that case 1 and case 3 are identical. Therefore, the case where these are combined is Case 3. Similarly, case 2 and case 4 are identical because the required result is tdM + LENM. In this case, it must be clearly shown that tdM matches the range given by tdA and tdB. In addition, the earliest possible issuance time (tc) and data slot (td) for incoming commands must be considered. For each command pipe pair, the comparison that must be made on each data pipe is as follows:
[0117]
(Equation 1)
Figure 2004500608
[0118]
Therefore, the operations required for the command pipe are:
[0119]
(Equation 2)
Figure 2004500608
[0120]
Similarly, the operations required for a data pipe are:
[0121]
[Equation 3]
Figure 2004500608
[0122]
The decision logic therefore consists of the matrix of comparators defined above. The best choice is the earliest command issuance time, which is determined by a simple priority encoder.
[0123]
The reordering pipe control logic must dynamically determine which operation is to be performed on each element of the command pipe and the data pipe.
[0124]
In the waiting command pipe, each pipe element can perform four operations. Reading from the previous element (the pipe moves forward), holding the current contents (the pipe holds), reading from the next element (the pipe backs up), and reading from the incoming command bus. At various points in the pipe defined by the four cases, there can be many sets of conditions. The source element to the SLiMAC is defined as element 0, whereas the element furthest from issuance is defined as element M. If the reordering logic finds that the optimal insertion point in the current pipeline is between elements N-1 and N, an insertion into element N is made.
[0125]
Case 1-Hold:
If there is no issue to the SLiMAC or insertion of a new command, the pipe is held.
[0126]
Case 2-Hold & Insert:
In this case, there is no issue to the SLiMAC, but there is an insertion of a new command into the pipe. If the insertion occurs at element N, the pipe holds elements 0 through N-1 and inserts into element N, backing up elements N + 1 through M.
[0127]
Case 3-Issue:
In this case, there is an issue from element 0 to SLiMAC, and the other part of the pipe is that element M-1 is element M-1, element 1 is element 2, and so on. Will be postponed until it contains the contents of
[0128]
Case 4-Issue & Insert:
In this case, there is an issue from element 0 to SLiMAC and an insertion at element N. In this case, the advance operation is performed in the elements 0 to N-2, the insertion operation is performed in the element N-1, and the elements N to M are held. The advance is performed on the element that will store the data from the immediately following element, and the insertion at element N (the element will be inserted between elements N-1 and N of the current pipe). , In effect, means that the inserted element goes to location N-1 of the updated pipe.
[0129]
FIG. 20 illustrates a collision detection system 2000, which is another implementation of the collision detection system 1500 shown in FIG. In this embodiment, the collision detection system 2000 reorders the commands to obtain an optimal command sequence based on the target response limit to find an optimal slot for data transfer between the initialization controller and the target subsystem. decide. Since the reordering of commands must not cause collisions between different data packets on the data bus, a collision detector that prevents the issuance of this particular command if the command data transfer associated with that particular command causes a data conflict 2002 is required. In this embodiment, the collision detection system 2000 includes a collision detector 2002 coupled to the command queue 2004.
[0130]
In this embodiment, the collision detector 2002 determines all possible transitions between a "scheduled" command (stored in the command queue 2004) and a "issued" command (stored in the data queue 2006). Detect data collisions. In this embodiment, there are N command queues 2004 each coupled to a multiplexer 2008. Each of the N command queues 2004 will include those commands to be issued and when data transfer will occur on the data bus between the universal controller 104 and the target device (ie, shared resource) 108 after the command is issued to the target device. It is configured to store a time factor “d-timeND” indicating whether it appears, a burst bit (bND) indicating data burst transfer, and a read / write bit (rwND). In this embodiment, data queue 2006 is a time factor that indicates when a data transfer appears on the data bus between universal controller 104 and target device (ie, shared resource) 108 for requests that have already been issued to the target device. “D-timeD” is stored. The command queue 2006 also stores a burst bit (bND) and a read / write bit (rwND).
[0131]
In a more preferred embodiment, the collision detection system 2000 includes a queue and link controller unit 2010 configured to store and reorder commands to be issued. The queue & controller unit 2010 also calculates the issuance time of the new command and the time when data appears on the data bus. The queue & controller unit 2010 also transfers the data issued from the command queue to the data queue, and at the same time removes it from the command queue after issuing the command. The queue & controller unit 2010 also removes the data element from the data queue after completing the access to the memory.
[0132]
Referring to FIG. 21, all read / write commands to the target device are associated with a data packet transfer. Prior to issuing a command to the target device, a new data packet ND (New Data) is checked according to its timing information to see if insertion into the data queue is possible without collision. In this example shown in FIG. 21, the issued data packet D has already occupied a position in the data queue, and a new data packet ND is compared against the issued data packet D. Note that both the issued data packet D and the new data packet ND represent a burst access. Therefore, in this example, there is two possibilities that a new data packet ND occupies a position in consideration of the issued data packet D without causing a data collision. The new data packet ND can occupy the position on the left or right side of the issued data packet D.
[0133]
This particular example illustrates collision detection for a memory controller that supports both non-burst data transfers and burst data transfers (ie, four data streams). Due to the bidirectional nature of the data bus, one clock cycle must be inserted between successive read-write or write-read transfers.
[0134]
It should be noted that there are many possible results, some of which are listed below.
[0135]
1) If ND is placed after or before D, no collision occurs.
[0136]
2) One clock cycle must be inserted between successive read-write or write-read data transfers. All elements of the command queue and the data queue store an "rw" bit indicating whether the operation is "read data" (rw = 0) or "write data" (rw = 1).
[0137]
3) A data packet is composed of one data stream (non-burst transfer) or four data streams (burst transfer). All elements of the command queue and the data queue store a "burst" bit indicating whether the operation is "burst transfer" (burst = 1) or "non-burst transfer" (burst = 0).
[0138]
The comparison to be made for the to-be-issued command in each of the to-be-issued and issued data packet pairs is as follows:
[0139]
(Equation 4)
Figure 2004500608
[0140]
In yet another embodiment of the present invention, an apparatus and method for estimating the time between two consecutive memory accesses is disclosed. This apparatus and method allows for fast calculation of the earliest "command issue time" for a new command. Referring to FIG. 22, there is illustrated a prediction system 2200 having N page timers 2022 for storing the time between the most recent command issued for a particular page and its predicted next access to its memory. . The next access to the same page may be "closed", "open", "read", or "write". An incoming new command (e.g., read) selects one particular page timer that indicates how long access to a particular page must wait before issuing. This new command will then have the appropriate contents from the timing lookup table 2204 to be inserted during the next possible access (close, open, write, read) to the same page as this command (read). Choose The resolution of the timer is one clock cycle.
[0141]
The timing look-up table-data stores a time indicating how many cycles the data on the data bus is valid after the command is issued. When the new command is inactive, the value of all page timers reaches “0” every cycle.
[0142]
Referring now to FIG. 23, in yet another embodiment of the present invention, there is shown a device controller 2300 having a device access priority determiner 2302 according to an embodiment of the present invention. In this embodiment, the priority determiner 2302 includes a request queue 2303 suitable for receiving and storing any number of device requests coupled to the request controller unit 2304. The request controller unit 2304 is used, in part, to fetch a particular response from any location in the request queue 2303 and communicate the fetched response to an appropriate one of the plurality of shared devices 108. In this embodiment, the priority determining unit 2302 also includes a response queue 2306. The response queue is configured to receive and store a response from any of the shared devices 108 coupled to the response controller unit 2308, and the response controller unit 2308 derives the requesting device 102 from the stored response. Used to select a particular response to be sent to
[0143]
In a preferred embodiment, the response and the request are each associated with an ID number 150 such that the request and its associated response have the same ID number 150, as shown in FIG. 1E. As described above, ID number 150 includes five data bits, the first and second data bits of which are the group of requesting devices to which the particular response / request belongs (for a processor in a multi-processor computing environment). A group selector field 152 for identifying one group. Further, as described above, the request number field (RN) 153 represents the request and / or response number associated with the group of the requesting device identified by the group selector field 152, for example, the same requesting device. Are represented as having a continuous request number field 153.
[0144]
In operation, both the request controller 2304 and the response controller 2308 incorporate a group priority selector register 154, a dynamic lock counter register 156, and a reordering selector 2312, respectively. Group priority selector register 154 contains priority information for a particular request / response group identified by RN 152. In one embodiment, in one embodiment, a value of “3” represents the highest priority, a value of “0” represents the lowest priority, and a request of a higher priority is a lower priority request. You can jump over the request.
[0145]
To avoid a dynamic lock situation, the dynamic lock counter register 156 contains information about how many consecutive higher priority requests (or responses) can skip lower priority requests (or responses). I have. It should be noted that the dynamic lock counter register 156 is only active in situations where a higher priority request jumps over a lower priority request. In fact, if there is no lower priority request (or response) in the appropriate queue, the dynamic lock counter register 156 will be inactive.
[0146]
While several embodiments of the invention have been described in detail, it will be appreciated that the invention may be embodied in many other specific forms without departing from the spirit and scope of the invention. Therefore, the examples shown here are for explanation and not for limitation. The invention is not limited to the details shown here, but may vary within the scope of the appended claims.
[Brief description of the drawings]
FIG. 1A
FIG. 4 is a diagram illustrating a general use example of a universal controller according to an embodiment of the present invention.
FIG. 1B
FIG. 1B is a diagram showing a specific usage example of the universal controller shown in FIG. 1A.
FIG. 1C
FIG. 4 illustrates an address space controller coupled to a universal controller according to an embodiment of the present invention.
FIG. 1D
FIG. 2 is a diagram showing a specific usage example of the address space controller shown in FIG. 1C.
FIG. 1E
FIG. 4 illustrates an exemplary request / response identification number according to an embodiment of the present invention.
FIG. 2A
FIG. 4 is a diagram illustrating a general universal command according to an embodiment of the present invention.
FIG. 2B
FIG. 2B is a diagram showing a specific universal command suitable for a memory page read command, which is the same kind of universal command as in FIG. 2A.
FIG. 2C
FIG. 3B illustrates an example of a series of commands formed by providing appropriate time intervals between command components in the example command of FIG. 2B.
FIG. 3
FIG. 4 illustrates a resource tag according to an embodiment of the present invention.
FIG. 4
5 is a flowchart illustrating details of a process for a universal controller to access a shared resource according to an embodiment of the present invention;
FIG. 5
FIG. 4 illustrates a process by which a universal controller determines the state of resources and the order of operations to be performed, according to an embodiment of the present invention.
FIG. 6
FIG. 4 illustrates a step of determining an appropriate time interval between successive operations by a universal controller based on a step according to an embodiment of the present invention.
FIG. 7A
FIG. 3 illustrates a page hit / miss controller according to an embodiment of the present invention.
FIG. 7B
FIG. 3 illustrates a page hit / miss controller according to an embodiment of the present invention.
FIG. 8
FIG. 4 is a diagram illustrating a bank access controller according to an embodiment of the present invention.
FIG. 9A
FIG. 1 illustrates an exemplary SLDRAM-type multiprocessor system according to an embodiment of the present invention.
FIG. 9B
FIG. 9B is a timing diagram illustrating a process flow of the exemplary SLDRAM bus by the multiprocessor system shown in FIG. 9A.
FIG. 10
FIG. 3 is a block diagram of a memory controller according to an embodiment of the present invention.
FIG. 11
FIG. 4 is a block diagram of a restriction block according to an embodiment of the present invention.
FIG.
FIG. 4 is a timing diagram of an exemplary SLDRAM command according to an embodiment of the present invention.
FIG. 13A
FIG. 4 illustrates a flow of memory command reordering according to a specific embodiment of the present invention.
FIG. 13B
FIG. 7 is a diagram illustrating a flow of reordering memory commands according to a specific embodiment of the present invention.
FIG. 13C
FIG. 7 is a diagram illustrating a flow of reordering memory commands according to a specific embodiment of the present invention.
FIG. 14
FIG. 3 is a block diagram showing a part of a memory controller configured according to a specific embodiment of the present invention.
FIG.
FIG. 4 is a block diagram of a reordering circuit configured according to a specific embodiment of the present invention.
FIG.
FIG. 16 is a more detailed block diagram of the reordering circuit of FIG.
FIG.
FIG. 4 is a diagram illustrating contents of a command queue element according to a specific embodiment of the present invention.
FIG.
FIG. 3 is a block diagram illustrating a specific embodiment of an address shifter.
FIG.
FIG. 4 is a diagram illustrating contents of a data queue element according to a specific embodiment of the present invention.
FIG.
FIG. 16 is a diagram illustrating a collision detection system as another example of the collision detection system illustrated in FIG. 15.
FIG. 21
FIG. 4 is an exemplary timing diagram illustrating how each of the read / write commands to a target device is related to the transmission of a data packet.
FIG.
FIG. 3 illustrates a prediction system with an N page timer that stores the time between the last command issued for a particular page and its predicted next access to its memory.
FIG. 23
FIG. 3 is a diagram illustrating a device controller having a device access priority determiner according to an embodiment of the present invention.
FIG. 24
FIG. 5 shows Table 4 summarizing the scheduling process performed by the restriction block according to an embodiment of the present invention.

Claims (34)

要求元システムとリソースとに結合されたユニバーサルリソースアクセスコントローラであって、
前記要求元システムは、前記要求元システムが前記リソースへのアクセスを望む場合に、前記ユニバーサルリソースコントローラに引き渡されるリソースアクセス要求を生成し、
前記ユニバーサルリソースコントローラは、前記要求されたリソースの特定の動作特性パラメータと前記要求されたリソースの現在の状態を使用して、前記要求元システムに要求される前記リソースへのアクセスに適した対応する順序づけられたユニバーサルアクセス要求コマンドを生成する、アクセスコントローラ。
A universal resource access controller coupled to the requesting system and the resource,
The requesting system generates a resource access request passed to the universal resource controller when the requesting system desires access to the resource;
The universal resource controller uses a particular operating characteristic parameter of the requested resource and a current state of the requested resource to provide a corresponding response to the requesting system for access to the resource as requested. An access controller that generates an ordered universal access request command.
請求項1に記載のユニバーサルリソースアクセスコントローラであって、
前記ユニバーサルリソースコントローラは、
前記要求元システムに結合され、前記リソースアクセス要求の受信と対応するユニバーサルコマンドの生成の両方を行うように構成された設定可能なシステムインターフェースと、
前記設定可能なシステムインターフェースに結合されたユニバーサルコマンド順序付け器と、
前記コマンド順序付け器に結合され、前記要求されたリソースの前記現在の状態を識別するように構成されたリソースタグを格納するように構成されたリソースタグバッファと、
前記コマンド順序付け器に結合され、前記要求されたリソースに関連付けられた前記動作特性パラメータを格納するように構成された動作特性パラメータバッファと、
を備え、
前記ユニバーサルコマンド順序付け器は、前記要求されたリソースの前記現在の状態を識別する前記リソースタグと、前記要求されたリソースに関連付けられた前記動作特性パラメータとを使用して、前記順序付けられたユニバーサルコマンドを生成する、アクセスコントローラ。
The universal resource access controller according to claim 1, wherein
The universal resource controller,
A configurable system interface coupled to the requesting system and configured to both receive the resource access request and generate a corresponding universal command;
A universal command orderer coupled to the configurable system interface;
A resource tag buffer coupled to the command orderer and configured to store a resource tag configured to identify the current state of the requested resource;
An operating characteristic parameter buffer coupled to the command orderer and configured to store the operating characteristic parameter associated with the requested resource;
With
The universal command orderer uses the resource tag identifying the current state of the requested resource and the operating characteristic parameters associated with the requested resource to generate the ordered universal command. Generate an access controller.
請求項2に記載のユニバーサルリソースアクセスコントローラであって、
前記要求元システムは、マルチプロセッサコンピュータシステムに含まれる複数のプロセッサのうちの1つであり、
前記設定可能なシステムインターフェースは、前記複数のプロセッサのうちの任意のプロセッサからのリソース要求を受け入れるとともに、処理するように設定可能である、アクセスコントローラ。
The universal resource access controller according to claim 2, wherein
The requesting system is one of a plurality of processors included in a multiprocessor computer system;
An access controller, wherein the configurable system interface is configurable to accept and process resource requests from any of the plurality of processors.
請求項3に記載のユニバーサルリソースアクセスコントローラであって、
前記要求されたリソースは、複数の共用リソースのうちの1つであり、
前記複数の共用リソースのそれぞれは、対応する動作特性パラメータバッファに格納された動作特性パラメータに関連付けられており、
前記複数の共用リソースのそれぞれは、前記複数のリソースのそれぞれの現在の状態を示すリソースタグに関連付けられている、アクセスコントローラ。
The universal resource access controller according to claim 3, wherein
The requested resource is one of a plurality of shared resources;
Each of the plurality of shared resources is associated with an operation characteristic parameter stored in a corresponding operation characteristic parameter buffer,
An access controller, wherein each of the plurality of shared resources is associated with a resource tag indicating a current state of each of the plurality of resources.
請求項4に記載のユニバーサルリソースアクセスコントローラであって、さらに、
前記コマンド順序付け器に結合され、前記複数の共用リソースのそれぞれに関連付けられた前記動作特性パラメータバッファのそれぞれを格納するように構成されたアドレス空間コントローラを備え、
前記リソースタグバッファは、前記複数の共用リソースのそれぞれに関連付けられたリソースタグを格納する、アクセスコントローラ。
The universal resource access controller according to claim 4, further comprising:
An address space controller coupled to the command orderer and configured to store each of the operational characteristic parameter buffers associated with each of the plurality of shared resources;
The access controller, wherein the resource tag buffer stores a resource tag associated with each of the plurality of shared resources.
請求項5に記載のユニバーサルリソースアクセスコントローラであって、
前記要求元システムは、特定の要求元システムが前記複数の共用リソースのうちの特定の1つにアクセスすることを望む場合には、前記ユニバーサルリソースアクセスコントローラに識別され、
前記ユニバーサルリソースアクセスコントローラは、これに応じて、前記要求元システムによって生成された特定の共用リソース要求を受信し、次に、対応するユニバーサルコマンドを生成するように、前記設定可能なシステムインターフェースを設定するように構成されており、
前記コマンド順序付け器は、前記対応するリソースタグによって示される前記要求されたリソースの前記現在の状態と、前記要求されたリソースに関連付けられた前記動作特性パラメータとに基づいて、前記要求された共用リソースに特有な順序づけられたユニバーサルコマンドを生成する、アクセスコントローラ。
The universal resource access controller according to claim 5, wherein
The requesting system is identified to the universal resource access controller if a particular requesting system desires to access a particular one of the plurality of shared resources;
The universal resource access controller, in response, receives the specific shared resource request generated by the requesting system and then configures the configurable system interface to generate a corresponding universal command. Is configured to
The command orderer is configured to determine the requested shared resource based on the current state of the requested resource indicated by the corresponding resource tag and the operating characteristic parameter associated with the requested resource. An access controller that generates ordered universal commands that are specific to.
請求項6に記載のユニバーサルリソースアクセスコントローラであって、
前記要求元システムは、実行可能な命令を実行するように構成されたプロセッサである、アクセスコントローラ。
The universal resource access controller according to claim 6, wherein
An access controller, wherein the requesting system is a processor configured to execute executable instructions.
請求項7に記載のユニバーサルリソースアクセスコントローラであって、
前記共用リソースは、複数のコンピュータシステム周辺デバイスを相互接続するために使用される周辺バスである、アクセスコントローラ。
The universal resource access controller according to claim 7, wherein
An access controller, wherein the shared resources are peripheral buses used to interconnect a plurality of computer system peripheral devices.
請求項8に記載のユニバーサルリソースアクセスコントローラであって、
前記プロセッサは、前記プロセッサが前記周辺バスにアクセスすることを望む場合には、前記周辺バスの前記現在の状態と前記周辺バスの前記動作特性とに基づく対応する周辺バスアクセス要求に、前記ユニバーサルリソースアクセスコントローラによって変換される周辺バス要求を生成する、アクセスコントローラ。
The universal resource access controller according to claim 8, wherein:
The processor, when the processor desires to access the peripheral bus, sends the universal resource to a corresponding peripheral bus access request based on the current state of the peripheral bus and the operating characteristics of the peripheral bus. An access controller that generates peripheral bus requests that are translated by the access controller.
請求項9に記載のユニバーサルリソースアクセスコントローラであって、
前記プロセッサは、マルチプロセッサコンピュータシステムに含まれる複数のプロセッサの1つである、アクセスコントローラ。
The universal resource access controller according to claim 9, wherein
The access controller, wherein the processor is one of a plurality of processors included in a multiprocessor computer system.
複数の要求元システムのうちの任意のシステムによる複数のアクセス可能なデバイスのうちの任意のデバイスへのアクセスを制御するためのアクセス制御装置であって、
ユニバーサルコントローラユニットと、
前記ユニバーサルコントローラユニットに結合されたアドレス空間コントローラユニットと、
を備え、
前記ユニバーサルコントローラユニットは、前記要求元システムから入力されたシステムアドレスとシステムコマンドとをデコードし、前記アドレス空間コントローラが格納および提供するデバイスパラメータに基づいて、関連するデバイスアドレスと対応するデバイスコマンドとを生成し、
前記複数のデバイスのそれぞれは、前記アドレス空間コントローラ内に自身のアドレス領域が与えられている、制御装置。
An access control device for controlling access to any of a plurality of accessible devices by any of a plurality of requesting systems,
A universal controller unit,
An address space controller unit coupled to the universal controller unit;
With
The universal controller unit decodes a system address and a system command input from the requesting system, and, based on device parameters stored and provided by the address space controller, generates a relevant device address and a corresponding device command. Generate,
The control device, wherein each of the plurality of devices has its own address area provided in the address space controller.
請求項11に記載のアクセス制御装置であって、
前記デバイスパラメータは、デバイス設定セットと、デバイスアクセスプロトコルと、デバイスアクセスタイミング情報とを含む、制御装置。
The access control device according to claim 11, wherein
The control device, wherein the device parameters include a device setting set, a device access protocol, and device access timing information.
請求項12に記載のアクセス制御装置であって、
前記アドレス空間コントローラは、
前記複数のアクセス可能なデバイスのうちの特定の1つにそれぞれが対応する複数のアドレス範囲レジスタと、
前記複数のアドレス範囲レジスタに結合された比較器と、
前記比較器に結合されたマルチプレクサと、
を備え、
前記入力されたシステムアドレスは、前記複数のアドレス範囲レジスタのそれぞれの内容と比較され、前記入力されたシステムアドレスが前記アドレス範囲レジスタの前記内容の1つに一致する場合は、前記システムアドレスをアクティブなシステムアドレスであると識別する、制御装置。
The access control device according to claim 12, wherein
The address space controller comprises:
A plurality of address range registers each corresponding to a particular one of the plurality of accessible devices;
A comparator coupled to the plurality of address range registers;
A multiplexer coupled to the comparator;
With
The input system address is compared with the contents of each of the plurality of address range registers, and if the input system address matches one of the contents of the address range register, the system address is activated. A control unit that identifies a unique system address.
請求項13に記載のアクセス制御装置であって、
前記比較器は、前記アクセス可能なデバイスのうちの要求されたデバイスに対応するアクティブなアドレス領域を示す前記アクティブシステムアドレスに対応する出力信号を提供する、制御装置。
The access control device according to claim 13,
The control device, wherein the comparator provides an output signal corresponding to the active system address indicating an active address area corresponding to a requested one of the accessible devices.
請求項14に記載のアクセス制御装置であって、
前記マルチプレクサは、前記要求されたアクセス可能なデバイスに対応するデバイスパラメータを選択する、制御装置。
The access control device according to claim 14, wherein
The controller, wherein the multiplexer selects a device parameter corresponding to the requested accessible device.
マルチプロセッサコンピュータシステムであって、
システムバスと、
各々が、プロセッサコマンドと関連するデータバーストとを前記システムバスに対して発行することができる複数のプロセッサと、
前記システムバスによって前記複数のプロセッサに接続され、前記プロセッサによって発行された前記プロセッサコマンドと前記関連のデータバーストとを受信し、対応する共用メモリコマンドを発行するように構成された請求項1に記載のメモリコントローラと、
共用メモリデバイスと、
前記共用メモリデバイスと前記メモリコントローラとの間を接続し、前記メモリコントローラによって生成された最短発行時間にしたがって、前記発行された共用メモリコマンドを運ぶように構成されたコマンドバスと、
前記共用メモリと前記メモリコントローラとの間を接続し、前記メモリコントローラによって生成された前記データオフセットに基づいて、前記共用メモリから読み出されたデータを前記メモリコントローラへと運ぶように構成されたデータバスと、
を備えるコンピュータシステム。
A multiprocessor computer system,
A system bus,
A plurality of processors each capable of issuing processor commands and associated data bursts to the system bus;
2. The system of claim 1, wherein the system bus is connected to the plurality of processors and configured to receive the processor command and the associated data burst issued by the processor and issue a corresponding shared memory command. Memory controller and
A shared memory device;
A command bus configured to connect between the shared memory device and the memory controller, and to carry the issued shared memory command according to a shortest issuance time generated by the memory controller;
Data configured to connect between the shared memory and the memory controller and to carry data read from the shared memory to the memory controller based on the data offset generated by the memory controller. Bus and
A computer system comprising:
請求項16に記載のマルチプロセッサコンピュータシステムであって、
前記共用メモリはSDRAMである、コンピュータシステム。
The multiprocessor computer system according to claim 16, wherein:
The computer system, wherein the shared memory is an SDRAM.
請求項16に記載のマルチプロセッサコンピュータシステムであって、
前記共用メモリは複数のSDRAMを有するSLDRAMモジュールである、コンピュータシステム。
The multiprocessor computer system according to claim 16, wherein:
A computer system, wherein the shared memory is an SLDRAM module having a plurality of SDRAMs.
メモリデバイスへのアクセスを制御するためのアクセス制御方法であって、
前記メモリデバイスは、ユニバーサルメモリアクセスコントローラによって要求元システムに結合され、
前記ユニバーサルメモリアクセスコントローラは、
前記要求元システムに結合され、リソースアクセス要求の受信と対応するユニバーサルコマンドの生成の双方を行うように適切に構成された設定可能なシステムインターフェースと、
前記設定可能なシステムインターフェースに結合されたユニバーサルコマンド順序付け器と、
前記コマンド順序付け器に結合され、前記メモリデバイスの現在の状態を識別するように構成されたリソースタグを格納するように構成されたリソースタグバッファと、
前記コマンド順序付け器に結合され、前記メモリデバイスに関連付けられた前記動作特性パラメータを格納するように構成された動作特性パラメータバッファと、
を備えており、
前記アクセス制御方法は、
前記要求元システムを識別する工程と、
前記設定可能なシステムインターフェースを設定し、前記識別された要求元システムに適合させる工程と、
前記要求元システムによってメモリアクセス要求を生成する工程と、
前記メモリアクセス要求に基づいて、前記設定可能なシステムインターフェースによってユニバーサルコマンドを生成する工程と、
前記対応するリソースタグによって示される前記メモリデバイスの前記現在の状態と、前記対応する動作特性パラメータによって示される前記メモリの前記動作特性とに基づき、前記コマンド順序付け器によって前記ユニバーサルコマンドを順序付けられたユニバーサルコマンドに変換する工程と、
前記順序づけられたユニバーサルコマンドを使用して前記メモリにアクセスする工程と、
を備える、制御方法。
An access control method for controlling access to a memory device,
The memory device is coupled to the requesting system by a universal memory access controller;
The universal memory access controller,
A configurable system interface coupled to the requesting system and suitably configured to both receive a resource access request and generate a corresponding universal command;
A universal command orderer coupled to the configurable system interface;
A resource tag buffer coupled to the command orderer and configured to store a resource tag configured to identify a current state of the memory device;
An operating characteristic parameter buffer coupled to the command orderer and configured to store the operating characteristic parameter associated with the memory device;
With
The access control method,
Identifying the requesting system;
Configuring the configurable system interface to conform to the identified requesting system;
Generating a memory access request by the requesting system;
Generating a universal command by the configurable system interface based on the memory access request;
A universal that orders the universal commands by the command orderer based on the current state of the memory device indicated by the corresponding resource tag and the operating characteristics of the memory indicated by the corresponding operating characteristic parameters. Converting to a command;
Accessing the memory using the ordered universal command;
A control method, comprising:
請求項19に記載のアクセス制御方法であって、
前記要求元システムは、マルチプロセッサコンピュータシステムに含まれる複数のプロセッサのうちの1つであり、
前記設定可能なシステムインターフェースは、前記複数のプロセッサのうち任意のプロセッサからのメモリアクセス要求を受け入れて処理するように設定される、制御方法。
The access control method according to claim 19, wherein
The requesting system is one of a plurality of processors included in a multiprocessor computer system;
The control method, wherein the configurable system interface is configured to accept and process a memory access request from any of the plurality of processors.
請求項20に記載のアクセス制御方法であって、
前記メモリデバイスは、複数のメモリデバイスのうちの1つであり、
前記複数のメモリデバイスのそれぞれは、対応する動作特性パラメータバッファに格納された動作特性パラメータに関連付けられており、
前記複数のメモリデバイスのそれぞれは、前記複数のメモリデバイスのそれぞれの現在の状態を示すリソースタグに関連付けられている、制御方法。
The access control method according to claim 20, wherein
The memory device is one of a plurality of memory devices,
Each of the plurality of memory devices is associated with an operation characteristic parameter stored in a corresponding operation characteristic parameter buffer,
The control method, wherein each of the plurality of memory devices is associated with a resource tag indicating a current state of each of the plurality of memory devices.
請求項21に記載のアクセス制御方法であって、
前記メモリアクセス要求は、メモリコマンドと、特定のメモリページに対応する関連のメモリアドレスとを含む、制御方法。
The access control method according to claim 21, wherein
The control method, wherein the memory access request includes a memory command and an associated memory address corresponding to a specific memory page.
請求項22に記載のアクセス制御方法であって、さらに、
最新のシステム要求に関連付けられた特定のメモリページに対応するメモリアドレスが、前記特定のメモリページに対して直前に要求され、保管されたメモリアドレスのいずれかに一致するか否かを決定する工程と、
前記最新のメモリアドレスが前記保管されたメモリアドレスの少なくともどれか1つに一致する場合に、前記一致したアドレスに対応する前記メモリページがオープンされているか否かを決定する工程と、
前記要求されたメモリページがオープンされていると決定された場合に、次のシステム要求を発行する工程と、
を備える、制御方法。
23. The access control method according to claim 22, further comprising:
Determining whether a memory address corresponding to a particular memory page associated with a current system request matches any of the previously requested and stored memory addresses for the particular memory page. When,
If the latest memory address matches at least one of the stored memory addresses, determining whether the memory page corresponding to the matched address is open;
Issuing a next system request if the requested memory page is determined to be open;
A control method, comprising:
請求項23に記載のアクセス制御方法であって、
前記保管されたメモリアドレスのいずれも前記最新のメモリアドレスに一致しないと決定された場合に、前記古いページがオープンされていると決定された場合は、前記要求されたページをクローズして新しいページをオープンし、それ以外の場合は、前記システム要求に応じて前記新しいページをオープンする、制御方法。
The access control method according to claim 23,
If it is determined that none of the stored memory addresses match the latest memory address, and if the old page is determined to be open, close the requested page and create a new page. , And otherwise opening the new page in response to the system request.
請求項19に記載のアクセス制御方法であって、
前記メモリデバイスはマルチバンクタイプのメモリデバイスである、制御方法。
The access control method according to claim 19, wherein
The control method, wherein the memory device is a multi-bank type memory device.
請求項24に記載のアクセス制御方法であって、
前記システムアドレスは、バンクアドレスと、行アドレスと、列アドレスとに変換される、制御方法。
The access control method according to claim 24, wherein:
The control method, wherein the system address is converted into a bank address, a row address, and a column address.
請求項26に記載のアクセス制御方法であって、
前記メモリデバイスは仮想チャネルを備える、制御方法。
The access control method according to claim 26, wherein
The control method, wherein the memory device includes a virtual channel.
請求項27に記載のアクセス制御方法であって、
前記システムアドレスは、さらにセグメントアドレスを含む、制御方法。
The access control method according to claim 27, wherein:
The control method, wherein the system address further includes a segment address.
請求項28に記載のアクセス制御方法であって、
前記ユニバーサルコマンドは5データビットを含む、制御方法。
29. The access control method according to claim 28,
The control method, wherein the universal command includes five data bits.
請求項29に記載のアクセス制御方法であって、
前記メモリデバイスはSDRAMである、制御方法。
The access control method according to claim 29, wherein:
The control method, wherein the memory device is an SDRAM.
請求項30に記載のアクセス制御方法であって、
第1のビットはプリチャージビットであり、
第2のビットはオープンページビットであり、
第3のビットはクローズページビットであり、
第4のビットはリードページビットであり、
第5のビットはライトページビットである、制御方法。
31. The access control method according to claim 30, wherein
The first bit is a precharge bit,
The second bit is an open page bit,
The third bit is a close page bit,
The fourth bit is a read page bit,
The control method, wherein the fifth bit is a write page bit.
マルチプロセッサコンピュータシステムであって、
システムバスと、
各々が、プロセッサコマンドと関連するデータバーストとを前記システムバスに対して発行することができる複数のプロセッサと、
前記システムバスによって前記複数のプロセッサに接続され、前記プロセッサによって発行された前記プロセッサコマンドと前記関連のデータバーストとを受信し、対応する共用メモリコマンドを発行するように構成された請求項1に記載のメモリコントローラと、
共用メモリデバイスと、
前記共用メモリデバイスと前記メモリコントローラとの間を接続し、前記メモリコントローラによって生成された最短発行時間にしたがって、前記発行された共用メモリコマンドを運ぶように構成されたコマンドバスと、
前記共用メモリと前記メモリコントローラとの間を接続し、前記メモリコントローラによって生成された前記データオフセットに基づいて、前記共用メモリから読み出されたデータを前記メモリコントローラへと運ぶように構成されたデータバスと、
を備えるコンピュータシステム。
A multiprocessor computer system,
A system bus,
A plurality of processors each capable of issuing processor commands and associated data bursts to the system bus;
2. The system of claim 1, wherein the system bus is connected to the plurality of processors and configured to receive the processor command and the associated data burst issued by the processor and issue a corresponding shared memory command. Memory controller and
A shared memory device;
A command bus configured to connect between the shared memory device and the memory controller, and to carry the issued shared memory command according to a shortest issuance time generated by the memory controller;
Data configured to connect between the shared memory and the memory controller and to carry data read from the shared memory to the memory controller based on the data offset generated by the memory controller. Bus and
A computer system comprising:
請求項32に記載のマルチプロセッサコンピュータシステムであって、
前記共用メモリはSDRAMである、コンピュータシステム。
The multiprocessor computer system according to claim 32, wherein:
The computer system, wherein the shared memory is an SDRAM.
請求項33に記載のマルチプロセッサコンピュータシステムであって、
前記共用メモリは複数のSDRAMを有するSLDRAMモジュールである、コンピュータシステム。
34. The multiprocessor computer system according to claim 33,
A computer system, wherein the shared memory is an SLDRAM module having a plurality of SDRAMs.
JP2000582896A 1998-11-16 1999-11-15 Universal resource access controller Pending JP2004500608A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10893098P 1998-11-16 1998-11-16
US09/439,544 US6532505B1 (en) 1999-11-12 1999-11-12 Universal resource access controller
PCT/US1999/026994 WO2000029955A1 (en) 1998-11-16 1999-11-15 Universal resource access controller

Publications (1)

Publication Number Publication Date
JP2004500608A true JP2004500608A (en) 2004-01-08

Family

ID=26806431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000582896A Pending JP2004500608A (en) 1998-11-16 1999-11-15 Universal resource access controller

Country Status (6)

Country Link
JP (1) JP2004500608A (en)
KR (1) KR100710531B1 (en)
CN (1) CN1311357C (en)
DE (1) DE19983738T1 (en)
GB (1) GB2361561B (en)
WO (1) WO2000029955A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005158076A (en) * 2003-11-25 2005-06-16 Agere Systems Inc Universal controller for peripheral device in computing system
JP2007524146A (en) * 2003-06-30 2007-08-23 レイセオン・カンパニー Efficient memory controller
JP2010262537A (en) * 2009-05-08 2010-11-18 Canon Inc Memory control circuit
JP2016520226A (en) * 2013-05-16 2016-07-11 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated Memory system with region specific memory access scheduling

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL137085A (en) 2000-06-29 2004-08-31 Eci Telecom Ltd Method for effective utilizing of shared resources in computerized systems
CN100445954C (en) * 2004-12-25 2008-12-24 鸿富锦精密工业(深圳)有限公司 System and method of control and management service use resources
DE102010047718A1 (en) * 2010-10-07 2012-04-12 Infineon Technologies Ag Apparatus and method for formatting and preselecting trace data
US10394711B2 (en) * 2016-11-30 2019-08-27 International Business Machines Corporation Managing lowest point of coherency (LPC) memory using a service layer adapter
KR102540964B1 (en) * 2018-02-12 2023-06-07 삼성전자주식회사 Memory Controller and Application Processor controlling utilization and performance of input/output device and Operating Method of Memory Controller
CN112699067A (en) * 2021-01-04 2021-04-23 瑞芯微电子股份有限公司 Instruction addressing method and device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4354225A (en) * 1979-10-11 1982-10-12 Nanodata Computer Corporation Intelligent main store for data processing systems
US4803623A (en) * 1986-10-31 1989-02-07 Honeywell Bull Inc. Universal peripheral controller self-configuring bootloadable ramware
JPH04354225A (en) * 1991-05-31 1992-12-08 Nec Corp Inter-equipment communication control system for exchange system
US5878240A (en) * 1995-05-11 1999-03-02 Lucent Technologies, Inc. System and method for providing high speed memory access in a multiprocessor, multimemory environment
JP4803623B2 (en) * 2001-07-04 2011-10-26 旭サナック株式会社 Air play hand gun

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007524146A (en) * 2003-06-30 2007-08-23 レイセオン・カンパニー Efficient memory controller
JP4838120B2 (en) * 2003-06-30 2011-12-14 レイセオン カンパニー Efficient memory controller
JP2005158076A (en) * 2003-11-25 2005-06-16 Agere Systems Inc Universal controller for peripheral device in computing system
JP2010262537A (en) * 2009-05-08 2010-11-18 Canon Inc Memory control circuit
JP2016520226A (en) * 2013-05-16 2016-07-11 アドバンスト・マイクロ・ディバイシズ・インコーポレイテッドAdvanced Micro Devices Incorporated Memory system with region specific memory access scheduling

Also Published As

Publication number Publication date
WO2000029955A8 (en) 2000-09-14
CN1354854A (en) 2002-06-19
GB2361561A (en) 2001-10-24
DE19983738T1 (en) 2002-03-14
KR100710531B1 (en) 2007-04-23
GB2361561B (en) 2003-10-29
WO2000029955A1 (en) 2000-05-25
KR20010086034A (en) 2001-09-07
GB0111925D0 (en) 2001-07-04
CN1311357C (en) 2007-04-18
WO2000029955A9 (en) 2000-10-26

Similar Documents

Publication Publication Date Title
JP4472186B2 (en) Method and apparatus for prioritizing access to external devices
JP4695761B2 (en) Command reordering system
US6526484B1 (en) Methods and apparatus for reordering of the memory requests to achieve higher average utilization of the command and data bus
US6385708B1 (en) Using a timing-look-up-table and page timers to determine the time between two consecutive memory accesses
US6587894B1 (en) Apparatus for detecting data collision on data bus for out-of-order memory accesses with access execution time based in part on characterization data specific to memory
JP2002530743A (en) Use the page tag register to track the state of a physical page in a memory device
KR100610730B1 (en) Method and apparatus for memory access scheduling to reduce memory access latency
KR100724557B1 (en) Out of order dram sequencer
US6510474B1 (en) Methods and apparatus for re-reordering command and data packets in order to restore an original order of out-of-order memory requests
US6286075B1 (en) Method of speeding up access to a memory page using a number of M page tag registers to track a state of physical pages in a memory device having N memory banks where N is greater than M
WO2001048617A2 (en) Prioritized bus request scheduling mechanism for processing devices
US6532505B1 (en) Universal resource access controller
JP2000501536A (en) Memory controller unit that optimizes the timing of the memory control sequence between various memory segments
US6378049B1 (en) Universal memory controller
US5202973A (en) Method of controlling a shared memory bus in a multiprocessor system for preventing bus collisions and for ensuring a full bus
JP2004500608A (en) Universal resource access controller
US6539440B1 (en) Methods and apparatus for prediction of the time between two consecutive memory accesses
KR101022473B1 (en) Memory bank interleaving method and apparatus in the multi-layer bus system
US5708783A (en) Data bus arbiter for pipelined transactions on a split bus
JPH1131072A (en) Memory advanced loading device