JP6574779B2 - 複数のトランザクションを扱うためのデータ処理システム及びデータ処理方法 - Google Patents

複数のトランザクションを扱うためのデータ処理システム及びデータ処理方法 Download PDF

Info

Publication number
JP6574779B2
JP6574779B2 JP2016544675A JP2016544675A JP6574779B2 JP 6574779 B2 JP6574779 B2 JP 6574779B2 JP 2016544675 A JP2016544675 A JP 2016544675A JP 2016544675 A JP2016544675 A JP 2016544675A JP 6574779 B2 JP6574779 B2 JP 6574779B2
Authority
JP
Japan
Prior art keywords
transaction
request
transactions
address
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016544675A
Other languages
English (en)
Other versions
JP2017504897A (ja
Inventor
マシューソン、ブルース、ジェームス
クロックスフォード、ダレン
パーカー、ジェイソン
Original Assignee
エイアールエム リミテッド
エイアールエム リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エイアールエム リミテッド, エイアールエム リミテッド filed Critical エイアールエム リミテッド
Publication of JP2017504897A publication Critical patent/JP2017504897A/ja
Application granted granted Critical
Publication of JP6574779B2 publication Critical patent/JP6574779B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4063Device-to-bus coupling
    • G06F13/4068Electrical coupling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0817Cache consistency protocols using directory methods
    • G06F12/0828Cache consistency protocols using directory methods with concurrent directory accessing, i.e. handling multiple concurrent coherency transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0831Cache consistency protocols using a bus scheme, e.g. with bus monitoring or watching means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/36Handling requests for interconnection or transfer for access to common bus or bus system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/36Handling requests for interconnection or transfer for access to common bus or bus system
    • G06F13/362Handling requests for interconnection or transfer for access to common bus or bus system with centralised access control
    • G06F13/364Handling requests for interconnection or transfer for access to common bus or bus system with centralised access control using independent requests or grants, e.g. using separated request and grant lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4004Coupling between buses
    • G06F13/4022Coupling between buses using switching circuits, e.g. switching matrix, connection or expansion network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/42Bus transfer protocol, e.g. handshake; Synchronisation
    • G06F13/4204Bus transfer protocol, e.g. handshake; Synchronisation on a parallel bus
    • G06F13/4221Bus transfer protocol, e.g. handshake; Synchronisation on a parallel bus being an input/output bus, e.g. ISA bus, EISA bus, PCI bus, SCSI bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/173Interprocessor communication using an interconnection network, e.g. matrix, shuffle, pyramid, star, snowflake
    • G06F15/17306Intercommunication techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Multi Processors (AREA)

Description

本発明は、複数のトランザクションを扱うためのデータ処理システム及びデータ処理方法に関する。
最新のデータ処理システムにおいて、利用可能なメモリ帯域幅を最も効率的に利用することがますます重要となっている。例えば、システム・オン・チップ(SoC)において、相当な量のデータの書込み又は読取りが関与するトランザクションを発行することができるグラフィックス・プロセシング・ユニット(GPU)及びディスプレイ・コントローラなどの様々なマスタ・デバイスが存在する。トランザクションを、各ビート中に或る量のデータがメモリに書き込まれる、又はメモリから読み取られる複数のビートから成るバースト・トランザクションとして発行することが知られている。そのようなバースト・トランザクションは、メモリ帯域幅を非常に効率的に利用することができる。しかし、任意の特定のトランザクションが特定のスレーブ・デバイスによって処理されなければならないという限界が存在する。最新のシステムにおいて、複数のメモリ・デバイスが、SoC内に備えられること、又はSoCに接続されることが可能であり、データは、それらの様々なデバイスの間でインターリーブされることが可能であり、このことが、任意の特定のトランザクションによってアドレス指定され得るデータの量を制限する可能性がある。
更に、最新のSoCは、通常、複数のマスタ・デバイスを含み、それらのデバイスのそれぞれは、1つ又は複数のレベルのキャッシュを包含することが可能である。このことは、キャッシュ整合性の問題をもたらし、通常、様々なマスタ・デバイスとスレーブ・デバイスを相互接続する相互接続回路は、キャッシュ・コンテンツが整合性を有するように保たれること、及びそれに相応するように各マスタ・デバイスが最新のデータにアクセスすることを確実にするキャッシュ整合性回路(例えば、スヌープ回路)を含む。トランザクションが発行された時点で、トランザクションがキャッシュ可能なアドレスを指定するものと想定すると、トランザクションが発行された時点で、そのアドレスにおけるデータがキャッシュされているか否かは分らない。したがって、データへのアクセスがキャッシュの中で行われるか、又はメモリの中で行われるかは、分らない。通常、このことは、任意の特定のトランザクションによってアドレス指定されるデータの量を、キャッシュ・ラインのサイズを超えないように制限し、したがって、キャッシュの中にそのデータが存在する場合、任意の特定のトランザクションが、キャッシュへのアクセスによって提供され得ることを確実にする。バースト・トランザクションの場合、したがって、このことは、バーストの全体的なサイズを制限する。そのようなアプローチは、キャッシュ整合性が単純で、効果的な様態で保持され得ることを確実にするが、複数のより小さいバースト・トランザクションを扱う必要性のため、利用可能なメモリ帯域幅の効率的な利用を低減する。また、そのようなより小さいバーストの使用は、相互接続回路内の電力消費を増加させることにもなり、並べ替えキューにおける将来のトランザクションの可視性を事実上低下させることにより、メモリ・コントローラの並べ替え能力を低下させて、メモリ効率を低下させる可能性がある。
米国特許出願第2010/0042759号が、2つ以上のメモリ・デバイスが単一の集合ターゲットとして扱われることを可能にする機構を提供する。その結果、マスタ・デバイスが、その単一の集合ターゲットにトランザクションを発行することができ、より大きいバースト・トランザクションが指定されることを可能にする。次に、その単一のトランザクションが、様々なスレーブ・デバイスに送るために分割される。しかし、結果は、結果が、元のトランザクションが向けられた単一の集合ターゲットからマスタに戻され得るように再び組み合わされる必要がある。このことが、結果を協調させる際の複雑さをもたらす。
SoCにおけるマスタ・デバイスとスレーブ・デバイスの間でトランザクションを効率的に扱うことに関連する前述した問題は、SoC内で発行される他のタイプのトランザクションに関して生じる可能性もある。例えば、マスタ・デバイスが、SoC内の複数のキャッシュ・ストレージ・デバイスに関して実行されるべきキャッシュ・メンテナンス動作を識別するトランザクションを相互接続回路に対して発行することが可能である。関連するトランザクションが相互接続回路に対して発行された時点で、いずれの特定のキャッシュ・ストレージ・デバイス、又はいずれの特定の複数のキャッシュ・ストレージ・デバイスがキャッシュ・メンテナンス動作を実施する必要があるか分らない可能性があるので、各トランザクションを、単一のキャッシュ・ラインのデータをアドレス指定することに制限することが通常である。したがって、複数のキャッシュ・ラインに関してキャッシュ・メンテナンス動作を実行するために、通常、複数の別々のトランザクションを発行する必要がある。このことは、相互接続内の電力消費を増加させる傾向がある。
したがって、データ処理システム内でトランザクションを扱うための改良された機構を提供することが望ましい。
米国特許出願第2010/0042759号
第1の態様から見て、本発明は、マスタ・デバイスと、複数のスレーブ・デバイスと、マスタ・デバイスを前記複数のスレーブ・デバイスに結合して、マスタ・デバイスから要求が行われると、前記複数のスレーブ・デバイスによってトランザクションが実行されることを可能にするように構成された相互接続回路とを備えるデータ処理システムを提供し、マスタ・デバイスは、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行するように構成され、マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、相互接続回路は、複数のトランザクションのそれぞれに関して、そのトランザクションを実行することを要求されるスレーブ・デバイスを決定するためにアドレス情報及び数量指示を解析するように構成され、決定された各スレーブ・デバイスに対して、前記複数のトランザクションの中でその決定されたスレーブ・デバイスによって実行されるべきトランザクションを識別するトランザクション要求を発行するように更に構成され、決定された各スレーブ・デバイスは、その決定されたスレーブ・デバイスによって実行される各トランザクションの完了を識別する応答をマスタ・デバイスに与えるように構成され、決定された各スレーブ・デバイスは、他の任意の決定されたスレーブ・デバイスからの応答とは無関係にそのスレーブ・デバイスの応答を与えるように構成され、各応答は、基本トランザクション識別子から決定されたトランザクション識別子と、マスタ・デバイスが、マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にするトランザクション固有の情報とを含む。
本発明によれば、マスタ・デバイスは、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行するように構成される。次に、相互接続回路内の要求配信回路が、いずれのスレーブ・デバイスが各トランザクションを実行することを要求されるかを決定するために、マルチトランザクション要求と一緒に与えられるアドレス情報、並びに実行されるべきトランザクションの数を示す数量指示を解析する。その解析の結果、次に、要求配信回路が、関係のあるスレーブ・デバイスに対して、それらのスレーブ・デバイスによって実行されるべきトランザクションを識別するトランザクション要求を発行する。次に、各スレーブ・デバイスが、そのスレーブ・デバイスに割り当てられたトランザクションを処理し、各トランザクションの完了を識別する応答をマスタ・デバイスに与えるように構成される。各スレーブ・デバイスは、その他のスレーブ・デバイスのいずれからの応答とも無関係にそのスレーブ・デバイスの応答を与え、各応答は、マルチトランザクション要求の中で与えられる基本トランザクション識別子から決定されたトランザクション識別子と、いくらかのトランザクション固有の情報とを含み、このことが、マスタ・デバイスが、マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にする。
そのようなアプローチによって、要求配信回路は、マルチトランザクション要求内で指定された個々のトランザクションが、処理のために適切なスレーブ・デバイスにルーティングされることを、ただし、様々なスレーブ・デバイスによって生成される応答を協調させる必要なしに、確実にすることができる。詳細には、マスタ・デバイスは、単一の要求(マルチトランザクション要求)を発行していながら、その要求が複数のトランザクションと関係することを認識しており、マスタ・デバイスは、各トランザクションに関して応答を受信することを予期する。したがって、これらの応答は、マルチトランザクション要求内のいずれのトランザクションに応答が行われているのかをマスタ・デバイスが決定することを可能にする適切なトランザクション識別子と一緒に、各スレーブ・デバイスによって独立に生成されることが可能である。
応答は、様々な形態をとる。例えば、読取りトランザクションに関して、マスタ・デバイスに1つ又は複数の応答が与えられることが可能であり、各応答は、読取りデータのアイテムを識別する。書込みトランザクションの場合、スレーブ・デバイスからマスタ・デバイスに応答が送り返されて、書込みトランザクションが実行されたこと、例えば、書込みデータがスレーブ・デバイスによって受信されたことが確認される。
マルチトランザクション要求は、複数のトランザクションと関係するため、このことは、相互接続回路内の効率の良さ、及び相互接続回路とスレーブ・デバイスの間の帯域幅の効率的な利用につながり得る。例えば、マルチトランザクション要求の複数のトランザクションを解析することによって、このことは、相互接続回路内のリソースのより効率的な利用につながり得る。更に、トランザクションのうちのいくつかが同一のスレーブ・デバイスによって扱われ得ると決定された場合、要求配信回路が、それらの複数のトランザクションを一緒にスレーブ・デバイスにルーティングすることが可能であり、相互接続回路とスレーブ・デバイスの間の帯域幅のより良い利用を可能にする。更に、スレーブ・デバイスにそれらの複数のトランザクションの知識を与えることによって、スレーブ・デバイスは、トランザクションをより効率的に処理することができる可能性がある。特定の実例として、スレーブ・デバイスは、DRAMメモリに対するアクセスを制御するのに使用されるメモリ・コントローラであり得る。メモリの同一の開いたページ内のデータの複数のアイテムにアクセスする方が、より効率的であり、複数のトランザクションを同時に受信し、扱うことによって、メモリ・コントローラは、それらの様々なトランザクションを別々に扱う必要があるとした場合と比べて、その一連のトランザクションをより効率的に処理することができる可能性がある。その場合、スレーブ・デバイスは、それでも、各トランザクションの完了を識別する応答をマスタ・デバイスに送ることができ、各トランザクションがいつ処理されたかをマスタ・デバイスが決定することを可能にする。
要求配信回路が、決定された各スレーブ・デバイスに対してトランザクション要求を発行することが可能であるいくつもの方法が存在する。一実施例において、要求配信回路によって発行されるトランザクション要求は、少なくとも1つのマルチトランザクション要求を含み、前記少なくとも1つのマルチトランザクション要求のそれぞれは、そのマルチトランザクション要求が発行された、決定されたスレーブ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別する。そのようなアプローチによって、個別のスレーブ・デバイスは、そのスレーブ・デバイスが処理すべき複数のトランザクションについての通知を受信することができ、そのスレーブ・デバイスが、効率を最適化するようにそれらのトランザクションの扱いを構成することを可能にする。特定の実例として、要求配信回路が、マルチトランザクション要求の中のトランザクションの特定のシーケンスがスヌーピング/キャッシュ整合性動作の対象とされる必要がなく、そのシーケンスにおけるトランザクションの全てが特定のスレーブ・デバイスによるサービスを受けると決定した場合、それらのシーケンスのトランザクションを識別するマルチトランザクション要求がそのスレーブ・デバイスに対して発行されることが可能である。その場合、しばしば、スレーブ・デバイスは、それらの個々のトランザクションを少しずつ受信して、それらのトランザクションを別々に処理している場合と比べて、実行されるべきトランザクションのシーケンス全体を認識していることの結果として、それらのトランザクションをより効率的に処理することができる。
マルチトランザクション要求は、様々な形態をとることが可能である。しかし、一実施例において、マスタ・デバイスによって発行されるマルチトランザクション要求は、マルチバースト・トランザクション要求であり、前記複数のトランザクションのそれぞれは、そのバースト・トランザクションのためにマスタ・デバイスと決定されたスレーブ・デバイスの間で実行されるべき複数のデータ転送を指定するバースト・トランザクションである。
アドレス情報は、様々な形態をとることが可能であるが、一実施例において、基本アドレスを備え、マルチトランザクション要求によって識別される各トランザクションに関するアドレスは、その基本アドレスを基準として決定される。したがって、各トランザクションに関連付けられた個々のアドレスは、基本アドレスを基準として決定され得る。
一実施例において、各マルチトランザクション要求は、連続的なアドレス範囲内の所定のアドレスと関係する一連のトランザクションを識別する。したがって、純粋に例として、各トランザクションが、或るバイト数のデータを識別するバースト・トランザクションである場合、アドレスは、隣接するブロックのデータを指定するように識別されることが可能であり、各ブロックは、マルチトランザクション要求によって指定される一連のトランザクション内の個別のバースト・トランザクションの対象である。
代替の実施例において、一連のトランザクションが連続的なアドレス範囲内の所定のアドレスと関係することは必須ではない。例えば、一実施例において、マルチトランザクション要求は、マルチトランザクション要求によって識別される各トランザクションに関するアドレスを決定するのに基本アドレスと組合せで使用されるマスク情報を備える。一実施例において、マスク情報は、ビット単位のフィールドの形態をとることが可能であり、このフィールドは、例えば、一連の隣接するブロックのデータのいずれのブロックが各トランザクションの対象とされるべきかを識別するのに使用され得る。例えば、「1011」というビット単位のフィールドが、マルチトランザクション要求内の3つのトランザクションの連続によって処理されるべき第1のデータ・ブロック、第2のデータ・ブロック、及び第4のデータ・ブロックを識別することが可能である。
マスタ・デバイスに戻される各応答に関するトランザクション識別子を形成するために基本トランザクション識別子と組み合わされるトランザクション固有の情報は、様々な形態をとることが可能である。しかし、一実施例において、スレーブ・デバイスが、特定のトランザクションに関する応答を与える場合、応答の中に含められるトランザクション識別子を生成するのにそのスレーブ・デバイスによって基本トランザクション識別子との組合せで使用されるトランザクション固有の情報は、そのトランザクションのために指定されたアドレスのいくつかのビットを備える。例えば、そのアドレスの或る数の下位ビットが、基本トランザクション識別子と組み合わされた場合、各トランザクションを一意に識別するのに使用されることが可能である。
一実施例において、データ処理システムは、キャッシュ・ストレージを有する少なくとも1つの更なるマスタ・デバイスを更に備え、そのキャッシュ・ストレージの中には、その少なくとも1つの更なるマスタ・デバイスによってアクセスされるようにデータがキャッシュされる。その結果、データ処理システム内でキャッシュ整合性問題が生じることがあり、要求配信回路は、マルチトランザクション要求によって指定された様々なトランザクションをどのように配信すべきかを決定する際に、そのことを考慮に入れるように構成される。詳細には、一実施例において、相互接続回路は、受信されたトランザクション要求に応答して、その受信されたトランザクション要求に関連付けられたトランザクションに関して指定されたアドレスに基づいて、そのアドレスにおけるデータがキャッシュ・ストレージ内に記憶されているかどうかを決定するために、前記キャッシュ・ストレージに関してスヌープ動作を実行するスヌープ回路を備える。要求配信回路は、複数のトランザクションのうちのいずれかが、スヌープ回路によってスヌープ動作が実行されることを要求するアドレスを指定するかどうかを決定するためにアドレス情報及び数量指示を解析し、複数のトランザクションのうちの少なくとも1つが、スヌープ動作が実行されることを要求すると決定したことに応答して、マスタ・デバイスから受信されたマルチトランザクション要求を複数のトランザクション要求に分割し、スヌープ回路に対してトランザクション要求のうちの少なくとも1つを発行するように更に構成される。スヌープ回路が実行するスヌープ動作の結果としてスヌープ回路から受信される応答に依存して、関係のあるトランザクションに関してマスタ・デバイスに直接に応答を発行することができる可能性があり、又は、代わりに、扱いのためにスレーブ・デバイスのうちの1つにそれらのトランザクションをルーティングすることが必要である可能性がある。
一実施例において、スヌープ回路に対して発行されるトランザクション要求のうちの少なくとも1つは、スヌープ動作が実行されることが要求される前記複数のトランザクションのうちの複数を識別するマルチトランザクション要求を備える。スヌープ回路による扱いを要求する複数のトランザクションについて知らされることにより、スヌープ回路は、例えば、関連するスヌープ・フィルタ内でより少ないルックアップを実行すること、及び/又はスヌープされるべき複数のキャッシュ・ラインを識別するスヌープ要求をキャッシュ・ストレージに対して発行することによって、スヌープ動作をより効率的に実行することができる可能性がある。
スヌープ回路は、様々な形態をとることが可能であるが、一実施例において、複数のスヌープ回路を備え、各スヌープ回路は、異なるアドレス範囲に関連付けられ、要求配信回路は、各スヌープ回路に対して別々のトランザクション要求を発行するように構成される。複数のスヌープ回路を備えることによって、スヌープ動作が、異なるアドレス範囲に関して並行に実行されることが可能であり、その結果、効率が向上させられる。更に、各スヌープ回路に対してマルチトランザクション要求が発行されて、更なる効率利益がもたらされることが可能である。
一実施例において、スヌープ回路は、要求配信回路からトランザクション要求が受信されると、各キャッシュに対してスヌープ要求を自動的に発行することが可能である。しかし、代替の実施例において、スヌープ回路は、キャッシュ・ストレージの中に記憶されたデータのアドレスのアドレス指示を保持するように構成されたスヌープ・フィルタを備えることが可能であり、トランザクションのために実行されるスヌープ動作は、トランザクションによって指定されるアドレスを使用してスヌープ・フィルタを参照すること、及びそのアドレスが、スヌープ・フィルタによって保持されるアドレス指示のうちの1つと合致することをスヌープ・フィルタが示す場合、キャッシュ・ストレージに対してスヌープ要求を発行することを備える。そのようなアプローチは、キャッシュ・ストレージに対して発行される必要があるスヌープ要求の数を低減することが可能である。
更に、マルチトランザクション要求を扱う際、スヌープ回路は、マルチトランザクション要求内で識別された複数のトランザクションの知識に基づいて、スヌープ・フィルタにおいて要求されるルックアップの回数を低減することができる可能性がある。例えば、スヌープ・フィルタにおける各エントリが、通常よりわずかに短く、したがって、複数のキャッシュ・ラインと合致するタグ部分を記憶するように構成されることが可能であり、それらのキャッシュ・ラインのそれぞれに関して、エントリが、そのエントリに関して合致が検出された場合にいずれのキャッシュがスヌープされる必要があるかを識別する情報を記憶するように構成されることが可能である。その場合、各エントリに関して単一回のルックアップが実行されることが可能であり、トランザクションの対応する短くされたタグ部分が、スヌープ・フィルタのエントリの中に記憶されたタグ部分と合致した場合、そのエントリの中に記憶された関係のある情報が、関連付けられたキャッシュ・ラインに関していずれのキャッシュがスヌープされる必要があるかを識別するのに使用されることが可能である。複数のキャッシュ・ラインを単一のエントリに関連付けることができることにより、このことは、マルチトランザクション要求が及ぶアドレスの全範囲を処理するために要求されるルックアップの回数を低減することによって、スヌープ・フィルタに対するアクセスの効率を大幅に向上させることができる。
複数のスレーブ・デバイスは、様々な形態をとることが可能であるが、一実施例において、関連付けられたメモリ・デバイスに結合された複数のメモリ・コントローラを含む。
一実施例において、関連付けられた各メモリ・デバイスは、アドレスのパターンに関連付けられたデータを記憶するように構成され、1つのメモリ・デバイスのアドレスのパターンは、別のメモリ・デバイスのアドレスのパターンとインターリーブされる。要求配信回路は、各メモリ・コントローラに、関連付けられたメモリ・デバイスのアドレスのパターン内に指定されたアドレスがある前記複数のトランザクションの中のトランザクションを実行させるために、マルチバースト・トランザクション要求を、各メモリ・コントローラに対して発行される別々のマルチバースト・トランザクション要求に分割するように構成される。次に、各メモリ・コントローラが、その他のメモリ・コントローラのいずれによって扱われるトランザクションとも無関係に、そのメモリ・コントローラによって受信されたマルチバースト・トランザクション要求の中で識別される様々なトランザクションを扱うことができ、各メモリ・コントローラは、そのメモリ・コントローラが処理した各トランザクションの完了を示す応答をマスタ・デバイスに送り返す。マルチバースト・トランザクション要求を受信することによって、メモリ・コントローラは、メモリ・コントローラが実行することを要求される複数のトランザクションの見通しを得ることになり、それに相応して、それらの複数のトランザクションによって要求される様々なアクセスの扱いの効率を最適化するように、関連付けられたメモリ・デバイスに対するメモリ・コントローラのアクセスをスケジュールすることができる。
各メモリ・コントローラが、そのメモリ・コントローラが実行する必要があるトランザクションを決定することが可能であるいくつかの方法が存在する。例えば、一実施例において、各メモリ・コントローラは、いずれのトランザクションがそのメモリ・コントローラによる実行を要求するかを識別するのにメモリ・コントローラによって使用される制御データを供給されることが可能である。詳細には、様々なメモリ・デバイスの間でアドレスがインターリーブされる様態は、通常、静的に定義され、それに相応して、その情報がメモリ・コントローラに供給されることが可能である。その場合、メモリ・コントローラは、マスタ・デバイスによって発行された完全な元のマルチバースト・トランザクション要求を受信し、制御データから、そのマルチバースト・トランザクション要求内の個々のトランザクションのうちのいずれをそのメモリ・コントローラが処理すべきかを決定することが可能である。次に、メモリ・コントローラは、メモリ・コントローラが処理する各トランザクションに関してマスタ・デバイスに応答を送り返す。マルチバースト・トランザクション要求が、関係のあるメモリ・コントローラの全てにルーティングされるものと想定すると、このことは、トランザクションの全てが実行されること、及びマスタ・デバイスが、マルチバースト・トランザクション要求内の各トランザクションの完了に関して通知を受けることを確実にする。
代替として、要求配信回路が、各メモリ・コントローラに対して発行されるマルチトランザクション要求の中に制御データを符号化してもよい。したがって、各メモリ・コントローラは、わずかに修正されたマルチトランザクション要求を受信し、制御データは、そのマルチトランザクション要求が発行されたメモリ・コントローラに固有である。この制御データは、様々な形態をとることが可能であるが、一実施例において、受信側メモリ・コントローラによって扱われるべきトランザクションの特定のサブセットを識別するのに使用されるいくらかのマスク・データの形態をとることが可能である。
前述したとおり、マルチトランザクション要求内で指定されたトランザクションは、読取りトランザクション又は書込みトランザクションであることが可能である。トランザクションが書込みトランザクションである場合、マルチトランザクション要求によって指定された各書込みトランザクションが実行されることを可能にするために、様々なスレーブ・デバイスへのルーティングを必要とする相当な量の書込みデータが、通常、存在する。このことは、潜在的に、相互接続回路の書込みデータ・ルーティング回路内の輻輳につながる可能性があり、そのような輻輳は、相互接続回路の動作の効率を低下させる可能性がある。しかし、一実施例において、輻輳のそのような潜在性は、書込みデータのアイテムの伝送を、様々なスレーブ・デバイスによってそれらのアイテムが要求されるまで延期することによって軽減される。詳細には、一実施例において、マスタ・デバイスによって発行されるマルチトランザクション要求は、各書込みトランザクションに関してマスタ・デバイスから決定されたスレーブ・デバイスに書込みデータが書き込まれることを要求する複数の書込みトランザクションを識別し、相互接続回路は、複数の書込みトランザクションのそれぞれに関する書込みデータを、各書込みトランザクションに関して決定されたスレーブ・デバイスにルーティングするように構成された書込みデータ・ルーティング回路を含み、マスタ・デバイスは、各トランザクションに関して書込みデータ・ルーティング回路を通る書込みデータの出力を、そのトランザクションに関する決定されたスレーブ・デバイスが、その書込みデータを求める要求を発行するまで、遅延させるように構成される。
スレーブ・デバイスが書込みデータを求める要求を発行することが可能である様々な方法が存在する。一実施例において、データ処理システムは、決定された各スレーブ・デバイスが書込みデータを求める要求を発行する、決定された各スレーブ・デバイスとマスタ・デバイスの間のハンドシェーク機構を更に備える。したがって、マスタ・デバイスは、書込みデータの各アイテムを、ハンドシェーク機構を介してスレーブ・デバイスによってそのアイテムが要求された場合に限って、出力する。
代替の実施例において、マスタ・デバイスは、前記書込みデータが記憶されるキャッシュ・ストレージを備え、決定されたスレーブ・デバイスによって発行される書込みデータを求める要求は、要求された書込みデータがキャッシュ・ストレージから退去させられるように構成される。したがって、そのような実施例において、書込みデータは、キャッシュの中に記憶され、関係のあるスレーブ・デバイスによって必要とされるにつれ、キャッシュから退去させる。書込みデータをキャッシュ・ストレージから退去させることが可能な、いくつかの方法が存在する。例えば、スレーブ・デバイスが、相互接続回路内のスヌープ回路に対してスヌープ要求を発行して、その退去を行わせるように構成されることが可能である。
一実施例において、相互接続回路は、複数のトランザクションの実行中に各スレーブ・デバイスによって発行された応答をマスタ・デバイスにルーティングするように構成された応答ルーティング回路を更に備える。一実施例によれば、相互接続回路は競合緩和回路を更に備えており、この競合緩和回路は、要求配信回路に関連付けられており、要求配信回路がマルチトランザクション要求を様々なスレーブ・デバイスに対して発行される複数のトランザクション要求に分割するという決定があると、該複数のトランザクション要求に関して競合低減対策を適用し、それにより、様々なスレーブ・デバイスから応答ルーティング回路を介して応答が戻されることに起因する応答ルーティング回路内の競合を低減しようと努めるように構成されている。詳細には、要求配信回路は、要求される複数のトランザクションと関係する着信するマルチトランザクション要求を解析するので、その時点で、相互接続回路が、応答の数、及びそれらの応答の送信元について、すなわち、いずれのスレーブ・デバイスがそれらの様々な応答を発行するかについての、いくらかの認識を有し、この実施例によれば、相互接続回路は、様々なスレーブ・デバイスからマスタ・デバイスに戻される必要がある様々な応答に起因する応答ルーティング回路内の競合を低減しようと努める競合緩和回路を含む。
競合緩和回路が応答ルーティング回路内の競合を低減することが可能である様々な方法が存在する。例えば、適用された競合低減対策が、スレーブ・デバイスのそれぞれに、応答ルーティング回路内の異なるタイムスロットを割り当てて、複数のスレーブ・デバイスが同時にマスタ・デバイスに応答を送ろうとすることを回避しようとすることも可能である。代替として、又は更に、決定されたスレーブ・デバイスによって使用されるデータレートを制限するデータ指示が、各トランザクション要求に関連付けられて与えられてもよい。データ指示は、例えば、スレーブ・デバイスが応答を戻すことができる最大レート(例えば、読取りトランザクションに関して読取りデータを戻すことに関する最大レート)を識別することが可能であり、又は、書込みトランザクションに関して、スレーブ・デバイスが書込みデータを要求することができる最大レートを指定することが可能である。使用され得るデータレートを絞ることによって、このことは、相互接続回路において競合が生じる機会を低減することが可能である。使用され得る別の可能な対策として、要求配信回路が、特定のスレーブ・デバイスによるトランザクションの実行の合間に時間遅延を導入するように個別の各スレーブ・デバイスに向かうトランザクション要求の伝搬を互い違いに配置することも可能である。
一実施例において、マルチトランザクション要求が、複数の書込みトランザクションを識別する場合、マルチトランザクション要求は、各トランザクションに関して書き込まれるべき書込みデータ値を識別するフィールドを含むことが可能である。このことは、例えば、メモリの領域に論理0値を書き込むのに使用され得る。書込みデータ値がトランザクションのフィールドとして指定されるので、要求された書込みデータは、トランザクションを処理するスレーブ・デバイスによってローカルで生成されることが可能であり、したがって、このことは、書込みデータ輻輳の低減、及び電力消費の低減をもたらすことが可能である。
前述した実施例に関するマルチトランザクション要求は、効率的なメモリ・コピー機能を提供するのに使用されることも可能である。例えば、一実施例において、マルチトランザクション要求が、実行されるべき複数の読取りトランザクションを識別することが可能であり、各読取りデータ値が書き込まれるべきアドレスを識別するのに使用される書込みアドレス指示を更に指定することが可能であり、その結果、データが、1つのアドレスから読み取られて、別の書込みトランザクション要求が発行されることなしに、次に、別のアドレスに書き込まれることを可能にする。書込みアドレス情報は、様々な方法で、例えば、明示的な書込みアドレスによって、又は各トランザクションの読取りアドレスに関して適用されるべき何らかのオフセット値を指定することによって指定されることが可能である。
そのようなメモリ・コピー動作を実行するための代替の機構として、マスタ・デバイスが、関連するマルチトランザクション書込み要求が後に続くマルチトランザクション読取り要求を発行するように構成されることが可能であり、要求配信回路が、マルチトランザクション読取り要求及び関連するマルチトランザクション書込み要求に応答して、データが1つのアドレスから読み取られ、次に、別のアドレスに書き込まれるように、決定された各スレーブ・デバイスに対してトランザクション要求を発行するように構成される。
マルチトランザクション書込み要求がマルチトランザクション読取り要求に関連付けられているものとして識別され得るいくつかの方法が存在する。例えば、一実施例において、関連付けられたマルチトランザクション書込み要求は、要求配信回路が、関連付けられたマルチトランザクション書込み要求を、マルチトランザクション読取り要求に関連付けられているものとして識別することを可能にするために、マルチトランザクション読取り要求のために使用されるのと同一の基本トランザクション識別子を指定するように構成される。
第2の態様から見て、本発明は、マスタ・デバイスと複数のスレーブ・デバイスを相互接続して、マスタ・デバイスから要求が行われると、前記複数のスレーブ・デバイスによってトランザクションが実行されることを可能にするための相互接続回路であって、マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を受信するように構成されたマスタ・インターフェースであって、マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与えるマスタ・インターフェースと、その複数のトランザクションのそれぞれに関して、そのトランザクションを実行することを要求されるスレーブ・デバイスを決定するためにアドレス情報及び数量指示を解析するように構成され、決定された各スレーブ・デバイスに対して、前記複数のトランザクションの中でその決定されたスレーブ・デバイスによって実行されるべきトランザクションを識別するトランザクション要求を発行するように更に構成された要求配信回路と、マスタ・デバイスに、決定された各スレーブ・デバイスから与えられる、その決定されたスレーブ・デバイスによって実行された各トランザクションの完了を識別する応答をルーティングするように構成された応答ルーティング回路であって、決定された各スレーブ・デバイスは、他の任意の決定されたスレーブ・デバイスからの応答とは無関係にそのスレーブ・デバイスの応答を与え、各応答は、基本トランザクション識別子から決定されたトランザクション識別子と、トランザクション固有の情報とを含み、マスタ・デバイスが、マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にする応答ルーティング回路とを備える相互接続回路を提供する。
第3の態様から見て、本発明は、マスタ・デバイスと、複数のスレーブ・デバイスと、そのマスタ・デバイスを前記複数のスレーブ・デバイスに結合して、そのマスタ・デバイスから要求が行われると、前記複数のスレーブ・デバイスによって前記トランザクションが実行されることを可能にする相互接続回路とを備えるデータ処理システム内でトランザクションを実行する方法であって、マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することであって、マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与える、発行することと、相互接続回路内で、その複数のトランザクションのそれぞれに関して、そのトランザクションを実行することを要求されるスレーブ・デバイスを決定するためにアドレス情報及び数量指示を解析し、決定された各スレーブ・デバイスに対して、前記複数のトランザクションの中でその決定されたスレーブ・デバイスによって実行されるべきトランザクションを識別するトランザクション要求を発行することと、マスタ・デバイスに対して、決定された各スレーブ・デバイスから、その決定されたスレーブ・デバイスによって実行された各トランザクションの完了を識別する応答を発行することであって、決定された各スレーブ・デバイスは、他の任意の決定されたスレーブ・デバイスからの応答とは無関係にそのスレーブ・デバイスの応答を与え、各応答は、基本トランザクション識別子から決定されたトランザクション識別子と、トランザクション固有の情報とを含み、マスタ・デバイスが、マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にする、発行することとを備える方法を提供する。
第4の態様から見て、本発明は、マスタ手段と、複数のスレーブ手段と、そのマスタ手段を前記複数のスレーブ手段に結合して、そのマスタ手段から要求が行われると、前記複数のスレーブ手段によってトランザクションが実行されることを可能にするための相互接続手段とを備えるデータ処理システムであって、マスタ手段は、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することを目的とし、マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、相互接続手段は、その複数のトランザクションのそれぞれに関して、そのトランザクションを実行することを要求されるスレーブ手段を決定するためにアドレス情報及び数量指示を解析することを目的とし、決定された各スレーブ手段に対して、前記複数のトランザクションの中でその決定されたスレーブ手段によって実行されるべきトランザクションを識別するトランザクション要求を発行することを更に目的とする要求配信手段を含み、決定された各スレーブ手段は、マスタ手段に、その決定されたスレーブ手段によって実行された各トランザクションの完了を識別する応答を与えることを目的とし、決定された各スレーブ手段は、他の任意の決定されたスレーブ手段からの応答とは無関係にそのスレーブ手段の応答を与えることを目的とし、各応答は、基本トランザクション識別子から決定されたトランザクション識別子と、トランザクション固有の情報とを含み、マスタ手段が、マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にするデータ処理システムを提供する。
本発明の発明者らは、本発明のマルチトランザクション要求アプローチが、マスタ・デバイスと複数のキャッシュ・ストレージ・デバイスの間で実行されるトランザクション、詳細には、キャッシュ・メンテナンス動作を指定する一連のトランザクションに関連して採用されることも可能であることに気づいた。詳細には、本発明の更なる態様から見て、本発明は、マスタ・デバイスと、複数のキャッシュ・ストレージ・デバイスと、そのマスタ・デバイスを前記複数のキャッシュ・ストレージ・デバイスに結合して、そのマスタ・デバイスによって指定されたキャッシュ・メンテナンス動作が、その複数のキャッシュ・ストレージ・デバイスによって実行されることを可能にするように構成された相互接続回路とを備えるデータ処理システムであって、マスタ・デバイスは、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行するように構成され、そのマルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、その複数のトランザクションのそれぞれは、そのトランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定し、相互接続回路は、その複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ・デバイスのうちのいずれがそのトランザクションを実行することを要求されるかを決定するためにアドレス情報及び数量指示を解析するように構成され、その複数のキャッシュ・ストレージ・デバイスのそれぞれに対して、前記複数のトランザクションの中でその複数のキャッシュ・ストレージ・デバイスのそれぞれによって実行されるべきトランザクションを識別するトランザクション要求を発行するように更に構成され、データ処理システムは、前記複数のトランザクションの実行中にその複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、マスタ・デバイスに進行情報を与えて、前記複数のトランザクションがいつ完了されたかをマスタ・デバイスが決定することを可能にするように構成されたキャッシュ・メンテナンス追跡回路を備えるデータ処理システムを提供する。
本発明のこの態様によれば、相互接続回路内の要求配信回路が、その複数のキャッシュ・ストレージ・デバイスのうちのいずれが、マルチトランザクション要求の中で指定されたトランザクションのそれぞれを実行することを要求されるかを決定し、次に、その複数のキャッシュ・ストレージ・デバイスのそれぞれに、各ストレージ・デバイスが実行することを要求されるトランザクションを識別するトランザクション要求を発行することができる。次に、各キャッシュ・ストレージ・デバイスが、そのキャッシュ・ストレージ・デバイスの要求されるキャッシュ・メンテナンス動作を実行することが可能であり、キャッシュ・メンテナンス追跡回路が、それらのキャッシュ・ストレージ・デバイスから戻される進行指示を受信し、次に、マスタ・デバイスに進行情報を与えるのに使用される。マルチトランザクション要求アプローチの使用を介して、一連のキャッシュ・メンテナンス動作全体が、一度に指定されることが可能である一方で、要求配信回路は、その場合、個々の各キャッシュ・ストレージ・デバイスが適切なキャッシュ・メンテナンス動作を実行することを確実にすることができる。いくつかのキャッシュ・メンテナンス動作は、単一のキャッシュによって実行されることしか必要としない可能性があるが、他のキャッシュ・メンテナンス動作は、複数のキャッシュ・ストレージ・デバイス内で実行される必要がある可能性があり、その場合、キャッシュ・メンテナンス追跡回路は、様々なキャッシュ・ストレージ・デバイスからの進行指示を使用して、各キャッシュ・メンテナンス動作がいつ完了されたかを決定し、それに相応してマスタ・デバイスに知らせることが可能である。
マスタ・デバイスは、いずれのキャッシュ・ストレージ・デバイスが個別の各トランザクション/キャッシュ・メンテナンス動作を処理する必要があるかについての知識を有することを全く要求されず、キャッシュ・メンテナンス追跡回路から与えられる進行情報を単に使用して、様々な複数のトランザクションがいつ完了されたかを決定する。マスタ・デバイスの視点からは、様々なトランザクション/キャッシュ・メンテナンス動作がどのような順序で実行されるかは問題ではなく、したがって、このことは、様々なキャッシュ・ストレージ・デバイスが、可能な限り効率的な様態で様々なキャッシュ・メンテナンス動作を実行するようにキャッシュ・ストレージ・デバイスの挙動を最適化することを可能にする。例えば、個別のキャッシュ・ストレージ・デバイスが、実行されるべき一連のトランザクション/キャッシュ・メンテナンス動作を指定するマルチトランザクション要求を受信する状況において、いくつかのキャッシュ・メンテナンス動作を実行する際にキャッシュ・ストレージ・デバイスのタグ部分の内部で要求されるルックアップの回数を低減することが可能である。
本発明の第1の態様の発明の場合と同様に、要求配信回路はそれ自体、マルチトランザクション要求を発行することが可能であり、この場合にこれらのマルチトランザクション要求の受信者は、キャッシュ・ストレージ・デバイスのうちの1つ又は複数である。更に、第1の態様の発明の場合と同様に、マルチトランザクション要求によって識別される各トランザクションに関するアドレスは、一実施例において、マルチトランザクション要求によって指定される基本アドレスを基準として決定される。
複数のキャッシュ・ストレージ・デバイスは、様々な形態をとることが可能である。例えば、複数のキャッシュ・ストレージ・デバイスは全て、複数のマスタ・デバイスの間で共有されるキャッシュ・ストレージ・デバイスであり得る。代替として、複数のキャッシュ・ストレージ・デバイスは全て、特定のマスタ・デバイスに関連付けられた個々のキャッシュ・ストレージ・デバイスであってもよい。1つの特定の実施例において、複数のキャッシュ・ストレージ・デバイスは、特定のマスタ・デバイスに関連して備えられるキャッシュ・ストレージ・デバイスと、複数のマスタ・デバイスの間で共有される他のキャッシュ・ストレージ・デバイスの混合を包含することが可能である。
一実施例において、要求配信回路は、複数のトランザクション要求のそれぞれによって指定されたキャッシュ・メンテナンス動作を実行するために前記複数のキャッシュ・ストレージ・デバイスに関してスヌープ動作を実行するように構成されたスヌープ回路を備える。
1つの特定の実施例において、スヌープ回路は、複数のスヌープ回路を備え、各スヌープ回路は、異なるアドレス範囲に関連付けられ、要求配信回路は、複数のトランザクションのそれぞれに関して、その複数のスヌープ回路のいずれがそのトランザクションによって指定されるキャッシュ・メンテナンス動作を実行することを要求されるかを決定するためにアドレス情報及び数量指示を解析し、前記決定に依存して各スヌープ回路に対して別々のトランザクション要求を発行するように構成された第1のステージ要求配信回路を更に備える。したがって、そのような実施例において、要求配信回路はまず、各トランザクションに関連付けられたアドレスに基づいて、いずれのスヌープ回路がそのトランザクションを受信すべきかを決定し、その決定に依存して各スヌープ回路に対して相応するようにトランザクション要求を発行する。このことは、通常、マルチトランザクション要求を受信する各スヌープ回路が、そのスヌープ回路に関連付けられた特定のトランザクションを識別することをもたらすことが可能である。次に、個々のスヌープ回路が、キャッシュ・メンテナンス動作のそれぞれをいずれのキャッシュ・ストレージ・デバイスが実行する必要があるか決定するために、それらの要求を処理することが可能であり、それらのスヌープ回路が、次に、キャッシュ・ストレージ・デバイスに対してトランザクション要求を発行する(この場合もやはり、それらのトランザクション要求のうちの1つ又は複数もそれ自体、そのマルチトランザクション要求が発行されたキャッシュ・ストレージ・デバイスによって実行されるべき複数のトランザクション/キャッシュ・メンテナンス動作を指定するマルチトランザクション要求であり得る)。
キャッシュ・メンテナンス追跡回路は、様々な形態をとることが可能である。しかし、一実施例において、キャッシュ・メンテナンス追跡回路は、前記複数のスヌープ回路のそれぞれの内部に備えられたキャッシュ・メンテナンス追跡回路を備え、各キャッシュ・メンテナンス追跡回路は、関連付けられたスヌープ回路によって扱われるトランザクションによって指定されたキャッシュ・メンテナンス動作の実行中に複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、他の各キャッシュ・メンテナンス追跡回路から与えられる進行情報とは無関係にマスタ・デバイスに進行情報を与えるように構成される。詳細には、マスタ・デバイスがマルチトランザクション要求を発行する際、マスタ・デバイスは、それらのトランザクションがどのように処理されるかに制約を課すことはなく、したがって、様々なキャッシュ・メンテナンス追跡回路の間の協調は全く必要とされない。代わりに、キャッシュ・メンテナンス追跡回路のそれぞれから与えられる進行情報が、元のマルチトランザクション要求の中で指定されたトランザクションの全てがいつ処理されたかをマスタ・デバイスが決定することを可能にするのに十分であることで十分である。
一実施例において、スヌープ回路は、トランザクション要求を受信すると、キャッシュ・ストレージ・デバイスのそれぞれに対してスヌープ要求を発行するように構成されることが可能である。しかし、代替の実施例において、スヌープ回路は、各キャッシュ・ストレージ・デバイスに関して、そのキャッシュ・ストレージ・デバイスの中に記憶されたデータのアドレスのアドレス指示を保持するように構成されたスヌープ・フィルタを備え、トランザクションのために実行されるスヌープ動作は、トランザクションによって指定されるアドレスを使用してスヌープ・フィルタ内でルックアップ動作を実行すること、及び、各キャッシュ・ストレージ・デバイスに関して、そのアドレスが、そのキャッシュ・ストレージ・デバイスのためにスヌープ・フィルタによって保持されるアドレス指示のうちの1つと合致することをそのルックアップ動作が示す場合、そのキャッシュ・ストレージ・デバイスに対してスヌープ要求を発行することを備える。このことは、システム内のスヌープ要求トラフィックの量を低減することが可能である。更に、スヌープ回路が、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を受信する状況において、スヌープ・フィルタ内のルックアップは、スヌープ・フィルタ内でルックアップを実行することに関連する電力消費を低減するために最適化されることが可能である。
例えば、一実施例において、スヌープ・フィルタは、複数のエントリを備えることが可能であり、各エントリは、アドレス指示と、トランザクションのアドレスがそのアドレス指示と合致した場合、前記複数のキャッシュ・ストレージ・デバイスのうちのいずれに対してスヌープ要求が発行されるべきかを示すキャッシュ識別子情報とを記憶する。
しかし、スヌープ回路が、広いアドレス範囲にわたって実行されるべき一連のキャッシュ・メンテナンス動作を指定するマルチトランザクション要求を受信する場合、このことは、スヌープ・フィルタ内の同一のエントリが複数のルックアップ動作を受けることを要求する可能性がある。一実施例において、そのような状況において、スヌープ・フィルタに対するアクセスの回数を低減するために、修正されたルックアップ動作が実行される。詳細には、一実施例において、スヌープ・フィルタは、セット・アソシアティブ型のストレージであり、各トランザクションのアドレスのインデックス部分が、アドレス指示がそのアドレスと比較されるべきスヌープ・フィルタ内のエントリを識別するのに使用される。マルチトランザクション要求によって指定された複数のトランザクションが、前記複数のトランザクションを処理する際にスヌープ・フィルタの各エントリを複数回、参照することを要求するだけ十分に広いアドレス範囲と関係する場合、スヌープ回路は、スヌープ・フィルタの各エントリがルックアップを1回、受ける、スヌープ・フィルタ内の修正されたルックアップ動作を適用するように構成され、そのエントリから得られたアドレス指示のいくつかのビットがマスクされ、次に、それらのトランザクションのうちの複数と共通するマスクされたアドレスと比較され、その比較が合致を示す場合、スヌープ・フィルタのそのエントリに関連付けられたキャッシュ識別子情報によって示される各キャッシュ・ストレージ・デバイスに対してスヌープ要求が発行される。そのようなアプローチは、スヌーピング動作を実行することに関連する電力消費を大幅に低減することが可能であり、パフォーマンスを向上させることも可能である。
同一の基本的なアプローチが、キャッシュ・ストレージ・デバイスがマルチトランザクション要求を受信する状況において、キャッシュ・ストレージ・デバイス内で採用されることも可能である。詳細には、ルックアップは、各キャッシュ・エントリ内で1回だけ実行されることが可能であり、この場合も、マスキングが、修正された比較を実行するのに使用され、その比較からもたらされる合致は、関連付けられたキャッシュ・エントリの中のデータ値がキャッシュ・メンテナンス動作の対象とされるべきことを示す。
スヌープ動作の効率を高める別の方法として、スヌープ・フィルタ・エントリ自体の構造が、エントリの中に記憶されたアドレス指示が単一のキャッシュ・ラインと関係するだけでなく、代わりに、複数のキャッシュ・ラインと関係するように変更されることが可能である(例えば、アドレス指示を、アドレスのより少ない数のビットに構成することによって)。その場合、エントリは、縮小されたアドレス指示を共有するキャッシュ・ラインのそれぞれに関していずれのキャッシュ・ストレージ・デバイスをスヌープすべきかの指示を記憶することが可能である。スヌープ・フィルタとの合致が得られると、次に、このことは、いずれのキャッシュ・ストレージ・デバイスが、キャッシュ・ラインのそれぞれに関してスヌープを要求するものとしてエントリによってフラグを立てられているかに依存して、スヌープ・フィルタにおけるそのエントリに関連付けられたキャッシュ・エントリのいずれか、又は全てに関して、スヌープ要求が、要求されるキャッシュのそれぞれに対して発行されることをもたらす。
キャッシュ・メンテナンス追跡回路によってマスタ・デバイスに与えられる進行情報は、様々な形態をとることが可能である。例えば、進行情報は、マルチトランザクション要求によって指定された複数のトランザクションの全てが実行されると、キャッシュ・メンテナンス追跡回路によって発行される単一の組み合わされた応答を形成することが可能である。代替として、進行情報の複数の別々のアイテムが、キャッシュ・メンテナンス追跡回路によって与えられてもよく、各アイテムは、カウント値を与える。その場合、マスタ・デバイスは、トランザクションの全てがいつ完了されたかを決定するために、受信されたカウント値を累算するように構成されることが可能である。複数のキャッシュ・ストレージ・デバイスによって特定のキャッシュ・メンテナンス動作が実行される必要がある場合、キャッシュ・メンテナンス追跡回路は、それらのキャッシュ・ストレージ・デバイスの全てによるキャッシュ・メンテナンス動作の完了が、マスタ・デバイスに単一の「カウント」が戻されることだけをもたらすことを確実にして、マスタ・デバイスが、その複数のトランザクションがいつ完了されたかを決定するためにカウント値を単に累算するだけでよいことを確実にする。
更なる態様から見て、本発明は、マスタ・デバイスと複数のキャッシュ・ストレージ・デバイスを相互接続して、マスタ・デバイスによって指定されたキャッシュ・メンテナンス動作が、複数のキャッシュ・ストレージ・デバイスによって実行されることを可能にするための相互接続回路であって、マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を受信するように構成されたマスタ・インターフェースであって、マルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、その複数のトランザクションのそれぞれは、そのトランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定するマスタ・インターフェースと、その複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ・デバイスのいずれがそのトランザクションを実行することを要求されるかを決定するためにアドレス情報及び数量指示を解析するように構成され、その複数のキャッシュ・ストレージ・デバイスのそれぞれに対して、前記複数のトランザクションの中でその複数のキャッシュ・ストレージ・デバイスのそれぞれによって実行されるべきトランザクションを識別するトランザクション要求を発行するように更に構成された要求配信回路と、前記複数のトランザクションの実行中にその複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、マスタ・デバイスに進行情報を与えて、前記複数のトランザクションがいつ完了されたかをマスタ・デバイスが決定することを可能にするように構成されたキャッシュ・メンテナンス追跡回路とを備える相互接続回路を提供する。
更なる態様から見て、本発明は、マスタ・デバイスと、複数のキャッシュ・ストレージ・デバイスと、そのマスタ・デバイスを前記複数のキャッシュ・ストレージ・デバイスに結合して、そのマスタ・デバイスによって指定されたキャッシュ・メンテナンス動作が、その複数のキャッシュ・ストレージ・デバイスによって実行されることを可能にする相互接続回路とを備えるデータ処理システム内で前記キャッシュ・メンテナンス動作を実行する方法であって、マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することであって、そのマルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、その複数のトランザクションのそれぞれは、そのトランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定する、発行することと、相互接続回路内で、その複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ・デバイスのうちのいずれがそのトランザクションを実行することを要求されるかを決定するためにアドレス情報及び数量指示を解析し、その複数のキャッシュ・ストレージ・デバイスのそれぞれに対して、前記複数のトランザクションの中でその複数のキャッシュ・ストレージ・デバイスのそれぞれによって実行されるべきトランザクションを識別するトランザクション要求を発行することと、相互接続回路内で、前記複数のトランザクションの実行中にその複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、マスタ・デバイスに進行情報を与えて、前記複数のトランザクションがいつ完了されたかをマスタ・デバイスが決定することを可能にすることとを備える方法を提供する。
本発明の更なる態様から見て、本発明は、マスタ手段と、複数のキャッシュ・ストレージ手段と、そのマスタ手段を前記複数のキャッシュ・ストレージ手段に結合して、そのマスタ手段によって指定されたキャッシュ・メンテナンス動作が、その複数のキャッシュ・ストレージ手段によって実行されることを可能にするための相互接続手段とを備えるデータ処理システムであって、マスタ手段は、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することを目的とし、そのマルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、その複数のトランザクションのそれぞれは、そのトランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定し、相互接続手段は、その複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ手段のうちのいずれがそのトランザクションを実行することを要求されるかを決定するためにアドレス情報及び数量指示を解析することを目的とし、その複数のキャッシュ・ストレージ手段のそれぞれに対して、前記複数のトランザクションの中でその複数のキャッシュ・ストレージ手段のそれぞれによって実行されるべきトランザクションを識別するトランザクション要求を発行することを更に目的とする要求配信手段を含み、データ処理システムは、前記複数のトランザクションの実行中にその複数のキャッシュ・ストレージ手段から進行指示を受信するため、及びマスタ手段に進行情報を与えて、前記複数のトランザクションがいつ完了されたかをマスタ手段が決定することを可能にするためのキャッシュ・メンテナンス追跡手段を備えるデータ処理システムを提供する。
本発明は、単に例として、添付の図面に示される本発明の実施例を参照して更に説明される。
一実施例によるマルチトランザクション要求を示す概略図である。 一実施例によるマルチトランザクション要求内に含められたトランザクションの数情報に関する代替のフォーマットを示す図である。 一実施例によるデータ処理システムを示すブロック図である。 一実施例による図2のシステム内に組み込まれ得る延期された書込み機構を示す概略図である。 一実施例による、要求配信回路が、キャッシュ整合性を確実にする整合性処理回路を含む実施例を示す概略図である。 一実施例による、要求配信回路がどのようにいくつかの階層型配信ブロックから形成され得るかを示す概略図である。 或る実施例による、インターリーブ・サポート機能がどのように要求配信回路内に組み込まれ得るかを示す概略図である。 異なる実施例による、インターリーブ・サポート機能がどのように要求配信回路内に組み込まれ得るかを示す概略図である。 或る実施例による、競合緩和機能がどのように要求配信回路内に組み込まれ得るかを示す図である。 異なる実施例による、競合緩和機能がどのように要求配信回路内に組み込まれ得るかを示す図である。 代替の実施例によるマルチトランザクション要求を示す概略図である。 一実施例による、メモリ・コピー動作がどのように実行され得るかを示す概略図である。 マルチトランザクション要求の発行を介してキャッシュ・メンテナンス動作が実行されることを可能にする、代替の実施例によるデータ処理システムを示す図である。 或る実施例による、図10のスヌープ・フィルタ内のエントリに関する1つのフォーマットを示す図である。 異なる実施例による、図10のスヌープ・フィルタ内のエントリに関する別の1つのフォーマットを示す図である。 一実施例による、図10のシステム内のスヌープ・フィルタ・ルックアップ内で、又はキャッシュ・ルックアップ内で実行され得る最適化を示す流れ図である。 一実施例による、図12において説明されるマスキングがどのように実行されるかを示す概略図である。
図1Aは、一実施例によるマスタ・デバイスによって発行されるマルチトランザクション要求10で指定される様々なフィールドを示す概略図である。第1のフィールド12が、マルチトランザクション要求の中で指定されたトランザクションのそれぞれに関してトランザクション識別子を生成するのにトランザクション固有の情報と組み合わせて使用され得る基本トランザクション識別子を指定する。更に、フィールド14が、マルチトランザクション要求に包含されるトランザクションの数についての情報を与える。この情報は、様々な形態をとることが可能であり、図1Bは、2つの可能な実例を示す。第1の実例によれば、フィールド14は、実際には、トランザクションの数を指定するサイズ・フィールド30の形態をとる。代替の実施例において、フィールド14は、ビット単位のフィールド35の形態をとり、各ビットは、一連のデータ・ブロック内の特定のデータ・ブロックがマルチトランザクション要求内のトランザクションによって処理されるべきかどうかを示すために設定される、又はクリアされる。この情報は、マルチトランザクション要求内の各トランザクションに関する開始アドレスを識別するために、アドレス・フィールド16内で与えられるアドレス情報に関連付けられて使用され得る。
例えば、アドレス情報フィールド16は、マルチトランザクション要求内に包含されるトランザクションのシーケンスにおける第1のトランザクションに関連付けられた基本アドレスを指定することが可能である。各トランザクションによって(マスタ・デバイスからスレーブ・デバイスに対する書込み動作として、又はスレーブ・デバイスからマスタ・デバイスにデータを戻す読取り動作として)マスタ・デバイスとスレーブ・デバイスの間で転送されるべきデータの特定の量を所与として、シーケンスにおけるトランザクションのそれぞれに関する開始アドレスが決定され得る。単一のサイズ・フィールド30が使用される場合、トランザクションは、順次の一連のトランザクションであるものと想定されることが可能であり、各トランザクションに関する開始アドレスは、フィールド16内の基本アドレスから相応するように決定され得る。ビット単位のフィールド35が代わりに使用される場合、その連続における各トランザクションに関する開始アドレスは、ビット単位のフィールド内の情報を使用して決定され得る。第1のビット、第2のビット、及び第4のビットが設定されるが、第3のビットはクリアされている図1Bに示される実例を使用すると、このことは、第1のトランザクションが基本アドレスから生じ、第2のトランザクションが、基本アドレスを、各トランザクションによって扱われるデータのサイズによって決定されるいくらかの量だけインクリメントすることによって見出される開始アドレスを有するデータの隣接するブロックに関するトランザクションである(例示のため、この開始アドレスは、基本アドレス足すオフセットXに等しいものと想定する)ことを識別するのに使用され得る。第3のビット位置における論理0値は、次のアドレス(すなわち、基本アドレス足す2X)におけるデータ・ブロックがトランザクションの対象ではないことを示し、代わりに、次のトランザクションは、実際には、基本アドレス足す3Xに等しい開始アドレスにおけるデータに関する。
図1Aに戻ると、バースト・サイズ・フィールド18が、各トランザクションによって転送されるデータの量を識別するように備えられることが可能である。この実例において、各トランザクションは、各クロック・サイクル(本明細書でビートとも呼ばれる)において所定の量のデータが転送されるバースト・トランザクションであり、そのプロセスが、そのトランザクションの各ビート中にデータの異なるブロックに関して繰り返されるものと想定される。バースト・サイズ・フィールドは、各バースト・トランザクションを介して転送されるデータの全体的な量を識別するのに使用され得る(各バースト・トランザクションに関して別個の応答が発行されている)。このフィールドは、代替の実施例において、バースト・サイズが所定であり得るため、オプションであることが可能である。
読取り/書込みフィールド20が、各マルチトランザクション要求に関して、その要求によって識別された複数のトランザクションが読取りトランザクションであるか、書込みトランザクションであるかを識別するのに使用される。1つ又は複数のオプションの更なるフィールド22が、任意の特定の実施例において関係があると考えられる他の情報を与えるように備えられることも可能である。
図2は、一実施例によるデータ処理システムのブロック図である。この実例において、マスタ・デバイス55が、相互接続回路50を介して複数のスレーブ・デバイス60、62、64、66に結合される。当業者には理解されるとおり、しばしば、相互接続回路は、複数のマスタ・デバイスを複数のスレーブ・デバイスと相互接続するが、図示を簡単にするため、単一のマスタ・デバイスだけが図2に示される。説明される実施例によれば、マスタ・デバイス55が、図1A及び図1Bを参照して前述した形態のマルチトランザクション要求を発行し、そのマルチトランザクション要求が、相互接続回路50内の要求配信回路70によって受信される。要求配信回路70は、マルチトランザクション要求によって指定された各トランザクションをいずれのスレーブ・デバイスが実行することを要求されるかを決定するように構成される。通常、スレーブ・デバイス60、62、64、66のそれぞれは、(アドレス・マップによって識別される)可能なアドレスの全範囲内の特定のアドレス範囲に、フィールド16内のアドレス情報、及びフィールド14内のトランザクションの数についての情報を使用することによって相応するようにマップされ、要求配信回路70は、各トランザクションに関する開始アドレスを決定することができ、次に、アドレス・マップを参照して、各トランザクションをいずれのスレーブ・デバイスが実行することを要求されるかを決定することができる。次に、要求配信回路70は、スレーブ・デバイスのそれぞれに対してトランザクション要求のシーケンスを発行する。
一実施例によれば、複数のトランザクションが1つの特定のスレーブ・デバイスによって扱われるべき状況において、要求配信回路は、そのスレーブ・デバイスに伝搬されるようにマルチトランザクション要求を形成することが可能である。スレーブ・デバイスに、単一の要求を介して、そのスレーブ・デバイスが実行する必要がある複数のトランザクションについての情報を与えることによって、このことは、そのスレーブ・デバイスが、それらの複数のトランザクションを扱う効率を向上させるようにそのスレーブ・デバイスの挙動を最適化しようと努めることを可能にすることができる。例えば、スレーブ・デバイスが、DRAMメモリなどのメモリにアクセスするのに使用されるメモリ・コントローラである場合、DRAMのページを閉じて、別のページを開くことに関連するオーバヘッドが存在するので、DRAMにおけるメモリの開かれたページに複数回のアクセスを行うことの方が、通常、効率的である。実行される必要がある一連のトランザクションの知識を有して、メモリ・コントローラは、マルチトランザクション要求の中で識別されるその一連のトランザクションによって指定される必要な書込み動作又は読取り動作を実行する際、開かれたページをより効率的に利用するようにメモリ・アクセスを最適化しようと努めることが可能である。
マルチトランザクション要求が、一連の書込みトランザクションを指定する場合、書込みデータは、マスタ・デバイス55によってパス77を介して相互接続50に出力される必要があり、次に、書込みデータ・ルーティング回路75が、各トランザクションに関して関係のあるスレーブ・デバイスに、要求される書込みデータをルーティングするのに使用される。一実施例において、各トランザクションをいずれのスレーブ・デバイスが処理すべきかについて要求配信回路によって決定された情報が、各トランザクションに関して関連する書込みデータを正しくルーティングするのに使用するために書込みデータ・ルーティング回路に供給されることも可能である。しかし、代替の実施例において、各書込みトランザクションの書込みデータは、スレーブ・デバイスがその書込みデータを要求するまで、そのスレーブ・デバイスに対して発行されない。したがって、そのような実施例において、要求配信回路70が、特定のスレーブ・デバイスに対してトランザクション要求を発行すると、次に、そのスレーブ・デバイスが、そのスレーブ・デバイスが書込みデータを受け付ける準備ができていることを示す応答を、元のマスタ・デバイス55に戻すように発行する。この応答は、書込みデータがルーティングされなければならないスレーブ・デバイスのIDを包含する。
したがって、マスタ・デバイスが最初にマルチトランザクション要求を送信する際、マスタ・デバイスは、各トランザクション、及び関連する書込みデータがいずれのスレーブ・デバイスを宛先とするかを知らず、代わりに、マルチトランザクション要求内の特定のトランザクションに関する書込みデータが現時点で送信され得るという、スレーブ・デバイスからの指示を待ち、その指示は、書込みデータ・ルーティング回路75が書込みデータを適切なスレーブ・デバイスにルーティングすることを可能にする情報も与える。
説明される実施例によれば、マスタ・デバイスは、単一のマルチトランザクション要求を発行しているが、マスタ・デバイスが実行されることを要求した個々のトランザクションを認識している。それらのトランザクションは個別であるので、マスタ・デバイスは、個々のトランザクションが実行される順序に関心はなく、任意の特定のトランザクションをいずれのスレーブ・デバイスが処理しているかについての知識を有する必要も全くない。要求されるのは、マスタ・デバイスが、各トランザクションの完了について知らされることだけである。各トランザクションに関して、このことは、各スレーブ・デバイスが、相互接続50内の読取りデータ/応答ルーティング回路80を介して応答データを発行することによって実現されることが可能であり、次に、この応答データが、パス82を介してマスタ・デバイスにルーティングされる。書込みトランザクションの場合、応答データは、書込みトランザクションが実行されたことを確認する単純な確認応答スタイルの信号であるだけでよい。この場合も、トランザクション識別子は、フィールド12内の基本トランザクション識別子、及び何らかのトランザクション固有の情報に基づいて生成されて、マスタ・デバイスが、マルチトランザクション要求の中で識別される複数のトランザクションのいずれに応答が行われているかを決定することを可能にする。
一連の読取りトランザクションを指定するマルチトランザクション要求の場合、回路80を介して戻される読取りデータ自体が、個々のトランザクションが実行されたと決定するためにマスタ・デバイスによって要求される応答を形成することが可能であり、この場合も、読取りデータの各アイテムには、応答が行われている特定のトランザクションを識別するトランザクション識別子が付随する。
そのような機構によって、マスタ・デバイスは、複数のトランザクションを指定する単一の要求を発行することが可能であり、様々なトランザクションは、その後、要求配信回路70によって適切なスレーブ・デバイスにルーティングされるマルチトランザクション要求を構成する。個別のスレーブ・デバイス自体が、要求配信回路からマルチトランザクション要求を受信する場合、そのスレーブ・デバイスは、実行される必要がある複数のトランザクションの知識に基づいて、その複数のトランザクションによって要求されるアクセスを最適化しようと努めることが可能である。例えば、そのスレーブ・デバイスは、トランザクションの並べ替えをサポートするスレーブ・デバイスである場合、要求されるトランザクションをより効率的に実行するために、それらのトランザクションを並べ替えることを選択することが可能である。更に、前述のメモリ・コントローラ/DRAMメモリの実例を考慮すると、そのスレーブ・デバイスは、トランザクションによって要求されるアクセスをより効率的に処理するために、開かれたページに対するアクセスを最大化するように努めることが可能である。各スレーブ・デバイスは、トランザクションがそれぞれ独立に識別可能であるため、その他のスレーブ・デバイスとは無関係に動作することが可能であり、その場合、応答は、読取りデータ/応答ルーティング回路80を介してそれらのスレーブ・デバイスから利用可能になる場合に供給されることが可能であり、各応答は、マスタ・デバイスが、複数のトランザクションのうちで、応答が行われている特定のトランザクションを識別することを可能にするのに十分なトランザクション識別子を与える。この機構は、スレーブ・デバイスを相手にした通信パスにおける利用可能な帯域幅のより最適な利用を可能にする一方で、いくつかのスレーブ・デバイスが、実行される必要がある複数のトランザクションの概観に基づいてトランザクションが処理される効率を向上させることができるため、パフォーマンス向上が実現されることも可能にする。
一連の書込みトランザクションを指定するマルチトランザクション要求の場合、様々なトランザクションのために要求される書込みデータが、マルチトランザクション要求に関連してマスタ・デバイス55から書込みデータ・ルーティング回路75に出力されるとした場合、このことは、書込みデータ・ルーティング回路75内の輻輳につながり得る潜在性が存在する。詳細には、書込みデータ・ルーティング回路は、通常、書込みキューに関連付けられたいくつかのステージから成り、それらのキューのうちのいくつかは、一杯になって、様々な書込みトランザクションが処理されるのを待っている可能性がある。このことは、相互接続回路の動作の効率を低下させる可能性がある。一実施例において、そのような潜在的な書込み輻輳は、図3に概略で示されるとおり、マスタ・デバイスからの書込みデータの伝送を延期することによって軽減される。例示のため、スレーブ・デバイス60のうちの1つが示され、そのスレーブ・デバイスは、そのスレーブ・デバイスに転送された各トランザクション要求が入れられる要求キュー100を有する。一実施例によれば、スレーブ・デバイスがマルチトランザクション要求を受信した場合、そのマルチトランザクション要求は、要求キュー100内の1つのスロットだけを占有する。要求処理回路105が、キューからの要求を処理するように構成され得る。マルチトランザクション要求は、単一の要求キューしか占有しないように構成され得るので、このことは、事実上、要求処理回路が、そうでない場合に該当し得るよりも、より多くの待ち状態のトランザクションの可視性を有することを可能にし、したがって、将来のトランザクションのより高い可視性のため、要求処理回路によって適用され得る並べ替えの効率を向上させる。
図3において、円に囲まれた数字は、スレーブ・デバイスによるトランザクション要求の受信からそのトランザクション要求の関連する書込みデータの書込みまでの処理の一般的なシーケンスを表すのに使用される。
要求処理回路がマルチトランザクション要求を処理している場合、各トランザクションに関して、要求処理回路は、そのトランザクションと関係する書込みデータを要求する適切な制御信号をマスタ・デバイス55に戻すように送信することが可能である。その要求には、マルチトランザクション要求の基本トランザクション識別子及びいくらかのトランザクション固有の情報(開始アドレスのいくつかの下位ビットなどの)から導き出されたトランザクション識別子がタグ付けされることが可能である。次に、このことは、要求された書込みデータが、書込みデータ・ルーティング回路75を介してマスタ・デバイスから出力されることをもたらし、書込みデータは、書込みデータ・キュー110内に入れられる。要求処理回路105は、書込み制御回路115を制御し、したがって、次に、キューからその書込みデータを読み取り、書込み動作を開始することが可能である。メモリ・コントローラ、及び関連するメモリ・デバイスの前述の実例に関して、図3のスレーブ・デバイス60内に示される要素は、メモリ・コントローラ内に備えられることが可能であり、書込みデータは、関連するメモリ・デバイス内に記憶するために書込み制御要素115から出力される。
書込みデータを出力するようにマスタ・デバイスをトリガするための機構は、様々な形態をとり得る。例えば、スレーブ・デバイスが書込みデータの出力を要求することを可能にするハンドシェーク機構が、スレーブ・デバイスとマスタ・デバイスの間に存在することが可能である。そのようなハンドシェーク機構が利用可能でない場合、スレーブ・デバイスは、例えば、相互接続内のスヌープ回路に、マスタ・デバイス・キャッシュからデータを退去させるスヌープ要求を発行させることによって、マスタ・デバイスのキャッシュからの書込みデータの退去を引き起こすことが可能であり得る。
図4は、マルチトランザクション要求を処理する際、要求配信回路がどのように、キャッシュ整合性の問題を管理するように構成され得るかを示す。図3の場合と同様に、円に囲まれた数字は、図に示される様々な対話の相対的な順序を示す。この例において、データ処理システムは、独自の関連するキャッシュ132、142、152をそれぞれが有する一連のマスタ・デバイス130、140、150を含む。それらのキャッシュのそれぞれは、単一のレベルのキャッシュであることが可能であり、又はそれら自体、複数のレベルのキャッシュ、例えば、レベル2キャッシュと組み合わされたレベル1キャッシュによって構成されることが可能である。図に示されるとおり、マスタ・デバイス130が、要求配信回路160に対してマルチトランザクション要求を発行するものと想定され、この実例における要求配信回路は、一実施例において、スヌープ回路の形態をとることが可能な整合性処理回路を含む。
一実施例において、要求配信回路160内の整合性処理回路は、マルチトランザクション要求の中で発行された全てのトランザクションのアドレスに関して、その他のマスタ・デバイス140、150のキャッシュ142、152に対してスヌープ要求を発行するように構成されることが可能であり、その場合、スヌープ応答は、要求配信回路に戻される。代替として、整合性処理回路は、キャッシュ142、152の中にデータが保持されるアドレスの指示を与えるストレージ構造に対するアクセスを有し、アドレス指示がトランザクションにおけるアドレス指示と合致するデータをキャッシュが記憶していることをストレージ構造が示す場合に限って、関係のあるキャッシュに対してスヌープ要求を発行してもよい。要求配信回路160の整合性処理回路内のストレージ構造は、様々な形態をとることが可能であるが、一実施例において、アドレス部分のログを記録するためのスヌープ・フィルタ、及び関連するアドレス部分がそのスヌープ・フィルタにおけるログ記録されたアドレス部分と合致するトランザクションを求めてスヌープされるべきキャッシュのIDの形態をとる。
スヌープ要求に応答して行われることが要求されるアクションは、実施例、及びトランザクションのタイプに依存して異なる。例えば、書込みトランザクションに関して、スヌープ要求は、ローカル・キャッシュ142、152の中に記憶されたデータの任意のコピーが単に無効にされるようにすることが可能であり、その場合、新たな書込みデータは、関係のあるスレーブ・デバイス170、172、174の中に記憶されるようにマスタ・デバイス130によって供給される。このことは、マスタ・デバイス140、150が、マスタ・デバイス140、150のローカル・キャッシュの中のデータの古くなったバージョンにアクセスすることによって、その後、誤ったデータにアクセスすることがないことを確実にする。代替として、新たな書込みデータは、その書込みデータがメモリに書き込まれることに加えて、スヌープされるキャッシュに書き込まれるようにされることも可能である。読取りトランザクションの場合、スヌープ要求は、読取りトランザクションによって要求されたデータがキャッシュ内で見出された場合、通常、要求されるデータがスヌープ応答の一部として、スヌープされるキャッシュから出力されるようにする。このことは、整合性処理回路160が、その後、そのデータにアクセスするためにスレーブ・デバイス170、172、174にアクセスする必要なしに、読取りデータ/応答ルーティング回路165を介してマスタ・デバイス130に要求される読取りデータを戻すことを可能にする。
キャッシュ142、152のそれぞれがマルチトランザクション要求の中の全てのトランザクションに関してスヌープされる実施例において、読取りトランザクションに関して、スヌープ応答が整合性処理回路によって収集されてから、関連するトランザクション要求がスレーブ・デバイスに伝搬される必要があるかどうかが決定される(要求される読取りデータがキャッシュ142、152のいずれかに存在しないことにより)ことが通常である。一連の書込みトランザクションに関して、スヌープ要求が、関係のあるキャッシュ・ラインが前のバージョンの書込みデータを包含する場合に、それらのキャッシュ・ラインが単に無効にされるようにしている場合、書込みトランザクションは、要求されるスレーブ・デバイス170、172、174に同時に伝搬されることが可能である。同様に、マルチトランザクション要求によって指定されたトランザクション要求のサブセットだけが、スヌープ要求が発行されることを要求する可能性があるようにスヌープ・フィルタが使用される実施例の場合、スヌープ応答が受信されることを待つことなしに、スレーブ・デバイス170、172、174に遅延なしに伝搬されることが可能ないくつかのトランザクション要求が存在する。この理由で、要求配信回路160から伝搬される様々なスヌープ要求、スヌープ応答、及びトランザクション要求の全てには、参照符号3がラベル付けされて、前述した制約の下で、これらが基本的に並行に行われることが示される。前述した実施例の場合と同様に、要求配信回路が、複数のトランザクションがスレーブ・デバイスのうちの1つへの伝搬を要求することを識別する場合、要求配信回路は、関係のあるスレーブ・デバイスに対して、そのスレーブ・デバイスによって実行されるべきトランザクションを識別するマルチトランザクション要求を発行することが可能である。
前段の説明から理解されるとおり、スレーブ・デバイスのそれぞれは、実行されたトランザクションのそれぞれの完了を示す応答を、読取りデータ/応答ルーティング回路165を介してマスタ・デバイス130に独立に出力する。更に、要求配信回路160内の整合性処理回路そのものが、スヌープされたキャッシュ142、152から受信されたスヌープ応答に基づいて、読取りデータ/応答ルーティング回路165を介してマスタ・デバイス130に戻されるようにルーティングされる応答の送信元であり得る。スレーブ・デバイスからの応答の場合と同様に、整合性処理回路からの応答は、マルチトランザクション要求のフィールド12内の基本トランザクション識別子から導き出された、それらの応答に関連付けられたトランザクション識別子と、トランザクションの開始アドレスのいくつかの下位アドレス・ビットなどのいくらかのトランザクション固有の情報とを有する。したがって、前述した実施例の場合と同様に、マスタ・デバイス130は、マルチトランザクション要求の中で指定されたトランザクションのそれぞれがいつ完了されたかを決定するために、読取りデータ/応答ルーティング回路165を介して供給される様々な応答を監視することが可能である。
図5は、要求配信回路200がどのように、階層に構成された複数の個別のステージから形成され得るかを概略で示す。この実例において、スヌープ回路は、別々の2つのスヌープ回路212、214から形成される要求配信回路内に備えられ、各スヌープ回路は、異なるアドレス範囲に関連付けられるものと想定される。したがって、マルチトランザクション要求の中で指定されるトランザクションのそれぞれに関して、いずれのスヌープ回路がそのトランザクションを点検すべきかを決定するために、最初に受信されたマルチトランザクション要求を解析するアドレス・マップ分割回路210が提供される。その解析の結果、スヌープ回路のそれぞれに、それらのスヌープ回路による点検を必要とする様々なトランザクションを識別する修正されたマルチトランザクション要求が送信される。第1のスヌープ回路212は、第1のスヌープ回路212が受信する各トランザクションに関して、マスタ・デバイス140、150内のキャッシュ142、152に関してスヌープ要求が発行される必要があるかどうかを決定する。スヌープ要求が発行される必要がある場合、それらのスヌープ要求が発行され、要求されるスヌープ応答が受信される。書込みトランザクションに関して、スヌープ回路は、この事例では、メモリ・コントローラ202である、スヌープ回路に関連付けられたスレーブ・デバイスに対してトランザクション要求を発行することも、通常、行う。この場合も、このことは、メモリ・コントローラ202に対してスヌープ回路212からマルチトランザクション要求を発行して、メモリ・コントローラ202が、それらの複数のトランザクションを扱う際にメモリ・コントローラ202の挙動を最適化することを可能にすることによって実現され得る。同一のアクションが、スヌープ応答に基づいて応答され得ない読取りトランザクションに関して行われることが可能である。
スヌープ回路214は、要求されるとおりにキャッシュ142、152に対してスヌープ要求を発行して、スヌープ回路212と同様に動作する。しかし、この事例において、単一のスレーブ・デバイスが、スヌープ回路214によって管理されるアドレス範囲に関連付けられているだけでなく、代わりに、この実例においては、メモリ・コントローラ204、206、208によって形成された3つのスレーブ・デバイスが存在する。したがって、スヌープ回路214によって出力されるトランザクション要求はまず、アドレス・マップ分割回路220に送られ、アドレス・マップ分割回路220は、この実例において、メモリ・コントローラ204に関連付けられたアドレスの知識を有する。したがって、関連するアドレスがメモリ・コントローラ204にマップされるトランザクションに関して、アドレス・マップ分割回路220は、メモリ・コントローラ204に対してそのトランザクションを発行する。他の全てのトランザクション要求は、アドレス・マップ分割回路225に転送され、アドレス・マップ分割回路225は、メモリ・コントローラ206及び208のそれぞれに関連付けられたアドレスの知識を有し、したがって、適切なメモリ・コントローラ206、208にトランザクション要求を伝搬するために、受信されたトランザクションを相応するように分割する。
図5は、単に、要求配信回路がどのように、要求されるとおりにスヌープ要求を実行しながら、要求されるスレーブ・デバイスに様々なトランザクション要求をルーティングするように階層に構成され得るかの実例に過ぎないことが理解されよう。
特定のスレーブ・デバイスに関連付けられたアドレスが、粗いレベルの粒度で、又はより細かいレベルの粒度で、別のスレーブ・デバイスに関連付けられたアドレスとインターリーブされることがあり得る。例えば、このことは、関連付けられたDRAMメモリ・ブロックに対するアクセスをそれぞれが制御し、アドレスが、アクセス時間を向上させるために様々なDRAMメモリ・ブロックの間でインターリーブされる複数のメモリ・コントローラが備えられるDRAMメモリの場合に、しばしば、該当する。一実施例において、要求配信回路は、受信されたマルチトランザクション要求を、スレーブ・デバイスのそれぞれを宛先とするトランザクション要求に分割するのを支援するためにインターリーブ・サポート回路を含み得る。このことが、マスタ・デバイス250が、要求配信回路255を含む相互接続を介して2つのスレーブ・デバイス270、280に結合される図6Aにおける実例によって示される。要求配信回路は、例えば、メモリ・コントローラであり得る2つのスレーブ・デバイス270、280にアドレスがどのようにマップされるかを識別するメモリ・マップ262に対するアクセスを有するインターリーブ・サポート・ブロック260を含む。スレーブ・デバイスのそれぞれには、そのスレーブ・デバイスがトランザクション要求を受信するトランザクションを実行するトランザクション・ハンドラ272、282が関連付けられる。前述したとおり、スレーブ・デバイス自体が、要求配信回路255からマルチトランザクション要求を受信することが可能であり、その場合、トランザクション・ハンドラは、それらのトランザクションのそれぞれが実行されるべきであると決定し、次に、それらのトランザクションがスレーブ・デバイスによって実行されるようにし、それらのトランザクションのそれぞれの完了を示す応答データが、マスタ・デバイスに戻されるようにルーティングされる。
図6Aの実例において、要求配信回路255は、マルチトランザクション要求を解析し、詳細には、インターリーブ・サポート・ブロック260が、いずれのトランザクションがスレーブ・デバイス270、280のいずれへのルーティングを必要とするかを決定するためにメモリ・マップ262を参照する。次に、要求配信回路255が、スレーブ・デバイスのそれぞれに送信される修正されたマルチトランザクション要求を作成する。この実施例において、修正は、要求配信回路によって発行された各マルチトランザクション要求に関してフィールド14内にトランザクションの数情報を設定して、いずれのトランザクションが実行される必要があるかを受信側スレーブ・デバイスに明らかにすることを含む。一実施例において、このことは、図1Bにおけるビット単位のフィールド35のようなビット単位のフィールドを使用して、受信側スレーブ・デバイスによって処理されるべきマルチトランザクション要求内の特定のトランザクションを識別することによって実現され得る。したがって、スレーブ・デバイス270に対して要求配信回路255から発行されるマルチトランザクション要求は、要求配信回路255からスレーブ・デバイス280に送信されるマルチトランザクション要求とは異なるようにビット単位のフィールドが設定されて、スレーブ・デバイスのそれぞれが、その後、要求されるトランザクションを実行し、マスタ・デバイスに対して、要求される応答を発行するようにする。次に、マスタ・デバイスが、マスタ・デバイスによって最初に発行されたマルチトランザクション要求の中で指定されたトランザクションのそれぞれがいつ完了されたかを決定することができる。
図6Bは、スレーブ・デバイス270、280のそれぞれが、スレーブ・デバイス270、280の間でアドレスをインターリーブするのに使用されるインターリーブ・パターンを識別するコード情報274、284をローカルで記憶する代替の実施例を示す。この実施例において、スレーブ・デバイス270、280の両方は、同一のマルチトランザクション要求を受信し、関連付けられたコード情報274、284を使用して、そのマルチトランザクション要求内のトランザクションのいずれが処理されるべきであるかを決定する。次に、インターリーブ・サポート・ブロック260が、いずれのトランザクションが、スレーブ・デバイス270又はスレーブ・デバイス280によって扱われるべきかを決定し、その後、それらのスレーブ・デバイスが処理する必要がある特定のトランザクションを識別するために、それらのスレーブ・デバイスが、それらのスレーブ・デバイスによってローカルで記憶されたコード274、284を使用することを可能にするようにそれらのスレーブ・デバイスの両方にブロードキャストされるマルチトランザクション要求を構築するのに使用される。
図6A及び図6Bにおいて、オプションの競合緩和ブロック265が示される。次に、このブロックが使用され得る方法が、図7A及び図7Bを参照して説明される。マルチトランザクション要求によって指定される様々なトランザクションを処理する際、相互接続の読取りデータ/応答ルーティング回路内で競合問題が生じる潜在性が存在し、書込みトランザクションの場合もやはり、相互接続の書込みデータ・ルーティング回路内で競合問題が生じる潜在性が存在する。同時に応対がなされる複数のトランザクションが存在する任意のシステムにおいて、競合の可能性が生じる。しかし、要求配信回路255は、マルチトランザクション要求がどのように扱われるかを管理しており、詳細には、そのマルチトランザクション要求の中で指定されるトランザクションを実行することが要求される様々なスレーブ・デバイスに、それらのトランザクションについてどのように通知が行われるかについて管理しているので、要求配信回路255は、相互接続内の競合を低減しようと努めるために競合低減対策を適用する競合緩和ブロック265を含むことが可能である。行われ得る競合低減対策の1つの実例として(図7A参照)、要求配信回路255が、スレーブ270に対してマルチトランザクション要求を発行するが、他方のスレーブ・デバイス280に対する要求されるマルチトランザクション要求の伝送を時間遅延させるように構成されることが可能である。このことは、応答がマスタ・デバイスに戻されるようにルーティングされるタイミングが互い違いになることをもたらし、したがって、競合を低減する可能性が高い。
図7Bは、要求配信回路255から各スレーブ・デバイス270、280に対してマルチトランザクション要求が基本的に同時に発行されるが、それらのマルチトランザクション要求のそれぞれと一緒に側波帯信号として緩和制御情報が含められる代替の実施例を示す。1つの実例において、このことは、スレーブ・デバイスによって使用され得る何らかの最大データレートを指定して、例えば、各スレーブ・デバイスがマスタ・デバイスに応答を与えることが可能な最大レートを低減する、又は、マルチトランザクション要求が複数の書込みトランザクションと関係する場合に、各スレーブ・デバイスがマスタ・デバイスに書込みデータを要求することが可能な最大レートを低減することが可能である。このことは、相互接続内の競合の可能性を低減するのに役立つ。競合を低減する別の対策として、特定のタイムスロットが、読取りデータ/応答ルーティング回路80を介して応答データを戻すことに関してスレーブ・デバイスのそれぞれに割り当てられることも可能である。
代替の実施例において、スレーブ・デバイスとマスタ・デバイスの間で書込みトランザクションのために書込みデータを要求するハンドシェーク信号が使用される場合、書込みデータ・ルーティング回路75に関して競合緩和対策を特別に行う必要性は存在しないようにすることが可能である。代わりに、2つのスレーブが同時に書込みデータを要求する場合、マスタ・デバイスは、それらの要求のうちの1つだけを受け付け、その受け付けられた要求に関して書込みデータを供給する。その時点で要求に応対がなされないスレーブ・デバイスは、その要求を再アサートすることが可能であり、又は書込みデータを待っている間に異なるトランザクションを再スケジュールすることも可能である。
図8は、いくつかのタイプの書込みトランザクションのために一実施例において使用され得るマルチトランザクション要求の別のフォーマットを概略で示す。マルチトランザクション要求300は、図1Aに示されるフィールド12、14、16、18、20、及び22と一致するフィールド312、314、316、318、320、及び322である様々なフィールドを含む。この実例において、読取り書込みフィールド320は、マルチトランザクション要求が一連の書込みトランザクションと関係することを識別するように設定される。また、通常の書込みを識別する第1の値に設定され得る、又は書込みデータが書込みタイプ・フィールドから直接に暗示され得る特定の形態の書込み動作を識別する第2の特別な値に設定され得る、書込みタイプ・フィールド324も備えられる。例えば、一実施例において、書込みタイプ・フィールドが論理0値に設定された場合、このことは、全ての書込みトランザクションに関する書込みデータが一連の論理0値であり、その結果、メモリの領域全体が論理0値にリセットされることが可能であることを意味する。そのような形態のマルチトランザクション要求では、書込みデータは暗示され、ローカルで生成され得るので、スレーブ・デバイスが各トランザクションに関して書込みデータを個々に要求する必要はない。このことは、書込みデータ輻輳を低減し、相互接続内の電力消費を低減する。
また、説明される実施例のマルチトランザクション要求アプローチが、図9に概略で示されるとおり、効率的なメモリ・コピー動作を実行するのに使用されることも可能である。メモリ・コピー動作によれば、データは、第1のアドレスから読み取られ、その後、第2のアドレスに直接に書き込まれる。一実施例において、そのようなメモリ動作は、マルチトランザクション読取り要求の後に続いて、そのマルチトランザクション読取り要求に関連付けられるべきマルチトランザクション書込み要求を発行することによって広い範囲のメモリ・アドレスに関して実行され得る。マルチトランザクション読取り要求とマルチトランザクション書込み要求の間の関連付けを示す1つの方法は、両方のマルチトランザクション要求に関して同一の基本トランザクション識別子を使用することである。マルチトランザクション書込み要求の対象であるアドレスの全てが単一のスレーブ・デバイス内に存在する状況を最初に考慮すると、図9にされる構成要素がそのスレーブ・デバイス内に備えられて、マルチトランザクション要求が受信されるキュー350と、要求キュー内の要求を処理するための要求処理回路355を含むことが可能である。それらの要求を処理する際、要求処理ブロック355は、読取り制御回路360と書込み制御回路365の両方と通信して、要求される読取り動作及び書込み動作が行われるようにする。キューが、マルチトランザクション読取り要求の後に続いて、同一の基本トランザクション識別子を有するマルチトランザクション書込み要求を包含することを突き止めると、要求処理ブロック355は、要求される読取り動作を実行するよう読取り制御回路を制御し、次に、読取りデータの各アイテムが、読取り制御ブロックから直接に、要求処理ブロックが要求される書込み動作を実行させる書込み制御ブロック365に転送される。
読取り動作と書込み動作が全て同一のスレーブ・デバイスに関して実行されるわけではない状況、例えば、データが1つのスレーブ・デバイスから読み取られ、その後、別のスレーブ・デバイスに書き込まれる状況において、その2つのスレーブ・デバイスの間の協調は、それらのスレーブ・デバイスの一方から相互接続に戻される読取りデータが、他方のスレーブ・デバイスにおける書込み制御ブロックに直接にルーティングされて、そのデータが、その他方のスレーブ・デバイス内の要求されるメモリ・アドレスに書き込まれるようにするように相互接続構造内で実施され得る。
代替の実施例において、メモリ・コピー機能を実行するために別々のマルチトランザクション読取り要求とマルチトランザクション書込み要求を要求するのではなく、各読取りデータ・アイテムが書き込まれるべきアドレスが決定されることを可能にする書込みアドレス情報を含む修正されたマルチトランザクション読取り要求が指定されることが可能である。書込みアドレス情報は、様々な形態をとることが可能であるが、一実施例において、対応する書込みアドレスを計算するために各読取りアドレスに適用されるべきオフセットを示すオフセット指示を備えることが可能である。
理解されるとおり、仮想でアドレス指定されるデータに関して、マルチトランザクション要求の長さは、通常、読取り又は書込みがページ境界に遭遇することによって制限される。
前述した実施例において説明されるマルチトランザクション要求アプローチは、システム内の複数のキャッシュに関してキャッシュ・メンテナンス動作が実行されるようにするために相互接続内でマスタ・デバイスからスヌープ回路に対して発行されるトランザクションによって開始されるキャッシュ・メンテナンス動作の効率を高めるために使用されることも可能である。そのような構成が、図10を参照して実例として説明される。この実例において、マスタ・デバイス400は、マルチトランザクション要求を発行し(そのマルチトランザクション要求内の各トランザクションは、キャッシュ・メンテナンス動作を指定する)、そのマルチトランザクション要求が、スヌープ回路430内の要求配信回路440によって受信される。システム内で複数のキャッシュが備えられることが可能であり、要求配信回路440が、マルチトランザクション要求内のアドレス情報及び数量指示(すなわち、トランザクションの数を示す)を参照して、いずれのキャッシュがいずれのキャッシュ・メンテナンス動作を受ける必要があるかを決定する。その複数のキャッシュは、他のマスタ・デバイス410、420に関連付けられたローカル・キャッシュ412、422であることが可能であり、又はいくつかの共有されるキャッシュ450、452、例えば、マスタ・デバイス400、410、420のそれぞれがアクセス可能なレベル3キャッシュであることが可能である。一実施例において、図10に示されるとおり、その複数のキャッシュは、ローカル・キャッシュ412、422の混合と共有されるキャッシュ450、452の両方を備えることが可能である。
一実施例において、全てのトランザクションに関して、キャッシュのそれぞれに対して、それらのキャッシュ内でルックアップを開始するスヌープ要求が発行され、キャッシュ・ルックアップの一環としてヒットが検出された場合(すなわち、トランザクションの関係のあるアドレス部分が、キャッシュ・ラインに関連して記憶されたアドレス部分と合致した場合)、関連付けられたキャッシュ・ラインに対するキャッシュ・メンテナンス動作の実行がされる。
しかし、代替の実施例において、スヌープ・フィルタ445が維持されて、アドレス部分を識別する複数のエントリを有し、トランザクションの対応するアドレス部分が、スヌープ・フィルタ・エントリにおける記憶されたアドレス部分と合致する場合、いずれのキャッシュがスヌープ要求の対象とされる必要があるかの指示を与える。そのような構成が図11Aに示され、スヌープ・フィルタ500における各エントリ505は、キャッシュのキャッシュ・ライン内に保持されるデータ値の全てに共通するアドレス部分であるタグ・アドレス部分507を含む。更に、各エントリは、タグ部分507がトランザクション(この事例では、キャッシュ・メンテナンス動作を指定するトランザクション)のタグ部分と合致する場合、スヌープされる必要があるキャッシュのフィールド509の中に指示を記憶する。スヌープ・フィルタ・アプローチを使用することにより、このことは、各キャッシュ・メンテナンス動作を受ける必要があるキャッシュのサブセットを決定することによってシステム内のスヌープ要求トラフィックの量を低減することが可能である。
キャッシュ・メンテナンス動作は、当業者には理解されるとおり、様々な形態をとることが可能である。例えば、キャッシュ・メンテナンス動作は、キャッシュ・ラインの内容が消去され、無効にされることを要求することが可能である。消去動作は、キャッシュ・ラインにおいて保持されるデータがメモリの中に記憶されたデータより新しい場合、メモリが無効にされるのに先立って、現在の内容がメモリに書き出されることを要求する。
マスタ・デバイス400は、複数のトランザクションを識別するマルチトランザクション要求を指定し、したがって、実行される必要がある複数のキャッシュ・メンテナンス動作を指定するので、要求配信回路440が、特定のキャッシュが複数のキャッシュ・メンテナンス動作を実行する必要があると決定した場合、要求配信回路440は、マルチトランザクション要求を、関係のあるキャッシュに対するスヌープ要求として発行することによって、キャッシュにそのことを明らかにすることが可能である。このことは、図12及び図13を参照して後段の実例に関して説明されるとおり、キャッシュ内のキャッシュ・メンテナンス動作の扱いのいくらかの最適化を可能にすることができる。
様々なスヌープ応答は、要求配信回路に戻され、その後、マスタ・デバイス400に進行情報を送り返して、マスタ・デバイスが、複数のトランザクション(この事例では、複数のキャッシュ・メンテナンス動作)がいつ実行されたかを決定することを可能にすることを担う追跡回路435に転送される。特定のキャッシュ・メンテナンス動作が複数のキャッシュの内部で実行される必要がある状況において、追跡回路は、キャッシュのそれぞれからの応答を監視し、スヌープ応答の全てが受信されて初めて、特定のトランザクションを完了したものとして扱う。
追跡回路435は、マルチトランザクション要求の中で指定されたトランザクションの全ての実行を常に把握しており、その後、要求されるキャッシュ・メンテナンス動作の全てが実行されると、マスタ・デバイス400に単一の通知を送り返すように構成されることが可能である。代替として、追跡回路435は、例えば、トランザクションのブロック、又は個々のトランザクションが処理されるにつれ、マスタ・デバイス400に一連のカウント値を戻すように発行することによって、より少しずつ進行情報を与えることも可能である。その場合、マスタ・デバイス400は、マルチトランザクション要求の中で指定されたトランザクションの全てがいつ処理されたかを決定するために、単に様々なカウント値を累算するだけでよい。
ローカル・キャッシュ412、422に関して、内容は、時とともに動的に変化し、スヌープ・フィルタ445が、各キャッシュ内のエントリに関連付けられたアドレスを常に把握しておき、スヌープ要求が必要であるか否かを相応するように示すための効率的な機構を提供することが理解されよう。共有されるキャッシュ450、452に関して、しばしば、異なるアドレス範囲が異なるキャッシュに関連付けられることがあり、したがって、キャッシュとキャッシュの中に記憶されたデータのアドレスの間により静的な関係が存在する。そのような構成において、要求配信回路440は、任意の特定のトランザクションに関して、共有されるキャッシュのうちのいずれがスヌープ要求の発行を受ける必要があるかを決定するために、共有されるキャッシュ450、452と関係していくらかの静的マッピング情報に対するアクセスを有することが可能である。
単一のスヌープ回路が提供され得るが、一実施例において、複数のスヌープ回路430、460が提供され、各スヌープ回路は、異なるアドレス範囲に関連付けられる。そのような実施例において、第1のステージ要求配信回路470が、マルチトランザクション要求によって指定された各トランザクションに関して、いずれのスヌープ回路が、関連付けられたトランザクションを受信し、処理すべきかを決定するために、各スヌープ回路に関連付けられたアドレス範囲についての情報を参照するために備えられることが可能である。このことは、それらのトランザクションのあるサブセットがスヌープ回路430に転送され、異なるサブセットがスヌープ回路460にルーティングされることをもたらし得る。その場合、スヌープ回路のそれぞれは、そのスヌープ回路によって処理されるべき様々なトランザクションを識別する、第1のステージ要求配信回路470からの修正されたマルチトランザクション要求を受信するように構成されることが可能である。そのような実施例において、各スヌープ回路は、マスタ・デバイス400に進行情報を各々、独立に送り返す別個の追跡回路435を有する。その場合、マスタ・デバイス400は、マルチトランザクション要求に関連付けられたトランザクションの全てがいつ処理されたかを決定するために、追跡回路のそれぞれから供給される進行情報を監視することが可能である。
前述した実施例とは異なり、一連のキャッシュ・メンテナンス動作を指定するマルチトランザクション要求に関して、マスタ・デバイス400は、通常、トランザクションごとに、いずれのトランザクションが実行されたかを知る必要がないことは注目に値する。代わりに、キャッシュ・メンテナンス動作がいつ完了されたかを知るだけでよい。したがって、通常、マスタ・デバイスに送り返される進行情報が、マスタ・デバイスが、キャッシュ・メンテナンス動作の全てがいつ実行されたかを決定するのに十分であるだけでよく、その情報が、マスタ・デバイス400に個々のトランザクションを明らかにする一意のトランザクション識別子情報を含む必要は全くない。
図11Bは、マルチトランザクション要求によって指定される複数のキャッシュ・メンテナンス動作の扱いを支援するようにスヌープ・フィルタの構成に行われ得る最適化を示す。この実施例において、スヌープ・フィルタ520における各エントリ525は、図11Aの実例のフィールド507の中に記憶されたタグ部分よりわずかに短いタグ部分を記憶するフィールド530を有し、したがって、このより短いタグ部分は、複数のキャッシュ・ラインと合致する。その場合、単一のルックアップが、各エントリ525に関して実行されることが可能であり、トランザクションの対応する短くされたタグ部分が、フィールド530内に記憶されたタグ部分と合致する場合、様々なフィールド532、534、536の全てにおける関係のある情報が、それらのフィールドに関連付けられたキャッシュ・ラインに関していずれのキャッシュがスヌープされる必要があるかを識別するのに使用され得る。複数のキャッシュ・ラインを単一のエントリに関連付けることができるようにすることにより、このことは、マルチトランザクション要求が及ぶアドレスの全範囲を処理するために要求されるルックアップの回数を低減することによってスヌープ・フィルタに対するアクセスの効率を大幅に向上させることができる。
しばしば、スヌープ・フィルタ445は、キャッシュと同一の基本構造を有し、したがって、図13における要素600によって示されるような、Nウェイ・セット・アソシアティブ型のストレージ構造として構成されることが可能である。ウェイ602、604、606、608のそれぞれは、複数のエントリを含み、それらのエントリは、タグ部分と、いくらかの関連付けられた情報とを記憶する。スヌープ・フィルタ内で、関連付けられた情報は、図11A又は図11Bに示される情報、すなわち、エントリに記憶されたタグ部分との合致が検出された場合にスヌープされる必要があるキャッシュを識別する情報である。キャッシュ自体に関して、関連付けられた情報は、妥当な制御データと、汚い制御データとを含む。更に、キャッシュの中で、各タグ・エントリに関して、トランザクション・アドレスのタグ部分とエントリ620に記憶されたタグ部分の間に合致が見出された場合、アクセスされる複数のデータ値を記憶する対応するキャッシュ・ラインが存在することが理解されよう。
図13に示されるとおり、考慮されるアドレス610に関して、アドレスのインデックス部分614が、Nウェイ・セット・アソシアティブ型のストレージ構造内の特定のセットを識別するのに使用され、次に、タグ情報が、そのセットの中の各エントリから対応するタグ比較ブロック625、630、635に出力され、Nウエイ・セット・アソシアティブ型のストレージ構造における各ウェイにつき1つのタグ比較ブロックが存在する。次に、出力されたタグ情報が、ヒットが存在するかどうかを決定するためにアドレス610のタグ部分612と比較される。ヒットが存在する場合、次に、スヌープ・フィルタにおいてルックアップが実行される場合、関連付けられた情報がエントリとともに、スヌープされる必要があるキャッシュを識別する。代わりに、キャッシュの1つの内部でルックアップが実行される場合、ヒットがあった場合、このことは、キャッシュ・メンテナンス動作の対象とされる必要があるキャッシュ・ラインを識別する。
図12は、スヌープ・フィルタ445、又はキャッシュのいずれかにおいて、マルチトランザクション要求が、そのマルチトランザクション要求が及ぶアドレス範囲がキャッシュ・ウェイのサイズより大きい場合に、それらの要素に向けられた場合に使用され得る最適化を示す流れ図である。アドレス範囲が、キャッシュ・ウェイ・サイズ以下の場合、プロセスは、単にステップ575に進み、標準のタグ・ルックアップ・プロセスが実行される。しかし、アドレスがキャッシュ・ウェイ・サイズより大きい場合、プロセスは、ステップ555に進み、トランザクションの全てに応対するためにキャッシュを指す各インデックスが何回、反復される必要があるかが決定される。次に、各インデックスを複数回、反復する代わりに、プロセスは、ステップ560に代わりに進み、そのインデックス・ロケーションにおける各セットに関して対応するタグ値を得るために、各インデックスにつき1回、タグ・ルックアップが実行される。その後、ステップ565において、各タグ値のいくつかの最下位ビットがタグ比較からマスクされ、マスクされるビットの数は、ステップ555において決定された反復の回数に依存する。例えば、各インデックスの8回の反復が要求されると決定された場合、タグ値の最下位の3ビットがマスクされる。より一般的には、要求される反復の回数が2のべき乗である場合、単純なビット・マスクが使用され得る。他の反復に関して、より複雑な技法が使用されることが可能である。
更に、図13に示されるとおり、アドレス610のタグ部分612からの均等な数のビットがマスクされ、したがって、各タグ比較ブロック625、630、635は、マスクされたタグ情報に基づいてタグ比較を実行する。ウェイのいずれかにおいてヒットが検出された場合、データ・キャッシュ412、422、450、452のうちの1つにおいてルックアップが実行されている場合、又は、代わりに、スヌープ・フィルタ・キャッシュにおいてルックアップが実行されている場合、対応するキャッシュ・ラインに対して消去動作が実行され、次に、このことが、スヌープ・フィルタ・エントリの中の関連付けられた制御情報によって識別されるキャッシュのそれぞれに対してスヌープ要求が発行されることをトリガする。
スヌープ・フィルタが物理アドレスに対して作用する実施例において、そのような状況においてマスタ・デバイスから発行され得るマルチトランザクション要求のサイズを制限することの結果として、大きい仮想アドレス動作がページ・サイズの動作に細分されなくてもよい可能性があることが理解されよう。
図12及び図13を参照して説明されるアプローチによって実現され得る利点の例として、実例として、8ウェイ256kBキャッシュを考慮することにする。ラインのそれぞれが64バイトである場合、合計のキャッシュは、4kのラインを有し、512個のセットが存在することになる。したがって、4MB消去動作が実行される必要がある場合、図12及び図13のアプローチの使用なしでは、このことは、64k回の検査が実行されることを要求することになり、4MB消去の実行中、各インデックスに関して繰り返されるルックアップ動作が実行される。しかし、図12及び図13のアプローチの使用を介して、エントリのそれぞれは、1回だけ検査され、したがって、64k回の検査ではなく、512回の検査が実行される。各検査は、事実上、128個のアドレスを範囲に含み、したがって、それらのアドレスの7ビットがタグ検査のためにマスクされる。
特定の実施例が本明細書において説明されてきたが、本発明は、それらの実施例に限定されないこと、並びに本発明の範囲内で、それらの実施例に対する多くの修正及び追加が行われ得ることが理解されよう。例えば、本発明の範囲を逸脱することなく、以下の従属クレームの特徴が独立クレームの特徴と様々に組み合わされることが可能である。

Claims (44)

  1. マスタ・デバイスと、
    複数のスレーブ・デバイスと、
    前記マスタ・デバイスを前記複数のスレーブ・デバイスに結合して、前記マスタ・デバイスから要求が行われると、前記複数のスレーブ・デバイスによってトランザクションが実行されることを可能にするように構成された相互接続回路とを備えるデータ処理システムであって、
    前記マスタ・デバイスは、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行するように構成され、前記マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、
    前記相互接続回路は、前記複数のトランザクションのそれぞれに関して、そのトランザクションを実行することを要求される前記スレーブ・デバイスを決定するために前記アドレス情報及び前記数量指示を解析するように構成され、決定された各スレーブ・デバイスに対して、前記複数のトランザクションの中でその決定されたスレーブ・デバイスによって実行されるべき前記トランザクションを識別するトランザクション要求を発行するように更に構成された要求配信回路を含み、
    決定された各スレーブ・デバイスは、その決定されたスレーブ・デバイスによって実行される各トランザクションの完了を識別する応答を前記マスタ・デバイスに与えるように構成され、決定された各スレーブ・デバイスは、他の任意の決定されたスレーブ・デバイスからの前記応答とは無関係にそのスレーブ・デバイスの応答を与えるように構成され、各応答は、前記基本トランザクション識別子から決定されたトランザクション識別子と、前記マスタ・デバイスが、前記マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にするトランザクション固有の情報とを含むデータ処理システム。
  2. 前記要求配信回路によって発行される前記トランザクション要求は、少なくとも1つのマルチトランザクション要求を含み、前記少なくとも1つのマルチトランザクション要求のそれぞれは、そのマルチトランザクション要求が発行された前記決定されたスレーブ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別する請求項1に記載のデータ処理システム。
  3. 前記マスタ・デバイスによって発行される前記マルチトランザクション要求は、マルチバースト・トランザクション要求であり、前記複数のトランザクションのそれぞれは、前記マスタ・デバイスと前記決定されたスレーブ・デバイスの間で実行されるべき複数のデータ転送指定されるバースト・トランザクションである請求項1又は請求項2に記載のデータ処理システム。
  4. 前記アドレス情報は、基本アドレスを備え、前記マルチトランザクション要求によって識別される各トランザクションに関するアドレスは、前記基本アドレスを基準として決定される請求項1から3までのいずれか一項に記載のデータ処理システム。
  5. 各前記マルチトランザクション要求は、連続的なアドレス範囲内の所定のアドレスと関係する一連のトランザクションを識別する請求項4に記載のデータ処理システム。
  6. 前記マルチトランザクション要求は、前記マルチトランザクション要求によって識別される各トランザクションに関する前記アドレスを決定するのに前記基本アドレスとの組合せで使用されるマスク情報を備える請求項4に記載のデータ処理システム。
  7. スレーブ・デバイスが、特定のトランザクションに関する応答を与える場合、前記応答の中に含められる前記トランザクション識別子を生成するのにそのスレーブ・デバイスによって前記基本トランザクション識別子との組合せで使用される前記トランザクション固有の情報は、前記トランザクションのために指定された前記アドレスのいくつかのビットを備える請求項4に記載のデータ処理システム。
  8. キャッシュ・ストレージを有する少なくとも1つの更なるマスタ・デバイスを更に備えるデータ処理システムであって、
    そのキャッシュ・ストレージの中には、前記少なくとも1つの更なるマスタ・デバイスによってアクセスされるようにデータがキャッシュされ、
    前記相互接続回路は、受信されたトランザクション要求に応答して、前記受信されたトランザクション要求に関連付けられた前記トランザクションに関して指定されたアドレスに基づいて、そのアドレスにおけるデータが前記キャッシュ・ストレージ内に記憶されているかどうかを決定するために、前記キャッシュ・ストレージに関してスヌープ動作を実行するスヌープ回路を備え、
    前記要求配信回路は、前記複数のトランザクションのうちのいずれかが、前記スヌープ回路によってスヌープ動作が実行されることを要求するアドレスを指定するかどうかを決定するために前記アドレス情報及び前記数量指示を解析するように更に構成され、
    前記要求配信回路は、前記複数のトランザクションのうちの少なくとも1つがスヌープ動作が実行されることを要求すると決定したことに応答して、前記マスタ・デバイスから受信された前記マルチトランザクション要求を複数のトランザクション要求に分割し、前記スヌープ回路に対して前記トランザクション要求のうちの少なくとも1つを発行する請求項1から7までのいずれか一項に記載のデータ処理システム。
  9. 前記スヌープ回路に対して発行される前記トランザクション要求のうちの少なくとも1つは、スヌープ動作が実行されることが要求される前記複数のトランザクションのうちの複数を識別するマルチトランザクション要求を備える請求項8に記載のデータ処理システム。
  10. 前記スヌープ回路は、複数のスヌープ回路を備え、各スヌープ回路は、異なるアドレス範囲に関連付けられ、前記要求配信回路は、各スヌープ回路に対して別々のトランザクション要求を発行するように構成される請求項8又は9に記載のデータ処理システム。
  11. 前記スヌープ回路は、前記キャッシュ・ストレージの中に記憶されたデータのアドレスのアドレス指示を保持するように構成されたスヌープ・フィルタを備え、トランザクションのために実行される前記スヌープ動作は、前記トランザクションによって指定される前記アドレスを使用して前記スヌープ・フィルタを参照すること、及び前記アドレスが、前記スヌープ・フィルタによって保持される前記アドレス指示のうちの1つと合致することを前記スヌープ・フィルタが示す場合、前記キャッシュ・ストレージに対してスヌープ要求を発行することを備える請求項8から10までのいずれか一項に記載のデータ処理システム。
  12. 前記複数のスレーブ・デバイスは、関連付けられたメモリ・デバイスに結合された複数のメモリ・コントローラを含む請求項1から11までのいずれか一項に記載のデータ処理システム。
  13. 関連付けられた各メモリ・デバイスは、アドレスのパターンに関連付けられたデータを記憶するように構成され、1つのメモリ・デバイスのアドレスの前記パターンは、別のメモリ・デバイスのアドレスの前記パターンとインターリーブされ、
    前記要求配信回路は、各メモリ・コントローラに、前記関連付けられたメモリ・デバイスのアドレスの前記パターン内に指定されたアドレスがある前記複数のトランザクションの中の前記トランザクションを実行させるために、前記マルチバースト・トランザクション要求を、各メモリ・コントローラに対して発行される別々のマルチバースト・トランザクション要求に分割するように構成される、請求項3に従属する場合の請求項12に記載のデータ処理システム。
  14. 前記メモリ・コントローラのそれぞれは、いずれのトランザクションがそのメモリ・コントローラによる実行を要求するかを識別するのに前記メモリ・コントローラによって使用される制御データを供給される請求項13に記載のデータ処理システム。
  15. 前記要求配信回路は、各メモリ・コントローラに対して発行される前記マルチトランザクション要求の中に前記制御データを符号化する請求項14に記載のデータ処理システム。
  16. 前記マスタ・デバイスによって発行される前記マルチトランザクション要求は、各書込みトランザクションに関して前記マスタ・デバイスから前記決定されたスレーブ・デバイスに書込みデータが書き込まれることを要求する複数の書込みトランザクションを識別し、
    前記相互接続回路は、前記複数の書込みトランザクションのそれぞれに関する前記書込みデータを、各書込みトランザクションに関して前記決定されたスレーブ・デバイスにルーティングするように構成された書込みデータ・ルーティング回路を含み、
    前記マスタ・デバイスは、各トランザクションに関して前記書込みデータ・ルーティング回路を通る前記書込みデータの出力を、そのトランザクションに関する前記決定されたスレーブ・デバイスが、前記書込みデータを求める要求を発行するまで、遅延させるように構成される請求項1から15までのいずれか一項に記載のデータ処理システム。
  17. 決定された各スレーブ・デバイスが前記書込みデータを求める前記要求を発行する、決定された各スレーブ・デバイスと前記マスタ・デバイスの間のハンドシェーク機構を更に備える請求項16に記載のデータ処理システム。
  18. 前記マスタ・デバイスは、前記書込みデータが記憶されるキャッシュ・ストレージを備え、前記決定されたスレーブ・デバイスによって発行される前記書込みデータを求める前記要求は、前記要求された書込みデータが前記キャッシュ・ストレージから退去させられるように構成される請求項16に記載のデータ処理システム。
  19. 前記相互接続回路は、
    前記複数のトランザクションの実行中に各スレーブ・デバイスによって発行された前記応答を前記マスタ・デバイスにルーティングするように構成された応答ルーティング回路と、
    前記要求配信回路に関連付けられ、前記要求配信回路が、前記マルチトランザクション要求を、異なるスレーブ・デバイスに対して発行される複数のトランザクション要求に分割すると決定されると、異なるスレーブ・デバイスから前記応答ルーティング回路を介して応答が戻されることに起因する前記応答ルーティング回路内の競合を低減しようと努めるために、前記複数のトランザクション要求に関して競合低減対策を適用するように構成された競合緩和回路とを更に備える請求項1から18までのいずれか一項に記載のデータ処理システム。
  20. 前記競合低減対策は、前記異なるスレーブ・デバイスのそれぞれに、前記応答ルーティング回路内の異なるタイムスロットを割り当てることを備える請求項19に記載のデータ処理システム。
  21. 前記競合低減対策は、前記要求配信回路によって発行される各トランザクション要求に関連して、前記決定されたスレーブ・デバイスによって使用されるデータレートを制限するデータレート指示を与えることを備える請求項19に記載のデータ処理システム。
  22. 前記マルチトランザクション要求は、各書込みトランザクションに関して前記マスタ・デバイスから前記決定されたスレーブ・デバイスに書込みデータが書き込まれることを要求する複数の書込みトランザクションを識別し、前記マルチトランザクション要求は、各トランザクションに関して書き込まれるべき前記書込みデータ値を識別するフィールドを含む請求項1から21までのいずれか一項に記載のデータ処理システム。
  23. 前記マルチトランザクション要求は、実行されるべき複数の読取りトランザクションを識別し、各読取りデータ値が書き込まれるべきアドレスを識別するのに使用される書込みアドレス指示を更に指定し、その結果、データが、1つのアドレスから読み取られて、別の書込みトランザクション要求が発行されることなしに、次に、別のアドレスに書き込まれることを可能にする請求項1から21までのいずれか一項に記載のデータ処理システム。
  24. 前記マスタ・デバイスは、関連するマルチトランザクション書込み要求が後に続くマルチトランザクション読取り要求を発行するように構成され、
    前記要求配信回路は、前記マルチトランザクション読取り要求及び前記関連するマルチトランザクション書込み要求に応答して、データが1つのアドレスから読み取られ、次に、別のアドレスに書き込まれるようにするよう、決定された各スレーブ・デバイスに対してトランザクション要求を発行するように構成される請求項1から21までのいずれか一項に記載のデータ処理システム。
  25. 前記関連付けられたマルチトランザクション書込み要求は、前記要求配信回路が、前記関連付けられたマルチトランザクション書込み要求を、前記マルチトランザクション読取り要求に関連付けられているものとして識別することを可能にするために、前記マルチトランザクション読取り要求のために使用されるのと同一の基本トランザクション識別子を指定するように構成される請求項24に記載のデータ処理システム。
  26. マスタ・デバイスと複数のスレーブ・デバイスを相互接続して、前記マスタ・デバイスから要求が行われると、前記複数のスレーブ・デバイスによってトランザクションが実行されることを可能にするための相互接続回路であって、
    前記マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を受信するように構成されたマスタ・インターフェースであって、前記マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与えるマスタ・インターフェースと、
    前記複数のトランザクションのそれぞれに関して、前記トランザクションを実行することを要求される前記スレーブ・デバイスを決定するために前記アドレス情報及び前記数量指示を解析するように構成され、決定された各スレーブ・デバイスに対して、前記複数のトランザクションの中で前記決定されたスレーブ・デバイスによって実行されるべき前記トランザクションを識別するトランザクション要求を発行するように更に構成された要求配信回路と、
    前記マスタ・デバイスに、決定された各スレーブ・デバイスから与えられる、前記決定されたスレーブ・デバイスによって実行された各トランザクションの完了を識別する応答をルーティングするように構成された応答ルーティング回路であって、決定された各スレーブ・デバイスは、他の任意の決定されたスレーブ・デバイスからの前記応答とは無関係に前記決定された各スレーブ・デバイスの応答を与え、各応答は、基本トランザクション識別子から決定されたトランザクション識別子と、トランザクション固有の情報とを含み、前記マスタ・デバイスが、前記マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にする応答ルーティング回路とを備える相互接続回路。
  27. マスタ・デバイスと、
    複数のキャッシュ・ストレージ・デバイスと、
    前記マスタ・デバイスを前記複数のキャッシュ・ストレージ・デバイスに結合して、前記マスタ・デバイスによって指定されたキャッシュ・メンテナンス動作が、前記複数のキャッシュ・ストレージ・デバイスによって実行されることを可能にするように構成された相互接続回路とを備えるデータ処理システムであって、
    前記マスタ・デバイスは、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行するように構成され、前記マルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、前記複数のトランザクションのそれぞれは、前記トランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定し、
    前記相互接続回路は、前記複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ・デバイスのうちのいずれが前記トランザクションを実行することを要求されるかを決定するために前記アドレス情報及び前記数量指示を解析するように構成され、前記複数のキャッシュ・ストレージ・デバイスのそれぞれに対して、前記複数のトランザクションの中で前記複数のキャッシュ・ストレージ・デバイスのそれぞれによって実行されるべき前記トランザクションを識別するトランザクション要求を発行するように更に構成された要求配信回路を含み、
    前記データ処理システムは、
    前記複数のトランザクションの実行中に前記複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、前記マスタ・デバイスに進行情報を与えて、前記複数のトランザクションがいつ完了されたかを前記マスタ・デバイスが決定することを可能にするように構成されたキャッシュ・メンテナンス追跡回路を備え
    前記要求配信回路によって発行される前記トランザクション要求は、少なくとも1つのマルチトランザクション要求を含み、前記少なくとも1つのマルチトランザクション要求のそれぞれは、前記マルチトランザクション要求が発行された前記キャッシュ・ストレージ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別する、データ処理システム。
  28. 前記アドレス情報は、基本アドレスを備え、前記マルチトランザクション要求によって識別される各トランザクションに関する前記アドレスは、前記基本アドレスを基準として決定される請求項27に記載のデータ処理システム。
  29. 更なるマスタ・デバイスを更に備えるデータ処理システムであって、前記複数のキャッシュ・ストレージ・デバイスは、前記マスタ・デバイスと前記更なるマスタ・デバイスによって共有される少なくとも1つのキャッシュ・ストレージ・デバイスを備える請求項27又は28に記載のデータ処理システム。
  30. 更なるマスタ・デバイスを更に備えるデータ処理システムであって、前記複数のキャッシュ・ストレージ・デバイスは、前記更なるマスタ・デバイスによってアクセスされるようにデータをキャッシュするために前記更なるマスタ・デバイスに関連して提供される少なくとも1つのキャッシュ・ストレージ・デバイスを備える請求項27又は28に記載のデータ処理システム。
  31. 前記要求配信回路は、前記複数のトランザクション要求のそれぞれによって指定された前記キャッシュ・メンテナンス動作を実行するために前記複数のキャッシュ・ストレージ・デバイスに関してスヌープ動作を実行するように構成されたスヌープ回路を備える請求項27から30までのいずれか一項に記載のデータ処理システム。
  32. 前記スヌープ回路は、複数のスヌープ回路を備え、各スヌープ回路は、異なるアドレス範囲に関連付けられ、前記要求配信回路は、前記複数のトランザクションのそれぞれに関して、前記複数のスヌープ回路のいずれが前記トランザクションによって指定される前記キャッシュ・メンテナンス動作を実行することを要求されるかを決定するために前記アドレス情報及び前記数量指示を解析し、前記決定に依存して各スヌープ回路に対して別々のトランザクション要求を発行するように構成された第1のステージ要求配信回路を更に備える請求項31に記載のデータ処理システム。
  33. 前記キャッシュ・メンテナンス追跡回路は、前記複数のスヌープ回路のそれぞれの内部に備えられたキャッシュ・メンテナンス追跡回路を備え、各キャッシュ・メンテナンス追跡回路は、前記関連付けられたスヌープ回路によって扱われる前記トランザクションによって指定された前記キャッシュ・メンテナンス動作の実行中に前記複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、他の各キャッシュ・メンテナンス追跡回路から与えられる前記進行情報とは無関係に前記マスタ・デバイスに進行情報を与えるように構成される請求項32に記載のデータ処理システム。
  34. 前記スヌープ回路は、各キャッシュ・ストレージ・デバイスに関して、前記キャッシュ・ストレージ・デバイスの中に記憶されたデータのアドレスのアドレス指示を保持するように構成されたスヌープ・フィルタを備え、トランザクションのために実行される前記スヌープ動作は、前記トランザクションによって指定される前記アドレスを使用して前記スヌープ・フィルタ内でルックアップ動作を実行すること、及び、各キャッシュ・ストレージ・デバイスに関して、前記アドレスが、前記キャッシュ・ストレージ・デバイスのために前記スヌープ・フィルタによって保持される前記アドレス指示のうちの1つと合致することを前記ルックアップ動作が示す場合、前記キャッシュ・ストレージ・デバイスに対してスヌープ要求を発行することを備える請求項31から33までのいずれか一項に記載のデータ処理システム。
  35. 前記スヌープ・フィルタは、複数のエントリを備え、各エントリは、アドレス指示と、トランザクションの前記アドレスが前記アドレス指示と合致した場合、前記複数のキャッシュ・ストレージ・デバイスのうちのいずれに対してスヌープ要求が発行されるべきかを示すキャッシュ識別子情報とを記憶する請求項34に記載のデータ処理システム。
  36. 前記スヌープ・フィルタは、セット・アソシアティブ型のストレージであり、各トランザクションの前記アドレスのインデックス部分は、アドレス指示が前記アドレスと比較されるべき前記スヌープ・フィルタ内のエントリを識別するのに使用され、
    前記マルチトランザクション要求によって指定された前記複数のトランザクションが、前記複数のトランザクションを処理する際に前記スヌープ・フィルタの各エントリを複数回、参照することを要求するのに十分なだけ広いアドレス範囲と関係する場合、前記スヌープ回路は、前記スヌープ・フィルタの各エントリがルックアップを1回、受けるために、前記スヌープ・フィルタ内の修正されたルックアップ動作を適用するように構成され、前記エントリから得られた前記アドレス指示のいくつかのビットがマスクされ、次に、前記トランザクションのうちの複数と共通するマスクされたアドレスと比較され、その比較が合致を示す場合、前記スヌープ・フィルタの前記エントリに関連付けられたキャッシュ識別子情報によって示される各キャッシュ・ストレージ・デバイスに対してスヌープ要求が発行される請求項34又は35に記載のデータ処理システム。
  37. 各キャッシュ・ストレージ・デバイスは、複数のキャッシュ・エントリを有するセット・アソシアティブ型のキャッシュ・ストレージ・デバイスであり、各キャッシュ・エントリは、アドレス指示と、1つ又は複数の関連付けられたデータ値とを備え、各トランザクションによって指定される前記キャッシュ・メンテナンス動作を実行する際、前記トランザクションの前記アドレスのインデックス部分が、アドレス指示が前記アドレスと比較されるべきキャッシュ・エントリを識別するのに使用され、
    キャッシュ・ストレージ・デバイスが、前記キャッシュ・ストレージ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別するマルチトランザクション要求を前記要求配信回路から受信し、且つ前記複数のトランザクションのうちの前記複数が、前記複数のトランザクションのうちの前記複数によって指定される前記キャッシュ・メンテナンス動作を実行する際、前記キャッシュ・ストレージ・デバイスの各キャッシュ・エントリを複数回、参照することを要求するのに十分なだけ広いアドレス範囲と関係する場合、前記キャッシュ・ストレージ・デバイスは、各キャッシュ・エントリがルックアップを1回、受けるために、修正されたキャッシュ・ルックアップ動作を適用するように構成され、前記キャッシュ・エントリから得られた前記アドレス指示のいくつかのビットがマスクされ、次に、前記トランザクションのうちの複数と共通するマスクされたアドレスと比較され、前記比較が合致を示す場合、前記キャッシュ・エントリにおける前記1つ又は複数のデータ値が、前記キャッシュ・メンテナンス動作の対象とされる、請求項27から36までのいずれか一項に記載のデータ処理システム。
  38. 前記キャッシュ・メンテナンス追跡回路は、前記マルチトランザクション要求によって指定された前記複数のトランザクションの全てが実行されると、前記マスタ・デバイスに対する前記進行情報として単一の組み合わされた応答を与えるように構成される請求項27から37までのいずれか一項に記載のデータ処理システム。
  39. 前記キャッシュ・メンテナンス追跡回路は、前記マスタ・デバイスに対する前記進行情報として、進行情報の複数の別々のアイテムを与えるように構成され、進行情報の各アイテムは、カウント値を与え、前記マスタ・デバイスは、前記複数のトランザクションがいつ完了されたかを決定するために、受信された前記カウントを累算するように構成される請求項27から37までのいずれか一項に記載のデータ処理システム。
  40. マスタ・デバイスと複数のキャッシュ・ストレージ・デバイスを相互接続して、前記マスタ・デバイスによって指定されたキャッシュ・メンテナンス動作が、前記複数のキャッシュ・ストレージ・デバイスによって実行されることを可能にするための相互接続回路であって、
    前記マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を受信するように構成されたマスタ・インターフェースであって、前記マルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、前記複数のトランザクションのそれぞれは、前記トランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定するマスタ・インターフェースと、
    前記複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ・デバイスのいずれが前記トランザクションを実行することを要求されるかを決定するために前記アドレス情報及び前記数量指示を解析するように構成され、前記複数のキャッシュ・ストレージ・デバイスのそれぞれに対して、前記複数のトランザクションの中で前記複数のキャッシュ・ストレージ・デバイスのそれぞれによって実行されるべき前記トランザクションを識別するトランザクション要求を発行するように更に構成された要求配信回路と、
    前記複数のトランザクションの実行中に前記複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、前記マスタ・デバイスに進行情報を与えて、前記複数のトランザクションがいつ完了されたかを前記マスタ・デバイスが決定することを可能にするように構成されたキャッシュ・メンテナンス追跡回路とを備え
    前記要求配信回路によって発行される前記トランザクション要求は、少なくとも1つのマルチトランザクション要求を含み、前記少なくとも1つのマルチトランザクション要求のそれぞれは、前記マルチトランザクション要求が発行された前記キャッシュ・ストレージ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別する、相互接続回路。
  41. マスタ・デバイスと、複数のスレーブ・デバイスと、前記マスタ・デバイスを前記複数のスレーブ・デバイスに結合して、前記マスタ・デバイスから要求が行われると、前記複数のスレーブ・デバイスによってトランザクションが実行されることを可能にする相互接続回路とを備えるデータ処理システム内で前記トランザクションを実行する方法であって、
    前記マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することであって、前記マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与えることと、
    前記相互接続回路内で、前記複数のトランザクションのそれぞれに関して、前記トランザクションを実行することを要求される前記スレーブ・デバイスを決定するために前記アドレス情報及び前記数量指示を解析し、決定された各スレーブ・デバイスに対して、前記複数のトランザクションの中で前記決定されたスレーブ・デバイスによって実行されるべき前記トランザクションを識別するトランザクション要求を発行することと、
    前記マスタ・デバイスに対して、決定された各スレーブ・デバイスから、前記決定されたスレーブ・デバイスによって実行された各トランザクションの完了を識別する応答を発行することであって、決定された各スレーブ・デバイスは、他の任意の決定されたスレーブ・デバイスからの応答とは無関係に前記決定された各スレーブ・デバイスの応答を与え、各応答は、前記基本トランザクション識別子から決定されたトランザクション識別子と、トランザクション固有の情報とを含み、前記マスタ・デバイスが、前記マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にする、発行することとを備える方法。
  42. マスタ手段と、
    複数のスレーブ手段と、
    前記マスタ手段を前記複数のスレーブ手段に結合して、前記マスタ手段から要求が行われると、前記複数のスレーブ手段によってトランザクションが実行されることを可能にするための相互接続手段とを備えるデータ処理システムであって、
    前記マスタ手段は、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することを目的とし、前記マルチトランザクション要求は、基本トランザクション識別子と、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、
    前記相互接続手段は、前記複数のトランザクションのそれぞれに関して、前記トランザクションを実行することを要求される前記スレーブ手段を決定するために前記アドレス情報及び前記数量指示を解析することを目的とし、決定された各スレーブ手段に対して、前記複数のトランザクションの中で前記決定されたスレーブ手段によって実行されるべき前記トランザクションを識別するトランザクション要求を発行することを更に目的とする要求配信手段を含み、
    決定された各スレーブ手段は、マスタ手段に、前記決定されたスレーブ手段によって実行された各トランザクションの完了を識別する応答を与えることを目的とし、決定された各スレーブ手段は、他の任意の決定されたスレーブ手段からの前記応答とは無関係に前記決定された各スレーブ手段の応答を与えることを目的とし、各応答は、前記基本トランザクション識別子から決定されたトランザクション識別子と、トランザクション固有の情報とを含み、前記マスタ手段が、前記マルチトランザクション要求内で識別される各トランザクションの完了を識別することを可能にするデータ処理システム。
  43. マスタ・デバイスと、複数のキャッシュ・ストレージ・デバイスと、前記マスタ・デバイスを前記複数のキャッシュ・ストレージ・デバイスに結合して、前記マスタ・デバイスによって指定されたキャッシュ・メンテナンス動作が、前記複数のキャッシュ・ストレージ・デバイスによって実行されることを可能にし、要求配信回路を含む相互接続回路とを備えるデータ処理システム内で前記キャッシュ・メンテナンス動作を実行する方法であって、
    前記マスタ・デバイスから、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することであって、前記マルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、前記複数のトランザクションのそれぞれは、前記トランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定する、発行することと、
    前記要求配信回路内で、前記複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ・デバイスのうちのいずれが前記トランザクションを実行することを要求されるかを決定するために前記アドレス情報及び前記数量指示を解析し、前記複数のキャッシュ・ストレージ・デバイスのそれぞれに対して、前記複数のトランザクションの中で前記複数のキャッシュ・ストレージ・デバイスのそれぞれによって実行されるべき前記トランザクションを識別するトランザクション要求を発行することと、
    前記相互接続回路内で、前記複数のトランザクションの実行中に前記複数のキャッシュ・ストレージ・デバイスから進行指示を受信し、前記マスタ・デバイスに進行情報を与えて、前記複数のトランザクションがいつ完了されたかを前記マスタ・デバイスが決定することを可能にすることとを備え
    前記要求配信回路によって発行される前記トランザクション要求は、少なくとも1つのマルチトランザクション要求を含み、前記少なくとも1つのマルチトランザクション要求のそれぞれは、前記マルチトランザクション要求が発行された前記キャッシュ・ストレージ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別する、方法。
  44. マスタ手段と、
    複数のキャッシュ・ストレージ手段と、
    前記マスタ手段を前記複数のキャッシュ・ストレージ手段に結合して、前記マスタ手段によって指定されたキャッシュ・メンテナンス動作が、前記複数のキャッシュ・ストレージ手段によって実行されることを可能にするための相互接続手段とを備えるデータ処理システムであって、
    前記マスタ手段は、実行されるべき複数のトランザクションを識別するマルチトランザクション要求を発行することを目的とし、前記マルチトランザクション要求は、実行されるべきトランザクションの数を示す数量指示と、アドレス情報とを与え、前記複数のトランザクションのそれぞれは、前記トランザクションに関連付けられたアドレスにおいて実行されるべきキャッシュ・メンテナンス動作を指定し、
    前記相互接続手段は、前記複数のトランザクションのそれぞれに関して、前記複数のキャッシュ・ストレージ手段のうちのいずれが前記トランザクションを実行することを要求されるかを決定するために前記アドレス情報及び前記数量指示を解析することを目的とし、前記複数のキャッシュ・ストレージ手段のそれぞれに対して、前記複数のトランザクションの中で前記複数のキャッシュ・ストレージ手段のそれぞれによって実行されるべき前記トランザクションを識別するトランザクション要求を発行することを更に目的とする要求配信手段を含み、
    前記データ処理システムは、
    前記複数のトランザクションの実行中に前記複数のキャッシュ・ストレージ手段から進行指示を受信するため、及び前記マスタ手段に進行情報を与えて、前記複数のトランザクションがいつ完了されたかを前記マスタ手段が決定することを可能にするためのキャッシュ・メンテナンス追跡手段を備え
    前記要求配信手段によって発行される前記トランザクション要求は、少なくとも1つのマルチトランザクション要求を含み、前記少なくとも1つのマルチトランザクション要求のそれぞれは、前記マルチトランザクション要求が発行された前記キャッシュ・ストレージ・デバイスによって実行されることが要求される前記複数のトランザクションのうちの複数を識別する、データ処理システム。
JP2016544675A 2014-01-13 2015-01-06 複数のトランザクションを扱うためのデータ処理システム及びデータ処理方法 Active JP6574779B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB1400503.7A GB2522057B (en) 2014-01-13 2014-01-13 A data processing system and method for handling multiple transactions
GB1400503.7 2014-01-13
PCT/GB2015/050009 WO2015104535A1 (en) 2014-01-13 2015-01-06 A data processing system and method for handling multiple transactions

Publications (2)

Publication Number Publication Date
JP2017504897A JP2017504897A (ja) 2017-02-09
JP6574779B2 true JP6574779B2 (ja) 2019-09-11

Family

ID=50191219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016544675A Active JP6574779B2 (ja) 2014-01-13 2015-01-06 複数のトランザクションを扱うためのデータ処理システム及びデータ処理方法

Country Status (9)

Country Link
US (1) US9830294B2 (ja)
EP (1) EP3095037B1 (ja)
JP (1) JP6574779B2 (ja)
KR (1) KR102319809B1 (ja)
CN (1) CN105900076B (ja)
GB (1) GB2522057B (ja)
IL (1) IL245841B (ja)
TW (1) TWI651620B (ja)
WO (1) WO2015104535A1 (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102428563B1 (ko) * 2015-09-30 2022-08-03 삼성전자주식회사 수눕 작동을 관리하는 코히런트 인터커넥트와 이를 포함하는 데이터 처리 장치들
US10157133B2 (en) 2015-12-10 2018-12-18 Arm Limited Snoop filter for cache coherency in a data processing system
US10417218B2 (en) 2015-12-23 2019-09-17 Intel Corporation Techniques to achieve ordering among storage device transactions
WO2017136455A1 (en) * 2016-02-01 2017-08-10 Qualcomm Incorporated Scalable, high-efficiency, high-speed serialized interconnect
US10159053B2 (en) 2016-02-02 2018-12-18 Qualcomm Incorporated Low-latency low-uncertainty timer synchronization mechanism across multiple devices
MX2018008949A (es) * 2016-02-26 2018-09-03 Micro Motion Inc Metodo de comunicacion con dos o mas esclavos.
US9817760B2 (en) 2016-03-07 2017-11-14 Qualcomm Incorporated Self-healing coarse-grained snoop filter
US9990292B2 (en) * 2016-06-29 2018-06-05 Arm Limited Progressive fine to coarse grain snoop filter
CN108228647B (zh) 2016-12-21 2022-05-24 伊姆西Ip控股有限责任公司 用于数据拷贝的方法和设备
US10042766B1 (en) 2017-02-02 2018-08-07 Arm Limited Data processing apparatus with snoop request address alignment and snoop response time alignment
US10795820B2 (en) * 2017-02-08 2020-10-06 Arm Limited Read transaction tracker lifetimes in a coherent interconnect system
US10402349B2 (en) 2017-02-08 2019-09-03 Arm Limited Memory controller having data access hint message for specifying the given range of one or more memory addresses
WO2018170391A1 (en) * 2017-03-17 2018-09-20 Convida Wireless, Llc Distributed transaction management in a network service layer
US10692077B2 (en) 2017-10-25 2020-06-23 Mastercard International Incorporated Method and system for conveyance of machine readable code data via payment network
CN107809480A (zh) * 2017-10-25 2018-03-16 上海瀚银信息技术有限公司 一种交易整流系统
EP3496020A1 (en) * 2017-12-08 2019-06-12 CoreLedger AG Method for carrying out transactions
GB2569304B (en) * 2017-12-12 2020-05-13 Advanced Risc Mach Ltd Regulation for atomic data access requests
US11347667B2 (en) * 2018-01-10 2022-05-31 Qualcomm Incorporated Bus controller and related methods
KR102007117B1 (ko) * 2018-01-19 2019-08-02 전북대학교산학협력단 트랜잭션 처리 방법 및 트랜잭션 처리 시스템
US10761985B2 (en) * 2018-08-02 2020-09-01 Xilinx, Inc. Hybrid precise and imprecise cache snoop filtering
EP3644190B1 (en) * 2018-10-22 2021-06-23 Arm Ltd I/o coherent request node for data processing network with improved handling of write operations
US10783080B2 (en) * 2018-10-29 2020-09-22 Arm Limited Cache maintenance operations in a data processing system
US10657055B1 (en) * 2018-12-13 2020-05-19 Arm Limited Apparatus and method for managing snoop operations
US10936048B2 (en) 2019-03-29 2021-03-02 Intel Corporation System, apparatus and method for bulk register accesses in a processor
US10970225B1 (en) * 2019-10-03 2021-04-06 Arm Limited Apparatus and method for handling cache maintenance operations
CN113448899B (zh) * 2020-03-25 2024-09-06 瑞昱半导体股份有限公司 借助于交易辨识码的属性来控制数据响应的方法以及系统
US11281403B2 (en) * 2020-03-26 2022-03-22 Arm Limited Circuitry and method
JP2020173852A (ja) * 2020-07-10 2020-10-22 マイクロ モーション インコーポレイテッド 2つ以上のスレーブとの通信
EP4211566A1 (en) * 2020-10-26 2023-07-19 Google LLC Modulating credit allocations in memory subsystems
CN112491855B (zh) * 2020-11-19 2023-04-07 中国联合网络通信集团有限公司 一种handle标识解析状态的确定方法及装置
KR102326892B1 (ko) * 2020-11-25 2021-11-16 오픈엣지테크놀로지 주식회사 적응형 트랜잭션 처리 방법 및 이를 위한 장치
US11899607B2 (en) * 2021-06-01 2024-02-13 Arm Limited Sending a request to agents coupled to an interconnect
TWI813316B (zh) * 2022-05-31 2023-08-21 瑞昱半導體股份有限公司 多端資料存取控制方法與資料存取系統
GB2620198B (en) * 2022-07-01 2024-07-24 Advanced Risc Mach Ltd Coherency control
KR102697009B1 (ko) * 2023-08-02 2024-08-21 주식회사 에이젠글로벌 분산된 워크플로우를 기반으로 트랜잭션을 분석하는 방법 및 이러한 방법을 수행하는 장치
KR102697008B1 (ko) * 2023-08-02 2024-08-21 주식회사 에이젠글로벌 분산된 워크플로우를 기반으로 트랜잭션을 분석하기 위한 큐 분리 방법 및 이러한 방법을 수행하는 장치

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075740A (en) 1998-10-27 2000-06-13 Monolithic System Technology, Inc. Method and apparatus for increasing the time available for refresh for 1-t SRAM compatible devices
US6665730B1 (en) * 1999-12-16 2003-12-16 At&T Corp. Method and apparatus for transaction routing in a connection-oriented packet network using a non-fault-tolerant directory server
US6928520B2 (en) 2000-04-30 2005-08-09 Hewlett-Packard Development Company, L.P. Memory controller that provides memory line caching and memory transaction coherency by using at least one memory controller agent
US20030020397A1 (en) * 2001-06-28 2003-01-30 Lite Array Inc. Enhancement of luminance and life in electroluminescent devices
GB0122401D0 (en) 2001-09-17 2001-11-07 Ttp Communications Ltd Interfacing processors with external memory
ITRM20020281A1 (it) 2002-05-20 2003-11-20 Micron Technology Inc Metodo ed apparecchiatura per accesso rapido di memorie.
CN1174584C (zh) * 2002-08-13 2004-11-03 北京长城鼎兴网络通信技术有限公司 一种利用串行总线实现多点通信的方法
US6981088B2 (en) 2003-03-26 2005-12-27 Lsi Logic Corporation System and method of transferring data words between master and slave devices
US7159084B1 (en) 2003-12-30 2007-01-02 Altera Corporation Memory controller
US7475168B2 (en) 2004-03-11 2009-01-06 Sonics, Inc. Various methods and apparatus for width and burst conversion
US7543088B2 (en) 2004-03-11 2009-06-02 Sonics, Inc. Various methods and apparatuses for width and burst conversion
US20050253858A1 (en) 2004-05-14 2005-11-17 Takahide Ohkami Memory control system and method in which prefetch buffers are assigned uniquely to multiple burst streams
US20070011396A1 (en) 2005-06-30 2007-01-11 Utstarcom, Inc. Method and apparatus for bandwidth efficient and bounded latency packet buffering
GB2440758B (en) 2006-08-08 2011-03-30 Advanced Risc Mach Ltd Interconnect logic for a data processing apparatus
US7984202B2 (en) * 2007-06-01 2011-07-19 Qualcomm Incorporated Device directed memory barriers
GB2450148A (en) * 2007-06-14 2008-12-17 Advanced Risc Mach Ltd Controlling write transactions between initiators and recipients via interconnect logic
US8438320B2 (en) 2007-06-25 2013-05-07 Sonics, Inc. Various methods and apparatus for address tiling and channel interleaving throughout the integrated system
CN102077172A (zh) * 2008-07-02 2011-05-25 Nxp股份有限公司 使用运行时间任务调度的多处理器电路
GB2473505B (en) * 2009-09-15 2016-09-14 Advanced Risc Mach Ltd A data processing apparatus and a method for setting priority levels for transactions
GB2474446A (en) * 2009-10-13 2011-04-20 Advanced Risc Mach Ltd Barrier requests to maintain transaction order in an interconnect with multiple paths
US8972995B2 (en) 2010-08-06 2015-03-03 Sonics, Inc. Apparatus and methods to concurrently perform per-thread as well as per-tag memory access scheduling within a thread and across two or more threads
US8656078B2 (en) * 2011-05-09 2014-02-18 Arm Limited Transaction identifier expansion circuitry and method of operation of such circuitry
US20130318308A1 (en) * 2012-05-24 2013-11-28 Sonics, Inc. Scalable cache coherence for a network on a chip

Also Published As

Publication number Publication date
IL245841A0 (en) 2016-07-31
GB2522057A (en) 2015-07-15
CN105900076A (zh) 2016-08-24
WO2015104535A1 (en) 2015-07-16
JP2017504897A (ja) 2017-02-09
GB2522057B (en) 2021-02-24
US9830294B2 (en) 2017-11-28
KR20160107233A (ko) 2016-09-13
CN105900076B (zh) 2019-12-06
IL245841B (en) 2018-12-31
TWI651620B (zh) 2019-02-21
KR102319809B1 (ko) 2021-11-01
EP3095037A1 (en) 2016-11-23
EP3095037B1 (en) 2018-08-08
GB201400503D0 (en) 2014-02-26
US20150199290A1 (en) 2015-07-16
TW201539196A (zh) 2015-10-16

Similar Documents

Publication Publication Date Title
JP6574779B2 (ja) 複数のトランザクションを扱うためのデータ処理システム及びデータ処理方法
US9513904B2 (en) Computer processor employing cache memory with per-byte valid bits
KR100465583B1 (ko) 판독 요청을 원격 처리 노드에 추론적으로 전송하는 비정형 메모리 액세스 데이터 처리 시스템 및 이 시스템에서의 통신 방법
US7600078B1 (en) Speculatively performing read transactions
US20200117395A1 (en) Multi-processor bridge with cache allocate awareness
US20160055096A1 (en) Multi-Processor, Multi-Domain, Multi-Protocol Cache Coherent Speculation Aware Shared Memory Controller and Interconnect
EP0886225A1 (en) Microprocessor architecture capable of supporting multiple heterogenous processors
CN103729306B (zh) 高速缓存块无效的方法和数据处理设备
US20020053004A1 (en) Asynchronous cache coherence architecture in a shared memory multiprocessor with point-to-point links
US8904045B2 (en) Opportunistic improvement of MMIO request handling based on target reporting of space requirements
JPH09114736A (ja) パケット交換型キャッシュコヒーレントマルチプロセッサシステムのデータプロセッサ用高速デュアルポート型キャッシュコントローラ
US20070288694A1 (en) Data processing system, processor and method of data processing having controllable store gather windows
JPH09101943A (ja) パケット交換型キャッシュコヒーレントマルチプロセッサシステム
IE990755A1 (en) Non-uniform memory access (numa) data processing system that speculatively issues requests on a node interconnect
US11321248B2 (en) Multiple-requestor memory access pipeline and arbiter
US20170048358A1 (en) Register files for i/o packet compression
JP2000250883A (ja) 不均等メモリ・アクセス・システムにおいてトランザクションのキャンセルによるデータ損失を避けるための方法およびシステム
US6622218B2 (en) Cache coherence protocol engine and method for efficient processing of interleaved memory transactions in a multiprocessor system
KR20210041485A (ko) 데이터 신호 경로 및 태그 신호 경로를 갖는 메모리 인터페이스
US20080109610A1 (en) Selective snooping by snoop masters to locate updated data
EP3644190A1 (en) I/o coherent request node for data processing network with improved handling of write operations
US8635411B2 (en) Data processing apparatus and method for managing coherency of cached data
US20230057633A1 (en) Systems, methods, and apparatus for transferring data between interconnected devices
JPH06318174A (ja) キャッシュ・メモリ・システム及び主メモリに記憶されているデータのサブセットをキャッシュする方法
US7089376B2 (en) Reducing snoop response time for snoopers without copies of requested data via snoop filtering

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6574779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250