JP6505132B2 - メモリ容量圧縮を利用するメモリコントローラならびに関連するプロセッサベースのシステムおよび方法 - Google Patents

メモリ容量圧縮を利用するメモリコントローラならびに関連するプロセッサベースのシステムおよび方法 Download PDF

Info

Publication number
JP6505132B2
JP6505132B2 JP2016567858A JP2016567858A JP6505132B2 JP 6505132 B2 JP6505132 B2 JP 6505132B2 JP 2016567858 A JP2016567858 A JP 2016567858A JP 2016567858 A JP2016567858 A JP 2016567858A JP 6505132 B2 JP6505132 B2 JP 6505132B2
Authority
JP
Japan
Prior art keywords
memory
data
compressed
physical buffer
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016567858A
Other languages
English (en)
Other versions
JP2017516232A (ja
JP2017516232A5 (ja
Inventor
マティウス・コーネリス・アントニウス・アドリアヌス・ヘディーズ
ナタラジャン・ヴァイディアナサン
コリン・ビートン・ヴェリリ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2017516232A publication Critical patent/JP2017516232A/ja
Publication of JP2017516232A5 publication Critical patent/JP2017516232A5/ja
Application granted granted Critical
Publication of JP6505132B2 publication Critical patent/JP6505132B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0292User address space allocation, e.g. contiguous or non contiguous base addressing using tables or multilevel address translation means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/04Addressing variable-length words or parts of words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0811Multiuser, multiprocessor or multiprocessing cache systems with multilevel cache hierarchies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/084Multiuser, multiprocessor or multiprocessing cache systems with a shared cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1041Resource optimization
    • G06F2212/1044Space efficiency improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1056Simplification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/25Using a specific main memory architecture
    • G06F2212/251Local memory within processor subsystem
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/30Providing cache or TLB in specific location of a processing system
    • G06F2212/305Providing cache or TLB in specific location of a processing system being part of a memory device, e.g. cache DRAM
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/40Specific encoding of data in memory or cache
    • G06F2212/401Compressed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • G06F2212/608Details relating to cache mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0644Management of space entities, e.g. partitions, extents, pools
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Memory System (AREA)

Description

優先権出願
本出願は、その全体が参照により本明細書に組み込まれている、2014年5月21日に出願した「MEMORY CONTROLLERS EMPLOYING MEMORY CAPACITY AND/OR BANDWIDTH COMPRESSION, AND RELATED PROCESSOR-BASED SYSTEMS AND METHODS」と題する米国仮特許出願第62/001,545号の優先権を主張するものである。
本出願は、同様に、その全体が参照により本明細書に組み込まれている、2014年12月16日に出願した「MEMORY CONTROLLERS EMPLOYING MEMORY CAPACITY AND/OR BANDWIDTH COMPRESSION, AND RELATED PROCESSOR-BASED SYSTEMS AND METHODS」と題する米国仮特許出願第62/092,326号の優先権を主張するものである。
本出願は、同様に、その全体が参照により本明細書に組み込まれている、2014年12月16日に出願した「MEMORY CONTROLLERS EMPLOYING MEMORY CAPACITY AND/OR BANDWIDTH COMPRESSION WITH NEXT READ ADDRESS PREFETCHING, AND RELATED PROCESSOR-BASED SYSTEMS AND METHODS」と題する米国仮特許出願第62/092,409号の優先権を主張するものである。
本出願は、同様に、その全体が参照により本明細書に組み込まれている、2015年5月19日に出願した「MEMORY CONTROLLERS EMPLOYING MEMORY CAPACITY COMPRESSION, AND RELATED PROCESSOR-BASED SYSTEMS AND METHODS」と題する米国特許出願第14/716,001号の優先権も主張するものである。
開示する技術は、一般に、コンピュータメモリシステムに関し、詳細には、メモリに対するメモリアクセスインターフェースを有する中央処理装置(CPU)を提供するためのコンピュータメモリシステム内のメモリコントローラに関する。
マイクロプロセッサは、多種多様なアプリケーションにおいて計算タスクを実施する。典型的なマイクロプロセッサアプリケーションは、ソフトウェア命令を実行する1つまたは複数の中央処理装置(CPU)を含む。ソフトウェア命令は、メモリ内のロケーションからデータをフェッチし、フェッチされたデータを使用して1つまたは複数のCPU動作を実施し、結果を生成するようにCPUに命令する。次いで、結果はメモリに記憶されてもよい。例として、このメモリは、CPUに局在するキャッシュ、CPUブロックにおいてCPU間で共有されるローカルキャッシュ、複数のCPUブロック間で共有されるキャッシュ、またはマイクロプロセッサのメインメモリであり得る。
この点について、図1は、CPUベースシステム12を含む例示的なシステムオンチップ(SOC)10の概略図である。CPUベースシステム12は、この例では、複数のCPUブロック14(1)〜14(N)を含み、「N」は、所望のCPUブロック14の任意の数に等しい。CPUブロック14(1)〜14(N)の各々は、それぞれ、2つのCPU 16(1)、16(2)と共有レベル2(L2)のキャッシュ18(1)〜18(N)とを含む。共有レベル3(L3)のキャッシュ20はまた、CPUブロック14(1)〜14(N)の各々のいずれかによって使用されるか、またはCPUブロック14(1)〜14(N)の各々の間で共有されるキャッシュデータを記憶するために設けられる。CPUブロック14(1)〜14(N)の各々が共有L3キャッシュ20ならびに他の共有リソースにアクセスすることを可能にする内部システムバス22が設けられる。内部システムバス22を介してCPUブロック14(1)〜14(N)によってアクセスされ得る他の共有リソースは、メイン外部メモリ(たとえば、ダブルレートダイナミックランダムアクセスメモリ(DRAM)(DDR))にアクセスするためのメモリコントローラ24と、周辺機器26と、他の記憶装置28と、高速周辺機器相互接続(PCI)(PCI-e)インターフェース30と、直接メモリアクセス(DMA)コントローラ32と、IMC34とを含むことができる。
図1のCPUベースシステム12において実行するCPUベースアプリケーションが、複雑さと性能とを増すにつれて、共有L2キャッシュ18および共有L3キャッシュ20ならびにメモリコントローラ24を介してアクセス可能な外部メモリのメモリ容量要求も増加することがある。しかしながら、CPUベースシステム内に追加のメモリ容量を設けることは、集積回路上のメモリに必要なコストと面積とを増す。たとえば、図1のCPUベースシステム12などのCPUベースシステムがSOC内に設けられるとすれば、追加のメモリ容量を付加することは、SOCパッケージングを増加させることがある。データ圧縮は、物理メモリ容量を増加することなく、CPUベースシステムの有効メモリ容量を増加するために利用されてよい。しかしながら、データ圧縮は、データが圧縮された形態で記憶され、次いでメモリアクセスの間に解凍されなければならないので、CPUメモリアクセス時間を縮小し、したがってCPU性能を低下させる。
したがって、CPUベースのアプリケーションの複雑さおよび性能要求が増加するときの物理メモリサイズの増加を軽減しながら、またCPU性能に及ぼす影響を最小化しながら、CPUベースシステムのメモリ容量を増加することが望ましいであろう。
本明細書で開示する態様は、メモリ容量圧縮を利用するメモリコントローラ、および関連するプロセッサベースのシステムおよび方法を含む。いくつかの態様では、メモリ容量圧縮をもたらすことができる圧縮メモリコントローラが利用される。いくつかの態様では、効率的な圧縮データ記憶のために物理バッファアドレスにおけるシステムメモリ内の圧縮データを可能にするために、物理アドレス(PA)から物理バッファアドレスへの追加の変換が実施される、行ベースメモリ容量圧縮方式が利用され得る。トランスレーションルックアサイドバッファ(TLB)はまた、PAからシステムメモリ内の物理バッファアドレスへの変換をより効率的に実施するために、システムメモリ内の物理バッファアドレスに対応するPAタグを備えるTLBエントリを記憶するために利用されてもよい。いくつかの態様では、行ベースメモリ容量圧縮方式、ページベースメモリ容量圧縮方式、またはハイブリッド行-ページベースメモリ容量圧縮方式が利用され得る。ゼロライン圧縮など、特別なメモリ容量圧縮方式が、データ圧縮をさらに最適化するために利用され得る。
この点について、一態様では、圧縮メモリコントローラが提供される。圧縮メモリコントローラは、システムメモリにアクセスするように構成されたメモリインターフェースを備える。圧縮メモリコントローラはまた、圧縮コントローラを備える。圧縮コントローラは、システムバスにわたってシステムメモリ内でアクセスされるべきPAを含むメモリアクセス要求を受信するように構成される。圧縮コントローラは、システムメモリ内のPAにそれぞれ対応する複数の物理バッファアドレスを含むマスターディレクトリ内のエントリにおける物理バッファアドレスにPAをマッピングすることに基づいて、受信されたメモリアクセス要求内の受信されたPAを物理バッファアドレスに変換するようにさらに構成される。圧縮コントローラはまた、受信されたメモリアクセス要求を実施するために、物理バッファアドレスに基づいてシステムメモリにアクセスするように構成される。
別の態様では、圧縮メモリコントローラが提供される。圧縮メモリコントローラは、システムメモリにアクセスするための手段と圧縮するための手段とを含む。圧縮するための手段は、システムバスにわたってシステムメモリ内でアクセスされるべきPAを含むメモリアクセス要求を受信するためのものである。圧縮するための手段はまた、受信されたメモリアクセス要求を実施するために、メモリインターフェース上のPAに基づいてシステムメモリにアクセスするためのものである。圧縮するための手段はまた、システムメモリ内のPAにそれぞれ対応する複数の物理バッファアドレスを含むマスターディレクトリ内のエントリにおける物理バッファアドレスにPAをマッピングすることに基づいて、受信されたメモリアクセス要求内の受信されたPAを物理バッファアドレスに変換するためのものである。圧縮するための手段はまた、受信されたメモリアクセス要求を実施するために、システムメモリ内の物理バッファアドレスにアクセスするためのものである。
別の態様では、中央処理装置(CPU)ベースシステム内のシステムメモリへのメモリアクセス要求に対するデータを圧縮する方法が提供される。方法は、システムバスにわたってシステムメモリ内でアクセスされるべきPAを含むメモリアクセス要求を受信するステップを含む。方法は、システムメモリ内のPAにそれぞれ対応する複数の物理バッファアドレスを含むマスターディレクトリ内のエントリにおける物理バッファアドレスにPAをマッピングすることに基づいて、受信されたメモリアクセス要求内の受信されたPAを物理バッファアドレスに変換するステップをさらに含む。方法はまた、受信されたメモリアクセス要求を実施するために、物理バッファアドレスに基づいてシステムメモリにアクセスするステップを含む。
別の態様では、CPUシステムが提供される。CPUシステムは、システムバスと、システムバスに通信可能に結合された少なくとも1つのCPUコアと、システムバスに通信可能に結合された圧縮メモリコントローラとを備える。CPUシステムはまた、システムバス通信可能に結合されたシステムメモリを備える。システムメモリは、メモリデータを記憶するように構成される。CPUシステムは、タグアレイおよびデータアレイ内の複数のTLBエントリから成るトランスレーションルックアサイドバッファ(TLB)をさらに備える。複数のTLBエントリの間の各TLBエントリは、PAに対応するデータを圧縮するために、PAに対応するタグアレイ内の1つのタグとシステムメモリへの少なくとも1つの物理バッファアドレスとを含む、マスターディレクトリからのエントリを記憶するように構成される。CPUシステムはまた、システムバスに通信可能に結合されたキャッシュを備える。キャッシュは、PAに対応する解凍メモリデータを記憶するようにそれぞれ構成された複数のキャッシュエントリを含む。キャッシュは、少なくとも1つのCPUコアおよびシステムバス上の圧縮メモリコントローラからのメモリアクセス要求を受信するように構成される。キャッシュは、PAがキャッシュ内のキャッシュエントリに含まれる場合、受信されたメモリアクセス要求のPAに対応するメモリデータを供給するようにさらに構成される。圧縮メモリコントローラは、システムバスにわたってシステムメモリ内でアクセスされるべきPAを含むメモリアクセス要求を受信するように構成される。メモリアクセス要求のPAが、キャッシュ内のキャッシュエントリに含まれない場合、圧縮メモリコントローラは、受信されたメモリアクセス要求に対するPAがTLB内のTLBエントリに含まれるかどうかを決定するようにさらに構成される。PAがTLB内のTLBエントリに含まれる場合、圧縮メモリコントローラは、受信されたメモリアクセス要求内の受信されたPAを、TLBを含むTLBエントリ内の物理バッファアドレスとして変換するように構成される。PAがTLB内のTLBエントリに含まれない場合、圧縮メモリコントローラは、受信されたメモリアクセス要求内の受信されたPAを、マスターディレクトリ内のPAに対応するエントリにおける物理バッファアドレスとして変換するように構成される。圧縮メモリコントローラは、受信されたメモリアクセス要求を実施するために、物理バッファアドレスに基づいてシステムメモリにアクセスするようにさらに構成される。
他の態様では、小さいデータブロック圧縮に好適であり得る圧縮の方法およびフォーマットが開示される。これらの圧縮の方法およびフォーマットは、本明細書で開示するメモリ容量および/またはメモリ帯域幅の圧縮の態様に利用され得る。
これらの圧縮メモリコントローラおよび圧縮方式の一部または全部を用いて、CPUベースアプリケーションの複雑さおよび性能要求が増加するときの物理メモリサイズの増加を軽減しながら、またCPU性能に及ぼす影響を最小化しながら、CPUベースシステムのメモリ容量を増加することが可能になる。
中央処理装置(CPU)ベースシステムを含む例示的なシステムオンチップ(SOC)の概略図である。 複数のCPUとメモリ容量および/またはメモリ帯域幅の圧縮を利用する圧縮メモリコントローラとを有する例示的なCPUベースシステムを含むSOCの概略図である。 圧縮メモリコントローラが、さらに、メモリ容量および/またはメモリ帯域幅の圧縮をもたらすために使用される随意の内部メモリに通信可能に結合される、図2の圧縮メモリコントローラのより詳細な概略図である。 図3の圧縮メモリコントローラによって実装され得る例示的な行ベースバッファメモリ容量圧縮方式の概略図である。 ページベースバッファメモリ容量圧縮方式を提供するために図3の圧縮メモリコントローラによってアクセス可能な圧縮メモリに記憶される例示的なデータページ(DP)の概略図である。 ページベースバッファメモリ容量圧縮方式を提供するために、物理アドレス(PA)と、圧縮メモリに記憶される圧縮データページへのデータページアドレス(DPA)とを相関させるように構成され、図3の圧縮メモリコントローラによってアクセス可能な例示的なトランスレーションルックアサイドバッファ(TLB)の概略図である。 図4〜図6に含まれるページベースまたは行ベースのバッファメモリ容量圧縮方式において利用され得る例示的なフリーリストバッファの概略図である。 図3の圧縮メモリコントローラによって実装され得る例示的なハイブリッド行/ページベースバッファメモリ容量圧縮方式の概略図である。 図8のハイブリッド行/ページベースバッファメモリ容量圧縮方式をもたらすための圧縮キャッシュラインを記憶するために、図3の圧縮メモリコントローラによってアクセス可能な圧縮メモリに記憶された、複数のメモリデータブロックをそれぞれ備える複数のデータバッファ(DB)から成る例示的なデータページ(DP)の概略図である。 メモリアクセスのために図8のハイブリッド行/ページベースバッファメモリ容量圧縮方式に従って図9の割り振られたデータページ(DP)内の割り振られたDBにPAを変換する、図3の圧縮メモリコントローラの例示的なプロセスを示すフローチャートである。 圧縮メモリコントローラ内のアドレス変換による性能損失を補償するための随意のL4キャッシュを追加で含む、図3のSOCの一例を示す図である。 L4キャッシュ内でヒットまたはミスが決定される前に、PAをルックアップするために圧縮メモリコントローラ内でL4キャッシュおよびトランスレーションルックアサイドバッファ(TLB)のプライミングを伴う、図11AのSOCの一例を示す図である。 例示的なダイナミックメモリサイジングの概略図である。 図3の圧縮メモリコントローラによって実装され得る例示的なメモリ帯域幅圧縮方式の概略図である。 圧縮メモリコントローラ内のアドレス変換による性能損失を補償するための随意のL4キャッシュを含む、図3のSOCの一例を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。 メモリデータブロックを圧縮し、圧縮されたメモリデータブロックを展開するために圧縮メモリコントローラによって使用されてよい、例示的なデータブロック圧縮フォーマットおよび方式を示す図である。
ここで図面を参照しながら、本開示のいくつかの例示的な態様について説明する。「例示的」という語は、本明細書では「一例、事例、または例示としての役割を果たすこと」を意味するために使用される。「例示的」として本明細書において説明されるいずれの態様も、必ずしも他の態様よりも好ましいか、または有利であると解釈されるとは限らない。
本明細書で開示する態様は、メモリ容量圧縮を利用するメモリコントローラならびに関連するプロセッサベースのシステムおよび方法を含む。いくつかの態様では、メモリ容量圧縮をもたらすことができる圧縮メモリコントローラが利用される。いくつかの態様では、効率的な圧縮データ記憶のために物理バッファアドレスにおけるシステムメモリ内の圧縮データを可能にするために、物理アドレス(PA)から物理バッファアドレスへの追加の変換が実施される、行ベースメモリ容量圧縮方式が利用され得る。トランスレーションルックアサイドバッファ(TLB)はまた、PAからシステムメモリ内の物理バッファアドレスへの変換をより効率的に実施するために、システムメモリ内の物理バッファアドレスに対応するPAタグを備えるTLBエントリを記憶するために利用されてもよい。いくつかの態様では、行ベースメモリ容量圧縮方式、ページベースメモリ容量圧縮方式、またはハイブリッド行-ページベースメモリ容量圧縮方式が利用され得る。ゼロライン圧縮など、特別なメモリ容量圧縮方式が、データ圧縮をさらに最適化するために利用され得る。
この点について、図2は、図1のCPUベースシステム12と同様に、複数のCPUブロック14(1)〜14(N)を有する例示的なCPUベースシステム12'を含むSOC10'の概略図である。図2のCPUベースシステム12'は、図1のCPUベースシステム12と共通のいくつかの構成要素を含み、それらは、図1と図2との間で共通の要素番号で示され、したがって再説明されない。しかしながら、図2のCPUベースシステム12'において、圧縮メモリコントローラ36が設けられる。圧縮メモリコントローラ36は、システムメモリ38へのアクセスを制御する。システムメモリ38は、非限定的な例として、1つまたは複数のダブルデータレート(DDR)ダイナミックランダムアクセスメモリ(DRAM)40(1)〜40(R)(以後、DRAM40(1)〜40(R))を備えてよい。この例の圧縮メモリコントローラ36は、本明細書で以下に開示する態様による、メモリ容量および/またはメモリ帯域幅の圧縮を利用する。以下の例示的な態様でより詳細に説明するように、圧縮メモリコントローラ36は、図1のCPUベースシステム12上で物理メモリサイズを増加する必要がないばかりでなく、CPU性能への影響を最小化するかまたは影響を及ぼさない様式で、CPUベースシステム12'がメモリ容量を効果的に増加することを可能にする。図1のCPUベースシステム12のメモリコントローラ24と同様に、図2のCPUベースシステム12'内の圧縮メモリコントローラ36は、内部システムバス22を介してCPUブロック14(1)〜14(N)によって共有される。
さらに、図2に関して、CPUブロック14(1)〜14(N)の各々の中のCPU16(1)および16(2)は、単一のハードウェアスレッドまたは複数のハードウェアスレッドを含んでよい。複数のハードウェアスレッドがCPU16(1)および16(2)の各々の中に設けられる場合、CPU16(1)および16(2)の待ち時間は、結果的に増加することがある。したがって、CPUブロック14(1)〜14(N)のCPU16(1)および16(2)の各々の中の複数のスレッドに対するスレッド情報を記憶するために、CPUベースシステム12'内のCPUブロック14(1)〜14(N)に対する共有キャッシュメモリの増加されたメモリ容量を設けることが望ましい。この点について、以下でより詳細に説明するように、CPUベースシステム12'はまた、すべてのCPUブロック14(1)〜14(N)に対する共有キャッシュメモリである圧縮キャッシュ42を含んでもよい。この例では、圧縮キャッシュ42は、L3キャッシュである。圧縮キャッシュ42を設けることによって、共有キャッシュのメモリ容量は、たとえば、図1のCPUベースシステム12内の共有L3キャッシュ20上の物理メモリサイズを増加する必要なしに、増加され得る。
したがって要約すれば、図2のCPUベースシステム12'内に圧縮メモリコントローラ36および/または圧縮キャッシュ42を設けることによって、CPUベースシステム12'のメモリ容量は、図1のCPUベースシステム12上の物理メモリサイズを増加する必要なしに、または最小限に必要な増加で、増加され得るばかりでなく、CPU性能への影響を最小化するかまたは影響を及ぼさない様式で増加され得る。本開示の残りの部分は、図2のCPUベースシステム12'内の圧縮メモリコントローラ36および/または圧縮キャッシュ42の例示的な態様および特徴を説明する。
この点について、図3は、図2の圧縮メモリコントローラ36の例示的な内部構成要素のより詳細な概略図を示す。この例では、圧縮メモリコントローラ36は、図2のCPUブロック14(1)〜14(N)を含む半導体ダイ46(1)、46(2)とは別の半導体ダイ44上に設けられる。代替として、圧縮メモリコントローラ36は、CPUブロック14(1)〜14(N)と共通の半導体ダイ内に含まれてもよい。ダイ構成とは無関係に、CPUブロック14(1)〜14(N)が、内部システムバス22を介して圧縮メモリコントローラ36にメモリアクセス要求を行い、圧縮メモリコントローラ36を介してメモリからデータを受信することができるように、圧縮メモリコントローラ36が設けられる。
引き続き図3を参照すると、圧縮メモリコントローラ36は、DRAM40(1)-40(R)として図2および図3に示すシステムメモリ38へのメモリアクセスに対する動作を制御する。圧縮メモリコントローラ36は、メモリアクセス要求をサービスするために使用される複数のDRAMインターフェース48(1)〜48(P)(たとえば、DDRインターフェース)を含む。この点について、この例の圧縮メモリコントローラ36は、圧縮コントローラ50を含む。圧縮コントローラ50は、図2のCPUブロック14(1)〜14(N)からのメモリアクセス要求に応答して、システムメモリ38に記憶されるデータを圧縮することと、システムメモリ38から取り出されたデータを展開することとを制御する。このようにして、CPUブロック14(1)〜14(N)は、圧縮メモリコントローラ36によってアクセスされるメモリの実際の容量より大きい仮想メモリアドレス空間を提供され得る。圧縮コントローラ50はまた、内部システムバス22上でCPUブロック14(1)〜14(N)に与えられる情報の帯域幅圧縮を実施するように構成され得る。
以下でより詳細に説明するように、圧縮コントローラ50は、メモリ容量および/または帯域幅の圧縮を提供するために、任意の数の圧縮技法およびアルゴリズムを実施することができる。ローカルメモリ52は、そのような圧縮技法およびアルゴリズムを実施するために圧縮コントローラ50によって必要とされるデータ構造および他の情報のために設けられる。この点について、この例のスタティックランダムアクセスメモリ(SRAM)54の形態で設けられるローカルメモリ52はまた、圧縮技法およびアルゴリズムを実施するために圧縮コントローラ50によって必要とされるデータ構造および他の情報を記憶するために、圧縮メモリコントローラ36内に設けられる。ローカルメモリ52は、圧縮技法およびアルゴリズムを実施するために圧縮コントローラ50に必要とされ得るデータ構造および他のデータ記憶に使用されるのに十分なサイズである。ローカルメモリ52はまた、圧縮メモリコントローラ36内で内部使用するための追加のキャッシュメモリを設けるために、L4キャッシュ(L4)などのキャッシュを含むように区分されてよい。したがって、L4コントローラ55もまた、L4キャッシュ(L4)へのアクセスを提供するために圧縮メモリコントローラ36内に設けられてもよい。強化された圧縮技法およびアルゴリズムは、以下でより詳細に説明するように、より大きい内部メモリを必要とすることがある。たとえば、ローカルメモリ52は、128キロバイト(kB)であることがある。
さらに、図3に示し、以下でより詳細に説明するように、随意の追加の内部メモリ56もまた、圧縮メモリコントローラ36のために設けられ得る。追加の内部メモリ56は、一例として、DRAMとして設けられてもよい。以下でより詳細に説明するように、追加の内部メモリ56は、CPUベースシステム12'のメモリ容量および/またはメモリ帯域幅の圧縮を増加するためにメモリ圧縮および展開方式を提供する圧縮メモリコントローラ36のために、追加のまたはより大きい量の、データ構造およびローカルメモリ52内とは別のデータの記憶を容易にすることができる。内部メモリコントローラ58は、圧縮に使用するための追加の内部メモリ56へのメモリアクセスを制御するために、圧縮メモリコントローラ36内に設けられる。内部メモリコントローラ58は、CPUブロック14(1)〜14(N)にアクセス可能でないかまたは可視でない。
したがって、図3に関して要約すれば、ローカルメモリ52へのアクセスを有する圧縮メモリコントローラ36と、圧縮データ構造情報の記憶に使用するための追加の内部メモリ56とを設けることで、追加の物理メモリを設けるよりも低コストで増大したメモリ容量に対するメモリ容量圧縮が提供され得る。CPUベースシステム12'の物理メモリの増加を回避することで、追加の物理メモリを設けることと比較して、電力消費が節約され、パッケージ投影面積およびコストが低減され得る。圧縮メモリコントローラ36によってもたらされるメモリ容量および/または帯域幅の圧縮は、CPUブロック14(1)〜14(N)の動作を制御するオペレーティングシステムに対してトランスペアレントである。
さらに、図3の圧縮メモリコントローラ36はまた、メモリ帯域幅圧縮およびゼロライン圧縮を実施し得る。ローカルメモリ52は、そのような圧縮に使用されるより大きいデータ構造を記憶するために使用され得る。たとえば、帯域幅圧縮は、データが同様に圧縮されない場合に、より大きいデータ構造を記憶する圧縮メモリコントローラ36によって達成されてよい。たとえば、128バイトが転送されるべきである場合、メモリ帯域幅を低減するために、64バイトが一方の帯域幅圧縮方式において転送されてよいが、128バイトブロックのうちの他方の64バイトは未使用のままであり、したがって増大した圧縮データ構造がもたらされる。しかしながら、メモリ容量圧縮が同様に利用される場合、128バイトブロックのうちの残りの64バイトは、別のメモリブロックのために再使用されることがある。増大したメモリ帯域幅は、メモリアクセス待ち時間を低減し、待ち時間に影響を与えることなく、または待ち時間への影響を最小化しながら、同じ数のメモリチャネルにアクセスするために、より多くのCPU16(1)、16(2)もしくはそれらのそれぞれのスレッドを可能にすることができる。または、そのような圧縮が圧縮メモリコントローラ36によって実施されない場合に、より大きい数のメモリチャネルと比較して、同様の待ち時間の結果を達成しながら、メモリチャネルの数が低減され得、それによってシステムレベル電力が低減される。
図3の圧縮メモリコントローラ36による使用のために追加の内部メモリ56を設けることによって、圧縮メモリコントローラ36によって圧縮を実施するために使用される、さらに大量のデータ構造およびデータが、圧縮による待ち時間の影響をさらに低減するために利用可能になり得る。追加のCPU16(1)、16(2)および/またはそれらの中のハードウェアスレッドが、図3のCPUベースシステム12'に設けられてよく、メモリチャネルの圧縮および/または低減によって有効メモリ容量が増大する。圧縮メモリコントローラ36による圧縮を実施するために使用されるデータ構造およびデータのために、より多くのメモリが必要とされる場合、追加の内部メモリ56が、上記で説明したように設けられ得る。しかしながら、追加の内部メモリ56の増大したサイズが、強化された圧縮、ならびに/あるいはより多数のCPU16(1)、16(2)および/または収容されるべきCPU16当たりに収容されるハードウェアスレッドを可能にする可能性があるとはいえ、追加の内部メモリ56は、たとえば異なる半導体ダイ上など、圧縮メモリコントローラ36の外にあるので、追加の内部メモリ56へのメモリアクセス待ち時間は、ローカルメモリ52より大きくなることがある。
図3の圧縮メモリコントローラ36内の、メモリ容量および/または帯域幅の圧縮のために設けられるリソースの各々は、ローカルメモリ52および追加の内部メモリ56を含めて、リソースと、面積、電力消費、メモリ容量圧縮によって増大するメモリ容量、およびメモリ帯域幅圧縮によって増大する性能との間で所望のバランスを達成するために、個別にまたは互いに連携して使用され得る。メモリ容量およびメモリ帯域幅の圧縮は、必要に応じて有効または無効にされ得る。さらに、圧縮メモリコントローラ36による使用のために上記で説明したリソースは、メモリ容量および/または帯域幅の圧縮効率、電力消費、ならびに性能の間で所望のトレードオフを達成するために、有効または無効にされ得る。圧縮メモリコントローラ36に対して利用可能なこれらのリソースを使用する例示的なメモリ容量および/または帯域幅の圧縮技法を、次に説明する。
次の読取りアドレスプリフェッチングを用いるメモリ容量および/または帯域幅の圧縮を利用するメモリコントローラを説明する前に、図2および図3の圧縮メモリコントローラ36によって利用され得る異なるタイプのメモリ圧縮方式のうちのいくつかの例を、図4〜図21に関して最初に説明する。次の読取りアドレスプリフェッチングを用いるメモリ容量および/または帯域幅の圧縮を利用するメモリコントローラ、ならびに関連するプロセッサベースのシステムおよび方法は、これらの異なるメモリ圧縮方式とともに利用され得る。
この点について、図4は、図3の圧縮メモリコントローラ36によって実装され得る例示的な行ベースバッファメモリ容量圧縮方式60(以後、「行ベース圧縮方式60」)の概略図である。以下でより詳細に説明するように、行ベース圧縮方式60は、図2のCPUベースシステム12'内の利用可能な物理メモリより多くのメモリ容量をもたらすために、CPUオペレーティングシステム内で使用される物理アドレス(PA)に対して、仮想アドレス(VA)を超える新しいレベルの変換を追加する。アクセスされるメモリロケーションの物理アドレス(PA)は、物理バッファアドレス(PBA)に付加的に変換される。PBAは、圧縮メモリコントローラ36によってアクセス可能な圧縮メモリ(たとえば、システムメモリ38)へのアドレス(図4のPB ADDRESS)を含み、そこにおいて、CPU16によって圧縮メモリコントローラ36に与えられるPAに対する圧縮データが存在する。したがって、圧縮メモリコントローラ36内にPBAのこの追加の変換レイヤを設けることによって、システムメモリ38は、システムメモリ38内で通常、物理的にアクセス可能であるよりも多くのPAを効率的に記憶することができる。
この点について、図4を参照すると、この行ベース圧縮方式60では、圧縮メモリコントローラ36は、システムメモリ38との間で圧縮データを記憶し、圧縮データにアクセスする。この例では、圧縮メモリコントローラ36は、メモリアクセス内でアドレス指定される各PAに対してメモリラインサイズの128バイトメモリデータブロックに一度に(解凍された形態で)アクセスするように構成される。これは、この例におけるDRAMの形態のシステムメモリ38は、128バイトに一度にアクセスするときに効率的であるからである。代替として、メモリデータブロックは、たとえば64バイトなど、他のバイト長であってもよい。本例に戻ると、圧縮メモリコントローラ36は、圧縮メモリコントローラ36によってアクセス可能な物理メモリのサイズを超えて、圧縮メモリコントローラ36を用いてアドレス可能な有効メモリ容量を増加するために、システムメモリ38内の128バイトメモリデータブロックを圧縮する。
引き続き図4を参照すると、すべての128バイトメモリデータブロックが、圧縮メモリコントローラ36によって同じ圧縮バイトサイズに圧縮され得るとは限らないことに留意されたい。メモリデータブロック内に含まれるデータの性質および利用される圧縮方式に応じて、いくつかのメモリデータブロックは、他のものより小さいサイズに圧縮されることがある。したがって、この例では、システムメモリ38は、PBAによってそれぞれアドレス可能な複数のビット長プール62(1)〜62(Q)に分割される。プール62(1)〜62(Q)はそれぞれ、物理バッファ(PB)内に圧縮された形態で128バイトデータブロックの圧縮データを記憶する。PBプール62(1)〜62(Q)の各々は、圧縮後に未使用のビットストレージを回避するために、より小さいサイズに圧縮され得るメモリデータブロックが一緒にグループ化され得るように、異なるサイズの圧縮データを記憶するように設けられる。図4ではPBプール62(1)〜62(Q)は連続的なPBにグループ化されたように示されるが、PBプール62(1)〜62(Q)が連続的なPBを含む必要性はないことに留意されたい。以下でより詳細に説明するように、PBプール62(1)〜62(Q)の各々のサイズは、圧縮メモリコントローラ36によって動的に割り当てられ得る。
この例では、PBプール62(1)は、32バイトまでに圧縮されて記憶され得る圧縮メモリデータブロックを記憶するために使用される。PBプール62(2)は、64バイトまでに圧縮されて記憶され得る圧縮メモリデータブロックを記憶するために使用される。PBプール62(3)は、96バイトまで記憶され得る圧縮メモリデータブロックを記憶するために使用される。PBプール62(4)は、128バイトまで記憶され得る圧縮メモリデータブロックを記憶するために使用され、128バイトは、元の128バイト長以下に圧縮され得ない任意のメモリデータブロックを含むことになる。PBプール62(1)〜62(Q)の各々は、圧縮メモリコントローラ36によって、PBプール62(1)〜62(Q)に対して指定されたデータ圧縮サイズ内に圧縮されたPBを含む。以下でより詳細に説明するように、PBプール62(1)〜62(Q)の各々はまた、書込みトランザクションの間にフリーPBAにおける将来のPBを記憶するために圧縮メモリコントローラ36によって使用されるべき、それのそれぞれのPBプール62(1)〜62(Q)内のフリーPBAのリストを含む、それぞれのフリーノードリスト64(1)〜64(Q)(図4に64(1)だけを示す)を含む。
与えられるPBプール62(「Q」)の数は、設計およびメモリデータブロックサイズに応じて変化し得ることに留意されたい。たとえば、メモリデータブロックサイズが256バイトの場合、8個のPBプール62が与えられてよく、各々は、圧縮メモリデータブロックを32バイトきざみで(たとえば、32バイト、64バイト、96バイト、...、256バイト)記憶するように構成される。メモリデータブロックサイズはより小さいバイトサイズに分割されるので、所与のメモリデータブロックサイズに対するPBプール62の数を増加することは、増加したメモリ圧縮比をもたらすことがあるが、同時に、より多数のPBプール62を管理するオーバーヘッドを増加することがある。さらに、メモリ設計におけるメモリデータブロックサイズを増加することは、改善されたメモリ圧縮比を達成することがあるが、同時に、所望のPBプール62(1)〜62(Q)サイズを可能にするために、PBプール62(1)〜62(Q)の各々のサイズを減少するか、またはPBプール62(1)〜62(Q)の各々を設けるために、より多くのメモリを必要とすることがある。
図4の行ベース圧縮方式60の初期化に際して、すべてのPBはフリーノードリスト64内に含まれ、どのPBも、未だPAに割り振られていないことを意味する。メモリトランザクション動作の間、圧縮メモリコントローラ36は、CPU16(図2)から受信されたPAに基づくメモリアクセスのためのPBにアクセスするために、システムメモリ38にアクセスする。圧縮メモリコントローラ36は、解凍データを内部システムバス22を介して要求するCPU16に与えるために、PBを展開することができる。代替として、圧縮メモリコントローラ36は、メモリ帯域幅圧縮を同様に実施している間、解凍された形態のPBを内部システムバス22を介して要求するCPU16に与えることができる。システムメモリ38内のPBは、PBAによってアクセス可能であるので、圧縮メモリコントローラ36は、メモリアクセス要求内のPAに対応する正しいPBにアクセスするために、メモリアクセス要求に対して受信されたPAのPBAへの変換を実施しなければならない。この点について、マスターディレクトリ66は、PAからPBAへの変換を記憶するシステムメモリ38内に設けられてよい。圧縮メモリコントローラ36は、PBの圧縮サイズに基づく書込みトランザクションの間、PBが前にPBプール62(1)〜62(Q)内で確立されて記憶されたときにPAに割り当てられた、対応するPBAを取得するために、マスターディレクトリ66内でルックアップを実施するために変換されたPAを使用する。PBAは、割り当てられたPBプール62(1)〜62(Q)内の任意のPBと関連付けられてよく、隣接するPBが隣接するPBAに対応する必要なしに、メモリアクセスが発生する任意のPBに圧縮データを記憶する柔軟性が与えられる。これは、より大きい圧縮比が達成されることを可能にする。
引き続き図4を参照すると、圧縮メモリコントローラ36が、マスターディレクトリ66がアクセスされる必要なしに、PAを最近変換されたPBAに、より速やかに変換することを可能にすることが望ましい。この点について一例では、ローカルメモリ52が、トランスレーションルックアサイドバッファ(TLB)68を提供するために、この例のn-ウェイアソシエイティブキャッシュとして構成されてよい。この点について、ローカルメモリ52内のTLB68は、n-ウェイキャッシュのように編成され得るSRAM54の形態で設けられる。TLB68は、それの中に含まれているTLBエントリ74の一部として、PAのタグ72を有するタグアレイ70を含む。データアレイ76は、各タグ72に対してマスターディレクトリ66からPBAのデータエントリおよび対応するアドレス長78をそれぞれ含む複数のTLBエントリ74を含むSRAM54内に設けられる。SRAM54内に設けられたn-ウェイアソシエイティブTLB68の幅は、TLBエントリ74の各々に記憶された所望の量のPBAならびにPBAの所望のアドレス長78を容易にするように設けられる。PBAのアドレス長78は、どの粒度(たとえば、ページ、バイトなど)に対してPBがPBプール62(1)〜62(Q)内でアクセスされるかを決定する。
この点について引き続き図4を参照すると、圧縮メモリコントローラ36は、メモリアクセスを実施するとき、SRAM54のタグアレイ70内でルックアップを実施するために変換されたPAを使用する。タグアレイ70内のTLBエントリ74が、変換されたPAと一致するタグ72を有する場合、TLBヒットがTLB68の中で発生する。したがって、マスターディレクトリ66内に含まれるPAに対応するPBAは、タグ72に対応するTLBエントリ74内のデータアレイ76内に含まれる。このシナリオでは、圧縮メモリコントローラ36は、PAをPBAに変換するためにマスターディレクトリ66にアクセスする必要はなく、したがって、システムメモリ38内のマスターディレクトリ66にアクセスすることはSRAM54にアクセスするよりも大きくなり得るので、関連する待ち時間が低減される。圧縮メモリコントローラ36は、システムメモリ38内のどのPBをアドレス指定するか、およびすべての圧縮メモリデータを記憶するためにPBに割り当てられたバイトをいくつ読み取るかを知るために、一致するTLBエントリ74内のPBAおよび対応するアドレス長78を使用することができる。トランザクションが読取りトランザクションである場合、圧縮されたラインが、PBAロケーションにおいてシステムメモリ38から読み取られる。トランザクションが書込みトランザクションである場合、圧縮データは、システムメモリ38のPB内のPBAにおいて記憶される。
図4においてTLBミスがTLB68内で発生する場合、圧縮メモリコントローラ36は、マスターディレクトリ66内でルックアップを実施するためにPAを使用する。TLBエントリ74は、置き換え方針に従ってTLB68から立ち退かされる。PAに対応するマスターディレクトリ66内のPBAは、TLB68内に置かれる。PAに対するマスターディレクトリ66から取得されたPBの開始位置およびアドレス長78は、PB内の圧縮データにアクセスするために圧縮メモリコントローラ36によって使用される。トランザクションが読取りトランザクションである場合、圧縮されたラインが、PBAロケーションにおいてシステムメモリ38から読み取られる。
トランザクションが書込みトランザクションである場合、圧縮データは、システムメモリ38のPB内のPBAにおいて記憶される。PBAにおけるPBの長さが圧縮されたラインの圧縮サイズと同じである場合、圧縮されたラインは、システムメモリ38内のPBAロケーションにおける同じPBに書き込まれ得る。PBAにおけるPBの長さが圧縮されたラインの圧縮サイズと異なる場合、圧縮メモリコントローラ36は、システムメモリ38に記憶されるべき圧縮されたラインを収容することになるシステムメモリ38に基づいて、別のPBプール62(1)〜62(Q)内のフリーノードリスト64内でフリーPBを見つけることになる。フリーノードリスト64の動作について、以下の図7でより詳細に説明する。そこにおいて説明するように、フリーPBを含むローカルプルバッファは、対応するプールのフリーノードリストから補充され得る。
SRAM54内のTLBエントリ74のサイズは、たとえば、64バイト、128バイト、または256バイトなど、任意の所望のサイズであり得る。この例では、図4に示すように、圧縮メモリコントローラ36は、システムメモリ38からSRAM54に4つのPBAを一度にロードするように構成されるので、TLBエントリ74は、マスターディレクトリ66からの4つのPBAを含む。どのPBプール62(1)〜62(4)にPBAが対応するかを示すために、図4に示すように、2ビットの符号化80が各PBA内に与えられる。次いで、圧縮メモリコントローラ36は、対応するPBプール62(1)〜62(4)内のPBAのロケーションにおける正しいPBにアクセスするために、PAに対応するPBAを使用する。
図4のこの例では、すべて0である(すなわち、ゼロライン)PAに対して、特別な場合がメモリデータに対して与えられ得る。この場合、圧縮メモリコントローラ36は、特別な場合としてSRAM54内のPAに対して、PBAをPBAアドレス0として符号化することができ、PBが割り当てられていないことを意味する。圧縮メモリコントローラ36は、PBA内の0のPBアドレスを、PAに対応するメモリデータはすべて0であるものと認識する。したがって、すべて0であるメモリデータは、PBアドレス0におけるPBは圧縮メモリコントローラ36のために使用される必要はないので、事実上0バイトに圧縮される。したがって、PBプール62(1)〜62(Q)は、すべて0であるメモリデータに対してアクセスされる必要はない。また、ゼロライン圧縮の場合にシステムメモリ38にアクセスする必要がない結果として、電力消費が低減される。
特定のPBプール62(1)〜62(Q)内の利用可能なPBが激減する場合、圧縮メモリコントローラ36は、別のPBプール62(1)〜62(Q)内の他のPBAにPAを割り当てるように構成され得る。この機能は、圧縮メモリコントローラ36によるバックグラウンドタスクの一部として提供されてよい。所与のPBプール62(1)〜62(Q)内に残りの利用可能なPBがなくなる前に、別のPBプール62(1)〜62(Q)内の他のPBAにPAを割り当てることが望ましいので、激減は、特定のPBプール62(1)〜62(Q)内の利用可能なPBがしきい値より下に低下することを意味する。所与のPBプール62(1)〜62(Q)が激減した場合、他のPBプール62(1)〜62(Q)内の他のPBが利用可能にされ得る。たとえば一例として、メモリデータが圧縮メモリコントローラ36によって32バイト以下に圧縮され得、32バイトPBプール62(1)内にもはや利用可能なPBがない場合、圧縮メモリコントローラ36は、PB分割動作において、64バイトPBプール62(2)内のPBをPBプール62(1)に対する2つの32バイトPBに再び割り当てることができる。しかしながら、一例として128バイトPBプール62(4)内にもはや利用可能PBがない場合、圧縮メモリコントローラ36は、マージPB動作において、PBプール62(4)に対する1つの128バイトPBを形成するために、64バイトPBプール62(2)内の2つのPBを再び割り当てることができる。しかしながら、64バイトPBプール62(2)内の2つの64バイトPBは、この例ではマージPB動作において128バイトPBプール62(4)に再び割り当てられるために隣接していなければならない。
行ベース圧縮方式60の1つの特徴は、PBがPBプール62(1)〜62(Q)内で(たとえば、ページごとの基準に反して)ラインごとの基準でアクセスされるので、PBA内で与えられるより大きいPBアドレスが、SRAM54に記憶されることである。したがって、より大きいビット数が各TLBエントリ74内の各PBAに記憶されるので、SRAM54によって与えられるTLB68のサイズは、結果的に大きくなることがある。圧縮メモリコントローラ36によって実施されるメモリ容量圧縮においてPAからPBAへのアドレス変換をもたらすために、より小さいTLB68を有することが望ましい。
この点について図5を参照すると、ページベースバッファメモリ容量圧縮方式82(以下、「ページベース圧縮方式82」)は、圧縮データを記憶してアクセスするために、図3の圧縮メモリコントローラ36によって実施されてよい。ページベース圧縮方式82は、図4の行ベース圧縮方式60と同様であり、図2のCPUベースシステム12'において提供されるリソースと同じものを使用することができる。したがって、本明細書で論じるページベース圧縮方式82は、図2および図3を参照することになる。以下でより詳細に説明するように、ページベース圧縮方式82を設けることは、SRAM54に記憶されるアドレスはバッファラインではなくメモリページ全体のTLB68アドレスとして働くので、図4の行ベース圧縮方式60より小さいTLB68サイズが、図3のSRAM54内にもたらされることを可能にする。したがって、SRAM54に記憶されるアドレスのサイズは、フルアドレス長である必要はない。しかしながら、ページベース圧縮方式82では、たとえば、図4の例における32、64、96および128バイトのより低いバイトサイズの、ラインサイズPBの割り振られたプールの代わりに、メモリページサイズ(たとえば、1kB、2kB、3kB、4kB)のデータページ(DP)のプールが、システムメモリ38(図3)内に割り振られる。同じく、図4の行ベース圧縮方式60と同様に、ページベース圧縮方式82が、システムメモリ38内のDPプールを維持する。
図5を参照すると、ページベース圧縮方式82に対する単一のDPを含むシステムメモリ38が示されている。この例では、DPは2kBのサイズである。システムメモリ38内のDPは、この例では32バイトである等しいサイズの64個の物理バッファ(PB)に分割される。物理バッファ(PB)は、圧縮データがDP内で連続したPBを展開し得ることを除いて、上記の行ベース圧縮方式60におけるPBと同様である。ライン0は、図5の例示的なDP内で1つの32バイトのPBのみを占有する。ライン1は、図5の例示的なDP内で3つの連続する32バイトのPBを占有する。ライン31は、2つの連続する32バイトのPBを占有する。2つ以上のPBに及ぶラインは、常に、DP内の隣接するPBに記憶される。その中に含まれるDPおよびPBは、圧縮メモリコントローラ36によってPAから変換され得るデータページアドレス(DPA)によってアドレス可能である。図4のマスターディレクトリ66と同様に、DPを記憶するシステムメモリ38の一部は、システムメモリ38に記憶されるアクセスされた圧縮DPに対してPAをDPAに変換するためのマスターディレクトリのために使用される。
図6は、直近に変換されたPAに対してより速やかに、PAをデータページアドレス(DPA)に変換するために、SRAM54内に設けられ得るTLB84を示す。TLB84は、キャッシュのように、しかしTLBエントリ86を伴って編成される。TLB84内の各TLBエントリ86は、システムメモリ38内のDPを表す。PAは、有効なTLBエントリ86の各々の中のタグアレイ90内のタグ88に含まれる。DPAは、PAに対応するTLB84内のデータアレイ92内のTLBエントリ86に記憶される。DPAはシステムメモリ38内のページをアドレス指定する必要があるので、DPAは、PBのフルアドレスビットサイズより少ないビット内に記憶され得る。図6に示すように、管理情報94が、図5に示すDPAにおけるDPに対応するメモリページ内のPBに対応する、複数のライン位置(たとえば、L0 Pos、L1 Pos、...Ln Pos)および対応するライン長(たとえば、L0 Len、L1 Len、...Ln Len)を含む各DPAに対して設けられる。ライン位置はDP内のラインの開始を示し、ライン長はDP内のライン内に含まれるPBの数を示す。TLB84内のTLBミスに際して、TLB84は、DPAと関連付けられたTLBエントリ86をロードされ、TLBエントリ86は、図4の行ベース圧縮方式60におけるTLBエントリ74より小さい。
図5および図6のページベース圧縮方式82はまた、図4の行ベース圧縮方式60におけるフリーノードリスト64と同様に、メモリページの圧縮に使用するためにシステムメモリ38内にフリーDPを割り振るためにフリーノードリストを利用する。ページベース圧縮方式82においてメモリページの圧縮に使用するために、システムメモリ38内にフリーDPを割り振るために使用され得る例示的なフリーノードリスト96を、図7に示す。そこに示されているように、フリーノードリスト96は、連結リストである。フリーノードリスト96内のDPAフリーリスト98(1)〜98(R)の数は、すべてのDPに対するすべてのDPAをカバーするのに十分であるように与えられる。この例では、DPAフリーリスト98(1)〜98(R)は、実際にはDP自体であり、フリーリストDPとしても知られている。DPAフリーリスト98(1)〜98(R)は、DPに等しいサイズを有するDPAに分離されるように示されているが、隣接するDPAが所与のDPに割り当てられる必要はない。DPAフリーリスト98(1)〜98(R)の各々の中に、フリーDPA100(1)〜100(R)のリストがある。新しいDPAが、DPのPBに圧縮データを記憶するために割り当てられることが必要であるとき、DPサイズに対応するフリーノードリスト96からの1つまたは複数のフリーDPA100(1)〜100(R)が、ローカルプルバッファ102に引き入れられる。ヘッドポインタ104が、フリーノードリスト96をトラバースするためにヘッドフリーDPA100(1)内に与えられる。DPサイズ当たりのローカルプッシュバッファ108は、対応するプールに対して直近にフリーにされたDPAを含む。DPAフリーリスト98内に含まれるすべてのDPAがローカルプルバッファ102に変換されると、DP自体は、ローカルプッシュバッファ108を介してフリーノードリスト64に戻され得る。テールポインタ106は、DP内のDBにもはや割り当てられないDPAの解放(free-up)が、ローカルプッシュバッファ108からフリーノードリスト96のテールにプッシュされることを可能にするように与えられる。図7のページベース圧縮方式82と同様の方式がまた、図4の行ベース圧縮方式60に対するフリーノードリスト64として使用され得る。ページベースメモリ圧縮方式82に対してフリーノードリスト96から引っ張られたDPAは、メモリページを同時に割り当てられてよく、一方、図4の行ベース圧縮方式60に対してフリーノードリスト64から引っ張られたDPAは、同時にバッファラインを割り当てられてよい。同じく、次のグループのDPのローカルプルバッファ102およびローカルプッシュバッファ108が維持されるので、これは、圧縮メモリコントローラ36が、たとえば効率性のために、フリーノードリスト96へのフリーDPを指しているメインポインタを、DRAMからの単一のバーストで読み取るかまたは書き込むことを可能にする。
図4の行ベース圧縮方式60または図5および図6のページベース圧縮方式82のいずれかについて、その中に提供され得る別の特徴は、DB(行ベース圧縮方式60に対する)またはDP(ページベース圧縮方式82に対する)を記憶するために使用されるシステムメモリ38が、DBA(行ベース圧縮方式60に対する)またはDPA(ページベース圧縮方式82に対する)のフリーノードリスト64または96を記憶するために使用され得ることである。これは、フリーノードリスト64または96を記憶するためのメモリを温存する。図7のフリーノードリスト96を参照すると、ヘッドポインタ104は、圧縮メモリコントローラ36が、システムメモリ38を有するDP内に記憶されたDPフリーノードの開始を知ることを可能にする。テールポインタ106は、圧縮メモリコントローラ36が、システムメモリ38を有するDP内に記憶されたDPフリーノードの終端を知ることを可能にする。圧縮メモリコントローラ36が、割り振られるべき新しいDPAを要求するときに、割り振られたDPAが再び割り振られることのないように、フリーノードリスト96から新しく割り振られたDPAは、システムメモリ38内のフリーノードリスト96の終端に追加される。DPAポインタは、フリーノードリスト96内で開放されると、フリーノードリスト96に戻される。テールにおけるフリーノードリスト64がフルであるとき、新しいフリーDPがローカルプルバッファ102から割り振られ、フリーノードリスト64に追加され得る。図4のフリーノードリスト64は、同様に、図4のシステムメモリ38のDB内に記憶され、その中で圧縮メモリコントローラ36によってアクセスされ得る。
より小さいDPのみがシステムメモリ38内で利用可能であるとき、必要な場合に、より大きいDPを生成するためのDP管理の別の方法は、DPのペアを保持することである。たとえば、1kBのDPは、3kBのDPとペアを組むことができる。2kBのDPは、別の2kBのDPとペアを組むことができる。システムメモリ38内で、最大ページサイズ(たとえば、4kB)より小さい占有されたDPは、対応するPAに対するバックポインタを保持することができる。バックグラウンドタスクにおいて、DPのしきいの割り振りに到達すると、圧縮メモリコントローラ36は、フリーノードリスト96を走査して、同様にフリーDPペアを有するフリーDP100を探索することができる。フリーDP100およびそのペアは、システムメモリ38内でより大きいDPをもたらすために組み合わされ得る。第2のしきい値に到達する場合、バックグラウンドタスクにおいて、圧縮メモリコントローラ36は、フリーノードリスト96を走査し、対応するDPペアの他方のDPの中を見て、それが圧縮データで占有されているかどうかを調べることができる。占有されている場合、圧縮メモリコントローラ36は、PAに対するテールポインタ106を得、占有されたDPを、同じDPサイズのフリーノードリスト96からの別のDPに移動させ、2つの隣接するDPを1つのより大きいDPにマージさせ、フリーノードリスト96を更新することができる。次いで、圧縮メモリコントローラ36は、占有されたDPに対する新しいDPAを指すために、PAに対するテールポインタ106を使用して、マスターディレクトリ66、および随意にTLB68を更新することができる。
図4に関して上記で説明した行ベース圧縮方式60と図5〜図7に関して上記で説明したページベース圧縮方式82の両方の特性を含むメモリ容量圧縮方式を提供することが望ましい。この点について、図8は、図3の圧縮メモリコントローラ36によって実装され得る例示的なハイブリッド行/ページベースバッファメモリ容量圧縮方式110の概略図である。以下で説明するように、ハイブリッド行/ページベースバッファメモリ容量圧縮方式110は、行ベースバッファメモリ容量圧縮方式とページベースバッファメモリ容量圧縮方式の両方の特徴を含む。ハイブリッド行/ページベースバッファメモリ容量圧縮方式110は、図4に示す行ベース圧縮方式60と共通の構成要素を含み、それらは共通の要素番号で示される。
この点について図8を参照すると、ハイブリッド行/ページベースバッファメモリ容量圧縮方式110において、圧縮メモリコントローラ36は、メモリアクセスにおいてアドレス指定される各PAに対して、(解凍された形態において)一度に128バイトのメモリデータブロックにアクセスするように構成される。システムメモリ38は、TLB68のデータアレイ76内のTLBエントリ74内のバッファポインタ114によってそれぞれアドレス可能である、同じサイズ(たとえば、1kB)の複数の物理ブロック(PB)112(1)〜112(Q)に分割される。各PAは、システムメモリ38内の対応する複数のPB112(1)〜112(Q)(たとえば、それぞれ1kB)にそれぞれ対応する複数のバッファポインタ114(1)〜114(S)にマッピングするページアドレス(たとえば、4kB)である。したがって、PAページアドレスをいくつかのPB112(1)〜112(Q)に分割することによって、各PB112は、行ベースメモリ容量圧縮方式と同様の利点を達成するために同じサイズであり得るが、データ圧縮は、依然として、ページベースメモリ容量圧縮方式のようにデータページサイズ基準(たとえば、4kB)で圧縮メモリコントローラ36によって取り扱われる。さらに、以下で説明するように、各PB112内のメモリデータブロックの各々は、同じサイズ(たとえば、32バイト)である。
図9は、図8のハイブリッド行/ページベースバッファメモリ容量圧縮方式110に従って、システムメモリ38内に設けられる複数の1kBのPB112(1)〜112(4)から成る4kBサイズの例示的なデータページ(DP)の概略図である。その中に示すように、PB112(1)〜112(4)の各々は、それぞれ同じサイズ(たとえば、この例ではそれぞれ32バイト)である複数のメモリデータブロック116を備える。所与のPAに対応するPB112(1)〜112(4)が、システムメモリ38内に隣接して記憶される必要はないことに留意されたい。データページ(DP)は、同じサイズのPB112(1)〜112(4)から成るので、PB112(1)〜112(4)のサイズ決めは、圧縮メモリコントローラ36によって動的に割り当てられる必要はない。
この例では、PB112(1)〜112(Q)の各々は、32バイトにまで圧縮されて記憶され得る圧縮メモリデータブロックを記憶するためのものである。圧縮メモリデータブロックが32バイトまで圧縮することができない場合、所与のPB112内の隣接するメモリデータブロック116が、圧縮データを記憶するために割り当てられ得る。TLB68内の各TLBエントリ74は、複数のバッファポインタ114(1)〜114(S)を含むように構成され、それらは、この例では4つまでのバッファポインタ114(1)〜114(4)である(たとえば、4kBのPAアドレスページサイズで、PB112(1)〜112(4)がそれぞれ1kBである場合)。バッファポインタ114(1)〜114(4)は、隣接するPB112(1)〜112(4)を指す必要はない。所与のPAに対するTLBエントリ74内のバッファポインタ114(1)〜114(4)は、必要に応じて、割り振られるときに特定のPB112(1)〜112(4)を指すように圧縮メモリコントローラ36によって設定される。TLBエントリ74は、前に説明したようにマスターディレクトリ66から補充される。PB112が割り振られていない場合、タグ72に対するTLBエントリ74内の対応するバッファポインタ114がヌルとなるか、または何らかの他の情報が、バッファポインタ114に対応するPB112が、未だ圧縮メモリコントローラ36によって割り振られていないことを示すことになる。
引き続き図9を参照すると、PAが圧縮メモリコントローラ36によって受信されると、PAがTLB68内のタグ72と比較され、PAに対応するTLBエントリ74をルックアップする。圧縮メモリコントローラ36は、PAのアドレスを使用して対応するDPに対するTLBエントリ74を参照し、対応するPB内のPAに対応するPB112(1)〜112(4)のアドレスを決定する。たとえば、図9に示すように、PAが、TLB68内で選択されたTLBエントリ74内の第4のバッファポインタ114(4)に対応する場合、バッファポインタ114(4)は、システムメモリ38内のPB112(4)を指してよい。各TLBエントリ74に記憶され、圧縮データのページに対応するページ情報118が、PAに基づいて圧縮メモリコントローラ36によってさらにアクセスされる。この例ではデータページ当たり32のTLBエントリ74があるので、ページ情報118は、この例では32のエントリを含む。ページ情報118におけるキャッシュラインは、PAに従ってアクセスされるべきワードに基づいてアクセスされ、選択されたPB112(4)内の開始メモリデータブロック116と圧縮メモリデータの長さとを決定する。この例では、PAに対応する圧縮メモリデータは、(ビットをセーブするために)3の長さを意味する「2」の値を有する開始メモリデータブロック116B1#「96」に対応し、圧縮メモリデータはメモリデータブロック116B1#96内で開始する3バイトであることを意味する。
図10は、メモリアクセスのために図8のハイブリッド行/ページベースバッファメモリ容量圧縮方式110に従って図9の割り振られたDP内の割り振られたPB112にPAを変換する、図3の圧縮メモリコントローラ36の例示的なプロセスを示すフローチャートである。その中に示すように、圧縮メモリコントローラ36は、入力データ120としてPAを受信する(ブロック122)。PAは、読取りまたは書込みのメモリトランザクションとしてオペコードを有する(ブロック122)。入力データ120はまた、メモリトランザクションが書込みトランザクションである場合に圧縮長さを含んでもよい(ブロック122)。圧縮メモリコントローラ36は、開始ブロック番号および読取りまたは書込みトランザクションのオペコードを有するPB112にPAを変換するために、図8および図9に示すTLB68を参照する(ブロック124)。PAがTLB68内に含まれない場合、圧縮メモリコントローラ36は、新しく受信されたPAのスペースを作るために、TLB68内に存在するTLBエントリ74を立ち退かせる(ブロック126)。立ち退かされたTLBエントリ74は、TLBエントリ74がダーティである場合にマスターディレクトリ66に戻って記憶される(ブロック126)。受信されたPAに対応するマスターディレクトリ66内のTLBエントリ74は、マスターディレクトリ66からフェッチされてTLB68内に置かれる(ブロック126)。
引き続き図10を参照すると、PAがTLB68内に含まれるかまたはブロック126における立ち退きプロセスが完了した場合、圧縮メモリコントローラ36は、メモリアクセスが読取り動作であるかまたは書込み動作であるかを決定する(ブロック128)。メモリアクセスが読取り動作である場合、圧縮メモリコントローラ36は、TLBエントリ74を使用して、TLB68内のバッファポインタ114およびページ情報118に対応するメモリデータブロック116にアクセスし、圧縮メモリデータを読み取ってプロセスは完了する(ブロック130)。メモリトランザクションが書込み動作である場合、圧縮メモリコントローラ36は、入力データ120からの圧縮長が変化したかどうかを決定する(ブロック132)。圧縮長が変化しなかった場合、圧縮メモリコントローラ36は、TLBエントリ74を使用して、TLB68内のバッファポインタ114およびページ情報118に対応するメモリデータブロック116にアクセスし、圧縮メモリデータを書き込んでプロセスは完了する(ブロック130)。入力データ120からの圧縮長が変化して(ブロック132)増加した(ブロック134)ものと圧縮メモリコントローラ36が決定した場合、圧縮メモリコントローラ36は、PAに対応するシステムメモリ38内の現在のメモリデータブロック116をフリーにし、新しいメモリデータブロック116をPAに割り振り(ブロック136)、TLB68および対応するTLBエントリ74に対するダーティビットを更新する(ブロック138)。入力データ120からの圧縮長が増加しなかったものと圧縮メモリコントローラ36が決定した場合(ブロック134)、圧縮メモリコントローラ36は、PAに対応するシステムメモリ38内の余分のメモリデータブロック116をフリーにし(ブロック140)(または代替として、すべてのメモリデータブロック116をフリーにしてシステムメモリ38内に新しいメモリデータブロック116を再び割り振り)、PAに対応するページ情報118におけるメモリデータブロック116の長さを更新して、TLB68内のTLBエントリ74内にダーティビットを設定する(ブロック140)。
同じく、受信されたPAをシステムメモリ38内に存在する圧縮PAに変換するための圧縮メモリコントローラ36の動作による性能損失を補償し得る追加のキャッシュを有する図2のSOC10'を設けることも望ましい。この点について、図11Aは、図2のSOC10'と同様の代替のSOC10(1)の一例を示すが、図11AのSOC10(1)は、この例ではL4キャッシュである随意のキャッシュ142を付加的に含む。圧縮メモリコントローラ36は、待ち時間を最小化するために、L4キャッシュ142と、TLB68またはマスターディレクトリ66(本明細書では圧縮PA(CPA)144と呼ぶ)の両方の中のPAを同時にルックアップすることができる。L4キャッシュ142内のアドレスは、解凍されているPAである。L4キャッシュ142内でPAがヒットすると、CPA144内のPAルックアップは余分になる。L4キャッシュ142内でPAがミスすると、変換された圧縮PAを取得するために、CPA144内のPAルックアップが必要となる。
L4キャッシュ142とCPA144の両方にアクセスするCPU16の追加の待ち時間を回避するために、L4キャッシュ142およびCPA144はプライミングされてよい。この点について、図11Bは、共有されたL3キャッシュ42内でヒットまたはミスが決定される前にPAをルックアップするために、圧縮メモリコントローラ36内でL4キャッシュ142およびCPA144のプライミングを伴う、図11AのSOC10(1)の一例を示す。共有されたL3キャッシュ42が、読取り動作のためにCPU16によってアクセスされるとき、L4キャッシュ142およびCPA144は、その中でPAの早期ルックアップを行うことによってプライミングされ得る。これらのルックアップの結果は、L4キャッシュ142と関連付けられた履歴バッファ146およびCPA144と関連付けられたCPA履歴バッファ148の中に記憶され得る。一例として、履歴バッファ146および/またはCPA履歴バッファ148は、小さい待ち時間を有するレジスタから構築され得る。CPA144内にミスがあると、随意のプリフェッチが、マスターディレクトリ66内の圧縮メモリコントローラ36によって実施されてよい。CPA144のこのプライミングは、改善されたCPA144読取りヒットレートをもたらし得る。共有されたL3キャッシュ42内でミスが発生すると、ヒットがL4キャッシュ142内で発生していたかどうかを決定するために、履歴バッファ146が検査される。ヒットがL4キャッシュ142内で発生していた場合、L4キャッシュ142からのデータは戻される。ミスがL4キャッシュ142内で発生していた場合、CPA履歴バッファ148が、次いで検査される。CPA履歴バッファ148の検査に基づいて、ヒットがCPA144内で発生する場合、圧縮PAがCPA144から直接読み取られてよく、さもなければ(すなわち、L4キャッシュ142がミスしてCPA144がミスする場合)、実行されるべき読取り動作に対して圧縮PAを取得するために、マスターディレクトリ66が、圧縮メモリコントローラ36によって読み取られる。
本明細書で開示する圧縮メモリコントローラ36によって提供され得るメモリ容量圧縮によって、物理的に存在するメモリ空間より大きいメモリアドレス空間が、オペレーティングシステム(OS)に対して利用可能になる。たとえば、OSは16Gbのメモリ空間を与えられるが、8Gbの物理システムメモリ38しか設けられないことがある。圧縮比が変化する(すなわち、悪くなる)につれて、システムメモリ38内のすべてのフリーDPが目減りすることがある。圧縮メモリコントローラ36がゲストOSからメモリを再請求し得る能力を提供することが望ましい。しかしながら、いくつかの基本的動作原理または規則が守られる必要がある。たとえば、第1の例示的な規則は、OSにすでに割り当てられているDPはOSから取り除かれ得ないことを規定することが望ましい。同じく、別の例示的な規則は、OSによるページの閲覧は、フルアドレスの非変換アドレス(たとえば、VAはVAであり、PAはPAである)として維持されることを規定することであってよい。言い換えれば、圧縮メモリコントローラ36と、システムメモリ38内のDPをもたらし得る、下層のメモリ断片化とによって実施される圧縮は、OSから隠され、圧縮メモリコントローラ36のハードウェアによって完全に処理される。さらに、別の例示的な規則として、OSによる書込みは、常に成功しなければならず、システムメモリ38がVA空間より小さいときでも、OSのフルPA空間が書込み可能でなければならないことを意味する。
この点について、OSがこれらの規則に適合することを可能にするために、圧縮ドライバが、動的メモリサイジングを可能にするためにCPU16上で実行する各OSに組み込まれ得る。圧縮ドライバは、OSに対する拡張機能であり、OSのメモリ管理方式に影響を及ぼさない。システムメモリ38でフリー圧縮PBが底を突きそうになると、これによって、OSからページを要求するバルーンドライバへの圧力が増加する。これらの圧縮ドライバは、OSからより多くのメモリを要求する。圧縮ドライバがより多くのメモリを取得すると、圧縮ドライバはそれをピン止めし、そのページはディスクにスワップアウトされ得ず、したがってVAからPAへの変換マッピングがOSによって維持されなければならないことを意味する。次いで、圧縮ドライバは、高度に圧縮可能なパターンをメモリに書き込む。したがって、ハイパーバイザまたは変換サポートは必要とされない。上記で説明したDP管理方式が、必要とされるフリーDPにDPを再割り振りするために使用され得る。「緊急」バルーンは、バーストを吸収するために保持され得る。
図12は、例示的な動的メモリサイジングの概略図である。たとえば、図1のSOC10内のCPU16上で作動することができるホストOS150が提供される。ホストOS150は、1つまたは複数のゲストOS152(1)〜152(T)をサポートする。ホストOS150は、システムメモリ38へのインターフェースをゲストOS152(1)〜152(T)に与える。図12の例では、システムメモリ38は、ホストOS150に割り振られ得る32GBをアドレス可能であってよいが、予期される2倍の圧縮比を使用して16GBのサイズであってよい。ハイパーバイザとしてホストOS150内で作動するメモリコントローラドライバ154は、バッファプール、ゲストOS152(1)〜152(T)属性、サービス品質(QOS)要件、割り振られたメモリ(PA)のサイズ、およびメモリ障害をセットアップすることによってハードウェアを初期化する。
引き続き図12を参照すると、データ圧縮ドライバ(DCD)156(1)〜156(T)が、ゲストOS152(1)〜152(T)の各々の上に組み込まれる。圧縮メモリコントローラ36でシステムメモリ38内のフリー圧縮メモリバッファが底を突きそうになると、圧縮メモリコントローラ36は、圧力データ158の形態でゲストOS152(1)〜152(T)に表示を与え、それが、データ圧縮ドライバ156(1)〜156(T)に対する圧力を増加する。圧縮メモリコントローラ36は、フリーバッファ状態をモニタし、ゲストOS152(1)〜152(T)の各々に圧力データ158を与える。これは、データ圧縮ドライバ156(1)〜156(T)の各々に割り当てられたメモリマップレジスタであり得る。バッファのフリープールがシステムメモリ38内で激減していることを圧縮メモリコントローラ36が検出すると、圧縮メモリコントローラ36は、属性に応じてゲストOS152(1)〜152(T)の各々に対する圧力レジスタの値を増加することができる。
それに応じて、ゲストOS152(1)〜152(T)内のデータ圧縮ドライバ156(1)〜156(T)は、ホストOS150からより多くのメモリを要求し、それが、システムメモリ38を使用する他のソースからメモリをフリーにするようにホストOS150に圧力をかける。たとえば、ホストOS150は、メモリをフリーにするために、ページキャッシングおよびプロセスヒープを使用してよい。データ圧縮ドライバ156(1)〜156(T)は、一例として圧力レジスタ値に比例するレベルで、それのそれぞれのゲストOS152(1)〜152(T)からページを要求するように構成されてよい。ゲストOS152(1)〜152(T)はページを提供し、必要な場合、ページキャッシュなど、他のプールからページを解放する(free up)ことができる。ゲストOS152(1)〜152(T)はまた、使用されたページをヒープからページアウト等することができる。
データ圧縮ドライバ156(1)〜156(T)がシステムメモリ38からより多くのメモリを取得すると、データ圧縮ドライバはそれをピン止めし、次いで高度に圧縮可能なパターンをシステムメモリ38に書き込むことができる。この点について、データ圧縮ドライバ156(1)〜156(T)は、ゼロ(0)をページに書き込み、圧縮メモリコントローラ36は、下層のバッファを効率的にフリーにしてフリープールに戻すことができる。したがって、ハイパーバイザまたは変換サポートは必要とされない。上記で説明したDP管理方式が、必要とされるDPにDPを再割り振りするために使用され得る。「緊急」バルーンは、バーストを吸収するために保持され得る。
上記で説明したように、圧縮メモリコントローラ36はまた、メモリ帯域幅圧縮方式を利用することができる。たとえば、内部システムバス22上の帯域幅を低減するために、内部システムバス22などのメモリバス上の128バイトデータブロックを圧縮することが望ましい。帯域幅を低減することで、同様に、バス待ち時間を低減し、電力消費を低減することができる。CPU16、および/またはCPU16内で設けられるハードウェアスレッドの数は増加し得、CPU16の性能に影響を及ぼすこともない。または代替として、所与のバス帯域幅に対するメモリチャネルの数を低減するためのオプションが提供され得る。
この点について、図13は、メモリ帯域幅圧縮を提供するための、図3の圧縮メモリコントローラ36によって実装され得る例示的なメモリ帯域幅圧縮方式160の概略図である。メモリ容量圧縮方式のこの例では、データは、圧縮形態または解凍形態のいずれかで、PAロケーションにおいてシステムメモリ38に記憶される。この点について、複数のデータライン162から成るシステムメモリ38が設けられる。データライン162は、受信されたPAによって、圧縮メモリコントローラ36によってアクセス可能である。ECC圧縮インジケータ166が、データライン162が圧縮形態で記憶されているか否かを示すために、データライン162の各々と関連して記憶される。このようにして、システムメモリ38に対するメモリアクセス要求を実施するとき、圧縮メモリコントローラ36は、データライン162がメモリアクセス要求のプロセスの一部として圧縮されているかどうかを決定するために、アドレスされるべきPAに対応するデータライン162と関連付けられECC圧縮インジケータ166を検査することができる。
同じく、PAに対応するシステムメモリ38内でデータライン162当たり1つのエントリ165を含むマスターディレクトリ66が依然として設けられる。マスターディレクトリ66はまた、データライン162がデータライン162内に圧縮されて記憶されているかどうかを示し、圧縮されて記憶されているならば、サポートされる複数の圧縮長がある場合にその圧縮長を示すために、エントリ165当たり1つの圧縮インジケータ166を含む。たとえば、データライン162が128バイト長であり、その中に記憶されるデータが64バイト以下に圧縮され得る場合、システムメモリ38に記憶されるデータに対応するマスターディレクトリ66内の圧縮インジケータ166は、そのデータが、128バイトデータライン162の第1の64バイト内に記憶されていることを示すように設定されてよい。
引き続き図13を参照すると、書込み動作の間、圧縮メモリコントローラ36は、システムメモリ38の中に書き込まれるべきメモリブロックを圧縮することができる。たとえば、データ(たとえば、128バイト、または256バイト)が圧縮される。データブロックが、システムメモリ38のバーストサイズ(たとえば、64バイト)以下である場合、64バイトが書き込まれ得、さもなければ、128バイトが書き込まれる。256バイトは、圧縮データサイズに応じて、64、128、192または256バイトとして書き込まれ得る。システムメモリ38内のデータライン162と関連付けられたECC圧縮インジケータ166はまた、データライン162におけるデータが圧縮されているか否かを示すように設定され得る。
たとえば読取り動作の間、圧縮メモリコントローラ36は、システムメモリ38からアクセスされるべきデータの一部を読み取ることができる。読み取られるべきデータが、ECC圧縮インジケータ166によって示されるようにシステムメモリ38内で圧縮された場合、読み取られるデータの部分は全データブロックであるが圧縮された形態であるので、読取り動作が行われる。圧縮データは、帯域幅圧縮を達成するために圧縮された形態で内部システムバス22(図2)上に圧縮メモリコントローラ36によって供給され得る。読み取られるデータの部分がシステムメモリ38内で圧縮されていなかった場合、読み取られるべきメモリラインの追加の部分もまた、システムメモリ38から読み取られなければならないので、これは待ち時間の影響を有する。トレーニング機構が、いくつかのアドレス範囲に対して配置され得、システムは、システムメモリ38から2アクセスでデータを読み取ることがベターであるかどうか、または待ち時間の影響を回避するためにシステムメモリ38から全データ量を読み取ることがベターであるかどうかを「学習する」。
この例では、キャッシュエントリ170を含む圧縮インジケータ(CI)キャッシュ168もまた、設けられてよい。CIキャッシュ168は、システムメモリ38の外部の別々のキャッシュ内に設けられる。CIキャッシュ168は、システムメモリ38内のデータライン162が圧縮形態で記憶されているか否かを示すために、システムメモリ38内にデータライン162当たり1つのキャッシュエントリ170を含むキャッシュである。このようにして、システムメモリ38に対するメモリアクセス要求を実施するとき、圧縮メモリコントローラ36は、データライン162を読み取る必要なしに、システムメモリ38内のPAにおけるデータライン162が、メモリアクセス要求のプロセスの一部として圧縮されているかどうかを決定するために、アドレスされるべきPAに対応するCIキャッシュ168内のキャッシュエントリ170を最初に検査することができる。したがって、データライン162が圧縮されて記憶されていることをCIキャッシュ168が示す場合、圧縮メモリコントローラ36は、全データライン162を読み出す必要はなく、したがって待ち時間が低減される。データライン162が解凍されて記憶されていることをCIキャッシュ168が示す場合、圧縮メモリコントローラ36は、全データライン162を読み出すことができる。CIキャッシュ168内でミスが発生する場合、マスターディレクトリ66内のアクセスされたデータライン162に対応する当該のECC圧縮インジケータ166は、参照され、同じPAに対する後続のメモリアクセス要求のためにCIキャッシュ168にロードされ得る。
たとえば、CIキャッシュ168は、レギュラーキャッシュとして編成されてよい。CIキャッシュ168は、タグアレイを含んでよく、n-ウェイ、または他のウェイで編成されてもよい。CIキャッシュ168は、圧縮メモリコントローラ36によって実装され得る立ち退きポリシーを有することになる。CIキャッシュ168内のキャッシュライン172の各々は、複数のキャッシュエントリ170を記憶することができる。キャッシュエントリ170の各々は、キャッシュエントリ170と関連付けられたシステムメモリ38内のデータライン162が、圧縮されているかどうか、および/またはキャッシュエントリ170に対応するデータの圧縮サイズに対するオプション(たとえば、データが32、64、96または128バイトに圧縮され得る場合に4つのオプションに対して2つのキャッシュインジケータ)を表すかどうかを示すために、1つの圧縮インジケータ174を含む。この例では、この情報はまた、キャッシュエントリ170内の圧縮インジケータ174に記憶されるので、ECC圧縮インジケータ166は冗長であることに留意されたい。たとえば、データライン162が128バイト長であり、その中に記憶されるデータが64バイト以下に圧縮され得る場合、システムメモリ38内のデータライン162に対応するCIキャッシュ168内のキャッシュエントリ170内の圧縮インジケータ174は、そのデータが、128バイトデータライン162の第1の64バイトに記憶されていることを示すように設定されてよい。
CIキャッシュ168が利用されるときの読取り動作の別の例では、圧縮メモリコントローラ36は、データライン162内のいくつかの128バイトメモリブロックに対して、データブロックが圧縮されているかどうかを覚えているCIキャッシュ168を維持する(たとえば、128バイトブロック当たり1ビット、または256バイトブロック当たり2ビット)。CIキャッシュ168は、この例では、4Kページ当たり、1つのページアドレスおよび32ビットのフラグに対するエントリをアドレスされ得る。読取り動作に対して、CIキャッシュ168は、アクセスされるべきアドレスがCIキャッシュ168内に含まれるかどうかを調べるために検査される。要求されたデータがCIキャッシュ168内にある場合、圧縮メモリコントローラ36は、CIキャッシュ168内のキャッシュエントリ170に従ってシステムメモリ38からのデータ量を読み取ることができる。要求されたデータがCIキャッシュ168内にない場合、2つの例示的なオプションが存在する。最悪の場合のシナリオを仮定すると、圧縮メモリコントローラ36は、フルキャッシュエントリ170サイズ(たとえば、128バイト)を読み取ることができる。代替として、圧縮メモリコントローラ36は、上記で説明した2-アクセス読取りプロセスに従って読み取ることができる。ラーニング拡張も利用され得る。読み取られるべきデータがCIキャッシュ168内にない場合、CIキャッシュ168は、次のように更新され得る。キャッシュエントリ170が、知られている技法(たとえば、LRU、擬似LRU、など)に従ってCIキャッシュ168から立ち退かされ得る。立ち退かされたキャッシュエントリ170は、メモリに書き込まれる必要はなく、単にCIキャッシュ168から除去され得ることに留意されたい。新しいキャッシュエントリ170が生成されてよく、そこにおいて、すべてのキャッシュエントリ170は、システムメモリ38から単に読み取られただけのブロックを除いて、最大読取りサイズに設定され、それは、その実際のサイズに設定される。最適化として、この立ち退きは、システムメモリ38から読み取られたブロックが解凍されている(すなわち、その最大サイズ)場合はスキップされ得る。
引き続き図13を参照すると、設けられたCIキャッシュ168を用いてシステムメモリ38内のデータライン162に書き込むときに、キャッシュエントリ170がシステムメモリ38内で圧縮されたか否かを示すためのECC圧縮インジケータ166を用いて、圧縮メモリコントローラ36は、常に、圧縮されたサイズを書き込むように構成され得る。圧縮インジケータ174が、データライン162と関連付けられたCIキャッシュ168内のキャッシュエントリ170内に存在する場合、圧縮インジケータ174が、CIキャッシュ168内で更新される。圧縮インジケータ174がデータライン162と関連付けられたキャッシュエントリ170に対するCIキャッシュ168内に存在しない場合、CIキャッシュ168が更新されてよい。圧縮長がビンサイズ(たとえば、64バイト)より大きい場合、CIキャッシュ168が更新される。1つのキャッシュエントリ170が立ち退かされて、新しいキャッシュライン172が、マスターディレクトリ66からCIキャッシュ168によって組み込まれる。対応するデータライン162に対する圧縮インジケータ174は、CIキャッシュ168内で更新される。圧縮長がビンサイズ以下である場合、CIキャッシュ168は、更新される必要はないが、更新されてもよい。たとえば、CIキャッシュ168は、一定の確率(それは、100%、すなわち常時、に構成され得る)で更新されてよい。この確率が100%に設定される場合、マスターディレクトリ66は、いくつかの場合には、常に正確であり得る。さもなければ、マスターディレクトリ66は、実際の圧縮ライン長より大きい圧縮ライン長を表すことになる。これは、マスターディレクトリ66の更新における帯域幅と、メモリ読取り中にセーブする帯域幅との間のトレードオフである。
引き続き図13を参照すると、システムメモリ38から読み取るときに、ECC圧縮インジケータ166が、アクセスされたデータライン162に対するCIキャッシュ168内のキャッシュエントリ170内に存在する場合、これは、このデータライン162に対する圧縮サイズの情報が知られていることを意味する。この点について、キャッシュライン172は、読取りサイズを決定するためにCIキャッシュ168からアクセスされ、そのデータ量が、対応するデータライン162から読み取られ得る。圧縮インジケータ174が、CIキャッシュ168内のアクセスされたキャッシュライン172内に存在しない場合、圧縮メモリコントローラ36は、システムメモリ38からフルラインサイズを読み取り、データが圧縮されているか否かを決定するためにECC圧縮インジケータ166を使用する。同時に、圧縮メモリコントローラ36は、設定可能な確率(たとえば、10%)でマスターディレクトリ66からCIキャッシュ168をリフレッシュしてよい。
代替として、圧縮メモリコントローラ36は、システムメモリ38内でECC圧縮インジケータ166を利用しないように構成され得る。この例では、マスターディレクトリ66は、システムメモリ38内でラインが圧縮されているか否かを、常に反映することになる。システムメモリ38に対する書込みトランザクションのときに、圧縮データは、常に、圧縮メモリコントローラ36によって書き込まれることになる。圧縮メモリコントローラ36は、CIキャッシュ168内の圧縮インジケータ174を常に更新することになり、そのことは、必要であれば、立ち退きとマスターディレクトリ66とがアクセスされることを引き起こす。システムメモリ38に対する読取りトランザクションのときに、圧縮メモリコントローラ36は、常に、CIキャッシュ168内の圧縮インジケータ174から最初に読み取るように構成され、存在しない場合、キャッシュライン172はCIキャッシュ168から立ち退かされ、CIキャッシュ168がアクセスされることになる。次いで、ラインが、ECC圧縮インジケータ166内で指定された長さに基づいてシステムメモリ38から読み取られる。
読取り動作の別の例では、圧縮メモリコントローラ36は、いくつかの128バイトメモリブロックに対して、ブロックが圧縮されているかどうかを覚えているCIキャッシュ168を維持することができる(たとえば、128バイトブロック当たり1ビット、または256バイトブロック当たり2ビット)。CIキャッシュ168は、4Kページ当たり、1つのページアドレスおよび32ビットのフラグに対するエントリをアドレスされ得る。読取り動作に対して、CIキャッシュ168は、アクセスされるべきアドレスがCIキャッシュ168内に含まれるかどうかを調べるために検査される。要求されたデータがCIキャッシュ168内にある場合、圧縮メモリコントローラ36は、CIキャッシュ168内のキャッシュエントリ170に従ってシステムメモリ38からのデータ量を読み取ることができる。要求されたデータがCIキャッシュ168内にない場合、2つの例示的なオプションが存在する。最悪の場合のシナリオを仮定すると、圧縮メモリコントローラ36は、フルキャッシュエントリ170サイズ(たとえば、128バイト)を読み取ることができる。代替として、圧縮メモリコントローラ36は、上記で説明した2-アクセス読取りプロセスに従って読み取ることができる。ラーニング拡張も利用され得る。読み取られるべきデータがCIキャッシュ168内にない場合、CIキャッシュ168は、次のように更新され得る。キャッシュエントリ170が、知られている技法(たとえば、LRU、擬似LRU、など)に従ってCIキャッシュ168から立ち退かされ得る。立ち退かされたキャッシュエントリ170は、メモリに書き込まれる必要はなく、単にCIキャッシュ168から除去され得ることに留意されたい。新しいキャッシュエントリ170が生成されてよく、そこにおいて、すべてのキャッシュエントリ170は、システムメモリ38から単に読み取られただけのブロックを除いて、最大読取りサイズに設定され、それは、その実際のサイズに設定される。最適化として、この立ち退きは、システムメモリ38から読み取られたブロックが解凍されている(すなわち、その最大サイズ)場合はスキップされ得る。
引き続き図13を参照すると、システムメモリ38に書き込むときに、キャッシュエントリ170がシステムメモリ38内で圧縮されたか否かを示すためのECC圧縮インジケータ166を用いて、圧縮メモリコントローラ36は、常に、圧縮されたサイズを書き込むように構成され得る。圧縮インジケータ174が、アクセスされたキャッシュエントリ170に対するCIキャッシュ168内に存在する場合、圧縮インジケータ174は、CIキャッシュ168内で更新される。圧縮インジケータ174がCIキャッシュ168内に存在しない場合、CIキャッシュ168は更新されてよい。圧縮長がビンサイズ(たとえば、64バイト)より大きい場合、CIキャッシュ168が更新される。1つのキャッシュエントリ170が立ち退かされて、新しいキャッシュライン172が、マスターディレクトリ66によって組み込まれる。対応するデータライン162に対する圧縮インジケータ174は、CIキャッシュ168内で更新される。圧縮長がビンサイズ以下である場合、CIキャッシュ168は、更新される必要はないが、更新されてもよい。たとえば、CIキャッシュ168は、一定の確率(それは100%、すなわち常時構成され得る)で更新されてよい。この確率が100%に設定される場合、マスターディレクトリ66は、いくつかの場合には、常に正確であり得る。さもなければ、マスターディレクトリ66は、実際の圧縮ライン長より大きい圧縮ライン長を表すことになる。これは、マスターディレクトリ66の更新における帯域幅と、メモリ読取り中にセーブする帯域幅との間のトレードオフである。
引き続き図13を参照すると、システムメモリ38から読み取るときに、ECC圧縮インジケータ166が、アクセスされたデータライン162に対するCIキャッシュ168内に存在する場合、これは、このデータライン162に対する圧縮サイズの情報が知られていることを意味する。この点について、キャッシュライン172は、読取りサイズを決定するためにCIキャッシュ168からアクセスされ、そのデータ量が、対応するデータライン162から読み取られ得る。圧縮インジケータ174が、CIキャッシュ168内のアクセスされたキャッシュライン172内に存在しない場合、圧縮メモリコントローラ36は、システムメモリ38からフルラインサイズを読み取り、データが圧縮されているか否かを決定するためにECC圧縮インジケータ166を使用する。同時に、圧縮メモリコントローラ36は、設定可能な確率(たとえば、10%)でマスターディレクトリ66からCIキャッシュ168をリフレッシュしてよい。
代替として、圧縮メモリコントローラ36は、システムメモリ38内でECC圧縮インジケータ166を利用しないように構成され得る。この例では、マスターディレクトリ66は、システムメモリ38内でラインが圧縮されているか否かを、常に反映することになる。システムメモリ38に対する書込みトランザクションのときに、圧縮データは、常に、圧縮メモリコントローラ36によって書き込まれることになる。圧縮メモリコントローラ36は、CIキャッシュ168内の圧縮インジケータ174を常に更新することになり、そのことは、必要であれば、立ち退きとマスターディレクトリ66とがアクセスされることを引き起こす。システムメモリ38に対する読取りトランザクションのときに、圧縮メモリコントローラ36は、常に、CIキャッシュ168内の圧縮インジケータ174から最初に読み取るように構成され、存在しない場合、キャッシュライン172はCIキャッシュ168から立ち退かされ、マスターディレクトリ66がアクセスされることになる。次いで、ラインが、ECC圧縮インジケータ166内で指定された長さに基づいてシステムメモリ38から読み取られる。
同じく、メモリ帯域幅圧縮方式のために追加のキャッシュを設けることが望ましい。この点について、図14は、図2のSOC10'のような代替のSOC10(2)の一例を示すが、図14のSOC10(2)は、この例ではL4キャッシュである随意のキャッシュ142を追加で含む。圧縮メモリコントローラ36は、待ち時間を最小化するために、L4キャッシュ142とCIキャッシュ168の両方の中のPAを同時にルックアップすることができる。L4キャッシュ142内のアドレスは、解凍されているPAである。L4キャッシュ142内でPAがヒットすると、CIキャッシュ168内のPAルックアップは余分になる。L4キャッシュ142内でPAがミスすると、システムメモリ38からデータを取得するために、CIキャッシュ168内のPAルックアップが必要となる。同じく、L4キャッシュ142とCIキャッシュ168の両方にアクセスするCPU16の追加の待ち時間を回避するために、L4キャッシュ142およびCIキャッシュ168は、図11Bに関して上記で説明したプライミングと同様にプライミングされてよい。
上記で説明したように、圧縮を最適化するために、特別な場合としてすべて0のメモリデータブロックの圧縮をもたらすことが望ましい。たとえば、メモリデータブロック(たとえば、128バイト)がすべて0である場合、データは読取りまたは書込みを行われないが、別個のデータ構造においてすべて0として示される。メモリラインが圧縮されているかどうかを示すために、ゼロビットがシステムメモリ38内に設けられてよく、したがって、メモリデータブロック当たり1ビットが追加される。圧縮メモリコントローラ36は、たとえばいくつかの128バイトメモリブロックに対して、ブロックがすべて0であるかどうかを覚えているキャッシュを維持することができる。書込み動作に対して、メモリデータブロックの1つのラインがすべて0である場合、圧縮メモリコントローラ36は、そのラインをシステムメモリ38に書き込まないが、CIキャッシュ168は更新される。読取り動作に対して、CIキャッシュ168内のゼロビットが、ラインに対して検査される。ラインがCIキャッシュ168内にある場合、ゼロビットに従って、ラインがシステムメモリ38から読み取られるか、またはすべての0が戻される。ラインがCIキャッシュ168内にない場合、それは、システムメモリ38から読み取られる。ラインがゼロである場合、CIキャッシュ168は更新され得る。CIキャッシュ168は、知られている技法(LRU、擬似LRU、など)に従って、TLBエントリ74を立ち退かせるために更新され得る。ラインが立ち退かされる場合、ゼロビットを設定されたすべてのラインは、メインメモリに書き込まれる必要がある。これは、オールゼロ書込み(write-all-zeros)キューとして編成され得る。可能な最適化は、2ビットを使用することであり、1つのビットは、ラインがすべてゼロであるかどうかを示し、別のビットは、ラインがダーティである(すなわち、未だメインメモリに書き込まれていない)かどうかを示す。圧縮メモリコントローラ36のバックグラウンドタスクは、CIキャッシュ168を精査し、ダーティビットを有するラインを「オールゼロ書込み」キュー内にキューイングすることができる。上記で説明したメモリ容量圧縮方式とともに、異なるメモリ圧縮方式が、必要に応じて圧縮メモリコントローラ36によって利用され得る。たとえば、64、128および256バイトなど、小さいデータブロックに対して最適化されるメモリ圧縮方式を利用することが望ましく、その理由は、上記の例で説明したキャッシュラインは、例としてこれらのサイズを含むからである。
この点について、図15は、頻出パターン圧縮データ圧縮方式180を示す。この点について、圧縮されるべきソースデータフォーマット182内のソースデータは、本例では128バイトとして示されている。圧縮データフォーマット184を、以下で示す。圧縮データフォーマット184は、プレフィックスコードPxおよびプレフィックスの後ろのデータDataxのフォーマットにおいて与えられる。プレフィックスは3ビットである。プレフィックスコードは、プレフィックスコード列186内の所与のプレフィックスコードに対するパターン符号化列190内の符号化されたパターンを示す頻出パターン符号化表188内のプレフィックスコード列186内に示される。符号化されたパターンに対するデータサイズは、頻出パターン符号化表188のデータサイズ列192内に与えられる。
図16は、32ビット頻出パターン圧縮データ圧縮方式194を示す。この点について、圧縮されるべきソースデータフォーマット196内のソースデータは、本例では128バイトとして示されている。圧縮データフォーマット198を、以下で示す。圧縮データフォーマット198は、プレフィックスPxおよびプレフィックスの直後のデータDataxのフォーマットにおいて与えられる。新しい圧縮データフォーマット200は、プレフィックスコードPx、データDatax、フラグ、およびパターンの異なるフォーマットにおいて与えられ、それらは、効率を目的として一緒にグループ化されるように編成される。プレフィックスコードは、3ビットである。プレフィックスコードは、プレフィックスコード列202内の所与のプレフィックスコードに対するパターン符号化列206内の符号化されたパターンを示す頻出パターン符号化表204内のプレフィックスコード列202内に示される。符号化されたパターンに対するデータサイズは、頻出パターン符号化表204のデータサイズ列208内に与えられる。プレフィックスコード000は、解凍パターンを示し、それは、新しい圧縮データフォーマット200内の32ビットのフルサイズのデータである。プレフィックスコード001は、すべてゼロのデータブロックを示し、それは、新しい圧縮データフォーマット200のデータ中の0ビットとして与えられ得る。3ビットプレフィックスに対して、プレフィックスコード010〜111は、ソースデータ内で認識される他の特定のパターンを符号化するために使用されてよく、本例では、それはそれぞれ、0、4、8、12、16および24ビットのパターンである。
図17は、32ビット頻出パターン圧縮データ圧縮方式210の一例を示す。この点について、圧縮されるべきソースデータフォーマット212内のソースデータは、本例では128バイトとして示されている。圧縮データフォーマット214を、以下で示す。圧縮データフォーマット214は、プレフィックスPxおよびプレフィックスの後のデータDataxのフォーマットにおいて与えられる。新しい圧縮データフォーマット216は、プレフィックスコードPx、データDatax、フラグ、およびパターンの異なるフォーマットにおいて与えられ、それらは、効率を目的として一緒にグループ化されるように編成される。プレフィックスコードは、3ビットである。プレフィックスコードは、プレフィックスコード列218内の所与のプレフィックスコードに対するパターン符号化列222内の符号化されたパターンを示す頻出パターン符号化表220内のプレフィックスコード列218内に示される。符号化されたパターンに対するデータサイズは、頻出パターン符号化表220のデータサイズ列224内に与えられる。プレフィックスコード000は、解凍パターンを示し、それは、新しい圧縮データフォーマット216内の32ビットのフルサイズのデータである。プレフィックスコード001は、すべてゼロのデータブロックを示し、それは、新しい圧縮データフォーマット216のデータ中の0ビットとして与えられ得る。プレフィックスコード010は、パターン0xFFFFFFFFを示し、それは特定のパターンであり、したがって、新しい圧縮データフォーマット216に従って圧縮データ内に0ビットデータサイズを必要とする。他のパターンが、プレフィックスコード011〜111に対する頻出パターン符号化表220内で示される。新しい圧縮データフォーマット216内のフラグフィールドは、プレフィックスコード001〜111に対するどのパターンが圧縮データのデータ部(すなわち、Datax)内に存在するかを示す。パターンが圧縮データ内に存在する場合、パターンは、新しい圧縮データフォーマット216内に記憶され、そのパターンは次いで、解凍データを再生成するために参照され得る。データフィールドは、新しい圧縮データフォーマット216内のデータフィールドと関連付けられたプレフィックスコードによる圧縮データを含む。
図18は、64ビット頻出パターン圧縮データ圧縮方式226の別の例を示す。この点について、圧縮されるべきソースデータフォーマット228内のソースデータは、本例では128バイトとして示されている。新しい圧縮データフォーマット230は、プレフィックスコードPx、データDatax、フラグ、およびパターンの異なるフォーマットにおいて与えられ、それらは、効率を目的として一緒にグループ化されるように編成される。プレフィックスコードは、4ビットである。プレフィックスコードは、プレフィックスコード列232、234内の所与のプレフィックスコードに対するパターン符号化列238、240内で符号化されたパターンを示す頻出パターン符号化表236内のプレフィックスコード列232、234内に示される。符号化されたパターンに対するデータサイズは、頻出パターン符号化表236のデータサイズ列242、244内に与えられる。プレフィックスコード0000は、すべてゼロのデータブロックを示し、それは、新しい圧縮データフォーマット230のデータ中の0ビットとして与えられ得る。他のパターンは、プレフィックスコード0001〜1111に対する頻出パターン符号化表236内に示され、それらのパターンは、頻繁に発生するASCIIパターンに対するASCIIパターンを含む。新しい圧縮データフォーマット230内のフラグフィールドは、プレフィックスコード0001〜1111に対するどのパターンが圧縮データのデータ部(すなわち、Datax)内に存在するかを示す。パターンが圧縮データ内に存在する場合、パターンは、新しい圧縮データフォーマット230内に記憶され、そのパターンは次いで、解凍データを再生成するために参照され得る。データフィールドは、新しい圧縮データフォーマット230内のデータフィールドと関連付けられたプレフィックスコードによる圧縮データを含む。
図19は、64ビット頻出パターン圧縮データ圧縮方式246の別の例を示す。この点について、圧縮されるべきソースデータフォーマット248内のソースデータは、本例では128バイトとして示されている。新しい圧縮データフォーマット250は、プレフィックスコードPx、データDatax、フラグ、およびパターンの異なるフォーマットにおいて与えられ、それらは、効率を目的として一緒にグループ化されるように編成される。プレフィックスコードは、4ビットである。プレフィックスコードは、プレフィックスコード列252、254内の所与のプレフィックスコードに対するパターン符号化列258、260内で符号化されたパターンを示す頻出パターン符号化表256内のプレフィックスコード列252、254内に示される。符号化されたパターンに対するデータサイズは、頻出パターン符号化表256のデータサイズ列262、264内に与えられる。プレフィックスコード0000は、すべてゼロのデータブロックを示し、それは、新しい圧縮データフォーマット250のデータ中の0ビットとして与えられ得る。他のパターンは、プレフィックスコード0001〜1111に対する頻出パターン符号化表256内に示され、それらのパターンは、固定パターンの組合せを含むことができる。新しい圧縮データフォーマット250内のフラグフィールドは、プレフィックスコード0001〜1111に対するどのパターンが圧縮データ内のデータ部(すなわち、Datax)内に存在するかを示す。パターンが圧縮データ内に存在する場合、パターンは、新しい圧縮データフォーマット250内に記憶され、そのパターンは次いで、解凍データを再生成するためにデータ圧縮の間に参照され得る。プレフィックスコードP0〜P31はパターンとリンクすることができ、それらのパターンは、解凍フォーマットにおけるフルレングスデータを再生成するために、対応するデータ(Datax)とともに使用される。データフィールドは、新しい圧縮データフォーマット250内のデータフィールドと関連付けられたプレフィックスコードによる圧縮データを含む。
図19の頻出パターン圧縮データ圧縮方式246を用いて使用され得る固定パターンの例が、図20の表266に示され、固定パターンは、長さ列270のその長さおよびパターン定義列272内のパターンの定義とともに、パターン列268内に与えられる。プレフィックスコードにリンクされた所与のパターンを、解凍データを生成するために使用される定義と相関させることを、圧縮メモリコントローラ36が可能にするために、フラグ定義がフラグ定義表274内に示される。フラグ定義表274は、フラグ列276内の所与のフラグに対するビットと、フラグ値列278内の所与のフラグに対するビットの値と、フラグ定義列280内の所与のフラグに対するフラグ定義とを含む。
図21は、64ビット頻出パターン圧縮データ圧縮方式282の別の例を示す。この点について、圧縮されるべきソースデータフォーマット284内のソースデータは、本例では128バイトとして示されている。新しい圧縮データフォーマット286は、プレフィックスコードPx、データDatax、フラグ、およびパターンの異なるフォーマットにおいて与えられ、それらは、効率を目的として一緒にグループ化されるように編成される。プレフィックスコードは、4ビットである。プレフィックスコードは、プレフィックスコード列288、290内の所与のプレフィックスコードに対するパターン符号化列294、296内で符号化されたパターンを示す頻出パターン符号化表292内のプレフィックスコード列288、290内に示される。符号化されたパターンに対するデータサイズは、頻出パターン符号化表292のデータサイズ列298、300内に与えられる。プレフィックスコード0000は、すべてゼロのデータブロックを示し、それは、新しい圧縮データフォーマット286のデータ中の0ビットとして与えられ得る。プレフィックスコード1111は、新しい圧縮データフォーマット286内で圧縮されていないデータブロックを示す。他のパターンは、プレフィックスコード0001〜1110に対する頻出パターン符号化表292内に示され、それらのパターンは、その中に示される定義パターンの組合せを含むことができる。新しい圧縮データフォーマット286内のフラグフィールドは、プレフィックスコード0000〜1110に対するどのパターンが圧縮データのデータ部(すなわち、Datax)内に存在するかを示す。パターンが圧縮データ内に存在する場合、パターンは、新しい圧縮データフォーマット286内に記憶され、そのパターンは次いで、解凍データを再生成するために参照され得る。新しい圧縮データフォーマット286は、パターン0〜5だけを含むように示されるが、その理由は、本例では、これらのパターンだけが、ソースデータ内に存在するプレフィックスコード0000〜1110内に存在するパターンであるからである。データフィールドは、新しい圧縮データフォーマット286内のデータフィールドと関連付けられたプレフィックスコードによる圧縮データを含む。
本明細書において開示される態様に関して説明される種々の例示的な論理ブロック、モジュール、回路、およびアルゴリズムは、電子ハードウェア、メモリもしくは別のコンピュータ可読媒体に記憶され、プロセッサもしくは他の処理デバイスによって実行される命令、または両方の組合せとして実現できることを、当業者はさらに理解されよう。本明細書において開示されるメモリは、任意のタイプおよびサイズのメモリとすることができ、また、任意のタイプの所望の情報を記憶するように構成することができる。この交換可能性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップについては上記で、それらの機能の観点から一般的に説明してきた。そのような機能がどのように実現されるかは、特定の用途、設計上の選択、および/または、システム全体に課された設計上の制約によって決まる。当業者は、説明した機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本開示の範囲からの逸脱を引き起こすものと解釈されるべきではない。
本明細書において開示される態様に関して説明される種々の例示的な論理ブロック、モジュール、および回路は、プロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)もしくは他のプログラマブル論理デバイス、個別ゲートもしくはトランジスタ論理、個別ハードウェア構成要素、または本明細書において説明される機能を実行するように設計されたそれらの任意の組合せにおいて実現または実行することができる。プロセッサは、マイクロプロセッサとすることができるが、代替形態では、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械とすることができる。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサの組合せ、複数のマイクロプロセッサ、DSPコアと連携した1つもしくは複数のマイクロプロセッサ、または任意の他のそのような構成として実装され得る。
本明細書において開示される態様は、ハードウェアにおいて、また、ハードウェアに記憶された命令において具現される場合があり、命令は、たとえば、ランダムアクセスメモリ(RAM)、フラッシュメモリ、読取り専用メモリ(ROM)、電気的プログラマブルROM(EPROM)、電気的消去可能プログラマブルROM(EEPROM)、レジスタ、ハードディスク、リムーバブルディスク、CD-ROM、または当技術分野において知られている任意の他の形態のコンピュータ可読媒体内に存在することができる。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代替として、記憶媒体は、プロセッサに一体化されてもよい。プロセッサおよび記憶媒体は、ASICに存在してもよい。ASICはリモート局に存在してもよい。代替として、プロセッサおよび記憶媒体は、個別構成要素として、リモート局、基地局、またはサーバに存在してもよい。
本明細書の例示的な態様のいずれかにおいて説明された動作ステップは、例および考察を提供するために説明されることにも留意されたい。説明される動作は、図示されるシーケンス以外の多数の異なるシーケンスにおいて実行することができる。さらに、単一の動作ステップに記載した動作は、実際にはいくつかの異なるステップで実行されてもよい。さらに、例示的態様において論じられる1つまたは複数の動作ステップが組み合わせられる場合がある。フローチャート図において図示した動作ステップは、当業者に容易に明らかとなるような多くの異なる修正を受けてもよいことを理解されたい。また、情報および信号を種々の異なる技術および技法のいずれかを使用して表すことができることは、当業者には理解されよう。たとえば、上記の説明全体にわたって参照される場合があるデータ、命令、コマンド、情報、信号、ビット、シンボル、およびチップは、電圧、電流、電磁波、磁場もしくは磁性粒子、光場もしくは光学粒子、またはそれらの任意の組合せによって表すことができる。
本開示のこれまでの説明は、当業者が本開示を作製または使用することを可能にするために提供される。本開示に対する種々の変更形態が当業者には容易に明らかとなり、本明細書において規定される一般原理は、本開示の趣旨または範囲から逸脱することなく、他の変形形態に適用することができる。したがって、本開示は、本明細書において説明される例および設計に限定されるものではなく、本明細書において開示される原理および新規の特徴に合致する最も広い範囲を与えられるべきである。
10 システムオンチップ(SOC)
10(1) SOC
10(2) SOC
10' SOC
12 CPUベースシステム
12' CPUベースシステム
14(1) CPUブロック
14(N) CPUブロック
16 CPU
16(1) CPU
16(2) CPU
18(1) キャッシュ
18(N) キャッシュ
20 キャッシュ
22 内部システムバス
24 メモリコントローラ
26 周辺機器
28 記憶装置
30 高速周辺機器相互接続(PCI)(PCI-e)インターフェース
32 直接メモリアクセス(DMA)コントローラ
34 IMC
36 圧縮メモリコントローラ
38 システムメモリ
40(1) ダブルデータレート(DDR)ダイナミックランダムアクセスメモリ(DRAM)
40(R) ダブルデータレート(DDR)ダイナミックランダムアクセスメモリ(DRAM)
42 圧縮キャッシュ
44 半導体ダイ
46(1) 半導体ダイ
46(2) 半導体ダイ
48(1) DRAMインターフェース
48(2) DRAMインターフェース
48(P) DRAMインターフェース
50 圧縮コントローラ
52 ローカルメモリ
54 SRAM
55 L4コントローラ
56 内部メモリ
58 内部メモリコントローラ
60 行ベースバッファメモリ容量圧縮方式
62 ビット長プール
62(1) ビット長プール、PBプール
62(2) ビット長プール、PBプール
62(3) PBプール
62(4) PBプール
62(Q) ビット長プール、PBプール
64 フリーノードリスト
64(1) フリーノードリスト
66 マスターディレクトリ
68 トランスレーションルックアサイドバッファ(TLB)
70 タグアレイ
72 タグ
74 TLBエントリ
76 データアレイ
78 アドレス長
80 2ビットの符号化
82 ページベースメモリ容量圧縮方式
84 TLB
86 TLBエントリ
88 タグ
90 タグアレイ
92 データアレイ
96 フリーノードリスト
98(1) DPAフリーリスト
98(2) DPAフリーリスト
98(R) DPAフリーリスト
100(1) フリーDPA
100(2) フリーDPA
100(R) フリーDPA
102 ローカルプルバッファ
104 ヘッドポインタ
106 テールポインタ
108 ローカルプッシュバッファ
110 ハイブリッド行/ページベースバッファメモリ容量圧縮方式
112(1) 物理ブロック
112(2) 物理ブロック
112(3) 物理ブロック
112(4) 物理ブロック
112(Q) 物理ブロック
114 バッファポインタ
114(1) バッファポインタ
114(4) バッファポインタ
114(S) バッファポインタ
116 メモリデータブロック
118 ページ情報
142 キャッシュ
144 圧縮PA(CPA)
146 履歴バッファ
148 CPA履歴バッファ
150 ホストOS
152(1) ゲストOS
152(2) ゲストOS
152(T) ゲストOS
154 メモリコントローラドライバ
156(1) データ圧縮ドライバ(DCD)
156(2) データ圧縮ドライバ(DCD)
156(T) データ圧縮ドライバ(DCD)
158 圧力データ
160 メモリ帯域幅圧縮方式
162 データライン
165 エントリ
166 ECC圧縮インジケータ
168 圧縮インジケータ(CI)キャッシュ
170 キャッシュエントリ
172 キャッシュライン
174 圧縮インジケータ
180 頻出パターン圧縮データ圧縮方式
182 ソースデータフォーマット
184 圧縮データフォーマット
186 プレフィックスコード列
188 頻出パターン符号化表
190 パターン符号化列
192 データサイズ列
194 頻出パターン圧縮データ圧縮方式
196 ソースデータフォーマット
198 圧縮データフォーマット
200 圧縮データフォーマット
202 プレフィックスコード列
204 頻出パターン符号化表
206 パターン符号化列
208 データサイズ列
210 頻出パターン圧縮データ圧縮方式
212 ソースデータフォーマット
214 圧縮データフォーマット
216 圧縮データフォーマット
218 プレフィックスコード列
220 頻出パターン符号化表
222 パターン符号化列
224 データサイズ列
226 頻出パターン圧縮データ圧縮方式
228 ソースデータフォーマット
230 圧縮データフォーマット
232 プレフィックスコード列
234 プレフィックスコード列
236 頻出パターン符号化表
238 パターン符号化列
240 パターン符号化列
242 データサイズ列
244 データサイズ列
246 頻出パターン圧縮データ圧縮方式
248 ソースデータフォーマット
250 圧縮データフォーマット
252 プレフィックスコード列
254 プレフィックスコード列
256 頻出パターン符号化表
258 パターン符号化列
260 パターン符号化列
262 データサイズ列
264 データサイズ列
266 表
268 パターン列
270 長さ列
272 パターン定義列
274 フラグ定義表
276 フラグ列
278 フラグ値列
280 フラグ定義列
282 頻出パターン圧縮データ圧縮方式
284 ソースデータフォーマット
286 圧縮データフォーマット
288 プレフィックスコード列
290 プレフィックスコード列
292 頻出パターン符号化表
294 パターン符号化列
296 パターン符号化列
298 データサイズ列
300 データサイズ列

Claims (15)

  1. システムメモリにアクセスするように構成されたメモリインターフェースと、
    コントローラとを備え、前記コントローラが、
    システムバスにわたって前記システムメモリ内でアクセスされるべき物理アドレス(PA)を含むメモリアクセス要求を受信することと、
    前記受信されたメモリアクセス要求に対する前記PAが、トランスレーションルックアサイドバッファ(TLB)内の複数のTLBエントリの間のTLBエントリに含まれるかどうかを決定することであって、前記複数のTLBエントリの間の各TLBエントリが、
    PAに対応するタグアレイ内のタグと、
    前記PAに対応する前記システムメモリ内の少なくとも1つの物理バッファアドレスと、
    前記システムメモリ内の複数の異なるサイズの物理バッファプールの間の物理バッファプールを示すプールインジケータであって、各異なるサイズの物理バッファプールが異なる圧縮サイズの圧縮データに対応する、プールインジケータと、
    を備えるマスターディレクトリからのエントリを記憶するように構成される、決定することと、
    前記PAが前記TLB内の前記TLBエントリに含まれる場合、前記受信されたメモリアクセス要求内の前記受信されたPAを、前記PAを含む前記TLBエントリ内の前記少なくとも1つの物理バッファアドレスの物理バッファアドレスとして変換することと、
    前記PAが前記TLB内の前記TLBエントリに含まれない場合、それぞれがPAに対応し、複数のデータラインから成る前記システムメモリ内のデータラインアドレスを含む複数の物理バッファアドレスを含む前記マスターディレクトリ内の前記エントリにおける前記物理バッファアドレスに前記PAをマッピングすることに基づいて、前記受信されたメモリアクセス要求内の前記受信されたPAを前記物理バッファアドレスに変換することと、
    前記受信されたメモリアクセス要求を実施するために、前記物理バッファアドレスに基づいて前記システムメモリ内の前記データラインアドレスにアクセスすることとを行うように構成される、圧縮メモリコントローラ。
  2. 前記コントローラが、前記受信されたメモリアクセス要求を実施するために、前記物理バッファアドレスに対するオフセットと前記マスターディレクトリ内の前記エントリと関連付けられた長さとに基づいて、前記システムメモリにアクセスするように構成される、請求項1に記載の圧縮メモリコントローラ。
  3. 前記コントローラが、書込みデータを含む前記メモリアクセス要求と前記システムメモリ内に書き込まれるべき前記PAを含むメモリ書込み動作とを受信するように構成され、
    前記コントローラが、
    前記メモリ書込み動作内で受信された前記書込みデータを圧縮書込みデータに圧縮することと、
    前記圧縮書込みデータに基づいて前記メモリ書込み動作に対して前記システムメモリ内の利用可能な物理バッファアドレスを決定することとを行うようにさらに構成され、
    前記圧縮メモリコントローラが、前記メモリ書込み動作に対する前記圧縮書込みデータを記憶するために、前記決定された利用可能な物理バッファアドレスに基づいて前記システムメモリにアクセスするように構成される、請求項1に記載の圧縮メモリコントローラ。
  4. 前記コントローラが、前記PAに対応する前記マスターディレクトリの前記エントリにおける前記メモリ書込み動作に対する前記物理バッファアドレスを記憶するために前記マスターディレクトリを更新するようにさらに構成される、請求項3に記載の圧縮メモリコントローラ。
  5. 前記メモリコントローラが、前記物理バッファアドレスに対するオフセットと前記マスターディレクトリ内の前記エントリと関連付けられた長さとを記憶するようにさらに構成されることによって、前記マスターディレクトリを更新するように構成される、請求項3に記載の圧縮メモリコントローラ。
  6. 前記コントローラが、前記メモリ書込み動作に対する前記書込みデータが固定パターンであるかどうかを決定するようにさらに構成され、
    前記メモリ書込み動作に対する前記書込みデータが、前記固定パターンである場合、前記コントローラが、
    前記メモリ書込み動作に対する前記固定パターンを示すために、前記PAに対応する前記マスターディレクトリ内の前記エントリを更新し、かつ
    前記システムメモリ内の前記物理バッファアドレスにおける前記メモリ書込み動作に対する前記圧縮書込みデータを書き込まないように構成される、請求項3に記載の圧縮メモリコントローラ。
  7. 前記コントローラが、
    前記メモリ書込み動作に対する前記物理バッファアドレス内の前記プールインジケータに対応する前記物理バッファプール内の前記利用可能な物理バッファアドレスを決定することと、
    前記物理バッファアドレスに基づいて前記システムメモリ内の前記メモリ書込み動作に対する前記圧縮書込みデータを記憶するために、前記システムメモリ内の前記物理バッファアドレス内の前記プールインジケータに対応する前記物理バッファプールにアクセスすることとを行うように構成され
    前記コントローラが、前記物理バッファアドレスからのオフセットに基づいて前記システムメモリ内の前記メモリ書込み動作に対する前記圧縮書込みデータを記憶するために、前記システムメモリ内の前記物理バッファアドレス内の前記プールインジケータに対応する前記物理バッファプールにアクセスするように構成される、請求項3に記載の圧縮メモリコントローラ。
  8. 前記コントローラが、前記システムメモリ内の少なくとも1つのフリー物理バッファアドレスを示す前記物理バッファプールに対応するフリーノードリストから、前記メモリ書込み動作に対する前記物理バッファプール内の前記利用可能な物理バッファアドレスを決定するように構成され
    前記コントローラが、前記フリーノードリスト内の利用可能な物理バッファアドレスの数が定義されたしきい値より小さくなるときに、オペレーティングシステム(OS)に知らせるようにさらに構成され、
    前記物理バッファプール内の前記利用可能な物理バッファアドレスを決定することに応答して、前記コントローラが、少なくとも1つのフリー物理バッファを、前記フリーノードリストから前記利用可能な物理バッファアドレスに対するローカルプルバッファ内に引き込むように構成される、請求項7に記載の圧縮メモリコントローラ。
  9. 前記コントローラが、
    前記システムメモリ内で読み取られるべき前記PAを含むメモリ読取り動作を含む前記メモリアクセス要求を受信することと、
    圧縮読取りデータを読み取るために、前記物理バッファアドレスに基づいて前記システムメモリにアクセスすることと、
    前記圧縮読取りデータを解凍読取りデータに展開することと、
    前記メモリ読取り動作に対して前記システムバス上に前記解凍読取りデータを供給することとを行うように構成され
    前記コントローラが、前記メモリ読取り動作に対する前記圧縮読取りデータが所定の固定パターンを含むかどうかを決定するようにさらに構成され、
    前記メモリ読取り動作に対する前記圧縮読取りデータが前記所定の固定パターンを含む場合、前記コントローラが、前記圧縮読取りデータを読み取るために、前記物理バッファアドレスに基づいて前記システムメモリにアクセスしないようにさらに構成される、請求項1に記載の圧縮メモリコントローラ。
  10. 前記メモリアクセス要求が、メモリ書込み動作から成り、
    前記コントローラが、利用可能な物理バッファアドレスに対するメモリ書込み動作の圧縮ラインサイズに基づいて、前記複数の異なるサイズの物理バッファプールの中の前記物理バッファプールを選択するように構成される、請求項1に記載の圧縮メモリコントローラ。
  11. 前記選択された物理バッファプールが、利用可能な物理バッファアドレスをまったく含まない場合、前記コントローラが、より大きい物理バッファに割り当てられた別の物理バッファプールから前記物理バッファアドレスを割り振るように割り当てられた前記物理バッファプールを選択するように構成され
    前記物理バッファアドレスが前記より大きい物理バッファに割り当てられた前記物理バッファプール内で利用可能でない場合、前記コントローラが、
    前記より大きい物理バッファに割り当てられた前記物理バッファアドレスに対する前記物理バッファプールに対応するフリーノードリストに前記物理バッファアドレスを戻すようにさらに構成される、請求項10に記載の圧縮メモリコントローラ。
  12. 前記コントローラが、
    前記システムメモリ内の開始位置およびデータページアドレスからの長さに基づいて、前記受信されたメモリアクセス要求内の前記受信されたPAを、前記マスターディレクトリ内の前記物理バッファアドレスに変換することと、
    前記受信されたメモリアクセス要求を実施するために、前記システムメモリ内の前記開始位置における、前記データページアドレスからの前記長さの圧縮データにアクセスすることとを行うように構成され
    前記データページアドレスが、データページサイズにそれぞれ割り当てられた複数のデータページの中の前記システムメモリ内の1つのデータページを含み、
    前記コントローラが、前記受信されたPAの少なくとも一部に基づいて、前記開始位置および前記長さを、前記マスターディレクトリ内の前記データページアドレスと関連付けられた複数の開始位置および長さから選択するようにさらに構成されることによって、前記受信されたPAを変換するように構成される、請求項1に記載の圧縮メモリコントローラ。
  13. 前記コントローラが、
    前記受信されたPAに対応するデータページ、前記データページ内の開始データブロック、および前記開始データブロックからのデータブロック長に基づいて、前記受信されたメモリアクセス要求内の前記受信されたPAを、ブロックアドレスを含む前記物理バッファアドレスに変換することと、
    前記受信されたメモリアクセス要求を実施するために、前記システムメモリ内の前記開始データブロックにおける、ページバッファ内の前記ブロックアドレスからの前記開始データブロックで前記データブロック長の圧縮データにアクセスすることとを行うように構成され
    前記コントローラが、複数の等しいサイズのデータページの中の前記データページ、前記受信されたPAに対応する前記データページ、前記データページ内の開始データブロック、および前記開始データブロックからのデータブロック長に基づいて、前記受信されたメモリアクセス要求内の前記受信されたPAを、前記ブロックアドレスを含む前記物理バッファアドレスに変換するように構成される、請求項1に記載の圧縮メモリコントローラ。
  14. 前記PAが前記TLB内の前記TLBエントリ内に含まれない場合、前記コントローラが、
    前記TLB内の前記TLBエントリを立ち退かせることと、
    前記受信されたメモリアクセス要求に対する前記PAに対応する前記マスターディレクトリに前記エントリを記憶することとを行わせるようにさらに構成される、請求項1に記載の圧縮メモリコントローラ。
  15. 中央処理装置(CPU)ベースシステム内のシステムメモリへのメモリアクセス要求に対するデータを圧縮する方法であって、
    システムバスにわたってシステムメモリ内でアクセスされるべき物理アドレス(PA)を含むメモリアクセス要求を受信するステップと、
    前記受信されたメモリアクセス要求に対する前記PAが、トランスレーションルックアサイドバッファ(TLB)内の複数のTLBエントリの間のTLBエントリに含まれるかどうかを決定するステップであって、前記複数のTLBエントリの間の各TLBエントリが、
    PAに対応するタグアレイ内のタグと、
    前記PAに対応する前記システムメモリ内の少なくとも1つの物理バッファアドレスと、
    前記システムメモリ内の複数の異なるサイズの物理バッファプールの間の物理バッファプールを示すプールインジケータであって、各異なるサイズの物理バッファプールが異なる圧縮サイズの圧縮データに対応する、プールインジケータとを備えるマスターディレクトリからのエントリを記憶するように構成される、決定するステップと、
    前記PAが前記TLB内の前記TLBエントリに含まれる場合、前記受信されたメモリアクセス要求内の前記受信されたPAを、前記PAを含む前記TLBエントリ内の前記物理バッファアドレスとして変換するステップと、
    前記PAが前記TLB内の前記TLBエントリに含まれない場合、それぞれがPAに対応し、複数のデータラインから成る前記システムメモリ内のデータラインアドレスを含む複数の物理バッファアドレスを含む前記マスターディレクトリ内の前記エントリにおける前記物理バッファアドレスに前記PAをマッピングすることに基づいて、前記受信されたメモリアクセス要求内の前記受信されたPAを前記物理バッファアドレスに変換するステップと、
    前記受信されたメモリアクセス要求を実施するために、前記物理バッファアドレスに基づいて前記システムメモリ内の前記データラインアドレスにアクセスするステップとを含む、方法。
JP2016567858A 2014-05-21 2015-05-20 メモリ容量圧縮を利用するメモリコントローラならびに関連するプロセッサベースのシステムおよび方法 Active JP6505132B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201462001545P 2014-05-21 2014-05-21
US62/001,545 2014-05-21
US201462092409P 2014-12-16 2014-12-16
US201462092326P 2014-12-16 2014-12-16
US62/092,326 2014-12-16
US62/092,409 2014-12-16
US14/716,001 US10838862B2 (en) 2014-05-21 2015-05-19 Memory controllers employing memory capacity compression, and related processor-based systems and methods
US14/716,001 2015-05-19
PCT/US2015/031717 WO2015179483A1 (en) 2014-05-21 2015-05-20 Memory controllers employing memory capacity compression, and related processor-based systems and methods

Publications (3)

Publication Number Publication Date
JP2017516232A JP2017516232A (ja) 2017-06-15
JP2017516232A5 JP2017516232A5 (ja) 2018-06-14
JP6505132B2 true JP6505132B2 (ja) 2019-04-24

Family

ID=53276320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016567858A Active JP6505132B2 (ja) 2014-05-21 2015-05-20 メモリ容量圧縮を利用するメモリコントローラならびに関連するプロセッサベースのシステムおよび方法

Country Status (6)

Country Link
US (1) US10838862B2 (ja)
EP (1) EP3146433A1 (ja)
JP (1) JP6505132B2 (ja)
KR (1) KR20170008233A (ja)
CN (1) CN106462494B (ja)
WO (1) WO2015179483A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10503661B2 (en) 2014-05-21 2019-12-10 Qualcomm Incorporated Providing memory bandwidth compression using compressed memory controllers (CMCs) in a central processing unit (CPU)-based system
US9740621B2 (en) 2014-05-21 2017-08-22 Qualcomm Incorporated Memory controllers employing memory capacity and/or bandwidth compression with next read address prefetching, and related processor-based systems and methods
US9703722B2 (en) * 2014-11-14 2017-07-11 Cavium, Inc. Method and system for compressing data for a translation look aside buffer (TLB)
US10884945B2 (en) * 2015-06-30 2021-01-05 International Business Machines Corporation Memory state indicator check operations
US20170161203A1 (en) * 2015-12-03 2017-06-08 Intel Corporation Increased memory capacity
JP6605323B2 (ja) * 2015-12-24 2019-11-13 ルネサスエレクトロニクス株式会社 半導体装置、データ処理システム及び半導体装置の制御方法
US10474385B2 (en) 2016-02-23 2019-11-12 Google Llc Managing memory fragmentation in hardware-assisted data compression
US10067706B2 (en) * 2016-03-31 2018-09-04 Qualcomm Incorporated Providing memory bandwidth compression using compression indicator (CI) hint directories in a central processing unit (CPU)-based system
US10191850B2 (en) 2016-03-31 2019-01-29 Qualcomm Incorporated Providing memory bandwidth compression using multiple last-level cache (LLC) lines in a central processing unit (CPU)-based system
US20180060235A1 (en) * 2016-08-30 2018-03-01 Intel Corporation Non-volatile memory compression devices and associated methods and systems
US10191682B2 (en) 2016-09-08 2019-01-29 Qualcomm Incorporated Providing efficient lossless compression for small data blocks in processor-based systems
US10176090B2 (en) 2016-09-15 2019-01-08 Qualcomm Incorporated Providing memory bandwidth compression using adaptive compression in central processing unit (CPU)-based systems
US10236917B2 (en) * 2016-09-15 2019-03-19 Qualcomm Incorporated Providing memory bandwidth compression in chipkill-correct memory architectures
US10055158B2 (en) * 2016-09-22 2018-08-21 Qualcomm Incorporated Providing flexible management of heterogeneous memory systems using spatial quality of service (QoS) tagging in processor-based systems
US10061698B2 (en) * 2017-01-31 2018-08-28 Qualcomm Incorporated Reducing or avoiding buffering of evicted cache data from an uncompressed cache memory in a compression memory system when stalled write operations occur
US10198362B2 (en) * 2017-02-07 2019-02-05 Qualcomm Incorporated Reducing bandwidth consumption when performing free memory list cache maintenance in compressed memory schemes of processor-based systems
CN106980541B (zh) * 2017-03-10 2019-11-19 浙江大学 一种大页内存压缩回收系统及方法
US10169246B2 (en) * 2017-05-11 2019-01-01 Qualcomm Incorporated Reducing metadata size in compressed memory systems of processor-based systems
CN110609708B (zh) * 2018-06-15 2023-10-27 伊姆西Ip控股有限责任公司 用于数据处理的方法、设备和计算机可读介质
US20190243780A1 (en) * 2019-04-10 2019-08-08 Vinodh Gopal Scalable application-customized memory compression
CN110399314B (zh) * 2019-06-25 2021-10-15 苏州浪潮智能科技有限公司 一种cpu、一种电子设备以及一种cpu缓存控制方法
CN113448891B (zh) * 2020-03-25 2023-07-21 澜起科技股份有限公司 存储器控制器以及用于监测对存储模块的访问的方法
CN111597128B (zh) * 2020-05-21 2023-07-14 北京泽石科技有限公司 固态非易失存储设备中数据的管理方法以及管理装置
US11875036B2 (en) 2021-01-13 2024-01-16 Samsung Electronics Co., Ltd. Computing system including host and storage system and having increased write performance
CN115525417A (zh) * 2021-06-24 2022-12-27 北京图森智途科技有限公司 数据通信方法、通信系统及计算机可读存储介质
US20230101310A1 (en) * 2021-09-29 2023-03-30 Micron Technology, Inc. Early detection of compression status using inline metadata
US11868244B2 (en) * 2022-01-10 2024-01-09 Qualcomm Incorporated Priority-based cache-line fitting in compressed memory systems of processor-based systems
US11829292B1 (en) 2022-01-10 2023-11-28 Qualcomm Incorporated Priority-based cache-line fitting in compressed memory systems of processor-based systems

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2831602B2 (ja) * 1995-01-13 1998-12-02 富士通株式会社 圧縮データ管理装置及び圧縮データ管理方法
US5696927A (en) 1995-12-21 1997-12-09 Advanced Micro Devices, Inc. Memory paging system and method including compressed page mapping hierarchy
JPH09259040A (ja) 1996-03-25 1997-10-03 Sharp Corp キャッシュメモリ装置
US6212603B1 (en) 1998-04-09 2001-04-03 Institute For The Development Of Emerging Architectures, L.L.C. Processor with apparatus for tracking prefetch and demand fetch instructions serviced by cache memory
US6341325B2 (en) 1999-01-12 2002-01-22 International Business Machines Corporation Method and apparatus for addressing main memory contents including a directory structure in a computer system
US6353871B1 (en) 1999-02-22 2002-03-05 International Business Machines Corporation Directory cache for indirectly addressed main memory
US6523102B1 (en) 2000-04-14 2003-02-18 Interactive Silicon, Inc. Parallel compression/decompression system and method for implementation of in-memory compressed cache improving storage density and access speed for industry standard memory subsystems and in-line memory modules
US7047382B2 (en) 2000-11-29 2006-05-16 Quickshift, Inc. System and method for managing compression and decompression and decompression of system memory in a computer system
US6779049B2 (en) * 2000-12-14 2004-08-17 International Business Machines Corporation Symmetric multi-processing system with attached processing units being able to access a shared memory without being structurally configured with an address translation mechanism
US6735673B2 (en) 2002-01-10 2004-05-11 Hewlett-Packard Development Company, L.P. Apparatus and methods for cache line compression
US6640283B2 (en) 2002-01-16 2003-10-28 Hewlett-Packard Development Company, L.P. Apparatus for cache compression engine for data compression of on-chip caches to increase effective cache size
US6944740B2 (en) 2002-03-27 2005-09-13 International Business Machines Corporation Method for performing compressed I/O with memory expansion technology
US6795897B2 (en) 2002-05-15 2004-09-21 International Business Machines Corporation Selective memory controller access path for directory caching
US6981119B1 (en) 2002-08-29 2005-12-27 Advanced Micro Devices, Inc. System and method for storing performance-enhancing data in memory space freed by data compression
JP3808058B2 (ja) 2003-05-27 2006-08-09 インターナショナル・ビジネス・マシーンズ・コーポレーション 複数のホストが圧縮データを記憶するメモリ・セクタの集合を共用できるようにするための装置
US7512750B2 (en) 2003-12-31 2009-03-31 Intel Corporation Processor and memory controller capable of use in computing system that employs compressed cache lines' worth of information
US7702964B2 (en) 2004-05-11 2010-04-20 Qualcomm Incorporated Compression of data traces for an integrated circuit with multiple memories
US7225297B2 (en) 2004-05-28 2007-05-29 International Business Machines Corporation Compressed cache lines incorporating embedded prefetch history data
CN100414519C (zh) * 2004-11-24 2008-08-27 中国科学院计算技术研究所 一种从虚拟地址向物理地址变换的方法及其装置
US20060143396A1 (en) 2004-12-29 2006-06-29 Mason Cabot Method for programmer-controlled cache line eviction policy
US7636813B2 (en) 2006-05-22 2009-12-22 International Business Machines Corporation Systems and methods for providing remote pre-fetch buffers
US7533497B2 (en) * 2006-07-10 2009-05-19 Dallaire Industries Ltd. Snubber system for windows
US8122216B2 (en) 2006-09-06 2012-02-21 International Business Machines Corporation Systems and methods for masking latency of memory reorganization work in a compressed memory system
US7975109B2 (en) * 2007-05-30 2011-07-05 Schooner Information Technology, Inc. System including a fine-grained memory and a less-fine-grained memory
WO2009110605A1 (ja) 2008-03-07 2009-09-11 日本ビクター株式会社 サーバ装置、端末装置、再生装置
US8595437B1 (en) 2008-11-21 2013-11-26 Nvidia Corporation Compression status bit cache with deterministic isochronous latency
US8700862B2 (en) 2008-12-03 2014-04-15 Nvidia Corporation Compression status bit cache and backing store
US7987162B2 (en) 2009-03-06 2011-07-26 Bluearc Uk Limited Data compression in a file storage system
US8341501B2 (en) 2009-04-30 2012-12-25 International Business Machines Corporation Adaptive endurance coding of non-volatile memories
TWI435215B (zh) 2009-08-26 2014-04-21 Phison Electronics Corp 下達讀取指令與資料讀取方法、控制器與儲存系統
US8341380B2 (en) 2009-09-22 2012-12-25 Nvidia Corporation Efficient memory translator with variable size cache line coverage
US8627041B2 (en) 2009-10-09 2014-01-07 Nvidia Corporation Efficient line and page organization for compression status bit caching
US8838853B2 (en) * 2010-01-18 2014-09-16 Marvell International Ltd. Access buffer
US20110276746A1 (en) 2010-05-05 2011-11-10 Arvind Pruthi Caching storage adapter architecture
CH703561A1 (de) * 2010-08-06 2012-02-15 Ferag Ag Vorrichtung zur Ausrichtung eines flächigen Produktes.
US8880847B2 (en) 2010-09-28 2014-11-04 Texas Instruments Incorporated Multistream prefetch buffer
US8683135B2 (en) 2010-10-31 2014-03-25 Apple Inc. Prefetch instruction that ignores a cache hit
US8356153B2 (en) * 2010-11-19 2013-01-15 International Business Machines Corporation Adaptive wear leveling via monitoring the properties of memory reference stream
US8539163B1 (en) 2010-12-17 2013-09-17 Amazon Technologies, Inc. Speculative reads
US10031850B2 (en) 2011-06-07 2018-07-24 Sandisk Technologies Llc System and method to buffer data
US8806108B2 (en) 2011-06-07 2014-08-12 Hitachi, Ltd. Semiconductor storage apparatus and method of controlling semiconductor storage apparatus
US9164676B2 (en) 2011-11-30 2015-10-20 International Business Machines Corporation Storing multi-stream non-linear access patterns in a flash based file-system
KR101888074B1 (ko) 2012-01-09 2018-08-13 삼성전자주식회사 저장 장치 및 불휘발성 메모리 장치, 그리고 그것의 동작 방법
US8751830B2 (en) 2012-01-23 2014-06-10 International Business Machines Corporation Memory address translation-based data encryption/compression
FR2992453B1 (fr) * 2012-06-22 2014-07-04 Ldl Technology Dispositif de communication d'un systeme de surveillance des roues d'un vehicule et procede de communication
US9148172B2 (en) 2012-06-22 2015-09-29 Micron Technology, Inc. Data compression and management
US9003123B2 (en) 2012-06-26 2015-04-07 Arm Limited Data processing apparatus and method for reducing storage requirements for temporary storage of data
US8830716B2 (en) 2012-09-29 2014-09-09 Intel Corporation Intelligent far memory bandwith scaling
JP6323445B2 (ja) 2013-03-15 2018-05-16 日本電気株式会社 ストレージ装置と方法及びプログラム
CN104133780B (zh) 2013-05-02 2017-04-05 华为技术有限公司 一种跨页预取方法、装置及系统
CN107608912B (zh) 2013-08-20 2020-10-16 华为技术有限公司 内存物理地址查询方法和装置
US10817178B2 (en) * 2013-10-31 2020-10-27 Hewlett Packard Enterprise Development Lp Compressing and compacting memory on a memory device wherein compressed memory pages are organized by size
CN104866497B (zh) 2014-02-24 2018-06-15 华为技术有限公司 分布式文件系统列式存储的元数据更新方法、装置、主机
US10503661B2 (en) 2014-05-21 2019-12-10 Qualcomm Incorporated Providing memory bandwidth compression using compressed memory controllers (CMCs) in a central processing unit (CPU)-based system
US9740621B2 (en) 2014-05-21 2017-08-22 Qualcomm Incorporated Memory controllers employing memory capacity and/or bandwidth compression with next read address prefetching, and related processor-based systems and methods
US10372613B2 (en) 2014-05-30 2019-08-06 Sandisk Technologies Llc Using sub-region I/O history to cache repeatedly accessed sub-regions in a non-volatile storage device
US9639472B2 (en) 2014-07-15 2017-05-02 International Business Machines Corporation Prefetch list management in a computer system
US20160025310A1 (en) * 2014-07-25 2016-01-28 David Gurrola Accessory Clip System
US9658963B2 (en) 2014-12-23 2017-05-23 Intel Corporation Speculative reads in buffered memory
US9569357B1 (en) 2015-01-08 2017-02-14 Pure Storage, Inc. Managing compressed data in a storage system
KR20160104387A (ko) 2015-02-26 2016-09-05 에스케이하이닉스 주식회사 데이터 저장 장치 및 그것의 동작 방법
WO2016144291A1 (en) 2015-03-06 2016-09-15 Hewlett Packard Enterprise Development Lp Data write to subset of memory devices
JP2017072981A (ja) 2015-10-07 2017-04-13 富士通株式会社 情報処理装置、キャッシュ制御方法およびキャッシュ制御プログラム
US10282808B2 (en) 2016-05-27 2019-05-07 Intel Corporation Hierarchical lossless compression and null data support

Also Published As

Publication number Publication date
CN106462494B (zh) 2019-07-30
WO2015179483A1 (en) 2015-11-26
JP2017516232A (ja) 2017-06-15
KR20170008233A (ko) 2017-01-23
CN106462494A (zh) 2017-02-22
EP3146433A1 (en) 2017-03-29
US20150339228A1 (en) 2015-11-26
US10838862B2 (en) 2020-11-17

Similar Documents

Publication Publication Date Title
JP6505132B2 (ja) メモリ容量圧縮を利用するメモリコントローラならびに関連するプロセッサベースのシステムおよび方法
US9740621B2 (en) Memory controllers employing memory capacity and/or bandwidth compression with next read address prefetching, and related processor-based systems and methods
JP6599898B2 (ja) 中央処理装置(cpu)搭載システム内の圧縮メモリコントローラ(cmc)を使用したメモリ帯域圧縮の提供
KR101379596B1 (ko) Tlb 프리페칭
US9158685B2 (en) System cache with cache hint control
JP6859361B2 (ja) 中央処理ユニット(cpu)ベースシステムにおいて複数のラストレベルキャッシュ(llc)ラインを使用してメモリ帯域幅圧縮を行うこと
US11409663B2 (en) Methods and systems for optimized translation of a virtual address having multiple virtual address portions using multiple translation lookaside buffer (TLB) arrays for variable page sizes
JP2005528695A (ja) キャッシュ置換ポリシーの簡略化した実施態様を用いたマルチスレッド化キャッシュのための方法および装置
JP7377952B2 (ja) 圧縮キャッシュに対するフレキシブルな辞書共有
CN112540939A (zh) 存储管理装置、存储管理方法、处理器和计算机系统
JP2018503924A (ja) 中央処理ユニット(cpu)ベースのシステム内の圧縮メモリコントローラ(cmc)による連続読取り動作を使用するメモリ帯域幅圧縮の提供
US10140211B2 (en) Cache device and method for storing tag data and cache data in cache device
KR102355374B1 (ko) 이종 메모리를 이용하여 메모리 주소 변환 테이블을 관리하는 메모리 관리 유닛 및 이의 메모리 주소 관리 방법
US10565111B2 (en) Processor
US20050071566A1 (en) Mechanism to increase data compression in a cache
US9934150B1 (en) Data caching circuit and method
US7143239B2 (en) Cache structure and methodology
JPH01106149A (ja) 情報処理装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190326

R150 Certificate of patent or registration of utility model

Ref document number: 6505132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250