JPH0736781A - Method of cache management - Google Patents

Method of cache management

Info

Publication number
JPH0736781A
JPH0736781A JP3012453A JP1245391A JPH0736781A JP H0736781 A JPH0736781 A JP H0736781A JP 3012453 A JP3012453 A JP 3012453A JP 1245391 A JP1245391 A JP 1245391A JP H0736781 A JPH0736781 A JP H0736781A
Authority
JP
Japan
Prior art keywords
cache
page
address
external storage
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3012453A
Other languages
Japanese (ja)
Other versions
JP2618096B2 (en
Inventor
Gerald P Bozman
ジェラルド・パークス・ボシマン
George Eisenberger
ジョージ・アイゼンバーガー
Alexander Stafford Lett
アレクサンダー・スタフォード・レット
Joseph Mayers James
ジェムス・ジョセフ・マイヤズ
William H Tetzlaff
ウイリアム・ハロルド・テッラフ
Jay H Unger
ジェイ・ハロルド・アンガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP3012453A priority Critical patent/JP2618096B2/en
Publication of JPH0736781A publication Critical patent/JPH0736781A/en
Application granted granted Critical
Publication of JP2618096B2 publication Critical patent/JP2618096B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)

Abstract

PURPOSE: To unnecessitate backup real storage with respect to a data logical view by controlling data mapped to a large virtual external address space or access to a page through a cache. CONSTITUTION: At the time of using the page, the page is mapped to a virtual external storage address(VESA) 25 and next mapped to the physical address 25 of an external storage. A reference page writes a VESA address 25 in the cache 27 to execute index by this. When a cache storing page is common with different logical views, the page is updated and in the other case, the page is copied to another cache location by different VESA.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、コンピュータが管理
するストレージに関し、特にCPUの外部ストレージの
うちデータ・キャッシュの部分を管理する方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a computer-managed storage, and more particularly to a method for managing a data cache portion of CPU external storage.

【0002】[0002]

【従来の技術】ここでは、従来のコンピュータ技術につ
いて、本発明に関わる事柄を簡単に述べる。取り上げる
事柄は、ステージド内部/外部ストレージとの関係から
見たCPUオペレーティング・システムとリソース・マ
ネジャ、データ・キャッシュと無効化、デマンド・ペー
ジ仮想ストア、仮想アドレス可能キャッシュなどであ
る。
2. Description of the Related Art Here, matters relating to the present invention regarding conventional computer technology will be briefly described. Topics covered include CPU operating system and resource managers in relation to staged internal / external storage, data cache and invalidation, demand page virtual store, virtual addressable cache, etc.

【0003】CPUとステージド・ストレージ 現代のデータ処理マシンは、階層構成であり、LRU
(Least Recently Used)方式で管理されるステージド
・ストレージ(ソフトウェアとデータを格納する)に接
続された命令プロセサから成る。最高速かつアクセス速
度が最大のストレージは、命令プロセサに最も近い位置
に置かれ、階層の最上位に置かれる。低速のストレージ
(情報の大部分がこれに書き込まれる)は、階層内の低
い位置を占める。
CPU and Staged Storage Modern data processing machines have a hierarchical structure, LRU.
It consists of an instruction processor connected to a staged storage (which stores software and data) managed by the (Least Recently Used) method. The fastest and fastest access storage is located closest to the instruction processor and at the top of the hierarchy. Slow storage (most of the information is written to it) occupies a low position in the hierarchy.

【0004】ストレージは、高速になるとコストが大幅
に増加するため、多くのコンピュータ・システムが物理
ストレージ・サブシステムをいくつかの性能レベルに分
ける。このようなレベルには、周辺I/Oデバイスとし
て扱われ、非同期パスを通してアクセスされるレベルが
ある(DASD、テープなど)。他のレベル(RAMや
キャッシュなど)は、内部ストレージの一部として、シ
ステム・ハードウェアによって直接操作され、同期パス
を通してアクセスされる。
Storage increases cost significantly at higher speeds, and many computer systems divide the physical storage subsystem into several performance levels. Some of these levels are treated as peripheral I / O devices and are accessed through asynchronous paths (DASD, tape, etc.). Other levels (RAM, cache, etc.) are directly manipulated by the system hardware as part of internal storage and are accessed through the sync path.

【0005】“内部ストレージ”は、ストレージの一部
が、1回のリード/ライト動作(転送)でランダムにア
クセスできることを意味する。IBMのシステムでは、
内部ストレージは、エクステンション(“拡張スト
ア”)を除いて、バイト単位でアドレスできる。拡張ス
トアは、ブロックまたはページをアドレス可能単位とし
て(4096バイト/ページ)ランダムにアクセスされ
る。拡張ストアは、LRU方式の実メモリをベースにし
たページング・ストアとして管理される。“外部ストレ
ージ”は、DASDの場合のように、ランダム・アクセ
スができず、直接アクセスしなければならないストレー
ジの大部分をいう。
"Internal storage" means that a part of the storage can be randomly accessed by one read / write operation (transfer). In the IBM system,
Internal storage is addressable byte by byte, except for extensions (“extended stores”). The extended store is randomly accessed with a block or page as an addressable unit (4096 bytes / page). The extended store is managed as a paging store based on LRU type real memory. "External storage" refers to the majority of storage that cannot be accessed randomly and must be accessed directly, as is the case with DASD.

【0006】内部ストアは、これを参照するプロセサ
が、リターンが受信されるまでアイドル状態にあるとき
は、“同期式”とみなされる。一方、シーク対象のデー
タが(“I/O境界”と呼ばれるポイントを超えた)外
部ストアに存在する場合、参照するプロセサは、待機す
る代わりに別のタスクをサーチして実行する。このタス
クまたはプロセスの切り替えは危険を伴う。新しいデー
タに対して検索パスを確立しなければならず、前のタス
クの処理状態をセーブする必要があるからである。外部
ストレージからの検索が終了すると、そこでまた、CP
Uを前のプロセスやタスクに切り替える必要がある。
An internal store is considered "synchronous" when the processor that references it is idle until a return is received. On the other hand, if the data to be sought exists in the external store (beyond the point called the "I / O boundary"), the referring processor will search and execute another task instead of waiting. Switching this task or process is dangerous. This is because the search path must be established for new data and the processing state of the previous task must be saved. When the search from the external storage is completed, there will be another CP
It is necessary to switch U to the previous process or task.

【0007】キャッシュとキャッシュ無効化 “キャッシュ”は、バッファ内の、インデクスがつけら
れ、LRU順に配置されたページの集まりと考えられ
る。キャッシュは普通、アクセス時間を短縮するため
に、データや命令へのパスに置かれる。また、“キャッ
シュ無効化”は、名前のついたページが無効であること
の指示をキャッシュから除外したりキャッシュに与えた
りすることをいう。これは、ベース・ページが他のデー
タ・パスで変更され、与えられたキャッシュ内のバージ
ョンが正確ではなくなったということによる。ちなみ
に、無効化は、キャッシュをそのままにしておくか、ま
たは不正確なページは無効であることをキャッシュ・デ
ィレクトリにマークで示すことによって実現できる。
Cache and Cache Invalidation A "cache" is considered a collection of indexed, LRU-ordered pages in a buffer. Caches are usually placed on the path to data and instructions to reduce access time. In addition, “cache invalidation” refers to excluding or giving an instruction to the cache that the named page is invalid. This is because the base page was modified on another data path and the given cached version is no longer accurate. By the way, invalidation can be accomplished by leaving the cache in place or by marking the cache directory that the incorrect page is invalid.

【0008】CPU、オペレーティング・システム、及
びリソース・マネジャ 代表的なプロセサまたはCPUシステムは各々、オペレ
ーティング・システム、プロセサ内部メモリから、動作
できるように形成されたローカル・キャッシュ、DAS
D指向外部ストア、及びロック/キャッシュ・リソース
・マネジャを含む。CPUで実行されるプロセスは、オ
ペレーティング・システムによってリード/ライト動作
を行う。一方、リード/ライト動作では、キャッシュ/
ロック・リソース・マネジャが用いられ、キャッシュに
存在するかまたは外部ストアからキャッシュにリフレッ
シュされたページに対して、ディレクトリでロック可能
なアクセス・パスが確立される。
CPU, Operating System, and Resource Manager A typical processor or CPU system, respectively, comprises an operating system, a processor internal memory, a local cache operatively formed, and a DAS.
Includes D-oriented external store, and lock / cache resource manager. The processes executed by the CPU perform read / write operations by the operating system. On the other hand, in read / write operations, cache /
A lock resource manager is used to establish a lockable access path in the directory for pages residing in the cache or refreshed from the external store to the cache.

【0009】仮想デマンド・ページング・ストレージ “仮想ストレージ”は、CPUの内部ストレージで利用
できるものよりもかなり大きいストレージ空間のアドレ
シングである。これは空間と時間の両方について参照の
局所性を利用する。すなわち、プロセスがストレージを
参照するパターンは、不均一で、特定の部分に集中する
傾向がある。そのため、ごく少ない実ストレージによっ
て、大容量の仮想ストレージをバックアップすることが
できる。参照されたデータは、それが内部ストレージか
ら利用できない場合は、外部ストレージからスワップイ
ンされる。
Virtual Demand Paging Storage "Virtual storage" is an addressing of storage space that is significantly larger than that available in the CPU's internal storage. It takes advantage of locality of reference in both space and time. That is, the pattern in which a process refers to storage is non-uniform and tends to concentrate on a particular part. Therefore, a large amount of virtual storage can be backed up with very little real storage. The referenced data is swapped in from external storage if it is not available from internal storage.

【0010】仮想デマンド・ページング・システムの場
合、各プロセスは、その仮想ページの、あるサブセット
を頻繁に参照する。システムがページを管理するための
容量は、スロットまたは“ページ・フレーム”の数の上
限を基準に決められる。すなわち、ページ・フレーム数
は、ページ・フレームをサポートするために取って置か
れた内部ストアの量に関係する。プロセスによって参照
されたページのサブセットの合計が、ページ・フレーム
数を超えるとフォールトが発生する。“フォールト”
は、参照されたページが、LRU方式で管理される内部
ストアに存在しなかったために、外部ストレージをアク
セスする必要があるということと同義である。この状態
のシステムを“ページング”を行っているという。
In the virtual demand paging system, each process frequently references some subset of its virtual pages. The capacity for the system to manage pages is based on an upper bound on the number of slots or "page frames". That is, the page frame number is related to the amount of internal store set aside to support the page frame. A fault occurs when the sum of the subset of pages referenced by the process exceeds the number of page frames. “Fault”
Is synonymous with the fact that the referenced page does not exist in the internal store managed by the LRU method, and therefore the external storage needs to be accessed. The system in this state is said to be paging.

【0011】同義語の問題 同じ物理ページを指すのに2つの異なる名前が用いられ
る場合、あるいは2つの異なる物理ページに同じ名前が
つけられる場合は、曖昧さが問題になる。こうした“同
義語”のために、キャッシュ空間が無駄になり、キャッ
シュ無効化に関して問題が生じる。キャッシュは通常
は、同じデータに対して可能な名前を数多く結びつける
手段を持たないからである。
The Problem of Synonyms Ambiguity becomes a problem when two different names are used to refer to the same physical page, or when two different physical pages have the same name. These "synonyms" waste cache space and cause problems with cache invalidation. This is because caches usually have no way of associating many possible names for the same data.

【0012】従来の仮想アドレス・キャッシュ Woffindenらの米国特許第4612612号明細書“Vir
tually AddressedCache”(1986年9月16日発
行)は、キャッシュを、仮想アドレス可能なエンティテ
ィとして処理しようとしている。すなわち元の仮想アド
レスが取得され、そのアドレスを基にしてキャッシング
が行われる。この明細書では、TLB( Translation L
ook-aside Buffer)によって即座に実行される仮想/実
アドレス変換には触れられていないが、この変換操作
は、キャッシュのルックアップを促進するものであり、
従来から知られているとおりである。
Conventional Virtual Address Cache Woffinden et al., US Pat. No. 4,612,612, "Vir.
tually Addressed Cache "(published September 16, 1986) attempts to treat a cache as a virtual addressable entity, that is, the original virtual address is obtained and cached based on that address. In the book, TLB (Translation L
The virtual-to-real address translation performed immediately by the ook-aside Buffer) is not mentioned, but this translation operation facilitates cache lookups,
As is known from the past.

【0013】同明細書の欠点は、ページを共用すること
が本来的に難しいことと関係がある。ただし、ページは
その仮想アドレスによってキャッシュ化されるので、各
ページは個別に扱われる。これは、2つの仮想ページ・
アドレスが、実ストレージ内の同じ最終アドレスを参照
する場合でも生じる。また、異なるアドレス空間内の仮
想アドレスは同じ実アドレスにマップできる(ハッシュ
可能)ということにある程度期待がかけられている。
[0013] A drawback of the specification is related to the inherent difficulty of sharing a page. However, each page is treated individually because the page is cached by its virtual address. This is two virtual pages
It occurs even if an address references the same final address in real storage. Further, it is expected to some extent that virtual addresses in different address spaces can be mapped (hashable) to the same real address.

【0014】ファイルとビュー “データ・ファイル”は、仮想フレームにマップされた
ページの線形空間である。実フレームは外部ストアDA
SDに格納される。ファイルに複数のバージョン(より
正確には複数の“ビュー”)があると、“同義語の問
題”が生じるケースが多くなる。また、ファイルのバー
ジョンあるいはビューは、少なくともその1ページが、
別のファイル・バージョン/ビューと共通なファイルで
ある。繰り返すが、バージョンとは、同じ、すぐそれと
分かるファイルを異なる角度から見たもの(ビュー)で
あり、その違いは瞬間に対応する。
Files and Views A "data file" is a linear space of pages mapped into virtual frames. Real frame is external store DA
Stored in SD. Having multiple versions of a file (more precisely, multiple "views") often leads to "synonym problems". Also, a file version or view must have at least one page
A file that is common to another file version / view. Again, a version is a different view (view) of the same, self-explanatory, file, and the difference corresponds to the moment.

【0015】[0015]

【発明が解決しようとする課題】この発明の目的は、非
常に大きな仮想外部アドレス空間へマップされるデータ
またはページへのアクセスを、キャッシュを通して管理
しながら、データの論理ビューを乱さず、かかる論理ビ
ューにバックアップ用物理ストアまたは実ストアを割り
当てる必要のない方法を発案することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to manage access to data or pages that map to a very large virtual external address space through a cache while not disturbing the logical view of the data. The idea is to devise a method that does not require assigning a backup physical store or real store to a view.

【0016】[0016]

【課題を解決するための手段】この発明の方法において
は、キャッシュ内のページに対する異なる論理ビュー
(ページ編成ファイル)に共通の同義語の問題と複数の
ページ・コピーの両方を回避するために、2レベルのア
ドレス・インダイレクションが用いられる。ページは、
使用されるときは、まずVESA(Virtual External S
torage Address)にマップされ、次に外部ストレージの
物理アドレスにマップされる線形空間におけるそのアド
レスに従って参照される。また、参照されたページは、
そのVESAアドレスをインデクシング・アーギュメン
トとしてキャッシュに書き込まれる。すなわち、ページ
は、キャッシュに書き込まれ、そのVESAアドレスに
よってインデクスがつけられる(順序づけられる)。そ
こで、名前(VESAアドレス)を結合することによっ
て複数のビューが形成できる。これにより、共通なペー
ジを2重にコピーし、そのコピーをビューに結合する必
要がなくなる。
SUMMARY OF THE INVENTION In the method of the present invention, to avoid both the synonym problem and multiple page copies common to different logical views (page organization files) for pages in a cache, Two levels of address indirection are used. The page is
When used, first of all, VESA (Virtual External S
torage address) and then referenced according to that address in linear space, which is then mapped to the physical address of the external storage. Also, the referenced page is
The VESA address is written to the cache as an indexing argument. That is, pages are written to the cache and indexed (ordered) by their VESA address. Therefore, multiple views can be formed by combining the names (VESA addresses). This eliminates the need to duplicate the common page and merge the copies into a view.

【0017】ここで重要なことは、キャッシュに格納さ
れたページが、異なる論理ビューに共通であれば、該ペ
ージがその場で更新されるという点である。他の場合、
かかるページは、シャドーとして、異なるVESAを使
い、別のキャッシュ・ロケーションにコピーされる。異
なる論理ビュー(ページの集まり)に共通のページをそ
の場で更新することで、キャッシュの使用率が低くな
る。
What is important here is that if a page stored in the cache is common to different logical views, it will be updated on the fly. In other cases,
Such pages are copied to different cache locations using different VESAs as shadows. Updating a common page on the fly to different logical views (collection of pages) reduces cache usage.

【0018】この発明の方法は、先に引いた Woffinden
の特許とは対照的に、もう1つのインダイレクション層
(VESA)を用いる。すなわちページは、キャッシュ
内で、そのVESAアーギュメントによってインデクス
がつけられ、同義語の衝突が避けられる。そのため、論
理アドレスからVESAおよびVESAから実アドレス
への変換を介した外部ストレージへのマッピングが必要
になる。
The method of the present invention is based on the previously drawn Woffinden.
In contrast to that patent, another indirection layer (VESA) is used. That is, the page is indexed in the cache by its VESA argument to avoid synonym conflicts. Therefore, the mapping to the external storage via the conversion from the logical address to the VESA and the VESA to the real address is required.

【0019】この発明の方法のメリットを挙げると、
(a)キャッシングのための一意の名前が生成され、同
義語が回避される、(b)ロッキングに一意の名前が用
いられる、(c)データがキャッシュに格納され、変更
後にのみ書き出される、そして(d)実ストレージにお
けるデータのロケーションが変わる場合、論理アドレス
は同じまま(不変)なのでキャッシュは無効にならず、
(e)仮想ファイルのための物理的なバックアップが必
要ない。
The advantages of the method of the present invention are as follows:
(A) Unique names are generated for caching, synonyms are avoided, (b) Unique names are used for locking, (c) Data is cached and written out only after modification, and (D) When the location of data in the real storage changes, the logical address remains the same (invariant), so the cache is not invalidated,
(E) No physical backup is needed for virtual files.

【0020】[0020]

【実施例】【Example】

本発明の方法を実施するホストCPU環境 この発明は、IBMオペレーティング・システムMVS
を用いるIBM/360または370アーキテクチャC
PUなどの汎用コンピュータで好都合に実現できる。I
BM/360アーキテクチャCPUの詳細については、
Amdahlらによる米国特許第3400371号明細書“Da
ta Processing System”(1968年9月3日発行)を
参照されたい。
Host CPU Environment for Implementing the Method of the Present Invention The present invention provides an IBM operating system MVS.
IBM / 360 or 370 architecture C using
It can be conveniently implemented on a general-purpose computer such as a PU. I
For more information on the BM / 360 architecture CPU,
U.S. Pat. No. 3,400,371 to Amdahl et al. "Da
See "ta Processing System" (published September 3, 1968).

【0021】オペレーティング・システムMVSについ
ては、IBM Publications GC28−1150の“MVS/
Extended Architecture System Programming Library:S
ystem Macros and Facilities”、Vol.1に説明があ
る。標準MVSや、ロック管理、割り込みまたはモニタ
によるサブシステムの起動、タスクのポスティング/ウ
ェイティングなど他のオペレーティング・システムのサ
ービスの詳細には触れられていない。こうしたオペレー
ティング・システム・サービスの評価は、当業者間で安
定しているとみられる。
The operating system MVS is described in IBM Publications GC28-1150, "MVS /
Extended Architecture System Programming Library: S
ystem Macros and Facilities ”, Vol. 1. Details of standard MVS and other operating system services such as lock management, subsystem startup by interrupts or monitors, and task posting / waiting are covered. No. The evaluation of these operating system services appears to be stable among those skilled in the art.

【0022】 CPU、キャッシュ、及びストレージの関係 この発明の目的から、ページは、一定数のページ・バイ
ト(4096など)で構成される。また“ページ”は
“ブロック”と同義である。
Relationship of CPU, Cache, and Storage For purposes of this invention, a page is made up of a fixed number of page bytes (such as 4096). "Page" is synonymous with "block".

【0023】図1は、編成されたストレージとCPUと
の関係を示す。図に示すとおり、CPU1は、内部スト
レージ3と外部ストレージ5の両方をパス11、13を
通してアクセスする。内部ストレージ3は、プロセサ・
ストレージ2(その内容はバイト・アドレス及びランダ
ム・アドレス可能)と拡張ストレージ4(その内容はペ
ージ・アドレス及びランダム・アドレス可能)を含む。
外部ストレージ5は、DASDを含み、CPU1上で実
行されるアプリケーションによって参照されたデータの
ページを格納する。
FIG. 1 shows the relationship between organized storage and CPUs. As shown in the figure, the CPU 1 accesses both the internal storage 3 and the external storage 5 through the paths 11 and 13. The internal storage 3 is a processor
It includes storage 2 (its contents are byte address and random addressable) and expanded storage 4 (its contents are page address and random addressable).
The external storage 5 includes DASD, and stores pages of data referred to by an application executed on the CPU 1.

【0024】代表的な例を挙げると、CPUプロセサを
起動したアプリケーションは、ページをその仮想/線形
空間アドレスかキャッシュへの実空間アドレスで参照す
る。その場合、キャッシュ9はハードウェアまたはソフ
トウェアで実現できる。ソフトウェアの場合、キャッシ
ュは内部ストレージ3内の任意の部分に置ける。キャッ
シュ9でページが使用できない場合、拡張ストレージ4
または外部ストレージ5をアクセスする必要がある。
To give a typical example, the application that started the CPU processor refers to the page by its virtual / linear space address or real space address to the cache. In that case, the cache 9 can be realized by hardware or software. In the case of software, the cache can be placed in any part of the internal storage 3. Expanded storage 4 if page is not available in cache 9
Alternatively, it is necessary to access the external storage 5.

【0025】外部ストレージのI/O境界7で複数のペ
ージがアクセスされる場合は、そのページは、Luizらに
よる米国特許第4207609号明細書“Path Indepen
dentDevice Reservation and Reconnection in a Multi
-CPU and Shared DeviceAccess System”(1980年
6月10日発行)に述べられている方法に従って処理で
きる。ちなみに、内部ストレージがアクセスされると、
プロセサはアクセスが終了するまで待つ。I/O境界で
アクセスが行われると、プロセサは、フェッチ(アクセ
ス)が終了するのを待つ間、別のタスクまたはプロセス
を起動する。
If multiple pages are accessed at the I / O boundary 7 of the external storage, the pages may be accessed by Luiz et al., US Pat. No. 4,207,609, "Path Indepen."
dentDevice Reservation and Reconnection in a Multi
-CPU and Shared Device Access System ”(issued on June 10, 1980). By the way, when the internal storage is accessed,
The processor waits until the access is completed. When an access is made on an I / O boundary, the processor launches another task or process while waiting for the fetch (access) to finish.

【0026】アドレス変換とキャッシュ配置 図2は、本発明による仮想/実アドレス変換、連想メモ
リ・アシスト、及びキャッシュ配置の概念を示す。
Address Translation and Cache Allocation FIG. 2 illustrates the concepts of virtual / real address translation, associative memory assist, and cache allocation according to the present invention.

【0027】図2の(1)に示すとおり、仮想アドレス
から実アドレスへの変換は、通常はハードウェアまたは
高速なマイクロコードで実現され、アドレス変換かマッ
ピングを伴う。すなわちアドレス変換メカニズムは、代
表的なマシンIBM System/370では、仮想
アドレスをページ・アドレスと相対ページ位置に分け
る。
As shown in (1) of FIG. 2, the conversion from the virtual address to the real address is usually realized by hardware or high-speed microcode, and involves address conversion or mapping. That is, the address translation mechanism divides the virtual address into a page address and a relative page position in a typical machine IBM System / 370.

【0028】先にデマンド・ページングの説明とあわせ
て触れたように、ページングのために取って置かれる内
部ストレージは、ページ・フレームと呼ばれる固定した
ページの集まりに編成される。プログラムの中での仮想
アドレスの参照を内部ストレージ内のページ・フレーム
の実アドレスと関連づけるには、ページ・テーブルが使
用できる。相対アドレスをページ・フレームのロケーシ
ョンに追加すれば有効ページ・アドレスが確認できる。
このほかの詳細については、Lorin及び Deitelによる
“Operating Systems” (The Systems Programming Se
ries)の中で仮想ストレージについて説明した第4章の
pp.293−314を参照されたい。
As mentioned above in connection with the description of demand paging, the internal storage set aside for paging is organized into fixed collections of pages called page frames. A page table can be used to associate a virtual address reference in a program with the real address of a page frame in internal storage. The effective page address can be confirmed by adding the relative address to the location of the page frame.
For more details, see “Operating Systems” by Lorin and Deitel (The Systems Programming Se
ries), which describes virtual storage, pp. 4 of Chapter 4. See 293-314.

【0029】図2の(2)は、TLB(Translation Lo
okaside Buffer)を使用して仮想/実アドレス変換を高
速化する従来からの手法を示す。TLB15は、RAM
(Random Access Memory)から形成され、LRU方式の
連想メモリとして動作する。このメモリでは、アクセス
されたデータのアドレスが、CPUによってデコードさ
れた命令と並列に処理される。
FIG. 2B shows a TLB (Translation Lo).
The conventional method of speeding up virtual / real address translation using okaside buffer is shown. TLB15 is RAM
It is formed from (Random Access Memory) and operates as an LRU type associative memory. In this memory, the address of the accessed data is processed in parallel with the instruction decoded by the CPU.

【0030】図2の(3)に示すように、実キャッシュ
17が実CPUメイン・メモリ19の前に置かれた場
合、実キャッシュ17は、仮想アドレスが異なるページ
と、異なる仮想アドレス空間に置かれたページを格納で
きる。ただし、この実キャッシュの欠点として、キャッ
シュへのアクセスは、仮想/実アドレス変換が実行され
た後でしか生じない。実キャッシュでは、最初にアドレ
ス変換が実行されてからテーブル・ルックアップが起こ
る。
As shown in (3) of FIG. 2, when the real cache 17 is placed in front of the real CPU main memory 19, the real cache 17 is placed in a page having a different virtual address and a different virtual address space. It can store torn pages. However, as a drawback of this real cache, access to the cache only occurs after the virtual / real address translation has been performed. In the real cache, the address lookup is performed first and then the table lookup occurs.

【0031】図3は、仮想キャッシュ21をアドレス変
換と実内部ストレージ19の前に配置した状態を示す。
この構成は、上述の Woffindenの特許にみられるハード
ウェア・キャッシュの実施例でパターン化されている。
以下に Woffindenの説明を引用する。
FIG. 3 shows a state in which the virtual cache 21 is arranged in front of the address translation and real internal storage 19.
This configuration is patterned with the hardware cache embodiment found in the Woffinden patent referenced above.
The following is an explanation of Woffinden.

【0032】「代表的なバッファは、常にメイン・スト
ア・データのうちごくわずかな部分を含む。仮想アドレ
ス・バッファでは、データのロケーションはメイン・ス
トアの実アドレスの関数ではなく、仮想アドレスの関数
である。したがってメイン・ストア・アドレスは、一意
のバッファ・アドレスにマップされない。バッファ内の
同じ仮想アドレス・ロケーションには、実アドレスを2
つ以上変換できる。」
"A typical buffer always contains a very small portion of the main store data. In a virtual address buffer, the location of the data is not a function of the real address of the main store, but a function of the virtual address. Therefore, the main store address is not mapped to a unique buffer address: two real addresses are stored in the same virtual address location in the buffer.
You can convert more than one. "

【0033】同義語の問題について、 Woffindenの解決
法は次のように簡単に述べられている。
For the problem of synonyms, Woffinden's solution is simply stated as follows.

【0034】「メイン・ストア内の1つの実アドレス・
ロケーションに対応する同じデータ・ロケーションが、
異なる仮想アドレスによって指定されることがあるの
で、仮想アドレス・バッファは、異なるロケーションに
ある同じデータのコピー(同義語という)を2つ以上格
納する可能性がある。そのため、実/仮想アドレス・ト
ランスレータは、変更されたデータがバッファに格納さ
れたときに、バッファに存在する同義語を見つけるため
に、メイン・ストアの実アドレスをバッファのすべての
仮想アドレスに変換する。」
"One real address in the main store
The same data location corresponding to the location
Virtual address buffers may store more than one copy of the same data (referred to as synonyms) at different locations, as they may be addressed by different virtual addresses. So the real / virtual address translator translates the real address of the main store into all virtual addresses of the buffer when the modified data is stored in the buffer, in order to find the synonyms that exist in the buffer. . "

【0035】本発明によるキャッシュ配置 この発明の方法では、キャッシュは、内部ストレージの
うち、ソフトウェアによって生成・管理される部分であ
る。このキャッシュは外部ストレージ・キャッシュとし
て機能する。また、かかるソフトウェア・キャッシュ
は、 Woffindenの特許に述べられたCPUキャッシュの
ハードウェア構成とは動作面が異なる。WoffindenのC
PUキャッシュでは、アドレスの導出とアクセスは、マ
イクロ秒単位であるが、外部ストレージ・ソフトウェア
・キャッシュの導出とアクセスはミリ秒単位である。こ
れにより処理の追加あるいは高度化が可能になる。
Cache Arrangement According to the Present Invention In the method of the present invention, the cache is a part of the internal storage that is generated and managed by software. This cache acts as an external storage cache. In addition, such a software cache operates differently from the hardware configuration of the CPU cache described in the Woffinden patent. Woffinden's C
In the PU cache, address derivation and access is in microseconds, while external storage software cache derivation and access is in milliseconds. As a result, it becomes possible to add or improve the processing.

【0036】図4は、本発明によるソフトウェア・キャ
ッシングとその配置を示す。2つのアドレス変換すなわ
ち2レベルのインダイレクションを示している。第1レ
ベルは、仮想アドレスまたは論理アドレス23の、VE
SA(Virtual ExternalStorage Address)空間25へ
のマッピング、第2レベルは、VESAの、外部ストレ
ージ実アドレス5へのマッピングである。キャッシュ2
7へのアクセスはVESAアーギュメントのみによる。
キャッシュ27は、第1マッピングの後、第2マッピン
グの前に位置づけられる。
FIG. 4 illustrates software caching according to the present invention and its placement. It shows two address translations, two levels of indirection. The first level is VE of virtual address or logical address 23.
The mapping to the SA (Virtual External Storage Address) space 25, and the second level is the mapping of the VESA to the external storage real address 5. Cache 2
Access to 7 is via VESA arguments only.
The cache 27 is positioned after the first mapping and before the second mapping.

【0037】VESA順序ペアを使用した同義語の回避 この発明の方法に2レベルのインダイレクションを採用
することで、デマンド・ページング及び仮想アドレシン
グとあわせて説明したベース+変位アドレシングの特性
が活かされる。ここでは、CPU1で実行されるアプリ
ケーションが100番目の相対ページを指定する場合を
考える。そのページが複数のバージョンをもつ場合、各
バージョンの論理アドレスは同じである。これらは同じ
ファイルの異なるバージョンである。
Avoiding Synonyms Using VESA Ordered Pairs By employing two levels of indirection in the method of the present invention, the properties of base + displacement addressing described in conjunction with demand paging and virtual addressing are exploited. Here, consider a case where the application executed by the CPU 1 specifies the 100th relative page. If the page has multiple versions, the logical address for each version is the same. These are different versions of the same file.

【0038】この発明では、名前空間から中間空間への
マッピングは複数から単数へのそれである。したがっ
て、同じページを共用する2つの線形空間は、1つのV
ESA(Virtual External Storage Address)へマップ
され、同義語の問題は生じない。中間外部ストレージを
用いることで同義語の問題が回避される。
In the present invention, the namespace to intermediate space mapping is from plural to singular. Therefore, two linear spaces sharing the same page have one V
Mapped to ESA (Virtual External Storage Address), the problem of synonyms does not occur. The use of intermediate external storage avoids the synonym problem.

【0039】図5は、同じファイルの2つのバージョン
と外部仮想キャッシュ27を示す。図の第1ファイル2
9は、論理名AV1(ファイルAバージョン1)をも
つ。これは元のページ0及び1から成る。第2ファイル
31は論理名AV2(ファイルAバージョン2)をも
つ。AV2は、元のページ0と変更されたページ1(ペ
ージ1’)を含む。ページ0、1、1’は各々、VES
Aアドレス(いわゆる仮想フレーム)VF0、VF1、
VF2にマップされる。キャッシュ27に格納する必要
があるのはページ0のコピー1つだけである。
FIG. 5 shows two versions of the same file and the external virtual cache 27. First file 2 in the figure
9 has a logical name AV1 (file A version 1). It consists of original pages 0 and 1. The second file 31 has the logical name AV2 (file A version 2). AV2 includes original page 0 and modified page 1 (page 1 '). Pages 0, 1, 1'are VES
A address (so-called virtual frame) VF0, VF1,
Maps to VF2. Only one copy of page 0 needs to be stored in cache 27.

【0040】その場更新とシャドー・コピー この発明の方法によれば、元のファイル及び更新された
ファイルに共通のページをその場で書き込む操作に応答
して、共通ページがその場で更新される。これにより、
更新された値をいずれのファイル(ビュー)でも使用で
きる。書き込みまたは更新対象のページが共通でない場
合は、そのシャドー・コピーがキャッシュに書き込ま
れ、それにまた別の外部ストレージ論理空間が割り当て
られる。
In-Situ Update and Shadow Copy According to the method of the present invention, the common page is updated in-situ in response to an in-situ writing of a common page to the original file and the updated file. . This allows
You can use the updated values in any file (view). If the page to be written or updated is not common, then its shadow copy is written to cache and another external storage logical space is allocated to it.

【0041】図6は、ファイルAV1、AV2及びキャ
ッシュ27内の異なるストレージ・ミックスを示す。こ
こで、AV1は元のページ0と元のページ1を含むとす
る。またAV2は元のページ0と変更されたページ1’
を含むとする。キャッシュ27のマネジャは、VESA
アドレスVF0をページ0に、VF1をページ1に、V
F2’をページ1’に割り当てる。アプリケーションが
ページ0を更新する場合、ページ0はAV1とAV2に
共通なので、VF0においてその場更新が起こる。ただ
し、ページ1’への更新は、変更されたページ1”をキ
ャッシュのVF2”におけるVESAアドレスに書き込
み、古いページ1’をキャッシュのVESAアドレスV
F2’にシャドーとして残しておくことによって処理さ
れる。
FIG. 6 shows the different storage mixes in the files AV1, AV2 and the cache 27. Here, it is assumed that AV1 includes original page 0 and original page 1. AV2 is original page 0 and changed page 1 '
Is included. The manager of the cache 27 is VESA
Address VF0 to page 0, VF1 to page 1, V
Assign F2 'to page 1'. When an application updates page 0, an in-situ update occurs at VF0 because page 0 is common to AV1 and AV2. However, to update to page 1 ′, the changed page 1 ″ is written to the VESA address in the cache VF2 ″ and the old page 1 ′ is written to the cache VESA address V.
It is processed by leaving a shadow on F2 '.

【0042】別の例を用いた方法のアルゴリズム表現 図7は、ファイル1、2からVESA順序キャッシュ及
び内部または外部の実ストレージへの、ページのダブル
・マッピングを示す。ここでは次のように考える。
Algorithmic Representation of Method Using Another Example FIG. 7 shows a double mapping of pages from files 1, 2 to VESA ordered cache and internal or external real storage. Here we consider as follows.

【0043】システムの初期状態は、ページ1、2から
成るファイル1を含むとする。またページ1、2は、V
ESAアドレスVF12、VF40にマップされ、次に
実アドレスR2、R96にマップされる。次に、ファイ
ル1のイメージとして最初にファイル2が生成されてい
ると仮定する。ページ1、2の第1コンコーダンスはV
F12、VF40を含む。第2コンコーダンスはR2、
R96を含む。
The initial state of the system is assumed to include a file 1 consisting of pages 1 and 2. Also, pages 1 and 2 are V
The ESA addresses VF12 and VF40 are mapped, and then the real addresses R2 and R96 are mapped. Next, assume that file 2 is first generated as an image of file 1. The first concordance on pages 1 and 2 is V
Includes F12 and VF40. The second concordance is R2,
Includes R96.

【0044】ファイル2のページ2が、ファイル1との
共用なく更新されるためには、最初に、新しいVESA
すなわちVF76をキャッシュ27に割り当てる必要が
ある。そしてファイル2のコンコーダンスすなわちペー
ジ・マップが変更される。その後、更新されたページ
2’がキャッシュ・ロケーションVF76に書き込まれ
る。DASDロケーションの形の実ストレージすなわち
R102が割り当てられ、ページ2’がここにコピーさ
れる。ちなみにVF40は、VF76に対するシャドー
・ロケーションとして残る。
In order for page 2 of file 2 to be updated without sharing with file 1, first a new VESA
That is, it is necessary to allocate the VF 76 to the cache 27. The concordance or page map of File 2 is then changed. The updated page 2'is then written to cache location VF76. Real storage in the form of DASD locations or R102 is allocated and page 2'is copied here. By the way, VF40 remains as a shadow location for VF76.

【0045】ページ1が再び書き込まれる場合、そのペ
ージはファイル間で共用されているので、キャッシュ2
7への新しい割り当ては必要ない。VF12への既存の
マッピングは同じままであり、更新されたページ1’は
そこに書き込まれる。同様に、VF12の内容はDAS
Dの実ロケーションR2にコピーされる。
When page 1 is written again, it is cached because it is shared between files.
No new assignment to 7 is required. The existing mapping to VF12 remains the same and the updated page 1'is written there. Similarly, the contents of VF12 are DAS
Copied to the real location R2 of D.

【0046】キャッシュ27の変更が、キャッシュが一
杯になるポイントまでバッチ処理できるなら、DASD
実ストレージへの転送は1回で行える。これにより、バ
ックアップ用の個別ストアを複数回更新する場合に比べ
て転送効率が高まる。
If changes to the cache 27 can be batched to the point where the cache is full, DASD
Transfer to real storage can be done once. As a result, the transfer efficiency is improved compared to the case where the backup individual store is updated a plurality of times.

【0047】ファイル1が、その書き込み前に削除され
た場合(ファイル1が一時ファイルの場合など)、その
構成要素である仮想フレームが実ストレージに割り当て
られることは一度もない。実ストレージへの割り当てが
必要になるのは、フレームが実際に書き込まれるときだ
けである(フレームはキャッシュに存在するのでその必
要がない)。
When the file 1 is deleted before the writing (for example, the file 1 is a temporary file), the virtual frame which is its constituent element is never allocated to the real storage. Allocation to real storage is required only when the frame is actually written (there is no need for it because it is in the cache).

【0048】[0048]

【発明の効果】以上のように本発明によればキャッシン
グの際の同義語が回避され、仮想ファイルのための物理
的バックアップが不要となる。
As described above, according to the present invention, the synonyms at the time of caching are avoided, and the physical backup for virtual files becomes unnecessary.

【図面の簡単な説明】[Brief description of drawings]

【図1】大型メインフレームCPUに関連するストレー
ジの編成を示す図である。
FIG. 1 shows the organization of storage associated with a large mainframe CPU.

【図2】本発明による仮想/実アドレス変換、連想メモ
リ・アシスト、及びキャッシュ配置の概念をあらわす図
である。
FIG. 2 is a diagram showing the concept of virtual / real address conversion, associative memory assist, and cache arrangement according to the present invention.

【図3】従来の技術による仮想キャッシングの概念をあ
らわす図である。
FIG. 3 is a diagram showing a concept of virtual caching according to a conventional technique.

【図4】本発明によるソフトウェア・キャッシングとそ
の配置を示す図である。
FIG. 4 is a diagram showing software caching and its arrangement according to the present invention.

【図5】本発明により、キャッシュのVESA順序ペー
ジを使用して同義語の問題を回避する方法を示す図であ
る。
FIG. 5 illustrates a method for avoiding synonym problems using VESA ordered pages of the cache in accordance with the present invention.

【図6】その場更新とシャドー・コピーを示す図であ
る。
FIG. 6 is a diagram showing in-situ update and shadow copy.

【図7】本発明による異なるビューを伴う別のマッピン
グ例を示す図である。
FIG. 7 shows another example mapping with different views according to the present invention.

フロントページの続き (72)発明者 ジョージ・アイゼンバーガー アメリカ合衆国ニューヨーク州ホワイト・ プレーンズ、アルバマール・ロード 54番 地 (72)発明者 アレクサンダー・スタフォード・レット アメリカ合衆国ニューヨーク州マホパッ ク、マクレガー・ドライブ 402番地 (72)発明者 ジェムス・ジョセフ・マイヤズ アメリカ合衆国カリフォルニア州サンフラ ンシスコ、コロンブス・アベニュー、ナン バー6、950番地 (72)発明者 ウイリアム・ハロルド・テッラフ アメリカ合衆国ニューヨーク州マウント・ キスコ、フォックス・デン・ロード 37番 地 (72)発明者 ジェイ・ハロルド・アンガー アメリカ合衆国ニューヨーク州モーガン・ レイク、クノールウッド・コート(番地な し)Front Page Continuation (72) Inventor George Eisenberger 54 Albemarle Road, White Plains, New York, USA (72) Inventor Alexander Stafford Let 402 McGregor Drive, Mahopak, NY, USA ( 72) Inventor Gems Joseph Mayaz, San Francisco, California, Columbus Avenue, No. 6, 950 (72) Inventor William Harold Terrafu, Mount Kisco, New York, United States 37, Fox Den Road (72) Inventor Jay Harold Anger, Knorrwood Court, Morgan Lake, New York, USA (without street number)

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】データの論理ビューを乱さず、これにバッ
クアップ用ストレージを割り当てる必要なく、データ・
キャッシュを通してページをアクセスする、CPUで実
現される方法であって、該論理ビューが、少なくとも第
1及び第2のページ編成ファイルの形をとり、 該CPUが、オペレーティング・システム、RAMアド
レス可能なページから形成されたデータ・キャッシュを
含む内部ストレージ、DASDアドレス可能なページか
ら形成された外部ストレージ、及び該内部/外部ストレ
ージをアクセスするために該CPUのリード/ライト動
作に応答する手段を含み、 上記CPUリード/ライト動作に応答して、最初に外部
ストレージ仮想アドレス(VESA)にマップされ、次
に外部ストレージの物理アドレスにマップされる線形空
間内の、第1または第2のファイルのページのアドレス
に従って該アドレスを参照し、参照されたページを、他
の場合に上記データ・キャッシュに置かれていなけれ
ば、そのVESAアドレスをインデクシング・アーギュ
メントとしてデータ・キャッシュに書き込むステップ
と、 CPUライト動作に応答して、第1および第2のファイ
ルに共通の、キャッシュに置かれたページをその場で更
新し、他の場合には、更新されたページを別のVESA
アドレスを用いて別のキャッシュ・ロケーションにコピ
ーするステップとを含む、 ページ・アクセス方法。
1. A data view that does not disturb the logical view of the data and does not require any backup storage to be allocated to it.
A CPU-implemented method of accessing a page through a cache, wherein the logical view is in the form of at least a first and a second page organization file, the CPU being an operating system, a RAM-addressable page. An internal storage including a data cache formed from the external storage, an external storage formed from DASD addressable pages, and means for responding to a read / write operation of the CPU to access the internal / external storage, Address of a page of a first or second file in linear space that is first mapped to an external storage virtual address (VESA) and then to a physical address of the external storage in response to a CPU read / write operation. And refer to the address according to , If not located in the data cache, then writing the VESA address to the data cache as an indexing argument, and in response to the CPU write operation, a cache common to the first and second files. Update the page on the fly, otherwise update the updated page to another VESA
Copying to another cache location using an address.
【請求項2】請求項1に記載の方法であって、ページ
を、変更後にのみ、データ・キャッシュから外部ストレ
ージの物理アドレスへ書き出すステップを含む、ページ
・アクセス方法。
2. The page access method according to claim 1, including the step of writing a page from a data cache to a physical address of an external storage only after modification.
【請求項3】請求項1に記載の方法であって、外部スト
レージ内のページの物理アドレスが変更された場合に、
VESAアドレスが変わらない限り、キャッシュ内のペ
ージの無効化を省略する、 ページ・アクセス方法。
3. The method according to claim 1, wherein when a physical address of a page in the external storage is changed,
A page access method that skips invalidating pages in the cache unless the VESA address changes.
【請求項4】データ・ファイルのバージョン化フィーチ
ャを含み、第1及び第2のページ編成ファイルをもつ外
部ストレージ用のキャッシュを管理する、CPUで実現
される方法であって、該CPUが、RAMアドレス可能
なページから形成された内部ストレージ及びDASDア
ドレス可能なページから形成された外部ストレージを含
み、(a)少なくとも2つの名前つきページ(AV1P
0、AV1P1)を所定のファイルに作成し、デバイス
独立なロケーションを外部ストレージ論理空間(VF
0、VF1)に割り当てるステップと、(b)上記ペー
ジ(AV1P0、AV1P1)をキャッシュに書き込
み、該ページのキャッシュ・ロケーションに、上記外部
ストレージ論理空間のアドレス(VF0、VF1)のイ
ンデクスをつけるステップと、(c)上記第1及び第2
のファイルに共通ではないページの更新(AV2P0、
AV2P1’)に応答して、別の外部ストレージ論理空
間(AV2P1’に対してVF2)を割り当て、更新さ
れたページをキャッシュ内の該別のストレージ空間のロ
ケーションに格納するステップと、(d)上記第1及び
第2のファイルに共通のページの更新に応答して、該ペ
ージを上記キャッシュのその場で更新し、他の場合に
は、そのシャドー・コピーをキャッシュに書き込んで、
それにまた別の外部ストレージ論理空間(VF2’)を
割り当てるステップとを含む、 キャッシュ管理方法。
4. A CPU-implemented method for managing a cache for external storage that includes data file versioning features and has first and second page organization files, the CPU comprising a RAM. Including internal storage formed from addressable pages and external storage formed from DASD addressable pages, (a) at least two named pages (AV1P
0, AV1P1) is created in a specified file, and device-independent locations are created in the external storage logical space (VF).
0, VF1), and (b) writing the page (AV1P0, AV1P1) into the cache and indexing the cache location of the page with the address (VF0, VF1) of the external storage logical space. , (C) the first and second
Pages not common to all files (AV2P0,
Allocating another external storage logical space (VF2 for AV2P1 ') in response to the AV2P1') and storing the updated page in a location of the other storage space in the cache, and (d) above. Responsive to updating the page common to the first and second files, updating the page in-place in the cache, otherwise writing its shadow copy to the cache,
Allocating another external storage logical space (VF2 ') thereto.
【請求項5】請求項4に記載の方法であって、不揮発性
キャッシュに関係し、(e)フル・キャッシュに応答し
て、空間を外部ストレージに割り当て、更新されたペー
ジを該空間にコピーし、外部論理空間ロケーションと該
外部ストレージ内の物理ロケーションとのコンコーダン
スを形成するステップを含む、 キャッシュ管理方法。
5. The method according to claim 4, wherein the space is allocated to an external storage and the updated page is copied to the space in response to the non-volatile cache, and (e) responding to the full cache. And a cache management method comprising forming a concordance between an external logical space location and a physical location in the external storage.
【請求項6】請求項4に記載の方法であって、キャッシ
ュが、双安定残留磁性材料または双安定バッテリ・バッ
クアップ静電材料から形成されたアドレス可能メモリか
ら成るセットから選択された不揮発性キャッシュであ
る、 キャッシュ管理方法。
6. The method of claim 4, wherein the cache is a non-volatile cache selected from a set of addressable memories formed from bistable remanent magnetic material or bistable battery backup electrostatic material. Is a cache management method.
JP3012453A 1991-01-10 1991-01-10 Cache management method Expired - Lifetime JP2618096B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3012453A JP2618096B2 (en) 1991-01-10 1991-01-10 Cache management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3012453A JP2618096B2 (en) 1991-01-10 1991-01-10 Cache management method

Publications (2)

Publication Number Publication Date
JPH0736781A true JPH0736781A (en) 1995-02-07
JP2618096B2 JP2618096B2 (en) 1997-06-11

Family

ID=11805762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3012453A Expired - Lifetime JP2618096B2 (en) 1991-01-10 1991-01-10 Cache management method

Country Status (1)

Country Link
JP (1) JP2618096B2 (en)

Also Published As

Publication number Publication date
JP2618096B2 (en) 1997-06-11

Similar Documents

Publication Publication Date Title
US5088026A (en) Method for managing a data cache using virtual external storage addresses as arguments
JP3102495B2 (en) Virtual memory management method
US5899994A (en) Flexible translation storage buffers for virtual address translation
US5230045A (en) Multiple address space system including address translator for receiving virtual addresses from bus and providing real addresses on the bus
US5123101A (en) Multiple address space mapping technique for shared memory wherein a processor operates a fault handling routine upon a translator miss
US4742450A (en) Method to share copy on write segment for mapped files
US5493660A (en) Software assisted hardware TLB miss handler
US7206915B2 (en) Virtual space manager for computer having a physical address extension feature
US6591355B2 (en) Distributed shared memory system with variable granularity
US4742447A (en) Method to control I/O accesses in a multi-tasking virtual memory virtual machine type data processing system
US6125430A (en) Virtual memory allocation in a virtual address space having an inaccessible gap
EP0729102B1 (en) Cachability attributes for virtual addresses in virtually and physically indexed caches
US5555395A (en) System for memory table cache reloads in a reduced number of cycles using a memory controller to set status bits in the main memory table
JPS62165249A (en) Automatic enlargement of segment size in page segmenting virtual memory data processing system
US7493464B2 (en) Sparse matrix
JP3872968B2 (en) System and method for dynamically reallocating memory in a computer system
EP0805398A1 (en) Memory management system and method for processor having separate code and data contexts
EP1204029A2 (en) Microprocessor and address translation method for microprocessor
JP2000227874A (en) Method and device for addressing contents of main memory including directory structure in computer system
US7177980B2 (en) Cache storage system and method
US5159677A (en) Method and system for storing data in and retrieving data from a non-main storage virtual data space
Silberschatz et al. Operating systems
US5341485A (en) Multiple virtual address translation per computer cycle
JP2618096B2 (en) Cache management method
KR100354274B1 (en) Method for sharing page directory in main computer