JPH0229988A - Memory device - Google Patents

Memory device

Info

Publication number
JPH0229988A
JPH0229988A JP1071723A JP7172389A JPH0229988A JP H0229988 A JPH0229988 A JP H0229988A JP 1071723 A JP1071723 A JP 1071723A JP 7172389 A JP7172389 A JP 7172389A JP H0229988 A JPH0229988 A JP H0229988A
Authority
JP
Japan
Prior art keywords
access
page
data
address
page address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1071723A
Other languages
Japanese (ja)
Inventor
Masatsugu Kametani
亀谷 雅嗣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP1071723A priority Critical patent/JPH0229988A/en
Publication of JPH0229988A publication Critical patent/JPH0229988A/en
Pending legal-status Critical Current

Links

Landscapes

  • Memory System (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Dram (AREA)

Abstract

PURPOSE:To attain high speed random access by dividing the dynamic RAM group of a respective page unit into plural groups, obtaining a memory system which can access independently and accessing by page accessing. CONSTITUTION:A page address latch 8 of a memory accessing device 2a stores an old page address designated before one access, receives a page address 6 with the accessing of a processor 1 and transfers an old page address 9 to a page address comparing circuit 10 on latching a new page address. The page address comparing circuit 10 compares the new page address 6 with the old page address 9, executes the decision whether the addresses of the both are coincident or not, and by a page accessing means constituted with a multiplexer 12 and a RAS/CAS generating circuit 13, when the addresses of the both are coincident, page access according to the old page address 9 is outputted to a dynamic memory system 3a, and when they are not coincident, the page access by the new page address 6 is outputted to the system 3a.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明はメモリ装置に係り、特にダイナミックRAM群
を有するメモリシステムを高速度でアクセスするに好適
なメモリ装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a memory device, and particularly to a memory device suitable for accessing a memory system having a dynamic RAM group at high speed.

〔従来の技術〕[Conventional technology]

従来、高速なプロセッサの大規模メモリシステムは、そ
のアクセスタイムを短縮するために、スタテックメモリ
で構成されたキャッシュメモリシステムを構成すると共
に、キャッシュメモリシステムに対するアクセス装置と
してダイナミックRAMで構成された大規模メモリシス
テムとプロセッサとの間に高−速バッファを設ける方式
を採用している。このキャッシュメモリのアクセスに関
する技術としては、特開昭62−197842号公報に
記載されているものが知られている。
Conventionally, large-scale memory systems for high-speed processors have consisted of a cache memory system composed of static memory in order to shorten access time, and a large-scale memory system composed of dynamic RAM as an access device for the cache memory system. A method is adopted in which a high-speed buffer is provided between the large-scale memory system and the processor. As a technique related to accessing the cache memory, the technique described in Japanese Patent Application Laid-open No. 197842/1983 is known.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかし、従来の技術としては、基本的にバッファシステ
ムによるアクセスの高速化を図ったものであり、この技
術によれば、長期にわたって実行されるプログラムや長
期にわたって使用されるデータに対しては有効に動作す
る。ところが、割込み等のダイナミックな要因が頻繁に
発生し、それに伴って実行されるプログラムや処理され
るデータも頻繁に変動するダイナミックな処理系を多く
含むシステムでは、実時間処理能力が低下するという問
題があった。又、システムに高速なキャッシュメモリを
用いることはコストアップとなり、さらにキャッシュメ
モリを制御するためのアクセ(ス機構も複雑で高価にな
るという不具合がある。
However, conventional technology basically uses a buffer system to speed up access, and this technology is not effective for programs that are executed over long periods of time or for data that is used over long periods of time. Operate. However, in systems that include many dynamic processing systems where dynamic factors such as interrupts occur frequently, and the programs being executed and the data being processed also frequently change, the problem is that the real-time processing capacity decreases. was there. Furthermore, using a high-speed cache memory in a system increases costs, and the access mechanism for controlling the cache memory also becomes complex and expensive.

本発明の目的は、プログラムや処理されるデータが頻繁
に変動するダイナミックな処理系を多く含むシステムで
も高速度なアクセスが可能となるメモリ装置を提供する
ことにある。
An object of the present invention is to provide a memory device that enables high-speed access even in a system that includes many dynamic processing systems in which programs and data to be processed change frequently.

〔課題を解決するための手段〕[Means to solve the problem]

前記目的を達成するために、本発明は、複数の記憶セル
がマトリクス状に配された複数のダイナミックRAMを
ページ単位毎にまとめ、各ページ単位のダイナミックR
AM群を、ページ間でアクセス干渉の起こりにくいデー
タを格納しているページの集合を一つのグループとして
複数のグループに分け、各グループのダイナミックRA
Mをページアクセス(高速ページモード又はスタティッ
クカラムモード又はニブルモード)に応答するメモリシ
ステムで構成し、各グループのメモリシステムにそれぞ
れ独立して、各グループのメモリシステムのページアド
レスを指定するためのアクセスに応答して、このアクセ
スより少なくとも1アクセス前に指定された旧ページア
ドレスを記憶する記憶手段と、前記ページアドレスのア
クセスに応答して、このアクセスにより指定された新ペ
ージアドレスと記憶手段に記憶されている旧ページアド
レスの内容の一致を判定する判定手段と、判定手段の判
定結果が一致のときには旧ページアドレスに従ったペー
ジアクセスを、判定結果が不一致のときには、新ページ
アドレスによるページアクセスを各グループのメモリシ
ステムへ指令するページングアクセス手段とを設けてな
るメモリ装置を構成したものである。
In order to achieve the above object, the present invention collects a plurality of dynamic RAMs in which a plurality of memory cells are arranged in a matrix in page units, and dynamic RAMs in each page unit.
The AM group is divided into multiple groups, with a set of pages storing data that is unlikely to cause access interference between pages, and the dynamic RA of each group is
M is configured with memory systems that respond to page access (fast page mode, static column mode, or nibble mode), and access for specifying the page address of each group's memory system independently for each group's memory system. In response to the access, storage means stores an old page address specified at least one access before this access; and in response to the access to the page address, a new page address specified by this access is stored in the storage means. a determining means for determining whether the content of the old page address matches, and when the determining result of the determining means is a match, a page access is performed according to the old page address, and when the determination result is a mismatch, a page access is performed using a new page address. This memory device is provided with paging access means for issuing commands to the memory systems of each group.

又、各ページ単位のダイナミックRAM群を、ダイナミ
ックメモリ装置に接続されるプロセッサの処理動作を規
定する命令コードである命令データを格納するメモリシ
ステムと、命令コードに従って処理すべきデータの内容
を格納するメモリシステムとの少なくとも2つの独立し
たグループに分け、各グループのメモリシステムに、前
記記憶手段と、判定手段とページングアクセス手段とを
設けてなるメモリ装置を構成したものである。
In addition, each page-based dynamic RAM group is used as a memory system for storing instruction data, which is an instruction code that defines the processing operation of a processor connected to the dynamic memory device, and for storing the contents of data to be processed according to the instruction code. The memory system is divided into at least two independent groups, and each group's memory system is provided with the storage means, determination means, and paging access means.

〔作用〕 アクセス指令手段から各グループのメモリシステムのペ
ージアドレスを指定するためのアクセスが出力されると
、このアクセスに応答して、旧ページアドレスと新ペー
ジアドレスとの内容の一致が判定され、判定結果が一致
のときには旧ページアドレスに従ったページアクセスが
実行され、判定結果が不一致のときにはアクセスすべき
ページを新ページに更新した後、新ページアドレスによ
るページアクセスが実行される。即ち、ページアドレス
に変更がないときには旧ページアドレスに従った高速な
連続ページアクセスが実行され、ページアドレスが変わ
ったときにのみ新ページアドレスに従った通常のDRA
Mアクセスが実行される。このため、ページアクセスを
実行する場合でも、ページアドレスが変わる1アクセス
分だけページを切り換えるためのオーバーヘッドによっ
てメモリアクセスに時間かがかり、ページアドレスに変
更がないときにはページアドレスを一定としたオーバー
ヘッドの無いページアクセスが実行される。本発明では
、ページアドレスが変わる時に生じるページ切換えオー
バーヘッドを、ページ間アクセス干渉の生じゃすいデー
タ同志をグループにまとめ、複数のグループを構成し、
各グループをそれぞれ独立したメモリアクセス装置にて
制御される独立したダイナミックメモリシステム割り付
ける構成を採ることによってページアドレスが変わる確
率を大幅に小さくし、ページ切換えオーバーヘッドを極
力小さくすることによって高速度なアクセスが可能とな
る。
[Operation] When the access command means outputs an access for specifying the page address of the memory system of each group, in response to this access, it is determined whether the contents of the old page address and the new page address match, When the determination result is a match, a page access is performed according to the old page address, and when the determination result is a mismatch, the page to be accessed is updated to a new page, and then a page access is performed using the new page address. That is, when there is no change in the page address, high-speed continuous page access is performed according to the old page address, and only when the page address changes, normal DRA is performed according to the new page address.
M accesses are performed. Therefore, even when performing page access, memory access takes time due to the overhead of switching pages for one access that changes the page address, and when there is no change in the page address, a page without overhead with a constant page address is used. Access is performed. In the present invention, the page switching overhead that occurs when a page address changes can be reduced by grouping together pieces of data that are likely to cause inter-page access interference, and configuring a plurality of groups.
By allocating each group to an independent dynamic memory system controlled by an independent memory access device, the probability of page address change is greatly reduced, and page switching overhead is minimized to achieve high-speed access. It becomes possible.

〔実施例〕〔Example〕

以下、本発明の一実施例を第1図に基づいて説明する。 An embodiment of the present invention will be described below with reference to FIG.

第1図において、本実施例におけるメモリ系は命令用ダ
イナミックメモリシステム3a、メモリアクセス装[2
aを含む系とデータ用ダイナミックメモリシステム3b
、メモリアクセス装W2bを含む系の2系統に分割され
ており、各部にはプロセッサ1からデータバス4を介し
七データが、アドレスバス5を介してアドレスが、クロ
ックライン27を介してクロック信号が、コントロール
ライン20.デコータ回路18を介してコントロール信
号がそれぞれ供給されるようになっている。
In FIG. 1, the memory system in this embodiment includes an instruction dynamic memory system 3a, a memory access device [2
Dynamic memory system 3b for system and data including a
, a system including a memory access unit W2b, and each part receives data from the processor 1 via a data bus 4, addresses via an address bus 5, and clock signals via a clock line 27. , control line 20. Control signals are supplied via the decoder circuit 18, respectively.

ダイナミックメモリシステム3a、3bは、複数の記憶
セルがマトリックス状に配列された複数のダイナミック
RAM群をページ単位毎にまとめたもので構成されてお
り、各システムはページ間でアクセス干渉が起こりにく
いものが集められページアクセスに応答するメモリシス
テムで構成されている。即ち、本実施例において、各ペ
ージ単位のダイナミックRAM群を、ページ間でアクセ
ス干渉の起こりにくいプログラムやデータの集合を1つ
のグループとして2つのグループに分け、各グループの
ダイナミックRAMをページアクセスに応答するメモリ
システム3a、3bで構成している。逆に言えば、各メ
モリシステム(本例では3a、3b)間では、ページ間
アクセス干渉が頻繁に生じても良い、すなわち、ページ
間干渉の生じやすいプログラム又はデータのグループを
分離して各メモリシステムに割り付ける様にする。
The dynamic memory systems 3a and 3b are composed of a plurality of dynamic RAM groups in which a plurality of memory cells are arranged in a matrix, grouped in page units, and each system is designed such that access interference is unlikely to occur between pages. It consists of a memory system that collects information and responds to page accesses. That is, in this embodiment, the dynamic RAM group for each page is divided into two groups, with programs and data sets that are unlikely to cause access interference between pages as one group, and the dynamic RAM in each group is configured to respond to page accesses. It consists of memory systems 3a and 3b. Conversely, inter-page access interference may frequently occur between each memory system (3a, 3b in this example). In other words, groups of programs or data that are likely to cause inter-page interference are separated and Assign it to the system.

本実施例では、その−例としてメモリシステム3aには
プロセッサ1が実行すべき命令コードである命令データ
を格納し、メモリシステム3bには命令コードに従って
処理すべきデータの内容であるオペランドデータを格納
するようになっている。そして、各メモリシステムのデ
ータのアドレスとして上位のアドレスがページアドレス
(ROvアドレス)として割付けられ、下位のアドレス
がデータアドレス(COLUMNアドレス)として割付
けられている。
In this embodiment, as an example, the memory system 3a stores instruction data, which is an instruction code to be executed by the processor 1, and the memory system 3b stores operand data, which is the content of data to be processed according to the instruction code. It is supposed to be done. As the data address of each memory system, an upper address is assigned as a page address (ROv address), and a lower address is assigned as a data address (COLUMN address).

ここでページアクセスとは、DRAMアクセスモードの
うち、高速ページモード、スタティックカラムモード、
及びニブルモードによるアクセスのことを言う。すなわ
ち、ROWアドレスに与えるページアドレスを固定して
、同一ページ内のデータをCOLUMNアドレスに与え
るデータアドレスを変更するだけ高速にアクセスするこ
とをここではページアクセスと定義する0本発明で有効
なのはランダムアクセスが可能な高速ページモード及び
スタティックコラムモードであるが、命令データのフェ
ッチの様に、連続したアドレスの連続アクセス(例えば
本例における命令用ダイナミックメモリシステム3aへ
のアクセス)等には、ニブルモードを使用することも考
えられる。今後、代表的なページアクセスとして、高速
ページモードを用いたページアクセスを実行するものと
して説明を進めていく。
Here, page access refers to DRAM access modes such as high-speed page mode, static column mode,
and nibble mode access. In other words, page access is defined here as fixing the page address assigned to the ROW address and accessing data in the same page at high speed by changing the data address assigned to the COLUMN address. What is effective in the present invention is random access. However, for continuous access to consecutive addresses such as fetching instruction data (for example, access to the instruction dynamic memory system 3a in this example), the nibble mode is used. It is also possible to use From now on, we will proceed with the explanation assuming that page access is performed using high-speed page mode as a typical page access.

メモリアクセス装置2a、2bは記憶手段としてのペー
ジアドレスラッチ81判定手段としてのページアドレス
比較回路10.マルチプレクサ12、RAS/■発生回
路13から構成されている。なお、メモリアクセス装置
!Z2bはメモリアクセス装置2aと同一の機能を有す
るため、メモリアクセス装置2aのみ具体的構成を示し
である。
The memory access devices 2a, 2b include a page address latch 81 as a storage means and a page address comparison circuit 10 as a determination means. It is composed of a multiplexer 12 and a RAS/■ generation circuit 13. In addition, it is a memory access device! Since Z2b has the same function as the memory access device 2a, only the specific configuration of the memory access device 2a is shown.

ページアドレスラッチ8はアクラス指令手段としてのプ
ロセッサ1のアクセスに伴ってアドレスバス5に出力さ
れるページアドレス6を受け、現在指示されているペー
ジアドレス(新ページアドレス)をアドレスストローブ
信号ADS19の立ち上がり時点でラッチするようにな
っている。即ち、アドレスストローブ信号ADS19a
が立ち上がる前までは、前にアクセスされたページアド
レス(旧ページアドレス)6をラッチしているようにな
っている。そして新ページアドレスがラッチされたとき
には、旧ページアドレス9をページアドレス比較回路1
0へ転送するようになっている。ページアドレス比較回
路10は新ページアドレス6と旧ページアドレス9とを
比較し、両者のアドレスの内容が一致するか否かの判定
を行ない、判定結果が一致のときには、ハイレベルの比
較信号11を出力し、判定結果が不一致のときにはロー
レベルの比較信号11をRAS/■発生回路13へ出力
するようになっている。RAS/■発生回路13はダイ
ナミックメモリシステム3aのRAS信号15a、■信
号16aの入力タイミングを満たすように、プロセッサ
1及びページアドレス比較回路10からの比較信号11
を基にRAS信号15a及び■信号16aをダイナミッ
クメモリシステム3aへ出力するようになっている。
The page address latch 8 receives the page address 6 output to the address bus 5 upon access by the processor 1 as an access command means, and transfers the currently specified page address (new page address) at the rising edge of the address strobe signal ADS19. It is designed to latch with. That is, the address strobe signal ADS19a
Until it starts up, the previously accessed page address (old page address) 6 is latched. When the new page address is latched, the old page address 9 is transferred to the page address comparison circuit 1.
It is configured to transfer to 0. The page address comparison circuit 10 compares the new page address 6 and the old page address 9, determines whether the contents of the two addresses match or not, and when the determination result is a match, sends a high-level comparison signal 11. If the determination result is a non-coincidence, a low level comparison signal 11 is output to the RAS/2 generation circuit 13. The RAS/■ generating circuit 13 receives the comparison signal 11 from the processor 1 and the page address comparison circuit 10 so as to satisfy the input timing of the RAS signal 15a and the ■ signal 16a of the dynamic memory system 3a.
Based on this, a RAS signal 15a and a signal 16a are output to the dynamic memory system 3a.

なお、本例においては、RAS信号及び■信号の立ち上
がり及び立ち下がりのタイミング及び論理状態は、標準
的なダイナミックメモリICに対して規定されているA
Cタイミングに準じている。
Note that in this example, the rising and falling timings and logic states of the RAS signal and the (2) signal are A specified for standard dynamic memory ICs.
It follows C timing.

又、マルチプレクサ12はデータアドレス7と新ページ
アドレス6を受け、 RAS信号15aが立ち上がっている期間あるいは■信
号16aが立ち下がっている期間を用いて新ページアド
レス6を選択し、RAS信号15aの立ち下がりでダイ
ナミックメモリシステム3aにラッチできるタイミング
でメモリアドレス信号14aとして出力する。また、R
AS信号15aが立ち下がっている期間かあるいは■信
号16aが立ち上がっている期間を用いてデータアドレ
ス7を選択し、■信号16aの立ち下がりでダイナミッ
クメモリシステム3aにラッチできるタイミングでメモ
リアドレス信号14aとして出力する。即ち、マルチプ
レクサ12は、 RAS信号15aを受けて、ダイナミックメモリシステ
ム3aへのメモリアドレス信号14aが切換えられるよ
うになっており、マルチプレクサ12とRAS/■発生
回路13によりページングアクセス手段が構成されてい
る。なお1本例においては、新ページアドレスとしてプ
ロセッサ1から送られて来るページアドレス6を直接マ
ルチプレクサ12に入力しているが、RAS信号15a
の立ち上がりのタイミングで14aに出力されたページ
アドレスがダイナミックメモリシステム3aにラッチで
きるという条件さえ満たせば、ページ不一致を比較回路
10で検出した後、−度ページアドレスラツチ8に新ペ
ージアドレス6をラッチした後、その出力信号9(2a
内の点線で示した信号)を新ページアドレスデータとし
てマルチプレクサ12に送っても良い、また、パイプラ
インバスサイクル(後述する)によりメモリアクセスサ
イクルが構成されている場合、プロセッサから先出しさ
れてくるアドレス情報6及び7を一度ラッチする手段を
設け、そのラッチ手段にラッチされたページアドレス及
びデータアドレスをマルチプレクサ12に転送する必要
がある。その際ページアドレス6に関してはページアド
レスラッチ9をラッチ手段として流用することも可能で
ある。
Further, the multiplexer 12 receives the data address 7 and the new page address 6, selects the new page address 6 using the period when the RAS signal 15a is rising or the period when the signal 16a is falling, and selects the new page address 6 when the RAS signal 15a is rising. It is output as a memory address signal 14a at a timing that can be latched into the dynamic memory system 3a at the falling edge. Also, R
Data address 7 is selected using the period when the AS signal 15a is falling or the period when the signal 16a is rising, and the data address 7 is selected as the memory address signal 14a at the timing when the signal 16a falls and can be latched into the dynamic memory system 3a. Output. That is, the multiplexer 12 is configured to switch the memory address signal 14a to the dynamic memory system 3a upon receiving the RAS signal 15a, and the multiplexer 12 and the RAS/■ generation circuit 13 constitute paging access means. . In this example, the page address 6 sent from the processor 1 as a new page address is directly input to the multiplexer 12, but the RAS signal 15a
As long as the condition that the page address output to 14a can be latched to the dynamic memory system 3a at the rising timing of After that, the output signal 9 (2a
The signal indicated by the dotted line in the box) may be sent to the multiplexer 12 as new page address data.Also, if the memory access cycle is composed of a pipeline bus cycle (described later), the address previously output from the processor may be sent to the multiplexer 12 as new page address data. It is necessary to provide means for once latching the information 6 and 7, and to transfer the page address and data address latched by the latching means to the multiplexer 12. In this case, regarding the page address 6, it is also possible to use the page address latch 9 as a latch means.

又、アクセスの終了は■信号16aが用いられ、この信
号がまたバス終了要求信号24aとしてREADY信号
発生回路22に転送され、それに基づき適切なタイミン
グでREADY信号23がプロセッサ1に出力されるこ
とによってプロセッサ1にバスサイクルの終了が知らさ
れる。
Furthermore, the access is terminated using the signal 16a, which is also transferred to the READY signal generation circuit 22 as the bus termination request signal 24a, and based on this, the READY signal 23 is output to the processor 1 at an appropriate timing. Processor 1 is notified of the end of the bus cycle.

又、デコーダ回路18はプロセッサ1からコントロール
信号20を受けると共に、アドレスバス信号5からアド
レス21を受けそれをデコードし、プロセッサがダイナ
ミックメモリシステム3a及び3bへのアクセスを要求
していれば、対応するメモリアクセス装置2a及び2b
へ対応するアドレスストローブ信号ADS19a及び1
9bを出力する。また1本例ではプロセッサからの書き
込み指令を示すライト信号25をダイナミックメモリシ
ステム3a、3bに出力する役割りも果たしている。又
、デコーダ回路18からREADY信号発生回路22へ
はバスサイクルが実行されているか否かを示す信号26
が出力されている。
Further, the decoder circuit 18 receives a control signal 20 from the processor 1, and also receives an address 21 from the address bus signal 5 and decodes it, and if the processor requests access to the dynamic memory systems 3a and 3b, it responds accordingly. Memory access devices 2a and 2b
Address strobe signals ADS19a and 1 corresponding to
Outputs 9b. In this example, it also plays the role of outputting a write signal 25 indicating a write command from the processor to the dynamic memory systems 3a and 3b. Further, a signal 26 indicating whether a bus cycle is being executed is sent from the decoder circuit 18 to the READY signal generating circuit 22.
is being output.

メモリアクセス装置12b及びダイナミックメモリシス
テム3bも、2a及び3aと同様の機能を有しており、
それぞれ独立してアクセス動作できる様になっている。
The memory access device 12b and the dynamic memory system 3b also have the same functions as 2a and 3a,
Each can be accessed independently.

次に、新ページアドレス6と旧ページアドレス9が不一
致の場合と一致の場合とを第2図に基づいて説明する。
Next, a case where the new page address 6 and the old page address 9 do not match and a case where they match will be explained based on FIG.

第2図において、ステートSQL〜SO4は1つ前のア
クセスに示された旧ページアドレス9と現在アクセスさ
れた新ページアドレス6とが異なる場合を示している。
In FIG. 2, states SQL to SO4 show a case where the old page address 9 indicated in the previous access and the currently accessed new page address 6 are different.

即ち、ページアドレス比較回路10において、新ページ
アドレス6と旧ページアドレス9とが不一致であると判
定された場合の動作タイミングを示している0両者のペ
ージアドレスが比較される有効期間は新ページアドレス
6がプロセッサ1から出力されてから、このアドレスが
ページアドレスラッチ8にラッチされるタイミングであ
るアドレスストローブ信号A D S 19が立ち上が
る時刻までである。即ち、ステートS1の先頭からステ
ートSO3の立ち下がりまでである。
That is, 0 indicates the operation timing when the page address comparison circuit 10 determines that the new page address 6 and the old page address 9 do not match.The valid period during which both page addresses are compared is the new page address. 6 is output from the processor 1 until the time when the address strobe signal A D S 19 rises, which is the timing at which this address is latched into the page address latch 8. That is, from the beginning of state S1 to the falling edge of state SO3.

プロセッサ1がプログラムに従ってステートS01の立
ち下がりからステート803の立ち下がりまでアドレス
ストローブ信号A D S 19 aを出力すると、こ
の信号がLOレベルとなるアクティブな期間内で、かつ
ページアドレス比較回路10の比較結果が正しい比較結
果を提示するステートS01の立ち上がりで比較結果が
ラッチされ。
When the processor 1 outputs the address strobe signal ADS19a from the falling edge of state S01 to the falling edge of state 803 according to the program, within the active period when this signal is at LO level, and when the page address comparison circuit 10 compares The comparison result is latched at the rising edge of state S01, which presents a correct comparison result.

比較信号11が出力される。即ち、プロセッサ1からの
アクセスに従ってページアドレス比較回路10より新ペ
ージアドレス6と旧ページアドレス9との比較が行なわ
れ、比較結果が不一致のときにはLOレベルの比較信号
11が、比較結果が一致のときにはHIレベルの比較信
号11が出力される。そして比較結果が不一致のときに
はステートS01の立ち下がりでLOレベルの比較信号
11が出力される。そしてステートSQLの立ち上がり
時点で比較信号11がLOレベルになっている場合には
RAS/■発生回路13はRAS信号15をHIレベル
に反転する。なお、ステートS02の立ち下がりのタイ
ミングでRAS信号15がHIレベルにある場合には、
RAS/■発生回路13は■信号16をHIレベルの状
態に維持する。一方、RAS信号15は十分なRASプ
リチャージタイムを経た後LOレベルに立ち下げられる
。この場合3クロック分、即ち5OWIの立ち上がりで
RAS信号15はLOレベルに反転する。この後1クロ
ツク後に■信号16もLOレベルに反転する。この■信
号16が出力されると、ステート5OW4の立ち下がり
時点でREADY信号発生回路22がらREADY信号
23がプロセッサ1とメモリアクセス装[2aへ出力さ
れる。これにより、バスステートはステートSO4の立
ち上がりで終了し、 この時点で比較信号11はE(Iレベルに反転し。
A comparison signal 11 is output. That is, in accordance with the access from the processor 1, the page address comparison circuit 10 compares the new page address 6 and the old page address 9, and when the comparison result is a mismatch, the comparison signal 11 is at the LO level, and when the comparison result is a match, the comparison signal 11 is at the LO level. A comparison signal 11 at HI level is output. When the comparison result is non-coincidence, the comparison signal 11 at LO level is output at the falling edge of state S01. If the comparison signal 11 is at the LO level at the time of the rise of state SQL, the RAS/2 generation circuit 13 inverts the RAS signal 15 to the HI level. Note that if the RAS signal 15 is at HI level at the falling timing of state S02,
The RAS/■ generating circuit 13 maintains the ■ signal 16 at HI level. On the other hand, the RAS signal 15 is lowered to the LO level after a sufficient RAS precharge time. In this case, the RAS signal 15 is inverted to the LO level for three clocks, that is, at the rising edge of 5OWI. Thereafter, one clock later, the (2) signal 16 is also inverted to the LO level. When the {circle around (2)} signal 16 is output, the READY signal 23 is output from the READY signal generating circuit 22 to the processor 1 and the memory access device [2a] at the falling edge of state 5OW4. As a result, the bus state ends with the rise of state SO4, and at this point the comparison signal 11 is inverted to E (I level).

■信号16もHIレベル(非アクティブな状態)に戻る
。なおRAS信号15はLOレベルのままに維持されて
いる。
(2) Signal 16 also returns to HI level (inactive state). Note that the RAS signal 15 is maintained at the LO level.

このように、ページアドレスが不一致の場合にはRAS
プリチャージ時間(ステートSO2の先頭から5OW1
の立ち上がり時点まで)が必要となるため、ダイナミッ
クメモリシステム3aのアクセスタイムを満たすために
、本例においては、4クロツクのウェイトステート(待
ちステート)SOWI〜5OW4を必要としている。即
ち、ページアドレスが一致したときには、旧ページアド
レス9に従ったページモードアクセスとしてデータアド
レス(■アドレス)7がダイナミックメモリシステム3
aへ転送されるが、ページアドレスが不一致のときには
RASプリチャージ時間だけデータアドレス7の転送時
間が遅れる。
In this way, if the page addresses do not match, the RAS
Precharge time (5OW1 from the beginning of state SO2
In order to satisfy the access time of the dynamic memory system 3a, in this example, four clock wait states SOWI to SOWI5OW4 are required. That is, when the page addresses match, the data address (■ address) 7 is transferred to the dynamic memory system 3 as a page mode access according to the old page address 9.
However, when the page addresses do not match, the transfer time of data address 7 is delayed by the RAS precharge time.

次に、ページアドレスが一致した場合、即ち、新ページ
アドレス6と旧ページアドレス9とが一致した場合をス
テートSll〜S14を用いて説明する。この場合1両
ページアドレスの比較が行なわれる有効期間は、新ペー
ジアドレスが出力されてからアドレスストローブ信号A
DS19が立ち上がる時点までである。
Next, a case where the page addresses match, that is, a case where the new page address 6 and the old page address 9 match will be explained using states Sll to S14. In this case, the valid period during which both page addresses are compared is from the output of the new page address to the address strobe signal A.
This is until the DS19 starts up.

ページアドレス比較回路1oの判定により両ページアド
レスが一致したときには、ステートSllの立ち上がり
時点ではすてにHIレベルになっている。即ち、ステー
トSO4の立ち上がり時点で比較信号11のレベルがH
Iレベルに反転しているため、ステートSllの立ち上
がり時点ではHIレベルに維持されている。さらにRA
S信号15aもLOレベルのままにされている。そして
When both page addresses match as determined by the page address comparison circuit 1o, they are already at the HI level at the time of rise of state Sll. That is, the level of the comparison signal 11 becomes H at the rising edge of state SO4.
Since it is inverted to I level, it is maintained at HI level at the time of rising of state Sll. Further R.A.
The S signal 15a is also kept at the LO level. and.

次のステートS12の立ち上がり時点で■信号16aが
LOレベルに反転する。この信号がREADY信号発生
回路22へ出力されると、ステートS13の立ち上がり
時点でREADY信号23がLOレベルに反転し、ステ
ートS14の立ち上がり時点でこのバスサイクルが終了
する。
When the next state S12 rises, the ■ signal 16a is inverted to the LO level. When this signal is output to the READY signal generation circuit 22, the READY signal 23 is inverted to the LO level at the rising edge of state S13, and this bus cycle ends at the rising edge of state S14.

このように、ページアドレスが一致した場合にはウェイ
トステートによる処理がなく、旧ページアドレス9に従
ってページモードアクセスが実行される。即ちページア
ドレスを固定し、データアドレス(■アドレス)7に従
ったアクセスが実行される。
In this way, when the page addresses match, there is no wait state processing and page mode access is executed according to the old page address 9. That is, the page address is fixed and access according to the data address (■ address) 7 is executed.

なお、メモリアドレス信号14aとしては、RA S 
jfl 号15 aがHIレベルのときには新ページア
ドレス6が出力され、RAS信号15aがLOレベルの
ときにはデータアドレス(■)7が出力される。これに
より、RAS信号15a。
Note that as the memory address signal 14a, RAS
When jfl No. 15a is at HI level, new page address 6 is output, and when RAS signal 15a is at LO level, data address (■) 7 is output. As a result, the RAS signal 15a.

■信号16aの立ち下がりにて必要なメモリアドレスを
ダイナミックメモリシステム3aにラッチすることがで
きる。
(2) A necessary memory address can be latched into the dynamic memory system 3a at the falling edge of the signal 16a.

以上、ダイナミックメモリシステム3a及びメモリアク
セス装置112aを例にとり本実施例におけるページア
クセス方式について述べた。ダイナミックメモリシステ
ム3b及びメモリアクセス装置2bにおいては、3a及
び2bと同等の機能を有するものとする。
The page access method in this embodiment has been described above, taking the dynamic memory system 3a and the memory access device 112a as examples. It is assumed that the dynamic memory system 3b and the memory access device 2b have the same functions as 3a and 2b.

次に、本実施例により複数の独立したダイナミックメモ
リシステム(3a、3b)及びメモリアクセス装置(2
a 、 2 b)を設けた場合の効果を第3図に基づい
て説明する。
Next, according to this embodiment, a plurality of independent dynamic memory systems (3a, 3b) and memory access devices (2
The effects of providing a, 2 and b) will be explained based on FIG.

ダイナミックRAM群を単一のグループとして用い1つ
のメモリアクセス装置で扱ったとすると、例えば、ペー
ジアドレスとしてアドレス5,100が指定され、デー
タアドレスとしてアドレスO〜7.56〜61が指定さ
れるメモリデータフェッチのシーケンスを実行した場合
には、ページアドレスが変わる毎にページ間のアクセス
干渉が生じ。
If the dynamic RAM group is used as a single group and handled by one memory access device, for example, memory data where address 5,100 is specified as the page address and addresses O~7.56~61 are specified as the data address. When a fetch sequence is executed, access interference between pages occurs every time the page address changes.

ウェイトステートが数多く挿入され、プロセッサ1の処
理速度が著しく低下することになる。一方、本実施例で
は、ページ間でアクセス干渉の起こりにくいものの集合
を1つのグループとして、例えば、ダイナミックメモリ
システム3aにはプロセッサ1の処理動作を規定するた
めの命令コードのデータである命令データを格納し、ダ
イナミックメモリシステム3bにはその命令コードに従
って処理すべきオペランドデータを格納することとして
いる。即ち、メモリデータとしては命令データとオペラ
ンドデータがあり、フェッチシーケンスの中には命令フ
ェッチとデータフェッチとは混在するが、命令が存在す
るアドレスとは離れていることが多い。したがって、命
令データとオペランドデータとでは、異ったページアド
レスに配置されている確率が大きく、1つのダイナミッ
クメモリシステムに混在して格納し、ページアクセスを
行った場合、ページ不一致が頻繁に発生し、ページ切換
えオーバーヘッドが増大してシステム性能が低下する可
能性が高い訳である。そこで、ページ間でアクセス干渉
の起こりにくいものの集合の第1のグループに命令デー
タの集合を選択して命令用ダイナミックメモリシステム
3aに割り付け、第2のグループにオペランドデータの
集合を選択してデータ用ダイナミックメモリシステム3
bに割り付けることにより、ページアドレスの干渉し易
いデータを別のグループとする構成を採れたことになる
。従って、第3図に示されるメモリデータフェッチのシ
ーケンスが実行された場合、ページアドレスとして5が
指定されたときにはダイナミックメモリ3aに対するア
クセスが実行され、ページアドレスとしてページアドレ
ス100が指定されたときにはダイナミックメモリシス
テム3aに対するアクセスが実行され、ページアドレス
を固定し、データアドレスの内容に従ったアクセスがそ
れぞれ実行される。これにより、メモリアクセス装置2
aのページアドレス比較回路10には、ページアドレス
5が長期間ラッチされた状態となり、メモリアクセス装
置12bのページアドレス比較回路10にはページアド
レス100が長期間ラッチされた状態となる1両メモリ
システムはノンウェイトの状態でデータのアクセスが可
能となる。
A large number of wait states are inserted, and the processing speed of the processor 1 is significantly reduced. On the other hand, in this embodiment, a set of pages that are unlikely to cause access interference between pages is treated as one group, and, for example, the dynamic memory system 3a stores instruction data, which is instruction code data for specifying processing operations of the processor 1. The dynamic memory system 3b stores operand data to be processed according to the instruction code. That is, memory data includes instruction data and operand data, and instruction fetches and data fetches coexist in a fetch sequence, but are often far from the address where the instruction exists. Therefore, there is a high probability that instruction data and operand data are located at different page addresses, and if they are stored together in one dynamic memory system and page access is performed, page mismatches will occur frequently. , there is a high possibility that page switching overhead will increase and system performance will deteriorate. Therefore, a set of instruction data is selected as the first group of items that are unlikely to cause access interference between pages and allocated to the dynamic memory system 3a for instructions, and a set of operand data is selected as the second group for data use. Dynamic memory system 3
By allocating it to b, it is possible to adopt a configuration in which data that is likely to interfere with page addresses is placed in a separate group. Therefore, when the memory data fetch sequence shown in FIG. 3 is executed, access to the dynamic memory 3a is executed when 5 is specified as the page address, and access to the dynamic memory 3a is executed when the page address 100 is specified as the page address. Access to the system 3a is executed, the page address is fixed, and access is executed according to the contents of the data address. As a result, memory access device 2
A one-car memory system in which the page address comparison circuit 10 of the memory access device 12b has the page address 5 latched for a long period of time, and the page address comparison circuit 10 of the memory access device 12b has the page address 100 latched for a long period of time. data can be accessed in a non-wait state.

このように、ダイナミックメモリシステムをページ間で
アクセス干渉の起こりにくいものの集合を1つのグルー
プとしたため、各メモリシステムをページモードアクセ
スによってアクセスすれば、キャッシュメモリと同様に
、ランダムアクセスにおける高速化が図れる。これは、
例えば本例の様に、命令データは命令データ同志、オペ
ランドブタはオペランドデータ同志まとまったアドレス
領域に存在している可能性が非常に高く、かつプロセッ
サが処理シーケンスの中で、連続的に扱う確率が高いた
め、それぞれのグループ内ではページ間でのアクセス干
渉がほとんど生じないため、1ページ当りのページアド
レス空間が十分大きければ、ページアドレスの不一致を
生じる確率がきわめて小さく、ダイナミックメモリシス
テムを前述した方法によりグループ分けすることがシス
テムの高速化に対して非常に有効である。
In this way, dynamic memory systems are grouped into groups that are unlikely to cause access interference between pages, so if each memory system is accessed using page mode access, speeds of random access can be achieved in the same way as with cache memory. . this is,
For example, as in this example, there is a very high possibility that instruction data exists in the same address area as the instruction data, and operand data exists in the same address area as the operand data, and the probability that the processor handles them continuously in the processing sequence is very high. is high, so there is almost no access interference between pages within each group. Therefore, if the page address space per page is large enough, the probability of page address mismatch is extremely small. Grouping by method is very effective for speeding up the system.

又1割込みなどダイナミックな要因によって処理するプ
ログラムが頻繁に変わる用途、例えば。
Also, applications where the program to be processed changes frequently due to dynamic factors such as one interrupt, for example.

制御システム、自動機械用コントローラには、従来のキ
ャッシュメモリを用いた高速バッファ技術では命令やデ
ータの再ロードなどのオーバヘッドが大きいため、不向
きである。これに対して、本実施例の方式によれば、ペ
ージアドレスが変わるときだけ、25nsを1ステート
として4マシンステート(100n s)のオーバヘッ
ドが生じるが、°ページアドレスが変わる可能性は極め
て少ないため、はとんどノンウェイト動作が可能となり
、十分なリアルタイムアクセス性能を提供することがで
きる。
Conventional high-speed buffer technology using cache memory is not suitable for control systems and automatic machine controllers because it involves a large overhead such as reloading instructions and data. On the other hand, according to the method of this embodiment, an overhead of 4 machine states (100 ns) is generated with 25 ns as one state only when the page address changes, but since the possibility of the page address changing is extremely small, , almost non-wait operation is possible and sufficient real-time access performance can be provided.

又さらに、前記実施例によれば、高速バッファメモリが
不要となるため、非常に安価なメモリシステムを構成す
ることが可能となる。
Furthermore, according to the embodiment described above, a high-speed buffer memory is not required, so that a very inexpensive memory system can be constructed.

又、ダイナミックメモリシステムのアクセス制御を行な
う場合には、リフレッシュの制御やダイナミックRAM
側に起因するページアクセスモードの制約に伴うRAS
プリチャージの制御などが必要となるが、これらの機能
はメモリアクセス装置l!2a、2bの外部に設けても
良いが、内部に組込むことも可能である。外部に設ける
場合には、リフレッシュ要求を外部から与えることによ
りRAS信号15を立ち上げさせる機能をメモリアクセ
ス装置2a、2bに設ける必要がある。そして、この間
にページアドレス6の代わりに、リフレッシュアドレス
を与えておき、十分なRASプリチャージ時間を経た後
RAS信号を立ち下げることによってリフレッシュアド
レスをダイナミックメモリシステム3a、3bにラッチ
させるようにすると効果的である。同様に、リフレッシ
ュサイクルから通常のバスサイクルへの復帰も、十分な
RASプリチャージ時間を経た後、実行すべきページア
ドレスをRAS信号15の立ち下がりでダイナミックメ
モリシステム3a、3bにラッチさせ、ページアクセス
モードに移行するようにすれば良い、又、内部に設ける
場合には、リフレッシュアドレスの生成回路も含めてダ
イナミックメモリシステムをアクセスするために、必要
な機能を全て1チツプ又は複数チップのICに集積する
ことも可能となる。この場合には、ICに集積するシス
テム全体を第1図のものと同様な構成にすることが可能
となる。
In addition, when controlling access to a dynamic memory system, refresh control and dynamic RAM
RAS due to page access mode restrictions due to side
Precharge control is required, but these functions are performed by the memory access device l! Although it may be provided outside of 2a and 2b, it is also possible to incorporate it inside. When provided externally, it is necessary to provide the memory access devices 2a, 2b with a function of raising the RAS signal 15 by applying a refresh request from the outside. It is effective to give a refresh address instead of the page address 6 during this time, and to latch the refresh address into the dynamic memory systems 3a and 3b by lowering the RAS signal after a sufficient RAS precharge time. It is true. Similarly, when returning from a refresh cycle to a normal bus cycle, after a sufficient RAS precharge time has elapsed, the page address to be executed is latched in the dynamic memory systems 3a and 3b at the falling edge of the RAS signal 15, and page access is performed. If provided internally, all necessary functions, including refresh address generation circuits, can be integrated into one or multiple IC chips to access the dynamic memory system. It is also possible to do so. In this case, it is possible to configure the entire system integrated into an IC similar to that of FIG. 1.

以上、ページアクセスとして、DRAMの高速ページモ
ードを利用した場合の本発明の構成例について述べて来
た。前述した様に、DRAMのページアクセスモードに
は、現在のところ、高速ページモードの他に、スタティ
ックカラムモードとニブルモードとがある。
The above has described an example of the configuration of the present invention when the high-speed page mode of DRAM is used for page access. As mentioned above, DRAM page access modes currently include a high-speed page mode, a static column mode, and a nibble mode.

スタティックカラムモードは、RAS信号のコントロー
ルは高速ページモードと同様であるが、■信号によって
データアドレスをダイナミックメモリシステムにラッチ
する必要が無い、そのかわり読み出し時に、データアド
レス信号を、読み出すべきデータが確定するまでの十分
な期間保つ必要が生じることと、書き込み時に、目的の
ダイナミックメモリシステムがアクセスされたとき目的
とするメモリセルに書き込みパルスを与える回路を、そ
のダイナミックメモリシステムを制御するメモリアクセ
ス装置に設ける必要がある。また、スタティックカラム
モードによってアクセスしている間は、■信号をLOレ
ベルに保つ必要があり、本実施例の様にメモリシステム
に与える直接の■信号を用いて、バスサイクルの換了を
示す信号であるREADY信号を生成することができな
い、したがってメモリアクセス装置内で本実施例におけ
る■信号と類似の機能を有する信号、すなわち、そのバ
スサイクルにおいて、 メモリシステムへのアクセスを開始した事を示す信号を
生成し、READY信号生成回路22に与える必要があ
る。
In static column mode, the control of the RAS signal is the same as in high-speed page mode, but there is no need to latch the data address into the dynamic memory system using the signal.Instead, when reading, the data to be read is determined using the data address signal. The memory access device that controls the dynamic memory system must be provided with a circuit that applies a write pulse to the target memory cell when the target dynamic memory system is accessed during writing. It is necessary to provide Furthermore, while accessing in the static column mode, it is necessary to keep the ■signal at the LO level, and as in this embodiment, the ■signal directly applied to the memory system is used to signal the completion of a bus cycle. Therefore, within the memory access device, a signal having a function similar to the signal (2) in this embodiment, that is, a signal indicating that access to the memory system has started in that bus cycle. It is necessary to generate and provide it to the READY signal generation circuit 22.

ニブルモードを用いたページアクセスにおいては、ペー
ジアドレスが切り換わった直後のアクセス以外データア
ドレスを外部からダイナミックメモリシステムに与える
必要が無いことを除けば基本的に高速ページモードによ
るページアクセスと同様である。従って基本的に本実施
例に示したシステム及びタイミングをそのまま用いるこ
とができる。ただし、ニブルモードでは、データアドレ
スをダイナミックメモリー(DRAM)IC内でアップ
カウンタを用いて自動生成するため、データアドレスを
連続的にしか選択できない、したがって、命令データや
、配列データ等、データの並びが連続的な場合は、バー
スト転送的に用いることができ有効であるが、ランダム
アクセスには不向きである。また、ページ不一致を生じ
なくても。
Page access using nibble mode is basically the same as page access using high-speed page mode, except that there is no need to externally supply a data address to the dynamic memory system other than the access immediately after the page address is switched. . Therefore, basically the system and timing shown in this embodiment can be used as is. However, in nibble mode, data addresses are automatically generated using an up counter in a dynamic memory (DRAM) IC, so data addresses can only be selected consecutively. If it is continuous, it can be used for burst transfer and is effective, but it is not suitable for random access. Also, even if it doesn't cause a page mismatch.

アクセスすべきメモリアドレスが不連続になる場合はペ
ージ不一致と同一とみなす必要があるため、プロセッサ
1が現在アクセスしようとしている対応するダイナミッ
クメモリシステムのデータアドレスが、−回前にそのダ
イナミックメモリシステムにアクセスした時のデータア
ドレスを1つだけインクリメントしたものと等しいかど
うかを判断する手段を各メモリアクセス装置に設ける必
要があり、もし等しくなければページ不一致と同等とみ
なしたアクセスサイクルを起動する様にメモリアクセス
装置を構成しなければならない。
If the memory addresses to be accessed are discontinuous, it must be considered the same as a page mismatch. Therefore, if the data address of the corresponding dynamic memory system that processor 1 is currently trying to access is It is necessary for each memory access device to have a means for determining whether the data address at the time of access is equal to the one incremented by one, and if it is not equal, it is necessary to start an access cycle that is considered to be equivalent to a page mismatch. A memory access device must be configured.

次に本発明のダイナミックメモリ装置112を用いたシ
ステムの構成例について詳しく説明する。
Next, an exemplary configuration of a system using the dynamic memory device 112 of the present invention will be described in detail.

第4図は、第1図に示した実施例のプロセッサ1を、単
純にCPU100のみで構成した場合を示している。ア
ドレスバス5がCPLIlooから直接本発明のメモリ
アクセス装置2a、2bへ入力されており、データバス
4がCPU100から直接本発明のダイナミックメモリ
システム3a、3bに接続された構成を採っている。第
1図に示した実施例と同様、ページ間アクセス干渉の生
じやすい命令 (Instruction )データの集合と、オペラ
ンドデータ集合はそれぞれ別々のダイナミックメモリシ
ステム3a及び3bに分離して格納している。これによ
り、ページ間アクセス干渉を非常に小さくでき、ページ
アドレス不一致によるオーバーヘッドを極小化できるた
め、ページアクセスモードによるダイナミックメモリシ
ステムへの高速アクセスをコンスタントに実行すること
ができる。ダイナミックメモリシステムへのアクセス要
求信号(ADS)やメモリアクセス機構2at2bから
のアクセス開始信号をやりとりするための信号線108
は、各種のデコード回路やREADY発生回路を含むシ
ステムコントロールロジック101に接続されている。
FIG. 4 shows a case where the processor 1 of the embodiment shown in FIG. 1 is simply configured with only the CPU 100. The address bus 5 is directly input from the CPLIloo to the memory access devices 2a, 2b of the present invention, and the data bus 4 is directly connected from the CPU 100 to the dynamic memory systems 3a, 3b of the present invention. Similar to the embodiment shown in FIG. 1, a set of instruction data and an operand data set that are likely to cause inter-page access interference are stored separately in separate dynamic memory systems 3a and 3b, respectively. As a result, inter-page access interference can be extremely reduced, and overhead due to page address mismatch can be minimized, so high-speed access to the dynamic memory system in page access mode can be constantly performed. A signal line 108 for exchanging an access request signal (ADS) to the dynamic memory system and an access start signal from the memory access mechanism 2at2b.
is connected to a system control logic 101 including various decoding circuits and READY generation circuits.

システムコントロールロジック101は、信号線103
にて必要なアドレス情報やステータス情報をCPU10
0とやりとりしている。
The system control logic 101 has a signal line 103
The necessary address information and status information are sent to the CPU10.
I am communicating with 0.

システムコントロールロジックは、他のサブシステムに
対する必要なコントロール信号の生成、及び、他のサブ
システムからの必要な情報の入手とCPUへの伝達等の
役割りも果たしている。第4図は、本発明の実現例とし
ては最も単純な構成であり、コストパフォーマンスも非
常に高い。
The system control logic also plays the role of generating necessary control signals for other subsystems, obtaining necessary information from other subsystems, and transmitting it to the CPU. FIG. 4 shows the simplest configuration as an implementation example of the present invention, and the cost performance is also very high.

第5図は、第1図のプロセッサ1を命令用キャシュメモ
リ109aとそれを制御する命令キャシュメモリコント
ローラ110aとを内蔵して構成した例である。命令キ
ャッシュメモリコントローラ110aは、必要なアドレ
ス及びステータス情報を信号104aにてcputoo
とやりとりする。また、命令キャシュメモリシステム1
09aと命令キャシュメモリコントローラ110aとの
間の必要な情報のやりとりは信号11A 105 aに
て行う。
FIG. 5 shows an example in which the processor 1 of FIG. 1 is configured to include an instruction cache memory 109a and an instruction cache memory controller 110a for controlling it. The instruction cache memory controller 110a sends necessary address and status information to cputoo via a signal 104a.
interact with In addition, the instruction cache memory system 1
Necessary information is exchanged between the instruction cache memory controller 110a and the instruction cache memory controller 110a using the signal 11A 105a.

本発明の命令用ダイナミックメモリシステム38及びそ
れを制御するメモリアクセス装置2aへのアクセスは、
命令用キャシュメモリ109a及び命令キャシュメモリ
コントローラ110aによりキャシュメモリがミスビッ
トした時に生成される目標となる主記憶の物理アドレス
106aと、キャシュメモリとのデータの入出力信号1
07a及びメモリアクセス装[2aへのアクセス要求石
を含む制御用信号線102aとを用いて行う、−方、デ
ータ用ダイナミックメモリシステム3b及びそのメモリ
アクセス装置2bへのアクセスは、第4図の場合と同様
、CPU100から直接行う、基本的効果は第4図の例
と同じだが、本例のもう一つの目的は、命令用キャシュ
メモリ109aとそれに対応する命令用主記憶システム
である3aとの間のデータ転送を高速化することである
0本発明とのマツチングは良いが、命令用キャシュメモ
リを有するため、割込み処理等のダイナミックな処理に
対しては第4図の例より実時間処理性能において劣る。
Access to the instruction dynamic memory system 38 of the present invention and the memory access device 2a that controls it is as follows:
The target physical address 106a of the main memory, which is generated by the instruction cache memory 109a and the instruction cache memory controller 110a when the cache memory misses, and the input/output signal 1 of data to and from the cache memory.
Access to the data dynamic memory system 3b and its memory access device 2b is performed using the control signal line 102a containing the access request stone to the memory access device 07a and the memory access device 2a, as shown in FIG. Similarly, the basic effect is the same as the example shown in FIG. Although it matches well with the present invention, which aims to speed up the data transfer of Inferior.

シ・かじ、命令キャシュメモリシステム109aに、ダ
イナミックメモリシステムのページアクセスモードより
かなり高速なアクセス時間を有するスタティックメモリ
を用いることができれば、より高い周波数によるCPU
の運転が可能になる。
However, if a static memory having a considerably faster access time than the page access mode of the dynamic memory system can be used in the instruction cache memory system 109a, the CPU with a higher frequency can be used.
becomes possible to drive.

第6図は、命令データだけでなく、オペランドデータも
混在する単一のキャシュメモリシステム109とそれを
制御するキャシュメモリコントローラ110とをプロセ
ッサ1内に備え、CPU100は、必ずキャシュメモリ
システム109をアクセスする様に構成している。この
プロセッサ内の構造は、古典的により使用されて来た一
般的なキャシュメモリシステムである。ここで、本発明
のダイナミックメモリ装置112は、主記憶システムと
して用いられ、キャシュメモリのミスヒツト時に、目的
のデータの存在する主記憶上の物理アドレスを与える信
号線106と目的のデータをやりとりするための信号線
107及び必要なステータス及び制御信号をやりとりす
る信号線102とで、キャシュメモリシステム109及
びキャッシュメモリコントローラ110を介してCPU
と接続する構成を採る。もし、ダイナミックメモリシス
テムに用いるDRAMと同等の製造プロセスのスタティ
ックメモリ(SRAM)をキャシュメモリに用いる場合
であれば、本発明を用いる限り、キャシュ無しの第4図
の構成に対してアクセス速度的な優位性は無く、第4図
の構成を採る方が実時間処理性の面ではるかに有利であ
ることは前述したとおりである。キャシュメモリシステ
ム109及びキャシュメモリコントローラ110をCP
U100と共に1チツプIC化するが、特別に高速なS
RAMをキャシュメモリシステム109に用いるのであ
れば、第5図の構成と同様の理由で、本発明による主記
憶システム112と、キャシュメモリシステム109と
の間の命令データ及びオペランドデータの転送を高速化
できるため、より高い周波数によるCPU100の運転
が可能になる。実時間処理性能面においては、オペラン
ドデータのやりとりもキャシュメモリ109を介して行
うため、第5図の構成よりもさらに低下する。
FIG. 6 shows that the processor 1 is equipped with a single cache memory system 109 that contains not only instruction data but also operand data and a cache memory controller 110 that controls it, and that the CPU 100 always accesses the cache memory system 109. It is configured to do so. This structure within the processor is a common cache memory system that has traditionally been used. Here, the dynamic memory device 112 of the present invention is used as a main memory system, and is used to exchange target data with a signal line 106 that provides a physical address on the main memory where the target data exists when a cache memory miss occurs. A signal line 107 and a signal line 102 for exchanging necessary status and control signals connect the CPU via a cache memory system 109 and cache memory controller
Adopt a configuration that connects with If a static memory (SRAM) with the same manufacturing process as a DRAM used in a dynamic memory system is used as a cache memory, as long as the present invention is used, the access speed will be lower than that of the configuration shown in FIG. 4 without a cache. As mentioned above, there is no superiority, and the configuration shown in FIG. 4 is far more advantageous in terms of real-time processing performance. The cache memory system 109 and the cache memory controller 110 are connected to a CP.
It is a 1-chip IC together with U100, but a special high-speed S
If RAM is used in the cache memory system 109, the transfer of instruction data and operand data between the main memory system 112 and the cache memory system 109 according to the present invention can be speeded up for the same reason as the configuration shown in FIG. Therefore, the CPU 100 can be operated at a higher frequency. In terms of real-time processing performance, since operand data is also exchanged via the cache memory 109, the real-time processing performance is further degraded compared to the configuration shown in FIG.

第7図の例は、命令キャシュメモリシステム109aと
データキャシュメモリシステム109t+を別々に設け
てプロセッサ1を構成した場合を示している。システム
性能の基本特性は、第6図の例と同じであるが、命令キ
ャシュメモリシステム109aとデータキャシュメモリ
システム109bを設け、それぞれに対してキャシュメ
モリコントローラ110a及び110bを独立に設ける
ことにより、CPUIGOのキャシュメモリシステムへ
のヒツト率を向上させることができ、それによりシステ
ム性能の向上が期待できる0本発明のダイナミックメモ
リ装置112へは、命令キャシュメモリシステム10・
9a及びコントローラ110aは、命令用ダイナミック
メモリシステム3a及びそのメモリアクセス装置2aへ
接続し、データキャシュメモリシステム109b及びコ
シトローラ110bは、データ用ダイナミックメモリシ
ステム3b及びそのメモリアクセス装置2bへ接続すれ
ばよい、したがって、本発明との接続性において優れた
構成と言える。
The example in FIG. 7 shows a case where the processor 1 is configured by separately providing an instruction cache memory system 109a and a data cache memory system 109t+. The basic characteristics of system performance are the same as in the example shown in FIG. The dynamic memory device 112 of the present invention can improve the hit rate to the instruction cache memory system 10 and thereby improve the system performance.
9a and controller 110a may be connected to the instruction dynamic memory system 3a and its memory access device 2a, and the data cache memory system 109b and controller 110b may be connected to the data dynamic memory system 3b and its memory access device 2b. Therefore, it can be said that this configuration has excellent connectivity with the present invention.

第8図の構成は、プロセッサ1をCPU単体で構成し、
基本的な構造及びシステム性能の基本特性は第4図の構
成と同じであるが、CPUl0(1(7)ものが、もと
もと、命令フェッチ用アドレス信号線5a及び命令フェ
ッチ用データ信号線4aの組と、オペランドデータ通信
用アドレス信号線5b及びオペランドデータ通信用デー
タ信号線4bの組とを独立に有した構造を採っている点
が異なる。したがって、この構造のCPUを採用し、本
発明のダイナミックメモリ装置と接続する場合、信号線
5a及び4aを直接命令用ダイナミックメモリシステム
3a及びそのメモリアクセス装置2aへ接続し、−力信
号線5b及び4bを直接データ用ダイナミックメモリシ
ステム3b及びそのメモリアクセス装置2bへ接続すれ
ば良いため1本発明との接続性において非常に優れてい
る。この方式のCPUの利点は、以下のとおりである。
In the configuration shown in FIG. 8, the processor 1 is configured with a single CPU,
The basic structure and basic characteristics of system performance are the same as the configuration shown in FIG. The difference is that the structure has an independent set of address signal line 5b for operand data communication and data signal line 4b for operand data communication.Therefore, by adopting a CPU with this structure, the dynamic When connecting to a memory device, the signal lines 5a and 4a are directly connected to the dynamic memory system 3a for commands and its memory access device 2a, and the signal lines 5b and 4b are connected directly to the dynamic memory system 3b for data and its memory access device 2a. Since it is only necessary to connect to 2b, the connectivity with the present invention is very good.The advantages of this type of CPU are as follows.

a)外部とのオペランドデータのやりとりと、命令フェ
ッチとを並列に実行できるため、外部システムとCPU
間のデータ通信スルーブツトを向上させることができる
a) Exchanging operand data with the outside and fetching instructions can be executed in parallel, so the external system and CPU
It is possible to improve the data communication throughput between

b)命令フェッチサイクルとオペランドデータの読み出
し及び書込みサイクルとを並列処理できるため、CPU
内の命令及びデータの流れをスムーズにでき、したがっ
てCPU内のパイプライン処理の乱れを極小化すること
ができる。
b) Since instruction fetch cycles and operand data read and write cycles can be processed in parallel, CPU
The flow of instructions and data within the CPU can be made smooth, and therefore disturbances in pipeline processing within the CPU can be minimized.

a)の利点は、CPUの外部とのデータ通信スループッ
トを向上させ、単位時間当りに処理できるデータ量を増
加させてCPUの性能を向上させる効果である。b)の
利点は、CPU内部の処理効率を向上させてそれにより
CPUの性能を向上させる効果である。いずれにしても
、CPUそのものの性能を強化する方法として有利であ
り、今後このアーキテクチャを有したCPUが増えてく
ると考えられる0本発明が、命令用とデータ用にダイナ
ミックメモリシステムを分離した最大の利点はページア
クセスを行ったときのページ間干渉を少なりシ、ページ
アドレス不一致によるオーバーヘッドを極−小化するこ
とにあり、CPUが命令用とオペランドデータ用にそれ
ぞれ独立した信号線を持つことによる利点とは本質的に
異なる。しかし1本発明のダイナミックメモリ装置と第
8図に示した様なCPU100aとの組み合わせは、双
方の有利な特性を効果的に結合でき、システム全体とし
て最も高い性能を実現し得る。第8図の構成においては
、キャシュメモリを一切介さないため、実時間処理性能
の点においても最も有利であり、ダイナミックな問題処
理に向く。
The advantage of a) is that the throughput of data communication with the outside of the CPU is improved, the amount of data that can be processed per unit time is increased, and the performance of the CPU is improved. The advantage of b) is the effect of improving the processing efficiency inside the CPU, thereby improving the performance of the CPU. In any case, it is advantageous as a method of enhancing the performance of the CPU itself, and it is thought that the number of CPUs with this architecture will increase in the future. The advantage of this is that there is less interference between pages when a page is accessed, the overhead due to page address mismatch is minimized, and the CPU has separate signal lines for instructions and operand data. The benefits are essentially different. However, the combination of the dynamic memory device of the present invention and the CPU 100a as shown in FIG. 8 can effectively combine the advantageous characteristics of both, and can achieve the highest performance as a whole system. The configuration shown in FIG. 8 is most advantageous in terms of real-time processing performance because no cache memory is involved, and is suitable for dynamic problem processing.

第9図の例は、命令用及びオペランドデータ用にそれぞ
れ独立した信号線を有するCPIJlooaを用いて、
第5図に示した構成を実現したものである。
The example in FIG. 9 uses CPIJlooa, which has independent signal lines for instructions and operand data.
This realizes the configuration shown in FIG.

基本システム特性は第5Wiの例と同様であるが、第9
図の例の場合CPUそのものの性能向上が期待でき、し
たがって第8図の場合と同様システム性能もそれに応じ
て向上することが期待できる。
The basic system characteristics are similar to the 5th Wi example, but the 9th Wi
In the case of the example shown in the figure, the performance of the CPU itself can be expected to improve, and therefore, as in the case of FIG. 8, the system performance can also be expected to improve accordingly.

第10図の例は、第9図の場合と同様にCPU100a
を用いて第7図に示した構成を実現したものである。基
本システム特性は第7図の例と同様であるが、CPUの
性能向上分だけ、システム性能の向上が期待できる。実
時間処理性能については最も低い、メインフレームの様
に、実時間処理能力よりは、平均のマシンサイクルを短
縮し、平均の処理能力をできる限り向上させたい用途に
向く。
In the example of FIG. 10, as in the case of FIG. 9, the CPU 100a
The configuration shown in FIG. 7 was realized using the following. The basic system characteristics are the same as the example shown in FIG. 7, but the system performance can be expected to improve by the amount of improvement in CPU performance. It has the lowest real-time processing performance, like a mainframe, and is suitable for applications where you want to shorten the average machine cycle and improve average processing performance as much as possible rather than real-time processing performance.

次に、一般的なシステムと、本発明を用いたシステムと
の比較を行っておく。
Next, a comparison will be made between a general system and a system using the present invention.

第11図は、キャシュシステム114を用いた一般的な
高速処理用プロセッサシステムの例を示している。12
0は、一般的な主記憶装置であり、そのコントロールは
DRAMコントローラ116によってなされている。キ
ャシュシステム(キャシュメモリ111と、キャシュメ
モリコントローラ112とから成る)と主記憶装置との
通信を高速化するため、データ通信用パス117のビッ
ト数を増してチャネルを太くしたり、複数のバンクによ
るメモリインターリーブを用い、バースト転送との組み
合わせによってDRAMのアクセスの遅さをカバーする
工夫を施しているシステムもある。プロセッサ1と、キ
ャシュシステムとの間は、データ通信用信号線4とアド
レス信号線5及びコントロール信号線104によって接
続される。−方、キャシュシステム114と主記憶装置
120との間は・データ通信用パス117と主記憶の物
理アドレス信号[118及びコントロール信号線119
によって結合される。プロセッサ1内にキャシュメモリ
が内蔵されていない場合は、プロセッサ1及びキャシュ
システム114との間はランダムアクセスによる通信、
キャシュシステム114と主記憶装置120との間はブ
ロック単位のデータ転送が用いられる。プロセッサ1内
にもう1つのキャシュメモリシステムを含む場合は、外
部のキャシュメモリシステムである114とプロセッサ
1との間の通信もブロック単位のデータ転送になる可能
性が高い。キャシュメモリシステムを用いた場合、ダイ
ナミックな問題に弱いのは、次の理由による。
FIG. 11 shows an example of a general high-speed processing processor system using the cache system 114. 12
0 is a general main storage device, which is controlled by a DRAM controller 116. In order to speed up communication between the cache system (consisting of a cache memory 111 and a cache memory controller 112) and the main storage device, the number of bits of the data communication path 117 is increased to make the channel thicker, or the channel is made thicker by using multiple banks. Some systems use memory interleaving in combination with burst transfer to compensate for the slowness of DRAM access. The processor 1 and the cache system are connected by a data communication signal line 4, an address signal line 5, and a control signal line 104. - On the other hand, between the cache system 114 and the main memory 120, there is a data communication path 117, a physical address signal [118] of the main memory, and a control signal line 119.
combined by If the processor 1 does not have a built-in cache memory, communication between the processor 1 and the cache system 114 is based on random access;
Data transfer in blocks is used between cache system 114 and main memory 120. If the processor 1 includes another cache memory system, there is a high possibility that communication between the external cache memory system 114 and the processor 1 will also be data transfer in blocks. The reason why a cache memory system is vulnerable to dynamic problems is as follows.

a)キャシュメモリシステムは限られたごく小容量のメ
モリシステムであり、処理する問題やデータがダイナミ
ックにかつ頻繁に変更された場合(例えば割込み処理等
)、キャシュメモリ上に実行すべきプログラムや処理す
べきデータが存在しない確率が高くなる。したがって、
主記憶システムへのアクセスが必要となりその為のオー
バーヘッドが非常に大きくなる。
a) A cache memory system is a memory system with a limited and very small capacity, and when the problem or data to be processed changes dynamically and frequently (for example, interrupt processing), programs and processes that need to be executed in the cache memory are stored in the cache memory. The probability that the required data does not exist increases. therefore,
Access to the main memory system is required, and the overhead for this becomes very large.

b)キャシュメモリシステムと主記憶の間が、ブロック
データ転送による通信となり、所定のブロック分のデー
タ転送が終了するまでプロセッサが遊んでしまう、した
がって、直接的な性能低下を伴うばかりでなく、実時間
処理に必要な処理の実行のコンスタント性が低い。
b) Communication between the cache memory system and main memory is based on block data transfer, and the processor is idle until the data transfer for a predetermined block is completed.Therefore, this not only causes a direct performance decline, but also reduces performance. Consistency in execution of processing required for time processing is low.

C)キャシュメモリシステムと主記憶システムとの間の
通信そのものが遅い。
C) Communication itself between the cache memory system and the main memory system is slow.

本発明を用いることにより、上記a)〜C)問題を次の
様に改善することができる。
By using the present invention, the above problems a) to C) can be improved as follows.

1)a)の問題に対して、本発明によれば、主記憶シス
テムがキャシュメモリ並のランダムアクセス速度を得ら
れるため、主記憶システムに一番近いキャシュメモリを
除去することができる。
1) Regarding problem a), according to the present invention, the main memory system can obtain a random access speed comparable to that of the cache memory, so that the cache memory closest to the main memory system can be removed.

すなわち、第11図の例で説明すれば、キャシュシステ
ム114を除去し、直接、主記憶システムをプロセッサ
に接続できる。したがって。
That is, using the example of FIG. 11, the cache system 114 can be removed and the main memory system can be directly connected to the processor. therefore.

巨大な物理メモリ空間をプロセッサがランダムアクセス
することが可能となる。
This allows the processor to randomly access a huge physical memory space.

2)b)の問題に対して、本発明によれば、主記憶シス
テムに対してプロセッサが、高速なランダムアクセスを
コンスタントに実行することが可能となり、処理を連続
的に中断することなく実行できる。
2) Regarding problem b), according to the present invention, it becomes possible for a processor to constantly execute high-speed random access to the main memory system, and processing can be executed continuously without interruption. .

3)c)の問題に対して、本発明によれば、高速なスタ
ティックメモリ並のアクセス性能を主記憶システムが得
られる為、ブロックデータ転送や、転送ビット数の拡張
等の手段を必要とせずに主記憶システムとの間の高速転
送が実現できる。もし、プロセッサ内のキャシュメモリ
との間のデータ転送であれば、転送ブロックを非常に小
さくする(理想的には1ブロツク=1ワード)ことがで
き、実時間処理性を高めることが可能である。
3) Regarding problem c), according to the present invention, the main memory system can obtain access performance comparable to high-speed static memory, so there is no need for block data transfer or expansion of the number of transfer bits. High-speed transfer between the main memory system and the main memory system can be realized. If data is transferred between cache memory in the processor, the transfer block can be made very small (ideally, 1 block = 1 word), and real-time processing performance can be improved. .

次に、本発明のダイナミックメモリ装置を、より高い周
波数で運転し、よりプロセッサのマシンサイクルを短縮
する方法について述べる。
Next, a method of operating the dynamic memory device of the present invention at a higher frequency to further shorten the machine cycle of the processor will be described.

第12図は、本発明のダイナミックメモリ装置の中の1
つのグループ(1つのダイナミックメモリシステム3と
1つのメモリアクセス装置2の組)を示している。基本
的な構成は、1図に示したものと同様であるが、ダイナ
ミックメモリシステム3の内部を2つのバンク(バンク
E300及びバンク0301)に分離している点が異な
る。それに伴って、バンクE300と、バンクo301
にそれぞれ別々の■信号(■E及び■Oを生成するバン
ク■発生手段13aと、どちらのバンクに■信号を生成
するかを決定するバンク選択手段13bを追加している
0本実施例においては、データアドレス7が偶数のとき
バンクE300を選択してアクセス(■E信号を与える
)し、データアドレス7が奇数のときバンク0301を
選択してアクセス(■O信号を与える)する。
FIG. 12 shows one of the dynamic memory devices of the present invention.
Two groups (a set of one dynamic memory system 3 and one memory access device 2) are shown. The basic configuration is the same as that shown in FIG. 1, except that the inside of the dynamic memory system 3 is separated into two banks (bank E300 and bank 0301). Along with this, bank E300 and bank o301
In this embodiment, a bank ■ generating means 13a for generating separate ■signals (■E and ■O) and a bank selection means 13b for determining in which bank the ■signal is generated are added. , When data address 7 is an even number, bank E300 is selected and accessed (giving the ■E signal), and when data address 7 is an odd number, bank 0301 is selected and accessed (giving the ■O signal).

える)する。do)

第13図、第14図を用いて、本実施例の動作及びその
効果を説明する。第14図は、本発明を用いた通常のペ
ージアクセス(高速ページモードによる)の様子を示し
ている。BSはプロセッサのバスステートを示し、本例
では、1バスサイクルが1プロセツササイクルに等しい
としている。
The operation and effects of this embodiment will be explained using FIGS. 13 and 14. FIG. 14 shows normal page access (in high speed page mode) using the present invention. BS indicates the bus state of the processor, and in this example, one bus cycle is equivalent to one processor cycle.

また、本例においては、パイプラインバスアクセスを用
いたバスアクセスを行うプロセッサを対象にしている。
Further, in this example, a processor that performs bus access using pipeline bus access is targeted.

パイプラインバスアクセスとは、1バスサイクル(又は
1プロセツササイクル)前に。
Pipeline bus access means one bus cycle (or one processor cycle) in advance.

次のバスサイクルで使用するアドレスを出力し、そのア
ドレスをラッチしておいて、実際のバスサイクルで用い
るアクセス方式である。この方法を採ることによって、
バスサイクル時間をフルに利用したアクセスが可能にな
る。今後、プロセッサのマシンサイクルがより短縮され
てくると、アドレスをバスサイクル内に出力し、かつ十
分なアドレスアクセスタイムを確保することが困難にな
り、アドレスを1サイクル内に出力するパイプラインバ
スサイクルを採用するプロセッサが増えると考えられる
。さて、本発明においては、ページ間アクセス干渉の生
じにくいものを1つのグループにまとめているため、例
えば、命令データのグループ、配列変数データのグルー
プと言った様に、それぞれのグループ内では、連続した
アドレス空間に、連続してデータが配置されている確率
が大きい、すなわち、プロセッサがあるグループの割り
付けられたダイナミックメモリシステムにアクセスして
いくと、データアドレス7には、偶数番地と奇数番地と
が交互に現われる確率が大きい、第14図に示した通常
のページアクセスによれば、1つのバスサイクル時間内
に、■信号のプリチャージ時間(■プリチャージタイム
)p t 2と■ををアクティブに保つアクセス時間a
t2とを満たす必要があり、pt2を確保するためat
2を十分大きくできないという問題がある。
This access method outputs the address to be used in the next bus cycle, latches that address, and uses it in the actual bus cycle. By adopting this method,
Access that makes full use of the bus cycle time becomes possible. In the future, as the machine cycle of processors becomes shorter, it will become difficult to output an address within a bus cycle and ensure sufficient address access time. It is expected that more and more processors will adopt it. Now, in the present invention, items that are unlikely to cause inter-page access interference are grouped into one group, so within each group, for example, a group of instruction data, a group of array variable data, etc. In other words, when a processor accesses a dynamic memory system allocated to a certain group, data address 7 has a high probability that data is arranged consecutively in the address space. According to the normal page access shown in FIG. 14, in which there is a high probability that ``signal precharge time'' (■precharge time) p t 2 and ■ are activated within one bus cycle time, Access time kept at a
It is necessary to satisfy t2, and in order to secure pt2, at
There is a problem that 2 cannot be made large enough.

第12図に示した2パンタ方式の本発明を用いれば、そ
の問題を解決できる。第13図に示したタイムチャート
が本実施例によるページアクセスで盆る。すなわち、偶
数のデータアドレス(図中m。
This problem can be solved by using the two panther system of the present invention shown in FIG. The time chart shown in FIG. 13 is displayed when a page is accessed according to this embodiment. That is, an even number data address (m in the figure).

nは整数)を有するバスステート(BS)のときは、■
E160をアクティブにし、奇数のデータアドレスを有
するバスステートのときは■O161をアクティブにす
る。 ■E160はダイナミックメモリシステム3のバ
ンクE300をアクティブにし。
When the bus state (BS) has n is an integer), ■
E160 is activated, and when the bus state has an odd number of data addresses, O161 is activated. ■E160 activates bank E300 of dynamic memory system 3.

■Oはバンクo301をアクティブにする。■O activates bank o301.

BSxn−工からBSxn+xまでは、偶数データアド
レスと奇数データアドレスが交互に現われているため、
■E160と■O161が交互にアクティブになってい
る。
From BSxn− to BSxn+x, even data addresses and odd data addresses appear alternately, so
■E160 and ■O161 are activated alternately.

したがって、各バンクへのアクセスが行われていない期
間を利用して、■E及び■Oのプリチャージタイムpt
tを確保することができる。しかし、BSan+zとB
Szmのデータアドレスの切り変わりでは、偶数アドレ
スが連続する(2n+2と2m)ため、同じバンクすな
わちバンクE300に連続してアクセスすることになる
ため、プリチャージタイムを確保できなくなる可能性が
生じる。そのため、同一バンクへのアクセスが連続して
生じた場合、それをバンク選択手段13bで判断し、W
AIT信号7cを生成し、 RAS/■発生手段13に送る。RAS/■発生手段1
3は、WAIT信号7cと■発生用信号16とから、そ
のバスサイクルにwAITステートを挿入するように信
号線24aを用いてプロセッサに伝える(第1図の例で
はREADY信号発生回路22に伝える)、これによっ
てBSWx−というWA I Tステートが挿入され。
Therefore, by using the period when each bank is not accessed, the precharge time pt of ■E and ■O is
t can be secured. However, BSan+z and B
When changing the data address of Szm, since the even numbered addresses are consecutive (2n+2 and 2m), the same bank, that is, bank E300, is accessed continuously, so there is a possibility that the precharge time cannot be secured. Therefore, when accesses to the same bank occur consecutively, the bank selection means 13b determines this and the W
AIT signal 7c is generated and sent to RAS/■ generating means 13. RAS/■Generation means 1
3 uses the signal line 24a to tell the processor to insert the wAIT state into the bus cycle from the WAIT signal 7c and the generation signal 16 (in the example of FIG. 1, it is sent to the READY signal generation circuit 22). , this inserts a WAIT state called BSWx-.

BSzmで■E160のプリチャージタイムを確保した
後、BSWz−で■F!160 をアクティブにし、パ
ン″りE300へのアクセスを連続して矛盾なく実行す
る。
After securing precharge time for ■E160 with BSzm, ■F with BSWz-! 160 is activated, and accesses to E300 are executed continuously and without contradiction.

なお、アクセスが同一バンクへ連続して起っても、その
2つのバスサイクルの間に1ステ一ト以上のアイドルス
テート(プロセッサがそのダイナミックメモリシステム
3ヘアクセスを要求しないサイクル)が挿入された場合
にはWA I T信号7cを生成しない様にしておいた
方が効果的である。
Note that even if accesses occur consecutively to the same bank, one or more idle states (cycles in which the processor does not request access to the dynamic memory system 3) are inserted between the two bus cycles. In this case, it is more effective not to generate the WAIT signal 7c.

バンク■発生手段13aは、■切換え情報7bを受けと
り、RAS/■発生手段13からの■発生信号がアクテ
ィブな場合、信号7bがバンクE300へのアクセスを
指示していれば■E160をアクティブLOにしてバン
クE300に与え、信号7bがバンク0301へのアク
セスを指示していれば■O160をアクティブLOにし
てバンク0301へ与える。
The bank ■ generating means 13a receives the ■ switching information 7b, and when the ■ generating signal from the RAS/■ generating means 13 is active and the signal 7b indicates access to bank E300, it makes ■ E160 active LO. If signal 7b instructs access to bank 0301, ① O160 is made active LO and applied to bank 0301.

本実施例は、偶数と奇数のそれぞれのデータアドレスに
対応してバンクを設けたが、バンクの数nは任意(n≧
22)に設定できる。その場合、データアドレスをm、
バンク番号をfl (0≦Q≦n−1)とすると、整数
演算にてm @ nで除しくm÷n)、その余りがバン
ク番号Ωと一致する様に、すなわち、m=n−に+Q 
(fi、m、n。
In this embodiment, banks are provided corresponding to even and odd data addresses, but the number n of banks is arbitrary (n≧
22). In that case, the data address is m,
If the bank number is fl (0≦Q≦n-1), use integer operation to divide by m @ n (m÷n), so that the remainder matches the bank number Ω, that is, m = n-. +Q
(fi, m, n.

kはすべて整数)が成り立つ様にバンク切換え手段にて
判断し、■切換え信号7bをバンク■発生手段13aに
送り、各バンクに対応する■信号を生成すれば良い、同
一バンクへの連続アクセスの問題は、2バンタ方式の場
合と同様である。
The bank switching means determines that (all k is an integer) holds, and the switching signal 7b is sent to the bank generating means 13a to generate signals corresponding to each bank. The problem is the same as in the case of the two-vanta system.

様である。It's like that.

本方式により、■のアクセスタイムatlを短縮し、よ
り高速なマシンサイクルを有するプロセッサに対応でき
る様になる。
With this method, the access time atl of (2) can be shortened and it becomes possible to support processors with faster machine cycles.

最後に、リフレッシュサイクルの生成機能を、本発明の
メモリアクセス装置2内に組み込んだ場合の実施例を、
第12図を用いて説明する。リフレッシュ要求生成手段
12aは、RAS/■発生手段13に対して一定期間(
リフレッシュサイクル)ごとにリフレッシュ要求12c
を生成する。
Finally, an embodiment in which a refresh cycle generation function is incorporated into the memory access device 2 of the present invention will be described.
This will be explained using FIG. 12. The refresh request generating means 12a sends a request to the RAS/■ generating means 13 for a certain period of time (
refresh request 12c every refresh cycle)
generate.

RAS/■発生手段13は、現在のダイナミックメモリ
システム3へのメモリアクセスサイクルが終了したら、
あるいは終了していたら直ちにRAS信号15を立ち上
げ非アクティブにすると共に、リフレッシュサイクルが
開始されたことを示す情報を信号12bをリフレッシュ
要求生成手段12aに返送し、それを受けて、マルチプ
レクサ12にリフレッシュアドレスの生成を要求する情
報を信号12dによって送る。マルチプレクサ12内に
は、リフレッシュアドレスを生成するためのカウンタを
設け、信号12dに従ってリフレッシュアドレスを信号
14に発生する。RAS/■発生手段は、十分なRAS
プリチャージタイムを確保した後に、RAS信号を立ち
下げてリフレッシュアドレスをダイナミックメモリシス
テム3にラッチする。また、そのリフレッシュが終了し
た後は、もう−度RAS信号を立ち上げて十分なRAS
プリチャージタイムを確保した後、 最も最近選択されたページアドレスをダイナミックメモ
リシステム3にラッチしておくためRAS信号を立ち下
げておくと効果的である。すなわち。
When the current memory access cycle to the dynamic memory system 3 is completed, the RAS/■ generating means 13
Alternatively, if the RAS signal 15 has been completed, the RAS signal 15 is immediately raised and made inactive, and information indicating that a refresh cycle has started is sent back to the refresh request generation means 12a via the signal 12b, and upon receiving it, the multiplexer 12 is refreshed. Information requesting generation of an address is sent by signal 12d. Multiplexer 12 is provided with a counter for generating a refresh address, and generates a refresh address on signal 14 in accordance with signal 12d. RAS/■ Generating means is sufficient RAS
After securing the precharge time, the RAS signal is lowered and the refresh address is latched into the dynamic memory system 3. Also, after the refresh is completed, raise the RAS signal again to ensure sufficient RAS.
After securing the precharge time, it is effective to lower the RAS signal in order to latch the most recently selected page address in the dynamic memory system 3. Namely.

それにより、次のページアクセスを直ちに開始できる可
能性が高い。
Thereby, there is a high possibility that the next page access can be started immediately.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、各ページ単位の
ダイナミックRAM群を、ページ間でアクセス干渉の起
こりにくいデータを格納しているページの集合を1つの
グループとして複数のグループに分け、各グループのダ
イナミックRAMをページアクセスに応答するメモリで
構成して複数の独立にアクセス可能なメモリシステムを
用意し、かつ各メモリシステムに対してページアクセス
によってメモリシステムをアクセスするようにしたため
、高速スタティックメモリと同様の高速アクセスと、ペ
ージ不一致(ページフォルト)時のオーバーヘッドの極
小化を実現できるため、キャシュメモリと同様の高速ラ
ンダムアクセスが可能になるとともに、キャシュメモリ
システムの苦手なダイナミックな処理系を多く含むシス
テムにおける処理速度の高速化に寄与することができる
As explained above, according to the present invention, a dynamic RAM group for each page is divided into a plurality of groups, with a set of pages storing data that is unlikely to cause access interference between pages as one group, and each By configuring the group's dynamic RAM with memory that responds to page accesses, multiple independently accessible memory systems are prepared, and each memory system is accessed through page accesses, making it possible to use high-speed static memory. It is possible to achieve high-speed access similar to that of a cache memory system and minimize overhead when a page mismatch (page fault) occurs, making it possible to perform high-speed random access similar to that of a cache memory, and also to support many dynamic processing systems that are weak in cache memory systems. This can contribute to increasing the processing speed of a system that includes

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示す構成図、第2図は第1
図に示す装置の作用を説明するためのタイムチャート、
第3図は第1図に示す装置の効果を説明するための図、
第4図、第5図、第6図。 第7図、第8図、第9図、第10図、第11図。 第12図は本発明の他の実施例を示す構成図、第13図
、第14図は本発明の通常ページのアクセスの様子を説
明するタイムチャートである。 1・・・プロセッサ、2a、2b・・・メモリアクセス
装置、3a・・・命令用ダイナミックメモリシステム、
3b・・・データ用ダイナミックメモリシステム、4・
・・データバス、5・・・アドレスバス、6・・・新ペ
ージアドレス、8・・・ページアドレスラッチ、9・・
・旧ページアドレス、10・・・ページアドレス比較回
路、11・・・比較信号、12・・・マルチプレクサ、
13・・・RAS/■発生回路、18・・・デコーダ。 $4− 図 第 5図 茅 菌 事 凹 箒 閉 手続補正書 (方式) 1、事件の表示 平成1年特許願第 71723  号 2、発明の名称 メモリ装置 3゜ 補正をする者 事件との関係  特許出願人 名 称(510)株式会社 日 立 4、代 居 理  人 所〒100東京都千代田区丸の内−丁目5番1号氏 名(6850)弁理士 小 5、補正の対象 図面の第13図及び第14図。 6、補正の内容 第13図、第14図を別紙の通り訂 正する(図番以外に内容変更なし)。 卒130 φテ 図面の浄書(内容に変更なし) 第 13  図
FIG. 1 is a configuration diagram showing one embodiment of the present invention, and FIG.
A time chart for explaining the operation of the device shown in the figure,
FIG. 3 is a diagram for explaining the effect of the device shown in FIG.
Figures 4, 5, and 6. 7, 8, 9, 10, and 11. FIG. 12 is a block diagram showing another embodiment of the present invention, and FIGS. 13 and 14 are time charts illustrating the state of access to a normal page of the present invention. DESCRIPTION OF SYMBOLS 1... Processor, 2a, 2b... Memory access device, 3a... Dynamic memory system for instructions,
3b...Dynamic memory system for data, 4.
...Data bus, 5...Address bus, 6...New page address, 8...Page address latch, 9...
- Old page address, 10... Page address comparison circuit, 11... Comparison signal, 12... Multiplexer,
13...RAS/■ generation circuit, 18...decoder. $4- Figure 5. Amendment to the procedure for closing the Kayabokujikohobroom (method) 1. Indication of the case Patent Application No. 71723 of 1999 2. Name of the invention Memory device 3゜ Person making the amendment Relationship to the case Patent Applicant's name (510) Hitachi Co., Ltd. 4, Tsuyoshi Osamu Address: 5-1 Marunouchi-chome, Chiyoda-ku, Tokyo 100 Name (6850) Patent attorney Grade 5 Figures 13 and 14 of the drawings subject to amendment figure. 6. Contents of the correction Figures 13 and 14 will be corrected as shown in the attached sheet (no other content changes other than the figure number). Graduation 130 Engraving of φTE drawing (no changes in content) Fig. 13

Claims (1)

【特許請求の範囲】 1、複数の記憶セルがマトリクス状に配列された複数の
ダイナミックRAMをページ単位毎にまとめ、各ページ
単位のダイナミックRAM群を、ページ間でアクセス干
渉の起りにくいデータを格納しているページの集合を一
つのグループとして複数のグループに分け、各グループ
のダイナミックRAMをページアクセス(高速ページモ
ード又はスタティックカラムモード又はニブルモードに
よるアクセス)に応答するメモリシステムで構成し、各
グループのメモリシステムにそれぞれ独立して、各グル
ープのメモリシステムのページアドレスを指定するため
のアクセスに応答して、このアクセスより少なくとも1
アクセス前に指定された旧ページアドレスを記憶する記
憶手段と、前記ページアドレスのアクセスに応答して、
このアクセスにより指定された新ページアクセスと記憶
手段に記憶されている旧ページアドレスの内容の一致を
判定する判定手段と、判定手段の判定結果が一致のとき
には旧ページアドレスに従つたページアクセスを、判定
結果が不一致のときには、新ページアドレスによるペー
ジアクセスを各グループのメモリシステムへ指令するペ
ージングアクセス手段とを有するメモリアクセス装置を
設けてなるメモリ装置。 2、前記第1項記載のメモリ装置は、プロセッサに接続
され、その接続手段として、そのプロセッサの処理動作
を規定する命令コードである命令データをそのダイナミ
ックメモリ装置から入手するための通信手段とその命令
コードに従つて処理すべきオペランドデータをそのダイ
ナミックメモリ装置とやりとりするための通信手段とを
有し、前記命令データを格納するダイナミックメモリシ
ステムと、前記オペランドデータを格納するダイナミッ
クメモリシステムとの少なくとも二つの独立したグルー
プに分割されて構成される請求項1記載のメモリ装置。 3、前記第2項記載のメモリ装置において、接続される
プロセッサは、そのプロセッサの処理動作を規定する命
令コードである命令データを入手するための通信手段と
その命令コードに従つて処理すべきオペランドデータを
やりとりする通信手段とを独立して持たせ、前記命令デ
ータの通信と、前記オペラントデータの通信とを並列に
実行できる様に構成されたものを用い、前記命令データ
の通信手段に命令データを格納するダイナミツクメモリ
システムとそれに対応するメモリアクセス装置とを割り
付け、前記オペランドデータの通信手段にオペランドデ
ータを格納するダイナミックメモリシステムとそれに対
応するメモリアクセス装置とを割り付けたことを特徴と
するメモリ装置。 4、前記第1項記載のメモリ装置において、少なくとも
1つのグループを構成するダイナミックメモリシステム
をさらにnセットのバンク(バンク番号m=0〜n−1
)に分割し、そのm(0≦m≦n−1)番目のバンクが
与えられたデータアドレスAを整数演算にてnで除した
(A÷n)場合の余りと一致した場合、すなわち、A=
a×n+m(A、a、n、mはすべて整数)と表わせた
場合にのみ応答する様にメモリアクセス装置内にそのバ
ンクアクセス判断手段を設けたことを特徴とするメモリ
装置。 5、前記第4項記載のメモリ装置において、ダイナミッ
クメモリシステムへの■信号を切り 換える手段を設け、バンクアクセス判断手段は、前記切
換え手段がダイナミックメモリシステムに与える■信号
を切り換えて、目的とする バンクのみに■信号を出力するための切り 換え信号を生成し、前記切換え手段に与えることを特徴
とするメモリ装置。 6、前記第4項記載のメモリ装置において、分割するバ
ンク数をn=2とし、第1のバンクにはデータアドレス
の偶数番目を、第2のバンクにはデータアドレスの奇数
番目を割り付けたことを特徴とするダイナミックメモリ
装置。 7、前記第5項記載のダイナミックメモリ装置におぃて
、各バンクの与えられる■信号のプ リチャージ時間を、そのバンクがアクセスされていない
時間に割り当てたことを特徴とするメモリ装置。 8、ダイナミックRAMをページ単位毎にまとめ、各ペ
ージ単位のダイナミックRAM群を、ページ間でアクセ
ス干渉の起こりにくいページの集合を一つのグループと
した複数のグループに分け、各グループのダイナミック
RAMをページアクセスに応答するメモリシステムで構
成し、各グループのメモリシステムに、夫々、各グルー
プのページアドレス指定のためのアクセスに応答して、
このアクセスより少なくとも1アクセス前の旧ページア
ドレスを記憶するページアドレス記憶手段と、このアク
セスで指定された新ページアドレスと該旧ページアドレ
スとの一致を判定する判定手段とを設け、その判定結果
が一致のときには旧ページアドレスに従つたページアク
セスを実行し、不一致のときには、アクセスすべきペー
ジを新ページに更新した後、新ページアドレスによるペ
ージアクセスを実行するメモリ装置。
[Claims] 1. A plurality of dynamic RAMs in which a plurality of memory cells are arranged in a matrix are grouped in page units, and the dynamic RAM group in each page unit stores data that is unlikely to cause access interference between pages. Divide the set of pages in each group into multiple groups, configure the dynamic RAM of each group with a memory system that responds to page access (access by fast page mode, static column mode, or nibble mode), and in response to an access for specifying a page address for each group of memory systems independently, at least one
a storage means for storing an old page address specified before access; and in response to the access to the page address,
determining means for determining whether the new page access specified by this access matches the content of the old page address stored in the storage means; and when the determination result of the determining means is a match, the page access according to the old page address is performed; 1. A memory device comprising a memory access device having paging access means for instructing each group's memory system to access a page using a new page address when the determination results do not match. 2. The memory device according to item 1 above is connected to a processor, and the connection means includes a communication means for obtaining instruction data, which is an instruction code that defines the processing operation of the processor, from the dynamic memory device. a communication means for exchanging operand data to be processed according to an instruction code with the dynamic memory device, the dynamic memory system storing the instruction data; and the dynamic memory system storing the operand data. The memory device according to claim 1, wherein the memory device is divided into two independent groups. 3. In the memory device described in item 2 above, the connected processor has communication means for obtaining instruction data, which is an instruction code that defines the processing operation of the processor, and operands to be processed according to the instruction code. A communication means for exchanging data is provided independently, and the communication of the instruction data and the communication of the operant data are executed in parallel. A dynamic memory system for storing operand data and a memory access device corresponding thereto are allocated, and a dynamic memory system for storing operand data and a memory access device corresponding thereto are allocated to the operand data communication means. Device. 4. In the memory device described in item 1 above, the dynamic memory system constituting at least one group is further divided into n sets of banks (bank number m=0 to n-1).
), and the mth bank (0≦m≦n-1) matches the remainder when the given data address A is divided by n by integer operation (A÷n), that is, A=
A memory device characterized in that a bank access determination means is provided in the memory access device so as to respond only when expressed as a×n+m (A, a, n, and m are all integers). 5. In the memory device according to item 4 above, means for switching the ■signal to the dynamic memory system is provided, and the bank access determining means switches the ■signal applied to the dynamic memory system by the switching means to select the target bank. 1. A memory device characterized in that a switching signal for outputting a signal (1) only is generated and applied to the switching means. 6. In the memory device described in item 4 above, the number of divided banks is n = 2, and the even numbered data addresses are assigned to the first bank, and the odd numbered data addresses are assigned to the second bank. A dynamic memory device featuring: 7. The dynamic memory device according to item 5 above, characterized in that the precharge time of the (1) signal applied to each bank is allocated to a time when that bank is not being accessed. 8. Dynamic RAM is organized in page units, and the dynamic RAM group for each page is divided into multiple groups, each group is a set of pages that are unlikely to cause access interference between pages, and the dynamic RAM in each group is divided into pages. comprising a memory system that responds to accesses, and a memory system for each group that responds to accesses for page addressing of each group, respectively;
A page address storage means for storing an old page address at least one access before this access, and a determining means for determining whether the new page address specified in this access matches the old page address are provided, and the determination result is A memory device that executes page access according to the old page address when there is a match, and executes page access according to the new page address after updating the page to be accessed to a new page when there is a mismatch.
JP1071723A 1988-03-28 1989-03-27 Memory device Pending JPH0229988A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1071723A JPH0229988A (en) 1988-03-28 1989-03-27 Memory device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7414588 1988-03-28
JP63-74145 1988-03-28
JP1071723A JPH0229988A (en) 1988-03-28 1989-03-27 Memory device

Publications (1)

Publication Number Publication Date
JPH0229988A true JPH0229988A (en) 1990-01-31

Family

ID=26412832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1071723A Pending JPH0229988A (en) 1988-03-28 1989-03-27 Memory device

Country Status (1)

Country Link
JP (1) JPH0229988A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04227553A (en) * 1990-04-11 1992-08-17 Digital Equip Corp <Dec> Array architecture of high-speed cache memory
US5984375A (en) * 1997-07-23 1999-11-16 Schlumberger Industries, Inc. Hose collar and method of use therefor
US7143230B2 (en) 1992-09-18 2006-11-28 Renesas Technology Corp. Processor system using synchronous dynamic memory
JP2012018700A (en) * 2011-10-25 2012-01-26 Renesas Electronics Corp Arithmetic processing unit and storage system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57100688A (en) * 1980-12-12 1982-06-22 Toshiba Corp Dynamic memory circuit system
JPS6033634A (en) * 1983-08-04 1985-02-21 Nec Corp Data processing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57100688A (en) * 1980-12-12 1982-06-22 Toshiba Corp Dynamic memory circuit system
JPS6033634A (en) * 1983-08-04 1985-02-21 Nec Corp Data processing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04227553A (en) * 1990-04-11 1992-08-17 Digital Equip Corp <Dec> Array architecture of high-speed cache memory
US7143230B2 (en) 1992-09-18 2006-11-28 Renesas Technology Corp. Processor system using synchronous dynamic memory
US7376783B2 (en) 1992-09-18 2008-05-20 Renesas Technology Corp. Processor system using synchronous dynamic memory
US8234441B2 (en) 1992-09-18 2012-07-31 Renesas Electronics Corporation Processor system using synchronous dynamic memory
US5984375A (en) * 1997-07-23 1999-11-16 Schlumberger Industries, Inc. Hose collar and method of use therefor
JP2012018700A (en) * 2011-10-25 2012-01-26 Renesas Electronics Corp Arithmetic processing unit and storage system

Similar Documents

Publication Publication Date Title
US5479635A (en) Memory device including DRAMs for high-speed accessing
US5890195A (en) Dram with integral sram comprising a plurality of sets of address latches each associated with one of a plurality of sram
US5274788A (en) High speed memory access for a data processor
KR100268321B1 (en) Virtual channel memory system
US6173356B1 (en) Multi-port DRAM with integrated SRAM and systems and methods using the same
US5367494A (en) Randomly accessible memory having time overlapping memory accesses
US6965974B1 (en) Dynamic partitioning of memory banks among multiple agents
US7617356B2 (en) Refresh port for a dynamic memory
US5329629A (en) Apparatus and method for reading, writing, and refreshing memory with direct virtual or physical access
US4755933A (en) Data Processor system having look-ahead control
US6006307A (en) Computer system employing a mirrored memory system for providing prefetch bandwidth
JP2909592B2 (en) Computer memory system
EP0473302A2 (en) Memory device with improved means for controlling data transfer
US5329489A (en) DRAM having exclusively enabled column buffer blocks
US6128244A (en) Method and apparatus for accessing one of a plurality of memory units within an electronic memory device
US6256256B1 (en) Dual port random access memories and systems using the same
US6233665B1 (en) Mapping shared DRAM address bits by accessing data memory in page mode cache status memory in word mode
US6266751B1 (en) Continuously sliding window method and apparatus for sharing single-ported memory banks between two agents
US20090113159A1 (en) Data processing with time-based memory access
US6222786B1 (en) Dynamic random access memory with write-without-restore and systems and methods using the same
JPH0229988A (en) Memory device
US5963468A (en) Low latency memories and systems using the same
US4594690A (en) Digital storage apparatus including sections exhibiting different access speeds
JPH09237492A (en) Memory control device
JP4071930B2 (en) Synchronous DRAM