JP2660488B2 - Semiconductor storage device - Google Patents

Semiconductor storage device

Info

Publication number
JP2660488B2
JP2660488B2 JP21918394A JP21918394A JP2660488B2 JP 2660488 B2 JP2660488 B2 JP 2660488B2 JP 21918394 A JP21918394 A JP 21918394A JP 21918394 A JP21918394 A JP 21918394A JP 2660488 B2 JP2660488 B2 JP 2660488B2
Authority
JP
Japan
Prior art keywords
memory
cache
transfer
block
column
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21918394A
Other languages
Japanese (ja)
Other versions
JPH07153261A (en
Inventor
一康 藤島
吉雄 松田
幹雄 朝倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP21918394A priority Critical patent/JP2660488B2/en
Publication of JPH07153261A publication Critical patent/JPH07153261A/en
Application granted granted Critical
Publication of JP2660488B2 publication Critical patent/JP2660488B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Dram (AREA)
  • Static Random-Access Memory (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】この発明は、半導体記憶装置に関
し、特に、メインメモリおよびキャッシュメモリを同一
チップ上に集積化し、それらのメモリの間での情報の転
送部分に特徴を有する半導体記憶装置に関するものであ
る。 【0002】 【従来の技術】従来より、コンピュータシステムのコス
トパフォーマンスを向上させるために、低速で大容量、
したがって低コストのDRAMで構成したメインメモリ
と、中央演算処理装置(CPU)との間に、高速のバッ
ファとして小容量の高速メモリを設けることがよく行な
われている。この高速のバッファは、キャッシュメモリ
と呼ばれ、CPUが必要とする可能性が高いデータのブ
ロックが、メインメモリからコピーされて記憶されてい
る。 【0003】CPUがアクセスしようとしたDRAMの
アドレスに記憶されているデータがキャッシュメモリに
存在するときはヒットと呼ばれ、CPUが高速のキャッ
シュメモリに対してアクセスする。 【0004】一方、CPUがアクセスしようとしたアド
レスに記憶されているデータがキャッシュメモリに存在
しないときは、キャッシュミスと呼ばれ、CPUが低速
のメインメモリにアクセスすると同時に、そのデータの
属するブロックをキャッシュメモリに転送する。 【0005】しかしながら、このようなキャッシュメモ
リシステムは、高価な高速メモリを必要とするので、コ
ストを重視する小型のシステムでは使用することができ
なかった。そこで、従来は、汎用のDRAMが有してい
るページモードまたはスタティックコラムモードを利用
して簡易キャッシュシステムを構成していた。 【0006】図5は、ページモードまたはスタティック
コラムモードの実行が可能な従来のDRAM素子の基本
構成を示すブロック図である。 【0007】図5において、メモリセルアレイ1には、
複数のワード線および複数のビット線対が互いに交差す
るように配置されており、それらの各交点にメモリセル
が設けられている。 【0008】メモリセルアレイ1のワード線は、ワード
ドライバ2を介して行デコーダ部3に接続されている。
また、メモリセルアレイ1のビット線対は、センスアン
プ部4およびI/Oスイッチ部5を介して列デコーダ部
6に接続されている。 【0009】行デコーダ部3には、行アドレスバッファ
7が接続され、列デコーダ部6には列アドレスバッファ
8が接続されている。これらの行アドレスバッファ7お
よび列アドレスバッファ8には、行アドレス信号RAお
よび列アドレス信号CAをマルチプレクスしたマルチプ
レクスアドレス信号MPXAが与えられる。さらに、I
/Oスイッチ部5には、出力バッファ9および入力バッ
ファ10が接続されている。 【0010】図6の(A),(B),(C)にそれぞれ
DRAMの通常の読出サイクル、ページモードサイクル
およびスタティックコラムモードサイクルの動作波形図
を示す。 【0011】図6の(A)に示す通常の読出サイクルに
おいては、まず、行アドレスバッファ7が、行アドレス
ストローブ信号/RASの降下エッジでマルチプレクス
アドレス信号MPXAを取込んで、行アドレス信号RA
として行デコーダ部3に与える。 【0012】行デコーダ部3は、その行アドレス信号R
Aに応じて、複数のワード線のうち1本を選択する。こ
れにより、この選択されたワード線に接続された複数の
メモリセル内の情報が各ビット線に読出され、その情報
がセンスアンプ部4により検知、増幅される。この時点
で、1行分のメモリセルの情報がセンスアンプ部4にラ
ッチされている。 【0013】次に、列アドレスバッファ8が、コラムア
ドレスストローブ信号/CASの降下エッジでマルチプ
レクスアドレス信号MPXAを取込んで、列アドレス信
号CAとして列デコーダ部6に与える。 【0014】列デコーダ部6は、その列アドレス信号C
Aに応じて、センスアンプ部4にラッチされている1行
分の情報のうち1つを選択する。この選択された情報
は、I/Oスイッチ部5および出力バッファ9を介して
出力データDOUT として外部に取出される。 【0015】この場合のアクセスタイム(/RASタイ
ム)tRAC は、ロウアドレスストローブ信号/RASの
降下エッジから出力データDOUT が有効となるまでの時
間である。また、この場合のサイクルタイムtC は、素
子がアクティブ状態となっている時間と、/RASプリ
チャージ時間tRPとの和となり、標準的な値としては、
RAC =100nsの場合でtC =200nsとなって
いる。 【0016】図6の(B)および(C)に示すページモ
ードおよびスタティックコラムモードは、同一行上のメ
モリセルを列アドレス信号CAを変化させてアクセスす
るものである。 【0017】ページモードにおいては、コラムアドレス
ストローブ信号/CASの降下エッジで列アドレス信号
CAをラッチする。スタティックコラムモードにおいて
は、スタティックRAM(SRAM)のように列アドレ
ス信号CAの変化のみでアクセスする。 【0018】ページモードおよびスタティックコラムモ
ードの/CASアクセスタイムtCA C およびアドレスア
クセスタイムtAAは、/RASアクセスタイムtRAC
ほぼ1/2の値となり、tRAC =100nsに対して5
0ns程度となる。 【0019】この場合、サイクルタイムも高速になり、
ページモードの場合は/CASプリチャージ時間tCP
値によるが、スタティックコラムモードと同様の50n
s程度の値が得られている。 【0020】図7は、図5のDRAM素子のページモー
ドあるいはスタティックコラムモードを利用した簡易キ
ャッシュシステムの構成を示すブロック図である。ま
た、図8は、図7の簡易キャッシュシステムの動作波形
図である。 【0021】図7において、メインメモリ20は、1M
×1構成の8個のDRAM素子21により1Mバイトに
構成されている。この場合、行アドレス信号RAと、列
アドレス信号CAとは合計20ビット(220=1048
576=1M)必要となる。 【0022】アドレスマルチプレクサ22は、10ビッ
トの行アドレス信号RAと、10ビットの列アドレス信
号CAとを2回に分けてメインメモリ20に与えるもの
である。このアドレスマルチプレクサ22は、20ビッ
トのアドレス信号を受ける20本のアドレス線A0 〜A
19と、マルチプレクスされた10ビットのアドレス信号
(マルチプレクスアドレス信号MPXA)をDRAM素
子21に与える10本のアドレス線A0 〜A9 とを有し
ている。 【0023】アドレスジェネレータ23は、CPU24
が必要とするデータに対応するアドレス信号を発生す
る。ラッチ(TAG)25は、前のサイクルで選択され
たデータに対応する行アドレス信号RAを保持してい
る。 【0024】コンパレータ26は、20ビットのアドレ
ス信号のうち10ビットの行アドレス信号RAと、TA
G25に保持されている行アドレス信号RALとを比較
する。両者が一致すれば、前のサイクルと同じ行がアク
セスされた(ヒットした)ことになり、コンパレータ2
6は高レベルのキャッシュヒット(Cache Hi
t)信号CHを発生する。 【0025】ステートマシン27は、キャッシュヒット
信号CHに応答して、ロウアドレスストローブ信号/R
ASを低レベルに保ったままコラムアドレスストローブ
信号/CASをトグルするページモード制御を行なう。
それに応答して、アドレスマルチプレクサ22は、DR
AM素子21に列アドレス信号CAを与える(図8参
照)。 【0026】このようにヒットした場合には、DRAM
素子21からアクセスタイムtCACで高速に出力データ
が得られることになる。 【0027】一方、アドレスジェネレータ23から発生
された行アドレス信号RAと、TAG25が保持してい
た行アドレス信号RALとが不一致のときは、前のサイ
クルと異なる行がアクセスされた(キャッシュミスし
た)ことになる。この場合、コンパレータ26は、高レ
ベルのキャッシュヒット信号CHを発生しない。 【0028】この場合、ステートマシン27は、通常の
読出サイクルの/RASおよび/CAS制御を行ない、
アドレスマルチプレクサ22は、行アドレス信号RAお
よび列アドレス信号CAを順にDRAM素子21に与え
る(図8参照)。 【0029】このようにキャッシュミスした場合には、
/RASのプリチャージから始まる通常の読出サイクル
を行ない、低速のアクセスタイムtRAC で出力データが
得られることになるので、ステートマシン27は、ウエ
イト信号Waitを発生し、CPU24に待機をかけ
る。 【0030】キャッシュミスの場合は、TAG25に新
しい行アドレス信号RAが保持される。 【0031】このように、図7の簡易キャッシュシステ
ムにおいては、DRAM素子のメモリセルアレイの1行
分(1Mビット素子の場合は1024ビット)のデータ
が1ブロックとなる。このため、図7の簡易キャッシュ
システムは、ブロックサイズが不必要に大きく、TAG
25に保持されるブロック数(エントリ数)が不足する
(図7のシステムでは1エントリ)ことになり、キャッ
シュのヒット率が低いという問題があった。 【0032】なお、その他の従来例として、米国特許第
4,577,293号に開示されたような簡易キャッシ
ュシステムもある。この簡易キャッシュシステムは、1
行分のデータを保持するレジスタをメモリセルアレイ外
に設け、ヒットした場合は直接このレジスタからデータ
を取出すことによりアクセスの高速化を図ったものであ
る。 【0033】しかしながら、この特許公報に開示された
簡易キャッシュシステムも、外部レジスタはメモリセル
アレイの1行分のデータを保持するものである。このた
め、この簡易キャッシュシステムも、ブロックサイズが
不必要に大きく、図5および図7に示す従来例と同様
に、キャッシュのヒット率が低いという問題を生じる。 【0034】そこで提案されたのが、図9に示すキャッ
シュメモリ内蔵DRAM素子である。 【0035】このDRAM素子が図5のDRAM素子と
異なるのは以下の点にある。すなわち、DRAMメモリ
セルアレイ1は、そのアドレス空間上で複数のメモリセ
ルからなる複数のブロックに分割されている。図9にお
いては、4つのブロックB1〜B4に分割されている。 【0036】そして、センスアンプ部4と、I/Oスイ
ッチ部5との間にトランスファゲート部11およびSR
AMメモリセルアレイ12が設けられ、さらに、ブロッ
クデコーダ13およびウエイデコーダ14が設けられて
いる。 【0037】ブロックデコーダ13には、ブロック数に
応じて列アドレスバッファ8から列アドレス信号CAの
一部が供給されるが、その活性化はキャッシュヒット信
号CHにより制御される。 【0038】また、ウエイデコーダ14には、ウエイア
ドレスバッファ15を介してウエイアドレス信号WAが
与えられる。ウエイデコーダ14は、ウエイアドレス信
号WAに応じてSRAMメモリセルアレイ12のワード
線を選択駆動する。 【0039】図10は、図9のDRAM素子の一部の構
成を詳細に示した図である。図10において、センスア
ンプ部4、トランスファゲート部11、SRAMメモリ
セルアレイ12、I/Oスイッチ部および列デコーダ部
6は、DRAMメモリセルアレイ1の複数のビット線対
BL,/BLに対応して、それぞれ複数のセンスアンプ
40、トランスファゲート110、SRAMメモリセル
120、I/Oスイッチ50および列デコーダ60から
なる。 【0040】また、DRAMメモリセルアレイ1の各ブ
ロックに対応してブロックデコーダ13が配置されてい
る。各センスアンプ40は、各ビット線対BL,/BL
間に接続されている。そして、各ビット線対BL,/B
Lは、NチャネルMOSFETQ1,Q2からなるトラ
ンスファゲート110を介して、SRAMメモリセルア
レイ12のビット線対SBL,/SBLに接続されてい
る。 【0041】SRAMメモリセルアレイ12のビット線
対SBL,/SBLは、NチャネルMOSFETQ3,
Q4を介して、それぞれI/OバスI/O,/I/Oに
接続されている。 【0042】トランスファゲート110のMOSFET
Q1,Q2のゲートには、ブロックデコーダ13により
各ブロックごとに共通の転送信号が与えられる。また、
各I/Oスイッチ50のMOSFETQ3,Q4のゲー
トには、対応する列デコーダ60によりコラム選択信号
が与えられる。 【0043】このDRAM素子においては、ブロックデ
コーダ13が各ブロックに対応するトランスファゲート
110に転送信号を与えることにより、DRAMメモリ
セルアレイ1からブロック単位で同一行上のデータがS
RAMメモリセルアレイ12に転送される。 【0044】ウエイデコーダ14によりSRAMメモリ
セルアレイ12のワード線W1 〜W n のいずれかが選択
されると、そのワード線に接続されたSRAMメモリセ
ル120に記憶されたデータが各ビット線対SBL,/
SBL上に読出される。 【0045】ビット線対SBL,/SBL上に読出され
たデータは、列デコーダ60からI/Oスイッチ50に
コラム選択信号が与えられることによって、I/Oバス
I/O,/I/Oに読出される。 【0046】このDRAM素子によると、複数列の1行
のデータを1つのデータブロックとして、異なる行上の
複数のデータブロックが複数のSRAMメモリセル12
0に保持される上に、同一列の異なる行上のデータブロ
ックが同時にSRAMメモリセルアレイ12上に保持さ
れる(アソシアティビティ)。 【0047】したがって、このSRAMメモリセルアレ
イをキャッシュメモリとして利用すれば、データのエン
トリ数を増すことができ、その結果、キャッシュのヒッ
ト率を向上することができる。 【0048】さらに、SRAMメモリセルアレイ12の
ワード線W1 〜Wn を非活性状態に保っておけば、DR
AMメモリセルアレイ1への書込動作時およびDRAM
メモリセルアレイ1からの読出動作時にも、キャッシュ
メモリへの転送を行なわない構成が可能となり、キャッ
シュメモリシステムへの応用に自由度が増すという利点
が生じる。 【0049】図11は、図9のDRAM素子を利用した
簡易キャッシュシステムの構成を示すブロック図であ
る。 【0050】図11において、メインメモリ30は、1
M×1構成の8個のDRAM素子31により1Mバイト
に構成されている。 【0051】図11のメモリシステムが図7のメモリシ
ステムと相違するのは、DRAM素子31のブロック分
けの数およびSRAMメモリセルアレイ12のワード線
の本数(セット数)に対応してTAG25およびコンパ
レータ26の数が増加している点、および、コンパレー
タ26からの出力であるキャッシュヒット信号CHおよ
びウエイアドレス信号WAがDRAM素子31に入力さ
れている点である。ここでは、ウエイアドレス信号は2
ビットである。 【0052】図11の簡易キャッシュシステムの動作を
従来の簡易キャッシュシステムの説明で用いた図6の
(A)〜(C)および図12の動作波形図を参照しなが
ら説明する。 【0053】TAG25には、各ブロック別に最も新し
いサイクルで選択された行に対応する行アドレスが複数
組キャッシュ用アドレスセットとして保持されている。
ここでは、ウエイアドレス信号として2ビットを考えて
いるので、4組の行アドレスが保持されている。 【0054】したがって、ブロック数を4とすると、1
6組のアドレスセットがTAG25に記憶されているこ
とになる。また、よく使用されるアドレスの組を固定的
にTAG25に保持させておいてもよい。 【0055】まず、CPU24が必要とするデータに対
応するアドレス信号をアドレスジェネレータ23が発生
する。コンパレータ26は、20ビットのアドレス信号
のうち10ビットの行アドレス信号RAおよび列アドレ
ス信号CAのうちブロック分けに相当する複数ビット
(図9に示す例では2ビット)と、TAG25に保持さ
れたアドレスセットとを比較する。 【0056】そして、両者が一致すれば、キャッシュに
ヒットしたことになり、コンパレータ26は高レベルの
キャッシュヒット信号CHおよびヒットしたブロックの
ウエイアドレス信号WAを発生する。 【0057】ステートマシン27は、このキャッシュヒ
ット信号CHに応答して、ロウアドレスストローブ信号
/RASを低レベルに保ったままコラムアドレスストロ
ーブ信号/CASをトグルする。そして、それに応答し
て、アドレスマルチプレクサ22は、DRAM素子31
に10ビットの列アドレス信号CAを与える(図12参
照)。 【0058】このとき、DRAM素子31においては、
図9に示したように、キャッシュヒット信号CHによる
制御により、列アドレス信号CAはブロックデコーダ1
3には供給されない。 【0059】したがって、DRAMメモリセルアレイ1
と、SRAMメモリセルアレイ12とは分離された状態
を保つ。そして、ウエイアドレス信号WAに対応した1
行分のSRAMメモリセル120から各ビット線対SB
L,/SBL上にデータが読出される。 【0060】また、列アドレス信号CAに応じたI/O
スイッチ50が、列デコーダ60によって導通状態にさ
れる。これにより、列アドレス信号CAおよびウエイア
ドレス信号WAに対応するSRAMメモリセル120内
のデータが、I/OバスI/O,/I/Oおよび出力バ
ッファ9を介して出力される。このようにヒットした場
合には、SRAMメモリセル120からページモードの
ようにアクセスタイムtCAC で高速に出力データが得ら
れることになる。 【0061】一方、アドレスジェネレータ23から発生
されたアドレス信号と、TAG25に保持されたキャッ
シュ用アドレスセットとが不一致のときは、キャッシュ
ミスしたことになり、コンパレータ26は高レベルのキ
ャッシュヒット信号CHを発生しない。 【0062】この場合、ステートマシン27は、通常の
読出サイクルの/RASおよび/CAS制御を行ない、
アドレスマルチプレクサ22は行アドレス信号RAおよ
び列アドレス信号CAを順にDRAM素子31に供給す
る(図12参照)。 【0063】このようにキャッシュミスした場合には、
低速のアクセスタイムtRAC で出力データが得られるこ
とになるので、ステートマシン27はウエイト信号Wa
itを発生し、CPU24に待機をかける。 【0064】キャッシュミスの場合は、そのときにアク
セスされたメモリセルを含むブロックのデータが、ブロ
ックデコーダ13により導通状態とされるトランスファ
ゲート110を介して、DRAMメモリセルアレイ1の
ビット線BL,/BLから、ウエイアドレス信号WAに
より選択されたSRAMメモリセル120のブロックに
一括転送される。 【0065】これにより、このブロックのSRAMメモ
リセル120の記憶内容が書換えられる。また、そのブ
ロックの対応するウエイアドレス信号WAに関するTA
G25には、新しいアドレスセットが保持される。 【0066】このように、図9のDRAM素子を用いた
簡易キャッシュシステムにおいては、キャッシュメモリ
としてのSRAMメモリセルアレイ12に複数のブロッ
クのデータが保持される。このため、TAG25へのデ
ータのエントリ数を増加することが可能となり、キャッ
シュのヒット率が高くなる。 【0067】また、ここでは、キャッシュミスした場合
に、DRAMメモリセルアレイにアクセスすると同時に
SRAMメモリセルアレイからなるキャッシュメモリに
データを転送する例を示した。しかし、これに限らず、
SRAMメモリセルアレイのすべてのワード線を非選択
状態にすることで、この転送を禁止することもできる。 【0068】同様に、DRAMメモリセルアレイへの書
込動作の場合も、SRAMメモリセルアレイへ転送する
か否かを選択することも可能である。なお、図11に示
した例は、4ウエイセットアソシアティブキャッシュシ
ステムに相当する。 【0069】しかし、この簡易キャッシュシステムにお
いては、キャッシュヒットした場合、キャッシュメモリ
としてのSRAMメモリセルアレイ12をアクセスする
ためのアドレス信号のうちウエイアドレス信号WAは、
コンパレータ26での比較後に出力される。 【0070】したがって、ウエイアドレス信号WAのD
RAM素子31への供給が遅れるため、SRAMメモリ
セルアレイ12のワード線の駆動が遅れる。このため、
高速のSRAMメモリセルアレイ12をキャッシュメモ
リとして使用できる装置でありながら、ヒット時のアク
セスタイムを高速にできないという欠点があった。 【0071】 【発明が解決しようとする課題】以上に説明したよう
に、従来のキャッシュシステムには、キャッシュのヒッ
ト率が低いことおよびアクセスタイムが高速でないこと
等の種々の問題があった。 【0072】この発明の目的は、キャッシュのヒット率
を高くすることが可能であり、アクセスタイムを高速化
し得る半導体記憶装置を提供することである。 【0073】 【課題を解決するための手段】請求項1に記載の本発明
は、メインメモリ、キャッシュメモリ、転送手段および
転送制御手段を備える。 【0074】メインメモリは、複数行および複数列に配
列され、各々が情報を記憶する複数のメモリセルを有
し、複数列単位の複数のブロックに分割されている。キ
ャッシュメモリは、複数列に配列され、各々が情報を記
憶する複数の記憶素子を有し、メインメモリの各ブロッ
クにおける複数列と同数の複数列単位の複数のブロック
に分割され、メインメモリからブロック単位で読出され
た情報をブロック単位で記憶する。 【0075】転送手段は、メインメモリとキャッシュメ
モリとの間に接続され、メインメモリからブロック単位
で読出された情報をブロック単位でキャッシュメモリに
転送するためのものである。転送制御手段は、転送手段
がメインメモリからブロック単位で読出された情報を、
キャッシュメモリの複数のブロックのいずれかのブロッ
クに選択的に転送するように転送手段を制御するための
ものである。転送手段は、メインメモリとキャッシュメ
モリとの間に挿入された内部I/O帯と、メインメモリ
と内部I/O帯との間に設けられ、メインメモリからブ
ロック単位で読出された情報を内部I/O帯に転送する
ための第1のトランスファゲート手段と、内部I/O帯
とキャッシュメモリとの間に設けられ、内部I/O帯に
転送されたブロック単位の情報をキャッシュメモリにブ
ロック単位で転送するための第2のトランスファゲート
手段とを含み、転送制御手段は、ブロック選択アドレス
に応じてメインメモリの複数のブロックのいずれかを選
択するためのブロックデコーダの出力を第1のトランス
ファゲート手段に与えて選択駆動し、かつウェイ選択ア
ドレスに応じてキャッシュメモリの複数のブロックのい
ずれかを選択するためのウェイデコーダの出力を第2の
トランスファゲート手段に与えて選択駆動する。 【0076】請求項2に記載の本発明は、請求項1に記
載の発明において、キャッシュメモリの複数の記憶素子
が複数行に配列されている。 【0077】請求項3に記載の本発明は、請求項1また
は2に記載の発明において、キャッシュメモリの各記憶
素子がスタティック形メモリセルである。 【0078】請求項4に記載の本発明は、請求項1ない
し3のいずれかに記載の発明において、転送手段が、キ
ャッシュメモリに記憶され、ブロック単位で読出された
情報をブロック単位でメインメモリに転送し、転送制御
手段が、転送手段がキャッシュメモリからブロック単位
で読出された情報を、メインメモリの複数のブロックの
いずれかのブロックに選択的に転送するように転送手段
を制御する。 【0079】請求項5に記載の本発明は、請求項1ない
し3のいずれかに記載の発明において、内部I/O帯が
転送線を含み、第1のトランスファゲート手段が複数の
メインメモリ側トランスファゲート部を含み、第2のト
ランスファゲート手段が複数のキャッシュメモリ側トラ
ンスファゲート部を含む。 【0080】転送線は、メインメモリの各ブロックにお
ける複数列と同数設けられる。複数のメインメモリ側ト
ランスファゲート部は、メインメモリのそれぞれのブロ
ックに対応して設けられ、各々がメインメモリの対応し
たブロックの対応した列と複数の転送線の対応した転送
線との間に接続されたトランスファゲートを複数有す
る。 【0081】複数のキャッシュメモリ側トランスファゲ
ート部は、キャッシュメモリのそれぞれのブロックに対
応して設けられ、各々がキャッシュメモリの対応したブ
ロックの対応した列と複数の転送線の対応した転送線と
の間に接続されたトランスファゲートを複数有する。 【0082】 【0083】請求項6に記載の本発明は、請求項1ない
し5のいずれかに記載の発明において、メインメモリ
が、行選択手段および第1の列選択手段を含み、キャッ
シュメモリが、第2の列選択手段を含む。 【0084】メインメモリに含まれる行選択手段は、複
数のメモリセルのうちの所定の行に配列された複数のメ
モリセルを選択するためのものである。メインメモリに
含まれる第1の列選択手段は、複数のメモリセルのうち
の所定の列に配列された複数のメモリセルを選択するた
めのものである。キャッシュメモリに含まれる第2の列
選択手段は、複数の記憶素子のうちの所定の列に配列さ
れた記憶素子を選択するためのものである。 【0085】請求項7に記載の本発明は、請求項1ない
し5のいずれかに記載の発明において、メインメモリ
が、第1の行選択手段および第1の列選択手段を含み、
キャッシュメモリが、第2の行選択手段および第2の列
選択手段を含む。 【0086】メインメモリに含まれる第1の行選択手段
は、複数のメモリセルのうちの所定の行に配列された複
数のメモリセルを選択するためのものである。メインメ
モリに含まれる第1の列選択手段は、複数のメモリセル
のうちの所定の列に配列された複数のメモリセルを選択
するためのものである。 【0087】キャッシュメモリに含まれる第2の行選択
手段は、複数の記憶素子のうちの所定の行に配列された
複数の記憶素子を選択するためのものである。キャッシ
ュメモリに含まれる第2の列選択手段は、複数の記憶素
子のうちの所定の列に配列された記憶素子を選択するた
めのものである。 【0088】 【0089】 【0090】請求項8に記載の本発明は、請求項1ない
し7のいずれかに記載の発明において、メインメモリの
複数のブロックのそれぞれは、半導体基板上に物理的に
固まって形成されるとともに、半導体基板上における隣
接するブロック間に境界領域が設けられる。 【0091】 【作用】請求項1に記載の本発明によれば、メインメモ
リとキャッシュメモリとは、同じ複数列単位の複数のブ
ロックに分割されている。メインメモリからブロック単
位で読出された情報は、転送手段によってブロック単位
でキャッシュメモリへ転送される。 【0092】転送手段は転送制御手段によって制御され
る。その制御によって、メインメモリからのブロック単
位の情報は、キャッシュメモリのいずれかのブロックへ
転送される。そのように転送されたブロック単位の情報
は、ブロック単位でキャッシュメモリに記憶される。 【0093】このように、メインメモリからブロック単
位で読出された情報がキャッシュメモリの任意のブロッ
クにブロック単位で記憶されるようにしたため、たとえ
ば、メインメモリの同一列における異なる行のブロック
単位の情報を複数組同時に、キャッシュメモリの異なる
ブロックに記憶することができる。したがって、データ
のエントリ数を増加させ得る。その結果、キャッシュの
ヒット率を向上することができ、さらに、キャッシュメ
モリのアクセスタイムを高速化することができる。 【0094】請求項2に記載の本発明によれば、キャッ
シュメモリの複数の記憶素子が複数行に配列されている
ため、キャッシュメモリが、メモリセルからブロック単
位で読出された情報を複数の行にそれぞれブロック単位
で記憶することが可能である。 【0095】請求項3に記載の本発明によれば、キャッ
シュメモリの複数の各記憶素子がスタティック形メモリ
セルである場合において、キャッシュのヒット率を高く
することが可能であり、さらに、アクセスタイムを高速
化することが可能である。 【0096】請求項4に記載の本発明によれば、キャッ
シュメモリからブロック単位で読出された情報が、転送
手段によってブロック単位でメインメモリに転送され
る。その転送の際には、転送制御手段によって転送手段
が制御される。その制御によって、キャッシュメモリか
らのブロック単位の情報がメインメモリのいずれかのブ
ロックに転送される。 【0097】このように、キャッシュメモリからブロッ
ク単位で読出された情報をメインメモリの任意のブロッ
クにブロック単位で転送することが可能である。 【0098】請求項5に記載の本発明によれば、メイン
メモリの各ブロックにおける複数列と同数の転送線と、
複数のメインメモリ側トランスファゲート部と、複数の
キャッシュメモリ側トランスファゲート部とが含まれ
る。 【0099】メインメモリから読出されたブロック単位
の情報がキャッシュメモリに転送される際には、その情
報が、メインメモリのブロックに対応した列からメイン
メモリ側トランスファゲート部の対応するトランスファ
ゲートを介して対応する転送線に転送される。そして、
その転送線から、情報の行先のキャッシュメモリのブロ
ックに対応する列に、キャッシュメモリ側トランスファ
ゲート部の対応するトランスファゲートを介して情報が
転送される。 【0100】 【0101】請求項6に記載の本発明によれば、メイン
メモリのメモリセルが行選択手段および第1の列選択手
段によって選択され、キャッシュメモリの記憶素子が第
2の列選択手段によって選択される。 【0102】請求項7に記載の本発明によれば、メイン
メモリのメモリセルが、第1の行選択手段および第1の
列選択手段によって選択され、キャッシュメモリの記憶
素子が第2の行選択手段および第2の列選択手段によっ
て選択される。 【0103】 【0104】 【0105】請求項8に記載の本発明によれば、メイン
メモリの複数のブロックは、それぞれ半導体基板上に物
理的に固まって形成され、隣接するブロック間が境界領
域によって隔てられる。 【0106】 【実施例】以下、この発明の一実施例を図面を用いて説
明する。 【0107】図1は、この発明の一実施例によるDRA
M素子の構成を示すブロック図である。 【0108】この実施例は以下の点を除いて図9に示す
DRAM素子と同様であり、相当部分には同一の参照番
号を付し、適宜その説明を省略する。 【0109】図1において、メインメモリであるDRA
Mメモリセルアレイ1は、そのアドレス空間上で複数の
ブロックに分割されている。この実施例では、4つのブ
ロックBK1〜BK4に分割されている。 【0110】一方、キャッシュメモリであるSRAMメ
モリセルアレイ12は、複数列単位の複数のブロックで
ある複数のウエイに分割されている。この実施例では、
4つのウエイA〜Dに分割されている。ただし、DRA
Mメモリセルアレイ1のブロック数と、SRAMメモリ
セルアレイ12のウエイ数とは異なっていてもよい。 【0111】DRAMメモリセルアレイ1と、SRAM
メモリセルアレイ12との間には、転送手段を構成す
る、センスアンプ部4、ブロックトランスファゲート部
11、内部I/O帯41、およびウエイトランスファゲ
ート部42が配置されている。 【0112】ブロックトランスファゲート部11は、D
RAMメモリセルアレイ1側のトランスファゲート部で
あり、DRAMメモリセルアレイ1のいずれかのブロッ
クの1行のデータを、転送線である内部I/O帯41に
転送するものである。 【0113】ブロック選択手段であるブロックデコーダ
13は、列アドレス信号CAのうちの一部(この実施例
の場合2ビット)に応答して、DRAMメモリセルアレ
イ1のどのブロックのデータを転送するかをブロックト
ランスファゲート部11に指令するものである。 【0114】ウエイトランスファゲート部42は、SR
AMメモリセルアレイ12側のトランスファゲート部で
あり、内部I/O帯41に転送されたデータを、SRA
Mメモリセルアレイ12のいずれかのウエイに転送する
ものである。 【0115】転送制御手段であるウエイデコーダ14
は、ウエイアドレスバッファ15を介して与えられるウ
エイアドレス信号WAに応答して、内部I/O帯41の
データを、SRAMメモリセルアレイ12のどのウエイ
に転送するかをウエイトランスファゲート部42に指令
するものである。 【0116】SRAMメモリセルアレイ12には、キャ
ッシュ行デコーダ43、キャッシュI/Oスイッチ部4
4およびキャッシュ列デコーダ45が設けられている。 【0117】キャッシュ行デコーダ43は、キャッシュ
アドレスバッファ46から与えられるキャッシュ行アド
レス信号に応答して、SRAMメモリセルアレイ12の
1行を選択するものである。キャッシュ列デコーダ部4
5は、キャッシュアドレスバッファ46から与えられる
キャッシュ列アドレス信号に応答して、各ウエイ内の1
列を選択するものである。 【0118】キャッシュアドレスバッファ46は、DR
AMメモリセルアレイ1に与えられる列アドレス信号C
Aをキャッシュアドレス信号CCAとして入力し、その
一部をキャッシュ行デコーダ43にキャッシュ行アドレ
ス信号として与え、その他をキャッシュ列デコーダ43
にキャッシュ列アドレス信号として与えるものである。 【0119】キャッシュI/Oスイッチ部44には、S
RAMメモリセルアレイ12の各ウエイに対応する複数
のSRAM用センスアンプ47がそれぞれI/O線対I
/O A 〜I/OD を介して接続されている。 【0120】キャッシュ行デコーダ43およびキャッシ
ュ列デコーダ部45により各ウエイごとに選択されたS
RAMメモリセルアレイ12内のデータが、それぞれ対
応するSRAM用センスアンプ47により検知、増幅さ
れる。 【0121】ウエイセレクタ48は、ウエイアドレスバ
ッファ15から与えられるウエイアドレス信号WAに応
答して、複数のSRAM用センスアンプ47により与え
られたデータのうちの1つを選択して、出力バッファ9
bを介してキャッシュ出力データDOUT として外部に出
力するものである。 【0122】キャッシュ入力データDINとして入力バッ
ファ10bに与えられたデータをSRAMメモリセルア
レイ12の1つのメモリセルに書込む場合は、上記と逆
の経路で行なわれる。図1においては、DRAMメモリ
セルアレイ1のブロックBK1の各行のデータA1 ,B
1 ,C1 およびD1 が、SRAMメモリセルアレイ12
の各ウエイA,B,CおよびDの同一行にそれぞれ転送
された状態が示されている。 【0123】図2は、図1の一部分の構成を詳細に示す
図である。DRAMメモリセルアレイ1の各ブロックB
K1〜BK4において、センスアンプ部4およびブロッ
クトランスファゲート部11は、n組のビット線対BL
1〜BLn に対応してそれぞれn個のセンスアンプ部4
0およびn個のブロックトランスファゲート110から
なる。また、内部I/O帯41は、n組のI/O線対I
/O1 〜I/On からなる。これらのブロックBK1〜
BK4は、隣接するブロック間が境界領域によって隔て
られる。 【0124】各ブロックのビット線対BL1 〜BL
n は、センスアンプ40およびブロックトランスファゲ
ート110を介して対応するI/O線対I/O1 〜I/
n にそれぞれ接続されている。 【0125】一方、SRAMメモリセルアレイ12は、
4つのウエイに分割されている。各ウエイは、n列のS
RAMメモリセル120、すなわち、n組のビット線対
SBL1 〜SBLn からなる。 【0126】各ウエイにおいて、ウエイトランスファゲ
ート部42は、n組のビット線対SBL1 〜SBLn
対応してそれぞれn個のウエイトランスファゲート42
0からなる。 【0127】各ウエイにおけるn組のビット線対SBL
1 〜SBLn は、それぞれウエイトランスファゲート4
20を介して内部I/O帯41の対応するI/O線対I
/O 1 〜I/On にそれぞれ接続されている。 【0128】キャッシュI/Oスイッチ部44は、SR
AMメモリセルアレイ12の各ビット線対SBL1 〜S
BLn に対応する複数のキャッシュI/Oスイッチ44
0および各ウエイに対応する4組のI/O線I/OA
I/OD からなる。 【0129】各ウエイに属するn組のビット線対SBL
1 〜SBLn は、それぞれキャッシュI/Oスイッチ4
40を介して、そのウエイに対応するI/O線に接続さ
れている。たとえば、ウエイCに属するビット線対SB
1 〜SBLn は、すべてI/O線対I/OC に接続さ
れている。 【0130】また、各ウエイごとにキャッシュ列デコー
ダ部45が設けられている。各ウエイのキャッシュ列デ
コーダ部45は、各列に対応するn個のキャッシュ列デ
コーダ450からなる。各キャッシュ列デコーダ450
は、対応するキャッシュI/Oスイッチ440のMOS
トランジスタのゲートに接続されている。 【0131】図3は、図1のDRAM素子を利用した簡
易キャッシュシステムの構成を示すブロック図である。 【0132】図3において、メインメモリ30は、1M
×1構成の、8個のDRAM素子31により1Mバイト
に構成されている。 【0133】図3のメモリシステムが図11のメモリシ
ステムと相違するのは、コンパレータ26からの出力で
あるキャッシュヒット信号CHの代わりに、マルチプレ
クサ22によりマルチプレクスされる前の列アドレス信
号に相当する10ビットのアドレス信号がキャッシュア
ドレス信号CCAとしてDRAM素子31に入力されて
いる点、および、キャッシュヒット信号CHに応答して
ステートマシン27が発生するデータセレクト信号DS
がデータセレクタ51に入力されている点である。 【0134】データセレクタ51は、データセレクト信
号DSに応答して、DRAM素子31から与えられるD
RAMデータDDまたはキャッシュデータCDを選択し
て出力するものである。 【0135】図3の簡易キャッシュシステムの動作を図
4に示す動作波形図を参照しながら説明する。 【0136】TAG25には、各ブロック別に最も新し
いサイクルで選択された行に対応する行アドレスが複数
組キャッシュ用アドレスセットして保持されている。 【0137】ここでは、ウエイアドレス信号WAとして
2ビットを考えているので、4組の行アドレスが保持さ
れている。したがって、ブロックを4とすると、16組
のアドレスセットがTAG25に記憶されていることに
なる。 【0138】また、よく使用されるアドレスを固定的に
TAG25に保持させておいてもよい。その理由は、キ
ャッシュメモリの使用効率を高くするためである。それ
を図1のDRAM素子において実現する場合は、複数の
ブロックに分割されているSRAMメモリセルアレイ1
2の一部のブロック(たとえば1つのブロック)のデー
タを固定データにすればよい。 【0139】まず、CPU24が必要とするデータに対
応するアドレス信号をアドレスジェネレータ23が発生
する。コンパレータ26は、20ビットのアドレス信号
のうち10ビットの行アドレス信号RAおよび列アドレ
ス信号CAのうちブロック分けに相当する複数ビット
(図3に示す例では2ビット)と、TAG25に保持さ
れたアドレスセットとを比較する。 【0140】そして、両者が一致すればキャッシュがヒ
ットしたことになり、コンパレータ26は、高レベルの
キャッシュヒット信号CHおよびヒットしたブロックの
ウエイアドレス信号WAを発生する。 【0141】このコンパレータ26によるアドレス信号
の比較に先立って、キャッシュヒットすることを前提
に、DRAM素子31へは10ビットのキャッシュアド
レス信号CCAが入力され、SRAMメモリセルの読出
動作が進行している。 【0142】ここでは、4ウエイを考えているので、4
ビットの読出動作が進行している。したがって、キャッ
シュにヒットしたときは、ウエイアドレス信号WAが入
力されると、高速に所望のデータがキャッシュデータC
Dとしてキャッシュ出力バッファ9bを介して出力さ
れ、キャッシュヒット信号CHに応答して発生されるデ
ータセレクト信号DSによって、データセレクタ51か
らキャッシュメモリのデータが得られることになる。 【0143】逆に、コンパレータ26に入力されたアド
レス信号がTAG25に保持されたアドレスセットと不
一致のときは、キャッシュミスしたことになり、コンパ
レータ26はキャッシュヒット信号CHを発生しない。
これにより、SRAMメモリセルから出力されるキャッ
シュデータCDは無視されることになる。 【0144】この場合、ステートマシン27は通常の読
出サイクルの/RASおよび/CAS制御を行ない、ア
ドレスマルチプレクサ22は行アドレス信号RAおよび
列アドレス信号CAを順にDRAM素子31に供給する
(図4参照)。 【0145】このようにキャッシュミスした場合には、
低速のアクセスタイムtRAC で出力データが得られるこ
とになるので、ステートマシン27はウエイト信号Wa
itを発生し、CPU24に待機をかける。 【0146】キャッシュミスの場合は、そのときにアク
セスされたメモリセルを含むブロックのデータが、ブロ
ックデコーダ13により導通状態とされるブロックトラ
ンスファゲート110を介して、内部I/O帯41のI
/O線対I/O1 〜I/Onに転送される。 【0147】そして、それらのデータはウエイアドレス
信号WAにより選択されるウエイトランスファゲート4
20を介してSRAMメモリセルアレイ12の適当なウ
エイに転送され、キャッシュ行デコーダ43により選択
された行上のSRAMメモリセル120の記憶内容が書
き換えられる。 【0148】また、そのデータのブロックの対応するウ
エイに関するTAG25には、今回アクセスされた新し
いアドレスセットが保持される。 【0149】以上説明したように、上記実施例では、キ
ャッシュメモリとしてのSRAMメモリセルアレイ12
0に複数ブロック分のデータが保持される。このため、
TAG25へのデータのエントリ数を増すことができ、
その結果、ヒットの確率を向上させることができ、か
つ、キャッシュメモリのアクセスタイムが高速になると
いう効果がある。 【0150】 【発明の効果】請求項1に記載の本発明によれば、メイ
ンメモリとキャッシュメモリとが同じ複数列単位の複数
のブロックに分割されており、メインメモリからブロッ
ク単位で読出された情報がキャッシュメモリのいずれか
の任意のブロックにブロック単位で転送されて記憶され
るようにした。 【0151】このため、ブロックサイズを不必要に大き
くすることなく、データのエントリ数を効率的に増加す
ることができる。その結果、キャッシュのヒット率を向
上することができ、さらに、アクセスタイムを高速にす
ることができる。 【0152】したがって、この発明の半導体記憶装置を
用いれば、キャッシュのヒット率が高く、高速な簡易セ
ットアソシアティブキャッシュシステムを構成すること
ができる。 【0153】請求項2に記載の本発明によれば、キャッ
シュメモリの複数の記憶素子が複数行に配列されている
ため、キャッシュメモリにおいて、メインメモリからブ
ロック単位で読出された情報を複数の行にそれぞれブロ
ック単位で記憶することができる。 【0154】請求項3に記載の本発明によれば、キャッ
シュメモリの複数の各記憶素子がスタティック形メモリ
セルである場合において、キャッシュのヒット率を高く
することができ、さらに、アクセスタイムを高速化する
ことができる。 【0155】請求項4に記載の本発明によれば、さら
に、キャッシュメモリからブロック単位で読出された情
報をメインメモリの任意のブロックにブロック単位で転
送することができる。 【0156】請求項5に記載の本発明によれば、メイン
メモリから読出されたブロック単位の情報がキャッシュ
メモリに転送される際に、情報を、メインメモリのブロ
ックに対応した列からメインメモリ側トランスファゲー
ト部の対応するトランスファゲートを介して対応する転
送線に転送することができる。そして、その転送線か
ら、情報の行先のキャッシュメモリのブロックに対応す
る列に、キャッシュメモリ側トランスファゲート部の対
応するトランスファゲートを介して情報を転送すること
ができる。 【0157】 【0158】請求項6に記載の本発明によれば、メイン
メモリのメモリセルを行選択手段および第1の列選択手
段によって選択することができ、キャッシュメモリの記
憶素子を第2の列選択手段によって選択することができ
る。 【0159】請求項7に記載の本発明によれば、さら
に、メインメモリのメモリセルを第1の行選択手段およ
び第2の列選択手段によって選択することができ、キャ
ッシュメモリの記憶素子を第2の行選択手段および第2
の列選択手段によって選択することができる。 【0160】 【0161】 【0162】請求項8に記載の本発明によれば、メイン
メモリの複数のブロックが、それぞれ半導体基板上に物
理的に固まって形成され、隣接するブロック間が境界領
域によって隔てられた構成において、請求項1ないし7
に記載の発明の効果と同様の効果を得ることができる。
DETAILED DESCRIPTION OF THE INVENTION [0001] BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a semiconductor memory device.
In particular, the main memory and cache memory are
Integrated on chips and transfer information between their memories
The semiconductor memory device having a characteristic in the transmission part.
You. [0002] 2. Description of the Related Art Conventionally, the cost of computer systems has been increasing.
Low speed, large capacity,
Therefore, main memory composed of low-cost DRAM
And a central processing unit (CPU).
It is common practice to provide a small-capacity high-speed memory
Have been done. This fast buffer uses cache memory
Data blocks that are likely to be needed by the CPU.
Lock is copied from main memory and stored
You. [0003] The DRAM of the CPU
The data stored at the address is stored in the cache memory.
When it exists, it is called a hit, and the CPU has a fast cache.
Access to memory. [0004] On the other hand, an ad
Data stored in cache memory exists in cache memory
If not, it is called a cache miss, and the CPU slows down.
Access to the main memory of the
Transfer the belonging block to the cache memory. However, such a cache memo
Re-system requires expensive high-speed memory, so
It can be used in small systems where stress is important.
Did not. Therefore, conventionally, general-purpose DRAMs have
Use page mode or static column mode
Thus, a simple cache system was configured. FIG. 5 shows a page mode or a static mode.
Basics of conventional DRAM device capable of executing column mode
FIG. 3 is a block diagram illustrating a configuration. In FIG. 5, a memory cell array 1 includes
Multiple word lines and multiple bit line pairs cross each other
Memory cells at each of their intersections
Is provided. The word line of the memory cell array 1
It is connected to the row decoder unit 3 via the driver 2.
The bit line pair of the memory cell array 1
Column decoder unit via the control unit 4 and the I / O switch unit 5
6 is connected. The row decoder 3 has a row address buffer.
7 is connected, and the column decoder section 6 has a column address buffer.
8 are connected. These row address buffers 7 and
And column address buffer 8 have row address signals RA and
And multiplexed column address signal CA.
A rex address signal MPXA is provided. Furthermore, I
The I / O switch unit 5 includes an output buffer 9 and an input buffer.
FA 10 is connected. FIG. 6A, FIG. 6B and FIG.
Normal read cycle of DRAM, page mode cycle
Waveform chart of the static column mode cycle
Is shown. In a normal read cycle shown in FIG.
First, the row address buffer 7 stores the row address
Multiplexed at falling edge of strobe signal / RAS
Address signal MPXA is taken in, and row address signal RA is taken.
To the row decoder unit 3. The row decoder unit 3 receives the row address signal R
According to A, one of the word lines is selected. This
As a result, the multiple word lines connected to the selected word line
The information in the memory cell is read out to each bit line, and the information
Is detected and amplified by the sense amplifier unit 4. at the time
Thus, the information of the memory cells for one row is stored in the sense amplifier unit 4.
Has been locked. Next, the column address buffer 8
Multiple on the falling edge of the dress strobe signal / CAS
Captures the column address signal MPXA
The signal CA is given to the column decoder unit 6. The column decoder 6 receives the column address signal C
One row latched in the sense amplifier unit 4 according to A
One of the minute information is selected. This selected information
Via the I / O switch unit 5 and the output buffer 9
Output data DOUTAs outside. In this case, the access time (/ RAS type)
M) tRACOf the row address strobe signal / RAS
Output data D from falling edgeOUTTime until becomes effective
Between. In this case, the cycle time tCIs the prime
The child is in the active state and the / RAS pre
Charge time tRPAnd the standard value is
tRAC= 100 ns and tC= 200 ns
I have. The page model shown in FIGS. 6B and 6C
Mode and static column mode are
A memory cell is accessed by changing the column address signal CA.
Things. In the page mode, the column address
Column address signal at falling edge of strobe signal / CAS
Latch CA. In static column mode
Is a column address like a static RAM (SRAM).
Access only by the change of the scan signal CA. Page mode and static column mode
/ CAS access time tCA CAnd address
Access time tAAIs the / RAS access time tRACof
The value becomes almost 1/2, and tRAC= 5 for 100 ns
It is about 0 ns. In this case, the cycle time becomes faster,
/ CAS precharge time t in page modeCPof
50n similar to static column mode, depending on the value
A value of about s is obtained. FIG. 7 shows a page mode of the DRAM device of FIG.
Simple key using the
FIG. 2 is a block diagram illustrating a configuration of a cache system. Ma
FIG. 8 is an operation waveform of the simple cache system of FIG.
FIG. In FIG. 7, the main memory 20 has 1M
1M byte by 8 DRAM elements 21 of × 1 configuration
It is configured. In this case, the row address signal RA and the column
The address signal CA is a total of 20 bits (220= 1048
576 = 1M). The address multiplexer 22 has 10 bits.
Row address signal RA and 10-bit column address signal
To give to the main memory 20 in two times
It is. This address multiplexer 22 has 20 bits.
Address lines A receiving the address signals of0~ A
19And a multiplexed 10-bit address signal
(Multiplex address signal MPXA)
10 address lines A to be given to the child 210~ A9And have
ing. The address generator 23 includes a CPU 24
Generates address signals corresponding to the data required by
You. Latch (TAG) 25 is selected in the previous cycle.
Holds the row address signal RA corresponding to the data
You. The comparator 26 has a 20-bit address.
10-bit row address signal RA and TA
Compare with row address signal RAL held in G25
I do. If they match, the same row as in the previous cycle is activated.
Was hit (hit), and comparator 2
6 is a high level cache hit (Cache Hi)
t) Generate the signal CH. The state machine 27 has a cache hit.
In response to signal CH, row address strobe signal / R
Column address strobe with AS low
Page mode control for toggling signal / CAS is performed.
In response, address multiplexer 22 outputs DR
A column address signal CA is applied to the AM element 21 (see FIG. 8).
See). In the case of such a hit, the DRAM
Access time t from element 21CACOutput data at high speed
Is obtained. On the other hand, generated from address generator 23
Row address signal RA and TAG 25 hold
If the row address signal RAL does not match,
Row different from the cache was accessed (cache miss
). In this case, the comparator 26
No bell cache hit signal CH is generated. In this case, the state machine 27
Performs / RAS and / CAS control of the read cycle,
The address multiplexer 22 supplies the row address signals RA and
And column address signal CA to DRAM element 21 in order.
(See FIG. 8). In the case of such a cache miss,
Normal read cycle starting from / RAS precharge
And the slow access time tRACOutput data
The state machine 27
Generates a write signal Wait and waits for the CPU 24
You. In the case of a cache miss, a new TAG 25
New row address signal RA is held. As described above, the simple cache system shown in FIG.
In the system, one row of the memory cell array of the DRAM element
Minute data (1024 bits in case of 1M bit element)
Is one block. Therefore, the simple cache shown in FIG.
The system has an unnecessarily large block size and TAG
Insufficient number of blocks (number of entries) held in 25
(One entry in the system of FIG. 7),
There was a problem that the hit rate of Shu was low. As another conventional example, US Pat.
Simple cache as disclosed in 4,577,293
There is also a system. This simple cache system has 1
A register for holding data for a row is outside the memory cell array
If a hit occurs, the data is directly sent from this register.
To speed up access by extracting
You. However, the technique disclosed in this patent gazette
In the simple cache system, the external register is a memory cell
This holds one row of data in the array. others
Therefore, this simple cache system also has a block size
Unnecessarily large, similar to the conventional example shown in FIGS. 5 and 7
Another problem is that the cache hit rate is low. Therefore, a proposal has been made for the cache shown in FIG.
This is a DRAM device with a built-in memory. This DRAM device is the same as the DRAM device of FIG.
The differences are as follows. That is, DRAM memory
The cell array 1 has a plurality of memory cells in its address space.
Is divided into a plurality of blocks. In FIG.
Is divided into four blocks B1 to B4. The sense amplifier unit 4 and the I / O switch
Transfer gate 11 and SR
An AM memory cell array 12 is provided.
A decoder 13 and a way decoder 14 are provided.
I have. In the block decoder 13, the number of blocks
Column address buffer 8 from column address buffer 8
Some will be supplied, but their activation will be
No. CH. The way decoder 14 has a way
The way address signal WA is output via the dress buffer 15.
Given. The way decoder 14 outputs a way address signal.
Word of the SRAM memory cell array 12 according to the signal WA
Selectively drive a line. FIG. 10 shows a part of the structure of the DRAM device shown in FIG.
FIG. In FIG.
Amplifier 4, transfer gate 11, SRAM memory
Cell array 12, I / O switch section and column decoder section
6 denotes a plurality of bit line pairs of the DRAM memory cell array 1.
A plurality of sense amplifiers respectively corresponding to BL and / BL
40, transfer gate 110, SRAM memory cell
120, from the I / O switch 50 and the column decoder 60
Become. Each block of the DRAM memory cell array 1
Block decoder 13 is arranged corresponding to the lock.
You. Each sense amplifier 40 is connected to each bit line pair BL, / BL
Connected between them. Then, each bit line pair BL, / B
L is a transistor composed of N-channel MOSFETs Q1 and Q2.
Through the transfer gate 110, the SRAM memory cell
Connected to the bit line pair SBL, / SBL
You. Bit line of SRAM memory cell array 12
The pair SBL and / SBL are N-channel MOSFETs Q3 and
To the I / O buses I / O and / I / O via Q4
It is connected. MOSFET of transfer gate 110
The gates of Q1 and Q2 are connected by the block decoder 13.
A common transfer signal is applied to each block. Also,
Gates of MOSFETs Q3 and Q4 of each I / O switch 50
Column select signal by the corresponding column decoder 60.
Is given. In this DRAM device, the block data
A coder 13 is a transfer gate corresponding to each block.
110 by providing a transfer signal to the DRAM memory
The data on the same row from the cell array 1 in blocks is S
The data is transferred to the RAM memory cell array 12. SRAM memory by way decoder 14
Word line W of cell array 121~ W nSelect one of
The SRAM memory cell connected to the word line.
Is stored in each bit line pair SBL, //
Read on SBL. Read on bit line pair SBL, / SBL
Data from the column decoder 60 to the I / O switch 50
When the column select signal is applied, the I / O bus
Read to I / O, / I / O. According to this DRAM device, one row of a plurality of columns
Data on one line as a data block
A plurality of data blocks are divided into a plurality of SRAM memory cells 12
0 and data blocks on different rows of the same column.
Is simultaneously held on the SRAM memory cell array 12.
(Association). Therefore, this SRAM memory cell array
If the memory is used as a cache memory,
The number of birds can be increased, resulting in cache hits.
Rate can be improved. Further, the SRAM memory cell array 12
Word line W1~ WnIf you keep the inactive state, DR
Write operation to AM memory cell array 1 and DRAM
During a read operation from memory cell array 1,
A configuration that does not transfer data to memory becomes possible,
Advantages of increased flexibility in application to memory systems
Occurs. FIG. 11 shows a case where the DRAM device of FIG. 9 is used.
FIG. 2 is a block diagram illustrating a configuration of a simple cache system.
You. In FIG. 11, the main memory 30 has
1M bytes by 8 DRAM elements 31 of M × 1 configuration
Is configured. The memory system shown in FIG.
The difference from the stem is the block of the DRAM element 31.
And the word line of the SRAM memory cell array 12
TAG25 and Comparator corresponding to the number of
That the number of radiators 26 has increased and
And a cache hit signal CH output from the
And the way address signal WA is input to the DRAM element 31.
It is a point that has been. Here, the way address signal is 2
Is a bit. The operation of the simple cache system shown in FIG.
FIG. 6 used in the description of the conventional simple cache system
(A) to (C) and the operation waveform chart of FIG.
Will be described. The TAG 25 has the newest block by block.
Row address corresponding to the row selected in the new cycle
It is held as a set cache address set.
Here, two bits are considered as the way address signal.
Therefore, four sets of row addresses are held. Therefore, assuming that the number of blocks is 4, 1
6 address sets are stored in TAG25.
And Also, a set of frequently used addresses is fixed.
May be held in the TAG 25 first. First, for the data required by the CPU 24,
Address generator 23 generates a corresponding address signal.
I do. The comparator 26 has a 20-bit address signal.
10-bit row address signal RA and column address
Bits corresponding to the block division of the signal CA
(2 bits in the example shown in FIG. 9), and
With the specified address set. If they match, the cache
A hit has occurred, and the comparator 26
The cache hit signal CH and the hit block
A way address signal WA is generated. The state machine 27 uses the cache memory
Row address strobe signal in response to
Column address strobe while / RAS is kept at low level.
Toggle the CAS signal / CAS. And respond to it
In addition, the address multiplexer 22 includes the DRAM element 31
Is supplied with a 10-bit column address signal CA (see FIG. 12).
See). At this time, in the DRAM element 31,
As shown in FIG. 9, the cache hit signal CH
The column address signal CA is controlled by the block decoder 1
3 is not supplied. Therefore, DRAM memory cell array 1
And the SRAM memory cell array 12 are separated from each other.
Keep. Then, 1 corresponding to the way address signal WA
From each row of SRAM memory cells 120, each bit line pair SB
Data is read onto L, / SBL. The I / O corresponding to the column address signal CA
Switch 50 is turned on by column decoder 60.
It is. Thereby, the column address signal CA and the way
In the SRAM memory cell 120 corresponding to the dress signal WA
Of the I / O bus I / O, / I / O and the output bus
It is output via the buffer 9. If you hit like this
In this case, the page mode of the SRAM
Access time tCACOutput data at high speed
Will be. On the other hand, generated from address generator 23
Address signal and the cache signal held in TAG 25.
Cache address set does not match
A miss has occurred and comparator 26
No cache hit signal CH is generated. In this case, the state machine 27
Performs / RAS and / CAS control of the read cycle,
The address multiplexer 22 supplies the row address signal RA and
And the column address signal CA are sequentially supplied to the DRAM element 31.
(See FIG. 12). When a cache miss occurs as described above,
Low access time tRACOutput data
Therefore, the state machine 27 outputs the wait signal Wa
It generates an "it" and waits for the CPU 24. In the case of a cache miss, the
The data of the block containing the accessed memory cell is
Transfer made conductive by the decoder 13
Through the gate 110, the DRAM memory cell array 1
From the bit lines BL and / BL to the way address signal WA
To the selected block of SRAM memory cells 120
Batch transfer. Thus, the SRAM memo of this block is
The contents stored in the recell 120 are rewritten. Also,
TA related to way address signal WA corresponding to lock
G25 holds a new address set. As described above, the DRAM device shown in FIG.
In a simple cache system, the cache memory
In the SRAM memory cell array 12 as a
Is retained. For this reason, data to TAG25
The number of data entries can be increased,
The hit rate of Shu becomes higher. Here, the case where a cache miss occurs
At the same time as accessing the DRAM memory cell array
For cache memory consisting of SRAM memory cell array
An example of transferring data has been described. However, not limited to this,
Unselect all word lines in SRAM memory cell array
By setting the state, this transfer can be prohibited. Similarly, writing to the DRAM memory cell array is performed.
Transfer to the SRAM memory cell array
It is also possible to select whether or not. Note that FIG.
An example is the 4-way set associative cash
Corresponds to stem. However, in this simple cache system,
If there is a cache hit,
To access the SRAM memory cell array 12 as
Address signal WA among the address signals for
It is output after the comparison by the comparator 26. Therefore, D of the way address signal WA
Since the supply to the RAM element 31 is delayed, the SRAM memory
Driving of the word line of the cell array 12 is delayed. For this reason,
Cache memo for high-speed SRAM memory cell array 12
Although it is a device that can be used as a
There was a disadvantage that the set time could not be increased. [0071] SUMMARY OF THE INVENTION As described above,
In addition, conventional cache systems include a cache hit.
Low access rate and fast access time
And so on. An object of the present invention is to provide a cache hit ratio.
Can be increased, and access time is shortened.
It is to provide a semiconductor memory device that can be used. [0073] The present invention according to claim 1 is provided.
Is a main memory, a cache memory, a transfer means and
It has transfer control means. The main memory is arranged in a plurality of rows and a plurality of columns.
With a plurality of memory cells, each storing information
Then, it is divided into a plurality of blocks in units of a plurality of columns. Ki
The cache memory is arranged in multiple columns, each of which stores information.
It has multiple storage elements to store
Blocks in the same number of columns as multiple columns
And read from main memory in block units
The stored information is stored in block units. The transfer means includes a main memory and a cache memory.
Connected to memory and block units from main memory
Reads the information read out in the cache memory in block units.
It is for transferring. The transfer control means is a transfer means
Reads information read from the main memory in block units,
One of the blocks in the cache memory
To control the transfer means to selectively transfer to
Things. The transfer means consists of main memory and cache memory.
Internal I / O band inserted between memory and main memory
Between the main memory and the internal I / O band.
Transfers information read in lock units to internal I / O band
Transfer gate means for internal I / O band
And between the cache memory and the internal I / O band
The transferred block information is stored in cache memory.
Second transfer gate for transferring in lock units
Means, and the transfer control means comprises a block selection address.
One of the main memory blocks according to the
The output of the block decoder for selecting
To the gate circuit for selective drive and way selection
Multiple blocks of cache memory depending on the dress
The output of the way decoder for selecting one of
The data is supplied to the transfer gate means and is selectively driven. The present invention described in claim 2 is directed to claim 1.
In the invention described above, a plurality of storage elements of the cache memory
Are arranged in multiple rows. The third aspect of the present invention provides the first aspect.
The invention according to item 2, wherein each storage of the cache memory is
The element is a static memory cell. The present invention described in claim 4 has no claim 1
3. In the invention according to any one of (3) and (4),
Stored in cache memory and read in block units
Transfers information to main memory in block units and controls transfer
Means, transfer means block unit from cache memory
The information read at
Transfer means to selectively transfer to any block
Control. The present invention described in claim 5 has no claim 1
3. In the invention according to any one of Items 3 to 3,
A transfer line including a plurality of transfer lines;
Including the transfer gate section on the main memory side, the second gate
The transfer gate means is provided with a plurality of cache memory side
Including the transfer gate section. A transfer line is connected to each block of the main memory.
The same number as the plurality of rows. Multiple main memory
The transfer gate section is provided for each block in the main memory.
Corresponding to the main memory.
Corresponding transfer of multiple rows and corresponding columns of blocks
Has multiple transfer gates connected to the line
You. A plurality of transfer memories on the cache memory side
The port part is associated with each block of the cache memory.
Corresponding to the corresponding blocks of the cache memory.
The corresponding row of locks and the corresponding transfer lines of multiple transfer lines
Have a plurality of transfer gates connected between them. [0082] The present invention described in claim 6 has no claim 1
5. The invention according to any one of claims 5 to 5, wherein
Includes a row selection means and a first column selection means,
The memory includes second column selection means. The row selecting means included in the main memory
Of a plurality of memory cells arranged in a predetermined row.
This is for selecting a molycell. In main memory
The first column selection means included in the plurality of memory cells
Select multiple memory cells arranged in a given column
It is for Second column included in cache memory
The selection means is arranged in a predetermined column of the plurality of storage elements.
This is for selecting the storage element that has been set. The present invention described in claim 7 has no claim 1
5. The invention according to any one of claims 5 to 5, wherein
Includes first row selection means and first column selection means,
The cache memory includes a second row selection unit and a second column.
Including selection means. First row selecting means included in main memory
Is a plurality of memory cells arranged in a predetermined row.
This is for selecting a number of memory cells. Main menu
The first column selecting means included in the memory includes a plurality of memory cells.
Select multiple memory cells arranged in a given column
It is for doing. Selection of the second row included in the cache memory
The means are arranged in a predetermined row of the plurality of storage elements.
This is for selecting a plurality of storage elements. Cash
The second column selection means included in the menu memory includes a plurality of storage elements.
To select storage elements arranged in a predetermined column among the children.
It is for [0088] [0089] The present invention described in claim 8 has no claim 1
7. In the invention according to any one of Items 7 to 7,
Each of the blocks is physically placed on a semiconductor substrate.
It is formed as a solid and is adjacent to the semiconductor substrate.
A boundary area is provided between adjacent blocks. [0091] According to the first aspect of the present invention, the main memo
Memory and cache memory are the same
Has been split into locks. Single block from main memory
The information read in the order is transferred in block units by the transfer means.
Is transferred to the cache memory. The transfer means is controlled by the transfer control means.
You. By that control, block unit from main memory
Position information to any block in the cache memory
Will be transferred. Block-by-block information transferred as such
Are stored in the cache memory in block units. As described above, the block unit is stored in the main memory.
The information read out in the
Is stored in blocks for each block.
For example, blocks in different rows in the same column of main memory
Multiple sets of unit information at the same time, different cache memories
Can be stored in blocks. Therefore, the data
Can be increased. As a result,
The hit rate can be improved, and the cash
The access time of the memory can be shortened. According to the second aspect of the present invention, the cache
Multiple storage elements of flash memory are arranged in multiple rows
As a result, the cache memory is
Information read in multiple places on multiple lines in block units
Can be stored. According to the third aspect of the present invention, a cache is provided.
Each memory element of the flash memory is a static memory
Higher cache hit rate for cells
And access time is fast
It is possible to According to the fourth aspect of the present invention, the cache
The information read from the flash memory in block units is transferred.
Is transferred to the main memory in block units by means
You. At the time of the transfer, the transfer means
Is controlled. Depending on the control, cache memory
The information in block units is stored in one of the blocks in main memory.
Transferred to lock. As described above, the block from the cache memory is
The information read in units of blocks can be
It is possible to transfer data to a block in blocks. According to the fifth aspect of the present invention, the main
As many transfer lines as columns in each block of the memory;
Multiple main memory transfer gates and multiple
Includes cache memory transfer gate
You. Block unit read from main memory
When the information is transferred to the cache memory,
Information from the column corresponding to the block in main memory
The corresponding transfer of the memory side transfer gate
The data is transferred to the corresponding transfer line via the gate. And
From the transfer line, block the cache memory at the destination of the information.
In the column corresponding to the
Information is transferred via the corresponding transfer gate in the gate section.
Will be transferred. [0100] According to the sixth aspect of the present invention, the main
The memory cell of the memory is a row selecting means and a first column selecting means.
Stage, and the storage element of the cache memory is
2 is selected by the column selecting means. According to the seventh aspect of the present invention, the main
The memory cell of the memory comprises a first row selection means and a first row selection means.
Selected by the column selecting means and stored in the cache memory
The elements are controlled by the second row selecting means and the second column selecting means.
Selected. [0103] [0104] According to the eighth aspect of the present invention, the main
Multiple blocks of memory are each stored on a semiconductor substrate.
Are formed physically, and the boundary between adjacent blocks is
Separated by areas. [0106] An embodiment of the present invention will be described below with reference to the drawings.
I will tell. FIG. 1 shows a DRA according to an embodiment of the present invention.
FIG. 3 is a block diagram illustrating a configuration of an M element. This embodiment is shown in FIG. 9 except for the following points.
Same as the DRAM device, and the corresponding parts have the same reference numbers.
Numbers are attached, and the description is omitted as appropriate. In FIG. 1, DRA which is a main memory
M memory cell array 1 has a plurality of
It is divided into blocks. In this example, four blocks
It is divided into locks BK1 to BK4. On the other hand, the SRAM memory as a cache memory
The memory cell array 12 includes a plurality of blocks in a plurality of columns.
It is divided into several ways. In this example,
It is divided into four ways A to D. However, DRA
Number of blocks in M memory cell array 1 and SRAM memory
The number of ways of the cell array 12 may be different. DRAM memory cell array 1 and SRAM
Transfer means is provided between the memory cell array 12 and the memory cell array 12.
, Sense amplifier section 4, block transfer gate section
11, internal I / O band 41, and way transferage
A port portion 42 is provided. The block transfer gate section 11
In the transfer gate section on the RAM memory cell array 1 side
Yes, any block in the DRAM memory cell array 1
The data of one row of data is transferred to the internal I / O band 41 which is a transfer line.
To transfer. Block decoder as block selecting means
13 is a part of the column address signal CA (this embodiment)
2 bits in the case of
Block which block of data in (1) to transfer
A command is given to the transfer gate unit 11. The way transfer gate section 42 has the SR
In the transfer gate section on the AM memory cell array 12 side
The data transferred to the internal I / O band 41 is
Transfer to any way of M memory cell array 12
Things. Way decoder 14 serving as transfer control means
Are provided through the way address buffer 15.
In response to the A-address signal WA, the internal I / O band 41
Data is transferred to any way in the SRAM memory cell array 12.
To the way transfer gate unit 42 to transfer to
Is what you do. The SRAM memory cell array 12 has
Cache row decoder 43, cache I / O switch unit 4
4 and a cache column decoder 45 are provided. The cache row decoder 43 has a cache
Cache line address provided from address buffer 46
Address of the SRAM memory cell array 12 in response to the
One row is selected. Cache column decoder 4
5 is given from the cache address buffer 46.
In response to the cache column address signal, one of each way
This is for selecting a column. The cache address buffer 46 has the DR
Column address signal C applied to AM memory cell array 1
A is input as a cache address signal CCA, and
Part of the cache row address is assigned to the cache row decoder 43.
And a cache column decoder 43
As a cache column address signal. The cache I / O switch section 44 has S
A plurality corresponding to each way of the RAM memory cell array 12
SRAM sense amplifiers 47 each have an I / O line pair I
/ O A~ I / ODConnected through. Cache line decoder 43 and cache
S selected for each way by the queue column decoder unit 45
The data in the RAM memory cell array 12 is
Detected and amplified by the corresponding SRAM sense amplifier 47
It is. The way selector 48 has a way address bar.
In response to the way address signal WA given from the buffer 15.
In response, it is provided by a plurality of SRAM sense amplifiers 47.
Select one of the received data and output buffer 9
b through the cache output data DOUTGo out as
It is something to empower. Cache input data DINInput buffer as
The data given to the memory 10b is stored in the SRAM memory cell
When writing to one memory cell of the ray 12, the above procedure is reversed.
It is performed in the route of. In FIG. 1, a DRAM memory
Data A of each row of block BK1 of cell array 11, B
1, C1And D1Is the SRAM memory cell array 12
Transfer to the same row of each way A, B, C and D
The state shown is shown. FIG. 2 shows the configuration of a part of FIG. 1 in detail.
FIG. Each block B of the DRAM memory cell array 1
In K1 to BK4, the sense amplifier unit 4 and the block
Transfer gate unit 11 includes n pairs of bit lines BL
1~ BLnN sense amplifier units 4 corresponding to
From 0 and n block transfer gates 110
Become. Further, the internal I / O band 41 includes n sets of I / O line pairs I.
/ O1~ I / OnConsists of These blocks BK1
BK4 is such that adjacent blocks are separated by a boundary area.
Can be Bit line pair BL of each block1~ BL
nAre the sense amplifier 40 and the block transfer gate.
I / O line pair I / O via port 1101~ I /
OnConnected to each other. On the other hand, the SRAM memory cell array 12
It is divided into four ways. Each way has n columns of S
RAM memory cell 120, ie, n bit line pairs
SBL1~ SBLnConsists of In each way, the way transfer
The port section 42 includes n bit line pairs SBL1~ SBLnTo
Correspondingly each of the n way transfer gates 42
Consists of zero. N sets of bit line pairs SBL in each way
1~ SBLnMeans Way Transfer Gate 4
20, the corresponding I / O line pair I of the internal I / O band 41
/ O 1~ I / OnConnected to each other. The cache I / O switch unit 44
Each bit line pair SBL of the AM memory cell array 121~ S
BLnCache I / O switches 44 corresponding to
0 and 4 sets of I / O lines I / O corresponding to each wayA~
I / ODConsists of N sets of bit line pairs SBL belonging to each way
1~ SBLnIs the cache I / O switch 4
40 to the I / O line corresponding to the way.
Have been. For example, bit line pair SB belonging to way C
L1~ SBLnAre all I / O line pairs I / OCConnected to
Have been. The cache row decoding is performed for each way.
A dam portion 45 is provided. Cache row data for each way
The coder unit 45 stores n cache column data corresponding to each column.
It consists of a coder 450. Each cache column decoder 450
Is the MOS of the corresponding cache I / O switch 440
It is connected to the gate of the transistor. FIG. 3 is a simplified diagram using the DRAM device of FIG.
It is a block diagram showing the composition of an easy cash system. Referring to FIG. 3, main memory 30 has 1M
1 Mbyte by 8 DRAM elements 31 of × 1 configuration
Is configured. The memory system shown in FIG.
The difference from the stem is the output from the comparator 26.
Instead of a certain cache hit signal CH, multiple
Column address signal before being multiplexed by
A 10-bit address signal corresponding to the
Input to the DRAM element 31 as the dress signal CCA
And in response to the cache hit signal CH
Data select signal DS generated by state machine 27
Is input to the data selector 51. The data selector 51 receives the data select signal.
Signal DS from DRAM element 31 in response to signal DS.
Select RAM data DD or cache data CD
Output. The operation of the simplified cache system shown in FIG. 3 is illustrated.
This will be described with reference to the operation waveform diagram shown in FIG. In the TAG 25, the newest block
Row address corresponding to the row selected in the new cycle
The set cache address is held as a set. Here, as the way address signal WA,
Since two bits are considered, four sets of row addresses are held.
Have been. Therefore, if the number of blocks is 4, 16 sets
Is stored in the TAG 25
Become. In addition, fixed addresses frequently used are fixed.
You may make it hold in TAG25. The reason is that
This is to increase the use efficiency of the cache memory. That
Is realized in the DRAM device of FIG.
SRAM memory cell array 1 divided into blocks
Data of some blocks (for example, one block) of 2
Data may be fixed data. First, for the data required by the CPU 24,
Address generator 23 generates a corresponding address signal.
I do. The comparator 26 has a 20-bit address signal.
10-bit row address signal RA and column address
Bits corresponding to the block division of the signal CA
(2 bits in the example shown in FIG. 3), and
With the specified address set. If the two match, the cache is invalid.
The comparator 26 outputs a high level signal.
The cache hit signal CH and the hit block
A way address signal WA is generated. The address signal from the comparator 26
Assumes a cache hit prior to comparison
The DRAM device 31 has a 10-bit cache address.
Address signal CCA is input to read the SRAM memory cell.
Operation is in progress. Here, since four ways are considered, four
A bit read operation is in progress. Therefore, the cache
When a hit occurs, the way address signal WA is input.
When the data is input, the desired data is quickly stored in the cache data C
D via the cache output buffer 9b.
Data generated in response to the cache hit signal CH.
The data selector 51 according to the data select signal DS.
Thus, data of the cache memory is obtained. Conversely, the address input to the comparator 26
Address signal is not compatible with the address set held in TAG25.
If they match, a cache miss has occurred and the
The lator 26 does not generate the cache hit signal CH.
As a result, the cache output from the SRAM memory cell is
The shred data CD will be ignored. In this case, the state machine 27
Performs the / RAS and / CAS control of the output cycle and
The dress multiplexer 22 receives the row address signal RA and
Column address signal CA is supplied to DRAM element 31 in order.
(See FIG. 4). When a cache miss occurs as described above,
Low access time tRACOutput data
Therefore, the state machine 27 outputs the wait signal Wa
It generates an "it" and waits for the CPU 24. In the case of a cache miss, the
The data of the block containing the accessed memory cell is
Block decoder that is turned on by the
Via the transfer gate 110, the I / O band 41
/ O line pair I / O1~ I / OnIs forwarded to The data is a way address.
Way transfer gate 4 selected by signal WA
20 via the SRAM memory cell array 12.
A, and selected by the cache row decoder 43
The contents stored in the SRAM memory cell 120 on the written row are written.
Be replaced. Further, the corresponding block of the data block
The TAG 25 on rays is the new
Address set is retained. As described above, in the above embodiment, the key
SRAM memory cell array 12 as cache memory
0 holds data of a plurality of blocks. For this reason,
The number of data entries to the TAG 25 can be increased,
As a result, the probability of hits can be improved,
First, when the access time of the cache memory becomes faster
This has the effect. [0150] According to the first aspect of the present invention, the main
Memory and cache memory in the same row
Divided from the main memory.
Information read in cache units is one of the cache memories
Is transferred and stored in arbitrary blocks in arbitrary blocks
It was to so. Therefore, the block size is unnecessarily large.
Efficiently increase the number of data entries
Can be As a result, the cache hit rate is
Access time
Can be Therefore, the semiconductor memory device of the present invention
If used, the cache hit rate is high and high-speed simple
Configuring an associative cash system
Can be. According to the second aspect of the present invention, the cache
Multiple storage elements of flash memory are arranged in multiple rows
Therefore, in the cache memory,
Information read in lock units is blocked on multiple lines.
Can be stored in memory units. According to the third aspect of the present invention, a cache is provided.
Each memory element of the flash memory is a static memory
Higher cache hit rate for cells
Can further speed up access time
be able to. According to the present invention as set forth in claim 4, furthermore,
The information read from the cache memory in block units
Report to any block in main memory
Can be sent. According to the fifth aspect of the present invention, the main
Block information read from memory is cached
When transferred to memory, the information is stored in the main memory block.
From the row corresponding to the
Corresponding transfer via the corresponding transfer gate in the
Can be transferred to transmission line. And the transfer line
Correspond to the block of the cache memory at the destination of information.
The pair of transfer gates on the cache memory side
Transferring information via the corresponding transfer gate
Can be. [0157] According to the sixth aspect of the present invention, the main
A memory cell of a memory is selected by a row selecting means and a first column selecting means
Can be selected depending on the stage,
Storage elements can be selected by the second column selection means.
You. According to the present invention described in claim 7, furthermore,
Then, the memory cells of the main memory are stored in the first row selecting means and
And the second column selecting means.
A second row selection means and a second row selection means.
Can be selected by the column selecting means. [0160] [0161] According to the eighth aspect of the present invention, the main
Multiple blocks of memory, each on a semiconductor substrate
Are formed physically, and the boundary between adjacent blocks is
Claims 1 to 7 in a configuration separated by regions
The same effect as the effect of the invention described in (1) can be obtained.

【図面の簡単な説明】 【図1】 この発明の一実施例による半導体記憶装置の
構成を示すブロック図である。 【図2】 図1の半導体記憶装置の一部分の構成を詳細
に示すブロック図である。 【図3】 図1の半導体記憶装置を利用した簡易セット
アソシアティブキャッシュシステムの構成を示すブロッ
ク図である。 【図4】 図3の簡易キャッシュシステムの動作波形図
である。 【図5】 従来のDRAM素子の構成を示すブロック図
である。 【図6】 従来のDRAM素子における通常の読出サイ
クル、ページモードサイクルおよびスタティックコラム
モードサイクルのそれぞれの動作波形図である。 【図7】 図5のDRAM素子を利用した簡易キャッシ
ュシステムの構成を示すブロック図である。 【図8】 図7の簡易キャッシュシステムの動作波形図
である。 【図9】 キャッシュメモリ内蔵DRAM素子の構成を
示すブロック図である。 【図10】 図9のDRAM素子の一部分の構成を詳細
に示すブロック図である。 【図11】 図9のDRAM素子を利用した簡易キャッ
シュシステムの構成を示すブロック図である。 【図12】 図11の簡易キャッシュシステムの動作波
形図である。 【符号の説明】 1 DRAMメモリセルアレイ、2 ワードドライバ、
3 行デコーダ部、4センスアンプ部、5 I/Oスイ
ッチ部、6 列デコーダ部、11 ブロックトランスフ
ァゲート部、12 SRAMメモリセルアレイ、13
ブロックデコーダ、14 ウエイデコーダ、15 ウエ
イアドレスバッファ、41 内部I/O帯、42 ウエ
イトランスファゲート部、43 キャッシュ行デコー
ダ、44キャッシュI/Oスイッチ部、45 キャッシ
ュ列デコーダ部、48 ウエイセレクタ。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a configuration of a semiconductor memory device according to one embodiment of the present invention. FIG. 2 is a block diagram showing in detail a configuration of a part of the semiconductor memory device of FIG. 1; FIG. 3 is a block diagram illustrating a configuration of a simple set associative cache system using the semiconductor memory device of FIG. 1; FIG. 4 is an operation waveform diagram of the simple cache system of FIG. 3; FIG. 5 is a block diagram showing a configuration of a conventional DRAM device. FIG. 6 is an operation waveform diagram of each of a normal read cycle, a page mode cycle, and a static column mode cycle in a conventional DRAM device. FIG. 7 is a block diagram showing a configuration of a simple cache system using the DRAM device of FIG. 5; FIG. 8 is an operation waveform diagram of the simplified cache system of FIG. 7; FIG. 9 is a block diagram showing a configuration of a DRAM device with a built-in cache memory. FIG. 10 is a block diagram showing in detail a configuration of a part of the DRAM device of FIG. 9; FIG. 11 is a block diagram showing a configuration of a simple cache system using the DRAM device of FIG. 9; FIG. 12 is an operation waveform diagram of the simplified cache system of FIG. 11; [Description of Signs] 1 DRAM memory cell array, 2 word driver,
3 row decoder section, 4 sense amplifier section, 5 I / O switch section, 6 column decoder section, 11 block transfer gate section, 12 SRAM memory cell array, 13
Block decoder, 14 way decoder, 15 way address buffer, 41 internal I / O band, 42 way transfer gate section, 43 cache row decoder, 44 cache I / O switch section, 45 cache column decoder section, 48 way selector.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭56−61082(JP,A) 特開 昭56−77968(JP,A) 特開 昭62−164296(JP,A) 特開 昭64−39691(JP,A) 特開 昭64−84495(JP,A) 特開 昭64−84492(JP,A)   ────────────────────────────────────────────────── ─── Continuation of front page    (56) References JP-A-56-61082 (JP, A)                 JP-A-56-77968 (JP, A)                 JP-A-62-164296 (JP, A)                 JP-A-64-39691 (JP, A)                 JP-A-64-84495 (JP, A)                 JP-A-64-84492 (JP, A)

Claims (1)

(57)【特許請求の範囲】 1.複数行および複数列に配列され、各々が情報を記憶
する複数のメモリセルを有し、複数列単位の複数のブロ
ックに分割されたメインメモリと、 複数列に配列され、各々が情報を記憶する複数の記憶素
子を有し、前記メインメモリの各ブロックにおける複数
列と同数の複数列単位の複数のブロックに分割され、前
記メインメモリからブロック単位で読出された情報をブ
ロック単位で記憶するキャッシュメモリと、 前記メインメモリと前記キャッシュメモリとの間に接続
され、前記メインメモリからブロック単位で読出された
情報をブロック単位で前記キャッシュメモリに転送する
ための転送手段と、 前記転送手段が前記メインメモリからブロック単位で読
出された情報を、キャッシュメモリの複数のブロックの
いずれかのブロックに選択的に転送するように前記転送
手段を制御するための転送制御手段とを備え、 前記転送手段は、 前記メインメモリと前記キャッシュメモリとの間に挿入
された内部I/O帯と、 前記メインメモリと前記内部I/O帯との間に設けら
れ、前記メインメモリから前記ブロック単位で読出され
た情報を前記内部I/O帯に転送するための第1のトラ
ンスファゲート手段と、 前記内部I/O帯と前記キャッシュメモリとの間に設け
られ、前記内部I/O帯に転送された前記ブロック単位
の情報を前記キャッシュメモリにブロック単位で転送す
るための第2のトランスファゲート手段とを含み、 前記転送制御手段は、ブロック選択アドレスに応じて前
記メインメモリの複数のブロックのいずれかを選択する
ためのブロックデコーダの出力を前記第1のトランスフ
ァゲート手段に与えて選択駆動し、かつウェイ選択アド
レスに応じて前記キャッシュメモリの複数のブロックの
いずれかを選択するためのウェイデコーダの出力を前記
第2のトランスファゲート手段に与えて選択駆動する、
半導体記憶装置。 2.前記キャッシュメモリの複数の記憶素子は複数行に
配列されている、請求項1記載の半導体記憶装置。 3.前記キャッシュメモリの各記憶素子はスタティック
形メモリセルである、請求項1または請求項2記載の半
導体記憶装置。 4.前記転送手段は、前記キャッシュメモリに記憶さ
れ、ブロック単位で読出された情報をブロック単位で前
記メインメモリに転送し、前記転送制御手段は、前記転
送手段が前記キャッシュメモリからブロック単位で読出
された情報を、メインメモリの複数のブロックのいずれ
かのブロックに選択的に転送するように前記転送手段を
制御する、請求項1ないし請求項3のいずれかに記載の
半導体記憶装置。 5.前記内部I/O帯は、前記メインメモリの各ブロッ
クにおける複数列と同数の転送線を含み、 前記第1のトランスファゲート手段は、前記メインメモ
リのそれぞれのブロックに対応して設けられ、各々が前
記メインメモリの対応したブロックの対応した列と前記
複数の転送線の対応した転送線との間に接続されたトラ
ンスファゲートを複数有する、複数のメインメモリ側ト
ランスファゲート部を含み、 前記第2のトランスファゲート手段は、前記キャッシュ
メモリのそれぞれのブロックに対応して設けられ、各々
が前記キャッシュメモリの対応したブロックの対応した
列と前記複数の転送線の対応した転送線との間に接続さ
れたトランスファゲートを複数有する、複数のキャッシ
ュメモリ側トランスファゲート部を含む、請求項1ない
し請求項3のいずれかに記載の半導体記憶装置。 6.前記メインメモリは、 前記複数のメモリセルのうちの所定の行に配列された複
数のメモリセルを選択するための行選択手段と、 前記複数のメモリセルのうちの所定の列に配列された複
数のメモリセルを選択するための第1の列選択手段とを
含み、 前記キャッシュメモリは、 前記複数の記憶手段のうちの所定の列に配列された記憶
素子を選択するための第2の列選択手段を含む、請求項
1ないし請求項5のいずれかに記載の半導体記憶装置。 7.前記メインメモリは、 前記複数のメモリセルのうちの所定の行に配列された複
数のメモリセルを選択するための第1の行選択手段と、 前記複数のメモリセルのうちの所定の列に配列された複
数のメモリセルを選択するための第1の列選択手段とを
含み、 前記キャッシュメモリは、 前記複数の記憶素子のうちの所定の行に配列された複数
の記憶素子を選択するための第2の行選択手段と、 前記複数の記憶素子のうちの所定の列に配列された記憶
素子を選択するための第2の列選択手段とを含む、請求
項1ないし請求項5のいずれかに記載の半導体記憶装
置。 8.前記メインメモリの複数のブロックのそれぞれは、
半導体基板上に物理的に固まって形成されるとともに、
前記半導体基板上における隣接するブロック間に境界領
域が設けられる、請求項1ないし請求項7のいずれかに
記載の半導体記憶装置。
(57) [Claims] A main memory arranged in a plurality of rows and a plurality of columns, each having a plurality of memory cells for storing information, and a main memory divided into a plurality of blocks in units of a plurality of columns; and arranged in a plurality of columns, each storing information. A cache memory having a plurality of storage elements, divided into a plurality of blocks of a plurality of columns in the same number as a plurality of columns in each block of the main memory, and storing information read in blocks from the main memory in blocks. A transfer unit connected between the main memory and the cache memory for transferring information read from the main memory in block units to the cache memory in block units; Information read in blocks from the cache memory is selectively stored in one of a plurality of blocks of the cache memory. Transfer control means for controlling the transfer means to transmit the data, the transfer means comprising: an internal I / O band inserted between the main memory and the cache memory; First transfer gate means provided between the internal I / O band and transferring information read from the main memory in block units to the internal I / O band; And a second transfer gate means provided between the cache memory and the cache memory for transferring the information in block units transferred to the internal I / O band to the cache memory in block units. The control means outputs the output of the block decoder for selecting one of the plurality of blocks of the main memory according to the block selection address to the first transformer. To the second transfer gate means for selective drive by giving the output to a transfer gate means for selecting one of a plurality of blocks of the cache memory according to a way select address.
Semiconductor storage device. 2. 2. The semiconductor memory device according to claim 1, wherein a plurality of storage elements of said cache memory are arranged in a plurality of rows. 3. 3. The semiconductor memory device according to claim 1, wherein each storage element of said cache memory is a static memory cell. 4. The transfer unit transfers the information stored in the cache memory and read in block units to the main memory in block units, and the transfer control unit reads the transfer unit in block units from the cache memory. 4. The semiconductor memory device according to claim 1, wherein said transfer means is controlled to selectively transfer information to any one of a plurality of blocks of a main memory. 5. The internal I / O band includes the same number of transfer lines as a plurality of columns in each block of the main memory, and the first transfer gate means is provided corresponding to each block of the main memory. A plurality of main memory-side transfer gate units each having a plurality of transfer gates connected between a corresponding column of a corresponding block of the main memory and a corresponding transfer line of the plurality of transfer lines, The transfer gate means is provided corresponding to each block of the cache memory, and each is connected between a corresponding column of the corresponding block of the cache memory and a corresponding transfer line of the plurality of transfer lines. 2. A method according to claim 1, further comprising a plurality of transfer gate units on a cache memory side having a plurality of transfer gates. The semiconductor memory device according to any one of claim 3. 6. The main memory includes: a row selection unit configured to select a plurality of memory cells arranged in a predetermined row of the plurality of memory cells; and a plurality of memory cells arranged in a predetermined column of the plurality of memory cells. A first column selecting means for selecting a memory cell of the plurality of memory cells, wherein the cache memory comprises: a second column selecting means for selecting a storage element arranged in a predetermined column among the plurality of storage means. 6. The semiconductor memory device according to claim 1, comprising means. 7. A first row selection unit for selecting a plurality of memory cells arranged in a predetermined row of the plurality of memory cells; and an array arranged in a predetermined column of the plurality of memory cells. First column selecting means for selecting a plurality of memory cells selected, wherein the cache memory is for selecting a plurality of storage elements arranged in a predetermined row among the plurality of storage elements. 6. The semiconductor device according to claim 1, further comprising: a second row selection unit; and a second column selection unit for selecting a storage element arranged in a predetermined column among the plurality of storage elements. 3. The semiconductor memory device according to claim 1. 8. Each of the plurality of blocks of the main memory includes:
While being physically solidified on a semiconductor substrate,
8. The semiconductor memory device according to claim 1, wherein a boundary region is provided between adjacent blocks on said semiconductor substrate.
JP21918394A 1994-09-13 1994-09-13 Semiconductor storage device Expired - Fee Related JP2660488B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21918394A JP2660488B2 (en) 1994-09-13 1994-09-13 Semiconductor storage device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21918394A JP2660488B2 (en) 1994-09-13 1994-09-13 Semiconductor storage device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP28161987A Division JP2593322B2 (en) 1987-11-06 1987-11-06 Semiconductor storage device

Publications (2)

Publication Number Publication Date
JPH07153261A JPH07153261A (en) 1995-06-16
JP2660488B2 true JP2660488B2 (en) 1997-10-08

Family

ID=16731505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21918394A Expired - Fee Related JP2660488B2 (en) 1994-09-13 1994-09-13 Semiconductor storage device

Country Status (1)

Country Link
JP (1) JP2660488B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100367690B1 (en) * 2000-12-04 2003-01-14 (주)실리콘세븐 Asynchronous SRAM using DRAM cell and Operating Method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5661082A (en) * 1979-10-22 1981-05-26 Seiko Epson Corp Two level memory integrated circuit
JPS6238590A (en) * 1985-08-13 1987-02-19 Fujitsu Ltd Semiconductor memory device
JP2593322B2 (en) * 1987-11-06 1997-03-26 三菱電機株式会社 Semiconductor storage device

Also Published As

Publication number Publication date
JPH07153261A (en) 1995-06-16

Similar Documents

Publication Publication Date Title
US5588130A (en) Semiconductor memory device for simple cache system
JP2714944B2 (en) Semiconductor storage device
US5226009A (en) Semiconductor memory device supporting cache and method of driving the same
JP3065736B2 (en) Semiconductor storage device
JP2777247B2 (en) Semiconductor storage device and cache system
US5111386A (en) Cache contained type semiconductor memory device and operating method therefor
US6075728A (en) Semiconductor memory device accessible at high speed
US7082491B2 (en) Memory device having different burst order addressing for read and write operations
US5329489A (en) DRAM having exclusively enabled column buffer blocks
JP2895488B2 (en) Semiconductor storage device and semiconductor storage system
JP3577119B2 (en) Semiconductor storage device
JP2705590B2 (en) Semiconductor storage device
JP2004288225A (en) Dram (dynamic random access memory) and access method
JP2593322B2 (en) Semiconductor storage device
JP2660488B2 (en) Semiconductor storage device
US7363460B2 (en) Semiconductor memory device having tag block for reducing initialization time
JP2660489B2 (en) Semiconductor storage device
JP2700886B2 (en) Semiconductor integrated circuit device
JP3966506B2 (en) Semiconductor memory device
JP2859966B2 (en) Semiconductor storage device
JP2704607B2 (en) Semiconductor storage device
JP2708378B2 (en) Semiconductor storage device
JPH0430119B2 (en)
JPH087716B2 (en) Semiconductor memory device
JPH07153265A (en) Semiconductor storage

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19970506

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees