JP2700886B2 - Semiconductor integrated circuit device - Google Patents

Semiconductor integrated circuit device

Info

Publication number
JP2700886B2
JP2700886B2 JP27991387A JP27991387A JP2700886B2 JP 2700886 B2 JP2700886 B2 JP 2700886B2 JP 27991387 A JP27991387 A JP 27991387A JP 27991387 A JP27991387 A JP 27991387A JP 2700886 B2 JP2700886 B2 JP 2700886B2
Authority
JP
Japan
Prior art keywords
memory
main memory
information
integrated circuit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27991387A
Other languages
Japanese (ja)
Other versions
JPH01122094A (en
Inventor
吉雄 松田
一康 藤島
幹雄 朝倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP27991387A priority Critical patent/JP2700886B2/en
Publication of JPH01122094A publication Critical patent/JPH01122094A/en
Application granted granted Critical
Publication of JP2700886B2 publication Critical patent/JP2700886B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] この発明はラッチ手段を含む半導体集積回路装置に関
するものである。 [従来の技術] 従来よりラッチ回路を含む半導体集積回路装置には種
々のものがある。ここでは、一例として、既に提案され
ているキャッシュメモリ内蔵DRAM(ダイナミック・ラン
ダム・アクセス・メモリ)について説明する。このDRAM
を用いると、コストパーフォーマンスの高い簡易キャッ
シュシステムを構成することができる。このキャッシュ
メモリ内蔵DRAMの説明をする前に、従来のキャッシュメ
モリシステムについて説明する。 従来より、コンピュータシステムのコストパーフォー
マンスを向上させるために、低速で大容量したがって低
コストのDRAMで構成したメインメモリと中央演算処理装
置(CPU)との間に、高速のバッファとして小容量の高
速メモリを設けることがよく行なわれている。この高速
のバッファはキャッシュメモリと呼ばれ、CPUが必要と
する可能性の高いデータのブロックが、メインメモリか
らコピーされて記憶されている。CPUがアクセスしよう
としたDRAMのアドレスに記憶されているデータがキャッ
シュメモリに存在するときにはヒットと呼ばれ、CPUは
高速のキャッシュメモリに対してアクセスする。一方、
CPUがアクセスしようとしたアドレスに記憶されている
データがキャッシュメモリに存在しないときにはミスヒ
ットと呼ばれ、CPUは低速のメインメモリにアクセスす
ると同時に、そのデータの属するブロックをキャッシュ
メモリに転送する。 しかしながら、このようなキャッシュメモリシステム
は、高価な高速メモリを必要ととするので、コストを重
視する小形のシステムでは使用することができなかっ
た。そこで従来は、汎用のDRAMが有しているページモー
ドまたはスタティックコラムモードを利用して簡易キャ
ッシュシステムを構成していた。 第6図はページモードまたはスタティックコラムモー
ドが可能な従来のDRAM素子の基本構成を示すブロック図
である。 図において、メモリセルアレイ1には、複数のワード
線および複数のビット線対が互いに交差するように配置
されており、それらの各交点にメモリセルが設けられて
いる。メモリセルアレイ1のワード線はワードドライバ
2を介して行デコーダ部3に接続されている。またメモ
リセルアレイ1のビット線対はセンスアップ部4および
I/Oスイッチ部5を介して列デコーダ部6に接続されて
いる。行デコーダ部3には行アドレスバッファ7が接続
され、列デコーダ部6には列アドレスバッファ8が接続
されている。これらの行アドレスバッファ7および列ア
ドレスバッファ8には、行アドレス信号RAおよび列アド
レス信号CAをマルチプレクスしたマルチプレクスアドレ
ス信号MPXAが与えられる。さらにI/Oスイッチ部5には
出力バッファ9および入力バッファ10が接続されてい
る。 第7A図、第7B図および第7C図にそれぞれDRAMの通常の
読出サイクル、ページモードサイクルおよびスタティッ
クコラムモードサイクルの動作波形図を示す。 第7A図に示す通常の読出サイクルにおいては、まず、
行アドレスバッファ7が、ロウアドレスストローブ信号
▲▼の降下エッジでマルチプレクスアドレス信号
MPXAを取込んで行アドレス信号RAとして行デコーダ部3
に与える。行デコーダ部3はその行アドレス信号RAに応
じて、複数のワード線のうち1本を選択する。これによ
り、この選択されたワード線に接続された複数のメモリ
セル内の情報が各ビット線に読出され、その情報がセン
スアンプ部4により検知、増幅される。この時点で、1
行分のメモリセルの情報がセンスアンプ部4にラッチさ
れている。次に、列アドレスバッファ8が、コラムアド
レスストローブ信号▲▼の降下エッジでマルチプ
レクスアドレス信号MPXAを取込んで列アドレス信号CAと
して列デコーダ部6に与える。列デコーダ部6は、その
列アドレス信号CAに応じて、センスアンプ部4にラッチ
されている1行分の情報のうち1つを選択する。この選
択された情報はI/Oスイッチ部5および出力バッファ9
を介して出力データDOUTとして外部に取出される。この
場合のアクセスタイム(▲▼アクセスタイム)t
RACは、ロウアドレスストローブ信号▲▼の降下
エッジから出力データDOUTが有効となるまでの時間であ
る。また、この場合のサイクルタイムtCは、素子がアク
ティブ状態となっている時間と▲▼プリチャージ
時間 との和となり、標準的な値としては、tRAC=100nsの場
合でtC=200ns程度となっている。 第7B図および第7C図に示すページモードおよびスタテ
ィックコラムモードは、同一行上のメモリセルを列アド
レス信号CAを変化させてアクセスするものである。ペー
ジモードにおいては、コラムアドレスストローブ信号▲
▼の降下エッジで列アドレス信号CAをラッチし、
スタティックコラムモードにおいては、スタティックRA
M(SRAM)のように列アドレス信号CAの変化のみでアク
セスする。ページモードおよびスタティックコラムモー
ドの▲▼アクセスタイムtCACおよびアドレスアク
セスタイムtAAは▲▼アクセスタイムtRACのほぼ1
/2の値となり、tRAC=100nsに対して50ns程度となる。
この場合、サイクルタイムも高速になり、ページモード
の場合は▲▼プリチャージ時間 の値によるが、スタティックコラムモードと同様の50ns
程度の値が得られている。 第8図は、第6図のDRAM素子のページモードあるいは
スタティックコラムモードを利用した簡易キャッシュシ
ステムの構成を示すブロック図である。また第9図は第
8図の簡易キャッシュシステムの動作波形図である。 第8図において、メインメモリ20は1M×1構成の8個
のDRAM素子21により1Mバイトに構成されている。この場
合、行アドレス信号RAと列アドレス信号CAとは合計20ビ
ット(220=1048576=1M)必要とする。アドレスマルチ
プレクサ22は、10ビットの行アドレス信号RAと1ビット
の列アドレス信号CAとを2回に分けてメインメモリ20に
与えるものであり、20ビットのアドレス信号を受ける20
本のアドレス線A0〜A19とアルチプレクスされた10ビッ
トのアドレス信号(マルチプレクスアドレス信号MPXA)
をDRAM素子21に与える10本のアドレス線A0〜A9を有して
いる。 アドレスジェネレータ23は、CPU24が必要とするデー
タに対応するアドレス信号を発生する。ラッチ回路(TA
G)25は、前のサイクルで選択されたデータに対応する
行アドレス信号RAを保持しており、コンパレータ26は、
20ピットのアドレス信号のうち10ビットの行アドレス信
号RAと、TAG25に保持されている行アドレス信号RALとを
比較する。両者が一致すれば、前のサイクルと同じ行が
アクセスされた(ヒットした)ことになり、コンパレー
タ26は高レベルのキャッシュヒット(CacheHit)信号の
CHを発生する。ステートマシン27は、キャッシュヒット
信号CHに応答して、ロウアドレスストローブ信号▲
▼を低レベルに保ったままコラムアドレスストローブ
信号▲▼をトグルするページモード制御を行な
い、それに応答してアドレスマルチプレクサ22はDRAM素
子21に列アドレス信号CAを与える(第9図参照)。この
ようにヒットした場合には、DRAM素子21からオクセスタ
イムtCACで高速に出力データが得られることになる。 一方、アドレスジェネレータ23から発生された行アド
レス信号RAとTAG25が保持していた行アドレス信号RALと
が不一致のとき、前のサイクルと異なる行がアクセスさ
れた(ミスヒットした)ことになり、コンパレータ26は
高レベルのキャッシュヒット信号CHを発生しない。この
場合、ステートマシン27は通常の読出サイクルの▲
▼および▲▼制御を行ない、アドレスマルチプ
レクサ22は行アドレス信号RAMおよび列アドレス信号CA
を順にDRAM素子21に与える(第9図参照)。このように
ミスヒットした場合には、▲▼のプリチャージか
ら始まる通常の読出サイクルを行ない、低速のアクセス
タイムtRACで出力データが得られることになるので、ス
テートマシン27はウエイト信号WAITを発生し、CPU24に
待機をかける。ミスヒットの場合は、TAG25に新しい行
アドレス信号RAが保持される。 このように、第8図の簡易キャッシュシステムにおい
ては、DRAM素子のメモリセルアレイの1行分(1Mビット
素子の場合は1024ビット)のデータが1ブロックとなる
ので、ブロックサイズが不必要に大きく、TAG25に保持
されるブロック数(エントリ数)が不足する(第8図の
システムでは1エントリ)ことになり、キャッシュのヒ
ット率が低いという問題点があった。 そこで提案されたのが第10図に示すキャッシュメモリ
内蔵DRAM素子である。 このDRAM素子が第6図のDRAM素子と異なるのは以下の
点にある。すなわち、メモリセルアレイ1は、複数列の
メモリセルからなる複数のブロックに分割されている。
第10図においては4つのブロックB1〜B4に分割されてい
る。そして、センスアンプ部4とI/Oスイッチ部5との
間にトランスファゲート部11およびデータレジスタ部12
が設けられ、さらにブロックデコーダ13が設けられてい
る。ブロックデコーダ13には、ブロック数に応じて列ア
ドレスバッファ8から列アドレス信号CAの一部が供給さ
れるが、その活性化はキャッシュヒート信号CHにより制
御される。 第11図は第10図のDRAM素子の一部分の構成を詳細に示
した図である。 第11図において、センスアンプ部4、トランスファゲ
ート部11、データレジスタ部12、I/Oスイッチ部5およ
び列デコーダ部6は、メモリセルアレイ1の複数のビッ
ト線対BL,▲▼に対応して、それぞれ複数のセンス
アンプ40、トランスファゲード110、データレジスタ12
0、I/Oスイッチ50および列デコーダ60からなる。また、
メモリセルアレイ1の各ブロックに対応してブロックデ
コーダ13が配置されている。各センスアンプ40は各ビッ
ト線対BL,▲▼間に接続されている。そして各ビッ
ト線対BL,▲▼はNチャネルMOSFETQ1,Q2からなるト
ランスファゲート110を介してデータレジスタ120のデー
タ線対D,に接続されている。データレジスタ120のデ
ータ線対D,はNチャネルMOSFETQ3,Q4を介してそれぞ
れI/OバスI/O,▲▼に接続されている。トランス
ファゲート110のMOSFETQ1,Q2のゲートには、ブロックデ
コーダ13により各ブロックごとに共通の転送信号が与え
られる。また、各I/Oスイッチ50のMOSFETQ3,Q4のゲート
には、対応する列デコーダ60によりコラム選択信号が与
えられる。 このDRAM素子においては、ブロックデコーダ13が各ブ
ロックに対応するトランスファゲート110に転送信号を
与えることにより、メモリセルアレイ1からブロック単
位で同一行上のデータがデータレジスタ120に転送され
る。データレジスタ120に保持されたデータは、列デコ
ーダ60からI/Oスイッチ50にコラム選択信号が与えられ
ることによって、I/OバスI/O,▲▼に読出され
る。 このDRAM素子によると、複数列の1行のデータを1つ
のデータブロックとして、異なる行上の複数のデータブ
ロックが複数のデータレジスタ120に保持される。した
がって、ブロックサイズが適当な大きさとなってエント
リ(ブロック)数を増加することが可能となるので、キ
ャッシュメモリへのヒット率が向上されたシステムのパ
ーフォーマンスの高い簡易キャッシュシステムを構成す
ることができる。 第12図は第10図のDRAM素子を利用した簡易キャッシュ
システムの構成を示すブロック図である。 第12図において、メインメモリ30は1M×1構成の8個
のDRAM素子31により1Mバイトに構成されている。第12図
のメモリシステムが第8図のメモリシステムと相違する
のは、DRAM素子31のブロック分けの数に対応してTAG25
およびコンパレータ26の数が増加している点およびコン
パレータ26からの出力であるキャッシュヒット信号CHが
DRAM素子31にも入力されている点である。 第12図の簡易キャッシュシステムの動作を従来の簡易
キャッシュシステムの説明で用いた第9図を参照しなが
ら説明する。 TAG25には、各ブロック別に前のサイクルで選択され
た行に対応する行アドレスまたはよく使用されるアドレ
ス(システムの作り方による)などがキャッシュ用アド
レスセットとして保持されている。この例では、TAG25
には4組のアドレスセットが保持されている。 まず、CPU24が必要とするデータに対応するアドレス
信号をアドレスジェネレータ23が発生する。コンパレー
タ26は、20ビットのアドレス信号のうち10ビットの行ア
ドレス信号RAおよび列アドレス信号CAのうちブロック分
けに相当する複数ビット(第10図に示す例では2ビッ
ト)と、TAG25に保持されたアドレスセットとを比較す
る。そして両者が一致すればキャッシュにヒットしたこ
とになり、コンパレータ26は高レベルのキャッシュヒッ
ト信号CHを発生する。ステートマシン27は、このキャッ
シュヒット信号CHに応答して、ロウアドレスストローブ
信号▲▼を低レベルに保ったままコラムアドレス
ストローブ信号▲▼をトグルし、これに応答して
アドレスマルチプレクサ22はDRAM素子31に10ビットの列
アドレス信号CAを与える(第9図参照)。このとき、DR
AM素子31においては、第10図に示したようにキャッシュ
ヒット信号CHによる制御により、列アドレス信号CAはブ
ロックデコーダ13には供給されない。したがって、メモ
リセルアレイ1とデータレジスタ部12とは分離された状
態を保つ。そして列アドレス信号CAに応じたデータレジ
スタ120内のデータがI/Oスイッチ50、I/OバスI/O,▲
▼および出力バッファ9を介して出力される。この
ようにヒットした場合には、DRAM素子31のデータレジス
タ120からページモードのようにアクセスタイムtCAC
高速に出力データが得られることになる。 一方、アドレスジェネレータ23から発生されたアドレ
ス信号とTAG25に保持されたキャッシュ用アドレスセッ
トとが不一致のときは、ミスヒットしたことになり、コ
ンパレータ26は高レベルのキャッシュ信号CHを発生しな
い。この場合、ステートマシン27は通常の読出サイクル
の▲▼および▲▼制御を行ない、アドレス
マルチプレクサ22は行アドレス信号RAおよび列アドレス
信号CAを順にDRAM素子31に供給する(第9図参照)。こ
のようにミスヒットした場合には、低速のアクセスタイ
ムtRACで出力データが得られることになるので、ステー
トマシン27はウエイト信号WAITを発生し、CPU24に待機
をかける。ミスヒットの場合は、そのときにアクセスさ
れたメモリセルを含むブロックのデータが、ブロックデ
コーダ13により導通状態とされるトランスファゲート11
0を介してビット線BL,▲▼からデータレジスタ120
に一括転送される。このとき、TAG25には新しいアドレ
スセットが保持される。 このように、第10図のDRAM素子を用いた簡易キャッシ
ュシステムにおいては、TAGに保持するキャッシュエン
トリの数を増加することが可能となり、キャッシュのヒ
ット率が高くなる。 [発明が解決しようとする問題点] 上記の従来のDRAM素子においては、その動作におい
て、データレジスタ120からメモリセルアレイ1へある
いはメモリセルアレイ1からデータレジスタ120へのデ
ータの転送を伴なう場合がある。たとえば、ミスヒット
で読出動作の場合には、メモリセルアレイ1がアクセス
されると同時に、データがメモリセルアレイ1からデー
タレジスタ120に転送される。一方、ヒットで書込みの
場合には、1度データレジスタ120にデータが書込ま
れ、同時にあるいは後に、データがメモリセルアレイ1
の対応するブロックに書込まれる。すなわち、データレ
ジスタ120からメモリセルアレイ1へのデータ転送が行
なわれる(第11図参照)。 メモリセルアレイ1からデータレジスタ120への転送
では、まずメモリセルアレイ1のワード線の電位を立ち
上げ、センスアンプ40を活性化した後、トランスファゲ
ート110を開き、データレジスタ120のデータ線対D,に
ビット線対BL,▲▼を接続して、ビット線対BL,▲
▼の電位を伝えることによりデータの転送が行なわれ
る。この場合、データレジスタ120には、前のデータが
ラッチされており、転送されようとしているデータが前
のデータの反転データである場合には、センスアンプ40
によりデータレジスタ120の保持データを反転しなけれ
ばならない。したがって、センスアンプ40のデータ保持
能力は少なくともデータレジスタ120のデータ保持能力
を上回っていなければメモリセルアレイ1からデータレ
ジスタ120へのデータ転送ができない。しかし、センス
アンプ40のデータ保持能力をデータレジスタ120のデー
タ保持能力よりも大きくすると、今度は、データレジス
タ120によりセンスアンプ40の保持データを反転するこ
とができなくなり、データレジスタ120からメモリセル
アレイ1へのデータ転送が不可能となる。 このように、第10図および第11図に示されたDRAM素子
においては、データレジスタ120とセンスアンプ40との
間で双方向のデータ転送ができないという問題点があっ
た。 このような問題点は、上記のDRAM素子に限らず、ラッ
チ回路により構成されるレジスタ間のデータ転送におい
ても起こり得る。 そこで従来は、レジスタにデータを転送する場合には
次のようにしていた。すなわち、第13図に示すように、
レジスタRのデータ線対D,間にトランジスタQを接続
しておき、レジスタRにデータを転送するときには前も
ってトランジスタQをオンさせてデータ線Dおよびを
短絡し、データ線Dおよびの電位を中間電位にする。
その後、トランジスタQをオフ状態としてデータ線Dお
よびをフローティング状態にすることによってレジス
タRのデータ保持能力を殺してからデータを転送する。 しかし、この場合、インバータは中間電位を保持して
いるので、貫通電流が流れる。特に上記のDRAMのように
1度に転送されるデータが多い場合には非常に多くの貫
通電流が流れるという問題点があった。 この発明は上記のような問題点が解消するためになさ
れたもので、消費電流を増加させることなくデータ転送
が可能な半導体集積回路装置を得ることを目的としてい
る。 [問題点を解決するための手段] この発明に係る半導体集積回路装置は、メインメモ
リ、キャッシュメモリおよび情報の伝達駆動能力を高め
る手段を備える。 メインメモリは、複数のメモリセル、複数のワード
線、複数のビット線対および複数のセンスアンプを有す
る。複数のメモリセルは、複数行および複数列に配列さ
れ、各々が1つのトランジスタ素子と1つのキャパシタ
素子とによって構成され、情報を記憶する。複数のワー
ド線は、複数行に配置され、それぞれが対応した行に配
置された複数のメモリセルが接続される。複数のビット
線対は、複数列に配置され、それぞれが対応した列に配
置された複数のメモリセルが接続され、並列に配置され
る。複数のセンスアンプは、複数列に配置され、対応し
た列のビット線対に接続され、対応した列のビット線対
に現われた電位差を感知・増幅する。キャッシュメモリ
は、複数の記憶素子を有し、メインメモリから読出され
た情報を記憶する。情報の伝達能力を高める手段は、メ
インメモリのメモリセルから読出され、センスアンプに
増幅された情報をキャッシュメモリの記憶素子に伝達す
る際にその情報の伝達駆動能力を高める。 また、この発明に係る半導体集積回路装置は、メイン
メモリ、キャッシュメモリおよび情報の伝達駆動能力を
高める手段を備える。メインメモリは、複数のメモリセ
ル、複数のワード線、複数のビット線対および複数のセ
ンスアンプを有する。複数のメモリセルは、複数行およ
び複数列に配列され、各々が1つのトランジスタ素子と
1つのキャパシタ素子とによって構成され、情報を記憶
する。複数のワード線は、複数行に配置され、それぞれ
が対応した行に配置された複数のメモリセルが接続され
る。複数のビット線対は、複数列に配置され、それぞれ
が対応した列に配置された複数のメモリセルが接続さ
れ、並列に配置される。複数のセンスアンプは、複数列
に配置され、対応した列のビット線対に接続され、対応
した列のビット線対に現われた電位差を感知・増幅す
る。キャッシュメモリは、複数の記憶素子を有し、メイ
ンメモリから読出された情報を記憶するとともに、メイ
ンメモリに書込むべき情報を記憶する。情報の伝達駆動
能力を高める手段は、キャッシュメモリの記憶素子から
読出された情報をメインメモリのメモリセルに伝達する
際にその情報の伝達駆動能力を高める。 [作用] この発明に係る半導体集積回路装置においては、メイ
ンメモリのメモリセルから読出され、メインメモリのセ
ンスアンプによって増幅された情報をキャッシュメモリ
の記憶素子に伝達する際に、その情報の伝達駆動能力が
高められる。したがって、メインメモリからキャッシュ
メモリへの情報の伝達駆動能力が低い場合でも、メイン
メモリからキャッシュメモリへの情報の伝達が可能にな
る。 また、この発明に係る半導体集積回路装置において
は、キャッシュメモリの記憶素子から読出された情報を
メインメモリのメモリセルに伝達する際に、その情報の
伝達駆動能力が高められる。したがって、キャッシュメ
モリからメインメモリへの情報の伝達駆動能力が低い場
合でも、キャッシュメモリからメインメモリへの情報の
伝達が可能になる。 [実施例] 以下、この発明の一実施例を図面を用いて説明する。 第1図はこの発明の一実施例によるDRAM素子の構成を
示すブロック図である。このDRAM素子が第10図に示した
DRAM素子と異なるのは、トランスファゲート部11とデー
タレジスタ部12との間にサブデータレジスタ部14が設け
られている点である。 なお、このDRAM素子においては、メモリセルアレイ1
がメインメモリを構成し、データレジスタ部12がキャッ
シュメモリを構成する。 サブデータレジスタ部14は、情報の伝達駆動能力を高
める手段であり、第2図に示すように、トランスファゲ
ート110とデータレジスタ120との間にそれぞれ設けられ
た複数のサブデータレジスタ140からなる。 なお、従来例でも説明したように、メモリセルアレイ
1は、複数列単位の複数のブロックに分解されている。
そして、データレジスタ部12もメモリセルアレイ1に対
応して複数のブロックに分割されていると言える。 第3図は、センスアンプ40、トランスファゲート11
0、サブデータレジスタ140およびデータレジスタ120の
具体的な回路構成を示す図である。 センスアンプ40は、PチャネルMOSトランジスタQ5,Q6
およびNチャネルMOSトランジスタQ7,Q8からなる。トラ
ンジスタQ5はビット線BLとノードN1との間に接続され、
そのゲートはビット線▲▼に接続されている。トラ
ンジスタQ6はビット線▲▼とノードN1との間に接続
され、そのゲートはビット線BLに接続されている。ま
た、トランジスタQ7はビット線BLとノードN2との間に接
続され、そのゲートはビット線▲▼に接続されてい
る。トランジスタQ8はビット線▲▼とノードN2との
間に接続され、そのゲートはビット線BLに接続されてい
る。ノードN1はPチャネルMOSトランジスタQ9を介して
電源電位VCCに結合されており、ノードN2はNチャネルM
OSトランジスタQ10を介して接地電位に結合されてい
る。トランジスタQ9のゲートにはセンスアンプ駆動信号
▲▼が与えられ、トランジスタQ10のゲートにはセ
ンスアンプ駆動信号φsが与えられる。 記憶素子としてのデータレジスタ120は、PチャネルM
OSトランジスタQ11,Q12およびNチャネルMOSトランジス
タQ13,Q14からなる。トランジスタQ11はデータ線Dと電
源電位VCCとの間に結合され、そのゲートはデータ線
に接続されている。トランジスタQ12はデータ線と電
源電位VCCとの間に結合され、そのゲートはデータ線D
に接続されている。また、トランジスタQ13はデータ線
Dと接地電位との間に結合され、そのゲートはデータ線
に接続されている。トランジスタQ14はデータ線と
接地電位との間に結合され、そのゲートはデータ線Dに
接続されている。 サブデータレジスタ140は、NMOS形のフリップフロッ
プ手段を構成するNチャネルMOSトランジスタQ15,Q16,Q
17からなる。トランジスタQ15はデータ線DとノードN3
との間に接続され、そのゲートはデータ線に接続され
ている。トランジスタQ16はデータ線とノードN3との
間に接続され、そのゲートはデータ線Dに接続されてい
る。トランジスタQ17はノードN3と接地電位との間に結
合され、そのゲートには制御信号φが与えられる。制御
信号φは通常は低レベルであり、データレジスタ120か
らセンスアンプ40を介してメモリセルにデータが転送さ
れるときに高レベルに立ち上がる。 データレジスタ120およびセンスアンプ40の情報の伝
達駆動能力(以下、データ保持能力と呼ぶ)は、それら
を構成するトランジスタのチャネル幅により決まる。す
なわち、トランジスタのチャネル幅が大きいほど保持し
ているデータを反転させるために大きな電流を流す必要
があり、データ保持能力が大きいことになる。 ここでは、データレジスタ120のデータ保持能力がセ
ンスアンプ40のデータ保持能力よりも小さいとする。こ
の場合は、サブデータレジスタ140のデータ保持能力と
データレジスタ120のデータ保持能力との合計がセンス
アンプ40のデータ保持能力よりも上回るようにサブデー
タレジスタ140のデータ保持能力を設定する。具体的に
は、サブデータレジスタ140を構成するトランジスタの
チャネル幅と、データレジスタ120の対応するトランジ
スタのチャネル幅とを合計したものが、センスアンプ40
の対応するトランジスタよりも大きくなるように設定す
ればよい。 メモリセルアレイ1からデータレジスタ120へデータ
を転送する場合には、制御信号φを低レベルのままにし
てサブデータレジスタ140を非活性状態にし、トランス
ファゲート110を開く。この場合、センスアンプ40のデ
ータ保持能力がデータレジスタ120のデータ保持能力よ
りも大きいため、センスアンプ40からデータレジスタ12
0へのデータ転送が行なわれる。 一方、データレジスタ120からメモリセルアレイ1へ
データを転送する場合には、制御信号φを高レベルにし
てサブデータレジスタ140を活性状態にした後、トラン
スファゲート110を開く。この場合、データレジスタ120
のデータ保持能力とサブデータレジスタ140のデータ保
持能力との合計が、センスアンプ40のデータ保持能力を
上回ることになるので、センスアンプ40に保持されてい
るデータを反転させることが可能となり、データレジス
タ120からメモリセルアレイ1へのデータ転送が行なわ
れる。 以上のように上記実施例のDRAM素子においては、デー
タレジスタ120のデータ保持能力が可変とされているの
で、データレジスタ120とセンスアンプ40との間で双方
向のデータ転送が可能となり、自由度の大きい簡易キャ
ッシュシステムが得られる。 なお、上記説明では、サブデータレジスタ140を制御
する制御信号φは、通常低レベルであってデータレジス
タ120からメモリセルアレイ1にデータが転送されると
きに高レベルに立ち上がるようにしたが、逆に通常高レ
ベルであってメモリセルアレイ1からデータレジスタ12
0へのデータ転送時に低レベルとなるようにしてもよ
い。 以上は、データレジスタ120のデータ保持能力がセン
スアンプ40のデータ保持能力よりも小さい場合の構成例
である。逆に、データレジスタ120のデータ保持能力が
センスアンプ40のデータ保持能力よりも大きい場合に
は、サブデータレジスタ140をトランスファゲート110と
メモリセルアレイ1との間に付加し、メモリセルアレイ
1からデータレジスタ120へのデータ転送時には活性状
態にし、データレジスタ120からメモリセルアレイ1へ
のデータ転送時には非活性状態となるように構成すれば
よい。この場合、サブデータレジスタ140のデータ保持
能力とセンスアンプ40のデータ保持能力との合計が、デ
ータレジスタ120のデータ保持能力よりも大きくなるよ
うに設定されなければならない。 なお、上記実施例では、サブデータレジスタ140をN
チャネルのラッチ回路により構成し、それを制御するス
イッチトランジスタQ17をトランジスタQ15およびQ16の
共通ソースと接地電位との間に設けたが、第4図に示す
ように、トランジスタQ15,Q16により構成されるラッチ
回路とデータ線Dおよびとの間にそれぞれNチャネル
MOSトランジスタQ18およびQ19を接続し、それらのトラ
ンジスタQ18およびQ19のゲートに制御信号φを与えるよ
うにしてもよい。 また、第5図に示すように、サブデータレジスタ140
を、PチャネルMOSトランジスタQ21,Q22,Q23およびNチ
ャネルMOSトランジスタQ24,Q25,Q26よりなるMOS形のフ
リップフロップ手段であるCMOS回路により構成してもよ
い。第5図のサブデータレジスタ140の構成は第3図に
示したセンスアンプ40の構成と同様である。トランジス
タQ23のゲートには制御信号が与えられ、トランジス
タQ26のゲートには制御信号φが与えられる。 要するに、適宜制御信号により制御され、データ転送
時に活性状態または非活性状態に切換えられ、データレ
ジスタ120およびセンスアンプ40のデータ保持能力を相
対的に可変するような手段を備えていることがこの発明
の主旨である。 さらにこの発明は、センスアンプ40とデータレジスタ
120との間のデータの転送に限らず、必要に応じて、ラ
ッチ回路のデータ保持能力を可変にしたい場合にも適用
することができる。 [発明の効果] 以上のようにこの発明によれば、メインメモリからキ
ャッシュメモリへの情報の伝達駆動能力が高められるの
で、メインメモリと、キャッシュメモリとの間における
情報の双方向の転送が消費電流を増加させることなく容
易に可能となる。 また、キャッシュメモリからメインメモリへの情報の
伝達駆動能力が高められるので、メインメモリとキャッ
シュメモリとの間における情報の双方向の転送が消費電
流を増加させることなく容易に可能となる。
Description: TECHNICAL FIELD The present invention relates to a semiconductor integrated circuit device including latch means.
Is what you do. [Prior Art] Conventionally, semiconductor integrated circuit devices including a latch circuit have a variety of types.
There are various things. Here, as an example,
DRAM with built-in cache memory (dynamic run
(Dumb access memory) will be described. This DRAM
Using a simple cache with high cost performance
System can be configured. This cache
Before explaining the DRAM with built-in memory,
The moly system will be described. Traditionally, the cost performance of computer systems
Low speed, large capacity and therefore low to improve performance
Main memory consisting of cost DRAM and central processing unit
A small high-speed buffer as a high-speed buffer
It is common practice to provide a speed memory. This fast
Buffers are called cache memory and require CPU
Blocks of data that are likely to
Are copied and stored. CPU tries to access
The data stored at the DRAM address
When it is in memory, it is called a hit and the CPU
Access high-speed cache memory. on the other hand,
Stored at the address the CPU tried to access
Missing data when data does not exist in the cache memory
The CPU accesses the slow main memory.
At the same time, cache the block to which the data belongs.
Transfer to memory. However, such a cache memory system
Requires costly high-speed memory,
Can not be used with small systems to see
Was. Therefore, conventionally, the page mode that general-purpose DRAM has
Or simple column mode.
A flash system. FIG. 6 shows page mode or static column mode.
Block diagram showing the basic configuration of a conventional DRAM device capable of loading
It is. In the figure, a memory cell array 1 includes a plurality of words.
Line and multiple bit line pairs cross each other
And a memory cell is provided at each of those intersections.
I have. The word line of the memory cell array 1 is a word driver
2 and is connected to the row decoder unit 3 via the line 2. Also note
The bit line pairs of the recell array 1 are connected to the sense-up unit 4 and
Connected to the column decoder unit 6 via the I / O switch unit 5
I have. A row address buffer 7 is connected to the row decoder 3
And a column address buffer 8 is connected to the column decoder 6.
Have been. These row address buffer 7 and column address
The dress buffer 8 has a row address signal RA and a column address signal.
Multiplex address that multiplexes the address signal CA
Signal MPXA. In addition, I / O switch section 5
Output buffer 9 and input buffer 10 are connected
You. FIG. 7A, FIG. 7B and FIG.
Read cycle, page mode cycle and static
FIG. 4 shows an operation waveform diagram in a column mode cycle. In the normal read cycle shown in FIG. 7A, first,
The row address buffer 7 outputs a row address strobe signal
Multiplex address signal at falling edge of ▲ ▼
MPXA is taken in and row decoder section 3 is used as row address signal RA.
Give to. The row decoder 3 responds to the row address signal RA.
Then, one of the plurality of word lines is selected. This
Memory connected to this selected word line.
The information in the cell is read out to each bit line, and the information is
The signal is detected and amplified by the amplifier 4. At this point, 1
The information of the memory cells for the row is latched in the sense amplifier unit 4.
Have been. Next, the column address buffer 8 stores the column address.
Multiplex on falling edge of rest strobe signal ▲ ▼
Captures the rex address signal MPXA and the column address signal CA
And supplies it to the column decoder unit 6. The column decoder unit 6
Latch in sense amplifier unit 4 according to column address signal CA
One of the information for one line is selected. This selection
The selected information is stored in the I / O switch unit 5 and the output buffer 9
Output data D via OUT As outside. this
Access time (▲ ▼ access time) t
RAC Is the drop of row address strobe signal ▲ ▼
Output data D from edge OUT Is the time until
You. Also, the cycle time t in this case C Is the element
Active time and ▲ ▼ precharge
time And the standard value is t RAC = 100 ns
In total C = 200 ns. The page mode and status shown in FIGS. 7B and 7C
In the dynamic column mode, memory cells on the same row are
The access is performed by changing the address signal CA. Pe
In the mode, the column address strobe signal ▲
Latch the column address signal CA at the falling edge of ▼,
In static column mode, static RA
As in the case of M (SRAM), only the change in the column address signal CA
Access. Page mode and static column mode
▲ ▼ access time t CAC And address access
Seth time t AA Is ▲ ▼ access time t RAC Almost one
/ 2 and t RAC = 50 ns for 100 ns.
In this case, the cycle time is faster and the page mode
In case of ▲ ▼ precharge time 50ns, same as static column mode, depending on the value of
The value of the degree is obtained. FIG. 8 shows the page mode or the DRAM mode of FIG.
Simple cache using static column mode
FIG. 3 is a block diagram illustrating a configuration of a stem. FIG. 9 shows
FIG. 9 is an operation waveform diagram of the simple cache system of FIG. 8. In FIG. 8, there are eight main memories 20 in a 1M × 1 configuration.
1M bytes. This place
In this case, the row address signal RA and the column address signal CA
(2 20 = 1048576 = 1M) required. Address multi
Plexer 22 is composed of 10-bit row address signal RA and 1-bit
Column address signal CA and the main memory 20
20 that receives a 20-bit address signal
Book address line A 0 ~ A 19 10 bits that were multiplexed with
Address signal (multiplex address signal MPXA)
Address lines A that apply 0 ~ A 9 Have
I have. The address generator 23 stores data required by the CPU 24.
And generates an address signal corresponding to the data. Latch circuit (TA
G) 25 corresponds to the data selected in the previous cycle
Holds the row address signal RA, and the comparator 26
10-bit row address signal out of 20 pit address signals
Signal RA and the row address signal RAL held in TAG25.
Compare. If they match, the same line as in the previous cycle
It is accessed (hit), and the comparison
26 is a high-level cache hit (CacheHit) signal.
Generate CH. State machine 27 hits cache
In response to the signal CH, the row address strobe signal ▲
Column address strobe while keeping ▼ at low level
Perform page mode control to toggle signal ▲ ▼
Address multiplexer 22 responds to the
The column address signal CA is applied to the child 21 (see FIG. 9). this
Is hit, the DRAM device 21 starts occupying
Im t CAC Thus, output data can be obtained at high speed. On the other hand, the row address generated from the address generator 23 is
Signal RA and the row address signal RAL held by TAG25.
If there is a mismatch, a different row from the previous cycle is accessed.
(Mis-hit), and the comparator 26
Does not generate high-level cache hit signal CH. this
In this case, the state machine 27
▼ and ▲ ▼
Lexer 22 has a row address signal RAM and a column address signal CA
Are sequentially applied to the DRAM element 21 (see FIG. 9). in this way
In case of a miss hit, ▲ ▼ precharge
Performs a normal read cycle starting with
Time t RAC Output data can be obtained with
Tate machine 27 generates wait signal WAIT and sends it to CPU 24.
Put a wait. In case of a miss hit, a new line at TAG25
The address signal RA is held. Thus, in the simple cash system of FIG.
For one row of a DRAM cell memory cell array (1 Mbit
(1024 bits in case of element) Data becomes one block
So the block size is unnecessarily large and kept at TAG25
The number of blocks (the number of entries) is insufficient (see FIG. 8).
1 entry in the system).
However, there was a problem that the power rate was low. Therefore, the cache memory shown in Fig. 10 was proposed.
It is a built-in DRAM element. This DRAM element is different from the DRAM element of FIG.
On the point. That is, the memory cell array 1 includes a plurality of columns.
It is divided into a plurality of blocks composed of memory cells.
In FIG. 10, the block is divided into four blocks B1 to B4.
You. The sense amplifier unit 4 and the I / O switch unit 5
Transfer gate unit 11 and data register unit 12
Is provided, and a block decoder 13 is further provided.
You. The block decoder 13 has a column address according to the number of blocks.
Part of the column address signal CA is supplied from the dress buffer 8.
Activation is controlled by the cash heat signal CH.
Is controlled. FIG. 11 shows in detail the configuration of a part of the DRAM device of FIG.
FIG. In FIG. 11, the sense amplifier unit 4
Port section 11, data register section 12, I / O switch section 5 and
And the column decoder unit 6 stores a plurality of bits of the memory cell array 1.
Multiple senses for each pair of lines BL and ▲ ▼
Amplifier 40, transfer gate 110, data register 12
0, an I / O switch 50 and a column decoder 60. Also,
Block data corresponding to each block of the memory cell array 1
A coder 13 is arranged. Each sense amplifier 40 is
It is connected between the pair of lines BL, ▲ ▼. And each bit
The line pair BL, ▲ ▼ is a line consisting of N-channel MOSFETs Q1, Q2.
The data in the data register 120 is transferred via the transfer gate 110.
Connected to the data line pair D. Data of data register 120
Data line pair D, through N-channel MOSFETs Q3 and Q4, respectively.
Connected to the I / O bus I / O, ▲ ▼. Trance
The gates of the MOSFETs Q1 and Q2
A common transfer signal is given to each block by the coder 13.
Can be Also, the gates of MOSFETs Q3 and Q4 of each I / O switch 50
Is supplied with a column selection signal by the corresponding column decoder 60.
available. In this DRAM device, the block decoder 13 controls each block.
Transfer signal to transfer gate 110 corresponding to lock
Thus, the block unit from the memory cell array 1 is
The data on the same row is transferred to the data register 120
You. The data held in the data register 120 is column-decoded.
The column selection signal is given from the
Read by the I / O bus I / O, ▲ ▼
You. According to this DRAM element, one row of data in a plurality of columns is stored in one.
Multiple data blocks on different rows
The lock is held in a plurality of data registers 120. did
As a result, the block size becomes
Key (block) can be increased.
System with improved cache memory hit rate
A simple cache system with high performance
Can be FIG. 12 is a simplified cache using the DRAM device of FIG.
FIG. 1 is a block diagram illustrating a configuration of a system. In FIG. 12, there are eight main memories 30 in a 1M × 1 configuration.
1M bytes. Fig. 12
Is different from the memory system of FIG.
TAG25 corresponds to the number of blocks divided into DRAM elements 31.
And the number of comparators 26
The cache hit signal CH output from the parator 26 is
The point is that it is also input to the DRAM element 31. The operation of the simple cache system shown in FIG.
Referring to FIG. 9 used in the description of the cache system,
Will be described. In TAG25, each block is selected in the previous cycle.
Row address or frequently used address
(Depending on how the system is created)
It is held as a less set. In this example, TAG25
Holds four address sets. First, the address corresponding to the data required by the CPU 24
The signal is generated by the address generator 23. Comparing
The data 26 is a 10-bit row signal of the 20-bit address signal.
Of the dress signal RA and column address signal CA
10 bits (two bits in the example shown in FIG. 10).
) And the address set held in TAG25
You. And if they match, you have hit the cache
And the comparator 26 outputs a high-level cache hit.
And generates a reset signal CH. The state machine 27
Row address strobe in response to shout signal CH
Column address while keeping signal ▲ ▼ low
Toggle the strobe signal ▲ ▼ and respond
The address multiplexer 22 stores a 10-bit string in the DRAM element 31.
An address signal CA is applied (see FIG. 9). At this time, DR
In the case of the AM element 31, as shown in FIG.
The column address signal CA is controlled by the hit signal CH.
It is not supplied to the lock decoder 13. Therefore, note
The recell array 1 and the data register section 12 are separated.
Keep state. The data register corresponding to the column address signal CA
Data in the I / O switch 50, I / O bus I / O, ▲
And output via the output buffer 9. this
The data register of the DRAM element 31
Access time t from page 120 as in page mode CAC so
Output data can be obtained at high speed. On the other hand, the address generated by the address generator 23 is
Address signal and the cache address set held in TAG25.
If they do not match, it means a mishit and
The comparator 26 does not generate a high-level cache signal CH.
No. In this case, the state machine 27
▲ ▼ and ▲ ▼ control of
The multiplexer 22 receives the row address signal RA and the column address.
The signal CA is sequentially supplied to the DRAM element 31 (see FIG. 9). This
If there is a miss hit like
Mu t RAC Output data will be obtained by
Machine 27 generates wait signal WAIT and waits for CPU 24
multiply. In case of a miss hit,
Data of the block containing the memory cell
Transfer gate 11 made conductive by coder 13
Data register 120 from bit line BL, ▲ ▼ through 0
Will be batch transferred. At this time, the new address is stored in TAG25.
Sset is retained. Thus, a simple cache using the DRAM device of FIG.
In the cache system, the cache
The number of birds can be increased,
Cut rate increases. [Problems to be Solved by the Invention] In the conventional DRAM device described above, the operation
From the data register 120 to the memory cell array 1
Data from the memory cell array 1 to the data register 120.
Data transfer. For example, a mishit
In the read operation, the memory cell array 1
At the same time, data is read from the memory cell array 1.
Is transferred to the data register 120. On the other hand, hit
In such a case, data is written into the data register 120 once.
At the same time or later, the data is stored in the memory cell array 1
Is written to the corresponding block of. That is, data
Data transfer from the register 120 to the memory cell array 1 is performed.
(See Figure 11). Transfer from memory cell array 1 to data register 120
First, the potential of the word line of the memory cell array 1 is raised.
After activating the sense amplifier 40,
Open the port 110 and connect to the data line pair D, of the data register 120.
Connect the bit line pair BL, ▲ ▼ to connect the bit line pair BL, ▲
Data transfer is performed by transmitting the potential of ▼.
You. In this case, the previous data is stored in the data register 120.
The data that has been latched and is about to be
If the data is inverted data of
Must invert the data held in data register 120
Must. Therefore, the data retention of the sense amplifier 40
Capability is at least the data holding capacity of data register 120
If it does not exceed the value, the data
Data cannot be transferred to the register 120. But sense
The data holding capacity of the amplifier 40 is
Data holding capacity,
The data held in the sense amplifier 40 is inverted by the
And the memory cell from the data register 120
Data transfer to array 1 becomes impossible. Thus, the DRAM device shown in FIGS. 10 and 11
In the case, the data register 120 and the sense amplifier 40
The problem is that bidirectional data transfer between
Was. Such problems are not limited to the above-mentioned DRAM elements, but
Data transfer between registers composed of
It can happen. Therefore, conventionally, when transferring data to a register,
It was as follows. That is, as shown in FIG.
Connect transistor Q between data line pair D of register R
Before transferring data to register R,
To turn on the transistor Q and connect the data lines D and
A short circuit occurs, and the potentials of the data lines D and D are set to the intermediate potential.
Thereafter, the transistor Q is turned off, and the data lines D and D are turned off.
And floating by
Data is transferred after killing the data holding capacity of the data R. However, in this case, the inverter holds the intermediate potential and
Therefore, a through current flows. Especially like the DRAM above
If a large amount of data is transferred at one time,
There is a problem that a current flows. The present invention has been made to solve the above problems.
Data transfer without increasing current consumption
To obtain a semiconductor integrated circuit device capable of
You. [Means for Solving the Problems] A semiconductor integrated circuit device according to the present invention is a
, Cache memory and information
Means. Main memory has multiple memory cells and multiple words
Line, multiple bit line pairs and multiple sense amplifiers
You. Multiple memory cells are arranged in multiple rows and multiple columns.
Each one transistor element and one capacitor
And an element for storing information. Multiple words
Are placed on multiple lines, each on a corresponding line.
The plurality of placed memory cells are connected. Multiple bits
Line pairs are arranged in multiple columns, each in a corresponding column.
Memory cells are connected and arranged in parallel.
You. Multiple sense amplifiers are arranged in multiple rows and
Connected to the bit line pair of the corresponding column, and the bit line pair of the corresponding column.
Senses and amplifies the potential difference that appears in Cache memory
Has multiple storage elements and is read from main memory
The stored information is stored. Means for improving the ability to transmit information are
Read from in-memory memory cells,
Transmit amplified information to storage element of cache memory
When transmitting the information, the driving capability of the information is increased. Further, the semiconductor integrated circuit device according to the present invention
Memory, cache memory and information transmission drive capacity
Means to enhance. The main memory has multiple memory cells.
Multiple word lines, multiple bit line pairs and multiple cells.
It has a sense amplifier. Multiple memory cells are stored in multiple rows and
And multiple rows, each with one transistor element
It is composed of one capacitor element and stores information
I do. The multiple word lines are arranged in multiple rows, each of which
Are connected to multiple memory cells arranged in the corresponding row.
You. A plurality of bit line pairs are arranged in a plurality of columns, and
Are connected to multiple memory cells arranged in the corresponding column.
Are arranged in parallel. Multiple sense amplifiers, multiple columns
And connected to the bit line pair of the corresponding column,
Senses and amplifies the potential difference that appears on the bit line pairs in the
You. A cache memory has a plurality of storage elements,
Information read from the main memory and
The information to be written is stored in the memory. Information transmission drive
The means to increase the capacity is from the storage element of the cache memory
Transmits read information to memory cells in main memory
At that time, the information transmission driving ability is enhanced. [Operation] In the semiconductor integrated circuit device according to the present invention, the main
Read from the memory cells of the main memory
Information amplified by the sense amplifier
When the information is transmitted to the storage element of
Enhanced. Therefore, cache from main memory
Transmission of information to memory
It is possible to transfer information from memory to cache memory.
You. Further, in the semiconductor integrated circuit device according to the present invention,
Stores the information read from the storage element of the cache memory.
When transmitting the information to the memory cells of the main memory,
The transmission drive capability is enhanced. Therefore, the cache
When the drive capability for transmitting information from memory to main memory is low
Even if the information is transferred from the cache memory to the main memory.
Communication becomes possible. Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of a DRAM device according to an embodiment of the present invention.
FIG. This DRAM device is shown in FIG.
The difference from the DRAM element is that the transfer gate 11 and the data
Sub data register section 14 is provided between the
It is a point that is. In this DRAM element, the memory cell array 1
Constitute the main memory, and the data register section 12
Configure a flash memory. The sub data register unit 14 enhances the information transmission drive capability.
As shown in FIG.
Provided between the port 110 and the data register 120, respectively.
And a plurality of sub data registers 140. As described in the conventional example, the memory cell array
1 is decomposed into a plurality of blocks in units of a plurality of columns.
Then, the data register section 12 also corresponds to the memory cell array 1.
Accordingly, it can be said that it is divided into a plurality of blocks. FIG. 3 shows the sense amplifier 40 and the transfer gate 11
0, sub data register 140 and data register 120
FIG. 3 is a diagram illustrating a specific circuit configuration. The sense amplifier 40 includes P-channel MOS transistors Q5 and Q6.
And N-channel MOS transistors Q7 and Q8. Tiger
The transistor Q5 is connected between the bit line BL and the node N1,
Its gate is connected to the bit line ▲ ▼. Tiger
Transistor Q6 is connected between bit line ▲ ▼ and node N1
The gate is connected to the bit line BL. Ma
The transistor Q7 is connected between the bit line BL and the node N2.
Connected to the bit line ▲ ▼
You. Transistor Q8 is connected between bit line ▲ ▼ and node N2.
And its gate is connected to the bit line BL.
You. Node N1 is connected via P-channel MOS transistor Q9
Power supply potential V CC And node N2 is an N-channel M
Connected to ground via OS transistor Q10
You. The sense amplifier drive signal is applied to the gate of transistor Q9.
▲ ▼ is given, and the gate of transistor Q10 is
An amplifier drive signal φs is provided. The data register 120 as a storage element is a P-channel M
OS transistors Q11 and Q12 and N-channel MOS transistors
Data Q13 and Q14. Transistor Q11 is connected to data line D
Source potential V CC And its gate is connected to the data line
It is connected to the. Transistor Q12 is connected to data line
Source potential V CC And its gate is connected to data line D
It is connected to the. Also, transistor Q13 is a data line
D and ground potential, the gate of which is connected to the data line
It is connected to the. Transistor Q14 is connected to the data line
And the gate is connected to data line D.
It is connected. The sub data register 140 is an NMOS flip-flop.
N-channel MOS transistors Q15, Q16, Q
Consists of 17 Transistor Q15 is connected to data line D and node N3.
And its gate is connected to the data line
ing. Transistor Q16 is connected between data line and node N3.
And its gate is connected to the data line D.
You. Transistor Q17 is connected between node N3 and ground potential.
Control signal φ is applied to the gate. control
Signal φ is normally low, and data register 120
Data is transferred to the memory cell through the sense amplifier 40.
When you rise to a high level. Transmission of information of data register 120 and sense amplifier 40
Drive capability (hereinafter referred to as data retention capability)
Is determined by the channel width of the transistor constituting the transistor. You
In other words, the larger the transistor channel width,
Need to pass large current to reverse the data
Therefore, the data holding ability is large. Here, the data holding capacity of the data register 120 is set.
It is assumed that it is smaller than the data holding capacity of the sense amplifier 40. This
In the case of, the data holding capacity of the sub-data register 140 and
The sum with the data holding capacity of the data register 120 is sensed.
The sub data is set to exceed the data holding capacity of the amplifier 40.
The data holding capacity of the data register 140 is set. Specifically
Is the transistor of the sub data register 140
Channel widths and corresponding transitions in data register 120
The sum of the channel width of the
Set to be larger than the corresponding transistor
Just do it. Data from memory cell array 1 to data register 120
Transfer the control signal φ at low level.
To deactivate sub data register 140
Open the fagate 110. In this case, the sense amplifier 40
Data holding capacity is higher than the data holding capacity of data register 120.
The data register 12 from the sense amplifier 40.
Data transfer to 0 is performed. On the other hand, from the data register 120 to the memory cell array 1
When transferring data, set control signal φ to high level.
After the sub data register 140 is activated by
Open the sphagate 110. In this case, the data register 120
Data holding capacity of the sub data register 140
The sum of the data holding capacity and the data holding capacity
Because it is higher than
Data can be inverted.
Data transfer from the data 120 to the memory cell array 1 is performed.
It is. As described above, in the DRAM device of the above embodiment, the data
The data holding capacity of the data register 120 is variable.
Between the data register 120 and the sense amplifier 40.
Data transfer in the
A rush system is obtained. In the above description, the sub data register 140 is controlled.
Control signal φ is normally low level and the data register
When data is transferred from the data 120 to the memory cell array 1,
To rise to a high level when
From the memory cell array 1 to the data register 12
It may be set to low level when transferring data to 0
No. Above, the data holding capacity of the data register 120 is sensitive.
Configuration example when the data holding capacity is smaller than that of SAMP40
It is. Conversely, the data holding capacity of the data register 120 is
If it is larger than the data holding capacity of the sense amplifier 40
Sets the sub data register 140 to the transfer gate 110
A memory cell array added to the memory cell array 1
Active when data is transferred from 1 to data register 120
From the data register 120 to the memory cell array 1
Is configured to be inactive at the time of data transfer.
Good. In this case, the data holding of the sub data register 140
The sum of the capacity and the data holding capacity of the sense amplifier 40 is
Data register 120's data holding capacity.
Must be set as follows. In the above embodiment, the sub data register 140 is set to N
It is composed of a channel latch circuit and a switch for controlling it.
Switch transistor Q17 is connected to transistors Q15 and Q16.
Although provided between the common source and the ground potential, as shown in FIG.
As shown, the latch constituted by the transistors Q15 and Q16
N channels between the circuit and the data lines D and
Connect MOS transistors Q18 and Q19 and connect their
Control signal φ to the gates of transistors Q18 and Q19.
You may do it. Also, as shown in FIG.
Are connected to P-channel MOS transistors Q21, Q22, Q23 and N-channel MOS transistors.
MOS type transistor consisting of channel MOS transistors Q24, Q25, Q26
It may be configured by a CMOS circuit that is a rip-flop means.
No. The configuration of the sub data register 140 in FIG. 5 is shown in FIG.
This is the same as the configuration of the sense amplifier 40 shown. Transis
A control signal is applied to the gate of the
Control signal φ is applied to the gate of data transistor Q26. In short, data transfer is controlled by appropriate control signals.
Switch to active or inactive state at
The data holding capacity of the
It is the present invention that the device
It is the gist of. Further, the present invention relates to the sense amplifier 40 and the data register.
Not limited to transferring data between
Also applies when you want to make the data retention capacity of the switch circuit variable
can do. [Effect of the Invention] As described above, according to the present invention, the key is stored in the main memory.
The ability to transmit information to the cache memory
Between the main memory and the cache memory.
Bi-directional transfer of information can be performed without increasing current consumption
It becomes possible easily. Also, the transfer of information from cache memory to main memory
The transmission drive capability is enhanced, so the main memory and cache
Transfer of information to and from
This is easily possible without increasing the flow.

【図面の簡単な説明】 第1図はこの発明の一実施例によるDRAM素子の構成を示
すブロック図、第2図は第1図のDRAM素子の一部分の構
成を詳細に示すブロック図、第3図は第2図の主要部の
具体的な回路図、第4図は第2図に示されるサブデータ
レジスタの他の例を示す回路図、第5図は第2図に示さ
れるサブデータレジスタのさらに他の例を示す回路図、
第6図は従来のDRAM素子の構成を示すブロック図、第7A
図は従来のDRAM素子の通常の読出サイクルの動作波形
図、第7B図は従来のDRAM素子のページモードサイクルの
動作波形図、第7C図は従来のDRAM素子のスタティックコ
ラムモードサイクルの動作波形図、第8図は第6図のDR
AM素子を利用した簡易キャッシュシステムの構成を示す
ブロック図、第9図は第8図の簡易キャッシュシステム
の動作波形図、第10図はキャッシュメモリ内蔵DRAM素子
の構成を示すブロック図、第11図は第10図のDRAM素子の
一部分の構成を詳細に示すブロック図、第12図は第10図
のDRAM素子を利用した簡易キャッシュシステムの構成を
示すブロック図、第13図はレジスタにデータに転送する
従来の方法を説明するための図である。 図において、1はメモリセルアレイ、2はワードドライ
バ、3は行デコーダ部、4はセンスアンプ部、5はI/O
スイッチ部、6は列デコーダ部、7は行アドレスバッフ
ァ、8は列アドレスバッファ、9は出力バッファ、10は
入力バッファ、11はトランスファゲート部、12はデータ
レジスタ部、13はブロックデコーダ、40はセンスアン
プ、50はI/Oスイッチ、60は列デコーダ、110はトランス
ファゲート、120はデータレジスタ、140はサブデータレ
ジスタ、BL,▲▼はビット線対、D,はデータ線
対、φは制御信号である。 なお、各図中、同一符号は同一または相当部分を示す。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a configuration of a DRAM device according to an embodiment of the present invention; FIG. 2 is a block diagram showing a configuration of a part of the DRAM device of FIG. 1 in detail; FIG. 4 is a specific circuit diagram of a main part of FIG. 2, FIG. 4 is a circuit diagram showing another example of the sub data register shown in FIG. 2, and FIG. 5 is a sub data register shown in FIG. Circuit diagram showing still another example of
FIG. 6 is a block diagram showing the configuration of a conventional DRAM device, and FIG.
FIG. 7 is an operation waveform diagram of a conventional DRAM device in a normal read cycle, FIG. 7B is an operation waveform diagram of a conventional DRAM device in a page mode cycle, and FIG. 7C is an operation waveform diagram of a conventional DRAM device in a static column mode cycle. And FIG. 8 shows the DR of FIG.
FIG. 9 is a block diagram showing a configuration of a simple cache system using an AM device, FIG. 9 is an operation waveform diagram of the simple cache system of FIG. 8, FIG. 10 is a block diagram showing a configuration of a DRAM device with a built-in cache memory, and FIG. Is a block diagram showing in detail the configuration of a part of the DRAM device of FIG. 10, FIG. 12 is a block diagram showing a configuration of a simple cache system using the DRAM device of FIG. 10, and FIG. 13 is a data transfer to a register. FIG. 4 is a diagram for explaining a conventional method of performing the above. In the figure, 1 is a memory cell array, 2 is a word driver, 3 is a row decoder section, 4 is a sense amplifier section, and 5 is an I / O.
Switch section, 6 is a column decoder section, 7 is a row address buffer, 8 is a column address buffer, 9 is an output buffer, 10 is an input buffer, 11 is a transfer gate section, 12 is a data register section, 13 is a block decoder, 40 is Sense amplifier, 50 is an I / O switch, 60 is a column decoder, 110 is a transfer gate, 120 is a data register, 140 is a sub data register, BL, ▲ ▼ is a bit line pair, D, is a data line pair, φ is a control Signal. In the drawings, the same reference numerals indicate the same or corresponding parts.

Claims (1)

(57)【特許請求の範囲】 1.複数行および複数列に配列され、各々が1つのトラ
ンジスタ素子と1つのキャパシタ素子とによって構成さ
れ、情報を記憶する複数のメモリセルと、 複数行に配置され、各々に、対応した行に配置された複
数のメモリセルが接続される複数のワード線と、 複数列に配置され、各々に、対応した列に配置された複
数のメモリセルが接続される複数のビット線対と、 複数列に配置され、対応した列のビット線対に接続さ
れ、対応した列のビット線対に現われた電位差を感知・
増幅する複数のセンスアンプとを有するメインメモリ、 複数の記憶素子を有し、前記メインメモリから読出され
た情報を記憶するとともに、前記メインメモリに書込む
べき情報を記憶するキャッシュメモリ、および 前記キャッシュメモリの記憶素子から読出された情報を
前記メインメモリのメモリセルに伝達する際に非活性化
され、前記メインメモリのメモリセルから読出され、前
記センスアンプにて増幅された情報を前記キャッシュメ
モリの記憶素子に伝達する際に活性化されて情報の伝達
駆動能力を高める手段を備え、 前記メインメモリの各センスアンプの駆動能力は、前記
キャッシュメモリの各記憶素子の駆動能力より低い、半
導体集積回路装置。 2.前記メインメモリは、複数のメモリセルが複数列単
位の複数のブロックに分割されており、 前記キャッシュメモリは、前記メインメモリからブロッ
ク単位で読出された情報をブロック単位で記憶する、特
許請求の範囲第1項記載の半導体集積回路装置。 3.前記キャッシュメモリは、前記メインメモリの複数
のブロックのそれぞれに対応して設けられた複数の記憶
ブロックを有し、それらの記憶ブロックの各々に、対応
する前記メインメモリのブロックからのブロック単位の
情報を記憶する、特許請求の範囲第2項記載の半導体集
積回路装置。 4.前記キャッシュメモリの複数の記憶素子は、前記メ
インメモリの各ブロックにおける複数列と同数の複数列
単位の複数のブロックに分割された、特許請求の範囲第
2項記載の半導体集積回路装置。 5.前記メインメモリと前記キャッシュメモリとは、前
記メインメモリからブロック単位で読出された情報をブ
ロック単位で前記キャッシュメモリに転送するための複
数のトランスファゲートによって接続される、特許請求
の範囲第2項から第4項のいずれかに記載の半導体集積
回路装置。 6.情報の伝達駆動能力を高める手段は、前記メインメ
モリのセンスアンプと前記トランスファゲートの間に接
続される、特許請求の範囲第5項記載の半導体集積回路
装置。 7.情報の伝達駆動能力を高める手段は、複数のNMOS型
のフリップフロップ手段を有している、特許請求の範囲
第1項から第6項のいずれかに記載の半導体集積回路装
置。 8.情報の伝達駆動能力を高める手段は、複数のCMOS型
のフリップフロップ手段を有している、特許請求の範囲
第1項から第6項のいずれかに記載の半導体集積回路装
置。 9.複数行および複数列に配列され、各々が1つのトラ
ンジスタ素子と1つのキャパシタ素子とによって構成さ
れ、情報を記憶する複数のメモリセルと、 複数行に配置され、各々に、対応した行に配置された複
数のメモリセルが接続される複数のワード線と、 複数列に配置され、各々に、対応した列に配置された複
数のメモリセルが接続される複数のビット線対と、 複数列に配置され、対応した列のビット線対に接続さ
れ、対応した列のビット線対に現われた電位差を感知・
増幅する複数のセンスアンプとを有するメインメモリ、 複数の記憶素子を有し、前記メインメモリから読出され
た情報を記憶するとともに、前記メインメモリに書込む
べき情報を記憶するキャッシュメモリ、および 前記メインメモリのメモリセルから読出され、前記セン
スアンプにて増幅された情報を前記キャッシュメモリの
記憶素子に伝達する際に非活性化され、前記キャッシュ
メモリの記憶素子から読出された情報を前記メインメモ
リのメモリセルに伝達する際に活性化されて情報の伝達
駆動能力を高める手段を備え、 前記キャッシュメモリの各記憶素子の駆動能力は、前記
メインメモリの各センスアンプの駆動能力より低く、前
記情報の伝達駆動能力を高める手段が非活性化されてい
る間にも、前記キャッシュメモリの記憶素子は前記セン
スアンプで増幅された情報を記憶するよう活性化されて
いる、半導体集積回路装置。 10.前記メインメモリは、複数のメモリセルが複数列
単位の複数のブロックに分割されており、 前記キャッシュメモリは、前記メインメモリからブロッ
ク単位で読出された情報をブロック単位で記憶する、特
許請求の範囲第9項記載の半導体集積回路装置。 11.前記キャッシュメモリは、前記メインメモリの複
数のブロックのそれぞれに対応して設けられた複数の記
憶ブロックを有し、それらの記憶ブロックの各々に、対
応する前記メインメモリのブロックからのブロック単位
の情報を記憶する、特許請求の範囲第10項記載の半導体
集積回路装置。 12.前記キャッシュメモリの複数の記憶素子は、前記
メインメモリの各ブロックにおける複数列と同数の複数
列単位の複数のブロックに分割された、特許請求の範囲
第10項記載の半導体集積回路装置。 13.前記メインメモリと前記キャッシュメモリとは、
前記メインメモリからブロック単位で読出された情報を
ブロック単位で前記キャッシュメモリに転送するための
複数のトランスファゲートによって接続される、特許請
求の範囲第10項から第12項のいずれかに記載の半導体集
積回路装置。 14.情報の伝達駆動能力を高める手段は、前記キャッ
シュメモリと前記トランスファゲートとの間に接続され
る、特許請求の範囲第13項記載の半導体集積回路装置。 15.情報の伝達駆動能力を高める手段は、複数のNMOS
型のフリップフロップ手段を有している、特許請求の範
囲第9項から第14項のいずれかに記載の半導体集積回路
装置。 16.情報の伝達駆動能力を高める手段は、複数のCMOS
型のフリップフロップ手段を有している、特許請求の範
囲第9項から第14項のいずれかに記載の半導体集積回路
装置。
(57) [Claims] A plurality of memory cells that are arranged in a plurality of rows and a plurality of columns, each constituted by one transistor element and one capacitor element, and store information; and arranged in a plurality of rows and each arranged in a corresponding row. A plurality of word lines to which a plurality of memory cells are connected; a plurality of bit line pairs to which a plurality of memory cells arranged in a corresponding column are connected; and a plurality of bit lines to which a plurality of memory cells arranged in a corresponding column are connected. Is connected to the bit line pair of the corresponding column and senses the potential difference appearing on the bit line pair of the corresponding column.
A main memory having a plurality of sense amplifiers for amplifying, a cache memory having a plurality of storage elements, storing information read from the main memory, and storing information to be written to the main memory, and the cache When the information read from the storage element of the memory is transmitted to the memory cell of the main memory, the information is deactivated, and the information read from the memory cell of the main memory and amplified by the sense amplifier is stored in the cache memory. A semiconductor integrated circuit that is activated when transmitting the data to the storage element and enhances the transmission drive capability of the information, wherein the drive capability of each sense amplifier of the main memory is lower than the drive capability of each storage device of the cache memory. apparatus. 2. 9. The main memory, wherein a plurality of memory cells are divided into a plurality of blocks in a unit of a plurality of columns, and the cache memory stores information read from the main memory in units of blocks in units of blocks. 2. The semiconductor integrated circuit device according to claim 1. 3. The cache memory has a plurality of storage blocks provided corresponding to each of the plurality of blocks of the main memory, and each of the storage blocks has information in block units from the corresponding block of the main memory. 3. The semiconductor integrated circuit device according to claim 2, which stores the following. 4. 3. The semiconductor integrated circuit device according to claim 2, wherein the plurality of storage elements of the cache memory are divided into a plurality of blocks in a unit of a plurality of columns in the same number as a plurality of columns in each block of the main memory. 5. The method according to claim 2, wherein the main memory and the cache memory are connected by a plurality of transfer gates for transferring information read from the main memory in block units to the cache memory in block units. 5. The semiconductor integrated circuit device according to claim 4. 6. 6. The semiconductor integrated circuit device according to claim 5, wherein the means for improving the information transmission driving capability is connected between the sense amplifier of the main memory and the transfer gate. 7. 7. The semiconductor integrated circuit device according to claim 1, wherein the means for improving the information transmission driving capability includes a plurality of NMOS flip-flops. 8. 7. The semiconductor integrated circuit device according to claim 1, wherein the means for enhancing the information transmission driving capability includes a plurality of CMOS flip-flops. 9. A plurality of memory cells that are arranged in a plurality of rows and a plurality of columns, each constituted by one transistor element and one capacitor element, and store information; and arranged in a plurality of rows and each arranged in a corresponding row. A plurality of word lines to which a plurality of memory cells are connected; a plurality of bit line pairs to which a plurality of memory cells arranged in a corresponding column are connected; and a plurality of bit lines to which a plurality of memory cells arranged in a corresponding column are connected. Is connected to the bit line pair of the corresponding column and senses the potential difference appearing on the bit line pair of the corresponding column.
A main memory having a plurality of sense amplifiers for amplifying, a cache memory having a plurality of storage elements, storing information read from the main memory, and storing information to be written to the main memory; and When the information read from the memory cell of the memory and amplified by the sense amplifier is transmitted to the storage element of the cache memory, the information is deactivated and the information read from the storage element of the cache memory is stored in the main memory. Means for enhancing the transmission driving capability of information by being activated when transmitting to the memory cell, wherein the driving capability of each storage element of the cache memory is lower than the driving capability of each sense amplifier of the main memory; Even while the means for increasing the transmission drive capability is inactivated, the storage element of the cache memory is It is activated to store the information which has been amplified by the sense amplifier, a semiconductor integrated circuit device. 10. 9. The main memory, wherein a plurality of memory cells are divided into a plurality of blocks in a unit of a plurality of columns, and the cache memory stores information read from the main memory in units of blocks in units of blocks. 10. The semiconductor integrated circuit device according to claim 9. 11. The cache memory has a plurality of storage blocks provided corresponding to each of the plurality of blocks of the main memory, and each of the storage blocks has information in block units from the corresponding block of the main memory. 11. The semiconductor integrated circuit device according to claim 10, which stores the following. 12. 11. The semiconductor integrated circuit device according to claim 10, wherein the plurality of storage elements of the cache memory are divided into a plurality of blocks in a unit of a plurality of columns in a number of columns in each block of the main memory. 13. The main memory and the cache memory,
13. The semiconductor according to claim 10, wherein the semiconductor memory device is connected by a plurality of transfer gates for transferring information read from the main memory in block units to the cache memory in block units. Integrated circuit device. 14. 14. The semiconductor integrated circuit device according to claim 13, wherein the means for improving the information transmission driving capability is connected between the cache memory and the transfer gate. 15. The means to increase the information transmission drive capability is to use multiple NMOS
15. The semiconductor integrated circuit device according to claim 9, further comprising a flip-flop of a type. 16. The means to increase the information transmission drive capability is multiple CMOS
15. The semiconductor integrated circuit device according to claim 9, further comprising a flip-flop of a type.
JP27991387A 1987-11-05 1987-11-05 Semiconductor integrated circuit device Expired - Fee Related JP2700886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27991387A JP2700886B2 (en) 1987-11-05 1987-11-05 Semiconductor integrated circuit device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27991387A JP2700886B2 (en) 1987-11-05 1987-11-05 Semiconductor integrated circuit device

Publications (2)

Publication Number Publication Date
JPH01122094A JPH01122094A (en) 1989-05-15
JP2700886B2 true JP2700886B2 (en) 1998-01-21

Family

ID=17617655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27991387A Expired - Fee Related JP2700886B2 (en) 1987-11-05 1987-11-05 Semiconductor integrated circuit device

Country Status (1)

Country Link
JP (1) JP2700886B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168418A (en) * 1989-11-25 1991-07-22 Toyota Autom Loom Works Ltd Vehicle speed control device for cargo handling vehicle
JP2696026B2 (en) * 1991-11-21 1998-01-14 株式会社東芝 Semiconductor storage device
US5576388A (en) * 1994-10-11 1996-11-19 Shell Oil Company Telechelic polymers and heterotelechelic polydiene block polymers with dual cure systems

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5661082A (en) * 1979-10-22 1981-05-26 Seiko Epson Corp Two level memory integrated circuit
JPH069114B2 (en) * 1983-06-24 1994-02-02 株式会社東芝 Semiconductor memory

Also Published As

Publication number Publication date
JPH01122094A (en) 1989-05-15

Similar Documents

Publication Publication Date Title
US5111386A (en) Cache contained type semiconductor memory device and operating method therefor
US5588130A (en) Semiconductor memory device for simple cache system
US5559990A (en) Memories with burst mode access
US7082491B2 (en) Memory device having different burst order addressing for read and write operations
US5226009A (en) Semiconductor memory device supporting cache and method of driving the same
US4926385A (en) Semiconductor memory device with cache memory addressable by block within each column
US6144587A (en) Semiconductor memory device
US5179687A (en) Semiconductor memory device containing a cache and an operation method thereof
US4633440A (en) Multi-port memory chip in a hierarchical memory
US5329489A (en) DRAM having exclusively enabled column buffer blocks
US5267210A (en) SRAM with flash clear for selectable I/OS
US5253203A (en) Subarray architecture with partial address translation
US4754433A (en) Dynamic ram having multiplexed twin I/O line pairs
US4669064A (en) Semiconductor memory device with improved data write function
US6219746B1 (en) Data processing system having a synchronous memory with an output circuit which selectively outputs groups of M data bits
US5933372A (en) Data path for high speed high bandwidth DRAM
US6219283B1 (en) Memory device with local write data latches
JP2700886B2 (en) Semiconductor integrated circuit device
US6839807B2 (en) Multi-way set associative cache memory
JPH01124193A (en) Semiconductor memory device
US5553024A (en) Semiconductor memory utilizing RAS and CAS signals to control the latching of first and second read or write data
KR100367159B1 (en) Semiconductor memory device
JP2660488B2 (en) Semiconductor storage device
EP0594266B1 (en) SRAM with flash clear for selectable I/Os
JP2660489B2 (en) Semiconductor storage device

Legal Events

Date Code Title Description
S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees