JP2004070691A - Memory controller and memory system having the same, and method for controlling flash memory - Google Patents

Memory controller and memory system having the same, and method for controlling flash memory Download PDF

Info

Publication number
JP2004070691A
JP2004070691A JP2002229635A JP2002229635A JP2004070691A JP 2004070691 A JP2004070691 A JP 2004070691A JP 2002229635 A JP2002229635 A JP 2002229635A JP 2002229635 A JP2002229635 A JP 2002229635A JP 2004070691 A JP2004070691 A JP 2004070691A
Authority
JP
Japan
Prior art keywords
zone
address
address conversion
flash memory
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002229635A
Other languages
Japanese (ja)
Other versions
JP4042898B2 (en
Inventor
Yukio Terasaki
寺崎 幸夫
Naoki Mukoda
向田 直樹
Kenzo Kida
木田 健三
Yasuo Yamada
山田 泰生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Microelectronics Inc
TDK Corp
Original Assignee
Kawasaki Microelectronics Inc
TDK Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Microelectronics Inc, TDK Corp filed Critical Kawasaki Microelectronics Inc
Priority to JP2002229635A priority Critical patent/JP4042898B2/en
Publication of JP2004070691A publication Critical patent/JP2004070691A/en
Application granted granted Critical
Publication of JP4042898B2 publication Critical patent/JP4042898B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a memory controller for effectively suppressing a deterioration in performance while saving the capacity of an address conversion table. <P>SOLUTION: A memory controller for performing access to a flash memory dividable into p pieces of zones is provided with an address conversion table having r(r < p) pieces of tables capable of storing address conversion information related with one zone. Then, in response to a request for access to a certain zone in the flash memory, the address conversion information related with a zone next to the pertinent zone from viewed from a host side is prepared in the predetermined table of the address conversion table. When the next zone is actually accessed, it is not necessary to prepare any corresponding address conversion information from the beginning. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、メモリコントローラ及びこれを備えるメモリシステムに関し、特に、フラッシュメモリを制御するためのメモリコントローラ及びこれを備えるメモリシステムに関する。また、本発明はフラッシュメモリの制御方法に関する。
【0002】
【従来の技術】
近年、メモリカードやシリコンディスクなどに用いられる半導体メモリとして、フラッシュメモリ、特にNAND型フラッシュメモリが用いられることが多い。NAND型フラッシュメモリは、メモリセルを消去状態(論理値=1)から書込状態(論理値=0)に変化させる場合は、これをメモリセル単位で行うことが可能である一方、メモリセルを書込状態(0)から消去状態(1)に変化させる場合は、これをメモリセル単位で行うことができず、複数のメモリセルからなるブロック単位でしかこれを行うことができない。かかる一括消去動作は、一般的に「ブロック消去」と呼ばれる。
【0003】
このように、フラッシュメモリでは、ブロック単位でしかメモリセルを書込状態(0)から消去状態(1)に変化させることができないことから、既にデータが割り当てられている論理アドレスに対して新しいデータを上書きする場合であっても、旧データが格納されているブロックに対して新しいデータを直接上書きすることはできない。このため、既にデータが割り当てられている論理アドレスに対して新しいデータを上書きするようホストコンピュータから指示されると、旧データが格納されているブロック内における上書き対象外のデータを消去済みブロックに転送するとともに、新しいデータを当該消去済みブロックに書き込むという処理が必要となる。かかる処理は「ブロック間転送」と呼ばれ、ホストコンピュータからデータの上書きが指示される度に実行される。ブロック間転送が行われた後、転送元のブロックはブロック消去され、これにより転送元のブロックは新たな消去済みブロックとなる。
【0004】
したがって、論理アドレスと各ブロックに一義的に割り当てられた物理アドレスとの関係は固定されず、これらの関係はデータの上書きが指示される度に動的に変化することになる。このため、フラッシュメモリを制御するためのコントローラ内には、論理アドレスと物理アドレスとの関係を保持するためのアドレス変換テーブルが必要となり、ホストコンピュータからデータの読み出しが要求される度にこれを参照してアドレス変換が行われるとともに、データの書き込みが要求される度にその内容が更新される。
【0005】
しかしながら、アドレス変換テーブルに必要とされる記録容量は、コントローラの制御対象となるブロック数に比例することから、制御対象となるブロック数が非常に多い場合には大容量のアドレス変換テーブルが必要となる。しかも、アドレス変換テーブルには一般にSRAM(Static Random Access Memory)が用いられるため、大容量のアドレス変換テーブルを用いるとコントローラの製品コストを大幅に増大させてしまう。
【0006】
このような問題を解消するためには、制御対象となる全てのブロックに関するアドレス変換情報をアドレス変換テーブルに格納するのではなく、一部のブロックに関するアドレス変換情報のみをアドレス変換テーブルに格納することが有効である。例えば、アドレス変換テーブルに格納するアドレス変換情報を半分のブロックに関する情報のみとすれば、アドレス変換テーブルに必要とされる記憶容量を半分とすることができ、コントローラの製品コストを下げることが可能となる。
【0007】
【発明が解決しようとする課題】
しかしながら、一部のブロックに関するアドレス変換情報のみをアドレス変換テーブルに展開する方式においては、アドレス変換テーブルにアドレス変換情報が展開されていないブロックに対してデータの読み出しが要求された場合、アドレス変換テーブル内の一部のデータを破棄し、新たに当該ブロックに関するアドレス変換情報をアドレス変換テーブル内に格納するといった更新作業が必要となる。当然ながら、更新作業が完了するまでは要求されたデータの読み出しを行うことができないので、かかる更新作業の発生はメモリシステムのパフォーマンスを低下させる原因となる。
【0008】
このような更新作業の発生頻度は、アドレス変換テーブルにアドレス変換情報が格納されるブロックの割合によって決まり、この割合が少ないほど更新作業は高頻度で発生することになる。つまり、アドレス変換テーブルの容量を節約することによってアドレス変換情報を格納可能なブロックの割合を減らせば減らすほど、コントローラの製品コストが低下するとともにパフォーマンスも低下し、逆に、アドレス変換テーブルの容量を増大することによってアドレス変換情報を格納可能なブロックの割合を増やせば増やすほど、コントローラの製品コストが上昇するとともにパフォーマンスも向上する。すなわち、アドレス変換テーブルの容量に基づく製品コストとパフォーマンスとはトレードオフの関係にあり、その両方を満足させることは困難であった。
【0009】
したがって、本発明の目的は、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制可能なメモリコントローラ及びこれを備えるメモリシステムを提供することである。
【0010】
また、本発明の他の目的は、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制可能なフラッシュメモリの制御方法を提供することである。
【0011】
【課題を解決するための手段】
本発明の一側面によるメモリコントローラは、p個のゾーンに分割可能なフラッシュメモリにアクセスするためのメモリコントローラであって、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリに対するアクセスが要求されたことに応答して、アクセス対象である第1のゾーンとは異なる第2のゾーンに関するアドレス変換情報を前記アドレス変換テーブルの所定のテーブル内に作成することを特徴とする。
【0012】
本発明によれば、実際に第2のゾーンに対してアクセスがされる前に、第2のゾーンに関するアドレス変換情報をアドレス変換テーブル内に作成していることから、その後第2のゾーンに対して実際にアクセスがされた場合、対応するアドレス変換情報を初めから作成する必要がない。これにより、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制することが可能となる。
【0013】
また、あるゾーンに対してアクセス(特に、データの読み出し)が要求された場合、その後これに続くゾーンに対するアクセスが要求されることが多いことから、前記第2のゾーンは、ホスト側から見て前記第1のゾーンの次のゾーンであることが好ましい。また、本発明によるメモリコントローラは、前記r個のテーブルの優先順位を表示する手段をさらに備え、前記所定のテーブルは優先順位が最も低いテーブル及び優先順位が次に低いテーブルから選ばれることが好ましい。
【0014】
本発明の他の側面によるメモリコントローラは、p個のゾーンに分割可能なフラッシュメモリにアクセスするためのメモリコントローラであって、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリの第1のゾーンに対するアクセスが要求されたことに応答して、ホスト側から見て前記第1のゾーンに続く第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブルのいずれかのテーブル内に格納されているか否かを判断することを特徴とする。
【0015】
本発明は、次にアクセスされる可能性の高い第2のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されているか否かを先行して判断することにより、パフォーマンスの向上を可能としている。また、第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブルのいずれのテーブル内にも格納されていないと判断されたことに応答して、いずれかのテーブルに対し、前記第2のゾーンに関するアドレス変換情報の上書きを開始すれば、その後実際に第2のゾーンに対してアクセスがされた場合であっても、対応するアドレス変換情報を初めから作成する必要がなくなる。これにより、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制することが可能となる。
【0016】
本発明のさらに他の側面によるメモリコントローラは、ホストコンピュータ側のアドレスに属する論理アドレスからフラッシュメモリ側のアドレスに属する物理アドレスへの変換に用いるアドレス変換テーブルと、前記フラッシュメモリから読み出したデータを一時的に格納する一時メモリとを備え、前記一時メモリに格納されたデータが前記ホストコンピュータへ転送されている期間に、前記アドレス変換テーブルの内容を更新することを特徴とする。
【0017】
本発明は、本来メモリコントローラが待ち状態となる期間においてアドレス変換テーブルの内容を更新することにより、パフォーマンスの向上を可能としている。また、前記一時メモリは、FIFOであることが好ましい。
【0018】
本発明の一側面によるフラッシュメモリシステムは、p個のゾーンに分割可能なフラッシュメモリと、前記フラッシュメモリにアクセスするメモリコントローラとを備えるフラッシュメモリシステムであって、前記メモリコントローラは、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリに対するアクセスが要求されたことに応答して、アクセス対象である第1のゾーンとは異なる第2のゾーンに関するアドレス変換情報を前記アドレス変換テーブルの所定のテーブル内に作成することを特徴とする。
【0019】
本発明においても、実際に第2のゾーンに対してアクセスがされる前に、第2のゾーンに関するアドレス変換情報をアドレス変換テーブル内に作成していることから、その後第2のゾーンに対して実際にアクセスがされた場合、対応するアドレス変換情報を初めから作成する必要がない。これにより、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制することが可能となる。
【0020】
本発明の他の側面によるフラッシュメモリシステムは、p個のゾーンに分割可能なフラッシュメモリと、前記フラッシュメモリにアクセスするメモリコントローラとを備えるフラッシュメモリシステムであって、前記メモリコントローラは、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリの第1のゾーンに対するアクセスが要求されたことに応答して、ホスト側から見て前記第1のゾーンに続く第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブルのいずれかのテーブル内に格納されているか否かを判断することを特徴とする。
【0021】
本発明も、次にアクセスされる可能性の高い第2のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されているか否かを先行して判断することにより、パフォーマンスの向上を可能としている。
【0022】
本発明の一側面によるフラッシュメモリの制御方法は、複数のゾーンに分割可能なフラッシュメモリの制御方法であって、前記フラッシュメモリの第1のゾーンに対するアクセスが要求されたことに応答して、ホスト側から見て前記第1のゾーンに続く第2のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されているか否かを判断するステップと、前記第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブル内に格納されていない場合、前記アドレス変換テーブルに対して前記第2のゾーンに関するアドレス変換情報の格納を開始するステップとを備えることを特徴とする。
【0023】
本発明においても、実際に第2のゾーンに対してアクセスがされる前に、前記アドレス変換テーブルに対して前記第2のゾーンに関するアドレス変換情報の格納を開始していることから、その後第2のゾーンに対して実際にアクセスがされた場合、対応するアドレス変換情報を初めから作成する必要がない。これにより、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制することが可能となる。
【0024】
本発明の他の側面によるフラッシュメモリの制御方法は、複数のゾーンに分割可能なフラッシュメモリの制御方法であって、前記フラッシュメモリの所定のゾーンに対するアクセスが要求されたことに応答して、前記所定のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されているか否かを判断する第1のステップと、前記所定のゾーンに関するアドレス変換情報が前記アドレス変換テーブル内に格納されていると判断されたことに応答して、これが完全なアドレス変換情報であるか不完全なアドレス変換情報であるかを判断する第2のステップとを備えることを特徴とする。そして、前記第2のステップにおいて、前記アドレス変換情報が不完全であると判断されたことに応答して、不完全な部分を補充することによってこれを完成させれば、対応するアドレス変換情報を初めから作成する必要がなくなることから、パフォーマンスの低下を効果的に抑制することが可能となる。
【0025】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の好ましい実施態様について詳細に説明する。
【0026】
図1は、本発明の好ましい実施態様にかかるフラッシュメモリシステム1の構成を概略的に示すブロック図である。図1に示すように、本実施態様にかかるフラッシュメモリシステム1は、フラッシュメモリ2及びコントローラ3からなる。特に限定されるものではないが、フラッシュメモリシステム1はフラッシュメモリ2及びコントローラ3が一つのカード内に集積されて構成され、ホストコンピュータに対して着脱可能な一種の外部記憶装置として用いることができる。ホストコンピュータとしては、文字、音声、あるいは画像情報等の種々の情報を処理するパーソナルコンピュータやデジタルスチルカメラをはじめとする各種情報処理装置が挙げられる。
【0027】
フラッシュメモリ2は、多数のメモリセルを含む1又は2以上の半導体チップからなり、n個(例えば8192個)のブロックによって構成される。これらn個のブロックはいずれもk個(例えば32個)のページ(セクタ)からなり、各ページは例えば512バイトの記録容量を有する最小アクセス単位として用いられる。したがって、上記の例のように、
n=8192(=8K)
k=32
である場合、フラッシュメモリ2は256Kページのアドレス空間を含み、このためホストコンピュータ側から特定のページにアクセスするためには、少なくとも18ビットのアドレス情報が必要となる。本明細書においては、ホストコンピュータよりフラッシュメモリシステム1に供給されるアドレス情報を「ホストアドレス」と呼ぶ。
【0028】
コントローラ3は、少なくともCPU4、RAM5、ROM6及びFIFO7を含む種々の機能ブロックによって構成される。特に限定されるものではないが、コントローラ3は一つの半導体チップ上に集積されていることが好ましい。CPU4は、コントローラ3を構成する各機能ブロック全体の動作を制御するための機能ブロックである。また、RAM5は、CPU4によるフラッシュメモリ2の制御に必要なデータが一時的に格納される作業領域であり、特に限定されるものではないが、複数のSRAMセルによって構成することが好ましい。以下に詳述するが、アドレス変換テーブルもRAM5内に格納される。ROM6は、CPU4が実行すべき制御プログラム(ファームウェア)を格納するための機能ブロックである。また、FIFO7は、フラッシュメモリ2に書き込むべきデータ及びフラッシュメモリ2から読み出されたデータを一時的に格納するためのメモリである。
【0029】
次に、フラッシュメモリ2に含まれるメモリセルの具体的な構造について説明する。
【0030】
図2は、フラッシュメモリ2に含まれる各メモリセル10の構造を概略的に示す断面図である。図2に示すように、メモリセル10は、P型半導体基板11に形成されたN型のソース拡散領域12及びドレイン拡散領域13と、ソース拡散領域12とドレイン拡散領域13との間のP型半導体基板11を覆って形成されたトンネル酸化膜14と、トンネル酸化膜14上に形成されたフローティングゲート電極15と、フローティングゲート電極15上に形成された絶縁膜16と、絶縁膜16上に形成されたコントロールゲート電極17とから構成される。このような構成を有するメモリセル10は、フラッシュメモリ2内において、複数個直列に接続されて、NAND型フラッシュメモリを構成する。
【0031】
メモリセル10は、フローティングゲート電極15に電子が注入されているか否かによって、「消去状態」と「書込状態」のいずれかの状態となる。メモリセル10が消去状態であることは、当該メモリセル10にデータ「1」が保持されていることを意味し、メモリセル10が書込状態であることは、当該メモリセル10にデータ「0」が保持されていることを意味する。すなわち、メモリセル10は、1ビットのデータを保持することが可能である。
【0032】
図2に示すように、消去状態とは、フローティングゲート電極15に電子が注入されていない状態を指す。消去状態におけるメモリセル10は、デプレッション型のトランジスタとなり、コントロールゲート電極17に読み出し電圧が印加されているか否かに関わらず、ソース拡散領域12とドレイン拡散領域13との間のP型半導体基板11の表面にはチャネル18が形成される。したがって、ソース拡散領域12とドレイン拡散領域13とは、コントロールゲート電極17に読み出し電圧が印加されているか否かに関わらず、チャネル18によって常に電気的に接続状態となる。
【0033】
図3は、書込状態であるメモリセル10を概略的に示す断面図である。図3に示すように、書込状態とは、フローティングゲート電極15に電子が蓄積されている状態を指す。フローティングゲート電極15はトンネル酸化膜14及び絶縁膜16に挟まれているため、一旦、フローティングゲート電極15に注入された電子は、きわめて長時間フローティングゲート電極15内にとどまる。書込状態におけるメモリセル10は、エンハンスメント型のトランジスタとなり、コントロールゲート電極17に読み出し電圧が印加されていないときには、ソース拡散領域12とドレイン拡散領域13との間のP型半導体基板11の表面にはチャネルが形成されず、コントロールゲート電極17に読み出し電圧が印加されているときには、ソース拡散領域12とドレイン拡散領域13との間のP型半導体基板11の表面にチャネル(図示せず)が形成される。したがって、コントロールゲート電極17に読み出し電圧が印加されていない状態では、ソース拡散領域12とドレイン拡散領域13とは電気的に絶縁され、コントロールゲート電極17に読み出し電圧が印加された状態では、ソース拡散領域12とドレイン拡散領域13とが電気的に接続される。
【0034】
ここで、選択されたメモリセル10が消去状態であるか書込状態であるかは、次のようにして読み出すことができる。すなわち、複数個直列に接続されたメモリセル10のうち、選択されたメモリセル10以外の全てのメモリセル10のコントロールゲート電極17に読み出し電圧を印加し、この状態において、これらメモリセル10の直列体に電流が流れるか否かを検出する。その結果、かかる直列体に電流が流れれば、選択されたメモリセル10が消去状態であると判断することができ、かかる直列体に電流が流れなければ、選択されたメモリセル10が書込状態であると判断することができる。このようにして、直列体に含まれる任意のメモリセル10に保持されたデータが「0」であるのか「1」であるのかを読み出すことができる。但し、NAND型フラッシュメモリにおいては、ひとつの直列体に含まれる2以上のメモリセル10に保持されたデータを同時に読み出すことはできない。
【0035】
また、消去状態であるメモリセル10を書込状態に変化させる場合、コントロールゲート電極17に正の高電圧が印加され、これによって、トンネル酸化膜14を介してフローティングゲート電極15へ電子が注入される。フローティングゲート電極15への電子の注入は、FNトンネル電流による注入が可能である。一方、書込状態であるメモリセル10を消去状態に変化させる場合、コントロールゲート電極17に負の高電圧が印加され、これによって、トンネル酸化膜14を介してフローティングゲート電極15に蓄積された電子が排出される。
【0036】
次に、フラッシュメモリ2の持つアドレス空間の具体的な構成について説明する。
【0037】
図4は、フラッシュメモリ2のアドレス空間の構造を概略的に示す図である。図4に示すように、フラッシュメモリ2のアドレス空間は、ブロック#0〜#n−1からなるn個のブロックによって構成される。ここで、各ブロックは、データの消去単位である。すなわち、フラッシュメモリ2では、各メモリセル10ごとに、その状態を書込状態から消去状態に変化させることはできず、メモリセル10を書込状態から消去状態に変化させる場合は、当該メモリセル10が属するブロックに含まれる全てのメモリセル10を一括して消去状態とする必要がある。逆に、各メモリセル10ごとにその状態を消去状態から書込状態に変化させることは可能である。
【0038】
さらに、図4に示すように、フラッシュメモリ2を構成する各ブロック#0〜#n−1は、それぞれページ#0〜#k−1からなるk個のページによって構成されている。これら各ページはデータの読み出し及び書き込みにおけるアクセス単位であり、図4に示すように、ビットb0〜b7からなる8ビットを1バイトとして、例えばそれぞれ512バイトのユーザ領域21と16バイトの冗長領域22によって構成される。ユーザ領域21は、ホストコンピュータより供給されるユーザデータが格納される領域である。
【0039】
ここで、n個のブロック#0〜#n−1は、ゾーン#0〜#p−1(pは3以上の整数であり、且つ、nの約数である)からなるp個のゾーンに分類される。したがって、各ゾーンはn/p(=m)個のブロックによって構成されることになる。また、ゾーン#q(qは0〜p−1のいずれか)はブロック#m×q〜#m×q+m−1によって構成される。例えば、
n=8192(=8K)
p=8
であるとすれば、各ゾーンはm=1024個のブロックによって構成され、具体的には、ゾーン#qはブロック#1024q〜#1024q+1023によって構成されることになる。フラッシュメモリ2のアドレス空間をp個のゾーンに分類するのは、アドレス変換テーブルの記録容量を節約するためであり、その詳細については後述する。
【0040】
図5は、冗長領域22のデータ構造を概略的に示す図である。図5に示すように、冗長領域22は、論理ブロックアドレス格納領域23及びその他の付加情報を格納するための領域24によって構成される。
【0041】
論理ブロックアドレス格納領域23は、当該ブロックに対応する論理ブロックアドレスを格納するための領域であり、少なくともx個(x=logm)のメモリセル10が割り当てられる。ここで、論理ブロックアドレスとは、ホストアドレスの一部若しくはホストアドレスの一部に基づいて生成されたアドレスであり、ホストコンピュータ側から見た各ゾーンにおけるブロック番号を示している。したがって、論理ブロックアドレスは各ゾーンにおいて一義的に割り当てられ、少なくともxビットで構成される。論理ブロックアドレス格納領域23は、各ページに含まれる冗長領域22が共通に備える要素であるが、一つのブロックはk個のページからなるため、一つのブロックを構成する全てのページの論理ブロックアドレス格納領域23に論理ブロックアドレスを格納しておく必要はなく、少なくとも各ブロックの先頭ページ(ページ#0)の論理ブロックアドレス格納領域23に論理ブロックアドレスを格納すれば足りる。また、消去済みのブロックについては全てのメモリセル10が消去状態(1)となっていることから、論理ブロックアドレス格納領域23がx個のメモリセル10からなる場合、論理ブロックアドレス格納領域23に格納される値はm−1(=2−1)となる。一方、何らかのユーザデータが格納されているブロックについては、対応する論理ブロックアドレスの値が論理ブロックアドレス格納領域23に格納されている。
【0042】
尚、領域24には、対応するユーザ領域21に格納されたユーザデータの誤りを訂正するための付加情報(エラーコレクションコード)や、当該ブロックについての異常を表示するブロックステータス等が格納されているが、これらについては、本発明の要旨と直接関係がないため、説明は省略する。
【0043】
以上のように、フラッシュメモリ2はn個のブロックによって構成され、これらはそれぞれm個のブロックからなるp個のゾーンに分類されているが、各ゾーンに含まれるm個のブロックのうち、m’(<m)個のブロックは実際にデータを格納することができる実使用ブロックとして取り扱われ、残りのm−m’個のブロックは冗長ブロックとして取り扱われる。フラッシュメモリ2のアドレス空間は、実使用ブロックのみによって構成され、あるブロックに不良が発生し使用不能となった場合には、不良が発生したブロックの数だけ冗長ブロックとして用いられるブロックの数が減らされる。
【0044】
次に、RAM5内に作成される各種テーブルについて説明する。
【0045】
RAM5内に作成される各種テーブルには、少なくとも、アドレス変換テーブル、管理テーブル、優先リンク及び書き込みキューが含まれ、これらはコントローラ3に対して電源投入またはリセット動作がなされた場合に、ROM6に格納されているファームウェアに基づきCPU4によって作成される。
【0046】
アドレス変換テーブルは、ホストアドレスに基づき生成される論理ブロックアドレスと各ブロックに対して一義的に割り当てられた物理ブロックアドレスとの対応関係を保持するためのテーブルであり、以下の構造を有している。
【0047】
図6は、RAM5内に作成されるアドレス変換テーブル31のデータ構造を示す図である。図6に示すように、アドレス変換テーブル31は、テーブル#0〜#r−1(rは2〜p−1の整数)からなるr個のテーブルからなる。各テーブル#0〜#r−1は、それぞれゾーン#0〜ゾーン#p−1のいずれか一つのゾーンに関するアドレス変換情報を格納するための領域であり、上述の通りr<pであることから、アドレス変換テーブル31に全て(p個)のゾーンに関するアドレス変換情報を格納することはできず、一部(r個)のゾーンに関するアドレス変換情報しか格納することができない。これは、アドレス変換テーブル31に必要とされる記憶容量を節約することにより、製品コストを下げるために他ならない。
【0048】
各テーブル#0〜#r−1は、物理ブロックアドレス格納領域#0〜物理ブロックアドレス格納領域#m−1からなるm個の物理ブロックアドレス格納領域と、これら物理ブロックアドレス格納領域にそれぞれ対応して設けられたm個のフラグからなる。ここで、各物理ブロックアドレス格納領域に対して一義的に割り当てられた領域番号(#0〜#m−1)は論理ブロックアドレスを示し、各物理ブロックアドレス格納領域に格納された内容は、対応する物理ブロックアドレスを示している。したがって、例えば物理ブロックアドレス格納領域#i(iは0〜m−1のいずれか)に格納されている物理ブロックアドレスが#jであれば、論理ブロックアドレス=#iが物理ブロックアドレス=#jに対応することになる。
【0049】
また、フラグ#0〜フラグ#m−1は、それぞれ対応する物理ブロックアドレス格納領域の内容(物理ブロックアドレス)が有効であるか否かを示している。具体的には、フラグが「0」であれば、対応する物理ブロックアドレス格納領域の内容が有効であることを意味し、フラグが「1」であれば、対応する物理ブロックアドレス格納領域の内容が無効であることを意味する。もちろん、逆に、物理ブロックアドレス格納領域の内容が有効である場合に、対応するフラグを「1」としても構わない。
【0050】
管理テーブルは、各テーブル#0〜#r−1に格納されているアドレス変換情報がそれぞれどのゾーンに関するアドレス変換情報であるのかを示すためのテーブルであり、以下の構造を有している。
【0051】
図7は、RAM5内に作成される管理テーブル32のデータ構造を示す図である。図7に示すように、管理テーブル32は、ゾーン番号格納領域#0〜#r−1からなるr個のゾーン番号格納領域からなる。各ゾーン番号格納領域#0〜#r−1はそれぞれテーブル#0〜#r−1に対応しており、ここに格納されている値が対応するゾーン番号を示している。一例として、テーブル#2に格納されているアドレス変換情報がゾーン#5に関するアドレス変換情報である場合には、ゾーン番号格納領域#2にはゾーン番号として「5」が格納される。したがって、管理テーブル32を参照すれば、各テーブル#0〜#r−1と各ゾーン#0〜#p−1との関係を知ることが可能となる。
【0052】
優先リンクは、アドレス変換テーブル31を構成する各テーブル#0〜#r−1の優先順位を示す要素であり、以下の構造を有している。
【0053】
図8は、RAM5内に作成される優先リンク33のデータ構造を示す図である。図8に示すように、優先リンク33は、ポインタ#0〜#r−1からなるr個のポインタによって構成される。優先リンク33によって、アドレス変換テーブル31を構成するr個のテーブル#0〜#r−1の優先順位を示す具体的な方法について説明する前に、これらr個のテーブル#0〜#r−1に優先順位を設ける必要性について説明する。
【0054】
上述のとおり、アドレス変換テーブル31を構成するテーブルの数(r個)は、フラッシュメモリ2のアドレス空間を構成するゾーンの数(p個)よりも少なく、このため、アドレス変換テーブル31に展開されるアドレス変換情報は、一部のゾーンに関わるアドレス変換情報に限られる。したがって、アドレス変換テーブル31にアドレス変換情報が展開されていないゾーンに対して、ホストコンピュータからアクセスが要求された場合には、アドレス変換テーブル31の内容を更新する必要がある。すなわち、CPU4は、アドレス変換テーブル31を構成するr個のテーブル#0〜#r−1の中からいずれか1つのテーブルを選び、その内容を消去して、アクセスが要求されたゾーンに関わるアドレス変換情報を当該テーブル内に新たに格納する必要がある。したがって、テーブル#0〜#r−1の中から、その内容が消去されるべきテーブルを選ぶためには、テーブル#0〜#r−1に優先順位を設け、優先順位の低いテーブルから順にその内容を消去する必要がある。
【0055】
かかる理由から、アドレス変換テーブル31を構成するr個のテーブル#0〜#r−1には優先順位が与えられ、かかる優先順位を記憶するために優先リンク33が設けられるのである。優先リンク33を用いたテーブル#0〜#r−1の優先順位の記憶方法は次の通りである。
【0056】
すなわち、優先リンク33を構成するポインタ#0〜#r−1には、リンク先ポインタ番号として値「0」〜「r−1」及びデータ「NULL」のいずれかが互いに重複しないように格納され、その結果、いずれのポインタにも格納されていない値(0〜r−1)に対応するテーブルが最も優先順位の高いテーブルとなる。例えば、値「2」がいずれのポインタにも格納されていない場合には、テーブル#2が最も優先順位の高いテーブルとなる。
【0057】
次に、最も優先順位の高いテーブルと同じ番号を持つポインタに格納されている値(0〜r−1)に対応するテーブルが2番目に優先順位の高いテーブルとなる。上記の例のように、テーブル#2が最も優先順位の高いテーブルである場合、ポインタ#2に格納されている値(例えば「0」)に対応するテーブルが2番目に優先順位の高いテーブルとなる。
【0058】
同様に、2番目に優先順位の高いテーブルと同じ番号を持つポインタに格納されている値(0〜r−1)に対応するテーブルが3番目に優先順位の高いテーブルとなり、以下、このようなリンク作業を次々と行うことによって、全てのテーブル#0〜#r−1についての優先順位を特定することができる。最も優先順位の低いテーブルと同じ番号を持つポインタにはデータ「NULL」が格納され、これにより、優先リンク33を参照すれば現在最も優先順位の低いテーブルを直ちに特定することが可能となる。
【0059】
書き込みキューは、消去済みの空きブロックの登録テーブルであり、以下の構造を有している。
【0060】
図9は、RAM5内に作成される書き込みキュー34のデータ構造を示す図である。図9に示すように、書き込みキュー34は、キュー#0〜キュー#r−1からなるr個のキューによって構成され、各キューには、対応するゾーンに含まれる消去済みブロックの物理ブロックアドレスが格納されている。ここで、対応するゾーンとは、各キューのキュー番号と同じ番号を持つテーブルにアドレス変換情報が格納されているゾーンを指す。例えば、ゾーン#7に関するアドレス変換情報がテーブル#1に格納されているとすれば、キュー#1に対応するゾーンはゾーン#7であり、ゾーン#7を構成するブロックのうち消去済みであるブロックの物理ブロックアドレスがキュー#1に格納される。
【0061】
尚、図9に示す書き込みキュー34はr個のキューによって構成されているが、rの整数倍個のキューを用いることにより、対応するゾーンに含まれる消去済みブロックの物理ブロックアドレスを複数個格納可能に構成しても構わない。
【0062】
以上が、本実施態様にかかるフラッシュメモリシステムの構成である。次に、本実施態様にかかるフラッシュメモリシステム1の動作について説明する。
【0063】
図10は、アドレス変換テーブル31の新規作成方法を示すフローチャートである。アドレス変換テーブル31の新規作成は、コントローラ3に対して電源投入またはリセット動作がなされたことに応答して、CPU4がROM6に格納されているファームウェアを実行することにより行われる動作であり、電源投入またはリセット動作に応答したコントローラ3の初期設定動作の一つを構成する。
【0064】
まず、コントローラ3に対して電源投入またはリセット動作がなされると、CPU4は、RAM5のうちアドレス変換テーブル31を構成するビットを全て「1」にリセットする(ステップS1)。次いで、CPU4は、内部変数a及びbの値を0にリセットし(ステップS2)、ブロック番号が
a×m+b
に一致するブロックの先頭ページ(ページ#0)に格納されている論理ブロックアドレスを読み出す(ステップS3)。上述の通り、「m」とは総ブロック数nをゾーン数pで除した値(=n/p)であり、一つのゾーンを構成するブロック数を表している。この場合、内部変数a=b=0であるから、ブロック#0のページ#0に格納されている論理ブロックアドレスが読み出されることになる。
【0065】
次に、CPU4は、読み出された論理ブロックアドレスが「オール1」であるか否か、すなわちm−1であるかを判断し(ステップS4)、その結果、読み出された論理ブロックアドレスが「オール1(=m−1)」以外であれば(S4:NO)、テーブル番号が内部変数aに一致するテーブルのうち、フラグ番号が論理ブロックアドレスに一致するフラグを「0」に書き替える(ステップS5)とともに、領域番号が論理ブロックアドレスに一致する物理ブロックアドレス格納領域に内部変数bを格納する(ステップS6)。一方、ステップS4において、読み出された論理ブロックアドレスが「オール1(=m−1)」であれば(S4:YES)、上記ステップS5及びステップS6は実行されない。
【0066】
そして、CPU4は、内部変数bをインクリメントした後(ステップS7)、内部変数bがmに一致しているか否かを判断し(ステップS8)、その結果、内部変数bがmではない場合(S8:NO)にはステップS3に戻って、内部変数a及びbを用いた論理ブロックアドレスの読み出しを行う。一方、内部変数bがmに一致している場合(S8:YES)には、内部変数aをインクリメントした後(ステップS9)、内部変数aがrに一致しているか否かを判断し(ステップS10)、その結果、内部変数aがrではない場合(S10:NO)にはステップS3に戻って、内部変数a及びbを用いた論理ブロックアドレスの読み出しを行う。一方、内部変数aがrに一致している場合(S10:YES)には、一連の処理を完了する。上述の通り、「r」とはアドレス変換テーブル31を構成するテーブルの数を表している。
【0067】
以上のようにして、内部変数aがrに一致するまでステップS3〜ステップS10が繰り返し実行され、これによってアドレス変換テーブル31が完成する。すなわち、内部変数bがmに一致するまでステップS3〜S8からなるループを繰り返すことによって、一つのゾーンに関するアドレス変換情報が所定のテーブルに格納され、内部変数aがrに一致するまでステップS3〜S10からなるループを繰り返すことによって、全てのテーブルにアドレス変換情報が格納されることになる。具体的には、図10に示す動作を実行することにより、ゾーン#0〜ゾーン#r−1に関するアドレス変換情報がそれぞれテーブル#0〜#r−1に格納されたことになる。
【0068】
尚、上記例では、アドレス変換テーブル31にアドレス変換情報を格納する対象としてゾーン#0〜ゾーン#r−1を選択しているが、本動作はコントローラ3に対する電源投入直後またはリセット直後に実行されるアドレス変換テーブル31の新規作成動作であることから、ゾーン#0〜ゾーン#r−1に限定されず、いずれのゾーンを対象としても構わない。
【0069】
また、アドレス変換テーブル31の新規作成動作が完了した後、或いは、アドレス変換テーブル31の新規作成動作と並行して、初期設定動作における他の動作、つまり、管理テーブル32の作成、優先リンク33の作成及び書き込みキュー34の作成が行われる。
【0070】
すなわち、管理テーブル32を構成するゾーン番号格納領域#0〜#r−1にはそれぞれゾーン番号として#0〜#r−1が格納され、これによりゾーン#0〜ゾーン#r−1に関するアドレス変換情報がそれぞれテーブル#0〜#r−1に格納されている旨が表示される。
【0071】
また、優先リンク33を構成するポインタ#0〜#r−2にはそれぞれ「1」〜「r−1」が格納され、ポインタ#r−1にはデータ「NULL」が格納される。これにより、テーブル#0〜#r−1の優先順位はこの順となる。但し、現時点ではまだ実際にアクセスがされておらず、優先順位を決める手がかりがないことから、ここで決定した優先順位はあくまで暫定的なものである。したがって、テーブル#0〜#r−1の優先順位としてはこの順とすることは必須ではなく、これと異なる順序としても構わない。
【0072】
そして、ゾーン#0〜#r−1に含まれる消去済みブロックが一つずつ選ばれ、その物理ブロックアドレスが書き込みキュー34を構成するキュー#0〜#r−1に登録される。
【0073】
以上により、電源投入またはリセット動作に応答したコントローラ3の初期設定動作が完了する。
【0074】
次に、アドレス変換テーブル31等が作成された後、すなわち初期設定が完了した後におけるフラッシュメモリ2へのアクセス方法について、データの読み出し動作及びデータの書き込み動作の順に説明する。また、データの書き込み動作については、データが全く割り当てられていない論理ブロックアドレスに対して新規にデータを割り当てる場合(データの新規書込動作)と、既にデータが割り当てられている論理ブロックアドレスに対して追加して或いは重ねてデータを割り当てる場合(データの上書き動作)に分けて説明する。
【0075】
まず、データの読み出し動作について説明する。
【0076】
図11は、データの読み出し動作を示すフローチャートである。かかる動作も、CPU4がROM6に格納されているファームウェアを実行することによって行われる。
【0077】
データの読み出し動作において、ホストコンピュータよりホストアドレスが供給されると、CPU4はまず、READY/BUSY信号(図1参照)をBUSY状態とするとともに、ホストアドレスに基づいてゾーンアドレス、論理ブロックアドレス及びページアドレスを作成する(ステップS11)。具体的には、ホストアドレスの上位ビットをm’(1ゾーンに含まれる実使用ブロック数)で除算し、その商に基づいてゾーンアドレスを特定するとともに、剰余に基づいて論理ブロックアドレスを特定する。一例として、フラッシュメモリ2が8個(p=2)のゾーンに分割されており、各ゾーンが1024個(m=210)のブロックからなり、さらに、一つのブロックが32個(k=2)のページからなる場合、少なくとも18ビットのホストアドレスが用いられ、その上位13ビットをm’(例えば1000)で除することにより得られる商がゾーンアドレスとなり、剰余が論理ブロックアドレスとなる。また、ホストアドレスの下位5ビットがそのままページアドレスとなる。
【0078】
次に、CPU4は、RAM5内に作成された管理テーブル32を参照することによって、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されているか否かを判断する(ステップS12)。ここで、アクセスすべきゾーンとは、ステップS11において得られたゾーンアドレスによって特定され、ゾーンアドレスと同じ番号を持つゾーンが該当する。また、上記判断は、管理テーブル32を構成するゾーン番号格納領域#0〜#r−1のいずれかにゾーンアドレスと同じ値が格納されているか否かによって行われ、これが格納されている場合には、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていると判断され、格納されていない場合には、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていないと判断される。
【0079】
その結果、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていると判断された場合(S12:YES)、さらにCPU4は、アクセスすべきゾーンに対応するテーブルが完全であるか不完全であるかを判断する(ステップS13)。ここで、アクセスすべきゾーンに対応するテーブルとは、ゾーンアドレスと同じ値が格納されていたゾーン番号格納領域と同じ番号を持つテーブルを指す。例えば、ゾーンアドレスと同じ値がゾーン番号格納領域#1に格納されていた場合には、完全であるか否かが判断されるテーブルはテーブル#1となる。テーブルが完全であるか否かの具体的な判断方法としては特に限定されず、例えば、テーブルが完全であるか否かを示すフラグを設けこれを参照することによって行うことができる。
【0080】
その結果、アクセスすべきゾーンに対応するテーブルが完全であると判断された場合(S13:YES)、CPU4はかかるテーブルを参照することにより論理ブロックアドレスを物理ブロックアドレスに変換する(ステップS14)。具体的なアドレス変換の方法は次の通りである。すなわち、選択されたテーブルの中から、領域番号が論理ブロックアドレスに一致する物理ブロックアドレス格納領域にアクセスし、ここに格納されている物理ブロックアドレスを読み出すことにより変換を行う。尚、本例はデータの読み出し動作であり、当該ホストアドレスに対応するブロックには原則としてユーザデータが割り当てられているはずであるから、対応するフラグは「0(有効)」となっているはずである。但し、ホストコンピュータによっては、ユーザデータの割り当てられていないホストアドレスに対して読み出し要求を行う場合もある。
【0081】
一方、ステップS12において、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていないと判断された場合には(S12:NO)、テーブルの更新動作が実行される。テーブルの更新動作については後述する。
【0082】
また、ステップS13において、アクセスすべきゾーンに対応するテーブルが不完全であると判断された場合には(S13:NO)、テーブルの完成動作が実行される。テーブルの完成動作についても後述する。
【0083】
次にCPU4は、上記ゾーンアドレス、アドレス変換テーブル31から読み出された物理ブロックアドレス及び上記ページアドレスに基づいてフラッシュメモリ2にアクセスし、対応するページに格納されているデータを読み出す(ステップS15)。この場合、アクセスされるブロックはゾーンアドレス及び物理ブロックアドレスによって特定され、アクセスされるページはページアドレスによって特定される。
【0084】
そして、読み出したデータをFIFO7に一時的に格納し、READY/BUSY信号をREADY状態とする(ステップS16)。READY状態とは、コントローラ3が待ち状態であり、ホストコンピュータからのアクセスを受け付け可能であることを意味し、ホストコンピュータはこれに応答してFIFO7に格納されているユーザデータを読み出す。ホストコンピュータがFIFO7に格納されているユーザデータを読み出す際には、そのデータ転送は一般に1バイトずつ実行される。したがって、1ページが512バイトのユーザデータからなる場合、ホストコンピュータは512回の読み出しを実行することによって一連のデータ転送を完了する。
【0085】
この間、CPU4は優先リンク33の更新を行う(ステップS17)。優先リンク33の具体的な更新手順は次の通りである。まず、いま使用されたテーブル(アクセスされたゾーンに対応するテーブル)のテーブル番号と同じ値が格納されているポインタに、いま使用されたテーブルのテーブル番号と同じ番号を持つポインタに格納されている値を上書きする。次に、いま使用されたテーブルのテーブル番号と同じ番号を持つポインタに、現在最も優先順位の高いテーブルのテーブル番号をリンク先ポインタ番号として上書きする。これにより優先リンク33の更新が完了し、いまアクセスされたゾーンに対応するテーブルの優先順位が最も高くなる。
【0086】
具体例を用いて説明すると、アドレス変換テーブル31を構成するテーブルの数(=優先リンク33を構成するポインタの数)であるrが「4」であり、上記初期設定動作が完了した直後の状態(ポインタ#0〜#2にそれぞれ「1」〜「3」が格納され、ポインタ#3にデータ「NULL」が格納されている状態)においてテーブル#2が使用された場合、いま使用されたテーブルのテーブル番号である「2」が格納されているポインタ#1に、いま使用されたテーブルのテーブル番号である「2」と同じ番号を持つポインタ#2に格納されている値「3」を上書きする。そして、いま使用されたテーブルのテーブル番号である「2」と同じ番号を持つポインタ#2に、現在最も優先順位の高いテーブルのテーブル番号である「0」を上書きする。これによりポインタ#0〜#3の内容はそれぞれ「1」、「3」、「0」及び「NULL」となるので、テーブル#0〜#3の優先順位はテーブル#2、#0、#1、#3の順となる。
【0087】
さらにCPU4は、今アクセスされたゾーンの次のゾーンに関するアドレス変換情報がアドレス変換テーブル31に格納されているか否かを判断する(ステップS18)。ここで、今アクセスされたゾーンの次のゾーンとは、ホスト側から見て今アクセスされたゾーンの次に位置するゾーンをいい、今アクセスされたゾーンをゾーン#q(qは0〜p−1のいずれか)とすれば、ゾーン#q+1を指す。したがって、今アクセスされたゾーンが最終ゾーンであるゾーン#p−1である場合には、次のゾーンは存在しない。また、上記判断はステップS12における判断と同様、管理テーブル32を構成するゾーン番号格納領域#0〜#r−1のいずれかに値「q+1」が格納されているか否かによって行われ、これが格納されている場合には、次のゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていると判断され、格納されていない場合には、次のゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていないと判断される。ここで、次のゾーンに関するアドレス変換情報がアドレス変換テーブル31に格納されているか否かを判断する理由は、後述するように、あるゾーンに対するデータの読み出しが行われた場合、その後、続けて次のゾーンに対するデータの読み出しが要求される可能性が高いことから、次のゾーンに対するデータの読み出しが実際に要求される前に、アドレス変換テーブル31を投機的に更新しておくためである。
【0088】
その結果、次のゾーンに関するアドレス変換情報がアドレス変換テーブル31に格納されていると判断された場合(S18:YES)には、当該次のゾーンに対応するテーブルが完全であるか不完全であるかを判断する(ステップS19)。その結果、次のゾーンに対応するテーブルが不完全であると判断された場合には(S19:NO)、後述するテーブルの完成動作が実行される。ステップS19において次のゾーンに対応するテーブルが完全であると判断された場合には(S19:YES)、一連の処理を完了する。
【0089】
一方、ステップS18において、次のゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていないと判断された場合には(S18:NO)、テーブルの更新動作が実行される。
【0090】
次に、テーブルの更新動作について説明する。
【0091】
図12は、テーブルの更新動作を示すフローチャートである。上述の通り、テーブルの更新動作は、図11に示すステップS12において、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていないと判断された場合や、図11に示すステップS18において、今アクセスされたゾーンの次のゾーンに関するアドレス変換情報がアドレス変換テーブル31に格納されていないと判断された場合に実行される。かかる動作も、CPU4がROM6に格納されているファームウェアを実行することによって行われる。
【0092】
テーブルの更新動作においては、CPU4はまず、RAM5内に作成された優先リンク33を参照することによって、優先順位の最も低いテーブルを特定する(ステップS21)。ここで、優先順位の最も低いテーブルの特定は、優先リンク33を構成するポインタ#0〜#r−1のうち、データ「NULL」が格納されているポインタを探すことにより行われ、データ「NULL」が格納されているポインタのポインタ番号と同じ番号を持つテーブルが優先順位の最も低いテーブルであると判断される。以下、新たにアドレス変換情報が格納されるゾーンのゾーンアドレスを「c」として説明を続ける。ここで、新たにアドレス変換情報が格納されるゾーンとは、図11に示すステップS12から分岐した場合(S12:NO)においてはアクセスすべきゾーン(ステップS11において得られたゾーンアドレスに対応するゾーン)を指し、図11に示すステップS18から分岐した場合(S18:NO)においては今アクセスされたゾーンの次のゾーンを指す。
【0093】
次に、CPU4は管理テーブル32の内容を更新し、ステップS21において優先順位が最も低いと判断されたテーブルと新たにアドレス変換情報が格納されるゾーンとを関連づける(ステップS22)。すなわち、対応するゾーン番号格納領域に「c」を格納する。
【0094】
次いで、CPU4は、内部変数dの値を0にリセットし(ステップS23)、ブロック番号が
c×m+d
に一致するブロックの先頭ページ(ページ#0)に格納されている論理ブロックアドレスを読み出す(ステップS24)。この場合、内部変数d=0であるから、新たにアドレス変換情報が格納されるゾーンの先頭ブロック#(c×m)のページ#0に格納されている論理ブロックアドレスが読み出されることになる。
【0095】
次に、CPU4は、読み出された論理ブロックアドレスが「オール1」であるか否か、すなわちm−1であるかを判断し(ステップS25)、その結果、読み出された論理ブロックアドレスが「オール1(=m−1)」以外であれば(S25:NO)、ステップS21において優先順位が最も低いと判断されたテーブルのうち、フラグ番号が論理ブロックアドレスに一致するフラグを「0」に書き替える(ステップS26)とともに、領域番号が論理ブロックアドレスに一致する物理ブロックアドレス格納領域に内部変数dを格納する(ステップS27)。一方、ステップS25において、読み出された論理ブロックアドレスが「オール1(=m−1)」であれば(S25:YES)、ステップS21において優先順位が最も低いと判断されたテーブルのうち、フラグ番号が論理ブロックアドレスに一致するフラグを「1」に書き替える(ステップS28)。
【0096】
そして、CPU4は、内部変数dをインクリメントした後(ステップS29
)、内部変数dがmに一致しているか否かを判断し(ステップS30)、その結果、内部変数dがmではない場合(S30:NO)にはステップS24に戻って、内部変数d等を用いた論理ブロックアドレスの読み出しを行う。一方、内部変数dがmに一致している場合(S30:YES)には、テーブルの更新動作を完了し、図11に示すステップS12から分岐した場合(S12:NO)においてはステップS14に復帰し、図11に示すステップS18から分岐した場合(S18:NO)においては一連の処理を終了する。
【0097】
以上のようにして、内部変数dがmに一致するまでステップS24〜ステップS30からなるループを繰り返すことによって、優先順位が最も低いテーブルの内容が、アクセス対象となるゾーンに関するアドレス変換情報に更新される。
【0098】
尚、上記例では、優先順位が最も低いテーブルに対応するゾーンがどのゾーンであるかに関わらず当該テーブルの内容を更新しているが、優先順位が最も低いテーブルに対応するゾーンが先頭ゾーンであるゾーン#0である場合には、優先順位が次に低いテーブルを更新対象とすることが好ましい。これは、上述の通り、先頭ゾーンであるゾーン#0にはアクセス頻度の高いファイルが格納されることが多く、このため、ゾーン#0に関するアドレス変換情報を破棄するとパフォーマンスが低下するおそれがあるからである。
【0099】
また、テーブルの更新動作が完了した後、或いは、テーブルの更新動作と並行して書き込みキュー34の作成が行われる。すなわち、ゾーン#cに含まれる消去済みブロックが一つ選ばれ、その物理ブロックアドレスが書き込みキュー34を構成するキュー#0〜#r−1のうち、更新されたテーブルに対応するキューに登録される。
【0100】
さて、図12に示すテーブルの更新動作は、図11に示すステップS12から分岐した場合(S12:NO)においてはステップS30において内部変数dがmに一致していると判断されるまで実行されるが、図11に示すステップS18から分岐した場合(S18:NO)においては、既にステップS16でREADY/BUSY信号がREADY状態とされているので、ホストコンピュータからの次のアクセスを受ける可能性がある。さらに、ホストコンピュータより要求されたデータの読み出し(図11)が連続する複数ページを対象としている場合、FIFO7に格納されたデータの転送が完了すると、コントローラ3は次のページに対するデータの読み出しを開始する必要がある。このような場合には、図12に示すテーブルの更新動作を一旦中断し、コントローラ3は、ホストコンピュータから新たに要求された処理(例えば、次のデータ読み出し処理)や次のページに対するデータの読み出しを実行する。テーブルの更新動作を中断する場合には、RAM5内に内部変数dを保存しておく必要がある。不完全なテーブルが発生するのは、主にこのような理由によるものである。
【0101】
そして、この中断がホストコンピュータから次のアクセスを受けたためである場合、要求された処理が同じゾーンに対する読み出し処理であれば、これを実行しREADY/BUSY信号を再びREADY状態とした後に、中断したテーブルの更新動作を再開すればよい。また、この中断がホストコンピュータから次のアクセスを受けたためであって、要求された処理が次のゾーン、すなわち対応するテーブルが不完全な状態となっているゾーンに対する読み出し処理であれば、図11に示すステップS13においてテーブルが不完全であると判断されて(S13:NO)、後述するテーブルの完成動作が行われる。但し、ホストコンピュータから要求された処理が、同じゾーン及び次のゾーンのいずれでもないゾーンに対する読み出し処理であれば、かかる不完全なテーブルの内容は破棄される。
【0102】
また、この中断が次のページに対するデータの読み出しを行うためである場合には、次のページのデータが読み出されFIFO7に格納されたことに応答して中断したテーブルの更新動作を再開すればよい。この様子をタイミング図を用いてより詳細に説明する。
【0103】
図13は、ホストコンピュータより要求されたデータの読み出しが連続する複数ページを対象としている場合における、テーブルの更新動作の中断/再開のタイミングを示すタイミング図である。
【0104】
図13に示すように、まずホストコンピュータよりアドレス及びコマンドが発行され、コントローラ3がこれを受信すると(アドレス受信、コマンド受信)、READY/BUSY信号がREADY状態からBUSY状態に変化し、内部アドレスが生成される(アドレス生成)。ここで、ホストコンピュータより供給されるアドレスは、読み出し対象となる複数ページのうち先頭のページを特定するためのアドレスであり、ホストコンピュータより供給されるコマンドは、読み出し命令であることを示すとともに、読み出しを行うべきページ数(例えば、前記先頭ページから100ページ等)を特定するためのコマンドである。また、アドレス生成とは、図11に示すステップS11〜S14に対応する動作であり、上述の通り、必要なアドレス変換情報がアドレス変換テーブル31内に格納されていない場合には(S12:NO)、図12に示すテーブルの更新動作が含まれることになる。また、参照すべきテーブルが不完全である場合には(S13:NO)、後述するテーブルの完成動作が含まれることになる。
【0105】
内部アドレスが生成されると、これを用いて実際にフラッシュメモリ2への読み出しが実行され、読み出されたユーザデータがFIFO7に格納される(Read)。かかる動作は、図11に示すステップS15及びS16に対応する動作である。
【0106】
ユーザデータがFIFO7に格納されると、READY/BUSY信号がREADY状態に変化し、ホストコンピュータはこれに応答してFIFO7に格納されたデータの読み出しを行う。すなわち、フラッシュメモリ2からホストコンピュータへのデータ転送が行われる。この間、次のゾーンに関するアドレス変換情報をアドレス変換テーブル31に格納するためのテーブルの更新動作が行われる(テーブル更新)。ホストコンピュータへのデータ転送速度やフラッシュメモリ2及びコントローラ3の動作速度にもよるが、一般的には、1ページ分のデータをホストコンピュータに転送する間にテーブルの更新動作を完了することは困難である。すなわち、テーブルの更新動作の途中でホストコンピュータへのデータ転送が完了するため、コントローラ3はテーブルの更新動作を中断して、次のページに対するデータの読み出し及びFIFO7への格納を行う必要がある。
【0107】
このようにして、実際の読み出し動作(Read)とテーブルの更新動作(テーブル更新)とを交互に行うことにより、本来コントローラ3にとって空き時間となるデータ転送期間を活用して、次のゾーンに関するアドレス変換情報の一部又は全部をアドレス変換テーブル31に投機的に格納しておくことが可能となる。
【0108】
ここで、次のゾーンに関するアドレス変換情報をアドレス変換テーブル31に格納しておくのは、あるゾーンに対するデータの読み出しが行われた場合、その後、次のゾーンに対するデータの読み出しが要求される可能性が高いためであり、実際に次のゾーンに対するデータの読み出しが要求された場合におけるパフォーマンスを向上させるためである。すなわち、空き時間となるデータ転送期間を活用して次のゾーンに関するアドレス変換情報の一部又は全部をアドレス変換テーブル31に格納しておけば、実際に次のゾーンに対するデータの読み出しが要求された場合に、図11に示すステップS12において必要なアドレス変換情報が格納されていると判断されることから(S12:YES)、一連のデータ読み出し動作を高速に完了することが可能となる。
【0109】
但し、投機的なテーブルの更新動作が完全に終了する前に、次のゾーンに対するデータの読み出しが実際に要求された場合においては、当該ゾーンに関するアドレス変換情報の一部のみが所定のテーブルに格納された状態、すなわちテーブルが不完全な状態となっていることから(S13:NO)、次に説明するテーブルの完成動作を行う必要がある。
【0110】
図14は、テーブルの完成動作を示すフローチャートである。上述の通り、テーブルの完成動作は、図11に示すステップS13において、アクセスすべきゾーンに対応するテーブルが不完全であると判断された場合に実行される。かかる動作も、CPU4がROM6に格納されているファームウェアを実行することによって行われる。
【0111】
テーブルの完成動作においては、CPU4はまず、RAM5内に保存された内部変数dの値をロードし(ステップS31)、ブロック番号が
c×m+d
に一致するブロックの先頭ページ(ページ#0)に格納されている論理ブロックアドレスを読み出す(ステップS32)。かかる動作は、図12に示したステップS24と同様である。
【0112】
次に、CPU4は、読み出された論理ブロックアドレスが「オール1」であるか否か、すなわちm−1であるかを判断し(ステップS33)、その結果、読み出された論理ブロックアドレスが「オール1(=m−1)」以外であれば(S33:NO)、対象テーブルのうちフラグ番号が論理ブロックアドレスに一致するフラグを「0」に書き替える(ステップS34)とともに、領域番号が論理ブロックアドレスに一致する物理ブロックアドレス格納領域に内部変数dを格納する(ステップS35)。一方、ステップS33において、読み出された論理ブロックアドレスが「オール1(=m−1)」であれば(S33:YES)、対象テーブルのうち、フラグ番号が論理ブロックアドレスに一致するフラグを「1」に書き替える(ステップS36)。上記ステップS33〜S36の動作は、図12に示したステップS25〜S28と同様である。
【0113】
そして、CPU4は、内部変数dをインクリメントした後(ステップS37)、内部変数dがmに一致しているか否かを判断し(ステップS38)、その結果、内部変数dがmではない場合(S38:NO)にはステップS32に戻って、内部変数d等を用いた論理ブロックアドレスの読み出しを行う。一方、内部変数dがmに一致している場合(S38:YES)には、テーブルの完成動作を完了し、図11に示すステップS14に復帰する。上記ステップS37及びS38の動作は、図12に示したステップS29及びS30と同様である。
【0114】
以上のようにして、内部変数dがmに一致するまでステップS32〜ステップS38からなるループを繰り返すことによって、不完全であったテーブルが完成し、アドレス変換が可能な状態となる。
【0115】
また、テーブルの完成動作が完了した後、或いは、テーブルの完成動作と並行して、書き込みキュー34の作成が行われる。すなわち、現在アクセスされているゾーンに含まれる消去済みブロックが一つ選ばれ、その物理ブロックアドレスが書き込みキュー34を構成するキュー#0〜#r−1のうち、対象テーブルに対応するキューに登録される。
【0116】
このように、投機的なテーブルの更新動作が完全に終了する前に、次のゾーンに対するデータの読み出しが実際に要求された場合においては、上述したテーブルの完成動作を行う必要があるが、かかるテーブルの完成動作は、内部変数dをロードしている分、図12に示すテーブルの更新動作よりも高速に完了することができる。このため、上記のようなケースであっても、対応するアドレス変換情報がアドレス変換テーブル31に全く格納されていない場合と比べて、一連のデータ読み出し動作を高速に行うことが可能となる。
【0117】
次に、データの書き込み動作について説明する。データの書き込み動作は、上述の通り、データの新規書込動作とデータの上書き動作に分けられることから、ホストコンピュータからデータの書き込み要求がなされた場合、まず、これがデータの新規書込であるのかデータの上書きであるのかの判断が行われる。
【0118】
図15は、かかる判断動作を示すフローチャートである。かかる動作も、CPU4がROM6に格納されているファームウェアを実行することによって行われる。
【0119】
データの書き込み動作において、ホストコンピュータよりホストアドレスが供給されると、CPU4はまず、ホストアドレスに基づいてゾーンアドレス、論理ブロックアドレス及びページアドレスを作成する(ステップS41)。その生成方法は上述の通りである。次に、CPU4は、RAM5内に作成された管理テーブル32を参照することによって、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されているか否かを判断する(ステップS42)。その判断方法についても上述した通りである。
【0120】
その結果、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていると判断された場合(S42:YES)、CPU4は、アクセスすべきゾーンに対応するテーブル内のフラグのうち、フラグ番号が論理ブロックアドレスに一致するフラグを読み出し(ステップS43)、その内容を参照することによって、当該論理ブロックアドレスに対応するブロックが既に割り当てられているか否かを判断する(ステップS44)。これは、本データの書き込み動作がデータの新規書込動作であるのか、或いはデータの上書き動作であるのかを判断することに等しい。
【0121】
その結果、読み出されたフラグが「1(無効)」であれば(S44:NO)、当該論理ブロックアドレスに対応するブロックがまだ割り当てられていない、すなわち、本データの書き込み動作がデータの新規書込動作であると判断することができるので、図16に示すデータの新規書込動作が実行され、逆に、読み出されたフラグが「0(有効)」であれば(S44:YES)、当該論理ブロックアドレスに対応するブロックが既に割り当てられている、すなわち、本データの書き込み動作がデータの上書き動作であると判断することができるので、図17に示すデータの上書き動作が実行される。
【0122】
一方、ステップS42において、アクセスすべきゾーンに関するアドレス変換情報がアドレス変換テーブル31内に格納されていないと判断された場合には(S42:NO)、図12に示したテーブルの更新動作が実行された後、上記ステップS43及びS44が実行される。
【0123】
まず、図16を用いてデータの新規書込動作について説明する。かかる動作も、CPU4がROM6に格納されているファームウェアを実行することによって行われる。
【0124】
データの新規書込動作においては、CPU4はまず、書き込みキュー34にアクセスし、対応するキューに格納されている物理ブロックアドレスを読み出す(ステップS51)。ここで、対応するキューとは、ステップS43においてフラグの読み出しを行ったテーブルのテーブル番号と同じ番号を有するキューを指す。
【0125】
次に、CPU4は、ゾーンアドレス、書き込みキュー34から読み出された物理ブロックアドレス及び上記ページアドレスに基づいてフラッシュメモリ2にアクセスし、対応するページ及び当該ブロックの先頭ページ(ページ#0)に必要なデータを格納する(ステップS52)。ここで、対応するページに格納すべきデータには少なくともユーザデータが含まれ、先頭ページ(ページ#0)に格納すべきデータには少なくとも論理ブロックアドレスが含まれる。このうちユーザデータは、対応するページのユーザ領域21に格納され、論理ブロックアドレスは、当該ブロックの先頭ページ(ページ#0)の論理ブロックアドレス格納領域23に格納される。
【0126】
そして、CPU4は、アドレス変換テーブル31、優先リンク33及び書き込みキュー34の内容を更新する(ステップS53、S54、S55)。具体的には、アドレス変換テーブル31の更新については、対応するテーブルにおいてフラグ番号が論理ブロックアドレスに一致するフラグの値を「0(有効)」に書き替えるとともに、対応する物理ブロックアドレス格納領域に書き込みキュー34から読み出された物理ブロックアドレスを格納する。また、優先リンク33の更新については、ステップS17における動作と同様である。さらに、書き込みキュー34の更新については、アクセスしたゾーンに含まれる別の消去済みの空きブロックの物理ブロックアドレスを前記キューに上書きすることにより行う。
【0127】
以上によりデータの新規書込動作が完了する。
【0128】
尚、アドレス変換テーブル31、優先リンク33及び書き込みキュー34の更新は、図16に示す順に行う必要はなく、これとは異なる順で行っても構わない。
【0129】
次に、図17を用いてデータの上書き動作について説明する。かかる動作も、CPU4がROM6に格納されているファームウェアを実行することによって行われる。
【0130】
データの上書き動作においては、CPU4はまず、対応するテーブル内の物理ブロックアドレス格納領域のうち、領域番号が論理ブロックアドレスに一致する物理ブロックアドレス格納領域にアクセスし、ここに格納されている物理ブロックアドレスを読み出す(ステップS61)。以下、ステップS61において得られた物理ブロックアドレスを「転送元ブロックアドレス」と呼ぶ。
【0131】
次に、CPU4は、書き込みキュー34にアクセスし、対応するキューに格納されている物理ブロックアドレスを読み出す(ステップS62)。以下、ステップS62において得られた物理ブロックアドレスを「転送先ブロックアドレス」と呼ぶ。
【0132】
次に、CPU4は、内部変数eの値を0にリセットし(ステップS63)、内部変数eの値がページアドレスと一致しているか否かを判断する(ステップS64)。その結果、内部変数eの値がページアドレスと一致していれば(S64:YES)、ゾーンアドレス、転送先ブロックアドレス及びページアドレスに基づいてフラッシュメモリ2にアクセスし、対応するページに必要なデータを格納する(ステップS65)。ここで、対応するページに格納されるデータには少なくともユーザデータが含まれ、かかるユーザデータは、対応するページのユーザ領域21に格納される。一方、内部変数eの値がページアドレスと一致していなければ、「ブロック間転送」が行われる(ステップS66)。ブロック間転送においては、ゾーンアドレス及び転送元ブロックアドレスにより特定されるブロック内の内部変数eにより特定されるページの内容が、ゾーンアドレス及び転送先ブロックアドレスにより特定されるブロック内の内部変数eにより特定されるページに転送される。尚、内部変数eが「0」である場合には、ステップS65が実行されるかステップS66が実行されるかに関わらず、ゾーンアドレス及び転送先ブロックアドレスにより特定されるブロックの先頭ページ(ページ#0)の論理ブロックアドレス格納領域23に論理ブロックアドレスが格納される。
【0133】
次に、CPU4は、内部変数eをインクリメントした後(ステップS67)、内部変数eがkに一致しているか否かを判断し(ステップS68)、その結果、内部変数eがkではない場合にはステップS64に戻って内部変数eとページアドレスとの比較を行い、内部変数eがkに一致している場合には、後述するステップが実行される。上述の通り、「k」とは1ブロックに含まれるページ数である。以上のようにして、内部変数eがkに一致するまでステップS64〜ステップS68が繰り返し実行され、これによって、ホストコンピュータより与えられたユーザデータが転送先のブロックの所定のページに書き込まれるとともに、転送元のブロック内に格納されていた上書き対象外のデータが転送先のブロックの同じページに書き込まれることになる。
【0134】
ステップS68において内部変数eがkに一致した場合、CPU4は、アドレス変換テーブル31、優先リンク33及び書き込みキュー34の内容を更新する(ステップS69〜S71)。かかる動作は上述したステップS53〜S55と同様である。したがって、アドレス変換テーブル31、優先リンク33及び書き込みキュー34の更新は、図17に示す順に行う必要はなく、これと異なる順序で行っても構わない。
【0135】
そして、CPU4は、ゾーンアドレス及び転送元ブロックアドレスにより特定されるブロックをブロック消去し(ステップS72)、一連のデータの上書き動作が完了する。
【0136】
以上説明したように、本実施態様においては、一部のブロックに関するアドレス変換情報のみをアドレス変換テーブルに展開するとともに、あるゾーンに対してデータの読み出しが要求されたことに応答して次のゾーンに関するアドレス変換情報の作成を開始していることから、実際に次のゾーンに対するアクセスが要求された場合であっても、当該ゾーンに関するアドレス変換情報を初めから作成する必要がない。すなわち、従来のフラッシュメモリシステムにおいては、次のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されていない場合には、このゾーンに対するアクセスが要求されると、このゾーンを構成する全てのブロックに対して読み出しを行うことによりアドレス変換情報を初めから作成する必要があるが、本実施態様においてはこれを初めから作成する必要がないので、BUSY状態となる期間を短縮することができる。このため、実使用時において要求されることの多い、連続するホストアドレスに対するデータの読み出しを高速に行うことが可能となるので、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制することが可能となる。
【0137】
本発明は、以上の実施態様に限定されることなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることはいうまでもない。
【0138】
例えば、上記実施態様では、アドレス変換テーブル31内に次のゾーンに関するアドレス変換情報が格納されているか否かを、データの読み出し時において常に判断しているが(ステップS18)、これを所定の条件下においてのみ行っても構わない。例えば、データの読み出し対象ブロックの対応論理ブロックアドレスが所定値以上である場合にのみかかる判断を行い、対応論理ブロックアドレスが所定値未満である場合にはこれを省略しても構わない。このような条件を設ければ、投機的なテーブル作成が必要以上に早期に行われることがないので、アドレス変換テーブル31に現在格納されているテーブルの内容が不必要に破棄される可能性を低くすることができる。したがってこの場合には、しきい値となる上記対応論理ブロックアドレスの所定値をテーブル作成に必要な時間等を考慮して決定することが好ましい。
【0139】
また、本発明において、手段とは、必ずしも物理的手段を意味するものではなく、各手段の機能がソフトウエアによって実現される場合も包含する。さらに、一つの手段の機能が二以上の物理的手段により実現されても、二以上の手段の機能が一つの物理的手段により実現されてもよい。
【0140】
尚、本発明は、PCMCIA(Personal Computer Memory Card International Association)が発表した統一規格に基づくPCカードとして実現することが可能である。さらに、近年、半導体素子の高集積化技術の発展に伴い、より小型化された小型メモリカード、例えば、CFA(CompactFlash Association)が提唱する「CompactFlash」や、MultiMediaCardAssociationの提唱する「MMC(MultiMediaCard)」、ソニー株式会社が提唱する「メモリースティック」、松下電器産業株式会社等が提唱する「SDメモリーカード」などに本発明を適用することが可能である。
【0141】
【発明の効果】
以上説明したように、本発明によれば、アドレス変換テーブルの容量を節約しつつ、パフォーマンスの低下を効果的に抑制することが可能となる。しかも、本発明においては、コントローラが本来待ち状態となる期間にアドレス変換情報の投機的な作成作業を行っていることから、この作業によってフラッシュメモリシステムのパフォーマンスを低下させることがない。
【0142】
したがって、本発明は、コントローラが本来待ち状態となる期間が長い場合、例えば、ホストコンピュータの動作が遅い場合や、FIFOの容量が小さい場合において特に効果的である。
【図面の簡単な説明】
【図1】本発明の好ましい実施態様にかかるフラッシュメモリシステム1の構成を概略的に示すブロック図である。
【図2】消去状態であるメモリセル10を概略的に示す断面図である。
【図3】書込状態であるメモリセル10を概略的に示す断面図である。
【図4】フラッシュメモリ2のアドレス空間の構造を概略的に示す図である。
【図5】冗長領域22のデータ構造を概略的に示す図である。
【図6】アドレス変換テーブル31のデータ構造を示す図である。
【図7】管理テーブル32のデータ構造を示す図である。
【図8】優先リンク33のデータ構造を示す図である。
【図9】書き込みキュー34のデータ構造を示す図である。
【図10】アドレス変換テーブル31の新規作成方法を示すフローチャートである。
【図11】データの読み出し動作を示すフローチャートである。
【図12】テーブルの更新動作を示すフローチャートである。
【図13】ホストコンピュータより要求されたデータの読み出しが連続する複数ページを対象としている場合における、テーブルの更新動作の中断/再開のタイミングを示すタイミング図である。
【図14】テーブルの完成動作を示すフローチャートである。
【図15】ホストコンピュータからデータの書き込み要求がデータの新規書込であるのかデータの上書きであるのかを判断するためのフローチャートである。
【図16】データの新規書込動作を示すフローチャートである。
【図17】データの上書き動作を示すフローチャートである。
【符号の説明】
1 フラッシュメモリシステム
2 フラッシュメモリ
3 コントローラ
4 CPU
5 RAM
6 ROM
7 FIFO
10 メモリセル
11 P型半導体基板
12 ソース拡散領域
13 ドレイン拡散領域
14 トンネル酸化膜
15 フローティングゲート電極
16 絶縁膜
17 コントロールゲート電極
18 チャネル
21 ユーザ領域
22 冗長領域
23 論理ブロックアドレス格納領域
24 その他の付加情報を格納するための領域
31 アドレス変換テーブル
32 管理テーブル
33 優先リンク
34 書き込みキュー
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a memory controller and a memory system including the memory controller, and more particularly to a memory controller for controlling a flash memory and a memory system including the memory controller. The present invention also relates to a flash memory control method.
[0002]
[Prior art]
In recent years, flash memories, particularly NAND flash memories, are often used as semiconductor memories used for memory cards, silicon disks, and the like. In the NAND flash memory, when a memory cell is changed from an erased state (logical value = 1) to a written state (logical value = 0), this can be performed in units of memory cells. When changing from the written state (0) to the erased state (1), this cannot be performed in units of memory cells, and this can be performed only in units of blocks composed of a plurality of memory cells. Such a batch erase operation is generally called “block erase”.
[0003]
As described above, in the flash memory, since the memory cell can be changed from the write state (0) to the erase state (1) only in units of blocks, new data can be obtained for the logical address to which data has already been assigned. Even if the old data is overwritten, the new data cannot be directly overwritten on the block storing the old data. For this reason, when the host computer instructs the logical address to which data has already been assigned to overwrite the new data, the data that is not overwritten in the block in which the old data is stored is transferred to the erased block. In addition, a process of writing new data to the erased block is required. Such processing is called “inter-block transfer”, and is executed each time an instruction to overwrite data is given from the host computer. After the inter-block transfer is performed, the transfer source block is erased by a block, whereby the transfer source block becomes a new erased block.
[0004]
Therefore, the relationship between the logical address and the physical address uniquely assigned to each block is not fixed, and these relationships change dynamically every time data overwriting is instructed. For this reason, an address conversion table for maintaining the relationship between the logical address and the physical address is required in the controller for controlling the flash memory, and this is referred to every time data reading is requested from the host computer. Then, address conversion is performed and the contents are updated each time data writing is requested.
[0005]
However, since the recording capacity required for the address conversion table is proportional to the number of blocks to be controlled by the controller, a large capacity address conversion table is required when the number of blocks to be controlled is very large. Become. In addition, since a static random access memory (SRAM) is generally used for the address conversion table, the use of a large-capacity address conversion table greatly increases the product cost of the controller.
[0006]
To solve this problem, instead of storing the address translation information for all the blocks to be controlled in the address translation table, store only the address translation information for some blocks in the address translation table. Is effective. For example, if the address conversion information stored in the address conversion table is only information relating to half of the blocks, the storage capacity required for the address conversion table can be halved, and the product cost of the controller can be reduced. Become.
[0007]
[Problems to be solved by the invention]
However, in the system in which only the address translation information relating to some blocks is developed in the address translation table, when data read is requested for a block in which the address translation information is not developed in the address translation table, the address translation table It is necessary to perform an update operation such as discarding a part of the data and newly storing address conversion information related to the block in the address conversion table. Of course, since the requested data cannot be read until the update operation is completed, the occurrence of the update operation causes the performance of the memory system to deteriorate.
[0008]
The occurrence frequency of such update work is determined by the ratio of the blocks in which the address translation information is stored in the address translation table. The smaller this ratio, the more frequently the update work occurs. In other words, the smaller the proportion of blocks that can store address translation information by saving the capacity of the address translation table, the lower the product cost and performance of the controller, and conversely, the capacity of the address translation table is reduced. As the proportion of blocks that can store address translation information increases, the controller product cost increases and the performance improves. That is, the product cost based on the capacity of the address conversion table and the performance are in a trade-off relationship, and it is difficult to satisfy both.
[0009]
Therefore, an object of the present invention is to provide a memory controller and a memory system including the memory controller that can effectively suppress a decrease in performance while saving the capacity of an address conversion table.
[0010]
Another object of the present invention is to provide a flash memory control method capable of effectively suppressing a decrease in performance while saving the capacity of an address conversion table.
[0011]
[Means for Solving the Problems]
A memory controller according to an aspect of the present invention is a memory controller for accessing a flash memory that can be divided into p zones, and has r tables for storing address conversion information related to one zone of the flash memory. (R <p), and in response to a request for access to the flash memory, the address conversion information related to a second zone different from the first zone to be accessed is the address conversion. The table is created in a predetermined table.
[0012]
According to the present invention, since the address translation information related to the second zone is created in the address translation table before the second zone is actually accessed, the second zone is thereafter Therefore, it is not necessary to create corresponding address translation information from the beginning. As a result, it is possible to effectively suppress a decrease in performance while saving the capacity of the address conversion table.
[0013]
In addition, when access (especially data read) is requested to a certain zone, access to the subsequent zone is often requested thereafter, so the second zone is viewed from the host side. It is preferable that it is a zone next to the first zone. The memory controller according to the present invention further includes means for displaying the priority order of the r tables, and the predetermined table is preferably selected from a table having the lowest priority order and a table having the next lowest priority order. .
[0014]
A memory controller according to another aspect of the present invention is a memory controller for accessing a flash memory that can be divided into p zones, and stores a table that can store address conversion information about one zone of the flash memory. And a second zone following the first zone as seen from the host side in response to a request for access to the first zone of the flash memory. It is determined whether or not the address conversion information is stored in any one of the address conversion tables.
[0015]
According to the present invention, it is possible to improve performance by determining in advance whether or not the address translation information related to the second zone that is likely to be accessed next is stored in the address translation table. Further, in response to determining that the address conversion information related to the second zone is not stored in any of the address conversion tables, the address related to the second zone is assigned to any of the tables. If overwriting of conversion information is started, it is not necessary to create corresponding address conversion information from the beginning even if the second zone is actually accessed thereafter. As a result, it is possible to effectively suppress a decrease in performance while saving the capacity of the address conversion table.
[0016]
According to still another aspect of the present invention, a memory controller temporarily stores an address conversion table used for conversion from a logical address belonging to an address on the host computer side to a physical address belonging to an address on the flash memory side, and data read from the flash memory. A temporary memory for storing the address conversion table, and updating the contents of the address conversion table during a period in which the data stored in the temporary memory is transferred to the host computer.
[0017]
According to the present invention, it is possible to improve performance by updating the contents of the address conversion table during a period in which the memory controller is originally in a waiting state. The temporary memory is preferably a FIFO.
[0018]
A flash memory system according to an aspect of the present invention is a flash memory system including a flash memory that can be divided into p zones and a memory controller that accesses the flash memory, wherein the memory controller includes: A first zone that is an access target in response to a request for access to the flash memory, the address conversion table having r (r <p) tables capable of storing address conversion information related to one zone; The address conversion information relating to the second zone different from the above is created in a predetermined table of the address conversion table.
[0019]
Also in the present invention, since the address translation information related to the second zone is created in the address translation table before the second zone is actually accessed, the second zone is thereafter When actually accessed, it is not necessary to create corresponding address translation information from the beginning. As a result, it is possible to effectively suppress a decrease in performance while saving the capacity of the address conversion table.
[0020]
A flash memory system according to another aspect of the present invention includes a flash memory that can be divided into p zones and a memory controller that accesses the flash memory, wherein the memory controller includes the flash memory. In response to a request for access to the first zone of the flash memory, the host side is provided with an address conversion table having r (r <p) tables capable of storing address conversion information related to one zone. It is determined whether or not address conversion information related to a second zone following the first zone is stored in any one of the address conversion tables.
[0021]
The present invention also makes it possible to improve performance by determining in advance whether or not the address translation information related to the second zone that is likely to be accessed next is stored in the address translation table.
[0022]
A flash memory control method according to an aspect of the present invention is a flash memory control method that can be divided into a plurality of zones, in response to a request for access to the first zone of the flash memory. Determining whether address translation information relating to the second zone following the first zone as viewed from the side is stored in an address translation table; and address translation information relating to the second zone is the address translation information If not stored in the table, the method includes a step of starting storing address conversion information related to the second zone in the address conversion table.
[0023]
Also in the present invention, storage of address translation information related to the second zone is started in the address translation table before the second zone is actually accessed. When the zone is actually accessed, it is not necessary to create corresponding address translation information from the beginning. As a result, it is possible to effectively suppress a decrease in performance while saving the capacity of the address conversion table.
[0024]
A flash memory control method according to another aspect of the present invention is a flash memory control method that can be divided into a plurality of zones, in response to a request for access to a predetermined zone of the flash memory. A first step of determining whether or not address conversion information relating to a predetermined zone is stored in the address conversion table; and determining that address conversion information relating to the predetermined zone is stored in the address conversion table. And a second step of determining whether this is complete address translation information or incomplete address translation information. In response to determining that the address translation information is incomplete in the second step, the corresponding address translation information is obtained by completing the incomplete portion by supplementing it. Since it is no longer necessary to create from the beginning, it is possible to effectively suppress a decrease in performance.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0026]
FIG. 1 is a block diagram schematically showing a configuration of a flash memory system 1 according to a preferred embodiment of the present invention. As shown in FIG. 1, a flash memory system 1 according to this embodiment includes a flash memory 2 and a controller 3. Although not particularly limited, the flash memory system 1 is configured by integrating the flash memory 2 and the controller 3 in one card, and can be used as a kind of external storage device that can be attached to and detached from the host computer. . Examples of the host computer include various information processing apparatuses such as a personal computer and a digital still camera that process various kinds of information such as characters, sounds, and image information.
[0027]
The flash memory 2 is composed of one or more semiconductor chips including a large number of memory cells, and is configured by n (for example, 8192) blocks. Each of these n blocks includes k (for example, 32) pages (sectors), and each page is used as a minimum access unit having a recording capacity of, for example, 512 bytes. So, as in the example above,
n = 8192 (= 8K)
k = 32
In this case, the flash memory 2 includes an address space of 256K pages. Therefore, in order to access a specific page from the host computer side, address information of at least 18 bits is required. In this specification, address information supplied from the host computer to the flash memory system 1 is referred to as a “host address”.
[0028]
The controller 3 is composed of various functional blocks including at least a CPU 4, a RAM 5, a ROM 6 and a FIFO 7. Although not particularly limited, the controller 3 is preferably integrated on one semiconductor chip. The CPU 4 is a functional block for controlling the operation of the entire functional blocks constituting the controller 3. The RAM 5 is a work area in which data necessary for the control of the flash memory 2 by the CPU 4 is temporarily stored. Although not particularly limited, the RAM 5 is preferably composed of a plurality of SRAM cells. As will be described in detail below, the address conversion table is also stored in the RAM 5. The ROM 6 is a functional block for storing a control program (firmware) to be executed by the CPU 4. The FIFO 7 is a memory for temporarily storing data to be written to the flash memory 2 and data read from the flash memory 2.
[0029]
Next, a specific structure of the memory cell included in the flash memory 2 will be described.
[0030]
FIG. 2 is a cross-sectional view schematically showing the structure of each memory cell 10 included in the flash memory 2. As shown in FIG. 2, the memory cell 10 includes an N-type source diffusion region 12 and a drain diffusion region 13 formed in a P-type semiconductor substrate 11, and a P-type between the source diffusion region 12 and the drain diffusion region 13. Tunnel oxide film 14 formed over semiconductor substrate 11, floating gate electrode 15 formed on tunnel oxide film 14, insulating film 16 formed on floating gate electrode 15, and formed on insulating film 16 And the control gate electrode 17 thus formed. A plurality of memory cells 10 having such a configuration are connected in series in the flash memory 2 to form a NAND flash memory.
[0031]
The memory cell 10 is in an “erased state” or a “written state” depending on whether or not electrons are injected into the floating gate electrode 15. That the memory cell 10 is in the erased state means that the data “1” is held in the memory cell 10, and that the memory cell 10 is in the written state indicates that the data “0” is stored in the memory cell 10. "Is held. That is, the memory cell 10 can hold 1-bit data.
[0032]
As shown in FIG. 2, the erased state refers to a state where electrons are not injected into the floating gate electrode 15. The memory cell 10 in the erased state becomes a depletion type transistor, and a P-type semiconductor substrate 11 between the source diffusion region 12 and the drain diffusion region 13 regardless of whether or not a read voltage is applied to the control gate electrode 17. A channel 18 is formed on the surface. Therefore, the source diffusion region 12 and the drain diffusion region 13 are always electrically connected by the channel 18 regardless of whether or not the read voltage is applied to the control gate electrode 17.
[0033]
FIG. 3 is a cross-sectional view schematically showing the memory cell 10 in the written state. As shown in FIG. 3, the writing state refers to a state where electrons are accumulated in the floating gate electrode 15. Since the floating gate electrode 15 is sandwiched between the tunnel oxide film 14 and the insulating film 16, the electrons once injected into the floating gate electrode 15 stay in the floating gate electrode 15 for a very long time. The memory cell 10 in the written state is an enhancement type transistor, and when the read voltage is not applied to the control gate electrode 17, the surface of the P type semiconductor substrate 11 between the source diffusion region 12 and the drain diffusion region 13 is formed. When a read voltage is applied to the control gate electrode 17, a channel (not shown) is formed on the surface of the P-type semiconductor substrate 11 between the source diffusion region 12 and the drain diffusion region 13. Is done. Therefore, the source diffusion region 12 and the drain diffusion region 13 are electrically insulated when the read voltage is not applied to the control gate electrode 17, and the source diffusion is performed when the read voltage is applied to the control gate electrode 17. The region 12 and the drain diffusion region 13 are electrically connected.
[0034]
Here, whether the selected memory cell 10 is in the erased state or the written state can be read as follows. That is, among the plurality of memory cells 10 connected in series, a read voltage is applied to the control gate electrodes 17 of all the memory cells 10 other than the selected memory cell 10, and in this state, the memory cells 10 are connected in series. Detects whether current flows through the body. As a result, if a current flows through the series body, it can be determined that the selected memory cell 10 is in an erased state. If no current flows through the series body, the selected memory cell 10 is written. It can be determined that the state is present. In this way, it is possible to read out whether the data held in any memory cell 10 included in the serial body is “0” or “1”. However, in the NAND flash memory, data held in two or more memory cells 10 included in one serial body cannot be read simultaneously.
[0035]
When the memory cell 10 in the erased state is changed to the written state, a positive high voltage is applied to the control gate electrode 17, whereby electrons are injected into the floating gate electrode 15 through the tunnel oxide film 14. The Electrons can be injected into the floating gate electrode 15 by FN tunnel current. On the other hand, when the memory cell 10 in the write state is changed to the erase state, a negative high voltage is applied to the control gate electrode 17, whereby electrons accumulated in the floating gate electrode 15 through the tunnel oxide film 14 are applied. Is discharged.
[0036]
Next, a specific configuration of the address space that the flash memory 2 has will be described.
[0037]
FIG. 4 is a diagram schematically showing the structure of the address space of the flash memory 2. As shown in FIG. 4, the address space of the flash memory 2 is composed of n blocks including blocks # 0 to # n-1. Here, each block is a data erasing unit. That is, in the flash memory 2, for each memory cell 10, the state cannot be changed from the written state to the erased state. When the memory cell 10 is changed from the written state to the erased state, the memory cell All the memory cells 10 included in the block to which 10 belongs need to be collectively erased. Conversely, the state of each memory cell 10 can be changed from the erased state to the written state.
[0038]
Further, as shown in FIG. 4, each block # 0 to # n−1 configuring the flash memory 2 includes k pages each including pages # 0 to # k−1. Each of these pages is an access unit for reading and writing data. As shown in FIG. 4, 8 bits consisting of bits b0 to b7 are 1 byte, for example, a user area 21 of 512 bytes and a redundant area 22 of 16 bytes, respectively. Consists of. The user area 21 is an area in which user data supplied from the host computer is stored.
[0039]
Here, n blocks # 0 to # n-1 are divided into p zones consisting of zones # 0 to # p-1 (p is an integer equal to or greater than 3 and a divisor of n). being classified. Therefore, each zone is constituted by n / p (= m) blocks. Zone #q (q is one of 0 to p-1) is configured by blocks # m × q to # m × q + m−1. For example,
n = 8192 (= 8K)
p = 8
In this case, each zone is configured by m = 1024 blocks, and specifically, zone #q is configured by blocks # 1024q to # 1024q + 1023. The reason why the address space of the flash memory 2 is classified into p zones is to save the recording capacity of the address conversion table, details of which will be described later.
[0040]
FIG. 5 is a diagram schematically showing the data structure of the redundant area 22. As shown in FIG. 5, the redundant area 22 includes a logical block address storage area 23 and an area 24 for storing other additional information.
[0041]
The logical block address storage area 23 is an area for storing a logical block address corresponding to the block, and is at least x (x = log). 2 m) memory cells 10 are allocated. Here, the logical block address is an address generated based on a part of the host address or a part of the host address, and indicates a block number in each zone viewed from the host computer side. Therefore, the logical block address is uniquely assigned in each zone and is composed of at least x bits. The logical block address storage area 23 is an element that is commonly provided in the redundant area 22 included in each page. However, since one block includes k pages, the logical block addresses of all pages constituting one block are included. It is not necessary to store the logical block address in the storage area 23, and it is sufficient to store the logical block address in the logical block address storage area 23 of at least the first page (page # 0) of each block. In addition, since all the memory cells 10 in the erased block are in the erased state (1), if the logical block address storage area 23 is composed of x memory cells 10, the logical block address storage area 23 The stored value is m-1 (= 2 x -1). On the other hand, for a block in which some user data is stored, the corresponding logical block address value is stored in the logical block address storage area 23.
[0042]
The area 24 stores additional information (error collection code) for correcting an error in user data stored in the corresponding user area 21, a block status for displaying an abnormality about the block, and the like. However, since these are not directly related to the gist of the present invention, description thereof is omitted.
[0043]
As described above, the flash memory 2 is composed of n blocks, each of which is classified into p zones each consisting of m blocks. Of the m blocks included in each zone, m is the number of blocks. '(<M) blocks are treated as actual used blocks that can actually store data, and the remaining mm' blocks are treated as redundant blocks. The address space of the flash memory 2 is composed only of actual use blocks. When a defect occurs in a certain block and becomes unusable, the number of blocks used as redundant blocks is reduced by the number of defective blocks. It is.
[0044]
Next, various tables created in the RAM 5 will be described.
[0045]
The various tables created in the RAM 5 include at least an address conversion table, a management table, a priority link, and a write queue, which are stored in the ROM 6 when the controller 3 is turned on or reset. It is created by the CPU 4 based on the firmware that has been set.
[0046]
The address conversion table is a table for holding the correspondence between the logical block address generated based on the host address and the physical block address uniquely assigned to each block, and has the following structure: Yes.
[0047]
FIG. 6 is a diagram showing the data structure of the address conversion table 31 created in the RAM 5. As shown in FIG. 6, the address conversion table 31 includes r tables including tables # 0 to # r-1 (r is an integer of 2 to p-1). Each table # 0 to # r-1 is an area for storing address conversion information related to any one of zone # 0 to zone # p-1, and r <p as described above. In the address conversion table 31, all (p) zone address conversion information cannot be stored, and only some (r) zone address conversion information can be stored. This is nothing but to reduce the product cost by saving the storage capacity required for the address conversion table 31.
[0048]
Each table # 0 to # r-1 corresponds to each of m physical block address storage areas consisting of physical block address storage areas # 0 to # m-1 and these physical block address storage areas. M flags provided. Here, the area number (# 0 to # m-1) uniquely assigned to each physical block address storage area indicates a logical block address, and the contents stored in each physical block address storage area correspond to Indicates the physical block address to be executed. Therefore, for example, if the physical block address stored in the physical block address storage area #i (i is one of 0 to m−1) is #j, the logical block address = # i is the physical block address = # j. It will correspond to.
[0049]
Flags # 0 to # m-1 indicate whether or not the contents (physical block addresses) of the corresponding physical block address storage areas are valid. Specifically, if the flag is “0”, it means that the contents of the corresponding physical block address storage area are valid, and if the flag is “1”, the contents of the corresponding physical block address storage area. Means that is invalid. Of course, conversely, when the contents of the physical block address storage area are valid, the corresponding flag may be set to “1”.
[0050]
The management table is a table for indicating which zone the address conversion information stored in each of the tables # 0 to # r-1 is address conversion information, and has the following structure.
[0051]
FIG. 7 is a diagram showing the data structure of the management table 32 created in the RAM 5. As shown in FIG. 7, the management table 32 includes r zone number storage areas including zone number storage areas # 0 to # r-1. The zone number storage areas # 0 to # r-1 correspond to the tables # 0 to # r-1, respectively, and the values stored here indicate the corresponding zone numbers. As an example, when the address conversion information stored in the table # 2 is address conversion information related to the zone # 5, “5” is stored as the zone number in the zone number storage area # 2. Therefore, by referring to the management table 32, it is possible to know the relationship between each table # 0 to # r-1 and each zone # 0 to # p-1.
[0052]
The priority link is an element indicating the priority order of the tables # 0 to # r-1 constituting the address conversion table 31, and has the following structure.
[0053]
FIG. 8 is a diagram showing the data structure of the priority link 33 created in the RAM 5. As shown in FIG. 8, the priority link 33 is composed of r pointers composed of pointers # 0 to # r-1. Before describing a specific method for indicating the priority order of the r tables # 0 to # r-1 constituting the address conversion table 31 by the priority link 33, the r tables # 0 to # r-1 are described. The necessity to set the priority order will be described.
[0054]
As described above, the number (r) of tables constituting the address conversion table 31 is smaller than the number of zones (p) constituting the address space of the flash memory 2, and is therefore expanded in the address conversion table 31. The address translation information is limited to address translation information related to some zones. Therefore, when the host computer requests access to a zone in which the address conversion information is not expanded in the address conversion table 31, the contents of the address conversion table 31 need to be updated. That is, the CPU 4 selects any one of the r tables # 0 to # r-1 constituting the address conversion table 31, erases the contents thereof, and addresses related to the zone requested to be accessed. It is necessary to newly store the conversion information in the table. Accordingly, in order to select a table whose contents are to be deleted from among the tables # 0 to # r-1, a priority order is provided for the tables # 0 to # r-1, and the table having the lowest priority order is selected. The contents need to be erased.
[0055]
For this reason, priority is given to the r tables # 0 to # r-1 constituting the address conversion table 31, and a priority link 33 is provided to store the priority. A method of storing the priority order of the tables # 0 to # r-1 using the priority link 33 is as follows.
[0056]
That is, the pointers # 0 to # r-1 constituting the priority link 33 are stored so that any one of the values "0" to "r-1" and the data "NULL" does not overlap each other as the link destination pointer number. As a result, the table corresponding to the value (0 to r-1) not stored in any pointer becomes the highest priority table. For example, when the value “2” is not stored in any pointer, the table # 2 is the highest priority table.
[0057]
Next, the table corresponding to the value (0 to r-1) stored in the pointer having the same number as the highest priority table becomes the second highest priority table. As in the above example, when the table # 2 is the highest priority table, the table corresponding to the value (for example, “0”) stored in the pointer # 2 is the second highest priority table. Become.
[0058]
Similarly, the table corresponding to the value (0 to r-1) stored in the pointer having the same number as the second highest priority table becomes the third highest priority table. By sequentially performing the link work, it is possible to specify priorities for all the tables # 0 to # r-1. Data “NULL” is stored in the pointer having the same number as the table with the lowest priority, and thus the table with the lowest priority can be immediately identified by referring to the priority link 33.
[0059]
The write queue is a registration table of erased empty blocks, and has the following structure.
[0060]
FIG. 9 is a diagram showing the data structure of the write queue 34 created in the RAM 5. As shown in FIG. 9, the write queue 34 is composed of r queues including queue # 0 to queue # r-1, and each queue has a physical block address of an erased block included in the corresponding zone. Stored. Here, the corresponding zone refers to a zone in which address conversion information is stored in a table having the same number as the queue number of each queue. For example, if the address conversion information related to the zone # 7 is stored in the table # 1, the zone corresponding to the queue # 1 is the zone # 7, and the erased block among the blocks constituting the zone # 7 Are stored in the queue # 1.
[0061]
Although the write queue 34 shown in FIG. 9 is composed of r queues, a plurality of physical block addresses of erased blocks included in the corresponding zone are stored by using queues that are integer multiples of r. You may comprise.
[0062]
The above is the configuration of the flash memory system according to this embodiment. Next, the operation of the flash memory system 1 according to this embodiment will be described.
[0063]
FIG. 10 is a flowchart showing a new creation method of the address conversion table 31. The new creation of the address conversion table 31 is an operation performed by the CPU 4 executing the firmware stored in the ROM 6 in response to the power-on or reset operation being performed on the controller 3. Alternatively, it constitutes one of the initial setting operations of the controller 3 in response to the reset operation.
[0064]
First, when the controller 3 is powered on or reset, the CPU 4 resets all the bits constituting the address conversion table 31 in the RAM 5 to “1” (step S1). Next, the CPU 4 resets the values of the internal variables a and b to 0 (step S2), and the block number is
a × m + b
The logical block address stored in the first page (page # 0) of the block that matches is read (step S3). As described above, “m” is a value (= n / p) obtained by dividing the total number of blocks n by the number of zones p (= n / p), and represents the number of blocks constituting one zone. In this case, since the internal variable a = b = 0, the logical block address stored in page # 0 of block # 0 is read out.
[0065]
Next, the CPU 4 determines whether or not the read logical block address is “all 1”, that is, m−1 (step S4). As a result, the read logical block address is If it is other than “all 1 (= m−1)” (S4: NO), among the tables whose table number matches the internal variable a, the flag whose flag number matches the logical block address is rewritten to “0”. Along with (Step S5), the internal variable b is stored in the physical block address storage area whose area number matches the logical block address (Step S6). On the other hand, if the read logical block address is “all 1 (= m−1)” in step S4 (S4: YES), steps S5 and S6 are not executed.
[0066]
Then, after incrementing the internal variable b (step S7), the CPU 4 determines whether or not the internal variable b matches m (step S8). As a result, if the internal variable b is not m (S8) : NO), the process returns to step S3, and the logical block address is read using the internal variables a and b. On the other hand, when the internal variable b matches m (S8: YES), after the internal variable a is incremented (step S9), it is determined whether or not the internal variable a matches r (step S9). S10) As a result, if the internal variable a is not r (S10: NO), the process returns to step S3 to read the logical block address using the internal variables a and b. On the other hand, if the internal variable a matches r (S10: YES), a series of processing is completed. As described above, “r” represents the number of tables constituting the address conversion table 31.
[0067]
As described above, steps S3 to S10 are repeatedly executed until the internal variable a matches r, thereby completing the address conversion table 31. That is, by repeating the loop consisting of steps S3 to S8 until the internal variable b matches m, the address translation information relating to one zone is stored in a predetermined table, and steps S3 to S3 are repeated until the internal variable a matches r. By repeating the loop consisting of S10, the address conversion information is stored in all the tables. Specifically, by executing the operation shown in FIG. 10, the address conversion information related to zone # 0 to zone # r-1 is stored in tables # 0 to # r-1, respectively.
[0068]
In the above example, zone # 0 to zone # r-1 are selected as targets for storing the address translation information in the address translation table 31, but this operation is executed immediately after the controller 3 is turned on or immediately after the reset. Therefore, the present invention is not limited to zone # 0 to zone # r-1, and any zone may be targeted.
[0069]
In addition, after the new creation operation of the address translation table 31 is completed, or in parallel with the new creation operation of the address translation table 31, other operations in the initial setting operation, that is, creation of the management table 32, priority link 33 A creation and write queue 34 is created.
[0070]
That is, zone numbers # 0 to # r-1 are stored as zone numbers in the zone number storage areas # 0 to # r-1 constituting the management table 32, and address conversion relating to zone # 0 to zone # r-1 is thereby performed. The fact that the information is stored in tables # 0 to # r-1 is displayed.
[0071]
Also, “1” to “r−1” are stored in the pointers # 0 to # r-2 constituting the priority link 33, respectively, and data “NULL” is stored in the pointer # r-1. Thereby, the priorities of the tables # 0 to # r-1 are in this order. However, since the access is not actually made at this time and there is no clue for determining the priority order, the priority order determined here is only temporary. Therefore, it is not essential that the priorities of the tables # 0 to # r-1 be in this order, and a different order may be used.
[0072]
Then, erased blocks included in the zones # 0 to # r-1 are selected one by one, and the physical block addresses are registered in the queues # 0 to # r-1 constituting the write queue 34.
[0073]
Thus, the initial setting operation of the controller 3 in response to the power-on or reset operation is completed.
[0074]
Next, a method of accessing the flash memory 2 after the address conversion table 31 and the like are created, that is, after the initial setting is completed, will be described in the order of data read operation and data write operation. As for the data write operation, when data is newly assigned to a logical block address to which no data is assigned (new data write operation), and for a logical block address to which data has already been assigned. A case where data is added or overlapped (data overwriting operation) will be described separately.
[0075]
First, a data read operation will be described.
[0076]
FIG. 11 is a flowchart showing a data read operation. Such an operation is also performed by the CPU 4 executing the firmware stored in the ROM 6.
[0077]
In a data read operation, when a host address is supplied from the host computer, the CPU 4 first sets the READY / BUSY signal (see FIG. 1) to the BUSY state, and based on the host address, the zone address, logical block address, and page An address is created (step S11). Specifically, the upper bits of the host address are divided by m ′ (the number of actually used blocks included in one zone), the zone address is specified based on the quotient, and the logical block address is specified based on the remainder. . As an example, eight flash memories 2 (p = 2) 3 ) Zones, and each zone is 1024 (m = 2) 10 ) Blocks, and 32 blocks (k = 2) 5 ), A host address of at least 18 bits is used, and a quotient obtained by dividing the upper 13 bits by m ′ (for example, 1000) is a zone address, and a remainder is a logical block address. In addition, the lower 5 bits of the host address directly become the page address.
[0078]
Next, the CPU 4 refers to the management table 32 created in the RAM 5 to determine whether or not the address translation information regarding the zone to be accessed is stored in the address translation table 31 (step S12). Here, the zone to be accessed is specified by the zone address obtained in step S11, and corresponds to the zone having the same number as the zone address. The above determination is made based on whether or not the same value as the zone address is stored in any of the zone number storage areas # 0 to # r-1 constituting the management table 32. Is determined that the address conversion information related to the zone to be accessed is stored in the address conversion table 31, and if not stored, the address conversion information related to the zone to be accessed is stored in the address conversion table 31. It is judged that it is not.
[0079]
As a result, when it is determined that the address conversion information related to the zone to be accessed is stored in the address conversion table 31 (S12: YES), the CPU 4 further determines whether the table corresponding to the zone to be accessed is complete. It is determined whether it is incomplete (step S13). Here, the table corresponding to the zone to be accessed refers to a table having the same number as the zone number storage area in which the same value as the zone address is stored. For example, if the same value as the zone address is stored in the zone number storage area # 1, the table for determining whether or not it is complete is the table # 1. A specific method for determining whether or not the table is complete is not particularly limited. For example, a flag indicating whether or not the table is complete may be provided and referred to.
[0080]
As a result, when it is determined that the table corresponding to the zone to be accessed is complete (S13: YES), the CPU 4 refers to this table to convert the logical block address into the physical block address (step S14). A specific address conversion method is as follows. That is, the conversion is performed by accessing the physical block address storage area whose area number matches the logical block address from the selected table and reading the physical block address stored therein. Note that this example is a data read operation, and in principle, user data should be allocated to the block corresponding to the host address, so the corresponding flag should be “0 (valid)”. It is. However, some host computers may make a read request to a host address to which no user data is assigned.
[0081]
On the other hand, when it is determined in step S12 that the address conversion information regarding the zone to be accessed is not stored in the address conversion table 31 (S12: NO), the table update operation is executed. The table update operation will be described later.
[0082]
If it is determined in step S13 that the table corresponding to the zone to be accessed is incomplete (S13: NO), a table completion operation is executed. The table completion operation will also be described later.
[0083]
Next, the CPU 4 accesses the flash memory 2 based on the zone address, the physical block address read from the address conversion table 31 and the page address, and reads the data stored in the corresponding page (step S15). . In this case, the accessed block is specified by the zone address and the physical block address, and the accessed page is specified by the page address.
[0084]
Then, the read data is temporarily stored in the FIFO 7, and the READY / BUSY signal is set to the READY state (step S16). The READY state means that the controller 3 is in a waiting state and can accept access from the host computer, and the host computer reads the user data stored in the FIFO 7 in response to this. When the host computer reads user data stored in the FIFO 7, the data transfer is generally executed byte by byte. Therefore, when one page consists of 512 bytes of user data, the host computer completes a series of data transfers by executing 512 readings.
[0085]
During this time, the CPU 4 updates the priority link 33 (step S17). The specific update procedure of the priority link 33 is as follows. First, it is stored in the pointer that stores the same value as the table number of the currently used table (the table corresponding to the accessed zone), and in the pointer that has the same number as the table number of the currently used table. Overwrite the value. Next, the table number of the table with the highest priority is overwritten as the link destination pointer number on the pointer having the same number as the table number of the currently used table. As a result, the update of the priority link 33 is completed, and the priority of the table corresponding to the currently accessed zone becomes the highest.
[0086]
To explain using a specific example, r, which is the number of tables constituting the address conversion table 31 (= the number of pointers constituting the priority link 33) is “4”, and is a state immediately after the initialization operation is completed. When table # 2 is used in a state where “1” to “3” are stored in pointers # 0 to # 2 and data “NULL” is stored in pointer # 3, respectively, the table that is currently used The value “3” stored in the pointer # 2 having the same number as the table number “2” of the currently used table is overwritten on the pointer # 1 storing the table number “2”. To do. Then, “0”, which is the table number of the table with the highest priority, is overwritten on the pointer # 2 having the same number as “2”, which is the table number of the currently used table. As a result, the contents of the pointers # 0 to # 3 are “1”, “3”, “0”, and “NULL”, respectively, so the priorities of the tables # 0 to # 3 are the tables # 2, # 0, and # 1. , # 3.
[0087]
Further, the CPU 4 determines whether or not the address conversion information related to the zone next to the currently accessed zone is stored in the address conversion table 31 (step S18). Here, the zone next to the currently accessed zone refers to the zone located next to the currently accessed zone when viewed from the host side, and the currently accessed zone is the zone #q (q is 0 to p−). 1), it indicates zone # q + 1. Therefore, when the zone accessed now is the last zone, zone # p-1, there is no next zone. Further, the above determination is made according to whether or not the value “q + 1” is stored in any of the zone number storage areas # 0 to # r−1 constituting the management table 32, as in the determination in step S12. If it is determined that the address conversion information related to the next zone is stored in the address conversion table 31, otherwise, the address conversion information related to the next zone is stored in the address conversion table 31. It is determined that it is not stored in Here, the reason why it is determined whether or not the address conversion information related to the next zone is stored in the address conversion table 31 is as follows. This is because the address conversion table 31 is speculatively updated before the data reading for the next zone is actually requested because there is a high possibility that the data reading for the next zone is requested.
[0088]
As a result, when it is determined that the address conversion information related to the next zone is stored in the address conversion table 31 (S18: YES), the table corresponding to the next zone is complete or incomplete. Is determined (step S19). As a result, when it is determined that the table corresponding to the next zone is incomplete (S19: NO), a table completion operation to be described later is executed. If it is determined in step S19 that the table corresponding to the next zone is complete (S19: YES), a series of processing is completed.
[0089]
On the other hand, if it is determined in step S18 that the address conversion information related to the next zone is not stored in the address conversion table 31 (S18: NO), the table update operation is executed.
[0090]
Next, the table update operation will be described.
[0091]
FIG. 12 is a flowchart showing the table update operation. As described above, the table update operation is performed when it is determined in step S12 shown in FIG. 11 that the address conversion information related to the zone to be accessed is not stored in the address conversion table 31, or in step S18 shown in FIG. When the address conversion information on the next zone after the currently accessed zone is determined not to be stored in the address conversion table 31, the process is executed. Such an operation is also performed by the CPU 4 executing the firmware stored in the ROM 6.
[0092]
In the table update operation, the CPU 4 first specifies the table with the lowest priority by referring to the priority link 33 created in the RAM 5 (step S21). Here, the table with the lowest priority is specified by searching for the pointer storing the data “NULL” among the pointers # 0 to # r−1 constituting the priority link 33, and the data “NULL”. It is determined that the table having the same number as the pointer number of the pointer storing “is the table with the lowest priority. Hereinafter, the description will be continued assuming that the zone address of the zone in which the address conversion information is newly stored is “c”. Here, the zone in which the address translation information is newly stored is a zone to be accessed in the case of branching from step S12 shown in FIG. 11 (S12: NO) (zone corresponding to the zone address obtained in step S11). In the case of branching from step S18 shown in FIG. 11 (S18: NO), it indicates the zone next to the currently accessed zone.
[0093]
Next, the CPU 4 updates the contents of the management table 32, and associates the table determined to have the lowest priority in step S21 with the zone in which the address translation information is newly stored (step S22). That is, “c” is stored in the corresponding zone number storage area.
[0094]
Next, the CPU 4 resets the value of the internal variable d to 0 (step S23), and the block number is
c × m + d
The logical block address stored in the first page (page # 0) of the block that matches is read (step S24). In this case, since the internal variable d = 0, the logical block address stored in page # 0 of the first block # (c × m) of the zone in which the address conversion information is newly stored is read out.
[0095]
Next, the CPU 4 determines whether or not the read logical block address is “all 1”, that is, m−1 (step S25), and as a result, the read logical block address is If it is other than “all 1 (= m−1)” (S25: NO), the flag whose flag number matches the logical block address in the table determined to have the lowest priority in step S21 is “0”. (Step S26) and the internal variable d is stored in the physical block address storage area whose area number matches the logical block address (step S27). On the other hand, if the read logical block address is “all 1 (= m−1)” in step S25 (S25: YES), among the tables determined to have the lowest priority in step S21, the flag The flag whose number matches the logical block address is rewritten to “1” (step S28).
[0096]
Then, the CPU 4 increments the internal variable d (Step S29).
), It is determined whether or not the internal variable d matches m (step S30). As a result, if the internal variable d is not m (S30: NO), the process returns to step S24, and the internal variable d and the like. The logical block address is read using. On the other hand, if the internal variable d matches m (S30: YES), the table update operation is completed, and if the process branches from step S12 shown in FIG. 11 (S12: NO), the process returns to step S14. If the process branches off from step S18 shown in FIG. 11 (S18: NO), the series of processing ends.
[0097]
As described above, by repeating the loop consisting of step S24 to step S30 until the internal variable d matches m, the contents of the table with the lowest priority are updated to the address conversion information related to the zone to be accessed. The
[0098]
In the above example, the contents of the table are updated regardless of which zone corresponds to the table with the lowest priority, but the zone corresponding to the table with the lowest priority is the first zone. In the case of a certain zone # 0, it is preferable to set a table with the next lowest priority as an update target. This is because, as described above, a frequently accessed file is often stored in the first zone, zone # 0. For this reason, if address conversion information related to zone # 0 is discarded, the performance may be degraded. It is.
[0099]
Further, the write queue 34 is created after the table update operation is completed or in parallel with the table update operation. That is, one erased block included in the zone #c is selected, and its physical block address is registered in the queue corresponding to the updated table among the queues # 0 to # r-1 constituting the write queue 34. The
[0100]
Now, when the table update operation shown in FIG. 12 branches from step S12 shown in FIG. 11 (S12: NO), it is executed until it is determined in step S30 that the internal variable d matches m. However, if the process branches off from step S18 shown in FIG. 11 (S18: NO), the READY / BUSY signal is already in the READY state in step S16, so there is a possibility of receiving the next access from the host computer. . Further, when the data requested by the host computer (FIG. 11) is for a plurality of continuous pages, the controller 3 starts reading the data for the next page when the transfer of the data stored in the FIFO 7 is completed. There is a need to. In such a case, the table update operation shown in FIG. 12 is temporarily interrupted, and the controller 3 performs a process newly requested by the host computer (for example, the next data reading process) or reading data for the next page. Execute. When interrupting the table update operation, it is necessary to store the internal variable d in the RAM 5. The incomplete table is generated mainly for this reason.
[0101]
If this interruption is due to the next access from the host computer, if the requested process is a read process for the same zone, the process is executed and the READY / BUSY signal is again set to the READY state and then interrupted. The table update operation may be resumed. If this interruption is due to the next access from the host computer and the requested process is a read process for the next zone, that is, a zone in which the corresponding table is incomplete, FIG. In step S13, it is determined that the table is incomplete (S13: NO), and a table completion operation to be described later is performed. However, if the process requested by the host computer is a read process for a zone that is neither the same zone nor the next zone, the contents of the incomplete table are discarded.
[0102]
If the interruption is to read data for the next page, the updating operation of the interrupted table can be resumed in response to the data of the next page being read and stored in the FIFO 7. Good. This will be described in more detail with reference to a timing diagram.
[0103]
FIG. 13 is a timing chart showing the timing of interrupting / resuming the table update operation when a plurality of pages in which data requested by the host computer is continuously read are targeted.
[0104]
As shown in FIG. 13, when an address and a command are first issued from the host computer and the controller 3 receives them (address reception, command reception), the READY / BUSY signal changes from the READY state to the BUSY state, and the internal address is changed. Generated (address generation). Here, the address supplied from the host computer is an address for specifying the first page among a plurality of pages to be read, and the command supplied from the host computer indicates a read command, This is a command for specifying the number of pages to be read (for example, 100 pages from the first page). The address generation is an operation corresponding to steps S11 to S14 shown in FIG. 11. As described above, when necessary address conversion information is not stored in the address conversion table 31 (S12: NO). The table updating operation shown in FIG. 12 is included. If the table to be referred to is incomplete (S13: NO), a table completion operation to be described later is included.
[0105]
When the internal address is generated, reading to the flash memory 2 is actually executed using the internal address, and the read user data is stored in the FIFO 7 (Read). Such an operation corresponds to steps S15 and S16 shown in FIG.
[0106]
When the user data is stored in the FIFO 7, the READY / BUSY signal changes to the READY state, and in response to this, the host computer reads the data stored in the FIFO 7. That is, data transfer from the flash memory 2 to the host computer is performed. During this time, a table update operation for storing the address conversion information related to the next zone in the address conversion table 31 is performed (table update). Although it depends on the data transfer speed to the host computer and the operation speed of the flash memory 2 and the controller 3, it is generally difficult to complete the table update operation while transferring one page of data to the host computer. It is. That is, since the data transfer to the host computer is completed in the middle of the table update operation, the controller 3 needs to interrupt the table update operation and read the data for the next page and store it in the FIFO 7.
[0107]
In this way, by alternately performing the actual read operation (Read) and the table update operation (table update), the address related to the next zone is utilized by utilizing the data transfer period that is originally free for the controller 3. Part or all of the conversion information can be speculatively stored in the address conversion table 31.
[0108]
Here, the address conversion information related to the next zone is stored in the address conversion table 31. When data is read from a certain zone, there is a possibility that data read from the next zone is requested thereafter. This is because the performance in the case where the reading of data for the next zone is actually requested is improved. In other words, if a part or all of the address conversion information related to the next zone is stored in the address conversion table 31 by utilizing the data transfer period which is a free time, the data reading for the next zone is actually requested. In this case, since it is determined in step S12 shown in FIG. 11 that necessary address conversion information is stored (S12: YES), a series of data read operations can be completed at high speed.
[0109]
However, if data reading for the next zone is actually requested before the speculative table update operation is completely completed, only a part of the address translation information related to the zone is stored in the predetermined table. In this state, that is, because the table is in an incomplete state (S13: NO), it is necessary to perform a table completion operation described next.
[0110]
FIG. 14 is a flowchart showing a table completion operation. As described above, the table completion operation is executed when it is determined in step S13 shown in FIG. 11 that the table corresponding to the zone to be accessed is incomplete. Such an operation is also performed by the CPU 4 executing the firmware stored in the ROM 6.
[0111]
In the table completion operation, the CPU 4 first loads the value of the internal variable d stored in the RAM 5 (step S31), and the block number is
c × m + d
The logical block address stored in the first page (page # 0) of the block that matches is read (step S32). This operation is the same as step S24 shown in FIG.
[0112]
Next, the CPU 4 determines whether or not the read logical block address is “all 1”, that is, m−1 (step S33). As a result, the read logical block address is If it is other than “all 1 (= m−1)” (S33: NO), the flag whose flag number matches the logical block address in the target table is rewritten to “0” (step S34), and the area number is The internal variable d is stored in the physical block address storage area that matches the logical block address (step S35). On the other hand, if the read logical block address is “all 1 (= m−1)” in step S33 (S33: YES), the flag whose flag number matches the logical block address in the target table is set to “ 1 "(step S36). The operations in steps S33 to S36 are the same as steps S25 to S28 shown in FIG.
[0113]
Then, after incrementing the internal variable d (step S37), the CPU 4 determines whether or not the internal variable d matches m (step S38). As a result, if the internal variable d is not m (S38) : NO), the process returns to step S32, and the logical block address is read using the internal variable d or the like. On the other hand, if the internal variable d matches m (S38: YES), the table completion operation is completed, and the process returns to step S14 shown in FIG. The operations of steps S37 and S38 are the same as steps S29 and S30 shown in FIG.
[0114]
As described above, by repeating the loop consisting of step S32 to step S38 until the internal variable d matches m, the incomplete table is completed and the address can be converted.
[0115]
Further, after the completion operation of the table is completed, or in parallel with the completion operation of the table, the write queue 34 is created. That is, one erased block included in the currently accessed zone is selected, and its physical block address is registered in the queue corresponding to the target table among the queues # 0 to # r-1 constituting the write queue 34. Is done.
[0116]
As described above, when the reading of data for the next zone is actually requested before the speculative table update operation is completely completed, it is necessary to perform the above-described table completion operation. The table completion operation can be completed faster than the table update operation shown in FIG. 12 by loading the internal variable d. Therefore, even in the above case, a series of data read operations can be performed at a higher speed than when the corresponding address conversion information is not stored in the address conversion table 31 at all.
[0117]
Next, a data write operation will be described. As described above, the data write operation is divided into a new data write operation and a data overwrite operation. When a data write request is made from the host computer, first, is this a new data write? A determination is made as to whether the data is overwritten.
[0118]
FIG. 15 is a flowchart showing such a determination operation. Such an operation is also performed by the CPU 4 executing the firmware stored in the ROM 6.
[0119]
In the data write operation, when a host address is supplied from the host computer, the CPU 4 first creates a zone address, a logical block address, and a page address based on the host address (step S41). The generation method is as described above. Next, the CPU 4 refers to the management table 32 created in the RAM 5 to determine whether or not the address translation information related to the zone to be accessed is stored in the address translation table 31 (step S42). The determination method is also as described above.
[0120]
As a result, when it is determined that the address conversion information related to the zone to be accessed is stored in the address conversion table 31 (S42: YES), the CPU 4 selects among the flags in the table corresponding to the zone to be accessed. A flag whose flag number matches the logical block address is read (step S43), and by referring to the contents, it is determined whether or not a block corresponding to the logical block address has already been assigned (step S44). This is equivalent to determining whether the data write operation is a new data write operation or a data overwrite operation.
[0121]
As a result, if the read flag is “1 (invalid)” (S44: NO), the block corresponding to the logical block address has not been allocated yet, that is, the write operation of this data is a new data. Since it can be determined that it is a write operation, the new data write operation shown in FIG. 16 is executed. Conversely, if the read flag is “0 (valid)” (S44: YES). Since it can be determined that the block corresponding to the logical block address has already been allocated, that is, the data write operation is the data overwrite operation, the data overwrite operation shown in FIG. 17 is executed. .
[0122]
On the other hand, when it is determined in step S42 that the address conversion information regarding the zone to be accessed is not stored in the address conversion table 31 (S42: NO), the table update operation shown in FIG. 12 is executed. Then, the above steps S43 and S44 are executed.
[0123]
First, a new data writing operation will be described with reference to FIG. Such an operation is also performed by the CPU 4 executing the firmware stored in the ROM 6.
[0124]
In the new data writing operation, the CPU 4 first accesses the write queue 34 and reads the physical block address stored in the corresponding queue (step S51). Here, the corresponding queue refers to a queue having the same number as the table number of the table from which the flag was read out in step S43.
[0125]
Next, the CPU 4 accesses the flash memory 2 based on the zone address, the physical block address read from the write queue 34, and the page address, and is necessary for the corresponding page and the first page (page # 0) of the block. The data is stored (step S52). Here, data to be stored in the corresponding page includes at least user data, and data to be stored in the first page (page # 0) includes at least a logical block address. Among these, the user data is stored in the user area 21 of the corresponding page, and the logical block address is stored in the logical block address storage area 23 of the first page (page # 0) of the block.
[0126]
Then, the CPU 4 updates the contents of the address conversion table 31, the priority link 33, and the write queue 34 (Steps S53, S54, S55). Specifically, for updating the address conversion table 31, the value of the flag whose flag number matches the logical block address in the corresponding table is rewritten to “0 (valid)” and the corresponding physical block address storage area is updated. The physical block address read from the write queue 34 is stored. The update of the priority link 33 is the same as the operation in step S17. Further, the write queue 34 is updated by overwriting the queue with the physical block address of another erased empty block included in the accessed zone.
[0127]
Thus, the new data writing operation is completed.
[0128]
The address conversion table 31, the priority link 33, and the write queue 34 need not be updated in the order shown in FIG. 16, and may be performed in a different order.
[0129]
Next, the data overwrite operation will be described with reference to FIG. Such an operation is also performed by the CPU 4 executing the firmware stored in the ROM 6.
[0130]
In the data overwriting operation, the CPU 4 first accesses the physical block address storage area whose area number matches the logical block address among the physical block address storage areas in the corresponding table, and stores the physical block stored therein. The address is read (step S61). Hereinafter, the physical block address obtained in step S61 is referred to as a “transfer source block address”.
[0131]
Next, the CPU 4 accesses the write queue 34 and reads the physical block address stored in the corresponding queue (step S62). Hereinafter, the physical block address obtained in step S62 is referred to as a “transfer destination block address”.
[0132]
Next, the CPU 4 resets the value of the internal variable e to 0 (step S63), and determines whether or not the value of the internal variable e matches the page address (step S64). As a result, if the value of the internal variable e matches the page address (S64: YES), the flash memory 2 is accessed based on the zone address, transfer destination block address, and page address, and the data required for the corresponding page. Is stored (step S65). Here, the data stored in the corresponding page includes at least user data, and the user data is stored in the user area 21 of the corresponding page. On the other hand, if the value of the internal variable e does not match the page address, “transfer between blocks” is performed (step S66). In inter-block transfer, the content of the page specified by the internal variable e in the block specified by the zone address and the transfer source block address is determined by the internal variable e in the block specified by the zone address and the transfer destination block address. Forwarded to the specified page. When the internal variable e is “0”, the first page (page) of the block specified by the zone address and the transfer destination block address regardless of whether step S65 or step S66 is executed. The logical block address is stored in the logical block address storage area 23 of # 0).
[0133]
Next, after incrementing the internal variable e (step S67), the CPU 4 determines whether or not the internal variable e matches k (step S68). As a result, if the internal variable e is not k, Returns to step S64 to compare the internal variable e with the page address. If the internal variable e matches k, the steps described below are executed. As described above, “k” is the number of pages included in one block. As described above, steps S64 to S68 are repeatedly executed until the internal variable e matches k, whereby the user data given from the host computer is written to a predetermined page of the transfer destination block. Data that is not overwritten and stored in the transfer source block is written to the same page of the transfer destination block.
[0134]
If the internal variable e coincides with k in step S68, the CPU 4 updates the contents of the address conversion table 31, the priority link 33, and the write queue 34 (steps S69 to S71). Such an operation is the same as steps S53 to S55 described above. Therefore, the address translation table 31, the priority link 33, and the write queue 34 need not be updated in the order shown in FIG. 17, and may be performed in a different order.
[0135]
Then, the CPU 4 erases the block specified by the zone address and the transfer source block address (step S72), and the series of data overwrite operations is completed.
[0136]
As described above, in the present embodiment, only the address translation information related to a part of the blocks is expanded in the address translation table, and in response to a request for reading data from a certain zone, the next zone Since the creation of the address translation information for the zone is started, it is not necessary to create the address translation information for the zone from the beginning even when access to the next zone is actually requested. That is, in the conventional flash memory system, when the address conversion information related to the next zone is not stored in the address conversion table, when access to this zone is requested, all the blocks constituting this zone are transferred. On the other hand, it is necessary to create the address conversion information from the beginning by performing reading, but in the present embodiment, it is not necessary to create the address conversion information from the beginning, so the period of the BUSY state can be shortened. For this reason, it is possible to read data from consecutive host addresses, which is often required during actual use, at high speed, effectively reducing the performance while saving the capacity of the address translation table. It becomes possible to suppress.
[0137]
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
[0138]
For example, in the above embodiment, whether or not the address conversion information related to the next zone is stored in the address conversion table 31 is always determined at the time of data reading (step S18). You can do it only below. For example, such a determination may be made only when the corresponding logical block address of the data reading target block is greater than or equal to a predetermined value, and may be omitted when the corresponding logical block address is less than the predetermined value. If such a condition is provided, speculative table creation will not be performed earlier than necessary, so the contents of the table currently stored in the address translation table 31 may be unnecessarily discarded. Can be lowered. Therefore, in this case, it is preferable that the predetermined value of the corresponding logical block address serving as a threshold value is determined in consideration of the time required for table creation.
[0139]
In the present invention, the means does not necessarily mean a physical means, but includes cases where the functions of the means are realized by software. Further, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.
[0140]
The present invention can be realized as a PC card based on a unified standard published by PCMCIA (Personal Computer Memory Card International Association). Furthermore, in recent years, with the development of high integration technology of semiconductor elements, more compact miniaturized memory cards such as “CompactFlash” proposed by CFA (CompactFlash Association) and “MMC (MultiMediaCard)” proposed by MultiMediaCardAssociation. The present invention can be applied to “Memory Stick” proposed by Sony Corporation and “SD Memory Card” proposed by Matsushita Electric Industrial Co., Ltd.
[0141]
【The invention's effect】
As described above, according to the present invention, it is possible to effectively suppress a decrease in performance while saving the capacity of the address conversion table. In addition, in the present invention, since the speculative creation of the address translation information is performed during the period in which the controller is originally waiting, this work does not degrade the performance of the flash memory system.
[0142]
Therefore, the present invention is particularly effective when the period during which the controller is originally waiting is long, for example, when the operation of the host computer is slow or when the capacity of the FIFO is small.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a configuration of a flash memory system 1 according to a preferred embodiment of the present invention.
FIG. 2 is a cross-sectional view schematically showing a memory cell 10 in an erased state.
FIG. 3 is a cross-sectional view schematically showing a memory cell 10 in a write state.
FIG. 4 is a diagram schematically showing the structure of the address space of the flash memory 2;
FIG. 5 is a diagram schematically showing a data structure of a redundant area 22;
6 is a diagram showing a data structure of an address conversion table 31. FIG.
7 is a diagram showing a data structure of a management table 32. FIG.
8 is a diagram showing a data structure of a priority link 33. FIG.
9 is a diagram showing a data structure of a write queue 34. FIG.
10 is a flowchart showing a new creation method of an address conversion table 31. FIG.
FIG. 11 is a flowchart showing a data read operation.
FIG. 12 is a flowchart showing a table update operation.
FIG. 13 is a timing chart showing the timing of interrupting / resuming the table update operation when a plurality of pages in which data requested by the host computer is read are targeted.
FIG. 14 is a flowchart showing a table completion operation.
FIG. 15 is a flowchart for determining whether a data write request from the host computer is a new data write or a data overwrite.
FIG. 16 is a flowchart showing a new data writing operation.
FIG. 17 is a flowchart showing a data overwrite operation.
[Explanation of symbols]
1 Flash memory system
2 Flash memory
3 Controller
4 CPU
5 RAM
6 ROM
7 FIFO
10 memory cells
11 P-type semiconductor substrate
12 Source diffusion region
13 Drain diffusion region
14 Tunnel oxide film
15 Floating gate electrode
16 Insulating film
17 Control gate electrode
18 channels
21 User area
22 Redundant area
23 Logical block address storage area
24 Area for storing other additional information
31 Address conversion table
32 Management table
33 Preferred links
34 Write queue

Claims (13)

p個のゾーンに分割可能なフラッシュメモリにアクセスするためのメモリコントローラであって、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリに対するアクセスが要求されたことに応答して、アクセス対象である第1のゾーンとは異なる第2のゾーンに関するアドレス変換情報を前記アドレス変換テーブルの所定のテーブル内に作成することを特徴とするメモリコントローラ。A memory controller for accessing a flash memory that can be divided into p zones, an address conversion table having r (r <p) tables capable of storing address conversion information related to one zone of the flash memory And preparing address translation information related to a second zone different from the first zone to be accessed in a predetermined table of the address translation table in response to a request for access to the flash memory. A memory controller featuring. 前記第2のゾーンは、ホスト側から見て前記第1のゾーンの次のゾーンであることを特徴とする請求項1に記載のメモリコントローラ。The memory controller according to claim 1, wherein the second zone is a zone next to the first zone when viewed from the host side. 前記r個のテーブルの優先順位を表示する手段をさらに備え、前記所定のテーブルは優先順位が最も低いテーブル及び優先順位が次に低いテーブルから選ばれることを特徴とする請求項1または2に記載のメモリコントローラ。3. The apparatus according to claim 1, further comprising means for displaying a priority order of the r tables, wherein the predetermined table is selected from a table having the lowest priority order and a table having the next lowest priority order. Memory controller. 前記アクセスの要求が、フラッシュメモリに対するデータの読み出し要求であることを特徴とする請求項1乃至3いずれか1項に記載のメモリコントローラ。The memory controller according to claim 1, wherein the access request is a data read request to a flash memory. p個のゾーンに分割可能なフラッシュメモリにアクセスするためのメモリコントローラであって、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリの第1のゾーンに対するアクセスが要求されたことに応答して、ホスト側から見て前記第1のゾーンに続く第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブルのいずれかのテーブル内に格納されているか否かを判断することを特徴とするメモリコントローラ。A memory controller for accessing a flash memory that can be divided into p zones, an address conversion table having r (r <p) tables capable of storing address conversion information related to one zone of the flash memory In response to the request for access to the first zone of the flash memory, the address conversion information regarding the second zone following the first zone as viewed from the host side is one of the address conversion tables. It is judged whether it is stored in the table. 前記第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブルのいずれのテーブル内にも格納されていないと判断されたことに応答して、いずれかのテーブルに対し、前記第2のゾーンに関するアドレス変換情報の上書きを開始することを特徴とする請求項5に記載のメモリコントローラ。In response to determining that the address conversion information related to the second zone is not stored in any of the address conversion tables, the address conversion related to the second zone is performed on any of the tables. 6. The memory controller according to claim 5, wherein overwriting of information is started. ホストコンピュータ側のアドレスに属する論理アドレスからフラッシュメモリ側のアドレスに属する物理アドレスへの変換に用いるアドレス変換テーブルと、前記フラッシュメモリから読み出したデータを一時的に格納する一時メモリとを備え、前記一時メモリに格納されたデータが前記ホストコンピュータへ転送されている期間に、前記アドレス変換テーブルの内容を更新することを特徴とするメモリコントローラ。An address conversion table used for conversion from a logical address belonging to an address on the host computer side to a physical address belonging to an address on the flash memory side, and a temporary memory for temporarily storing data read from the flash memory, A memory controller, wherein the contents of the address conversion table are updated during a period in which data stored in a memory is transferred to the host computer. 前記一時メモリがFIFOであることを特徴とする請求項7に記載のメモリコントローラ。The memory controller according to claim 7, wherein the temporary memory is a FIFO. p個のゾーンに分割可能なフラッシュメモリと、前記フラッシュメモリにアクセスするメモリコントローラとを備えるフラッシュメモリシステムであって、前記メモリコントローラは、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリに対するアクセスが要求されたことに応答して、アクセス対象である第1のゾーンとは異なる第2のゾーンに関するアドレス変換情報を前記アドレス変換テーブルの所定のテーブル内に作成することを特徴とするフラッシュメモリシステム。A flash memory system comprising a flash memory that can be divided into p zones, and a memory controller that accesses the flash memory, wherein the memory controller can store address conversion information relating to one zone of the flash memory An address conversion table having r tables (r <p), and in response to a request for access to the flash memory, address conversion information relating to a second zone different from the first zone to be accessed Is created in a predetermined table of the address conversion table. p個のゾーンに分割可能なフラッシュメモリと、前記フラッシュメモリにアクセスするメモリコントローラとを備えるフラッシュメモリシステムであって、前記メモリコントローラは、前記フラッシュメモリの一つのゾーンに関するアドレス変換情報を格納可能なテーブルをr個(r<p)有するアドレス変換テーブルを備え、前記フラッシュメモリの第1のゾーンに対するアクセスが要求されたことに応答して、ホスト側から見て前記第1のゾーンに続く第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブルのいずれかのテーブル内に格納されているか否かを判断することを特徴とするフラッシュメモリシステム。A flash memory system comprising a flash memory that can be divided into p zones, and a memory controller that accesses the flash memory, wherein the memory controller can store address conversion information relating to one zone of the flash memory An address conversion table having r tables (r <p), and a second following the first zone as viewed from the host side in response to a request for access to the first zone of the flash memory. And determining whether or not address conversion information relating to the zone is stored in any one of the address conversion tables. 複数のゾーンに分割可能なフラッシュメモリの制御方法であって、前記フラッシュメモリの第1のゾーンに対するアクセスが要求されたことに応答して、ホスト側から見て前記第1のゾーンに続く第2のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されているか否かを判断するステップと、前記第2のゾーンに関するアドレス変換情報が前記アドレス変換テーブル内に格納されていない場合、前記アドレス変換テーブルに対して前記第2のゾーンに関するアドレス変換情報の格納を開始するステップとを備えることを特徴とするフラッシュメモリの制御方法。A method of controlling a flash memory that can be divided into a plurality of zones, the second method following the first zone as viewed from the host side in response to a request for access to the first zone of the flash memory Determining whether address conversion information relating to a second zone is stored in the address conversion table; and if address conversion information relating to the second zone is not stored in the address conversion table, the address conversion table And a step of starting storing address translation information relating to the second zone. 複数のゾーンに分割可能なフラッシュメモリの制御方法であって、前記フラッシュメモリの所定のゾーンに対するアクセスが要求されたことに応答して、前記所定のゾーンに関するアドレス変換情報がアドレス変換テーブル内に格納されているか否かを判断する第1のステップと、前記所定のゾーンに関するアドレス変換情報が前記アドレス変換テーブル内に格納されていると判断されたことに応答して、これが完全なアドレス変換情報であるか不完全なアドレス変換情報であるかを判断する第2のステップとを備えることを特徴とするフラッシュメモリの制御方法。A method of controlling a flash memory that can be divided into a plurality of zones, wherein address conversion information relating to the predetermined zone is stored in an address conversion table in response to a request for access to the predetermined zone of the flash memory In response to determining that the address conversion information related to the predetermined zone is stored in the address conversion table, this is complete address conversion information. And a second step of determining whether the address translation information is incomplete or incomplete address translation information. 前記第2のステップにおいて、前記アドレス変換情報が不完全であると判断されたことに応答して、不完全な部分を補充することによってこれを完成させる第3のステップをさらに備えることを特徴とする請求項12に記載のフラッシュメモリの制御方法。In response to determining that the address translation information is incomplete in the second step, the method further comprises a third step of completing the address translation information by supplementing the incomplete part. The flash memory control method according to claim 12.
JP2002229635A 2002-08-07 2002-08-07 Memory controller, memory system including the same, and flash memory control method Expired - Lifetime JP4042898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002229635A JP4042898B2 (en) 2002-08-07 2002-08-07 Memory controller, memory system including the same, and flash memory control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002229635A JP4042898B2 (en) 2002-08-07 2002-08-07 Memory controller, memory system including the same, and flash memory control method

Publications (2)

Publication Number Publication Date
JP2004070691A true JP2004070691A (en) 2004-03-04
JP4042898B2 JP4042898B2 (en) 2008-02-06

Family

ID=32015951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002229635A Expired - Lifetime JP4042898B2 (en) 2002-08-07 2002-08-07 Memory controller, memory system including the same, and flash memory control method

Country Status (1)

Country Link
JP (1) JP4042898B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155335A (en) * 2004-11-30 2006-06-15 Tdk Corp Memory controller, flash memory system, and control method thereof
JP2012141944A (en) * 2010-12-16 2012-07-26 Toshiba Corp Memory system
CN111078128A (en) * 2018-10-22 2020-04-28 浙江宇视科技有限公司 Data management method and device and solid state disk

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155335A (en) * 2004-11-30 2006-06-15 Tdk Corp Memory controller, flash memory system, and control method thereof
JP4661191B2 (en) * 2004-11-30 2011-03-30 Tdk株式会社 Memory controller, flash memory system, and flash memory control method
JP2012141944A (en) * 2010-12-16 2012-07-26 Toshiba Corp Memory system
CN111078128A (en) * 2018-10-22 2020-04-28 浙江宇视科技有限公司 Data management method and device and solid state disk
CN111078128B (en) * 2018-10-22 2023-05-16 浙江宇视科技有限公司 Data management method and device and solid state disk

Also Published As

Publication number Publication date
JP4042898B2 (en) 2008-02-06

Similar Documents

Publication Publication Date Title
JP3921174B2 (en) Memory controller, flash memory system, and flash memory control method
US5953737A (en) Method and apparatus for performing erase operations transparent to a solid state storage system
JP3905037B2 (en) Memory controller, flash memory system, and flash memory control method
US7552311B2 (en) Memory device with preread data management
US5930815A (en) Moving sequential sectors within a block of information in a flash memory mass storage architecture
US7174440B2 (en) Method and apparatus for performing block caching in a non-volatile memory system
JP5440883B2 (en) Moving sectors in blocks in flash memory
US20020194451A1 (en) Memory controller, flash memory system employing memory controller and method for controlling flash memory device
JP2004516536A (en) Processing techniques for non-volatile memory systems with data sectors having a size different from the page size and / or block size of the memory
US20010012222A1 (en) Memory controller for flash memory system and method for accessing flash memory device
JP2000020252A (en) Storage device using nonvolatile semiconductor memory
KR100914646B1 (en) Management Scheme for Flash Memory with the Multi-Plane Architecture
JP3621051B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP4042898B2 (en) Memory controller, memory system including the same, and flash memory control method
JP4173410B2 (en) Memory controller and flash memory system including the memory controller
JP4316824B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP4233213B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP4248772B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP4220690B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP3999959B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP3999564B2 (en) Memory controller, flash memory system, and flash memory control method
JP4183550B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD
JP2003122630A (en) Memory controller, flash memory system having memory controller, and method for controlling flash memory
JP4194473B2 (en) Memory controller and flash memory system including the memory controller
JP4251950B2 (en) MEMORY CONTROLLER, FLASH MEMORY SYSTEM PROVIDED WITH MEMORY CONTROLLER, AND FLASH MEMORY CONTROL METHOD

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050418

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20051208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071108

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4042898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101122

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111122

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121122

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131122

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term