JP2009521054A - ダイナミックキャッシュ管理装置及び方法 - Google Patents

ダイナミックキャッシュ管理装置及び方法 Download PDF

Info

Publication number
JP2009521054A
JP2009521054A JP2008546821A JP2008546821A JP2009521054A JP 2009521054 A JP2009521054 A JP 2009521054A JP 2008546821 A JP2008546821 A JP 2008546821A JP 2008546821 A JP2008546821 A JP 2008546821A JP 2009521054 A JP2009521054 A JP 2009521054A
Authority
JP
Japan
Prior art keywords
counter
data stream
stream processing
data
cache memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008546821A
Other languages
English (en)
Inventor
クルカルニー ミリンダ
ウドゥーパ ナレーンドラナート
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NXP BV
Original Assignee
NXP BV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NXP BV filed Critical NXP BV
Publication of JP2009521054A publication Critical patent/JP2009521054A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • G06F12/121Replacement control using replacement algorithms
    • G06F12/126Replacement control using replacement algorithms with special data handling, e.g. priority of data or instructions, handling errors or pinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0893Caches characterised by their organisation or structure

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本発明の装置は、マルチコア又はマルチプロセッサシステムが、犠牲に適したキャッシュメモリ(100)のブロックを確実に識別しうるようにするとともに、近い将来に必要とするキャッシュメモリのブロックを犠牲にするのを阻止しうるようにすることにより、コンピュータシステムの性能を改善する。これらの目的を達成するために、システムが、適切なプリフェッチ及びライトバック判定を行ってデータ伝送がプロセッサの実行と重複するようにする推定プロダクションタイム(EPT)カウンタ(102)及び推定コンサンプションタイム(ECT)カウンタ(104)の形態で得られるスケジュール情報を有するFIFOを具えるようにする。

Description

本発明は、データ処理システムに関するものであり、特にキャッシュ(メモリ)管理を最適化したマルチプロセッサシステムに関するものである。
コンピュータのハードウェア及びソフトウェア技術の進歩の結果として、マルチプロセッサコンピュータシステムは、このシステムを種々のタスクに論理的に分割することにより極めて複雑な並列処理を実行しうるようになっている。プロセッサは、代表的に少なくとも2レベルのキャッシュを有する1つ以上のプロセッサモジュールを存在させることができる。
キャッシュ(メモリ)は代表的に、主メモリよりも著しく高速にアクセスしうる。キャッシュは代表的に、プロセッサモジュール上に、又はプロセッサ内に位置している。キャッシュは、近時に用いられた命令やデータを保持して、これらの命令やデータが必要になる度に主メモリからこれらの命令やデータを取り出すのに要する待ち時間を低減させるバッファとして作用する。
ある種のキャッシュは、主メモリから最も頻繁に用いられたメモリラインを保持している。メモリラインは、8バイトのような、メモリから読み取ることのできるデータの最小単位であり、キャッシュラインは、キャッシュ中の対応する単位である。キャッシュラインはメモリラインを記憶している為、これらメモリラインを用いる度に、これらメモリラインを、比較的低速な主メモリから取り出す必要がない。
代表的には、最も頻繁に用いられるメモリラインのみがキャッシュに記憶される。その理由は、比較的高速で高価なキャッシュは主メモリに比べて小型である為である。従って、キャッシュメモリは、通常、トランザクション処理に必要とするデータを全て記憶するものではない。上述したことは一般に、最長時間未使用の入力、すなわちキャッシュラインを追跡し、これらの最長時間未使用のキャッシュラインを、キャッシュの現在の内容が満足しえない最新のキャッシュ要求と関連するメモリラインと置き換えることにより達成される。キャッシュラインが主メモリにシフトした為に、満足されないキャッシュ要求
はしばしば、キャッシュミスと称されている。その理由は、プロセッサは要求をキャッシュに送るが、メモリラインの内容をキャッシュから取り出す機会を失った為である。
プロセッサは代表的に、命令のような頻繁に使用されるメモリラインのコピーを得るためのレベル1(L1)のキャッシュを有している。このキャッシュがないと、これらメモリラインはしばしば、比較的低速の主メモリからアクセスされる。L1キャッシュは、場合によっては主メモリをアクセスする数千サイクルの待ち時間を、キャッシュをアクセスするのに要する数サイクルに低減させることができる。しかし、L1キャッシュは一般に小型である。その理由は、プロセッサ内で用いられる領域の容積が制限されている為である。
レベル2(L2)のキャッシュはしばしば、プロセッサに物理的に接近しているプロセッサモジュールに存在する。L2キャッシュはL1キャッシュよりも大きくしうる。その理由は、L2キャッシュは廉価に製造でき、例えば、近時に使用した多数のメモリラインを維持する構成としうる。
L2キャッシュは、プロセッサモジュールにおける1つよりも多いプロセッサに対する大型の共有キャッシュとして、又はプロセッサモジュールにおける各プロセッサに対する別々の専用キャッシュとして構成することができる。大型で共有のL2キャッシュは、多数のメモリラインへのアクセスを含むプロセッサに関するワークロードデマンドにとって有益である。例えば、プロセッサが大きなデータベースをアクセスしている場合に、多数のメモリラインを繰り返しアクセスすることができる。しかし、L2キャッシュが多数の繰り返しアクセスされたメモリライン、すなわちブロックを保持するのに充分大きくない場合には、最初にアクセスされたメモリラインに上書きされ(すなわち、最初にアクセスされたメモリラインが犠牲にされ)、プロセッサはこれらのブロックの要求を主メモリから再び行う必要がある。
YAPI及びTSSAのようなストリーミングアプリケーションモデルは、FIFOを介して通信するタスクより成っている。代表的には、データへのアクセスの待ち時間を低減させるために、FIFOがキャッシュに格納されている。しかし、平均のFIFOキャッシュ条件が、1つのキャッシュが対処しうるよりも大きい場合には、このことはしばしばキャッシュミスマッチとなる。実際のキャッシュの大きさと所望のキャッシュの大きさとの間のこのミスマッチは、特定のFIFOに対し用いるためにキャッシュ内に存在する他のメモリブロックを犠牲にする。
例えば、ある場合には、直ちに必要とするメモリブロックが間違って犠牲として選択され、その結果、追加の不必要なデータ伝送が行われるおそれがある。又、近い将来に確実に用いられることがなく、従って、適切な犠牲候補であるブロックが犠牲とならないという他のおそれがある。従って、どのメモリブロックがすぐの近い将来に書き込み又は読み出しに用いられようとしているかを表すための決定論的方法が望まれている。
タスクスケジューラと通信する入力計数ユニット及び出力計数ユニットを有するFIFOレジスタを具える幾つかのシステムが開発された。1つの特定の種類のFIFOレジスタは、このFIFOレジスタにおいて通信すべきデータに対する予想プロダクション(生成)タイム(EPT)及びこのFIFOレジスタにおいて通信すべきデータに対する予想コンサンプション(使用)タイム(ECT)を計数するカウンタを有する。このようなカウンタは、メモリブロックの無効な犠牲を最少にするのに用いることができる。
本発明の装置は、マルチコア又はマルチプロセッサシステムが、犠牲にしてかまわないキャッシュメモリブロックを確実に識別しうるようにすることにより、コンピュータシステムの性能を改善するとともに、近い将来に必要となるメモリブロックの犠牲をも回避するようにする。
上述した目的を達成するために、システムが、EPT及びECTカウンタの形態で得られるスケジュール情報を有するFIFOを用いるようにする。
本発明の上述した概要は、本発明の開示する各実施例又は全ての観点を表すものではない。他の観点、詳細及び実施例は以下の図面に関する説明に与えられている。
本発明は、以下の図面に関する本発明の種々の実施例の詳細な説明を考慮することによりより一層完全に理解しうるであろう。
本発明には種々の変形が可能であるが、本発明の特定例を図面につき詳細に説明するものである。しかし、本発明はこれらの特定例に限定されるものではなく、特許請求の範囲に規定した本発明の精神及び範囲内の全ての等価例及び変形例を含むものである。
図1は、EPTカウンタ102と、ECTカウンタ104とを有するキャッシュ100を示す。キャッシュ100は、このキャッシュ100の一部を占める5つのFIFOを有する。このキャッシュ100は、本発明の一実施例では単一レベルのメモリとすることができる。本発明の他の実施例によれば、キャッシュ100はマルチレベルを有するようにしうる。本発明の他の態様は、複数のプロセッサに対し共有するキャッシュ100か、又は複数のプロセッサコアを有する単一のプロセッサを具えることができる。
データは代表的に、プロセッサ又はコントローラから得られる作業要求の形態をとる。これらの作業要求は通常、キュー又はスタックに組織化されている。作業要求の各キュー又はスタックはFIFOに供給され、他の処理のために先入れ先出しの順序で(通常、一時的に)記憶される。本発明は、FIFOにおいてEPT及びECTカウンタを用いる場合につき説明するが、本発明は、これらのカウンタを、キュー又はスタックからの作業要求を逆の順序で処理するLIFOと関連して用いるようにすることもできること勿論である。従って、EPT及びECTカウンタは、それぞれのFIFOにおいてデータを生成又は使用しうるのに残された時間(又はサイクル)を表す。
EPTカウンタ102及びECTカウンタ104は何れかの特定のFIFOと関連している。EPTカウンタ102及びECTカウンタ104は有効化又は無効化の何れにもすることができる。
可能性としては以下の3通りが存在する。第1の可能性は、特定のFIFOのEPTカウンタ102及びECTカウンタ104を無効化する場合であり、このことは、これらのカウンタが表しているFIFOの如何なるキャッシュ関連動作にもこれらのカウンタが影響を及ぼさないということを意味する。第2の可能性は、EPTカウンタ102及びECTカウンタ104のうちの一方が無効化され、他方が有効化されている場合である。第3の可能性は、EPTカウンタ102及びECTカウンタ104の双方が有効化されている場合である。従って、これらの3つの可能性のそれぞれに対する結果が存在する。
所定の如何なる時でも、これらの3つのカウンタに対し3つの動作上の可能性があるが、EPTカウンタ又はECTカウンタの何れかの状態(有効化又は無効化)を時間とともに変更させることもできること勿論である。本発明の一態様によれば、EPTカウンタ又はECTカウンタの状態を予め決定する。特に、有効化又は無効化の何れかを行うことができる。本発明の他の態様によれば、EPTカウンタ又はECTカウンタの何れかの状態、或いはこれらの双方の状態が、特別に規定した事象の発生又は不発生に応答するようにしうる。本発明の更に他の態様によれば、EPTカウンタ又はECTカウンタの何れかの状態、或いはこれらの双方の状態を、特別に規定した事象の発生又は不発生に、及び現在のシステム負荷に応答して選択するようにしうる。本発明の更に他の態様によれば、EPTカウンタ又はECTカウンタの何れかの状態、或いはこれらの双方の状態を、特別に規定した事象の発生又は不発生に、及び予想されるシステム負荷に応答して選択するようにしうる。予想されるシステム負荷は、予測解析を用いて予想することができる。
EPTカウンタ及びECTカウンタが有効化されると、これらカウンタの各々が、データのプリフェッチや、予め決定した意思決定基準に基づいてデータをキャッシュからより低いメモリレベルにライトバックすることに関し決定を行う。EPTカウンタにより行われるプリフェッチ決定は、ECTカウンタにより行われる決定とは無関係である。従って、本発明の一態様によれば、この意思決定プロセスで同じデータを用いても、EPTカウンタの決定による結果がECTカウンタにより行われる意思決定に影響を及ぼさないようにする。
特定のFIFOは、最小値を有するEPTカウンタ及びECTカウンタを具えることができ、この場合、このFIFOに対応するデータを用いる前に、このデータを変更する可能性は最少となる。或いはまた、FIFOは、最大値を有するEPTカウンタ及びECTカウンタを具えることができ、この場合、このFIFOに対応するデータを用いる前に、このデータを変更する可能性は大きくなる。カウンタの有用性は変化し、カウンタ値が増大するにつれ、カウンタが実質的に無意味となる最小値を有する状態が生じるまで減少すること勿論である。従って、本発明によれば、カウンタ値が最大のしきい値に達した際に、EPTカウンタ及びECTカウンタを無効化する。
最大のカウンタしきい値は、どのくらいのスペースが処理用に準備されているかを表すものである。本発明の1つの態様によれば、カウンタしきい値を予め決定する。本発明の他の態様によれば、カウンタしきい値を特定のプロセッサトランザクションの特性に応じて変化させるとともに、種々のプロセッサに対するタスクスケジュールに静的に基づかせる。本発明の更に他の態様によれば、カウンタしきい値を、予め決定したスループットの最適化スキームに応じて動的に変化させる。
EPT及びECTデータがそのFIFOに対応する最大しきい値の付近にある場合、データが近い将来に変更されない可能性が強くなり、従って、このFIFOが占めるキャッシュラインを除去することができる。従って、このFIFOに相当するいかなる変更されたデータをもライトバックするライトバック動作が開始される。簡単に言うと、EPTカウンタ及びECTカウンタが最大しきい値に達した際に、特定のFIFO内に記憶されたデータが犠牲のためにキュー処理される。
EPTカウンタが最大値を有して無効化され、且つECTカウンタが小さな値を有すると、このことは、データプロデューサが充分なデータを発生してスケジュールから外される可能性を表している。データコンシューマはプロセッサの1つでスケジュールに入れられ、データの使用を開始する。FIFOに対するデータがまだキャッシュされていない場合には、ECTカウンタのサンプル値に基づいて適切なプリフェッチ処理が自動的に開始され、このFIFOに対応するデータがキャッシュに入れられる。データのプリフェッチレートは処理工程と、最も重要性の高いECTカウンタの値とに依存する。従って、キャッシュリソースが最適化される。
EPTカウンタが小さな値を有し、且つECTカウンタが最大値を有して無効化される場合には、データプロデューサのみがスケジュールに入れられ、データコンシューマはまだ実行のスケジュールに入れられない。従って、データコンシューマは、データプロデューサにより発生されるデータを近い将来に用いない。この場合、キャッシュはライトバックバッファとして動作しうる。データプロデューサにより発生されるデータをライトバックさせるのに、適切なライトバック命令が用いられる。ライトバック命令のデータレートはEPTカウンタのしきい値に基づいている。
EPTカウンタ及びECTカウンタの双方が小さな値を有して有効化される場合、このことは、発生データがデータコンシューマによって使用される為に、FIFOの平均充填率を小さくすることができるということを意味する。
本発明は幾つかの特定の実施例につき説明したが、特許請求の範囲に規定した本発明の精神及び範囲を逸脱することなく、種々の変形例を加えうること、当業者にとって明らかである。
図1は、FIFOバッファと、予想プロダクションタイム(EPT)及び予想コンサンプションタイム(ECT)カウンタとを示す線図である。

Claims (6)

  1. プロセッサと、このプロセッサと通信してこのプロセッサからの命令を受けるとともに、この命令に応答してデータのラインをこのプロセッサに伝える少なくとも1つのレベルのキャッシュメモリと、このキャッシュメモリと通信してデータの特定のラインに対するプロダクションタイムを推定する第1のカウンタと、前記キャッシュメモリと通信してデータの特定のラインに対するコンサンプションタイムを推定する第2のカウンタとを具えるデータストリーム処理装置において、前記第1及び第2のカウンタにより、このデータストリーム処理装置が命令のスケジューリングを最適化しうるようにしたデータストリーム処理装置。
  2. 請求項1に記載のデータストリーム処理装置において、前記第1及び第2のカウンタの各々が最大しきい値を有し、この最大しきい値に達すると、このカウンタがキャッシュメモリの犠牲を可能にするようになっているデータストリーム処理装置。
  3. 請求項1に記載のデータストリーム処理装置において、このデータストリーム処理装置が更に、タスクのスケジュールを有する複数のプロセッサを具えており、これらの複数のプロセッサと前記キャッシュメモリとが通信するようになっており、各カウンタが予め決定した最大しきい値を有し、この最大しきい値に達すると、カウンタがキャッシュメモリの犠牲を可能にするようになっているデータストリーム処理装置。
  4. 請求項1に記載のデータストリーム処理装置において、このデータストリーム処理装置が更に、タスクのスケジュールを有する複数のプロセッサを具えており、これらの複数のプロセッサと前記キャッシュメモリとが通信するようになっており、各カウンタが利用可能な最大しきい値を有し、この最大しきい値に達すると、カウンタがキャッシュメモリの犠牲を可能にするようになっているデータストリーム処理装置。
  5. 請求項1に記載のデータストリーム処理装置において、このデータストリーム処理装置が更に、タスクのスケジュールを有する複数のプロセッサを具えており、これらの複数のプロセッサと前記キャッシュメモリとが通信するようになっており、各カウンタが、前記複数のプロセッサに対するタスクのスケジュールに静的に基づく最大しきい値を有し、この最大しきい値に達すると、カウンタがキャッシュメモリの犠牲を可能にするようになっているデータストリーム処理装置。
  6. タスクのスケジュールを有する複数のプロセッサを含むデータ処理手段と、前記プロセッサと共有通信してプロセッサから命令を受けるとともに、これらの命令に応答してプロセッサにデータのラインを伝達する少なくとも1つのレベルのキャッシュメモリと、このキャッシュメモリと通信してデータの特定のラインに対しプロダクションタイムを推定する推定プロダクションタイム(EPT)カウンタと、前記キャッシュメモリと通信してデータの特定のラインに対するコンサンプションタイムを推定する推定コンサンプションタイム(ECT)カウンタとを具えるデータストリーム処理システムであって、EPTカウンタ及びECTカウンタは、前記複数のプロセッサに対するタスクのスケジュールに静的に基づく最大しきい値を有し、この最大しきい値に達すると、カウンタが特定のキャッシュメモリラインの犠牲を可能にするようになっているデータストリーム処理システム。
JP2008546821A 2005-12-23 2006-12-21 ダイナミックキャッシュ管理装置及び方法 Withdrawn JP2009521054A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US75386905P 2005-12-23 2005-12-23
PCT/IB2006/055011 WO2007072456A2 (en) 2005-12-23 2006-12-21 Apparatus and method for dynamic cache management

Publications (1)

Publication Number Publication Date
JP2009521054A true JP2009521054A (ja) 2009-05-28

Family

ID=38091201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008546821A Withdrawn JP2009521054A (ja) 2005-12-23 2006-12-21 ダイナミックキャッシュ管理装置及び方法

Country Status (6)

Country Link
US (1) US20080276045A1 (ja)
EP (1) EP1966705A2 (ja)
JP (1) JP2009521054A (ja)
CN (1) CN101341471B (ja)
TW (1) TW200745847A (ja)
WO (1) WO2007072456A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8555000B2 (en) 2009-10-16 2013-10-08 Samsung Electronics Co., Ltd. Data storage device and data storing method thereof

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2142546B1 (en) * 2007-03-28 2017-06-07 Saniona A/S Purinyl derivatives and their use as potassium channel modulators
US8131937B2 (en) * 2007-06-22 2012-03-06 International Business Machines Corporation Apparatus and method for improved data persistence within a multi-node system
CN101853303B (zh) * 2010-06-02 2012-02-01 深圳市迪菲特科技股份有限公司 一种基于语义智能存储方法及系统
US9501420B2 (en) * 2014-10-22 2016-11-22 Netapp, Inc. Cache optimization technique for large working data sets
TWI828391B (zh) * 2022-10-27 2024-01-01 慧榮科技股份有限公司 資料儲存裝置與資料儲存裝置之緩存器大小估計方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7076609B2 (en) * 2002-09-20 2006-07-11 Intel Corporation Cache sharing for a chip multiprocessor or multiprocessing system
US20050015555A1 (en) * 2003-07-16 2005-01-20 Wilkerson Christopher B. Method and apparatus for replacement candidate prediction and correlated prefetching
US20050108478A1 (en) * 2003-11-13 2005-05-19 International Business Machines Corporation Dynamic frequent instruction line cache
CN1322430C (zh) * 2003-11-24 2007-06-20 佛山市顺德区顺达电脑厂有限公司 高速缓存代换方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8555000B2 (en) 2009-10-16 2013-10-08 Samsung Electronics Co., Ltd. Data storage device and data storing method thereof

Also Published As

Publication number Publication date
CN101341471B (zh) 2011-03-30
WO2007072456A3 (en) 2007-11-22
WO2007072456A2 (en) 2007-06-28
EP1966705A2 (en) 2008-09-10
US20080276045A1 (en) 2008-11-06
CN101341471A (zh) 2009-01-07
TW200745847A (en) 2007-12-16

Similar Documents

Publication Publication Date Title
US20230004500A1 (en) Aggressive write flush scheme for a victim cache
US9514051B2 (en) Cache memory with unified tag and sliced data
US8521982B2 (en) Load request scheduling in a cache hierarchy
US8255631B2 (en) Priority-based prefetch requests scheduling and throttling
US8079031B2 (en) Method, apparatus, and a system for dynamically configuring a prefetcher based on a thread specific latency metric
US8196147B1 (en) Multiple-processor core optimization for producer-consumer communication
US7774522B2 (en) Cache stashing processor control messages
US20060206635A1 (en) DMA engine for protocol processing
US9886385B1 (en) Content-directed prefetch circuit with quality filtering
US9727469B2 (en) Performance-driven cache line memory access
WO2000041076A2 (en) Circuit arrangement and method with state-based transaction scheduling
US20140317357A1 (en) Promoting transactions hitting critical beat of cache line load requests
US11960945B2 (en) Message passing circuitry and method
US9239787B2 (en) System with internal memory for storing data or a portion of data written to external memory
US6711651B1 (en) Method and apparatus for history-based movement of shared-data in coherent cache memories of a multiprocessor system using push prefetching
JP2009521054A (ja) ダイナミックキャッシュ管理装置及び方法
US6961781B1 (en) Priority rules for reducing network message routing latency
US7882309B2 (en) Method and apparatus for handling excess data during memory access
JP2005310134A (ja) 記憶性能の改善
JP2006031710A (ja) データ処理システム、方法およびキャッシュシステム
US8719542B2 (en) Data transfer apparatus, data transfer method and processor
US7296167B1 (en) Combined system responses in a chip multiprocessor
JPWO2008149657A1 (ja) 入出力制御システム、入出力制御方法、及び、入出力制御プログラム
US11016899B2 (en) Selectively honoring speculative memory prefetch requests based on bandwidth state of a memory access path component(s) in a processor-based system
CN118276990A (zh) 一种多线程任务管理系统及其方法、网络处理器、芯片

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090907