JP2022510715A - データ領域を記憶するためのキャッシュ - Google Patents
データ領域を記憶するためのキャッシュ Download PDFInfo
- Publication number
- JP2022510715A JP2022510715A JP2021532404A JP2021532404A JP2022510715A JP 2022510715 A JP2022510715 A JP 2022510715A JP 2021532404 A JP2021532404 A JP 2021532404A JP 2021532404 A JP2021532404 A JP 2021532404A JP 2022510715 A JP2022510715 A JP 2022510715A
- Authority
- JP
- Japan
- Prior art keywords
- address
- memory
- area
- cache
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0877—Cache access modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/0223—User address space allocation, e.g. contiguous or non contiguous base addressing
- G06F12/0284—Multiple user address space allocation, e.g. using different base addresses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0806—Multiuser, multiprocessor or multiprocessing cache systems
- G06F12/0811—Multiuser, multiprocessor or multiprocessing cache systems with multilevel cache hierarchies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0844—Multiple simultaneous or quasi-simultaneous cache accessing
- G06F12/0846—Cache with multiple tag or data arrays being simultaneously accessible
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0862—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0893—Caches characterised by their organisation or structure
- G06F12/0897—Caches characterised by their organisation or structure with two or more cache hierarchy levels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/60—Details of cache memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/60—Details of cache memory
- G06F2212/6026—Prefetching based on access pattern detection, e.g. stride based prefetch
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/60—Details of cache memory
- G06F2212/6028—Prefetching based on hints or prefetch instructions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Memory System Of A Hierarchy Structure (AREA)
Abstract
Description
Claims (20)
- 要求アドレスを含むメモリアクセス要求を受信するように構成されたインターフェースと、
ロジックと、を備え、
前記ロジックは、
キャッシュの第2の領域に記憶された連続データのコピーを有するシステムメモリの連続データの第1の領域の識別情報を維持することであって、前記第1の領域はアドレスの範囲を表し、前記識別情報は、前記第1の領域の先頭を識別する第1の開始アドレスと、前記第2の領域のサイズと、を含む、ことと、
メモリアクセス要求を受信したことに応じて、
前記要求アドレスが前記アドレスの範囲内にないと決定したことに応じて、前記メモリアクセス要求を前記システムメモリに送信することと、
前記要求アドレスが前記アドレスの範囲内にあると決定したことに応じて、前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を行うように構成されている、
装置。 - 前記ロジックは、前記キャッシュのデータにアクセスすることによって、選択されたメモリ要求を処理するために、
前記要求アドレスと前記第1の開始アドレスとの差に基づいて、オフセットを決定することと、
前記オフセットと、前記キャッシュの前記第2の領域の先頭を指す第2の開始アドレスと、に基づいて変換アドレスを決定することと、
前記変換アドレスにおいて始まる前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を行うように構成されている、
請求項1の装置。 - 前記ロジックは、前記変換アドレスが前記キャッシュの前記第2の領域の外側のメモリ位置を指すと決定したことに応じて、
前記第2の領域の最大アドレスを前記変換アドレスから減算することによって、ラップアラウンドアドレスを決定することと、
前記ラップアラウンドアドレスにおいて始まる前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を行うように構成されている、
請求項2の装置。 - 前記ロジックは、
前記第2の開始アドレスを維持することと、
前記変換アドレスを、前記オフセット及び前記第2の開始アドレスの合計として決定することと、
を行うように構成されている、
請求項2の装置。 - 前記ロジックは、前記第1の領域のサイズが変化していると決定したことに応じて、
前記第1の開始アドレス、前記第2の開始アドレス及び前記第2の領域のサイズのうち1つ以上を更新することと、
前記第2の領域の更新されたサイズに少なくとも部分的に基づいて、前記アドレスの範囲を更新することと、
を行うように構成されている、
請求項4の装置。 - 前記ロジックは、次のデータアクセスの領域を予測したことに応じて、
前記第1の開始アドレス、前記第2の開始アドレス及び前記第2の領域のサイズのうち1つ以上を初期化することと、
前記システムメモリ内の前記次のデータアクセスの領域の連続データのコピーを前記キャッシュに記憶することと、
を行うように構成されている、
請求項4の装置。 - 前記データアクセスの領域が定義されたと決定することは、
前記ロジックが、受信したメモリアクセス要求を監視し、前記領域を識別するために使用されるパターンを識別することと、
前記ロジックが、前記領域を識別するヒントをソフトウェアから受信することと、
のうち1つ以上を含む、
請求項6の装置。 - 前記ロジックは、前記領域に対する次のデータアクセスがないと決定したことに応じて、
前記第2の領域のサイズを0バイトの値に更新することによって、前記キャッシュに領域が記憶されていないことを特定する指標を記憶するように構成されている、
請求項6の装置。 - 前記ロジックは、前記システムメモリの連続データの複数の領域の識別情報を維持するように構成されており、各領域は、前記キャッシュに記憶された各連続データのコピーを有し、
前記ロジックは、
前記複数の領域毎に複数のアドレス範囲を決定することと、
前記選択されたメモリ要求の要求アドレスが前記複数のアドレス範囲の何れにも含まれていないと決定したことに応じて、前記選択されたメモリ要求をシステムメモリに送信することと、
前記選択されたメモリアクセス要求の要求アドレスが前記複数のアドレス範囲のうち何れかの範囲内にあると決定したことに応じて、前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を行うように構成されている、
請求項1の装置。 - 要求アドレスを含むメモリアクセス要求を受信することと、
キャッシュの第2の領域に記憶された連続データのコピーを有するシステムメモリの連続データの第1の領域の識別情報を維持することであって、前記第1の領域はアドレスの範囲を表し、前記識別情報は、前記第1の領域の先頭にデータを記憶するメモリ位置を指す第1の開始アドレスと、前記第2の領域のサイズと、を含む、ことと、
メモリアクセス要求を受信したことに応じて、
前記要求アドレスが前記アドレスの範囲内にないと決定したことに応じて、前記メモリアクセス要求を前記システムメモリに送信することと、
前記要求アドレスが前記アドレスの範囲内にあると決定したことに応じて、前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、を含む、
方法。 - 前記方法は、前記キャッシュのデータにアクセスすることによって、選択されたメモリ要求を処理するために、
前記要求アドレスと前記第1の開始アドレスとの差に基づいて、オフセットを決定することと、
前記オフセットと、前記キャッシュの前記第2の領域の先頭を指す第2の開始アドレスと、に基づいて変換アドレスを決定することと、
前記変換アドレスにおいて始まる前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、を含む、
請求項10の方法。 - 前記方法は、前記変換アドレスが前記キャッシュの前記第2の領域の外側のメモリ位置を指すと決定したことに応じて、
前記第2の領域の最大アドレスを前記変換アドレスから減算することによって、ラップアラウンドアドレスを決定することと、
前記ラップアラウンドアドレスにおいて始まる前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、を含む、
請求項11の方法。 - 前記第2の開始アドレスを維持することと、
前記変換アドレスを、前記オフセット及び前記第2の開始アドレスの合計として決定することと、を含む、
請求項11の方法。 - 前記方法は、前記第1の領域のサイズが変化していると決定したことに応じて、
前記第1の開始アドレス、前記第2の開始アドレス及び前記第2の領域のサイズのうち1つ以上を更新することと、
前記第2の領域の更新されたサイズに少なくとも部分的に基づいて、前記アドレスの範囲を更新することと、を含む、
請求項13の方法。 - 前記方法は、次のデータアクセスの領域を予測したことに応じて、
前記第1の開始アドレス、前記第2の開始アドレス及び前記第2の領域のサイズのうち1つ以上を初期化することと、
前記システムメモリ内の前記次のデータアクセスの領域の連続データのコピーを前記キャッシュに記憶することと、を含む、
請求項13の方法。 - プログラム命令を記憶するコンピュータ可読記憶媒体であって、
前記プログラム命令は、プロセッサによって実行されると、
要求アドレスを含むメモリアクセス要求を受信することと、
キャッシュの第2の領域に記憶された連続データのコピーを有するシステムメモリの連続データの第1の領域の識別情報を維持することであって、前記第1の領域はアドレスの範囲を表し、前記識別情報は、前記第1の領域の先頭にデータを記憶するメモリ位置を指す第1の開始アドレスと、前記第2の領域のサイズと、を含む、ことと、
前記メモリアクセス要求を受信したことに応じて、
前記要求アドレスが前記アドレスの範囲内にないと決定したことに応じて、前記メモリアクセス要求を前記システムメモリに送信することと、
前記要求アドレスが前記アドレスの範囲内にあると決定したことに応じて、前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を前記プロセッサに行わせる、
コンピュータ可読記憶媒体。 - 前記プログラム命令は、前記キャッシュのデータにアクセスすることによって、選択されたメモリ要求を処理するために、
前記要求アドレスと前記第1の開始アドレスとの差に基づいて、オフセットを決定することと、
前記オフセットと、前記キャッシュの前記第2の領域の先頭を指す第2の開始アドレスと、に基づいて変換アドレスを決定することと、
前記変換アドレスにおいて始まる前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を前記プロセッサに行わせる、
請求項16のコンピュータ可読記憶媒体。 - 前記プログラム命令は、前記変換アドレスが前記キャッシュの前記第2の領域の外側のメモリ位置を指すと決定したことに応じて、
前記第2の領域の最大アドレスを前記変換アドレスから減算することによって、ラップアラウンドアドレスを決定することと、
前記ラップアラウンドアドレスにおいて始まる前記キャッシュのデータにアクセスすることによって、前記メモリ要求を処理することと、
を前記プロセッサに行わせる、
請求項17のコンピュータ可読記憶媒体。 - 前記プログラム命令は、
前記第2の開始アドレスを維持することと、
前記変換アドレスを、前記オフセット及び前記第2の開始アドレスの合計として決定することと、
を前記プロセッサに行わせる、
請求項17のコンピュータ可読記憶媒体。 - 前記プログラム命令は、前記第1の領域のサイズが変化していると決定したことに応じて、
前記第1の開始アドレス、前記第2の開始アドレス及び前記第2の領域のサイズのうち1つ以上を更新することと、
前記第2の領域の前記更新されたサイズに少なくとも部分的に基づいて、前記アドレスの範囲を更新することと、
を前記プロセッサに行わせる、
請求項19のコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/214,363 | 2018-12-10 | ||
US16/214,363 US11232039B2 (en) | 2018-12-10 | 2018-12-10 | Cache for storing regions of data |
PCT/US2019/065155 WO2020123343A1 (en) | 2018-12-10 | 2019-12-09 | Cache for storing regions of data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510715A true JP2022510715A (ja) | 2022-01-27 |
JP7108141B2 JP7108141B2 (ja) | 2022-07-27 |
Family
ID=69137998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021532404A Active JP7108141B2 (ja) | 2018-12-10 | 2019-12-09 | データ領域を記憶するためのキャッシュ |
Country Status (6)
Country | Link |
---|---|
US (2) | US11232039B2 (ja) |
EP (1) | EP3895025A1 (ja) |
JP (1) | JP7108141B2 (ja) |
KR (1) | KR20210088683A (ja) |
CN (1) | CN113168378A (ja) |
WO (1) | WO2020123343A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210103820A1 (en) * | 2019-10-03 | 2021-04-08 | Vathys, Inc. | Pipelined backpropagation with minibatch emulation |
KR20210088304A (ko) * | 2020-01-06 | 2021-07-14 | 삼성전자주식회사 | 이미지 프로세서의 동작 방법, 이미지 처리 장치 및 이미지 처리 장치의 동작 방법 |
KR20210106221A (ko) * | 2020-02-20 | 2021-08-30 | 삼성전자주식회사 | 시스템 온 칩, 그것의 데이터 처리 방법 및 뉴럴 네트워크 장치 |
US11507517B2 (en) * | 2020-09-25 | 2022-11-22 | Advanced Micro Devices, Inc. | Scalable region-based directory |
KR20230154691A (ko) * | 2022-05-02 | 2023-11-09 | 이화여자대학교 산학협력단 | 컴파일러 데이터 의존성 정보를 이용한 프로세서의 명령어 연산 수행 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146819A (ja) * | 1993-11-22 | 1995-06-06 | Nec Corp | キャッシュ方式 |
US7334108B1 (en) * | 2004-01-30 | 2008-02-19 | Nvidia Corporation | Multi-client virtual address translation system with translation units of variable-range size |
US20160117254A1 (en) * | 2014-10-22 | 2016-04-28 | Netapp, Inc. | Cache optimization technique for large working data sets |
US20170212845A1 (en) * | 2016-01-25 | 2017-07-27 | Advanced Micro Devices, Inc. | Region migration cache |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5537574A (en) * | 1990-12-14 | 1996-07-16 | International Business Machines Corporation | Sysplex shared data coherency method |
US5845308A (en) * | 1995-12-27 | 1998-12-01 | Vlsi Technology, Inc. | Wrapped-line cache for microprocessor system |
GB2325061B (en) * | 1997-04-30 | 2001-06-06 | Advanced Risc Mach Ltd | Memory access protection |
US6658532B1 (en) * | 1999-12-15 | 2003-12-02 | Intel Corporation | Cache flushing |
US7594073B2 (en) * | 2006-09-29 | 2009-09-22 | Intel Corporation | Method and apparatus for caching memory content on a computing system to facilitate instant-on resuming from a hibernation state |
US8719501B2 (en) * | 2009-09-08 | 2014-05-06 | Fusion-Io | Apparatus, system, and method for caching data on a solid-state storage device |
US8244981B2 (en) * | 2009-07-10 | 2012-08-14 | Apple Inc. | Combined transparent/non-transparent cache |
GB2473850A (en) * | 2009-09-25 | 2011-03-30 | St Microelectronics | Cache configured to operate in cache or trace modes |
US9063663B2 (en) * | 2010-09-21 | 2015-06-23 | Hitachi, Ltd. | Semiconductor storage device and data control method thereof |
US9141527B2 (en) * | 2011-02-25 | 2015-09-22 | Intelligent Intellectual Property Holdings 2 Llc | Managing cache pools |
US9753858B2 (en) * | 2011-11-30 | 2017-09-05 | Advanced Micro Devices, Inc. | DRAM cache with tags and data jointly stored in physical rows |
US8949544B2 (en) | 2012-11-19 | 2015-02-03 | Advanced Micro Devices, Inc. | Bypassing a cache when handling memory requests |
US9792049B2 (en) * | 2014-02-24 | 2017-10-17 | Cypress Semiconductor Corporation | Memory subsystem with wrapped-to-continuous read |
US9459998B2 (en) * | 2015-02-04 | 2016-10-04 | International Business Machines Corporation | Operations interlock under dynamic relocation of storage |
US9817760B2 (en) * | 2016-03-07 | 2017-11-14 | Qualcomm Incorporated | Self-healing coarse-grained snoop filter |
US10725918B2 (en) * | 2017-09-19 | 2020-07-28 | International Business Machines Corporation | Table of contents cache entry having a pointer for a range of addresses |
-
2018
- 2018-12-10 US US16/214,363 patent/US11232039B2/en active Active
-
2019
- 2019-12-09 JP JP2021532404A patent/JP7108141B2/ja active Active
- 2019-12-09 EP EP19832499.8A patent/EP3895025A1/en active Pending
- 2019-12-09 WO PCT/US2019/065155 patent/WO2020123343A1/en unknown
- 2019-12-09 KR KR1020217017697A patent/KR20210088683A/ko not_active Application Discontinuation
- 2019-12-09 CN CN201980081940.9A patent/CN113168378A/zh active Pending
-
2022
- 2022-01-14 US US17/575,991 patent/US20220138107A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07146819A (ja) * | 1993-11-22 | 1995-06-06 | Nec Corp | キャッシュ方式 |
US7334108B1 (en) * | 2004-01-30 | 2008-02-19 | Nvidia Corporation | Multi-client virtual address translation system with translation units of variable-range size |
US20160117254A1 (en) * | 2014-10-22 | 2016-04-28 | Netapp, Inc. | Cache optimization technique for large working data sets |
US20170212845A1 (en) * | 2016-01-25 | 2017-07-27 | Advanced Micro Devices, Inc. | Region migration cache |
Also Published As
Publication number | Publication date |
---|---|
CN113168378A (zh) | 2021-07-23 |
WO2020123343A1 (en) | 2020-06-18 |
KR20210088683A (ko) | 2021-07-14 |
US11232039B2 (en) | 2022-01-25 |
US20220138107A1 (en) | 2022-05-05 |
JP7108141B2 (ja) | 2022-07-27 |
US20200183848A1 (en) | 2020-06-11 |
EP3895025A1 (en) | 2021-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7108141B2 (ja) | データ領域を記憶するためのキャッシュ | |
EP2786255B1 (en) | A dram cache with tags and data jointly stored in physical rows | |
JP4658112B2 (ja) | ダイナミック・ランダムアクセスメモリからスタティック・ランダムアクセスメモリへのプリフェッチ | |
US8868843B2 (en) | Hardware filter for tracking block presence in large caches | |
Loh | 3D-stacked memory architectures for multi-core processors | |
US10310976B2 (en) | System and method for concurrently checking availability of data in extending memories | |
KR102402630B1 (ko) | 캐시 제어 인지 메모리 컨트롤러 | |
US20070220207A1 (en) | Transferring data from stacked memory | |
US20130031313A1 (en) | Cache arrangement | |
TW202125773A (zh) | 具有增進記憶體側快取實施之多層記憶體 | |
CN115132238A (zh) | 集成三维(3d)dram缓存 | |
US11775431B2 (en) | Cache memory with randomized eviction | |
US20220374348A1 (en) | Hardware Acceleration | |
US20220276969A1 (en) | Sedram-based stacked cache system and device and controlling method therefor | |
US20230195623A1 (en) | Cache Memory with Randomized Eviction | |
US20120151150A1 (en) | Cache Line Fetching and Fetch Ahead Control Using Post Modification Information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210729 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220614 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220714 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7108141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |