JP2022127884A - 演算装置、圧縮方法 - Google Patents
演算装置、圧縮方法 Download PDFInfo
- Publication number
- JP2022127884A JP2022127884A JP2021026108A JP2021026108A JP2022127884A JP 2022127884 A JP2022127884 A JP 2022127884A JP 2021026108 A JP2021026108 A JP 2021026108A JP 2021026108 A JP2021026108 A JP 2021026108A JP 2022127884 A JP2022127884 A JP 2022127884A
- Authority
- JP
- Japan
- Prior art keywords
- probability
- parameter
- index
- value
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000007906 compression Methods 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 55
- 230000006835 compression Effects 0.000 title claims description 52
- 238000009826 distribution Methods 0.000 claims abstract description 160
- 230000008569 process Effects 0.000 claims abstract description 40
- 238000013528 artificial neural network Methods 0.000 claims abstract description 36
- 238000012545 processing Methods 0.000 claims description 79
- 230000008878 coupling Effects 0.000 claims description 8
- 238000010168 coupling process Methods 0.000 claims description 8
- 238000005859 coupling reaction Methods 0.000 claims description 8
- 230000001186 cumulative effect Effects 0.000 description 45
- 230000006870 function Effects 0.000 description 28
- 230000006837 decompression Effects 0.000 description 26
- 238000004364 calculation method Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 17
- 238000012986 modification Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 240000006829 Ficus sundaica Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013144 data compression Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000001172 regenerating effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/10—File systems; File servers
- G06F16/17—Details of further file system functions
- G06F16/174—Redundancy elimination performed by the file system
- G06F16/1744—Redundancy elimination performed by the file system using compression, e.g. sparse files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/3068—Precoding preceding compression, e.g. Burrows-Wheeler transformation
- H03M7/3079—Context modeling
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/40—Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
- H03M7/40—Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
- H03M7/4031—Fixed length to variable length coding
- H03M7/4037—Prefix coding
- H03M7/4043—Adaptive prefix coding
- H03M7/4062—Coding table adaptation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
本発明の第2の態様による圧縮方法は、予測器とエンコーダとデコーダとを有し、確率密度分布を用いてデータのエンコード及びデコードを行う演算装置が実行する圧縮方法であって、前記演算装置は、学習処理と圧縮処理とのうち少なくとも圧縮処理を実行可能であり、前記学習処理にて作成した、ニューラルネットワークを用いて学習をすることで、母数とシンボル値の確率分布とを対応させた確率分布表を利用可能であり、前記圧縮処理には、前記予測器が、入力データから母数を算出することと、前記エンコーダが、前記算出された母数と、前記確率分布表と、に基づくシンボル値の確率分布を用いて、前記入力データを圧縮することとを含む。
以下、図1~図9を参照して、本発明に係る演算装置の第1の実施の形態を説明する。
Defined Storage)やデータベース等のストレージ関連のソフトウェアを動作させる。これによりプロセッサ112は、受領したセンサデータを圧縮後、複数の演算装置100により構成されるノード群に圧縮データを分散して格納する。このとき、プロセッサ112は、SDSやデータベースの制御にしたがって、記憶媒体114にデータを記録する。
図2は、演算装置100の機能構成図である。演算装置100は、その機能として、エンコーダ201と、エントロピー符号化部202と、予測器203と、インデックス生成部211と、分布表生成部212と、インデックス特定部221と、確率特定部222と、圧縮ファイル生成部230と、デコーダ301と、エントロピー復号化部302とを備える。また演算装置100の記憶媒体114には、センサデータSと、特徴量マップFと、インデックス対応表500と、分布表600と、設定表650と、圧縮ファイル700とを格納できる。ただし記憶媒体114に格納される上述したデータは、全てが同時に記憶媒体114に格納される必要はない。なお以下では、インデックス生成部211とインデックス特定部221とをあわせて、「インデックス生成部」240と呼ぶこともある。また分布表生成部212は、「対応情報生成部」と呼ぶこともある。
図3は、設定表650の一例を示す図である。設定表650には、母数Aの粒度、母数Aの最小値、母数Aの最大値、母数Bの粒度、母数Bの最小値、母数Bの最大値、シンボルの最小値、およびシンボルの最大値が含まれる。これらの値は実数であればよく、値の制限はない。
従来技術では、予測器が出力する実数の母数Aと母数Bを用い確率密度分布の各確率を演算により作成し、それをもとに累積度数を作成する。しかし、本実施例では母数Aと母数Bより整数インデックスを作成し、整数インデックスを用いて、すでに作成した累積度数の値を取得する。母数Aと母数Bより整数インデックスを作成する方法は、演算でもよいが、本実施例では、図4に示すインデックス対応表500より取得する。
前述の通り従来技術では、エントロピー符号化部202が用いる累積度数を、実数である母数A、母数Bを用いて演算により算出してきた。しかし、本実施例では、インデックスを用いて参照可能な累積度数の表(分布表)をあらかじめ作成しておき、演算せずに累積度数を取得する。このことにより、実数である母数A、母数Bを用いて演算により累積度数を作成した場合より、圧縮率は低下(前述の母数Aや母数Bが十分に小さければ無視可能なレベルの低下)するが、高負荷な確率密度関数の演算処理なしに圧縮が可能となる。
図6は、演算装置100による圧縮処理を示すフロー図である。以下では主にセンサデータSを静止画像として圧縮処理を説明する。ただし演算装置100が処理可能なセンサデータSは静止画像に限定されない。圧縮処理が開始される前に、インデックス対応表500および分布表600が予め作成される。圧縮処理は、センサデータSをエンコーダ201に入力することで開始される。
図7は、圧縮処理により生成される圧縮ファイル700の一例を示す図である。圧縮ファイル700は、ヘッダー711とバイナリ712とを含む。ヘッダー711は圧縮ファイル生成部230により作成され、バイナリ712はエントロピー符号化部202により作成される。ヘッダー711は、圧縮時に用いた分布表600を再生成可能な情報である。たとえばヘッダー711は、設定表650の情報がそのまま含まれていてもよいし、設定表650と同一情報が異なる形式で格納されてもよい。バイナリ712は、前述のエントロピー符号化部202が出力するビット列である。圧縮ファイル700が設定表650の情報を有する理由は以下のとおりである。
図8は、伸張処理を示すフロー図である。演算装置100の伸張処理は、前述の圧縮処理にて作成した圧縮ファイル700をエントロピー復号化部302に内蔵されるレンジデコーダにて復号化し、特徴量マップFを取得する処理にて開始する。
図9は、ユーザが設定値を設定するユーザインタフェース画面800の一例を示す図である。ユーザインタフェース画面800は、演算装置100または、演算装置100とネットワーク101にて接続されたクライアント端末103に表示される。
(1)演算装置100は、予測器とエンコーダとデコーダとを有し、確率密度分布を用いてデータのエンコード及びデコードを行う演算装置において、学習処理と圧縮処理とのうち少なくとも圧縮処理を実行可能であり、学習処理にて作成した、ニューラルネットワークを用いて学習をすることで、母数とシンボル値の確率分布とを対応させた確率分布表を利用可能であり、圧縮処理では、予測器が、入力データから母数を算出し、エンコーダが、算出された母数と、確率分布表と、に基づくシンボル値の確率分布を用いて、入力データを圧縮する。そのため、演算に時間を要する確率密度関数の算出を事前に行い分布表600を作成し、あらかじめ作成したインデックス対応表500および分布表600を参照することで演算量を低減できる。ニューラルネットワークの出力は小数であることが一般的であり、ルックアップテーブルとの組合せには馴染まない。本実施の形態では演算装置100はインデックス決定部240を有するので、ニューラルネットワークの出力をインデックス化することができ、あらかじめ作成されたルックアップテーブルと組み合わせて使用できる。換言すると、処理時間の短縮または、より廉価な処理資源にて処理することが可能となり演算処理のコストを軽減できる。
(7)演算装置100は、予測器203が出力する確率密度分布の母数を所定の数値範囲に区分けし、該当する数値範囲の代表値に対応する値であるインデックスを決定するインデックス決定部240を備える。分布表600は、インデックスとシンボルに対応する確率密度分布の算出結果に基づく値との対応を示す。そのため母数の出力と累積度数との対応を容易に把握できる。
センササーバ102が演算装置100と同等の処理資源を有し、演算装置100と同様の圧縮処理や伸張処理を行ってもよい。また演算装置100およびセンササーバ102は、圧縮処理および伸張処理をプロセッサではなくGPUやFPGA等の処理資源にて処理してもよい。
予測器203が出力する確率密度関数の母数の個数は2つに限定されず、1以上であればよい。予測器203が出力する母数の数に応じて、設定表650の設定項目数が増減する。そして、設定表650の記載に応じてインデックス対応表500に記載されるインデックスの総数も変化する。これに応じて分布表600におけるインデックスの総数も変化する。
圧縮ファイル700には、設定表650の代わりにインデックス対応表500および分布表600を特定する情報、たとえばあらかじめ作成された複数のインデックス対応表500および分布表600の識別子が含まれてもよい。さらに圧縮ファイル700には、圧縮処理において使用した予測器203のパラメータを特定する情報を含めてもよい。
上述した第1の実施の形態では、伸張時に特徴量マップFの一部を予測器203に入力したが、伸張時に特徴量マップFを一切入力しない予測器を用いてもよい。たとえば、圧縮処理において、予測器203にて特徴量マップFから特徴量マップFの特徴量に相当するハイパー特徴量マップを作成し、ハイパー特徴量マップを、特徴量マップFのレンジコーダによる符号化後のバイナリ712とは別に圧縮ファイルに保存してもよい。この構成であれば、伸張時に特徴量マップを予測器に入力する必要はなく、前述の予測―復号化のループ処理は不要となる。このとき、ハイパー特徴量マップのデータ量を十分に小さくすれば、特徴量マップのエントロピー符号化によるデータ削減効果は果たされる。
上述した第1の実施の形態において、エンコーダ201を用いなくてもよい。この場合には特徴量マップFの代わりにセンサデータSが予測器203およびエントロピー符号化部202に入力される。
予測器203の出力は、確率密度関数の母数に限定されない。予測器203は、ニューラルネットワークの出力として何らかの数値を出力すればよい。予測器203の出力が数値でさえあれば、その数値範囲に対応したインデックス対応表500をあらかじめ作成することにより、予測器203の出力をインデックス特定部221によりインデックス化できる。
上述した第1の実施の形態では、センサデータSを主に2次元の広がりを有する画像として説明したが、画像よりも次元数が少ないラインセンサの出力などや、画像よりも次元数が多い動画などであってもよい。センサデータSの次元数に応じて特徴量マップFの次元数が変化するが、処理の流れは同一である。
上述した第1の実施の形態では、演算装置100は圧縮処理と伸長処理の両方を実行した。しかし演算装置100は圧縮処理および伸張処理の少なくとも一方を実行可能であればよい。演算装置100が圧縮処理のみを実行する場合には、図2に示した構成からデコーダ301およびエントロピー復号化部302を除いた構成でよい。演算装置100が伸張処理のみを実行する場合には、図2に示した構成からエンコーダ201、エントロピー符号化部202、および圧縮ファイル生成部230を除いた構成でよい。
図10は、変形例9における演算装置100Aの機能構成図である。図10に示す演算装置100Aは、第1の実施の形態における構成に加えて、粒度決定部250をさらに備える。粒度決定部250は、母数の粒度を決定する。すなわち粒度決定部250は、設定表650における母数Aの粒度および母数Bの粒度の少なくとも一方を決定する。
分布表600において、インデックスの代わりに2つの母数を記載してもよい。すなわち分布表600は、2つの母数と累積度数との対応を示すテーブルであってもよい。なおこの2つの母数のそれぞれは、インデックス対応表500における記載と同様に、母数の値そのものを示すのではなく、所定の数値範囲に区分けした代表値である。
図11~図12を参照して、演算装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、インデックス対応表500を必須の構成としない点で、第1の実施の形態と異なる。
201…エンコーダ
202…エントロピー符号化部
203…予測器
211…インデックス生成部
212…分布表生成部
221…インデックス特定部
222…確率特定部
230…圧縮ファイル生成部
240…インデックス決定部
301…デコーダ
302…エントロピー復号化部
500…インデックス対応表
600…分布表
650…設定表
700…圧縮ファイル
711…ヘッダー
712…バイナリ
Claims (7)
- 予測器とエンコーダとデコーダとを有し、確率密度分布を用いてデータのエンコード及びデコードを行う演算装置において、
学習処理と圧縮処理とのうち少なくとも圧縮処理を実行可能であり、
前記学習処理にて作成した、ニューラルネットワークを用いて学習をすることで、母数とシンボル値の確率分布とを対応させた確率分布表を利用可能であり、
前記圧縮処理では、
前記予測器が、入力データから母数を算出し、
前記エンコーダが、前記算出された母数と、前記確率分布表と、に基づくシンボル値の確率分布を用いて、前記入力データを圧縮する
演算装置。 - 請求項1に記載の演算装置において、
前記算出された母数と、前記確率分布表と、に基づいて、前記圧縮に用いるシンボル値の確率分布を選択する確率特定部を備える
演算装置。 - 請求項1に記載の演算装置において、
前記母数は、前記入力データの確率密度分布の平均と分散とであることを特徴とする
演算装置。 - 請求項3に記載の演算装置において、
前記学習処理を行い、
前記学習処理では、前記ニューラルネットワークの結合係数を適正化して、前記確率密度分布を作成する
演算装置。 - 請求項4に記載の演算装置において、
前記学習処理では、前記分散が小さくなるように前記ニューラルネットワークの結合係数を適正化する
演算装置。 - 請求項4に記載の演算装置において、
前記学習処理では、
入力データの複数のシンボルごとに、前記確率密度分布を作成するとともに、その母数を算出し、
前記算出した複数の母数の最大値及び最小値に基づく分布範囲に基づいて所定の粒度で前記確率分布表に格納する母数を設定し、前記設定した母数に対応する確率密度分布を前記確率分布表に記載する
演算装置。 - 予測器とエンコーダとデコーダとを有し、確率密度分布を用いてデータのエンコード及びデコードを行う演算装置が実行する圧縮方法であって、
前記演算装置は、学習処理と圧縮処理とのうち少なくとも圧縮処理を実行可能であり、
前記学習処理にて作成した、ニューラルネットワークを用いて学習をすることで、母数とシンボル値の確率分布とを対応させた確率分布表を利用可能であり、
前記圧縮処理には、
前記予測器が、入力データから母数を算出することと、
前記エンコーダが、前記算出された母数と、前記確率分布表と、に基づくシンボル値の確率分布を用いて、前記入力データを圧縮することとを含む、圧縮方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021026108A JP7534239B2 (ja) | 2021-02-22 | 2021-02-22 | 演算装置、圧縮方法 |
US17/673,042 US20220269652A1 (en) | 2021-02-22 | 2022-02-16 | Computation apparatus and compression method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021026108A JP7534239B2 (ja) | 2021-02-22 | 2021-02-22 | 演算装置、圧縮方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022127884A true JP2022127884A (ja) | 2022-09-01 |
JP7534239B2 JP7534239B2 (ja) | 2024-08-14 |
Family
ID=82899559
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021026108A Active JP7534239B2 (ja) | 2021-02-22 | 2021-02-22 | 演算装置、圧縮方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220269652A1 (ja) |
JP (1) | JP7534239B2 (ja) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4524501B2 (ja) | 2007-12-27 | 2010-08-18 | 株式会社アクセル | 符号化システム、符号化方法、符号化プログラム、復号化システム、復号化方法および復号化プログラム |
JP7185467B2 (ja) | 2018-09-28 | 2022-12-07 | Kddi株式会社 | 画像復号装置、画像符号化装置、画像処理システム及びプログラム |
US20240078411A1 (en) * | 2021-03-09 | 2024-03-07 | Nec Corporation | Information processing system, encoding device, decoding device, model learning device, information processing method, encoding method, decoding method, model learning method, and program storage medium |
-
2021
- 2021-02-22 JP JP2021026108A patent/JP7534239B2/ja active Active
-
2022
- 2022-02-16 US US17/673,042 patent/US20220269652A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220269652A1 (en) | 2022-08-25 |
JP7534239B2 (ja) | 2024-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11754685B2 (en) | Point cloud compression using a space filling curve for level of detail generation | |
US11252441B2 (en) | Hierarchical point cloud compression | |
US11895307B2 (en) | Block-based predictive coding for point cloud compression | |
Liang et al. | SZ3: A modular framework for composing prediction-based error-bounded lossy compressors | |
US20210319593A1 (en) | Significant coefficient flag encoding for point cloud attribute compression | |
JP6728385B2 (ja) | デジタルイメージ再圧縮 | |
CN106937111B (zh) | 优化图像压缩质量的方法及系统 | |
CN112188197B (zh) | 通道间点云属性解码方法、装置以及可读存储介质 | |
CN110019865B (zh) | 海量图片处理方法、装置、电子设备及存储介质 | |
US9281838B1 (en) | Common copy compression | |
JP7233875B2 (ja) | 作成方法、コンピュータ及びプログラム | |
US20220392117A1 (en) | Data compression and decompression system and method thereof | |
US20230086264A1 (en) | Decoding method, encoding method, decoder, and encoder based on point cloud attribute prediction | |
US7463782B2 (en) | Data encoding with an amplitude model and path between the data and corresponding decoding | |
Fan et al. | Deep geometry post-processing for decompressed point clouds | |
JP2022127884A (ja) | 演算装置、圧縮方法 | |
Silver et al. | The compression–error trade-off for large gridded data sets | |
WO2023205969A1 (zh) | 点云几何信息的压缩、解压缩及点云视频编解码方法、装置 | |
US11934353B2 (en) | Storage system including encoder | |
KR20240025629A (ko) | 광학 흐름를 이용한 비디오 압축 | |
WO2022130477A1 (ja) | 符号化装置、復号装置、符号化方法、復号方法およびプログラム | |
JP2023063166A (ja) | 圧縮装置、復元装置及びモデルを生成する方法 | |
US9406151B2 (en) | Non-transitory computer-readable medium storing data storage program, non-transitory computer-readable medium storing data display program, data storage method, and data display method | |
US20240291503A1 (en) | System and method for multi-type data compression or decompression with a virtual management layer | |
JP2022182225A (ja) | データ処理システムおよびデータ処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240716 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240801 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7534239 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |