JP7431263B2 - ニューラルネットワーク演算方法及び装置 - Google Patents

ニューラルネットワーク演算方法及び装置 Download PDF

Info

Publication number
JP7431263B2
JP7431263B2 JP2022010730A JP2022010730A JP7431263B2 JP 7431263 B2 JP7431263 B2 JP 7431263B2 JP 2022010730 A JP2022010730 A JP 2022010730A JP 2022010730 A JP2022010730 A JP 2022010730A JP 7431263 B2 JP7431263 B2 JP 7431263B2
Authority
JP
Japan
Prior art keywords
data
processor
operand
neural network
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022010730A
Other languages
English (en)
Other versions
JP2022120809A (ja
Inventor
炯碩 兪
愈珍 金
性旭 朴
▲ひょん▼宣 朴
世煥 李
準祐 張
▲どく▼賑 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210036060A external-priority patent/KR20220113220A/ko
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2022120809A publication Critical patent/JP2022120809A/ja
Application granted granted Critical
Publication of JP7431263B2 publication Critical patent/JP7431263B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/02Comparing digital values
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/3005Arrangements for executing specific machine instructions to perform operations for flow control
    • G06F9/30069Instruction skipping instructions, e.g. SKIP

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Mathematical Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Optimization (AREA)
  • Neurology (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Advance Control (AREA)
  • Complex Calculations (AREA)

Description

以下の実施形態は、ニューラルネットワーク演算方法及び装置に関する。
ニューラルネットワークは、入力パターンと出力パターンのマッピングを生成し、学習に使用されていない入力パターンに対して相対的に正確な出力を生成できる機能がある。ニューラルプロセッサは、ニューラルネットワークの演算を加速化するよう設計されてきた。ニューラルネットワーク演算加速は、ニューラル演算の核心である乗算演算の量を最大に減らし、優れた結果を取得する時間を短縮することにある。
効率的なニューラルネットワーク演算のために、プルーニング(pruning)及び量子化(quantization)のような様々な技術が試みられている。
プルーニングは、ネットワークの構成要素であるニューロン及びシナプスをプルーニング(pruning)するものであって、それはモデルの正確度を高めるための努力が必要である。
プルーニング及び量子化はスパース性を活用してニューラルネットワーク演算を効率よく行うものであるが、スパース性を活用する場合、演算装置間における負荷の不均衡が発生する恐れがある。即ち、特定装置に配置されている演算集合に排除される要素が集中するものであって、全ての装置へ均一に負荷がかかるものではないため、性能が低下する恐れがある。
スパース性の活用は、演算加速化のメリットを与えるものの、従来技術は、ネットワークプルーニングのプロセスを求め、特に、微細プルーニング技術はそれ自体に特定のプロセッサで活用できる独特のプルーニング過程を求め、粗いプルーニング(coarse pruning)時の加速効果を取得できず限定的に用いられる。また、重み部分のスパース性活用に制限され、重みや入力の全てに適用できず、汎用性が低下する。
本発明の課題は、ニューラルネットワーク演算方法及び装置を提供することにある。
一実施形態に係るニューラルネットワーク演算方法は、ニューラルネットワーク演算のための複数のデータを受信するステップと、第1演算装置に対応する第1データ探索経路及び第2演算装置に対応する第2データ探索経路の競合の有無を判断するステップと、前記競合の有無及び前記第1データ探索経路と前記第2データ探索経路との間の優先順位を用いて、前記複数のデータのうち第1被演算データ及び第2被演算データを決定するステップと、前記第1被演算データ及び前記第2被演算データに基づいてニューラルネットワーク演算を行うステップとを含む。
前記複数のデータのうち、前記第1データ探索経路及び前記第2データ探索経路上のデータに対する演算をスキップするか否かを決定するステップをさらに含むことができる。
前記複数のデータのうち、前記第1データ探索経路及び前記第2データ探索経路上のデータに対する演算をスキップするか否かを決定するステップは、前記データが0である場合、前記データに対する演算をスキップするものと決定するステップと、又は、前記データが予め決定された範囲以内の値である場合、前記データに対する演算をスキップするものと決定するステップとを含むことができる。
前記判断するステップは、任意の時点において、前記第1演算装置と前記第2演算装置が同じデータにアクセスする場合、前記第1データ探索経路と前記第2データ探索経路の競合が発生したと判断するステップを含むことができる。
前記決定するステップは、前記第1データ探索経路及び前記第2データ探索経路に対する優先順位を設定するステップと、前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定するステップとを含むことができる。
前記優先順位を設定するステップは、前記第1データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するように第1優先順位を設定するステップと、前記第2データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するように第2優先順位を設定するステップとを含むことができる。
前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定するステップは、優先順位の高い探索経路を決定するために、前記第1データ探索経路に対応する第1優先順位と前記第2データ探索経路に対応する第2優先順位とを比較するステップと、競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定するステップとを含むことができる。
前記競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定するステップは、前記第1優先順位が前記第2優先順位よりも大きい場合、前記競合が発生した位置のデータを前記第1被演算データとして決定するステップと、前記第2データ探索経路上の次のデータを前記第2被演算データとして決定するステップとを含むことができる。
前記第1被演算データ及び前記第2被演算データの決定に応答し、前記第1被演算データ及び前記第2被演算データのアドレスを前記第1データ探索経路及び前記第2データ探索経路上から排除するステップをさらに含むことができる。
前記第1データ探索経路及び前記第2データ探索経路は、予め決定された探索範囲を有し、前記予め決定された探索範囲に対する探索完了に応答して、前記複数のデータに対する前記第1データ探索経路及び前記第2データ探索経路を更新するステップをさらに含むことができる。
一実施形態に係るニューラルネットワーク演算装置は、ニューラルネットワーク演算を行うための複数のデータを受信する受信器と、第1演算装置に対応する第1データ探索経路及び第2演算装置に対応する第2データ探索経路の競合有無を判断し、前記競合の有無及び前記第1データ探索経路と前記第2データ探索経路との間の優先順位を用いて、前記複数のデータのうち第1被演算データ及び第2被演算データを決定し、前記第1被演算データ及び前記第2被演算データに基づいてニューラルネットワーク演算を行うプロセッサを含む。
前記プロセッサは、前記複数のデータのうち、前記第1データ探索経路及び前記第2データ探索経路上のデータに対する演算をスキップするか否かを決定することができる。
前記プロセッサは、前記データが0である場合、前記データに対する演算をスキップするものと決定したり、又は、前記データが予め決定された範囲以内の値である場合、前記データに対する演算をスキップするものと決定することができる。
前記プロセッサは、任意の時点で前記第1演算装置と前記第2演算装置が同じデータにアクセスする場合、前記第1データ探索経路と前記第2データ探索経路の競合が発生したものと判断することができる。
前記プロセッサは、前記第1データ探索経路及び前記第2データ探索経路に対する優先順位を設定し、前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定することができる。
前記プロセッサは、前記第1データ探索経路上のデータに対応するノードが、互いに異なる優先順位を有するように第1優先順位を設定し、前記第2データ探索経路上のデータに対応するノードが、互いに異なる優先順位を有するように第2優先順位を設定することができる。
前記プロセッサは、優先順位の高い探索経路を決定するために、前記第1データ探索経路に対応する第1優先順位と前記第2データ探索経路に対応する第2優先順位とを比較し、競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定することができる。
前記プロセッサは、前記第1優先順位が前記第2優先順位よりも大きい場合、前記競合が発生した位置のデータを前記第1被演算データとして決定し、前記第2データ探索経路上の次のデータを前記第2被演算データとして決定することができる。
前記プロセッサは、前記第1被演算データ及び前記第2被演算データの決定に応答して、前記第1被演算データ及び前記第2被演算データのアドレスを前記第1データ探索経路及び前記第2データ探索経路上から排除することができる。
前記第1データ探索経路及び前記第2データ探索経路は、予め決定された探索範囲を有し、前記プロセッサは、前記予め決定された探索範囲に対する探索完了に応答して、前記複数のデータに対する前記第1データ探索経路及び前記第2データ探索経路を更新することができる。
本発明によると、ニューラルネットワーク演算方法及び装置を提供する。
一実施形態に係るニューラルネットワーク演算装置の概略的なブロック図を示す。 図1に示されたニューラルネットワーク演算装置の具現の一例を示す。 図1に示されたニューラルネットワーク演算装置のデータの探索過程を示す。 データをスキップする動作を示す。 複数の演算装置でデータを探索する過程を示す。 データ探索経路の一例を示す。 時間の流れによるデータの探索過程を示す。 時間の流れによるデータの探索過程を示す。 時間の流れによるデータの探索過程を示す。 データ探索経路の他の例を示す。 データ探索を行ってニューラルネットワークを行う過程を示す。 図1に示されたニューラルネットワーク演算装置の具現の他の例を示す。 図1に示すニューラルネットワーク演算装置の動作のフローチャートを示す。
本明細書で開示する特定の構造的又は機能的な説明は単に実施形態を説明するための目的として例示したものであり、実施形態は様々な異なる形態で実施され、本発明は本明細書で説明した実施形態に限定されるものではなく、本発明の範囲は、実施形態で説明した技術的な思想に含まれている変更、均等物、または代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
異なるように定義がされない限り、技術的であるか又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、添付する図面を参照しながら実施形態を詳細に説明する。添付図面を参照した説明において、図面の符号に関係なく同じ構成要素には同じ参照符号を付与し、これに対する重複する説明は省略することにする。
図1は、一実施形態に係るニューラルネットワーク演算装置の概略的なブロック図を示す。
図1を参照すると、ニューラルネットワーク演算装置10は、データを処理することによりニューラルネットワーク演算結果を生成することができる。ニューラルネットワーク演算装置10は、データのスパース性(sparsity)に基づいてデータを探索することで、ニューラルネットワーク演算することでニューラルネットワークの演算性能を加速し得る。スパース性は、ニューラルネットワーク演算に用いられるエレメントのうち、演算に意味を有しないエレメントの比率を意味する。例えば、スパース性は、全てのエレメントに対する0値を有するエレメントの比率を意味する。
ニューラルネットワーク演算装置10は、データの探索過程で演算が不要なデータをスキップ(skip)し、スキップによりデータの探索過程で発生し得る競合を優先順位を用いて処理することで、演算コストを効率よく低減することができる。
ニューラルネットワーク演算装置10は、ニューラルネットワークを学習させ得る。ニューラルネットワーク演算装置10は、学習されたニューラルネットワークに基づいて推論を行ってもよい。
ニューラルネットワーク演算装置10は、加速器を用いてニューラルネットワーク演算を行ってもよい。ニューラルネットワーク演算装置10は、加速器内部又は外部に実現されてもよい。
加速器は、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)又は、AP(Application Processor)を含んでもよい。また、加速器は、仮想マシーン(Virtual Machine)のように、ソフトウェアコンピューティング環境で実現されてもよい。
ニューラルネットワーク(又は、人工神経網)は、機械学習及び認知科学で生物学の神経を模倣した統計学的学習アルゴリズムを含む。ニューラルネットワークは、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が学習を通じてシナプスの結合強度を変化させ、問題解決能力を有するモデルの全般を意味する。
ニューラルネットワークのニューロンは、重み又はバイアスの組み合わせを含んでもよい。ニューラルネットワークは1つ以上のニューロン又はノードから構成された1つ以上のレイヤ(layer)を含んでもよい。ニューラルネットワークは、ニューロンの重みを学習を通じて変化させることで、任意の入力から予測しようとする結果を推論することができる。
ニューラルネットワークは、深層ニューラルネットワーク(Deep Neural Network)を含む。ニューラルネットワークは、CNN(Convolutional Neural Network)、RNN(Recurrent Neural Network)、パーセプトロン(perceptron)、マルチパーセプトロン(multilayer perceptron)、FF(Feed Forward)、RBF(Radial Basis Network)、DFF(Deep Feed Forward)、LSTM(Long Short Term Memory)、GRU(Gated Recurrent Unit)、AE(Auto Encoder)、VAE(Variational Auto Encoder)、DAE(Denoising Auto Encoder)、SAE(Sparse Auto Encoder)、MC(Markov Chain)、HN(Hopfield Network)、BM(Boltzmann Machine)、RBM(Restricted Boltzmann Machine)、DBN(Depp Belief Network)、DCN(Deep Convolutional Network)、DN(Deconvolutional Network)、DCIGN(Deep Convolutional Inverse Graphics Network)、GAN(Generative Adversarial Network)、LSM(Liquid State Machine)、ELM(Extreme Learning Machine)、ESN(Echo State Network)、DRN(Deep Residual Network)、DNC(Differentiable Neural Computer)、NTM(Neural Turning Machine)、CN(Capsule Network)、KN(Kohonen Network)、及びAN(Attention Network)を含むことができる。
ニューラルネットワーク演算装置10は、マザーボード(motherboard)のようなプリント回路基板(printed circuit board(PCB))、集積回路(integrated circuit(IC))、又はSoC(system on chip)で実現することができる。例えば、ニューラルネットワーク演算装置10は、アプリケーションプロセッサ(application processor)で実現することができる。
また、ニューラルネットワーク演算装置10は、PC(personal computer)、データサーバ、又は、携帯用装置内に実現されてもよい。
携帯用装置は、ラップトップコンピュータ、携帯電話、スマートフォン(smart phone)、タブレット(tablet)PC、モバイルインターネットデバイス(MID)、PDA(personal digital assistant)、EDA(enterprisedigital assistant)、デジタルスチールカメラ(digital stant)、デジタルビデオカメラ(digital video camera)、PMP(portable multimedia player)、PND(personal navigation device又はportable navigation device)、携帯用ゲームコンソール(handheld game console)、e-ブック(e-book)、デジタルテレビ(digital television)、AI(Artificial Inteeligence)スピーカー、テレビ、スマートテレビ、冷蔵庫、スマートホームデバイスのようなホームアプリケーション、スマートビークル(smart vehicle)などの車両、IoT(Inter)デバイス又はスマートデバイス(smart device)に具現化され得る。スマートデバイスは、スマートウォッチ(smart watch)、スマートバンド(smart band)、スマートグラス(smart glasses)、又はスマートリング(smart ring)に具現化され得る。
ニューラルネットワーク演算装置10は、受信器100及びプロセッサ200を含む。ニューラルネットワーク演算装置10は、メモリ300をさらに含んでもよい。
受信器100は、受信インターフェースを含む。受信器100は、ニューラルネットワーク演算を行うための複数のデータを受信する。受信器100は、メモリ300から複数のデータを受信してもよい。
プロセッサ200は、メモリ300に格納されたデータを処理する。プロセッサ200は、メモリ300に格納されたコンピュータで読込み可能なコード(例えば、ソフトウェア)及びプロセッサ200によって誘発された命令(instruction)を実行する。
「プロセッサ200」は、目的とする動作(desired operations)を実行させるための物理的な構造を有する回路を有するハードウェアで具現化されたデータ処理装置である。例えば、目的とする動作は、プログラムに含まれたコード(code)又は命令(instructions)を含んでもよい。
例えば、ハードウェアで具現化されたデータ処理装置は、マイクロプロセッサ(microprocessor)、シングルプロセッサ(single processor)、独立プロセッサ(independent processors)、並列プロセッサ(parallel processors)、シングル-命令シングル-データ(single-instruction single-data(SISD))マルチプロセッシング、シングル-命令マルチプル-データ(single-instruction multiple-data(SIMD))マルチプロセッシング、マルチプル-命令シングル-データ(multiple-instruction multiple-data(MIMD))マルチプロセッシング、マイクロコンピュータ、中央処理装置(central processing unit)、プロセッサコア(processor core)、マルチ-コアプロセッサ(multi-core processor)、マルチプロセッサ(multiprocessor)、ASIC(Application-Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、コントローラ、ALU(Arithmetic Logic Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)、AP(Application Processor)、NPU(Neural Processing Unit)、PLU((Programmable Logic Unit)を含んでもよい。
プロセッサ200は、複数のデータのうち第1データ探索経路(data search path)及び第2データ探索経路上のデータに対する演算をスキップするか否かを決定する。プロセッサ200は、データが0である場合、前記データに対する演算をスキップすると決定したり、データが予め決定された範囲以内の値である場合、データに対する演算をスキップするものと決定する。データのスキップは、図4を参照して詳細に説明する。
プロセッサ200は、第1演算装置に対応する第1データ探索経路及び第2演算装置に対応する第2データ探索経路の競合有無を判断する。プロセッサ200は、任意の時点で第1演算装置と第2演算装置が同じデータにアクセスする場合、第1データ探索経路と第2データ探索経路の競合が発生したと判断する。
プロセッサ200は、競合の有無及び第1データ探索経路と第2データ探索経路との間の優先順位を用いて、複数のデータのうち第1被演算データ及び第2被演算データを決定することができる。
プロセッサ200は、第1データ探索経路及び第2データ探索経路に対する優先順位を設定する。プロセッサ200は、第1データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するよう、第1優先順位を設定してもよい。プロセッサ200は、第2データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するよう、第2優先順位を設定してもよい。
プロセッサ200は競合の発生に応答して、優先順位に基づいて第1被演算データ及び第2被演算データを決定することができる。プロセッサ200は、第1データ探索経路に対応する第1優先順位と第2データ探索経路に対応する第2優先順位とを比較することで、優先順位が高い探索経路を決定することができる。
プロセッサ200は、競合が発生した位置のデータを、優先順位の高い探索経路に対応する演算装置の被演算データとして決定してもよい。第1優先順位が第2優先順位よりも大きい場合、プロセッサ200は、競合が発生した位置のデータを第1被演算データとして決定する。プロセッサ200は、第2データ探索経路上の次のデータを第2被演算データとして決定する。
第1優先順位が第2優先順位よりも小さい場合、プロセッサ200は、競合が発生した位置のデータを第2被演算データとして決定してもよい。プロセッサ200は、第1データ探索経路上の次のデータを第1被演算データとして決定してもよい。
プロセッサ200は、第1被演算データ及び第2被演算データの決定に応答して、第1被演算データ及び第2被演算データのアドレスを第1データ探索経路及び第2データ探索経路上から排除する。
プロセッサ200は、第1被演算データ及び第2被演算データに基づいてニューラルネットワーク演算を行うことができる。
第1データ探索経路及び第2データ探索経路は、予め決定された探索範囲を有する。プロセッサ200は、予め決定された探索範囲に対する探索完了に応答して、複数のデータに対する第1データ探索経路及び第2データ探索経路を更新し得る。
メモリ300は、プロセッサ200によって実行可能な命令(又は、プログラム)を格納する。例えば、命令は、プロセッサの動作及び/又はプロセッサの各構成の動作を実行するための命令を含んでもよい。
メモリ300は、揮発性メモリ装置又は不揮発性メモリ装置で実現されてもよい。
揮発性メモリ装置は、DRAM(dynamic random access memory)、SRAM(static random access memory)、T-RAM(thyristor RAM)、Z-RAM(zero capacitor RAM)、又は、TTRAM(Twin Transistor RAM)で実現されてもよい。
不揮発性メモリ装置は、EEPROM(Electrically Erasable Programmable Read-Only Memory)、フラッシュ(flash)メモリ、MRAM(Magnetic RAM)、スピン伝達トルクMRAM(Spin-Transfer Torque(STT)-MRAM)、Conductive Bridging RAM(CBRAM)、FeRAM(Ferroelectric RAM)、PRAM(Phase change RAM)、抵抗メモリ(Resistive RAM(RRAM))、ナノチューブRRAM(Nanotube RRAM)、ポリマーRAM(Polymer RAM(PoRAM))、ナノフローティングゲートメモリ(Nano Floating Gate Memory(NFGM))、ホログラフィックメモリ(holographic memory)、分子電子メモリ素子(Molecular Electronic Memory Device)、又は、絶縁抵抗変化メモリ(Insulator Resistance Change Memory)で実現されてもよい。
図2は、図1に示されたニューラルネットワーク演算装置の具現の一例を示す。
図2を参照すると、ニューラルネットワーク演算装置(例えば、図1に示すニューラルネットワーク演算装置10)は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processor Unit)及びNPU(Neural Processing Unit)を含むメモリシステムと、演算装置(例えば、処理ユニット)を備えるプロセッサ(例えば、図1に示すプロセッサ200)、又は、ハードウェア加速器を用いてニューラルネットワーク演算を行うデータを、データが格納されているメモリ(例えば、図1のメモリ300)からロードして演算装置に割り当てる動作を行ってもよい。演算装置は、乗算器、加算器、又は、MAC(Multiply Accumulator)を含んでもよい。
プロセッサ200は、ニューラルネットワーク演算に用いられるデータのスパース性を用いて、ニューラルネットワーク演算の性能を加速することができる。プロセッサ200は、駆動時間のうち任意の集合のデータに対して探索を行い、複数の演算装置それぞれが使用するデータを取得する方式を提供することができる。
プロセッサ200は、演算装置の条件に応じて、スキップ条件に基づいて特定のデータをスキップし、演算装置間のデータの重複ロードなしにニューラルネットワーク演算を行うことができる。
プロセッサ200は、複数の演算装置がデータのスパース性を用いて特定データをスキップし、指定された範囲内の複数の被演算データを選択することで不要な演算をスキップし、ニューラルネットワーク演算の性能を向上し、演算コストを低減させ得る。
演算装置に入力される被演算データを取得することは、ニューラルネットワーク演算の間に共有され得るデータの候補のうち、特定候補を特定の演算装置が排他的に使用する権利を取得することを意味する。
データのスキップは、予め決定された範囲(又は、閾値)のような特定の条件を満たすデータのみを演算装置に供給し、条件を満たさないデータは演算から排除することを意味する。例えば、プロセッサ200は、プルーニングネットワークの場合、圧縮や構造化を行うことなく、入力されるデータに対してニューラルネットワーク演算の速度を加速させることができる。
ニューラルネットワーク演算装置10は、外部(external)IO(Input/Output)210、データメモリ230、データトラバーサルコントローラ250、及びデータ処理ユニット270(例えば、演算装置)を含む。
外部IO210は、データの入出力インターフェースを含む。データメモリ230は、メモリ300に含まれてもよい。データトラバーサルコントローラ250は、プロセッサ200に含まれてもよい。データ処理ユニット270は、ニューラルネットワーク演算装置の外部に別に位置してもよい。
データトラバーサルコントローラ250は、データが格納された制限された大きさのメモリ300のアドレスを更新して管理する。データトラバーサルコントローラ250は、データ探索経路を用いてデータを探索し、探索を通じて取得した被演算データをデータ処理ユニット270に出力する。
データメモリ230は、データのスキップ条件及びデータの使用有無(例えば、ニューラルネットワーク演算における使用有無)を判断するためのインデックスを共に格納する。
データトラバーサルコントローラ250は、時間の流れによるフェーズ(phase)ごと又はサイクル(cycle)にデータ送信が完了すれば、データ使用が完了した領域に対してアドレスアップデートを行ってもよい。例えば、データトラバーサルコントローラ250は、被演算データの決定に応答して、データ処理ユニット270の被演算データのアドレスをデータ探索経路上から排除してもよい。
データトラバーサルコントローラ250は、データ探索経路によりデータを探索して被演算データを決定することで、データ処理ユニット270に被演算データ、データ取得順序、及びデータの位置に関連するメタデータを共に伝達することができる。
図3は、図1に示されたニューラルネットワーク演算装置のデータの探索過程を示す。
図3を参照すると、メモリ(例えば、図1に示すメモリ300)は、メモリユニット310を含んでもよい。プロセッサ(例えば、図1に示すプロセッサ200)は、演算装置(例えば、処理ユニット330)を含んでもよい。演算装置はプロセッサ200の外部に別に実現されてもよい。
プロセッサ200は、負荷分散化(load balancing)を行うことにより、ニューラルネットワーク演算の処理時間を短縮させると共に、ハードウェアで用いられるエネルギーを減らし得る。
負荷分散化とは、複数の処理ユニット330(例えば、演算装置)に用いられるデータDが処理ユニットPn+1、Pn+2、Pn+3...の1つの処理ユニットに用いられるように分配する過程を意味する。データDのデータは、複数の処理ユニット330のうち排他的に1つの処理ユニットにのみ使用されてもよい。
プロセッサ200は、負荷分散化過程で発生し得る複数の処理ユニット330が同じデータをもってくる過程で発生し得る競合(competition)問題を効率よく解決することで、ハードウェアで競合解消による性能低下を招くことなく、ニューラルネットワーク演算を行うことができる。
メモリユニット310には、任意の処理ユニットPで処理されるデータDが割り当てられる。処理ユニットPは、m個の処理ユニットの集合P={Pn+a、Pn+b、Pn+c、Pn+d...}の1つであってもよい。互いに異なる処理ユニットは、m個のデータ集合D={Dn+a、Dn+b、Dn+c、Dn+d...}のうちの一部又は全てについても、アクセスして条件に適するデータを探索してロードすることができる。
集合内の任意の処理ユニットPがアクセスできるDの部分集合であるL個のデータ集合がD’={D、Dn+a、Dn+b、Dn+c、Dn+d...}であれば、他の処理ユニットPn+iがアクセスできるデータ集合は、Dn+i’={Dn+i、Dn+i+a、Dn+i+b、Dn+i+c、Dn+i+d...}であってもよい。ここで、アクセスの順序a、b、c、dは、全ての処理ユニットに同じである。
処理ユニットPは、特定のフェーズ又はサイクルでデータ集合D’内のデータそれぞれに対して、D’[k:k+t-1]={D[k:k+t-1]、Dn+a[k:k+t-1]、Dn+b[k:k+t-1]、Dn+c[k:k+t-1]、Dn+d[k:k+t-1]...}の範囲でm回データを探索することができる。ここで、mはl×tを超過せず、各D’[i]は一つのフェーズ又はサイクルで1回のみ探索されてもよい。
上記の条件に応じて、処理ユニットPは、次のような順にデータ集合D’をm回探索する。処理ユニットPは、[Dn+d[q]→Dn+e[r]→Dn+f[s]...]のような方式に、また、他の処理ユニットPn+iは、[Dn+d+i[q]→Dn+e+i[r]→Dn+f+i[s]...]のような方式にデータへアクセスできる。
上記でPは、D’データに対して自身に割り当てられたD’[k:k+t-1]={D[k:k+t-1]、Dn+a[k:k+t-1]、Dn+b[k:k+t-1]、Dn+c[k:k+t-1]、Dn+d[k:k+t-1]...}に対して最小1回以上探索を行ってもよい。
上記の探索過程で、スキップ条件を考慮してデータを検索した処理ユニットは、データを自身の入力として伝達し、該当データは、使用済みに設定して他の処理ユニットで使用されないように排除することができる。必要なデータを取得した処理ユニットは、探索終了状態に変更されてもよい。
複数の処理ユニット330が、特定フェーズ又はサイクルで同じデータD[j]にアクセスして演算条件に適するか、他の処理ユニットによって使用されていない場合、複数の処理ユニット330がデータを使用するために競合が発生し得る。
プロセッサ200は、発生する競合を解消するために、上記で予め決定されたデータのアクセス順に固有の優先順位を設定してもよい。例えば、プロセッサ200は、Pに対してDn+d[q]=1、Dn+e[r]=2Dn+f[s]=3...のように優先順位を設定してもよい。同様に、プロセッサ200は、Pn+iに対して、Dn+d+i[q]=1、Dn+e+i[r]=2Dn+f+i[s]=3...のように優先順位を設定してもよい。
上記の優先順位は、各処理ユニットのデータアクセス順に対して同一に付与されてもよく、全てのアクセス順に対して互いに異なる優先順位が付与されてもよい。プロセッサ200は、データのアクセス順に関係なく、優先順位を設定してもよい。即ち、プロセッサ200は、初めてアクセスするデータに最も高い優先順位を設定し、最後にアクセスするデータに最も低い優先順位を設定してもよく、逆の順に設定してもよい。
競合が発生する場合、プロセッサ200は、各データ探索経路に対して設定された優先順位を比較し、さらに高い優先順位を有する処理ユニットが該当のデータを取得するようにする。データを取得した処理ユニットは、探索を終了して取得に失敗した処理ユニットは、上記で指定された探索経路に沿ってデータの探索を続くことができる。
最終的に、データを取得することのできない処理ユニットはnull演算を行ったり、有効でない結果を生成することがある。例えば、処理ユニットがMACである場合に0を生成する。
各フェーズ又はサイクルにおいて、D[k:k+t-1]で全てのデータがスキップ条件に該当したり、使用されたD[y]がある場合、それをD[k:k+t-1]から除外し、k及びtをアップデートしてから、各処理ユニットが探索を繰り返し実行することができる。
図4は、データをスキップする動作を示す。
図4を参照すると、プロセッサ(例えば、図1に示すプロセッサ200)は、複数のデータのうち、第1データ探索経路及び第2データ探索経路上のデータに対する演算をスキップするか否かを決定する。
プロセッサ200は、データが0である場合、データに対する演算をスキップすると決定したり、データが予め決定された範囲以内の値である場合、データに対する演算をスキップすると決定する。
図4の例は、データが0である場合に演算をスキップすることを示したが、実施形態に応じて、0ではないデータに対してスキップを行ってもよい。演算装置(例えば、乗算器)の2つの入力A及びBに対して、A及びBは、演算装置の2つの入力を示し、nは演算順序を示す。
フェーズ0、1、2は、データ探索の時点を意味する。プロセッサ200は、データ集合の右側から左側にデータを探索する。
フェーズ0において、プロセッサ200は、データの集合410及びデータの集合420の最初に位置するデータであるA、Bを用いて、ニューラルネットワーク演算(例えば、乗算)を行ってもよい。
フェーズ1において、プロセッサ200は、データ集合430のA及びデータ集合440のBを用いてニューラルネットワーク演算を行ってもよい。
フェーズ2において、データ集合450は、Aに対応する位置のデータが0であるため、プロセッサ200は、Aに対応する位置のデータをスキップするものと決定してもよい。ここで、プロセッサ200は、データ集合460に対してもデータ集合450で発生したスキップに対応するよう、データBをスキップしてもよい。言い換えれば、データのスキップが発生する場合、同じ演算装置で用いられる複数のデータに対して、データをスキップに対応するデータ探索のホッピングオフセット(hopping offset)は同一であり得る。
図4に示す実施形態において、スキップのない場合、合計4回の乗算が実行されなければならないが、プロセッサ200は、一部のデータをスキップすることによって、3回のフェーズ(又は、サイクル)のみで演算を行い、1/4の演算時間及びエネルギーを節約することができる。
図5は、複数の演算装置でデータを探索する過程を示し、図6は、データ探索経路の一例を示す。
図5及び図6を参照すると、プロセッサ(例えば、図1に示すプロセッサ200)は、データ探索経路に基づいてメモリ(例えば、図1に示すメモリ300)に格納されているデータを探索する。プロセッサ200は、データ探索経路により探索を行って演算装置(例えば、乗算器)に出力する被演算データを決定し、決定された被演算データを演算装置に送信する。
データ探索経路は、データが格納されたメモリ300上の位置に対応するノード、及びノードの間を接続するエッジから構成されてもよい。図5に示す例示において、データ集合510及びデータ集合530の点線又は実線は、データ探索経路の例を示す。データ探索経路は、トラバース方向を有する。
プロセッサ200は、予め決定されたデータ探索範囲に基づいてデータ探索経路を生成する。探索範囲は、探索するデータの数を意味する。例えば、図5の例示において、データ探索範囲は7であってもよく、図6に示す探索経路でデータ探索範囲は6であってもよい。
プロセッサ200は、第1演算装置(例えば、乗算器)で演算を行うために、データ集合510において、A0、0、A0、1、A1、0、A1、1、A2、0、A2、1、A3、0の順にデータを探索し、データ集合530において、B0、0、B0、1、B1、0、B1、1、B2、0、B2、1、B3、0の順にデータを探索してもよい。
同様に、プロセッサ200は、第2演算装置(例えば、乗算器)で演算を行うために、データ集合510において、A0、1、A0、2、A1、1、A1、2、A2、1、A2、2、A3、1の順にデータを探索し、データ集合530において、B0、1、B0、2、B1、1、B1、2、B2、1、B2、2、B3、1の順にデータを探索してもよい。
プロセッサ200は、データ探索と同時に探索する演算装置により、探索時間が長くなるという短所をなくし、駆動時間中にデータの探索に参加する全ての演算装置が同時に探索を行うようにすることで、演算装置の個数を制限したり性能を制限する問題を解決することができる。
プロセッサ200は、探索経路に互いに異なる優先順位を与えることで、複数の演算装置が演算することによって発生するデータの呼出の競合状況を解決することができる。
プロセッサ200は、メモリ300の指定された領域に対して、それぞれの演算装置がデータを探索する順に応じてデータ探索経路を生成してもよい。プロセッサ200は、データが格納された位置をノードに設定し、ノード間をエッジとして接続することで、開始ノードから最後ノードに達するデータ探索経路を設定し得る。ここで、データ探索経路は方向性を有してもよい。
プロセッサ200は、データ探索経路上のエッジとノードが重ならないように、データの探索経路を生成する。プロセッサ200は、データ探索経路上のノードに優先順位を設定してもよい。
プロセッサ200は、第1データ探索経路及び第2データ探索経路に対する優先順位を設定してもよい。プロセッサ200は、第1データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するように、第1優先順位を設定してもよい。プロセッサ200は、第2データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するように、第2優先順位を設定してもよい。
例えば、図6に示す例示において、プロセッサ200は、右側上のノードに優先順位に対応する数字として1を設定し、右側下のノードに優先順位に対応する数字として2を設定し、中間の上側ノードに優先順位に対応する数字として3を設定した。同様に、プロセッサ200は、6個のノードにそれぞれの優先順位を設定する。
プロセッサ200は、相対的に低い数に対応するノードを優先順位の高いノードとして判断してもよい。反対に、プロセッサ200は、相対的に高い数に対応するノードを優先順位の低いノードとして判断してもよい。
プロセッサ200は、競合の発生に応答して、優先順位に基づいて第1被演算データ及び第2被演算データを決定する。プロセッサ200は、第1データ探索経路に対応する第1優先順位と、第2データ探索経路に対応する第2優先順位とを比較することで、優先順位の高い探索経路を決定できる。
プロセッサ200は、競合が発生した位置のデータを、優先順位の高い探索経路に対応する演算装置の被演算データとして決定する。第1優先順位が第2優先順位よりも大きい場合、プロセッサ200は、競合が発生した位置のデータを第1被演算データとして決定する。プロセッサ200は、第2データ探索経路上の次のデータを第2被演算データとして決定する。
第1優先順位が第2優先順位よりも小さい場合、プロセッサ200は、競合が発生した位置のデータを第2被演算データとして決定する。プロセッサ200は、第1データ探索経路上の次のデータを第1被演算データとして決定する。
上述したように、図6に示す例示において、データ探索範囲(又は、有効なデータに対する探索)は最大6回に制限され、プロセッサ200は、各データ探索経路上のメモリ位置に探索の長さに応じて優先順位を設定してもよい。
プロセッサ200は、ニューラルネットワーク演算を行うために取得可能なデータを発見するまで、最大6回メモリを探索することができる。ここで、制限された回数内で演算候補(例えば、被演算データ)を決定しなければ、データの探索は終了し、予め指定された値を演算装置に伝達する。
プロセッサ200は、メモリ300上のアドレス又は格納されたデータが更新される開始点から予め決定した、制限された長さのデータ探索経路を予め決定された方向性に応じて探索してもよい。
データ探索経路上の複数のノードは、データ探索経路内で互いに異なる優先順位を有してもよい。プロセッサ200は、互いに異なる演算装置に送信するために、それぞれの演算装置に対応するデータ探索経路に沿って探索を行うとき、競合の発生したノードで各データ探索経路が有する優先順位を比較することができる。
プロセッサ200は、さらに高い優先順位を有するデータ探索経路に対応する演算装置に、競合が発生したノードのデータを被演算データとして送信する。データ取得に失敗したデータ探索経路は生存性をもって、プロセッサ200は、データ取得に失敗したデータ探索経路を用いて、予め設定された探索範囲内で探索を続くことができる。
図5及び図6に示す例示において、データ探索経路を鋸歯状に設定したが、実施形態に応じてデータ探索経路は互いに異なってもよい。
図7A~図7Cは、時間の流れによるデータの探索過程を示す。
図7A~図7Cを参照すると、プロセッサ200は、複数の演算装置(例えば、第1演算装置及び第2演算装置)に対応する複数のデータ探索経路(例えば、第1データ探索経路及び第2データ探索経路)に沿って、ニューラルネットワーク演算に用いられる被演算データを決定することができる。
図7に示す例示において、プロセッサ200は、第1演算装置(例えば、MUL0)に対応する第1データ探索経路、及び第2演算装置(例えば、MUL1)に対応する第2データ探索経路によりデータ探索を行いながら、第1演算装置に用いられる第1被演算データ及び第2演算装置に用いられる第2被演算データを決定することができる。
図7Aの例示は、フェーズ0(又は、サイクル0)における探索動作を示す。プロセッサ200は、上述したように特定のスキップ条件が満たされるデータをスキップすることができる。
プロセッサ200は、第1データ探索経路上の最初のデータを探索した結果データが0であることを確認し、0であるデータをスキップする。プロセッサ200は、第1データ探索経路上の次のデータであるA0、1を第1被演算データとして決定しようとしたが、A0、1は、第2データ探索経路上の最初のデータであるため、競合が発生し得る。
即ち、第1演算装置は、0であるデータをスキップし、第1データ探索経路上の次のデータであるA0、1を取得しようとしたが、第2演算装置が同じデータを取得しようとするため、競合が発生し得る。
プロセッサ200は、競合の発生に応答して、優先順位に基づいて第1被演算データ及び第2被演算データを決定することができる。プロセッサ200は、第1データ探索経路に対応する第1優先順位と第2データ探索経路に対応する第2優先順位とを比較することで、優先順位の高い探索経路を決定する。
優先順位及び優先順位に対応する数は、図6を参照して説明したものと同様に割り当てられてもよい。従って、図7Aにおいて、第1データ探索経路上でデータA0、1に対応する優先順位に対応する数は1であり、第2データ探索経路上でデータA0、1に対応する優先順位に対応する数は2である。
低い数に対応するノードが優先権を有する場合、第1データ探索経路が第2データ探索経路に比べて優先順位が高いため、プロセッサ200は、A0,1を第2被演算データとして決定する。したがって、プロセッサ200は、A0、1を第2演算装置に送信し、探索が終了される。
第1演算装置は、データA0、1に対する取得に失敗したため、プロセッサ200は、第1データ探索経路に沿って探索を持続することができる。第1データ探索経路上の次のデータは、データA1、0であるため、プロセッサ200は、データA1、0を第1被演算データとして決定して第1演算装置へ送信し、フェーズ0における探索を終了する。
プロセッサ200は、被演算データの決定に応答して、被演算データとして決定されたデータアドレスをデータ探索経路上から排除してもよい。図7Aの例示において、プロセッサ200は、被演算データとして決定されて演算装置に送信されたA0、1及びA1、0に既に取得したという情報を表示したり、データを0に変えることで、次のフェーズのデータ探索から排除させてもよい。
図7Bに示す例示は、フェーズ1(又は、サイクル1)における探索動作を示す。フェーズ1において、第1データ探索経路の次のデータであるA1、1及び第2データ探索経路の次のデータであるA0、2は全て0ではないため、プロセッサ200はスキップを行わなくてもよい。
プロセッサ200は、第1データ探索経路上で既に探索したデータである0、A0、1、A1、0を排除し、第2データ探索経路上で既に探索したデータであるA0、1を排除した状態でデータ探索を行うことができる。
プロセッサ200は、第1データ探索経路上の次の順序のデータであるA1、1を第1被演算データとして決定して第1演算装置に送信し、第2データ探索経路上の次の順序のデータであるA0、2を第2被演算データとして決定して第2演算装置に送信する。また、演算装置に送信されて演算に用いられたデータであるA1、1及びA0、2をデータ探索経路から排除する。
図7Cの例示は、フェーズ2(又は、サイクル2)における探索動作を示す。フェーズ1において、第1データ探索経路の次のデータは0であるため、プロセッサ200は0であるデータをスキップする。
第2データ探索経路の次のデータはA1、1であって、以前フェーズから排除されたデータであるため、プロセッサ200はA1、1をスキップする。第2データ探索経路上でA1、1の次の順序のデータは0であるため、プロセッサ200は再びスキップしてもよい。
この場合、第1データ探索経路上の次のデータはA2、1であり、第2データ探索経路上の次のデータもA2、1であるため、競合が発生する可能性がある。プロセッサ200は、優先順位に基づいてA2、1が送信される演算装置を決定してもよい。優先順位に対応する数は、図6に示す例示のように設定されてもよい。
第1データ探索経路のA2、1の優先順位に対応する数は6であり、第2データ探索経路のA2、1の優先順位に対応する数は5であるため、プロセッサ200は第2データ探索経路の優先順位が高いと判断し、A2、1を第2被演算データとして決定することができる。
ここで、第1データ探索経路は、予め決定された探索範囲が終了したため、プロセッサ200は、取得可能なデータがないという意味としてNAを第1演算装置に出力することができる。
プロセッサ200は、予め決定された探索範囲に対する探索完了に応答して、複数のデータに対する第1データ探索経路及び第2データ探索経路を更新し得る。図7Cにおいて、プロセッサ200は、第1データ探索経路又は第2データ探索経路を更新して新しいメモリ領域上のデータを探索することができる。
図8は、データ探索経路の他の例を示す。
図8を参照すると、プロセッサ200は、正方形の形状に配列されていないデータに対してデータ探索を行ってもよい。また、プロセッサ200は、演算装置が3つ以上である場合についても並列的にデータ探索を行うことができる。
図8の例示のように、3つの演算装置が1つのデータ集合830を共有しようとする場合、図7A~図7Cを参照して説明したように、データ探索を行ってもよい。この場合、プロセッサ200は、データ探索経路810を用いてデータの探索を行うことができる。
データ探索経路の競合が発生したり、0であるデータが探索された場合の処理方式について、図7A~図7Cと同一である。上述したデータ探索を介して、プロセッサ200は、ニューラルネットワーク演算で消耗する電力を節減し、演算の効率を向上することができる。
図9は、データを探索してニューラルネットワークを行う過程を示す。
図9を参照すると、ニューラルネットワーク演算装置(例えば、図1のニューラルネットワーク演算装置10)を用いてニューラルネットワーク演算を行う過程を示す。
プロセッサ(例えば、図1のプロセッサ200)は、スパース性(sparsity)を有する入力データ(例えば、活性化値)をメモリ(例えば、データバッファ)に格納し、格納されたデータを探索して有効なデータをMACアレイ910にインデックス情報(例えば、被演算データのメモリ上のアドレス)と共に送信し、重み930を選択することでニューラルネットワーク演算を行うことができる。
プロセッサ200は、演算装置(例えば、MACアレイ910)のそれぞれの処理ユニットに入力されるデータをデータ探索経路に沿って探索し、優先順位に基づいて被演算データを決定することができる。
例えば、受信器(例えば、図1の受信器100)はデータ950を受信し、プロセッサ200に出力してもよい。
プロセッサ200は、受信したデータ970に対して探索を行う。プロセッサ200は、データ970の一部に対応する領域について上記で説明したような方式に基づいて特定の値のデータをスキップし、データ探索経路の優先順位に基づいてデータ探索を行う。
プロセッサ200は、探索を介して決定された被演算データをMACアレイ910に送信し、MACアレイ910から出力された演算結果に基づいて出力活性化値990を生成する。
優先順位に基づくデータ探索を用いて、プロセッサ200は、ニューラルネットワーク演算で負荷の均等化を行って演算を行うことができる。そのため、プロセッサ200は、演算装置の個数による複雑度の増加を抑制し、実際のハードウェアを実現したときに、従来方式に比べて高い演算性能を達成することができる。
図10は、図1に示されたニューラルネットワーク演算装置の具現の他の例を示す。
図10の例示は、ニューラルネットワーク演算装置(例えば、図1のニューラルネットワーク演算装置10)を適用したスパース性MAC演算装置の具現例を示す。
スパース性MAC演算装置は、スパース性ユニット1030及びMACアレイ1050を有する。プロセッサ(例えば、図1のプロセッサ200)は、スパース性ユニット1030の内部又は外部に具現化されてもよい。
MACアレイ1050は、上記で説明した演算装置に含まれてもよい。
スパース性ユニット1030は、優先順位に基づいてデータ探索1010を行う。スパース性ユニット1030は、上記で説明したものと同じ方式で、データ探索経路に沿ってデータを探索し、MACアレイにデータを送信する。
図11は、図1に示すニューラルネットワーク演算装置の動作のフローチャートを示す。
図11を参照すると、図11に示す動作は順に実行されてもよく、説明された実施形態の範囲を離脱することなく、一部の動作が変更されたり省略されてもよい。図11に示す動作は、並列的又は同時に実行されてもよい。図11の1つ以上のブロック又はブロックの組み合せは、特定の機能を行うプロセッサのような特殊目的のハードウェア基盤コンピュータ又は特殊目的のハードウェア及びコンピュータ命令の組み合わせによって実行されてもよい。以下の説明及び図1~図10の説明についても図11に適用されてもよい。図1~図10の説明は重複して記載しない。
受信器100は、ニューラルネットワーク演算を行うための複数のデータを受信する(S1110)。
プロセッサ200は、複数のデータのうち第1データ探索経路(data search path)及び第2データ探索経路上のデータに対する演算をスキップするか否かを決定する。プロセッサ200は、データが0である場合、前記データに対する演算をスキップするものと決定したり、データが予め決定された範囲以内の値である場合、データに対する演算をスキップすると決定する。
プロセッサ200は、第1演算装置に対応する第1データ探索経路及び第2演算装置に対応する第2データ探索経路の競合有無を判断する(S1130)。プロセッサ200は、任意の時点で第1演算装置と第2演算装置が同じデータにアクセスする場合、第1データ探索経路と第2データ探索経路の競合が発生したと判断する。
プロセッサ200は、競合の有無及び第1データ探索経路と第2データ探索経路との間の優先順位を用いて、複数のデータのうち第1被演算データ及び第2被演算データを決定する(S1150)。
プロセッサ200は、第1データ探索経路及び第2データ探索経路に対する優先順位を設定する。プロセッサ200は、第1データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するよう、第1優先順位を設定してもよい。プロセッサ200は、第2データ探索経路上のデータに対応するノードが、互いに異なる優先順位を有するように第2優先順位を設定してもよい。
プロセッサ200は、競合の発生に応答して、優先順位に基づいて第1被演算データ及び第2被演算データを決定する。プロセッサ200は、第1データ探索経路に対応する第1優先順位と、第2データ探索経路に対応する第2優先順位とを比較することで、優先順位が高い探索経路を決定することができる。
プロセッサ200は、競合が発生した位置のデータを優先順位の高い探索経路に対応する演算装置の被演算データとして決定する。第1優先順位が第2優先順位よりも大きい場合、プロセッサ200は、競合が発生した位置のデータを第1被演算データとして決定する。プロセッサ200は、第2データ探索経路上の次のデータを第2被演算データとして決定する。
第1優先順位が第2優先順位よりも小さい場合、プロセッサ200は、競合が発生した位置のデータを第2被演算データとして決定する。プロセッサ200は、第1データ探索経路上の次のデータを第1被演算データとして決定する。
プロセッサ200は、第1被演算データ及び第2被演算データの決定に応答して、第1被演算データ及び第2被演算データのアドレスを第1データ探索経路及び第2データ探索経路上から排除することができる。
プロセッサ200は、第1被演算データ及び第2被演算データに基づいてニューラルネットワーク演算を行う(S1170)。
第1データ探索経路及び第2データ探索経路は、予め決定された探索範囲を有する。プロセッサ200は、予め決定された探索範囲に対する探索完了に応答して、複数のデータに対する第1データ探索経路及び第2データ探索経路を更新できる。
第1データ探索経路及び第2データ探索経路は、予め決定された探索範囲を有する。プロセッサ200は、予め決定された探索範囲に対する探索完了に応答して、複数のデータに対する第1データ探索経路及び第2データ探索経路を更新することができる。
以上で説明した実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現化される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサ、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現化される。処理装置は、オペレーティングシステム(OS)及び前記オペレーティングシステム上で行われる1つ以上のソフトウェアアプリケーションを行うことができる。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理及び生成することもできる。理解の利便のために、処理装置は、1つが使用されるものと説明される場合もあるが、当該技術分野において通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び又は複数のタイプの処理要素を含んでいることが分かる。例えば、処理装置は、複数のプロセッサ又は一つのプロセッサ及び一つのコントローラを含んでもよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
実施形態に係る方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現化され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。上記で説明したハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順で実行されるし、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられてもよいし、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、本発明の範囲は、開示された実施形態に限定されて定められるものではなく、特許請求の範囲及び特許請求の範囲と均等なものなどによって定められるものである。
10 ニューラルネットワーク演算装置
100 受信器
200 プロセッサ
300 メモリ

Claims (20)

  1. ニューラルネットワーク演算装置の受信器が、ニューラルネットワーク演算のための複数のデータを受信するステップと、
    前記ニューラルネットワーク演算装置のプロセッサが、前記複数のデータのうち、前記プロセッサの第1演算装置に対応する第1データ探索経路及び前記プロセッサの第2演算装置に対応する第2データ探索経路上のデータに対する演算をスキップするか否かを決定するステップと、
    前記プロセッサが、前記第1データ探索経路及び前記第2データ探索経路の競合の有無を判断するステップと、
    前記プロセッサが、前記競合の有無及び前記第1データ探索経路と前記第2データ探索経路との間の優先順位を用いて、前記複数のデータのうち第1被演算データ及び第2被演算データを決定するステップと、
    前記プロセッサが、前記第1被演算データ及び前記第2被演算データに基づいてニューラルネットワーク演算を行うステップと、
    を含み、
    前記複数のデータのうち、前記第1データ探索経路及び前記第2データ探索経路上のデータに対する演算をスキップするか否かを決定するステップは、
    前記プロセッサが、前記データが0である場合、前記データに対する演算をスキップするものと決定するステップ、又は、
    前記プロセッサが、前記データが予め決定された範囲以内の値である場合、前記データに対する演算をスキップするものと決定するステップ、を含む、
    ニューラルネットワーク演算方法。
  2. ニューラルネットワーク演算装置の受信器が、ニューラルネットワーク演算のための複数のデータを受信するステップと、
    前記ニューラルネットワーク演算装置のプロセッサが、前記プロセッサの第1演算装置に対応する第1データ探索経路及び前記プロセッサの第2演算装置に対応する第2データ探索経路の競合の有無を判断するステップと、
    前記プロセッサが、前記競合の有無及び前記第1データ探索経路と前記第2データ探索経路との間の優先順位を用いて、前記複数のデータのうち第1被演算データ及び第2被演算データを決定するステップと、
    前記プロセッサが、前記第1被演算データ及び前記第2被演算データに基づいてニューラルネットワーク演算を行うステップと、
    を含み、
    前記第1被演算データ及び前記第2被演算データを決定するステップは、
    前記プロセッサが、前記第1データ探索経路及び前記第2データ探索経路に対する優先順位を設定するステップと、
    前記プロセッサが、前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定するステップと、
    を含み、
    前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定するステップは、
    前記プロセッサが、優先順位の高い探索経路を決定するために、前記第1データ探索経路に対応する第1優先順位と前記第2データ探索経路に対応する第2優先順位とを比較するステップと、
    前記プロセッサが、競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定するステップと、
    を含む、
    ニューラルネットワーク演算方法。
  3. 前記プロセッサが、前記複数のデータのうち、前記第1データ探索経路及び前記第2データ探索経路上のデータに対する演算をスキップするか否かを決定するステップをさらに含む、請求項に記載のニューラルネットワーク演算方法。
  4. 前記判断するステップは、任意の時点において、前記第1演算装置と前記第2演算装置が同じデータにアクセスする場合、前記プロセッサが、前記第1データ探索経路と前記第2データ探索経路の競合が発生したと判断するステップを含む、請求項1乃至3のいずれか1項に記載のニューラルネットワーク演算方法。
  5. 前記第1被演算データ及び前記第2被演算データを決定するステップは、
    前記プロセッサが、前記第1データ探索経路及び前記第2データ探索経路に対する優先順位を設定するステップと、
    前記プロセッサが、前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定するステップと、
    を含む、請求項1に記載のニューラルネットワーク演算方法。
  6. 前記優先順位を設定するステップは、
    前記プロセッサが、前記第1データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するように第1優先順位を設定するステップと、
    前記プロセッサが、前記第2データ探索経路上のデータに対応するノードが互いに異なる優先順位を有するように第2優先順位を設定するステップと、
    を含む、請求項5に記載のニューラルネットワーク演算方法。
  7. 前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定するステップは、
    前記プロセッサが、優先順位の高い探索経路を決定するために、前記第1データ探索経路に対応する第1優先順位と前記第2データ探索経路に対応する第2優先順位とを比較するステップと、
    前記プロセッサが、競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定するステップと、
    を含む、請求項5に記載のニューラルネットワーク演算方法。
  8. 前記競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定するステップは、
    前記プロセッサが、前記第1優先順位が前記第2優先順位よりも大きい場合、前記競合が発生した位置のデータを前記第1被演算データとして決定するステップと、
    前記プロセッサが、前記第2データ探索経路上の次のデータを前記第2被演算データとして決定するステップと、
    を含む、請求項7に記載のニューラルネットワーク演算方法。
  9. 前記プロセッサが、前記第1被演算データ及び前記第2被演算データの決定に応答し、前記第1被演算データ及び前記第2被演算データのアドレスを前記第1データ探索経路及び前記第2データ探索経路上から排除するステップをさらに含む、請求項1乃至8のいずれか1項に記載のニューラルネットワーク演算方法。
  10. 前記第1データ探索経路及び前記第2データ探索経路は、予め決定された探索範囲を有し、
    前記プロセッサが、前記予め決定された探索範囲に対する探索完了に応答して、前記複数のデータに対する前記第1データ探索経路及び前記第2データ探索経路を更新するステップをさらに含む、請求項1乃至9のいずれか1項に記載のニューラルネットワーク演算方法。
  11. ニューラルネットワーク演算を行うための複数のデータを受信する受信器と、
    第1演算装置に対応する第1データ探索経路及び第2演算装置に対応する第2データ探索経路の競合有無を判断し、
    前記競合の有無及び前記第1データ探索経路と前記第2データ探索経路との間の優先順位を用いて、前記複数のデータのうち第1被演算データ及び第2被演算データを決定し、
    前記第1被演算データ及び前記第2被演算データに基づいてニューラルネットワーク演算を行うプロセッサを含み、
    前記プロセッサは、
    前記データが0である場合、前記データに対する演算をスキップするものと決定する、又は、
    前記データが予め決定された範囲以内の値である場合、前記データに対する演算をスキップするものと決定する、
    ニューラルネットワーク演算装置。
  12. ニューラルネットワーク演算を行うための複数のデータを受信する受信器と、
    第1演算装置に対応する第1データ探索経路及び第2演算装置に対応する第2データ探索経路の競合の有無を判断し、
    前記競合の有無及び前記第1データ探索経路と前記第2データ探索経路との間の優先順位を用いて、前記複数のデータのうち第1被演算データ及び第2被演算データを決定し、
    前記第1被演算データ及び前記第2被演算データに基づいてニューラルネットワーク演算を行うプロセッサを含み、
    前記プロセッサは、
    前記第1データ探索経路及び前記第2データ探索経路に対する優先順位を設定し、
    前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定し、
    優先順位の高い探索経路を決定するために、前記第1データ探索経路に対応する第1優先順位と前記第2データ探索経路に対応する第2優先順位とを比較し、
    競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定する、
    ニューラルネットワーク演算装置。
  13. 前記プロセッサは、前記複数のデータのうち、前記第1データ探索経路及び前記第2データ探索経路上のデータに対する演算をスキップするか否かを決定する、請求項12に記載のニューラルネットワーク演算装置。
  14. 前記プロセッサは、任意の時点で前記第1演算装置と前記第2演算装置が同じデータにアクセスする場合、前記第1データ探索経路と前記第2データ探索経路の競合が発生したものと判断する、請求項11乃至13のいずれか1項に記載のニューラルネットワーク演算装置。
  15. 前記プロセッサは、
    前記第1データ探索経路及び前記第2データ探索経路に対する優先順位を設定し、
    前記競合の発生に応答して、前記優先順位に基づいて前記第1被演算データ及び前記第2被演算データを決定する、請求項11に記載のニューラルネットワーク演算装置。
  16. 前記プロセッサは、
    前記第1データ探索経路上のデータに対応するノードが、互いに異なる優先順位を有するように第1優先順位を設定し、
    前記第2データ探索経路上のデータに対応するノードが、互いに異なる優先順位を有するように第2優先順位を設定する、請求項15に記載のニューラルネットワーク演算装置。
  17. 前記プロセッサは、
    優先順位の高い探索経路を決定するために、前記第1データ探索経路に対応する第1優先順位と前記第2データ探索経路に対応する第2優先順位とを比較し、
    競合が発生した位置のデータを、前記優先順位の高い探索経路に対応する演算装置の被演算データとして決定する、請求項15に記載のニューラルネットワーク演算装置。
  18. 前記プロセッサは、
    前記第1優先順位が前記第2優先順位よりも大きい場合、前記競合が発生した位置のデータを前記第1被演算データとして決定し、
    前記第2データ探索経路上の次のデータを前記第2被演算データとして決定する、請求項17に記載のニューラルネットワーク演算装置。
  19. 前記プロセッサは、前記第1被演算データ及び前記第2被演算データの決定に応答して、前記第1被演算データ及び前記第2被演算データのアドレスを前記第1データ探索経路及び前記第2データ探索経路上から排除する、請求項11乃至18のいずれか1項に記載のニューラルネットワーク演算装置。
  20. 前記第1データ探索経路及び前記第2データ探索経路は、予め決定された探索範囲を有し、
    前記プロセッサは、前記予め決定された探索範囲に対する探索完了に応答して、前記複数のデータに対する前記第1データ探索経路及び前記第2データ探索経路を更新する、請求項11乃至19のいずれか1項に記載のニューラルネットワーク演算装置。
JP2022010730A 2021-02-05 2022-01-27 ニューラルネットワーク演算方法及び装置 Active JP7431263B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2021-0016943 2021-02-05
KR20210016943 2021-02-05
KR1020210036060A KR20220113220A (ko) 2021-02-05 2021-03-19 뉴럴 네트워크 연산 방법 및 장치
KR10-2021-0036060 2021-03-19

Publications (2)

Publication Number Publication Date
JP2022120809A JP2022120809A (ja) 2022-08-18
JP7431263B2 true JP7431263B2 (ja) 2024-02-14

Family

ID=78211953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022010730A Active JP7431263B2 (ja) 2021-02-05 2022-01-27 ニューラルネットワーク演算方法及び装置

Country Status (4)

Country Link
US (1) US20220253692A1 (ja)
EP (1) EP4040314A1 (ja)
JP (1) JP7431263B2 (ja)
CN (1) CN114861897A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163310A (ja) 1998-11-30 2000-06-16 Nec Corp マイクロプロセッサ
JP2018077842A (ja) 2016-11-07 2018-05-17 三星電子株式会社Samsung Electronics Co.,Ltd. 畳み込み神経網処理方法及び装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163310A (ja) 1998-11-30 2000-06-16 Nec Corp マイクロプロセッサ
JP2018077842A (ja) 2016-11-07 2018-05-17 三星電子株式会社Samsung Electronics Co.,Ltd. 畳み込み神経網処理方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DAVE, Shail ほか,Hardware Acceleration of Sparse and Irregular Tensor Computations of ML Models: A Survey and Insights,arXiv[online],2020年07月02日,pp.36-38,[retrieved on 2023.09.19], Retrieved from the Internet: <URL: https://arxiv.org/pdf/2007.00864v1.pdf>

Also Published As

Publication number Publication date
US20220253692A1 (en) 2022-08-11
JP2022120809A (ja) 2022-08-18
CN114861897A (zh) 2022-08-05
EP4040314A1 (en) 2022-08-10

Similar Documents

Publication Publication Date Title
US11373084B2 (en) Apparatus and methods for forward propagation in fully connected layers of convolutional neural networks
US10410112B2 (en) Apparatus and method for performing a forward operation of artificil neural networks
US10713567B2 (en) Apparatus and method for executing reversal training of artificial neural network
CN107341547B (zh) 一种用于执行卷积神经网络训练的装置和方法
KR20210002676A (ko) 집약성을 개선하기 위한 머신 학습 모델들의 수정
US20210373944A1 (en) Scheduler, method of operating the same, and accelerator apparatus including the same
JP7413549B2 (ja) 並列ロードストアを有する共有スクラッチパッドメモリ
US11803733B2 (en) Method for implementing neural network model in heterogeneous computing platform and apparatus for performing the same
JP7431263B2 (ja) ニューラルネットワーク演算方法及び装置
US20220237487A1 (en) Accelerator for processing inference tasks in parallel and operating method thereof
US20220253682A1 (en) Processor, method of operating the processor, and electronic device including the same
US20220261644A1 (en) Method and apparatus for generating task plan based on neural network
US20220179714A1 (en) Method and apparatus for scheduling neural network operation
KR20220113220A (ko) 뉴럴 네트워크 연산 방법 및 장치
KR102547997B1 (ko) 효율적인 메모리 접근 방식을 이용한 뉴럴 네트워크 연산 가속 방법 및 장치
KR102614909B1 (ko) 희소화를 이용한 뉴럴 네트워크 연산 방법 및 장치
US20220269597A1 (en) Memory mapping method and apparatus
US20220284299A1 (en) Method and apparatus with neural network operation using sparsification
US20230140145A1 (en) Apparatus and method with neural network operation
US20230143371A1 (en) Apparatus and method with neural network operation
US20220237436A1 (en) Neural network training method and apparatus
US20240061972A1 (en) Method and apparatus with performance modeling
US20220269930A1 (en) Neural network operation method and apparatus
US20220075606A1 (en) Compiling method and apparatus for neural networks
TW202316365A (zh) 用於實施分組卷積之神經網路架構

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240201

R150 Certificate of patent or registration of utility model

Ref document number: 7431263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150