JP2021124849A - 演算処理装置、演算処理装置の制御方法及び演算処理プログラム - Google Patents

演算処理装置、演算処理装置の制御方法及び演算処理プログラム Download PDF

Info

Publication number
JP2021124849A
JP2021124849A JP2020016735A JP2020016735A JP2021124849A JP 2021124849 A JP2021124849 A JP 2021124849A JP 2020016735 A JP2020016735 A JP 2020016735A JP 2020016735 A JP2020016735 A JP 2020016735A JP 2021124849 A JP2021124849 A JP 2021124849A
Authority
JP
Japan
Prior art keywords
calculation
unit
decimal point
point position
arithmetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2020016735A
Other languages
English (en)
Inventor
毅 葛
Ge Yi
毅 葛
勝洋 依田
Katsuhiro Yoda
勝洋 依田
真紀子 伊藤
Makiko Ito
真紀子 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020016735A priority Critical patent/JP2021124849A/ja
Priority to EP20215486.0A priority patent/EP3862932A1/en
Priority to US17/130,122 priority patent/US20210240439A1/en
Priority to CN202110042933.7A priority patent/CN113220344A/zh
Publication of JP2021124849A publication Critical patent/JP2021124849A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • G06F9/3001Arithmetic instructions
    • G06F9/30014Arithmetic instructions with variable precision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/30007Arrangements for executing specific machine instructions to perform operations on data operands
    • G06F9/3001Arithmetic instructions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30098Register arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Advance Control (AREA)

Abstract

【課題】Define by Runにより深層学習を行う際の固定小数点を用いた学習における学習精度を向上させる演算処理装置、演算処理装置の制御方法及び演算処理プログラムを提供する。【解決手段】演算部12は、所定演算を行う。統括管理部100は、第1小数点位置の固定小数点として入力データを用いた前記所定演算を前記演算部12に実行させ第1演算結果の統計情報を求める。小数点位置決定部101は、前記統計情報を用いて第2小数点位置を決定する。指数値変換制御部102は、前記小数点位置決定部101により決定された第2小数点位置の固定小数点として前記入力データを用いた前記所定演算を行った場合の第2演算結果を前記演算部12に算出させる。【選択図】図4

Description

本発明は、演算処理装置、演算処理装置の制御方法及び演算処理プログラムに関する。
今日、深層学習(ディープラーニング)へのニーズが高まっている。深層学習においては、乗算、積和演算、ベクトル乗算を含む様々な演算が実行される。ところで、深層学習では、個々の演算精度への要求は、他のコンピュータ処理ほど厳密ではない。例えば、従来の信号処理等では、プログラマは極力桁あふれを発生させないようにコンピュータプログラムを開発する。一方、深層学習では、大きな値がある程度飽和することは許容される。これは、深層学習では、複数の入力データを畳み込み演算するときの係数(重み)の調整が主な処理となり、入力データのうち極端なデータは重視されないことが多いためである。また、大量のデータを繰り返し用いて係数を調整するため、一度飽和された値も、学習の進行に合わせて桁調整を行なうことで、飽和されずに係数調整に反映できるようになるためである。
そこで、このような深層学習の特性を考慮し、深層学習用の演算処理装置のチップ面積の削減及び電力性能の向上等を図るため、浮動小数点数を用いずに固定小数点数による演算を用いることが考えられる。これは、浮動小数点数演算よりも固定小数点数を用いた演算の方が回路構成を簡素にできるためである。
また、近年、ディープラーニング用の専用アクセラレータの開発が盛んになっている。そこで、専用アクセラレータにおける演算の面積効率を上げるためにも、固定小数点数による演算を用いることが好ましい。例えば、演算ビット数を例えば32ビットの浮動小数点数を8ビットの固定小数点数に減らして面積あたりの演算性能を向上させたハードウェアが開発されている。32ビットの浮動小数点数を8ビットの固定小数点数に減らすことで、単純に面積当たり4倍の性能が得られる。このように、十分な精度を有する実数を少ないビット数で表現する処理は量子化と呼ばれる。
ただし、固定小数点数は、ダイナミックレンジが狭いため浮動小数点数より演算精度が劣化する場合がある。そのため、深層学習においても、小さな値を表現する精度、すなわち有効桁数について配慮が求められる。そこで、演算結果のビット位置の統計情報を用いて固定小数点の有効桁数を決定し小数点位置を最適化する従来技術が存在する。
従来技術では、前のイテレーション(iteration)の統計情報を用いて次のイテレーションの小数点位置が決定され、決定された小数点位置を用いて次のイテレーションの演算が実行される。イテレーションは、ミニバッチとも呼ばれる。
また、統計情報を用いて固定小数点における小数点位置を決定する技術として、最下位ビット位置から最上位ビット位置までの範囲を示す情報及び符号ビット位置から最下位ビットのビット位置まで範囲を示す情報を用いて小数点位置を決定する従来技術がある。また、固定小数点演算を行う技術として、指定された小数点位置を表すデータに基づいて出力された演算結果に対して丸め処理及び飽和処理を実行しつつ固定小数点演算を行う従来技術がある。
特開2018−124681号公報 特開2019−74951号公報 特開2009−271598号公報
しかしながら、最近の深層学習のフレームワーク、特にpyTorchやchainerで、Define by Runと呼ばれる処理方式が導入される機会が増加した。以下では、Define by RunをDbRと省略して表記する。DbRでは、ニューラルネットの構造となる計算グラフの構築が、深層学習の処理を実行しながら行われる。そして、DbRでは、最短で学習のイテレーション毎に計算グラフが変わる。そのため、過去に推定した小数点位置を記憶することが困難である。また、計算グラフが変わるということは、ある層を通過する際の計算グラフが複数あり、特定のイテレーションにおいて、その層でどちらの計算グラフが用いられるか特定困難ということである。なお、DbRではない従来型の深層学習における演算処理はDefine and Runと呼ばれ、学習開始時に計算グラフが確定する。
DbRにより深層学習を行う場合、仮に前回のイテレーションにおける統計情報を用いるとしても、前回自体が存在しないあるいは前回の統計情報が実際にはいくつものイテレーションも前の情報となる場合がある。このため、DbRにより深層学習を行う場合、過去の統計情報を用いると学習が破たんするおそれがあり、過去の統計情報を用いて小数点位置を決定することは困難である。
また、最下位ビット位置から最上位ビット位置までの範囲を示す情報及び符号ビット位置から最下位ビットのビット位置まで範囲を示す情報を用いて小数点位置を決定する技術でも、過去の統計情報を用いることからDbRを用いた深層学習への適用は困難である。また、指定された小数点位置を表すデータに基づいて出力された演算結果に対して丸め処理及び飽和処理を行う従来技術では、小数点位置の決め方が考慮されておらず、DbRにより深層学習を行うことは困難である。
開示の技術は、上記に鑑みてなされたものであって、Define by Runにより深層学習を行う際の固定小数点を用いた学習における学習精度を向上させる演算処理装置、演算処理装置の制御方法及び演算処理プログラムを提供することを目的とする。
本願の開示する演算処理装置、演算処理装置の制御方法及び演算処理プログラムの一つの態様において、演算部は、所定演算を行う。管理部は、第1小数点位置の固定小数点として入力データを用いた前記所定演算を前記演算部に実行させ第1演算結果の統計情報を求める。小数点位置決定部は、前記統計情報を用いて第2小数点位置を決定する。指数値変換制御部は、前記小数点位置決定部により決定された第2小数点位置の固定小数点として前記入力データを用いた前記所定演算を行った場合の第2演算結果を前記演算部に算出させる。
1つの側面では、本発明は、Define by Runにより深層学習を行う際の固定小数点を用いた学習における学習精度を向上させることができる。
図1は、サーバの概略を表す構成図である。 図2は、ニューラルネットワークにおける深層学習の一例の図である。 図3は、演算用回路のブロック図である。 図4は、制御部の詳細を表すブロック図である。 図5は、実施例1に係る小数点位置更新処理の全体を説明するための図である。 図6は、実施例1に係る演算用回路による小数点位置の更新を含んだ演算処理の概要を表す図である。 図7は、実施例1に係る演算回路による深層学習の処理のフローチャートである。 図8は、実施例2に係る小数点位置更新処理の全体を説明するための図である。 図9は、N%の演算データの選択を説明するための図である。 図10は、選択する認識率に応じた選択する演算データの割合を表す図である。 図11は、実施例3に係る小数点位置更新処理の全体を説明するための図である。 図12は、実施例3に係る演算回路による深層学習の処理のフローチャートである。 図13は、実施例4に係る小数点位置更新処理の全体を説明するための図である。 図14は、実施例4に係る演算用回路による小数点位置の更新を含んだ演算処理の概要を表す図である。 図15は、実施例1〜4の演算処理の処理時間を表す図である。 図16は、深層学習におけるレイヤの一例を示す図である。 図17は、小数点位置の更新方法の選択結果を表す図である。 図18は、実施例5に係る小数点位置の更新処理の選択のフローチャートである。 図19は、小数点位置の更新方法の選択タイミングを表す図である。 図20は、計算用回路が搭載されたサーバの構成の一例を表す図である。 図21は、実施例6における演算手順を説明するための図である。 図22は、実施例6に係るサーバによる深層学習における演算処理のフローチャートである。 図23は、実施例7における演算手順を説明するための図である。 図24は、実施例8における演算手順を説明するための図である。 図25は、実施例8に係るサーバによる深層学習における演算処理のフローチャートである。 図26は、実施例9における演算手順を説明するための図である。
以下に、本願の開示する演算処理装置、演算処理装置の制御方法及び演算処理プログラムの実施例を図面に基づいて詳細に説明する。なお、以下の実施例により本願の開示する演算処理装置、演算処理装置の制御方法及び演算処理プログラムが限定されるものではない。
図1は、サーバの概略を表す構成図である。サーバ1は、深層学習を実行する。サーバ1は、CPU(Central Processing Unit)2、メモリ3、及び演算用回路4を有する。CPU2、メモリ3及び演算回路4は、相互にPCIe(Peripheral Component Interconnect Express)バス5で接続される。
CPU2は、メモリ3に格納されたプログラムを実行しサーバ1としての各種機能を実現する。例えば、CPU2は、PCIeバス5経由で制御信号を送信して、演算用回路4が有する制御コアを起動する。また、CPU2は、演算で用いるデータ及び実行する演算命令を演算用回路4へ出力して、演算用回路4に演算を行わせる。
演算用回路4は、深層学習におけるレイヤ毎の演算を実行する回路である。ここで、図2を参照して、ニューラルネットワークにおける深層学習の一例について説明する。図2は、ニューラルネットワークにおける深層学習の一例の図である。ニューラルネットワークは、例えば、画像を認識して識別するためのフォワード方向の処理と、フォワード方向の処理で使用するパラメータを決定するバックワード方向の処理を実行する。図2における上部の矢印の紙面に向かって右に進む方向がフォワード方向であり、紙面に向かって左に進む方向がバックワード方向である。
図2のニューラルネットワークは、入力画像に対して、畳み込み層(Convolution Layer)の処理及びプーリング層(Pooling Layer)の処理を実行し、画像の特徴を抽出して画像を識別する。図2の紙面中央に記載した処理はフォワード方向の処理を表す。
図2では、フォワード方向の処理における特徴抽出部において、入力画像に対して畳み込み層の処理及びプーリング層の処理が実行され特徴マップが生成される。その後、識別部において、特徴マップに対して全結合が行われ最終層から識別結果が出力される。畳み込み層の処理は、畳み込み演算とも呼ばれる。また、プーリング層の処理は、プーリング演算とも呼ばれる。その後、識別結果は、正解データと比較され、比較結果である差分値が得られる。次に、バックワード方向の処理として、差分値からフォワード方向の畳み込み層及び全結合層における各層でのエラー及び各層での次の重みを計算する学習処理が行われる。
深層学習は、ミニバッチと呼ばれる処理の単位に区切られて実行される。ミニバッチとは、学習の対象となる入力データの集合を所定個の組に分割した複数個のデータの組み合わせである。図2では、N個の画像で1つのミニバッチである。そして、ミニバッチ毎のフォワード方向の処理及びバックワード方向の処理の一連の処理をまとめた単位を1イテレーションという。
演算用回路4は、深層学習中の所定数のミニバッチ毎に、各層の演算を行うとともに各層の各変数の統計情報を取得して蓄積し、深層学習に用いる変数の固定小数点位置を自動調整する。次に、演算用回路4の詳細について説明する。
図3は、演算用回路のブロック図である。図3に示すように、演算用回路4は、プロセッサ40及び命令RAM(Random Access Memory)41及びデータRAM42を有する。
プロセッサ40は、制御部10、レジスタファイル11、演算部12、統計情報集約部13、メモリインタフェース14及びメモリインタフェース15を有する。メモリインタフェース14は、プロセッサ40における命令RAM41に接続するインタフェースである。また、メモリインタフェース15は、プロセッサ40におけるデータRAM42に接続するインタフェースである。以下の説明では、プロセッサ40の各部が命令RAM41又はデータRAM42にアクセスする場合、メモリインタフェース14及び15の仲介を省略して説明する。
命令RAM41は、CPU2から送信された命令を格納する記憶装置である。命令RAM41に格納された命令は、制御部10によりフェッチされて実行される。データRAM42は、命令で指定された演算を実行する際に使用するデータを格納する記憶装置である。データRAM42に格納されたデータは、演算部12で実行される演算に使用される。
レジスタファイル11は、スカラレジスタファイル111、ベクタレジスタファイル112、アキュムレータレジスタ113、ベクタアキュムレータレジスタ114及び統計情報格納部115を有する。
スカラレジスタファイル111及びベクタレジスタファイル112は、入力されたデータや学習処理の実行途中のデータなど演算に用いるデータを格納する。アキュムレータレジスタ113及びベクタアキュムレータレジスタ114は、演算部12が演算を実行する際に、累積などの演算を行う場合にデータを一時的に格納する。
統計情報格納部115は、統計情報集約部13が集約した統計情報を取得して格納する。統計情報は、演算結果の小数点位置に関する情報である。統計情報は、例えば、非符号となる最上位ビット位置の分布、非ゼロの最下位ビット位置の分布、非符号となる最上位ビット位置の最大値又は非ゼロの最下位ビット位置の最小値などを含む複数の情報のうちのいずれか又はその組み合わせである。
次に、演算部12について説明する。演算部12は、スカラユニット121及びベクタユニット122を有する。
スカラユニット121は、制御部10、レジスタファイル11及びメモリインタフェース15に接続される。スカラユニット121は、演算器211、統計情報取得部212及びデータ変換部213を有する。本実施例では、スカラユニット121は、統計情報を取得するための先行演算と、先行演算の統計情報から決定された小数点位置で演算を実行して演算結果を取得する本演算という2つの演算を実行する。
演算器211は、データRAM42、スカラレジスタファイル111及びアキュムレータレジスタ113が保持するデータのうちの1つもしくはいくつかを用いて積和演算などの演算を実行する。この演算器211が演算に用いるデータが、「入力データ」の一例にあたる。演算器211は、先行演算及び本演算のいずれの演算でも同様の演算を実行する。演算器211は、演算結果を表すのに十分なビット幅を用いて演算を実行する。演算器211は、データRAM42、統計情報取得部212及びデータ変換部213に演算結果を出力する。
統計情報取得部212は、演算結果のデータの入力を演算器211から受ける。そして、統計情報取得部212は、演算結果のデータから統計情報を取得する。その後、統計情報取得部212は、取得した統計情報を統計情報集約部13へ出力する。ただし、統計情報取得部212は、本演算の場合統計情報の取得及び取得した統計情報の出力を行わなくてもよい。
データ変換部213は、演算器211による演算結果を取得する。次に、データ変換部213は、本演算の場合、先行演算により取得された統計情報から決定された小数点位置の入力を制御部10から受ける。そして、データ変換部213は、固定小数点数データを取得した少数点位置で指定されたシフト量だけシフトさせる。また、データ変換部213は、シフトとともに、上位ビットの飽和処理および下位ビットの丸めを実行する。これにより、データ変換部213は、固定小数点数のデータの小数点位置を更新する。データ変換部213は、先行演算の場合、小数点位置の更新を行わなくてもよい。データ変換部213は、小数点位置を更新した演算結果をスカラレジスタファイル111及びデータRAM42に格納する。この入力データに対して演算器211及びデータ変換部213により行われる処理が、「所定演算」の一例にあたる。
ベクタユニット122は、制御部10、レジスタファイル11及びメモリインタフェース15に接続される。ベクタユニット122は、演算器221、統計情報取得部222及びデータ変換部223の組を複数有する。本実施例では、ベクタユニット122も、先行演算と本演算という2つの演算を実行する。
演算器221は、データRAM42、ベクタレジスタファイル112又はベクタアキュムレータレジスタ114のうちの1つもしくはいくつかが保持するデータを用いて積和演算などの演算を実行する。演算器221は、演算結果を表すのに十分なビット幅を用いて演算を実行する。演算器221は、先行演算及び本演算のいずれの演算でも同様の演算を実行する。演算器211は、データRAM42、統計情報取得部222及びデータ変換部223に演算結果を出力する。
統計情報取得部222は、演算結果のデータの入力を演算器221から受ける。この時、統計情報取得部222は、精度を維持できる十分なビット幅で表された演算結果のデータを取得する。
そして、統計情報取得部222は、演算結果のデータから統計情報を取得する。例えば、非符号となる最上位ビット位置を取得する場合、統計情報取得部222は、非符号最上位ビット検出器を用いて、非符号となる最上位ビット位置の値を1とし、他のビット位置の値を0とする出力データを生成する。その後、統計情報取得部222は、取得した統計情報を統計情報集約部13へ出力する。ただし、統計情報取得部222は、本演算の場合統計情報の取得及び取得した統計情報の出力を行わなくてもよい。
データ変換部223は、演算器221による演算結果を取得する。次に、データ変換部223は、本演算の場合、先行演算により取得された統計情報から決定された小数点位置の入力を制御部10から受ける。そして、データ変換部223は、固定小数点数のデータを取得した少数点位置で指定されたシフト量だけシフトさせる。また、データ変換部223は、シフトとともに、上位ビットの飽和処理および下位ビットの丸めを実行する。これにより、データ変換部223は、固定小数点数のデータの小数点位置を更新する。データ変換部223は、先行演算の場合、小数点位置の更新を行わなくてもよい。データ変換部223は、小数点位置を更新した演算結果をベクタレジスタファイル112及びデータRAM42に格納する。
統計情報集約部13は、演算器221による演算結果のデータから取得された統計情報の入力を統計情報取得部212から受ける。また、統計情報集約部13は、各演算器221による演算結果のデータから取得されたそれぞれの統計情報の入力を各統計情報取得部222から受ける。統計情報集約部13は、統計情報取得部212から取得した統計情報及び各統計情報取得部222から取得した各統計情報を集約して統計情報格納部115へ出力する。
次に、制御部10について説明する。図4は、制御部の詳細を表すブロック図である。制御部10は、図4に示すように、統括管理部100、小数点位置決定部101及び指数値変換制御部102を有する。
統括管理部100は、演算部12による先行演算及び本演算の実行を管理する。統括管理部100は、深層学習において演算部12に演算を実行させるレイヤの情報を保持する。統括管理部100は、演算部12に演算を実行させるレイヤが次のレイヤに移ると、先行演算の実行を決定する。そして、統括管理部100は、前段のレイヤで用いた小数点位置の出力を指数値変換制御部102に指示し、演算部12に先行演算の実行を指示する。ここで、本実施例では、前段のレイヤで用いた小数点位置を先行演算に使用したが、実行する先行演算における適切な小数点位置に近い値であれば他の値を使用してもよい。この前段のレイヤで用いた小数点位置が、「第1小数点位置」の一例にあたる。
その後、統括管理部100は、演算部12による先行演算の実行が完了すると、本演算の実行を決定する。そして、統括管理部100は、新たに決定された小数点位置の出力を指数値変換制御部102に指示し、演算部12に本演算の実行を指示する。統括管理部100は、以上のような先行演算及び本演算を演算部12に実行させる制御をレイヤ毎に繰り返す。
また、統括管理部100は、深層学習におけるイテレーションの管理も行う。例えば、所定回数のイテレーションの実行が指示された場合、統括管理部100は、実行されたイテレーションの回数をカウントし所定回数に達すると学習の終了を決定する。その後、統括管理部100は、例えば、CPU2に学習終了を通知して学習を終了する。この統括管理部100が、「管理部」の一例にあたる。
小数点位置決定部101は、レイヤ毎に演算部12による先行演算が終了すると、統計情報を統計情報格納部115から取得する。そして、小数点位置決定部101は、取得した統計情報を用いて最適な小数点位置を決定する。その後、小数点位置決定部101は、決定した小数点位置を指数値変換制御部102へ出力する。小数点位置決定部101は、以上先行計算後の小数点位置の決定処理をレイヤ毎に繰り返す。この小数点位置決定部1101により決定された小数点位置が、「第2小数点位置」の一例にあたる。
指数値変換制御部102は、前段のレイヤで用いた小数点位置の出力の指示を統括管理部100から受ける。そして、指数値変換制御部102は、前段のレイヤで用いた小数点位置を演算部12に出力する。ただし、深層学習における最初のレイヤの場合、指数値変換制御部102は、最初の小数点位置である初期小数点位置を予め決められた小数点位置とする。
その後、演算部12による先行演算が完了すると、指数値変換制御部102は、新たに決定された小数点位置の出力の指示の入力を統括管理部100から受ける。次に、指数値変換制御部102は、先行演算の演算結果を用いて新たに決定された小数点位置の入力を小数点位置決定部101から受ける。その後、指数値変換制御部102は、新たに決定された小数点位置の情報を演算部12に出力する。
図5は、実施例1に係る小数点位置更新処理の全体を説明するための図である。ここで、図5を参照して、本実施例に係る演算用回路4による各レイヤにおける固定小数点位置更新処理について説明する。図5において紙面に向かって破線よりも上の領域はプロセッサ40が実行する処理を表す。また、図5において紙面に向かって破線よりも下の領域は統計情報格納部115に格納される情報を表す。
プロセッサ40の演算器211及び221は、入力データ31を取得する。入力データ31には、複数の演算データが含まれる。演算器211及び221は、入力データ31を用いて先行演算を実行し演算結果を取得する。その後、プロセッサ40の各統計情報取得部212及び222は、演算器211及び221が算出した演算結果から統計情報を求める(ステップS101)。プロセッサ40の統計情報集約部13は、各統計情報取得部212及び222から統計情報を取得して、統計情報格納部115へ格納する(ステップS102)。
その後、プロセッサ40の制御部10における小数点位置決定部101は、統計情報格納部115に格納された統計情報を用いて小数点位置を決定する(ステップS103)。
プロセッサ40の演算器211及び221は、入力データ31を用いて演算を再度実行する。この場合、演算器211及び221は、入力データ31を用いて同じ計算を2回繰り返す。プロセッサ40のデータ変換部213及び223は、新たに決定された小数点位置の情報を小数点位置決定部101から取得する。そして、データ変換部213及び223は、新たに決定された小数点位置を用いて演算結果の小数点位置をシフトさせ、上位ビットの飽和処理および下位ビットの丸めを実行して、固定小数点数のデータである演算結果の小数点位置を更新する。その後、データ変換部213及び223は、小数点位置を更新した演算結果を出力する(ステップS104)。
プロセッサ40は、各レイヤについてステップS101〜S104の処理を繰り替えして深層学習を行う。
図6は、実施例1に係る演算用回路による小数点位置の更新を含んだ演算処理の概要を表す図である。次に、図6を参照して、本実施例に係る演算用回路4による小数点位置の更新を含んだ演算処理の概要を説明する。
演算部12は、入力データ301を用いて1回目の演算である先行演算を実行する(ステップS111)。これにより、演算結果302が得られる。
そして、制御部10の小数点位置決定部101は、先行演算の演算結果302の統計情報を用いて新たな小数点位置303を決定する。その後、演算部12は、入力データ301を用いて2回目の演算である本演算を行い、演算結果304を取得する(ステップS112)。
さらに、演算部12は、2回目の演算の演算結果304に対して、新たな小数点位置303を用いて小数点位置の更新を行い、新たな小数点位置で表された固定小数点である演算結果305を求める。
次に、図7を参照して、本実施例に係る演算用回路4による深層学習の処理の流れを説明する。図7は、実施例1に係る演算用回路による深層学習の処理のフローチャートである。
制御部10の指数値変換制御部102は、予め決められた小数点位置を初期小数点位置として決定する(ステップS121)。
次に、小数点位置決定部101は、統計情報格納部115に格納された統計情報を初期化する(ステップS122)。
次に、各演算器211及び221は、入力データを用いて先行演算を実行する(ステップS123)。
そして、各統計情報取得部212及び222は、対応する各演算器211及び221による演算結果から統計情報を求める(ステップS124)。統計情報集約部13は、各統計情報取得部212及び222から統計情報を集約して統計情報格納部115に格納する。
制御部10の小数点位置決定部101は、先行演算の演算結果302の統計情報を用いて新たな小数点位置を決定する(ステップS125)。
制御部10の指数値変換制御部102は、小数点位置決定部101から通知された小数点位置を演算部12の各データ変換部213及び223へ出力する。演算部12の演算器211及び221は、それぞれ入力データを用いて演算を実行する。データ変換部213及び223は、指数値変換制御部102から入力された小数点位置で、演算器211及び221による演算結果の小数点位置を更新する。このように、演算部12は、本演算を実行する(ステップS126)。
その後、制御部10の統括管理部100は、実行中の全てのレイヤが終了したか否かを判定する(ステップS127)。終了していないレイヤが残っている場合(ステップS127:否定)、統括管理部100は、次のレイヤの演算を開始させる(ステップS128)。その後、深層学習の処理は122へ戻る。
これに対して、全てのレイヤが終了した場合(ステップS127:肯定)、制御部10の統括管理部100は、学習が終了したか否かを判定する(ステップS129)。
学習が終了していない場合(ステップS129:否定)、統括管理部100は、次の全てのレイヤを開始する(ステップS130)。その後、深層学習の処理はステップS122へ戻る。
これに対して、学習が終了した場合(ステップS129:肯定)、統括管理部100は、学習完了をCPU2に通知して学習を終了する。
以上に説明したように、本実施例に係る演算用回路は、入力データを用いて先行演算を行い、その先行演算の結果から得た統計情報を用いて、その入力データを用いた演算に対する適切な小数点位置を決定する。そして、演算用回路は、入力データを用いて本演算を行い決定した小数点位置を有する固定小数点で表される演算結果を取得する。
これにより、ニューラルネットの構造となる計算グラフの構築が、深層学習の処理を実行しながら行われるDefine by Runにより深層学習を行う際に、適切な固定小数点位置を決定でき、固定小数点を用いた学習における学習精度を向上させることが可能となる。
次に、実施例2について説明する。本実施例に係る演算用回路4は、入力データに含まれる複数の演算データの一部を用いて演算を行い、その演算結果の統計情報から小数点位置を決定することが実施例1と異なる。本実施例に係る演算用回路4も図3及び4のブロック図で表される。以下の説明では、実施例1と同様の各部の機能については説明を省略する。
統括管理部100は、入力データに含まれる演算データのうち予め決められた割合の演算データを選択する。以下では、予め決められた割合をN%と呼び、選択された演算データをN%の演算データと呼ぶ。N%の演算データを用いた先行演算の実行を演算部12に指示する。
N%の演算データを用いた先行演算の完了後、統括管理部100は、指数値変換制御部102に対して先行演算結果から算出された新たな指数値の出力を指示するとともに、入力データに含まれる全ての演算データを用いた本演算の実行を演算部12に指示する。
小数点位置決定部101は、N%の演算データを用いた演算結果から求められた統計情報を統計情報格納部115から取得する。そして、小数点位置決定部101は、N%の演算データを用いた演算結果から求められた統計情報を用いて入力データの演算結果を固定小数点数で表す場合の適切な小数点位置を決定する。その後、小数点位置決定部101は、決定した小数点位置の情報を指数値変換制御部102へ出力する。
演算部12は、N%の演算データを用いた先行演算の実行の指示を統括管理部100から受ける。そして、演算部12は、N%の演算データに対応する数の演算器211及び221を選択する。
選択された演算器211及び221は、N%の演算データを用いた先行演算を実行する。その後、選択された演算器211及び221は、先行演算の演算結果を各統計情報取得部212及び222へ出力する。
その後、演算部12が入力データに含まれる全ての演算データを用いた本演算の実行の指示を受けると、演算器211及び221は、入力データに含まれる全ての演算データを用いた本演算を実行する。そして、演算器211及び221は、入力データに含まれる全ての演算データを用いた本演算の演算結果を各データ変換部213及び223へ出力する。
N%の演算データを用いた先行演算を実行した演算器211及び221に対応する統計情報取得部212及び222は、演算結果を取得する。そして、各統計情報取得部212及び222は、演算結果の統計情報を取得して統計情報集約部13へ出力する。
統計情報集約部13は、N%の演算データを用いた先行演算を実行した演算器211及び221に対応する統計情報取得部212及び222から統計情報の入力を受ける。そして、統計情報集約部13は、N%の演算データを用いた先行演算の演算結果の統計情報を集約して統計情報格納部115に格納させる。
図8は、実施例2に係る小数点位置更新処理の全体を説明するための図である。ここで、図8を参照して、本実施例に係る演算用回路による各レイヤにおける固定小数点位置更新処理について説明する。
演算部12で選択された演算器211及び221は、入力データのうちのN%の演算データ33を取得する。そして、選択された演算器211及び221は、N%の演算データ33を用いて先行演算を実行し演算結果を取得する。その後、N%の演算データ33を用いた先行演算を実行した演算器211及び221に対応する各統計情報取得部212及び222は、N%の演算データ33を用いた先行演算の演算結果から統計情報を求める(ステップS131)。
プロセッサ40の統計情報集約部13は、N%の演算データ33を用いた先行演算の演算結果の統計情報を各統計情報取得部212及び222から取得して、統計情報格納部115へ格納する(ステップS132)。
その後、プロセッサ40の制御部10における小数点位置決定部101は、統計情報格納部115に格納されたN%の演算データ33を用いた先行演算の演算結果の統計情報を用いて小数点位置を決定する(ステップS133)。
プロセッサ40の演算器211及び221は、入力データの全ての演算データ34を用いて本演算を実行する。プロセッサ40のデータ変換部213及び223は、新たに決定された小数点位置の情報を小数点位置決定部101から取得する。そして、データ変換部213及び223は、本演算の結果を指定された少数点位置でシフトさせ、上位ビットの飽和処理および下位ビットの丸めを実行して、固定小数点数のデータの小数点位置を更新する。その後、演算部21は、小数点位置を更新した固定小数点数のデータを出力する(ステップS134)。
ここで、N%の演算データの選択方法を説明する。図9は、N%の演算データの選択を説明するための図である。データ500は、多次元配列の1つのデータを表す。Bはミニバッチを表す。そして、入力データ501は、チャネルC(Channel)、幅W(Width)及び高さH(Height)という3つのテンソルの軸が延びる次元方向に並ぶ演算データが含まれる。入力データ501から、演算データを選択する場合、偏りなく選択することが好ましい。
そこで、例えば、テンソルの軸に向かって等間隔で演算データを選択することで、偏りを軽減することができる。例えば、チャネルC方向に一定間隔で演算データが選択され、さらに、高さH方向に一定間隔で演算データが選択される。例えば、図9では、演算データは、高さH方向にaの距離の演算データがb間隔ごとに選択される。
以上に説明したように、本実施例に係る演算用回路は、入力データのうちのN%の演算データを用いて先行演算を行い、その先行演算の結果から得た統計情報を用いて、その入力データを用いた演算に対する適切な小数点位置を決定する。そして、演算用回路は、入力データに含まれる全ての演算データを用いて本演算を行い決定した小数点位置を有する固定小数点で表される演算結果を取得する。
これにより、Define by Runにより深層学習を行う際に、固定小数点を用いた学習における学習精度を向上させることが可能となるとともに、1回目の演算数を実施例1よりも少なくすることで演算のオーバヘッドを軽減し、学習時間を短縮することができる。
(変形例)
多くの演算データを用いた方がその時点での演算結果に応じた統計情報を取得することができ、適切な小数点位置を求めることができる。ただし、学習を繰り返していき認識率が高まると演算結果の差が小さくなるため、少ない演算データでも適切な小数点位置を求めることができる。そこで、実施例2では予め決められた割合の演算データを選択して演算を行ったが、認識率に合わせて選択する演算データの割合を変化させてもよい。
図10は、選択する認識率に応じた選択する演算データの割合を表す図である。図10は、縦軸で認識率を表し、横軸でイテレーションを表す。図10に示すように、深層学習は、実行したイテレーションの数が増えて学習が進むにつれて認識率が向上する。そこで、実行したイテレーションの回数に応じて選択する演算データの割合を変化させることで、認識率に合わせて選択する演算データの割合を変化させることができる。
例えば、制御部10の統括管理部100は、図10に示すように深層学習で実行されるイテレーションの回数をいくつか区分に分けた場合のその区分の境界となるイテレーションの実行された回数を保持する。統括管理部100は、イテレーションの実行回数を記憶し、実行回数に合わせて、図10の紙面に向かって上部に記載したN%を選択する演算データの割合とする。例えば、統括管理部100は、学習開始時は選択する演算データの割合を100%とする。その後、統括管理部100は、実行したイテレーションの数が区分の境界となるイテレーションの実行された回数に達する毎に、選択する演算データの割合を変更して演算部12に通知し、統計情報を取得する演算データの割合を順次変更する。
以上に説明したように、本変形例に係る演算用回路は、統計情報を取得するために演算に用いる演算データの割合を深層学習の途中に認識率に応じて選択する演算データの割合を変化させる。これにより、学習全体での演算データを用いた演算の回数を低減させることができ、処理負荷を軽減することができる。
次に、実施例3について説明する。本実施例に係る演算用回路4は、先行演算の演算結果を保持し、統計情報から求めた小数点位置を用いて保持する演算結果の小数点位置を更新して、適切な小数点位置を有する固定小数点数を取得することが実施例1と異なる。本実施例に係る演算用回路4も図3及び4で表される。以下の説明では、実施例1と同様の各部の機能については説明を省略する。
統括管理部100からの指示を受けて、演算部12の演算器211及び221は、入力データを用いて先行演算を実行する。そして、演算部12の演算器211及び221は、は、先行演算の演算結果をデータRAM42に格納する。この際、演算器211及び221は、演算結果の精度が落ちないフルビットでデータRAM42に演算結果を格納させる。精度の落ちないフルビットとは、例えば、浮動小数点や固定小数点で表現するビット幅に藏ばて広いビット幅を有する符号付整数などである。演算部12の統計情報取得部212及び222は、先行演算の演算結果から統計情報を求めて、統計情報集約部13へ出力する。
その後、演算部12のデータ変換部213及び223は、指数値変換制御部102から小数点位置の入力を受ける。さらに、データ変換部213及び223は、統括管理部10から先行演算の演算結果の小数点位置の更新指示を受ける。そして、データ変換部213及び223は、データRAM42から先行演算の演算結果を取得し、指定された小数点位置に演算結果の小数点位置を更新する。すなわち、データ変換部213及び223は、先行演算の演算結果を量子化する。その後、データ変換部213は、小数点位置を更新した演算結果を出力する。
統括管理部100は、先行計算の実行を演算部12に指示する。その後、先行計算が終了すると、統括管理部100は、先行演算の演算結果の小数点位置の更新指示を指数値変換制御部102に指示する。
指数値変換制御部102は、小数点位置決定部101から取得した小数点位置の情報を演算部12のデータ変換部213及び223に出力する。そして、指数値変換制御部102は、データRAM42から先行演算の演算結果を用いた小数点位置の更新を演算部12に指示する。
図11は、実施例3に係る小数点位置更新処理の全体を説明するための図である。ここで、図11を参照して、本実施例に係る演算用回路4による各レイヤにおける固定小数点位置更新処理について説明する。図11において紙面に向かって破線よりも上の領域はプロセッサ40が実行する処理を表す。また、図11において紙面に向かって破線よりも下の領域は統計情報格納部115及びデータRAM42に格納される情報を表す。
プロセッサ40の演算器211及び221は、入力データ35を取得する。演算器211及び221は、入力データ35を用いて先行演算を実行し演算結果を取得する。その後、プロセッサ40の各統計情報取得部212及び222は、演算器211及び221が算出した演算結果から統計情報を求める(ステップS201)。
プロセッサ40の統計情報集約部13は、各統計情報取得部212及び222から統計情報を取得して、統計情報格納部115へ格納する(ステップS202)。また、演算器211及び221は、演算結果の精度が落ちないフルビットでデータRAM42に演算結果を格納させるに格納する(ステップS203)。
その後、プロセッサ40の制御部10における小数点位置決定部101は、統計情報格納部115に格納された統計情報を用いて小数点位置を決定する(ステップS204)。
プロセッサ40のデータ変換部231及び232は、データRAM42に格納された先行演算の演算結果を取得する。さらに、データ変換部213及び223は、新たに決定された小数点位置の情報を小数点位置決定部101から取得する。そして、データ変換部213及び223は、新たに決定された小数点位置を用いて、取得した演算結果の小数点位置をシフトさせ、上位ビットの飽和処理および下位ビットの丸めを実行して、固定小数点数のデータである演算結果の小数点位置を更新する。その後、データ変換部213及び223は、小数点位置を更新した演算結果を出力する(ステップS205)。
次に、図12を参照して、本実施例に係る演算用回路4による深層学習の処理の流れを説明する。図12は、実施例3に係る演算用回路による深層学習の処理のフローチャートである。
制御部10の指数値変換制御部102は、予め決められた小数点位置を初期小数点位置として決定する(ステップS211)。
次に、小数点位置決定部101は、統計情報格納部115に格納された統計情報を初期化する(ステップS212)。
次に、各演算器211及び221は、入力データを用いて先行演算を実行する(ステップS213)。
各演算器211及び221は、先行演算の演算結果を演算結果の精度が落ちないフルビットでデータRAM42に格納する(ステップS214)。
そして、各統計情報取得部212及び222は、対応する各演算器211及び221による演算結果から統計情報を求める(ステップS215)。統計情報集約部13は、各統計情報取得部212及び222から統計情報を集約して統計情報格納部115に格納する。
制御部10の小数点位置決定部101は、先行演算の演算結果302の統計情報を用いて新たな小数点位置を決定する(ステップS216)。
制御部10の指数値変換制御部102は、小数点位置決定部101から通知された小数点位置を演算部12の各データ変換部213及び223へ出力する。演算部12のデータ変換部213及び223は、データRAM42から先行演算の演算結果を取得する。次に、データ変換部213及び223は、指数値変換制御部102から入力された小数点位置で、先行演算の演算結果を量子化する(ステップS217)。
その後、制御部10の統括管理部100は、実行中の全てのレイヤが終了したか否かを判定する(ステップS218)。終了していないレイヤが残っている場合(ステップS218:否定)、統括管理部100は、次のレイヤの演算を開始させる(ステップS219)。その後、深層学習の処理はステップS212へ戻る。
これに対して、全てのレイヤが終了した場合(ステップS218:肯定)、制御部10の統括管理部100は、学習が終了したか否かを判定する(ステップS220)。
学習が終了していない場合(ステップS220:否定)、統括管理部100は、次の全てのレイヤを開始する(ステップS221)。その後、深層学習の処理はステップS212へ戻る。
これに対して、学習が終了した場合(ステップS220:肯定)、統括管理部100は、学習完了をCPU2に通知して学習を終了する。
以上に説明したように、本実施例に係る演算用回路は、入力データを用いて先行演算を行い、演算結果を記憶するとともに、その先行演算の結果から得た統計情報を用いて、その入力データを用いた演算に対する適切な小数点位置を決定する。そして、演算用回路は、決定した小数点位置で先行演算の演算結果を量子化して、指定された小数点位置の固定小数点で表される演算結果を取得する。
このように、本実施例に係る演算用回路は、演算結果の量子化において入力データを用いた演算を1回行う。これにより、Define by Runにより深層学習を行う際に、固定小数点を用いた学習における学習精度を向上させつつ、演算のオーバヘッドを軽減でき、学習時間を短縮することが可能となる。
次に、実施例4について説明する。実施例3では、今回の演算結果の統計情報を使用して適切な小数点位置を決定し、その決定した有効桁数を用いて今回の演算を再度実行する。これは、同じ計算を2度行うこととなり演算のオーバヘッドが大きくなる。DbRにより深層学習を行う場合、今回の演算結果の統計情報から小数点位置を決定することが好ましいが、上述したようにオーバヘッドが大きくなり、演算時間が増加するおそれがある。
そこで、演算のオーバヘッドの増加を軽減するため、本実施例に係る演算用回路4は、入力データに含まれる複数の演算データの一部を用いて先行演算を行い、その演算結果の統計情報から小数点位置を決定することが実施例3と異なる。本実施例に係る演算用回路4も図3及び4のブロック図で表される。以下の説明では、実施例3と同様の各部の機能については説明を省略する。
統括管理部100は、入力データに含まれる演算データのうち予め決められた割合の演算データを選択する。以下では、予め決められた割合をN%と呼び、選択された演算データをN%の演算データと呼ぶ。統括管理部100は、N%の演算データを用いた先行演算の実行を演算部12に指示する。
その後、統括管理部100は、指数値変換制御部102に対して新たな指数値の出力を指示するとともに、入力データに含まれる全ての演算データを用いた本演算の実行を演算部12に指示する。
小数点位置決定部101は、N%の演算データを用いた演算結果から求められた統計情報を統計情報格納部115から取得する。そして、小数点位置決定部101は、N%の演算データを用いた演算結果から求められた統計情報を用いて入力データの演算結果を固定小数点数で表す場合の適切な小数点位置を決定する。その後、小数点位置決定部101は、決定した小数点位置の情報を指数値変換制御部102へ出力する。
演算部12は、N%の演算データを用いた先行演算の実行の指示を統括管理部100から受ける。そして、演算部12は、N%の演算データに対応する数の演算器211及び221を選択する。
選択された演算器211及び221は、N%の演算データを用いた先行演算を実行する。その後、選択された演算器211及び221は、先行演算の演算結果を各統計情報取得部212及び222へ出力する。また、選択された演算器211及び221は、先行演算の演算結果を演算結果の精度が落ちないフルビットでデータRAM42に格納する。
その後、演算部12が入力データに含まれる全ての演算データの量子化の実行の指示を受けると、演算器211及び221は、入力データのうちN%の演算データ以外の残りの演算データを用いた本演算を実行する。そして、演算器211及び221は、残りの演算データを用いた本演算の演算結果を各データ変換部213及び223へ出力する。
各データ変換部213及び223は、新しい小数点位置の情報の入力を指数値変換制御部102から受ける。そして、各データ変換部213及び223は、データRAM42からN%の演算データを用いた先行演算の演算結果を取得する。また、各データ変換部213及び223は、残りの演算データを用いた演算結果の入力を演算器211及び221から受ける。そして、各データ変換部213及び223は、N%の演算データを用いた先行演算の演算結果及び残りの演算データを用いた演算結果を合わせた全ての演算結果に対して、指定された小数点位置で量子化を実行し、指定された小数点位置の固定小数点数として表される演算結果を算出する。
N%の演算データを用いた先行演算を実行した演算器211及び221に対応する統計情報取得部212及び222は、演算結果を取得する。そして、各統計情報取得部212及び222は、演算結果の統計情報を取得して統計情報集約部13へ出力する。
統計情報集約部13は、N%の演算データを用いた先行演算を実行した演算器211及び221に対応する統計情報取得部212及び222から統計情報の入力を受ける。そして、統計情報集約部13は、N%の演算データを用いた先行演算の演算結果の統計情報を集約して統計情報格納部115に格納させる。
図13は、実施例4に係る小数点位置更新処理の全体を説明するための図である。ここで、図13を参照して、本実施例に係る演算用回路4による各レイヤにおける固定小数点位置更新処理について説明する。
演算部12で選択された演算器211及び221は、入力データのうちのN%の演算データ33を取得する。そして、選択された演算器211及び221は、N%の演算データ33を用いて先行演算を実行し演算結果を取得する。その後、N%の演算データ33を用いた先行演算を実行した演算器211及び221に対応する各統計情報取得部212及び222は、N%の演算データ33を用いた先行演算の演算結果から統計情報を求める(ステップS221)。
プロセッサ40の統計情報集約部13は、N%の演算データ33を用いた先行演算の演算結果の統計情報を各統計情報取得部212及び222から取得して、統計情報格納部115へ格納する(ステップS222)。
また、演算器211及び221は、N%の演算データ33を用いた先行演算の演算結果をデータRAM42に格納する(ステップS223)。
その後、プロセッサ40の制御部10における小数点位置決定部101は、統計情報格納部115に格納されたN%の演算データ33を用いた先行演算の演算結果の統計情報を用いて小数点位置を決定する(ステップS224)。
プロセッサ40の演算器211及び221は、入力データのうちのN%の演算データ以外の残りの演算データ39を用いて演算を実行する。データ変換部231及び232は、残りの演算データ39の演算結果を演算器211及び221から取得する。また、データ変換部231及び232は、N%の演算データを用いた先行演算の演算結果をデータRAM42から取得する。さらに、データ変換部213及び223は、新たに決定された小数点位置の情報を小数点位置決定部101から取得する。そして、データ変換部213及び223は、演算データ38及び39の演算結果を合わせたデータ結果を指定された少数点位置でシフトさせ、上位ビットの飽和処理および下位ビットの丸めを実行して、固定小数点数のデータの小数点位置を更新する。その後、演算部21は、小数点位置を更新した固定小数点数のデータを出力する(ステップS225)。
図14は、実施例4に係る演算用回路による小数点位置の更新を含んだ演算処理の概要を表す図である。次に、図14を参照して、本実施例に係る演算用回路4による小数点位置の更新を含んだ演算処理の概要を説明する。
演算部12は、入力データ401を用いて1回目の演算である先行演算を実行する(ステップS231)。これにより、演算部12が、演算結果402を得る。
そして、制御部10の小数点位置決定部101は、先行演算の演算結果402の統計情報を用いて新たな小数点位置403を決定する。その後、演算部12は、N%の演算データを用いた先行演算の演算結果を量子化して(ステップS232)、N%の演算結果404を取得する。
また、演算部12は、入力データ401のうちの残りの100−N%の演算データを用いて2回目の演算を行い、演算結果405を取得する(ステップS233)。
さらに、演算部12は、演算結果405に対して、新たな小数点位置303を用いて量子化を行い、新たな小数点位置で表された固定小数点である演算結果406を求める。
以上に説明したように、本実施例に係る演算用回路は、入力データのうちのN%の演算データを用いて先行演算を行い、その先行演算の結果から得た統計情報を用いて、その入力データを用いた演算に対する適切な小数点位置を決定する。そして、演算用回路は、入力データに含まれるN%の演算データ以外の残りの演算データを用いて演算を行い、先行演算で得られたN%の演算データの演算結果と合わせて、決定した小数点位置を有する固定小数点で表される演算結果を取得する。
これにより、Define by Runにより深層学習を行う際に、固定小数点を用いた学習における学習精度を向上させることが可能となるとともに、1回目の演算数を実施例3よりも少なくすることで演算のオーバヘッドを軽減し、学習時間を短縮することができる。
図15は、実施例1〜4の演算処理の処理時間を表す図である。図15を参照して、各実施例の演算処理の処理時間について説明する。図15における処理P0は、前回のイテレーションの統計情報を用いて小数点位置を更新する演算処理を表す。処理P1は、実施例1で説明した方法で小数点位置を更新する演算処理を表す。処理P2は、実施例2で説明した方法で小数点位置を更新する演算処理を表す。処理P3は、実施例3で説明した方法で小数点位置を更新する演算処理を表す。処理P4は、実施例4で説明した方法で小数点位置を更新する演算処理を表す。ここで、前提条件として、リード時間とライト時間とを加算したデータ転送時間と演算時間とはどちらか長い方に律速される場合で説明する。
処理P0の処理時間は、リード時間とライト時間とを合計した時間と演算時間との長い方となる。この場合は、リード時間とライト時間との合計した時間が長く、処理P0の処理時間は2.1msとなる。
処理P1の処理時間は、先行計算と、小数点位置算出時間と、本計算時間との合計時間である。この場合の小数点位置算出時間は、リード時間と演算時間との長い方である。ただし、小数点位置算出時間は相対的に無視できる時間である。また、本計算時間は、処理P0の時間と同様の時間がかかる。この場合の処理P1の処理時間は4.1msとなる。
処理P2の処理において、選択する演算データの割合であるN%を12.5%とする。処理P2の処理時間は、先行演算時間と、小数点位置算出時間と、本演算時間との合計時間である。先行演算時間は、処理P1の先行演算時間の12.5%である。また、小数点位置算出時間は、相対的に無視できる時間である。さらに、本演算時間は、処理P0の時間と同様の時間がかかる。この場合の処理P1の処理時間は2.35msとなる。
処理P3において、量子化ビット数は非量子化ビット数の4分の1である場合で説明する。例えば、量子化表現は8ビット整数であり、非量子化表現は32ビット浮動小数点である。この場合、非量子化ビット数のリード時間とライト時間は量子化ビット数の4倍になる。そこで、処理P3の処理時間は、量子化ビット数のライト時間の4倍と量子化ビット数のリード時間との合計と、演算時間との長い方と、量子化ビット数のリード時間の4倍と、量子化ビット数のライト時間との合計時間である。この場合の処理P1の処理時間は15,7msとなる。
処理P4の処理において、選択する演算データの割合であるN%を12.5%とする。処理P4の処理時間は、処理P3の処理時間のN%と、処理P0の100−N%との合計である。この場合の処理P4の処理時間は3.8msとなる。ここでは、データ転送の時間が演算処理にかかる時間よりも長い場合を例に説明したが、逆の場合には、処理P3及びP4の方が、処理P1及びP2よりも短くなる場合もある。
次に、実施例5について説明する。本実施例に係る演算用回路4は、深層学習のレイヤ毎に、実施例2の小数点位置の更新方法と実施例4の小数点位置の更新方法のうちいずれかを選択して実行する。ここで、実施例2の小数点位置の更新方法が、「第1処理」の一例にあたり、実施例4の小数点位置の更新方法が「第2処理」の一例にあたる。本実施例に係る演算用回路4も図3及び4で表される。以下の説明では、実施例1又は2と同様の各部の機能については説明を省略する。以下の説明では、実施例2の小数点位置の更新方法を「2回演算による小数点位置の更新」と呼び、実施例4の小数点位置の更新方法を「演算結果保持による小数点位置の更新」と呼ぶ。ここででは、各小数点位置の更新において選択する演算データの割合を20%とした。
図16は、深層学習におけるレイヤの一例を示す図である。ここでは、深層学習が図15におけるレイヤ510を有する場合で説明する。図16における四角の枠で囲われたそれぞれが1つのレイヤ510である。本実施例では、Define by Runで深層学習が実行されるため、経路が途中で分岐する。
制御部10の統括管理部100は、予め決められた回数のイテレーションまで、各レイヤにおいて2回演算による小数点位置の更新の処理と演算結果保持による小数点位置の更新の処理との双方を実行する。そして、統括管理部100は、各レイヤにおける回演算による小数点位置の更新の処理にかかった時間及び演算結果保持による小数点位置の更新の処理にかかった時間を保持する。
その後、予め決められた回数のイテレーションに達すると、統括管理部100は、2回演算による小数点位置の更新の処理にかかった時間の平均値及び演算結果保持による小数点位置の更新の処理にかかった時間の平均値をレイヤ毎に算出する。そして、統括管理部100は、算出した平均値をそれぞれの処理時間とする。そして、統括管理部100は、2回演算による小数点位置の更新の処理又は演算結果保持による小数点位置の更新の処理のうち処理時間が短い方を、各レイヤでの小数点位置の更新方式として選択する。その後、統括管理部100は、各レイヤで選択した小数点位置の更新方式で小数点位置の更新が行われるように演算部12を制御する。
図17は、小数点位置の更新方法の選択結果を表す図である。図17の各行は、図16の各レイヤ510に対応する。そして、太枠で囲われた列が、小数点位置の更新の処理が実行されるレイヤである。列511が、2回演算による小数点位置の更新の処理の処理時間を表す。列512が、演算結果保持による小数点位置の更新の処理の処理時間を表す。列513が、レイヤ毎の小数点位置の更新処理の選択結果を表す。選択結果は、パターンが一致する側が選択された小数点位置の更新方法である。
本実施例に係る深層学習では、図16に示したいずれのレイヤにおいても、2回演算による小数点位置の更新の処理の処理時間が演算結果保持による小数点位置の更新の処理の処理時間よりも短い。そこで、統括管理部100は、列513に示すように、いずれのレイヤにおいても2回演算による小数点位置の更新の処理を選択する。
ここで、図18を参照して、実施例5に係る小数点位置の更新処理の選択の流れについて説明する。図18は、実施例5に係る小数点位置の更新処理の選択のフローチャートである。
統括管理部100は、指定されたイテレーションまで、各レイヤにおいて2回演算による小数点位置の更新の処理と演算結果保持による小数点位置の更新の処理との双方を実行する(ステップS301)。統括管理部100は、双方の経過時間を保持する。
指定されたイテレーションに到達すると、統括管理部100は、保持する経過時間の平均値をレイヤ毎に求めて、各レイヤにおける2回演算による小数点位置の更新の処理の処理時間及び演算結果保持による小数点位置の更新の処理の処理時間を算出する。そして、統括管理部100は、処理時間が短い方を各レイヤの小数点位置の更新方法として選択する(ステップS302)。
その後、統括管理部100は、指定されたイテレーションの次のイテレーションから選択した小数点位置の更新方法を用いて演算を実行する(ステップS303)。
図19は、小数点位置の更新方法の選択タイミングを表す図である。例えば、予め決められた回数のイテレーションを、A回目のイテレーションとする。その場合、統括管理部100は、A回目のイテレーションまで、2つの小数点位置の更新方法の双方を実行する。すなわち、期間Tの間は、各レイヤにおいて2つの小数点位置の更新方法の双方で演算が実行される。その後、統括管理部100は、各レイヤについて小数点位置の更新方法の選択を行い、A+1回目のイテレーション以降は選択された小数点位置の更新方法で演算が実行される。
(変形例)
実施例5では、レイヤ毎に小数点位置の更新方法を選択したが、選択方法はこれに限らない。例えば、レイヤで行われる演算の種類に応じて小数点位置の更新方法を選択してもよい。
その場合、統括管理部100は、各レイヤにおける各小数点位置の更新方法の処理時間を算出した後、演算種類毎にレイヤを分けてその処理時間の平均を算出して演算種類毎の処理時間とする。例えば、図16のレイヤであれば、演算種類には、Convolution、Batch Normの2種類がある。そこで、統括管理部100は、Convolutionを行うレイヤの処理時間及びBatch Normを行うレイヤの処理時間を求める。そして、統括管理部100は、実行する演算種類毎に処理時間の短い方を各レイヤにおける小数点位置の更新方法として選択する。
図17における列514が、演算種類に応じた小数点位置の更新方法の選択結果である。この場合、Convolutionを実行するレイヤでは、演算結果保持による小数点位置の更新の処理の処理時間が2回演算による小数点位置の更新の処理の処理時間よりも短い。また、Batch Normを実行するレイヤでは、2回演算による小数点位置の更新の処理の処理時間が演算結果保持による小数点位置の更新の処理の処理時間よりも短い。そこで、統括管理部100は、Convolutionを実行するレイヤでは演算結果保持による小数点位置の更新の処理を選択し、Batch Normを実行するレイヤでは2回演算による小数点位置の更新の処理を選択する。
この場合の小数点位置の更新処理の選択の流れは、図18のステップS302において、統括管理部100が、演算種類毎に処理時間を算出して演算種類毎に処理時間が短い方を各レイヤの小数点位置の更新方法として選択する。
以上に説明したように、本実施例及び変形例に係る演算用回路は、特定のレイヤにおいて2回演算による小数点位置の更新の処理及び演算結果保持による小数点位置の更新の処理のうち処理時間が短い方を選択して学習処理を実行させる。これにより、学習処理時間を短縮することができる。
以上の各実施例では、小数点位置の算出及び演算を行うリソースについて触れていないが、実際にはかく処理に対してどのリソースを割り当てるかも重要である。そこで、以下の実施例では、リソースの割り当て例に関して説明する。
実施例6について説明する。図20は、計算用回路が搭載されたサーバの構成の一例を表す図である。本実施例では、サーバ1は、アクセラレータ51〜56を有する。さらに、サーバ1は、CPU2同士が有線LAN(Local Area Network)で相互に接続される。CPU2は、アクセラレータ51〜56とPCIeバスにより接続される。
アクセラレータ51は、演算用回路4A〜4Dといった4つの演算用回路4を有するLSIである。アクセラレータ52〜54も同様に4つの演算用回路4を有する。また、アクセラレータ55及び56は、演算用回路4を1つずつ有する縮小版LISである。
図21は、実施例6における演算手順を説明するための図である。本実施例では、アクセラレータ51〜54のいずれも同様の動作を行うので、以下では、アクセラレータ51を例に説明する。
図21の上段はレイヤ#1〜#Nのそれぞれで行われる実施例2で説明した先行演算処理を表し、下段はレイヤ#1〜#Nのそれぞれで行われる実施例2で説明した本演算処理を表す。そして、図21の上段及び下段のそれぞれに対応するアクセラレータ51が有する演算用回路4A〜4Dのうち斜線パターンを付したものが演算を実行する。
演算用回路4Aにおける制御部10の統括管理部100は、レイヤ#1〜#Nのそれぞれにおいて、N%の演算データを用いた先行演算の実行を演算用回路4Aの演算部12に対して指示する。
演算用回路4Aにおける制御部10の小数点位置決定部101は、演算部12により算出されたN%の演算データを用いた先行演算の演算結果の統計情報を演算用回路4Aの統計情報格納部115から取得する。そして、小数点位置決定部101は、取得した統計情報を用いて最適な小数点位置を決定する。その後、小数点位置決定部101は、決定した小数点位置を演算用回路4Aにおける制御部10の指数値変換制御部102へ出力する。演算用回路4Aにおける制御部10の小数点位置決定部101は、レイヤ#1〜#Nのそれぞれにおいて小数点位置の決定及び決定した小数点位置の出力を実行する。
演算用回路4Aにおける制御部10の指数値変換制御部102は、演算用回路4Aにおける制御部10の小数点位置決定部101により決定された小数点位置を演算用回路4B〜4Dの制御部10に通知する。
演算用回路4Aの演算部12は、N%の演算データを用いた先行演算を実行する。演算用回路4Aの演算部12は、レイヤ#1〜#Nのそれぞれにおいて先行演算を実行する。これにより、演算用回路4Aの演算部12は、レイヤ#1〜#Nのレイヤ単位で先行演算をパイプライン化できる。この演算用回路4Aの演算部12が、「第1演算部」の一例にあたる。
演算用回路4B〜4Dの制御部10は、レイヤ#1〜#Nのそれぞれで、小数点位置の通知を、演算用回路4Aにおける制御部10の指数値変換制御部102から受ける。演算用回路4B〜4Dの制御部10の統括管理部100は、取得した小数点位置の出力を指数値変換制御部102に指示する。また、演算用回路4B〜4Dの統括管理部100は、指数値変換制御部102から出力される小数点位置を用いた本演算の実行を演算部12に指示する。
演算用回路4B〜4Dの制御部10の指数値変換制御部102は、取得した小数点位置を演算部12へ出力する。
演算用回路4B〜4Dの演算部12は、指数値変換制御部102から入力された小数点位置を用いて、レイヤ#1〜#Nのそれぞれにおいて本演算を実行する。これにより、演算用回路4B〜4Dの各演算部12は、レイヤ#1〜#Nのレイヤ単位で本演算をパイプライン化できる。この演算用回路4B〜4Dの演算部12が、「第2演算部」の一例にあたる。
この場合、図21に示すように、演算用回路4B〜4Dの各演算部12は、演算用回路4Aの演算部12が実行する先行演算のパイプライン処理601に並行して、本演算のパイプライン処理602を実行することができる。これにより、深層学習における演算処理のオーバヘッドとなる時間T1は、最も処理時間の長いレイヤ1個分相当となる。
図22は、本実施例に係るサーバ1による深層学習における演算処理の流れを説明する。図22は、実施例6に係るサーバによる深層学習における演算処理のフローチャートである。
演算用回路4Aの統括管理部100は、先行演算を実行中のレイヤの番号を表すiを1に設定する(ステップS401)。
そして、演算用回路4Aの統括管理部100は、i番目のレイヤのN%の演算データを用いた先行演算を演算用回路4Aの演算部12に指示する。演算用回路4Aの演算部12は、i番目のレイヤのN%の演算データを用いた先行演算を実行する(ステップS402)。
演算用回路4Aの統括管理部100は、i番目のレイヤの先行演算が完了したか否かを判定する(ステップS403)。先行演算が完了していない場合(ステップS403:否定)、先行演算処理は、ステップS402に戻る。
これに対して、先行演算が完了した場合(ステップS403:肯定)、演算用回路4Aの小数点位置決定部101は、先行演算の演算結果から取得された統計情報を用いて適切な小数点位置を決定する(ステップS404)。
演算用回路4Aの指数値変換制御部102は、小数点位置決定部101により決定された小数点位置を演算用回路4B〜4Dの制御部10に通知する(ステップS405)。
その後、演算用回路4Aの統括管理部100は、現在実行中のイテレーションである現イテレーションの全てのレイヤの先行演算が完了したか否かを判定する(ステップS406)。現イテレーションで先行演算が完了していないレイヤが残っている場合(ステップS406:否定)、演算用回路4Aの統括管理部100は、iを1つインクリメントする(ステップS407)。その後、先行演算処理は、ステップS402へ戻る。
これに対して、現イテレーションの全てのレイヤの先行演算が完了した場合(ステップS406:肯定)、演算用回路4Aの統括管理部100は、全イテレーションの先行演算が終了したか否かを判定する(ステップS408)。全イテレーションの先行演算が終了していない場合(ステップS408:否定)、演算用回路4Aの統括管理部100は、次のイテレーションを開始し(ステップS409)、先行演算処理はステップS402へ戻る。
これに対して、全イテレーションの先行演算が終了した場合(ステップS408:肯定)、演算用回路4Aの統括管理部100は、深層学習における先行演算処理を終了する。
一方、演算用回路4B〜4Dの統括管理部100は、本演算を実行中のレイヤの番号を表すjを1に設定する(ステップS410)。
演算用回路4B〜4Dの指数値変換制御部102は、演算用回路4Aの指数値変換制御部102から送信されたレイヤ毎の小数点位置を取得し保持する(ステップS411)。そして、演算用回路4B〜4Dの指数値変換制御部102は、レイヤ毎に統括管理部100から小数点位置の出力の指示を受けて、そのレイヤで用いる小数点位置を演算部12へ出力する。
演算用回路4B〜4Dの演算部12は、レイヤ毎に指数値変換制御部102から入力された小数点位置を用いて本演算を実行する(ステップS412)。
演算用回路4B〜4Dの統括管理部100は、現イテレーションの全てのレイヤの先行演算が完了したか否かを判定する(ステップS413)。現イテレーションで先行演算が完了していないレイヤが残っている場合(ステップS413:否定)、演算用回路4B〜4Dの統括管理部100は、jを1つインクリメントする(ステップS414)。その後、本演算処理は、ステップS411へ戻る。
これに対して、現イテレーションの全てのレイヤの先行演算が完了した場合(ステップS413:肯定)、演算用回路4B〜4Dの統括管理部100は、学習が終了したか否かを判定する(ステップS415)。学習が終了していない場合(ステップS415:否定)、演算用回路4B〜4Dの統括管理部100は、次のイテレーションを開始し(ステップS415)、先行演算処理はステップS410へ戻る。
これに対して、学習が終了した場合(ステップS415:肯定)、演算用回路4B〜4Dの統括管理部100は、深層学習における本演算処理を終了する。
以上に説明したように、本実施例に係るサーバは、複数の演算用回路を備えたアクセラレータを有し、アクセラレータは、1つの演算用回路で先行演算を行い、その演算結果から決定された小数点位置を用いて自己が有する他の演算用回路で本演算を行う。これにより、先行演算及び本演算がパイプライン化され、並列に処理することが可能となるためオーバヘッドを削減でき、処理時間を短くすることが可能となる。
実施例7について説明する。本実施例に係るサーバ1も図20で示される構成を有する。本実施例に係るサーバ1は、縮小LSIであるアクセラレータ56を用いて先行演算を行い、アクセラレータ51及び52を用いて本演算を行うことが実施例6と異なる。図23は、実施例7における演算手順を説明するための図である。
アクセラレータ55及び56は、演算用回路4の数がアクセラレータ51〜54と比べて少ない。アクセラレータ51〜54は学習を行うために十分な性能を備えるが、アクセラレータ55及び56はアクセラレータ51〜54と同様の機能を備えるが、制御を主に実行するためのものであり演算能力は低い。例えば、アクセラレータ55及び56の演算能力は、アクセラレータ51〜54の演算能力の4分の1程度である。この点、先行演算は、入力データに含まれる演算データのうちの一部を対象とした演算であり、本演算よりも処理負荷が低い。このため、アクセラレータ55又は56であっても、先行演算であれば処理時間が長くならない。
そこで、アクセラレータ56は、実施例6における演算用回路4Aと同様の役割を実行する。すなわち、アクセラレータ56は、レイヤ#1〜#Nの各レイヤの先行演算を実行し、演算結果から得られる統計情報を用いて適切な小数点位置を決定する。そして、アクセラレータ56は、決定した小数点位置をアクセラレータ51及び52へ出力する。これにより、アクセラレータ56が実行する先行演算をパイプライン化できる。
アクセラレータ51及び52は、実施例6における演算用回路4B〜4Dと同様の役割を実行する。すなわち、アクセラレータ51及び52は、アクセラレータ56により決定された小数点位置を取得して、その小数点位置を用いてレイヤ#1〜#Nの各レイヤの本演算を実行する。これにより、アクセラレータ51及び52が実行する先行演算をパイプライン化できる。
この場合、アクセラレータ51及び52は、アクセラレータ56が実行するパイプライン化された先行演算に並行して、パイプライン化された本演算を実行することができる。これにより、深層学習における演算処理のオーバヘッドとなる時間T2は、最も処理時間の長いレイヤ1個分相当となる。
以上に説明したように、本実施例に係るサーバは、処理能力の低いアクセラレータを用いて先行演算を行い、その演算結果から決定された小数点位置を用いて十分な処理能力を有するアクセラレータで本演算を行う。これにより、先行演算及び本演算がパイプライン化され、並列に処理することが可能となるためオーバヘッドを削減でき、処理時間を短くすることが可能となる。
実施例8について説明する。本実施例に係るサーバ1も図20で示される構成を有する。ここで、図24は、実施例8における演算手順を説明するための図である。本実施例では、アクセラレータ51〜54のいずれも同様の動作を行うので、以下では、アクセラレータ51を例に説明する。
図24の上段はレイヤ#1〜#Nのそれぞれで行われる実施例4で説明した先行演算処理を表し、下段はレイヤ#1〜#Nのそれぞれで行われる実施例4で説明した本演算処理を表す。そして、図21の上段及び下段のそれぞれに対応するアクセラレータ51が有する演算用回路4A〜4Dのうち斜線パターンを付したものが演算を実行する。
また、図24におけるデータRAM42A〜42Dは、それぞれ演算用回路4A〜4Dが有するメモリであるが、図24では分かり易いように演算用回路4A〜4Dとは別に記載した。データRAM42A〜42Dは、いずれも演算用回路4A〜4Dのいずれからもデータの読み出し及び書き込みが可能である。
演算用回路4B〜4Dにおける制御部10の統括管理部100は、レイヤ#1〜#Nのそれぞれにおいて、N%の演算データを用いた先行演算の実行を演算用回路4B〜4Dの演算部12に対して指示する。その後、演算用回路4B〜4Dにおける制御部10の統括管理部100は、演算部12により算出されたN%の演算データを用いた先行演算の演算結果をそれぞれが属する演算用回路4B〜4Dが有するデータRAM42B〜42Dから取得する。そして、演算用回路4B〜4Dにおける制御部10の統括管理部100は、演算用回路4B〜4Dのそれぞれの演算部12により算出されたN%の演算データを用いた先行演算の演算結果を演算用回路4Aが有するデータRAM42Aに格納する。
演算用回路4B〜4Dにおける制御部10の小数点位置決定部101は、演算部12により算出されたN%の演算データを用いた先行演算の演算結果の統計情報を演算用回路4Aの統計情報格納部115から取得する。そして、小数点位置決定部101は、取得した統計情報を用いて最適な小数点位置を決定する。その後、小数点位置決定部101は、決定した小数点位置をそれぞれが属する演算用回路4B〜4Dにおける制御部10の指数値変換制御部102へ出力する。演算用回路4B〜4Dにおける制御部10の小数点位置決定部101は、レイヤ#1〜#Nのそれぞれにおいて小数点位置の決定及び決定した小数点位置の出力を実行する。
演算用回路4B〜4Dにおける制御部10の指数値変換制御部102は、演算用回路4Aにおける制御部10の小数点位置決定部101により決定された小数点位置を演算用回路4Aの制御部10に通知する。
演算用回路44B〜4Dの演算部12は、レイヤ#1〜#Nのそれぞれにおいて、N%の演算データを用いた先行演算を実行する。そして、演算用回路4B〜4Dの演算部12は、演算結果をそれぞれが属する演算用回路44B〜4Dが有するデータRAM42A〜42Dへ格納する。これにより、演算用回路44B〜4Dの演算部12は、レイヤ#1〜#Nのレイヤ単位で先行演算をパイプライン化できる。
演算用回路4Aの制御部10は、レイヤ#1〜#Nのそれぞれで、小数点位置の通知を、演算用回路4D〜4Cにおける制御部10の指数値変換制御部102から受ける。演算用回路4Aの制御部10の統括管理部100は、取得した小数点位置の出力を指数値変換制御部102に指示する。また、演算用回路4Aの統括管理部100は、指数値変換制御部102から出力される小数点位置を用いた先行演算の演算結果の小数点位置の更新を演算用回路4Aの演算部12に指示する。さらに、演算用回路4Aの統括管理部100は、同じ小数点位置を用いて、先行演算で使用した演算データ以外の100−N%の演算データの本演算の実行を演算用回路4Aの演算部12に指示する。
演算用回路4Aの制御部10の指数値変換制御部102は、取得した小数点位置を演算部12へ出力する。
演算用回路4Aの演算部12は、演算用回路Aが有するデータRAM42Aから先行演算結果を取得する。そして、演算用回路4Aの演算部12は、指数値変換制御部102から入力された小数点位置を用いて、レイヤ#1〜#Nのそれぞれにおいて取得した先行演算結果の小数点位置を指定された小数点位置に更新する。すなわち、演算用回路4Aの演算部12は、先行演算結果を量子化する。さらに、演算用回路Aの演算部12は、指数値変換制御部102から入力された小数点位置を用いて、100−N%の演算データの本演算を実行する。これにより、演算用回路4Aの演算部12は、レイヤ#1〜#Nのレイヤ単位で、N%の演算データの量子化及び100−N%の演算データの演算を含む先行演算から得られた統計情報から決定された小数点位置を用いた演算をパイプライン化できる。
この場合、演算用回路4Aの演算部12は、演算用回路4Aの演算部12が実行する先行演算のパイプライン処理603に並行して、先行演算から得られた統計情報から決定された小数点位置を用いた演算のパイプライン処理604を実行することができる。これにより、深層学習における演算処理のオーバヘッドとなる時間T3は、最も処理時間の長いレイヤ1個分相当となる。
ここで、先行演算を行う演算用回路4の数が先行演算結果の量子化及び残りの演算データの演算を行う演算用回路4の数よりもおおい。そのため、先行演算に用いる演算データの割合は、残りの演算データの割合よりも大きいことが好ましい。
図25は、本実施例に係るサーバ1による深層学習における演算処理の流れを説明する。図25は、実施例8に係るサーバによる深層学習における演算処理のフローチャートである。
演算用回路4B〜4Dの統括管理部100は、先行演算を実行中のレイヤの番号を表すiを1に設定する(ステップS501)。
そして、演算用回路4B〜4Dの統括管理部100は、i番目のレイヤのN%の演算データを用いた先行演算を演算用回路4Aの演算部12に指示する。演算用回路4B〜4Dの演算部12は、i番目のレイヤのN%の演算データを用いた先行演算を実行する(ステップS502)。
演算用回路4B〜4Dの統括管理部100は、i番目のレイヤの先行演算が完了したか否かを判定する(ステップS503)。先行演算が完了していない場合(ステップS503:否定)、先行演算処理は、ステップS502に戻る。
これに対して、先行演算が完了した場合(ステップS503:肯定)、演算用回路4B〜4Dの統括管理部100は、先行演算結果を演算用回路4Aが有するデータRAM42Aに送信する(ステップS504)。
また、演算用回路4B〜4Dの小数点位置決定部101は、先行演算の演算結果から取得された統計情報を用いて適切な小数点位置を決定する(ステップS505)。
演算用回路4B〜4Dの指数値変換制御部102は、小数点位置決定部101により決定された小数点位置を演算用回路4Aの制御部10に通知する(ステップS506)。
その後、演算用回路4B〜4Dの統括管理部100は、現在実行中のイテレーションである現イテレーションの全てのレイヤの先行演算が完了したか否かを判定する(ステップS507)。現イテレーションで先行演算が完了していないレイヤが残っている場合(ステップS507:否定)、演算用回路4B〜4Dの統括管理部100は、iを1つインクリメントする(ステップS508)。その後、先行演算処理は、ステップS502へ戻る。
これに対して、現イテレーションの全てのレイヤの先行演算が完了した場合(ステップS507:肯定)、演算用回路4B〜4Dの統括管理部100は、全イテレーションの先行演算が終了したか否かを判定する(ステップS509)。全イテレーションの先行演算が終了していない場合(ステップS509:否定)、演算用回路4B〜4Dの統括管理部100は、次のイテレーションを開始し(ステップS510)、先行演算処理はステップS501へ戻る。
これに対して、全イテレーションの先行演算が終了した場合(ステップS509:肯定)、演算用回路4B〜4Dの統括管理部100は、深層学習における先行演算処理を終了する。
一方、演算用回路4Aの統括管理部100は、本演算を実行中のレイヤの番号を表すjを1に設定する(ステップS510)。
演算用回路4AのデータRAM42は、演算用回路4B〜4Dの統括管理部100から送信されたレイヤ毎の先行演算結果を格納する(ステップS511)。
また、演算用回路4Aの指数値変換制御部102は、演算用回路4B〜4Dの指数値変換制御部102から送信されたレイヤ毎の小数点位置を取得し保持する(ステップS512)。そして、演算用回路4Aの指数値変換制御部102は、レイヤ毎に統括管理部100から小数点位置の出力の指示を受けて、そのレイヤで用いる小数点位置を演算部12へ出力する。
演算用回路4Aの演算部12は、レイヤ毎に小数点位置の入力を指数値変換制御部102から受ける。さらに、演算用回路4Aの演算部12は、先行演算結果をデータRAM42から取得する。そして、演算用回路4Aの演算部12は、取得した小数点位置を用いて先行演算の量子化を実行する(ステップS513)。
また、演算用回路4Aの演算部12は、取得した小数点位置を用いて100−N%の演算データの本演算を実行する(ステップS514)。
演算用回路4Aの統括管理部100は、現イテレーションの全てのレイヤの先行演算が完了したか否かを判定する(ステップS515)。現イテレーションで先行演算が完了していないレイヤが残っている場合(ステップS515:否定)、演算用回路4B〜4Dの統括管理部100は、jを1つインクリメントする(ステップS516)。その後、本演算処理は、ステップS511へ戻る。
これに対して、現イテレーションの全てのレイヤの先行演算が完了した場合(ステップS515:肯定)、演算用回路4Aの統括管理部100は、学習が終了したか否かを判定する(ステップS517)。学習が終了していない場合(ステップS517:否定)、演算用回路4Aの統括管理部100は、次のイテレーションを開始し(ステップS518)、先行演算処理はステップS511へ戻る。
これに対して、学習が終了した場合(ステップS517:肯定)、演算用回路4Aの統括管理部100は、深層学習における本演算処理を終了する。
ここで、本実施例では、演算用回路4B〜4Dが入力データの一部を用いて先行演算を実行する場合で説明したが、演算用回路4B〜4Dは、入力データの全部で先行演算を事項してもよい。その場合、演算用回路4Aは、先行演算の演算結果を量子化することで演算が終了する。
以上に説明したように、本実施例に係るサーバは、複数の演算用回路を備えたアクセラレータを有する。アクセラレータは、1つの演算用回路で先行演算を行い、その統計情報から適切な小数点位置を決定するとともに、その演算結果をメモリに格納する。そして、残りアクセラレータは、決定された小数点位置を用いて先行演算結果の量子化及び先行演算から得られた統計情報から決定された小数点位置を用いた演算を行う。これにより、先行演算及び先行演算から得られた統計情報から決定された小数点位置を用いた演算がパイプライン化され、並列に処理することが可能となるためオーバヘッドを削減でき、処理時間を短くすることが可能となる。
実施例9について説明する。本実施例に係るサーバ1も図20で示される構成を有する。本実施例に係るサーバ1は、アクセラレータ51及び52を用いて先行演算を行い、縮小LSIであるアクセラレータ56を用いて本演算を行うことが実施例8と異なる。図26は、実施例9における演算手順を説明するための図である。
本実施例に係る先行演算を用いた量子化は処理負荷が低い。また、先行演算に用いる演算データの割合を大きくすることで、残りの演算データの演算も処理負荷を低く抑えることが可能である。このため、アクセラレータ55又は56であっても、先行演算を用いた量子化及び残りの演算データの演算の実行であれば処理時間が長くならない。
そこで、アクセラレータ51及び52は、実施例8における演算用回路4B〜4Dと同様の役割を実行する。すなわち、アクセラレータ51及び52は、レイヤ#1〜#Nの各レイヤの先行演算を実行し、演算結果を格納するとともに演算結果から得られる統計情報を用いて適切な小数点位置を決定する。そして、アクセラレータ51及び52は、決定した小数点位置をアクセラレータ51及び52へ出力する。これにより、アクセラレータ51及び52が実行する先行演算をパイプライン化できる。
アクセラレータ56は、実施例8における演算用回路4Aと同様の役割を実行する。すなわち、アクセラレータ56は、アクセラレータ51及び52により決定された小数点位置を取得して、その小数点位置を用いてレイヤ#1〜#Nの各レイヤでの先行演算結果の量子化、及び、残りの演算データの本演算を実行する。これにより、アクセラレータ56が実行するアクセラレータ51及び52により決められた小数点位置を用いた量子化及び本演算をパイプライン化できる。
この場合、アクセラレータ56は、アクセラレータ51及び52が実行するパイプライン化された先行演算に並行して、決められた小数点位置を用いたパイプライン化された演算を実行することができる。これにより、深層学習における演算処理のオーバヘッドとなる時間T4は、最も処理時間の長いレイヤ1個分相当となる。
ここで、本実施例では、アクセラレータ51及び52が入力データの一部を用いて先行演算を実行する場合で説明したが、アクセラレータ51及び52は、入力データの全部で先行演算を事項してもよい。その場合、アクセラレータ56は、先行演算の演算結果を量子化することで演算が終了する。
以上に説明したように、本実施例に係るサーバは、十分な処理能力を有するアクセラレータを用いて先行演算結果の算出及び適切な小数点位置の決定を行う。そして、その演算結果から決定された小数点位置を用いて処理能力が低いアクセラレータで先行演算結果の量子か及び残りの演算データを用いた演算を行う。これにより、先行演算及び本演算がパイプライン化され、並列に処理することが可能となるためオーバヘッドを削減でき、処理時間を短くすることが可能となる。
1 サーバ
2 CPU
3 メモリ
4 演算用回路
5 PCIeバス
10 制御部
11 レジスタファイル
12 演算部
13 統計情報集約部
14 メモリインタフェース
15 メモリインタフェース
40 プロセッサ
41 命令RAM
42 データRAM
100 統括管理部
101 小数点位置決定部
102 指数値変換制御部
111 スカラレジスタファイル
112 ベクタレジスタファイル
113 アキュムレータレジスタ
114 ベクタアキュムレータレジスタ
115 統計情報格納部
121 スカラユニット
122 ベクタユニット
211,221 演算器
212,222 統計情報取得部
213,223 データ変換部

Claims (12)

  1. 所定演算を行う演算部と、
    第1小数点位置の固定小数点として入力データを用いた前記所定演算を前記演算部に実行させ第1演算結果の統計情報を求める管理部と、
    前記統計情報を用いて第2小数点位置を決定する小数点位置決定部と、
    前記小数点位置決定部により決定された第2小数点位置の固定小数点として前記入力データを用いた前記所定演算を行った場合の第2演算結果を前記演算部に算出させる指数値変換制御部と
    を備えたことを特徴とする演算処理装置。
  2. 前記指数値変換制御部は、前記第2小数点位置の固定小数点数として前記演算部に前記入力データを用いた前記所定演算を実行させ前記第2演算結果を取得する第1処理を実行することを特徴とする請求項1に記載の演算処理装置。
  3. 前記演算部は、第1演算部及び第2演算部を有し、
    前記管理部は、第1小数点位置の固定小数点として入力データを用いた前記所定演算を前記第1演算部に実行させ、
    前記指数値変換制御部は、前記第2小数点位置の固定小数点として前記入力データを用いた前記所定演算を前記第2演算部に実行させる
    ことを特徴とする請求項2に記載の演算処理装置。
  4. 前記第1演算結果を記憶する記憶部をさらに備え、
    前記指数値変換制御部は、前記記憶部に記憶された前記第1演算結果の前記第2小数点位置の固定小数点数への変換を前記演算部に実行させることで前記第2演算結果を取得する第2処理を実行する
    ことを特徴とする請求項1に記載の演算処理装置。
  5. 前記演算部は、第1演算部及び第2演算部を有し、
    前記管理部は、第1小数点位置の固定小数点として入力データを用いた前記所定演算を前記第2演算部に実行させ、
    前記指数値変換制御部は、前記記憶部に記憶された前記第1演算結果を前記第2小数点位置の固定小数点に変換する処理を前記第1演算部に実行させる
    ことを特徴とする請求項4に記載の演算処理装置。
  6. 前記第1演算結果を記憶する記憶部をさらに備え、
    前記指数値変換制御部は、前記第2小数点位置の固定小数点数として前記演算部に前記入力データを用いた前記所定演算を実行させ前記第2演算結果を取得する第1処理、又は、前記記憶部に記憶された前記第1演算結果の前記第2小数点位置の固定小数点数への変換を前記演算部に実行させることで前記第2演算結果を取得する第2処理のうち、処理時間が短い方を選択して実行することを特徴とする請求項1に記載の演算処理装置。
  7. 前記第1演算結果を記憶する記憶部をさらに備え、
    前記指数値変換制御部は、前記第2小数点位置の固定小数点数として前記演算部に前記入力データを用いた前記所定演算を前記演算部に実行させ前記第2演算結果を取得する第1処理、又は、前記記憶部に記憶された前記第1演算結果の前記第2小数点位置の固定小数点数への変換を前記演算部に実行させて前記第2演算結果を取得する第2処理のうち、前記所定演算の種類に応じて処理時間が短い方を選択して実行することを特徴とする請求項1に記載の演算処理装置。
  8. 前記指数値変換制御部は、前記入力データに含まれる複数の演算データのうちの一部である第1演算データを前記演算部に入力して前記第1小数点位置の固定小数点とする前記所定演算を実行させ前記統計情報を取得することを特徴とする請求項2、3又は6に記載の演算処理装置。
  9. 前記管理部は、前記入力データに含まれる複数の演算データのうちの一部である第1演算データを前記演算部に入力して前記第1小数点位置の固定小数点とする前記所定演算を実行させ前記第1演算結果を算出させ、且つ、前記統計情報を取得し、
    前記指数値変換制御部は、前記第2処理を実行する場合、前記第1演算結果を前記第2小数点位置の固定小数点に変換し、且つ、前記入力データに含まれる前記第1演算データ以外の第2演算データを前記演算部に入力して前記第2小数点位置の固定小数点数とする前記所定演算を実行させて前記第2演算結果を取得する
    ことを特徴とする請求項4,5又は7に記載の演算処理装置。
  10. 前記管理部は、前記入力データにおける前記第1演算データの割合を変化させることを特徴とする請求項8又は9に記載の演算処理装置。
  11. 演算回路を有する演算処理装置の制御方法であって
    第1小数点位置の固定小数点として入力データを用いた所定演算を演算回路に実行させ第1演算結果の統計情報を取得し、
    取得した統計情報を用いて第2小数点位置を決定し、
    決定した第2小数点位置の固定小数点として前記入力データを用いた前記所定演算を行った場合の第2演算結果を前記演算回路に算出させる
    ことを特徴とする演算処理装置の制御方法。
  12. 第1小数点位置の固定小数点として入力データを用いた所定演算を演算回路に実行させ第1演算結果の統計情報を取得し、
    取得した統計情報を用いて第2小数点位置を決定し、
    決定した第2小数点位置の固定小数点として前記入力データを用いた前記所定演算を行った場合の第2演算結果を前記演算回路に算出させる
    処理をコンピュータに実行させることを特徴とする演算処理プログラム。
JP2020016735A 2020-02-04 2020-02-04 演算処理装置、演算処理装置の制御方法及び演算処理プログラム Withdrawn JP2021124849A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020016735A JP2021124849A (ja) 2020-02-04 2020-02-04 演算処理装置、演算処理装置の制御方法及び演算処理プログラム
EP20215486.0A EP3862932A1 (en) 2020-02-04 2020-12-18 Arithmetic processing device, arithmetic processing method, and arithmetic processing program
US17/130,122 US20210240439A1 (en) 2020-02-04 2020-12-22 Arithmetic processing device, arithmetic processing method, and non-transitory computer-readable storage medium
CN202110042933.7A CN113220344A (zh) 2020-02-04 2021-01-13 算术处理装置、算术处理方法及算术处理程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020016735A JP2021124849A (ja) 2020-02-04 2020-02-04 演算処理装置、演算処理装置の制御方法及び演算処理プログラム

Publications (1)

Publication Number Publication Date
JP2021124849A true JP2021124849A (ja) 2021-08-30

Family

ID=73855804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020016735A Withdrawn JP2021124849A (ja) 2020-02-04 2020-02-04 演算処理装置、演算処理装置の制御方法及び演算処理プログラム

Country Status (4)

Country Link
US (1) US20210240439A1 (ja)
EP (1) EP3862932A1 (ja)
JP (1) JP2021124849A (ja)
CN (1) CN113220344A (ja)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009271598A (ja) 2008-04-30 2009-11-19 Toshiba Corp プロセッサ
JP6540725B2 (ja) 2017-01-30 2019-07-10 富士通株式会社 演算処理装置、方法、およびプログラム
JP6540770B2 (ja) 2017-10-17 2019-07-10 富士通株式会社 演算処理回路、演算処理回路を含む演算処理装置、演算処理装置を含む情報処理装置、および方法
KR20190044878A (ko) * 2017-10-23 2019-05-02 삼성전자주식회사 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
GB2568082B (en) * 2017-11-03 2021-06-16 Imagination Tech Ltd Hierarchical mantissa bit length selection for hardware implementation of deep neural network
CN110045960B (zh) * 2018-01-16 2022-02-18 腾讯科技(深圳)有限公司 基于芯片的指令集处理方法、装置及存储介质
US20190251429A1 (en) * 2018-02-12 2019-08-15 Kneron, Inc. Convolution operation device and method of scaling convolution input for convolution neural network
US11106598B2 (en) * 2018-02-13 2021-08-31 Shanghai Cambricon Information Technology Co., Ltd. Computing device and method
JP7056225B2 (ja) * 2018-02-26 2022-04-19 富士通株式会社 演算処理装置、情報処理装置、情報処理方法、およびプログラム
JP6540841B1 (ja) * 2018-02-27 2019-07-10 富士通株式会社 演算処理装置、情報処理装置、情報処理方法、およびプログラム
KR20200043169A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 뉴럴 네트워크의 파라미터를 양자화하는 방법 및 장치
JP6528893B1 (ja) * 2018-11-07 2019-06-12 富士通株式会社 学習プログラム、学習方法、情報処理装置
US20210042344A1 (en) * 2019-08-06 2021-02-11 Koninklijke Philips N.V. Generating or modifying an ontology representing relationships within input data
US20210319289A1 (en) * 2020-04-13 2021-10-14 Alibaba Group Holding Limited Frequency domain neural network accelerator

Also Published As

Publication number Publication date
CN113220344A (zh) 2021-08-06
EP3862932A1 (en) 2021-08-11
US20210240439A1 (en) 2021-08-05

Similar Documents

Publication Publication Date Title
CN110378468B (zh) 一种基于结构化剪枝和低比特量化的神经网络加速器
US10915816B2 (en) System and method of executing neural networks
CN111652368B (zh) 一种数据处理方法及相关产品
US10891109B2 (en) Arithmetic processor, arithmetic processing apparatus including arithmetic processor, information processing apparatus including arithmetic processing apparatus, and control method for arithmetic processing apparatus
CN110413255B (zh) 人工神经网络调整方法和装置
JP6528893B1 (ja) 学習プログラム、学習方法、情報処理装置
US20200218982A1 (en) Dithered quantization of parameters during training with a machine learning tool
CN114127740A (zh) 人工智能模型的分布式训练中的数据并行性
CN114127702A (zh) 在存储器受限设备上执行大型人工智能模型
CN114127741A (zh) 用于人工智能建模的动态多层执行
CN114626516A (zh) 一种基于对数块浮点量化的神经网络加速系统
US11551087B2 (en) Information processor, information processing method, and storage medium
Wu et al. MSD: Mixing Signed Digit Representations for Hardware-efficient DNN Acceleration on FPGA with Heterogeneous Resources
JP7354736B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム
JP2021124849A (ja) 演算処理装置、演算処理装置の制御方法及び演算処理プログラム
US20210216867A1 (en) Information processing apparatus, neural network computation program, and neural network computation method
US11175957B1 (en) Hardware accelerator for executing a computation task
JP7036224B2 (ja) 演算処理装置及び演算処理装置の制御方法
US11410036B2 (en) Arithmetic processing apparatus, control method, and non-transitory computer-readable recording medium having stored therein control program
CN114692865A (zh) 一种神经网络量化训练方法、装置及相关产品
JP7371499B2 (ja) 演算処理装置、演算処理装置の制御方法及び演算処理プログラム
JP2020190901A (ja) 演算処理装置、演算処理装置の制御プログラム及び演算処理装置の制御方法
US20240143326A1 (en) Kernel coefficient quantization
EP4345692A1 (en) Methods and systems for online selection of number formats for network parameters of a neural network
JP2023069780A (ja) 演算プログラム、演算方法及び計算機

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221006

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230207