JP2021507335A - 行列入力を行列プロセッサ用のベクトル化入力に変換するためのシステムおよび方法 - Google Patents

行列入力を行列プロセッサ用のベクトル化入力に変換するためのシステムおよび方法 Download PDF

Info

Publication number
JP2021507335A
JP2021507335A JP2020529454A JP2020529454A JP2021507335A JP 2021507335 A JP2021507335 A JP 2021507335A JP 2020529454 A JP2020529454 A JP 2020529454A JP 2020529454 A JP2020529454 A JP 2020529454A JP 2021507335 A JP2021507335 A JP 2021507335A
Authority
JP
Japan
Prior art keywords
matrix
data
convolution
processor
input vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020529454A
Other languages
English (en)
Other versions
JP7101776B2 (ja
Inventor
ジョセフ バノン,ピーター
ジョセフ バノン,ピーター
エー. マギー,ウィリアム
エー. マギー,ウィリアム
タルペス,エミル
Original Assignee
テスラ,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テスラ,インコーポレイテッド filed Critical テスラ,インコーポレイテッド
Publication of JP2021507335A publication Critical patent/JP2021507335A/ja
Application granted granted Critical
Publication of JP7101776B2 publication Critical patent/JP7101776B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0875Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with dedicated cache, e.g. instruction or stack
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/38Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation
    • G06F7/48Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices
    • G06F7/544Methods or arrangements for performing computations using exclusively denominational number representation, e.g. using binary, ternary, decimal representation using non-contact-making devices, e.g. tube, solid state device; using unspecified devices for evaluating functions by calculation
    • G06F7/5443Sum of products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/22Microcontrol or microprogram arrangements
    • G06F9/28Enhancement of operational speed, e.g. by using several microcontrol devices operating in parallel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration using non-spatial domain filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Image Processing (AREA)
  • Complex Calculations (AREA)

Abstract

多数の演算が大量のデータセットにわたって並行して実行されることを可能にするハードウェア固有回路を利用することにより、画像の畳み込みおよび同様の算術演算を加速するシステムおよび方法が提示される。様々な実施形態では、算術演算は、データを再利用し、算術演算を実行するときにレジスタおよびメモリから中間結果を記憶およびフェッチする冗長ステップを排除することによってさらに強化される。【選択図】図3

Description

[関連出願の相互参照]
本出願は、発明者としてPeter Joseph Bannon、William A.McGee、およびEmil Talpesを列挙する、2017年12月12日に出願され、「SYSTEMS AND METHODS FOR CONVERTING A MATRIX INPUT TO A VECTORIZED INPUT FOR A MATRIX PROCESSOR」と題する、共同所有の米国特許出願第15/839,234号(整理番号20150−2166)の優先権を主張する。前述の特許文書の各々は、その全体が参照により本明細書に組み込まれる。
本開示は、高性能行列プロセッサ用のベクトル化入力へのM×Nデータ行列の変換に関し、より詳細には、大規模な2次元および3次元の行列に対して複雑な数学演算が実行されることを可能にするために、M×N行列(マトリクス)を行列プロセッサに整列した1次元ベクトルにマッピングするための方法およびシステムに関する。
当業者は、時間的制約がある複雑な数学演算を実施するために使用される一般的なプロセッサおよびシステムに対する速度および性能のますます増大する要求を認識されよう。これらの一般的なシステムは、大量のデータを処理し、複雑な数学演算を実行するために使用されるので、計算リソースおよび計算速度は、それらの計算を実行する既存の一般的なハードウェア設計の機能によって制限される。たとえば、行列演算を実行する汎用コンピューティングデバイスおよびプロセッサは、特定の状況下でこれらの演算をタイムリーに実行することができない場合がある。デジタル信号処理演算を実行する多くの従来の乗算器は、一連のソフトウェアおよびハードウェアの行列演算ステップに依存し、時間的制約があるシステム内のボトルネックを表す可能性がある。しばしば、これらのステップは、様々な位置から中間結果を記憶およびフェッチして演算を完了する追加のステップに起因して、計算時間の浪費を犠牲にして中間結果を生成するプロセッサの算術機能を含む。一例では、入力行列は、しばしば、処理要素に入力されるために異なるフォーマットまたはアーキテクチャに変換される必要がある。この変換プロセスは、入力が特定の構造にフォーマットされて、その後計算プロセッサまたは他の算術ロジックによって処理される必要があるので、システム内で有意の遅延を引き起こす可能性がある。
図1は、従来の行列乗算システムの一例を示す。システム100は、計算ユニット102、レジスタ104、キャッシュ106、およびメモリ108を備えるスカラーマシンである。演算中、計算ユニット102は、レジスタ104およびキャッシュ106を使用して、メモリ108に記憶されたデータを処理する。処理されるデータは、たとえば、画像データ、および画像を処理するために畳み込み演算に使用される重みである。通常、計算ユニット102は、たとえば、乗算を加算に変換し、その結果を何らかの内部レジスタに出力することにより、入力行列に対して行列乗算を実行して結果の行列を取得することが可能な、CPUまたはGPUなどのマイクロプロセッサである。
たとえば、画像の出力ピクセルを表すドット積は、通常、部分的な結果を取得するために2つの行列からの個々の行列要素をドット乗算することによって生成され、次いで、それらは最終的なドット積を取得するために加算される。個々の行列要素の乗算、すなわち、スカラー乗算は、通常、ドット乗算を一連の個々のサブ演算に分割することにより、個々のデータ要素に対して実行される。結果として、単一の算術演算を完了するために、部分積が、レジスタ104、キャッシュ106、およびメモリ108のうちの1つまたは複数から記憶およびフェッチされる必要がある。
畳み込みなどの計算上要求が厳しいアプリケーションは、しばしば、ソフトウェア機能が計算ユニット102に組み込まれ、畳み込み演算を代替の行列乗算演算に変換するために使用されることを要求する。これは、次いで、画像データおよび重みデータを生の行列乗算され得る2つの行列に再配置および再フォーマットすることによって達成される。しかしながら、スカラーマシン100においてデータを効率的に共有または再利用するメカニズムは存在せず、その結果、各スカラー演算を実行するために必要なデータは、毎回レジスタから再フェッチされる必要がある。これらの演算の複雑さは、畳み込み演算の対象となる画像データの量が増えるにつれて著しく大きくなる。
算術演算を完了するために、レジスタ104、キャッシュ106、およびメモリ108から中間結果を記憶およびフェッチする追加のステップと結合されたスカラーマシン100内のデータの多くを再利用できないことは、乗算器システム100などの既存システムの欠点のうちのいくつかにすぎない。
したがって、必要なものは、行列乗算演算を実行することができる高計算スループットシステムおよび方法のための適切な入力構造に行列を変換する効率的な変換方法およびデバイスである。
本発明の実施形態が参照され、それらの例が添付の図に示されてよい。これらの図は、限定ではなく例示を意図したものである。本発明は、一般に、これらの実施形態の文脈で記載されているが、本発明の範囲をこれらの特定の実施形態に限定するものではないことを理解されたい。
従来の行列乗算システムの一例を示す図である。
本開示の様々な実施形態による、畳み込みを行列乗算回路にマッピングするための例示的なプロセスのフローチャートである。
本開示の様々な実施形態による、畳み込みを乗算回路にマッピングするためにデータフォーマッタを利用する例示的な行列乗算システムを示す図である。
本開示の様々な実施形態による、畳み込みを行列乗算回路にマッピングするためのプロセスを示す例示的な図である。
以下の記載では、説明の目的で、本発明を理解するために具体的な詳細が記載されている。しかしながら、本発明はこれらの詳細なしに実践され得ることが当業者には明らかであろう。さらに、当業者は、以下に記載される本発明の実施形態が、有形のコンピュータ可読媒体上のプロセス、装置、システム、デバイス、または方法などの様々な方法で実装され得ることを認識されよう。
図に示された構成要素またはモジュールは、本発明の例示的な実施形態の例示であり、本発明を不明瞭にすることを回避するはずである。この説明全体を通して、構成要素はサブユニットを含んでよい別個の機能ユニットとして記載されてよいことも理解されるべきであるが、当業者は、様々な構成要素またはそれらの一部が別個の構成要素に分割されてよいか、または単一のシステムもしくは構成要素内に統合されることを含め、一緒に統合されてよいことを認識されよう。本明細書で説明される機能または動作は、構成要素として実装されてよいことに留意されたい。構成要素は、ソフトウェア、ハードウェア、またはそれらの組合せに実装されてよい。
さらに、図内の構成要素またはシステム間の接続は、直接接続に限定されるものではない。むしろ、これらの構成要素間のデータは、中間構成要素によって修正、再フォーマット、またはそうでない場合変更されてよい。また、追加の、またはより少ない接続が使用されてよい。また、「結合された」、「接続された」、または「通信可能に結合された」という用語は、直接接続、1つまたは複数の中間デバイスを介した間接接続、およびワイヤレス接続を含むと理解されるべきである。
本明細書における「1つの実施形態」、「好ましい実施形態」、「一実施形態」、または「複数の実施形態」への言及は、実施形態に関連して記載される特定の特徴、構造、特性、または機能が、本発明の少なくとも1つの実施形態に含まれるか、または2つ以上の実施形態内であってよいことを意味する。また、本明細書の様々な場所における上述された句の出現は、必ずしもすべて同じ実施形態を参照しているとは限らない。
本明細書の様々な場所における特定の用語の使用は、例示のためであり、限定として解釈されるべきではない。サービス、機能、またはリソースは、単一のサービス、機能、またはリソースに限定されず、これらの用語の使用は、関連するサービス、機能、またはリソースのグループを指してよく、それらは分散または集約されてよい。さらに、メモリ、データベース、情報ベース、データストア、テーブル、ハードウェアなどの使用は、本明細書では、情報が入力されるか、またはそうでない場合記録されてよいシステム構成要素を指すために使用されてよい。
さらに、(1)特定のステップは任意選択で実行されてよく、(2)ステップは本明細書に記載された特定の順序に限定されなくてよく、(3)特定のステップは異なる順序で実行されてよく、(4)特定のステップは同時に行われてよいことに留意されたい。
さらに、当業者は、(1)特定のステップは任意選択で実行されてよく、(2)ステップは本明細書に記載された特定の順序に限定されなくてよく、(3)特定のステップは異なる順序で実行されてよく、(4)特定のステップは同時に行われてよいことを認識するべきである。
本明細書の実施形態は主に畳み込みの文脈で説明されているが、当業者は、逆畳み込みも行列−行列タイプの乗算演算として構成することができ、したがって、本発明の原理が逆畳み込みに等しく適用可能であることを了解されよう。さらに、本開示の様々な実施形態に従って、他のタイプの数学演算が実装されてよい。
説明は、畳み込み行列乗算回路用のベクトル化入力への少なくとも1つの入力行列の変換を記載するが、当業者は、記載された方法および構造が、広範囲の入力データタイプをあるフォーマットから別のフォーマットに変換するために使用されてよいことを認識されよう。これらの異なる入力データ構造のすべては本説明の範囲内に入る。図2は、本開示の様々な実施形態による、畳み込みを行列乗算回路にマッピングするための例示的なプロセスのフローチャートである。プロセス200は、たとえば、データフォーマッティングデバイスにおいて、畳み込みパラメータを含む畳み込み命令が受け取られるステップ202において始まる。畳み込み命令またはパラメータは、たとえば、フィルタ次元、ストライド、入力のアドレス、または特定の数の出力チャネルであってよい。
ステップ204において、畳み込みパラメータに基づいて、畳み込み演算の入力が識別される。実施形態では、入力は、実施形態では3次元データ行列を表すことができる異なるアドレスにある1つまたは複数の記憶位置に記憶される。実施形態では、行列は、所与の出力チャネルに対して並行して計算されるピクセルの数に対応する第1の次元、並行して動作する出力チャネルの数に対応する第2の次元、およびピクセルごとの異なる色に対応する第3の次元を有する。
ステップ206において、重複する/冗長な入力データが、たとえば、状態機械によって識別される。実施形態では、状態機械は、フィルタサイズおよびストライドなどのフィルタパラメータを使用して、再利用可能なオペランドを決定する。
ステップ208において、計算時間および電力消費を削減するために、重複する入力データのローカルコピーがキャッシュまたはバッファから検索されて、たとえば、SRAMから同じデータを再びフェッチする必要性を回避することができる。
ステップ210において、畳み込み演算ごとに、行列プロセッサが高性能算術演算、たとえば、大規模な行列乗算を実行することができるように、たとえば、行列プロセッサの所定の入力フォーマットに基づいて、行列プロセッサ内の位置に従って入力を配置するために、シーケンサが使用されてよい。実施形態では、シーケンサは、畳み込み演算のサイクルごとに入力を配置する。特定の実施形態では、シーケンサは、データを行列プロセッサに入力するために使用されるベクトルに2次元行列間のデータをマッピングする。たとえば、シーケンサは、2次元行列内のその位置に基づいてデータ/オペランドをベクトル内の対応する場所に効率的に移動させる、要素ごと(たとえば、ビットごとまたはバイトごと)のマッピングを実行することができる。入力が配置されると、実施形態では、アライナは、配置されたデータを整列させ、既定のシーケンスに従ってそれを行列プロセッサに供給することができる。
ステップ212において、入力フォーマットに基づいて、行列プロセッサのハードウェア要素は、行列乗算を実行するように動的に構成されてよい。実施形態では、行列プロセッサ入力は、データ入力行列に従ってフォーマットされたオペランドを含む第1のベクトル、および重み入力行列に従ってフォーマットされたオペランドを含む第2のベクトルに適応する。
最後に、ステップ214において、たとえば、入力画像をフィルタで畳み込んで畳み込み結果を生成するために、行列乗算結果が使用されてよい。実施形態では、畳み込み結果は、非線形関数、正規化演算、および/またはプーリング演算を使用することにより、たとえば、画像出力を向上させるためにさらに処理されてよい。
本明細書で開示されたプロセスおよびシステムは、畳み込み方法およびシステムの文脈で記載されるが、これは、本開示の教示が逆畳み込み方法およびシステムに等しく適用することができるので、本開示の範囲に対する制限として意図されないことに留意されたい。
図3は、本開示の様々な実施形態による、畳み込みを乗算回路にマッピングするためにデータフォーマッタを利用する例示的な行列乗算システムを示す図である。システム300は、メモリデバイス302、データフォーマッタ306、制御ロジック308、キャッシュ(またはバッファ)312、論理回路314、および行列プロセッサ316、ならびにシーケンサ310を備える。図3の1つまたは複数の構成要素、たとえば、データフォーマッタ306およびシーケンサ310は、各個々の統合構成要素に関連付けられた少なくともいくつかの機能を実行する統合構成要素として実装されてよいことが理解されよう。
データフォーマッタ306はインラインフォーマッタとして実装されてよく、実施形態では、行列プロセッサ316によって効率的に処理することができるベクトルフォーマットにデータ入力行列を変換するために使用される。
図3のメモリデバイス302は、当技術分野で知られている任意のメモリデバイスであり、オーディオデータ、センサデータ、および超音波データなどの任意のタイプのデータを含んでよい。実施形態では、メモリ302は、1つまたは複数の位置および異なるアドレスに記憶された画像データ304を含む。実施形態では、アドレスは多次元データ行列を表すことができる。
実施形態では、制御ロジック308は、行列乗算システム300内のシーケンサ310および他の構成要素を管理することができる。制御ロジック308は、データフォーマッタ306またはシーケンサ310に組み込まれてよく、実施形態では、データフォーマッタ306が行列乗算器316内の予想される位置に一致するようにデータをフォーマットすることができるように、フィルタパラメータ、たとえば、ストライドに従ってメモリ302の位置からデータを選択することができる。キャッシュ/バッファ312は、実施形態では、メモリ302からのデータに再アクセスし再読込みする必要性を回避するために、畳み込みによる再利用のためのデータのローカルコピーを記憶するために使用されてよいローカルバッファである。
論理回路314は、任意の数の入力演算子およびデータレジスタを表す回路を備えてよい。実施形態では、論理回路314は、M個の重みオペランドおよびN個の画像データオペランドを行列プロセッサ316に入力する回路を備えてよい。重みデータおよび画像データ304は、様々なタイプのメモリ302(たとえば、SRAM)に記憶されてよい。
行列プロセッサ316は、乗算、累算、およびシフト演算を同時に実行することができる任意の数の回路およびサブサーキット回路(たとえば、算術論理ユニット、レジスタ、エンコーダなど)を備えてよい。各サブサーキット回路は、算術演算を実行することが可能なセルであってよい。実施形態では、行列プロセッサ316は、たとえば、データ行列および事前にフォーマットされた重み行列を受け取り、乗算して、畳み込み演算用の乗算積を生成する乗加算回路を備える。
畳み込み演算は、画像データに、一組の個別のフィルタ、すなわち、異なるセットの情報を含む可能性があるいくつかの入力チャネルに対して、事前にフォーマットされ、メモリ302に記憶された一組の重みを加えることができる。これにより、入力画像内の様々な特徴を検出することが可能になる。
加えて、一連の異なる特徴を異なる順序で分析することにより、画像内でマクロ特徴が識別されてよい。実施形態では、畳み込みは、(たとえば、加算器によって)合計された部分ドット積を取得して、出力画像内の出力ピクセルを表す累積ドット積(すなわち、整数)を生成するために、長方形の入力行列の長方形の重み行列との乗算を含む。
実施形態では、算術演算は、行列プロセッサ316の複数の行および列を利用して、N×Nのタイル出力を生成することによって並列化される。たとえば、96の所与の行サイズ、および96の対応する列サイズは、9216個のピクセルの出力を容易にする。行列プロセッサ316は、各軸上の任意のベクトル長に適応することができ、実施形態では、行列フォーマットで配置されたPxQのタイルを備えるM×Nの行列プロセッサとして寸法付けられる。
実施形態では、シーケンサ310は、たとえば、制御ロジック308から、任意の数の畳み込みパラメータを含む畳み込み命令を受け取る。実施形態では、畳み込み命令は、フィルタパラメータ(たとえば、フィルタサイズ)、出力チャネルの数などを含んでよい。実施形態では、シーケンサ310は、畳み込みパラメータを使用して畳み込み演算の入力または入力のアドレスを識別し、それらの入力をメモリ302内の対応するアドレス位置から受け取るか、またはフェッチする。
実施形態では、データフォーマッタ306は、画像情報を含む2次元または3次元のデータを、行または列によって表されてよい単一のベクトルまたは文字列に変換し、このように、画像データが線形化またはベクトル化される。実施形態では、フォーマッタ306は、畳み込みパラメータに従って、画像データ304を行列プロセッサ316のハードウェア要件による適切なフォーマットにマッピングすることにより、画像データ304を行列プロセッサ316による処理に向けて準備し、その結果、行列プロセッサ316は、たとえば、出力ピクセルを生成するために、畳み込み計算の一部として行列乗算を実行することができる。
実施形態では、ベクトル化画像データのサイズは、オペランドが行列プロセッサ316への入力と整列するように、行列プロセッサ316への入力の数に直接関係する。
実施形態では、データフォーマッタ306は、たとえば、状態機械を介して、重複する、すなわち、同一または冗長であり、所与の畳み込み演算のために2回以上アクセスされる必要がある1つまたは複数の位置に存在してよい入力を識別する。状態機械は、重複するデータを再利用可能なデータとして識別するために、フィルタサイズおよびストライドなどのフィルタパラメータを使用するように構成されてよく、その結果、行列プロセッサ316は、メモリ302からデータに再アクセスし転送する必要なく、オペランドを再利用することができる。代わりに、実施形態では、再利用可能なデータは、たとえば、キャッシュ312に記憶されたローカルコピーからロードされてよく、それにより、計算の労力、時間、および電力消費が削減される。
実施形態では、データシーケンサ310は、たとえば、畳み込み演算ごとに、畳み込み演算の各サイクル内で行列プロセッサ316によって予想される場所に従って、たとえば、ドット乗算を実行するときに行列プロセッサ316の所与の入力フォーマットと一致するように、検索された入力を配置することができる。シーケンサ310は、データを読み取るためのアドレスを生成し、結果を書き込み、畳み込み演算を実行するときにシステム300の状態を追跡することができる。実施形態では、シーケンサ310は、この情報の一部またはすべてを使用して、メモリ302内のどのアドレスからデータを取得するか、および、たとえば、後続の畳み込みステップで行列プロセッサ316によってそれが適切に使用され得るように、それを処理する方法を決定する。実施形態では、シーケンサ310は、データフォーマッタ306に結合され、データフォーマッタ306は、所与の入力フォーマットに従って既定の順序で、検索および同期された画像データを行列プロセッサ316と整列させるために使用されてよい。
実施形態では、様々な入力パラメータまたは構成によって決定されるような入力フォーマットに基づいて、行列プロセッサ316のハードウェア要素は、任意のタイプの算術演算(たとえば、乗累算乗加算)を実行するように動的に構成されてよい。実施形態では、行列プロセッサ316への入力は、データ入力行列に従ってフォーマットされたベクトルを含む。実施形態では、入力は、たとえば、行列乗算がニューラルネットワーク向けの画像データ304を畳み込むために使用されてよいように、重み入力行列に従ってフォーマットされた第2のベクトルを含む。
実施形態では、フォーマット化は、異なる入力サイズを有する行列の処理に適応するために動的に実行される。実施形態では、入力チャネルを含む再フォーマットされた行列は、キャッシュ/バッファ312に供給される。実施形態では、キャッシュ/バッファ312は、データを読み取るためにメモリ302に再アクセスする必要なく、メモリ302からデータをフェッチし、畳み込みによって再利用され得るデータのローカルコピーを記憶する。
高速行列乗算に適した代替フォーマットにデータを再配置することにより、畳み込み演算を行列乗算演算に変換するために、CPUまたはGPUによって実行されるフォーマッティング関数の一般的なソフトウェア実装形態とは異なり、本開示の様々なハードウェア実装形態は、データをその場で再フォーマットし、たとえば、サイクルごとに96個のデータを効果的に実行に使用できるようにし、行列の比較的多数の要素が並行して処理されることが可能になり、こうして、畳み込みが行列演算に効率的にマッピングされる。実施形態では、2N個のフェッチされた入力データに対して、N個の計算データが取得されてよい。
システム300は、本開示の範囲内に入る追加の構成要素、たとえば、ハードウェア加速プーリングユニット、メモリ302からデータを検索し、データ(たとえば、重みおよび結果)をSRAMに記憶するDMAの一部であり得るDRAM、ならびに当技術分野で知られている他の後処理要素などの後処理要素を備えてよいことが理解されよう。
図4は、本開示の様々な実施形態による、畳み込みを行列乗算回路にマッピングするためのプロセスを示す例示的な図である。図400では、各行列402A、402Bは、サブ行列406、408、たとえば、特定の色に関連付けられた入力チャネル用のサブ行列406を含む、強調表示されたセクションで描写されている。行列418は、重みデータ行列などの1つまたは複数の入力行列を表す。行列プロセッサ316は、好ましくは、図3を参照して説明された種類のプロセッサである。
実施形態では、データ行列402A、402Bは、3つの異なる色についての画像データなどの入力データを保持することができる任意の数の行、列、およびチャネルを含む、3次元データ行列の一部を形成する。同様に、行列418は、3つの異なる色についての重みデータを保持するために任意の数の行および列を含むことができる長方形の入力重みデータ行列である。当業者は、入力行列のサイズおよび入力チャネルの数が、異なるアプリケーションに対して異なってよいことを認識されよう。
図4はさらに、実施形態では、それぞれのデータサブ行列406、408を線形化してその線形化バージョンを生成することによって取得され得るアレイ410、412を描写する。逆に、重みデータ行列418は、アレイ414を取得するためにベクトル化されてよい。一例として、実施形態では、第1の色に関連付けられた第1の入力チャネル用の3×3サブ行列406、第2の色に関連付けられた第2の入力チャネル用の3×3サブ行列406、および第3の色に関連付けられた第3の入力チャネル用の第3の3×3サブ行列406は、アレイ410を形成するように組み立てられる。2のストライドを想定すると、行列プロセッサ316のすべての入力列が入力データで満たされ得るまで、別の3×3サブ行列408への位置がデータ行列402B内で識別されて配列412を形成し、以下同様である。同様に、入力重みデータは、アレイ414と同様の追加の出力チャネルを形成するために再フォーマットすることができる。
実施形態では、3つの別個の入力チャネルを表すことができる3つの3×3重みデータ行列418は、(たとえば、図3を参照して説明されたフォーマッタによって)、合計27要素を含むベクトルに再フォーマットされてよく、それらから、27要素アレイ(たとえば、アレイ414)は、行列プロセッサ316によって実行される畳み込み演算で使用するために生成されてよい。
詳細には、データ行列402A、402Bは、たとえば、重み行列418の3×3×3要素に対応するアレイまたは行414内の各要素を、たとえば、サブ行列406の3×3×3要素に対応するアレイまたは列410内の各要素とドット乗算して、たとえば、出力画像内の出力ピクセルを表すことができる累積ドット積430を生成するために行列プロセッサアーキテクチャ316によって累積され得る部分ドット積を生成することにより、畳み込み演算の一部として重みデータ行列418と乗算されてよい。次のドット積は、行414を列412に対応するベクトルとドット乗算することによって取得されてよく、そのような部分ドット積の値は、入力データ行列402A、402Bに対する重み行列418の適用に対応し、アキュムレータ出力は畳み込み全体を表す。実施形態では、行列プロセッサは96×96のサイズであり、これにより、9216個の乗累算演算が、並行して、たとえば、単一のクロックサイクル内で実行されることが可能になる。
実施形態では、出力チャネルの計算において、行列プロセッサは、一度に入力データを読み込むことにより、多くの出力チャネルが一度に生成することができるように、行列402A、402Bからの同じセットの入力データを使用して、行列418からの異なるセットの重み(すなわち、フィルタ)を使用して、同じ出力ピクセルを生成することができる。1つまたは複数の入力チャネル、たとえば、色(たとえば、RGB)ごとに1つが使用されてよい。たとえば、各畳み込みは、色ごとに1つ、3つの異なる行列を表す重み418を使用することができる。
各出力チャネル436は、入力データ内の異なる特徴を表す異なるフィルタまたは重み418を使用して生成されてよい。出力チャネルの数は特徴の数に依存してよい。実施形態では、畳み込みの数は、入力チャネルの数の出力チャネル436の数倍に等しく、各畳み込みは入力チャネルごとにN個の畳み込みを有してよい。
入力データ行列402A、402B、重みデータ行列418、およびアレイ410〜414は、図4に示されたものとは異なる数の列および行を有してよいことが理解されよう。正確に示されたように、入力チャネルおよび出力チャネルの数は任意に選択されてよい。実施形態では、重みデータ行列418が既知であるとき、アレイ414は、フォーマッタを使用することなく、ベクトル化フォーマットで生成および記憶されてよい。実施形態では、ドット乗算は、ワンショット行列−行列乗算演算を生成するために同時に実行されてよい。
本発明の実施形態は、1つまたは複数のプロセッサまたは処理ユニットがステップを実行させるための命令を用いて、1つまたは複数の非一時的コンピュータ可読媒体上に符号化されてよい。1つまたは複数の非一時的コンピュータ可読媒体は、揮発性メモリおよび不揮発性メモリを含むことに留意されたい。ハードウェア実装形態またはソフトウェア/ハードウェア実装形態を含む代替の実装形態が可能であることに留意されたい。ハードウェア実装機能は、ASIC、プログラマブルアレイ、デジタル信号処理回路などを使用して実現されてよい。したがって、任意の請求項内の「手段」という用語は、ソフトウェアとハードウェアの両方の実装形態をカバーするものである。同様に、本明細書で使用される「コンピュータ可読媒体」という用語は、その上に具現化された命令のプログラムを有するソフトウェアおよび/もしくはハードウェア、またはそれらの組合せを含む。これらの代替実施形態を念頭に置いて、図および付随する説明は、当業者がプログラムコード(すなわち、ソフトウェア)を記述し、かつ/または回路(すなわち、ハードウェア)を組み立てて、必要な処理を実行するために必要とする機能情報を提供することを理解されたい。
本発明の実施形態は、様々なコンピュータ実装演算を実行するためのコンピュータコードを有する非一時的で有形のコンピュータ可読媒体を有するコンピュータ製品にさらに関連してよいことに留意されたい。媒体およびコンピュータコードは、本発明の目的のために特別に設計および構築されたものであってよく、またはそれらは、関連分野の当業者に知られているかもしくは利用可能な種類のものであってよい。有形のコンピュータ可読媒体の例には、限定はしないが、ハードディスク、フロッピーディスク、および磁気テープなどの磁気媒体、CD−ROMおよびホログラフィックデバイスなどの光学媒体、光磁気媒体、ならびに特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、フラッシュメモリデバイス、ROMデバイス、およびRAMデバイスなどのプログラムコードを記憶または記憶し実行するように特別に構成されたハードウェアデバイスが含まれる。コンピュータコードの例には、コンパイラによって生成されるものなどの機械コード、およびインタプリタを使用してコンピュータによって実行されるより高いレベルのコードを含むファイルが含まれる。本発明の実施形態は、処理デバイスによって実行されるプログラムモジュール内にあり得る機械実行可能命令として、全体的または部分的に実装されてよい。プログラムモジュールの例には、ライブラリ、プログラム、ルーチン、オブジェクト、構成要素、およびデータ構造が含まれる。分散コンピューティング環境では、プログラムモジュールは、ローカル、リモート、または両方の設定で物理的に配置されてよい。
当業者は、本発明の実践にとってコンピューティングシステムまたはプログラミング言語が不可欠でないことを認識されよう。当業者はまた、上述されたいくつかの要素が物理的および/または機能的にサブモジュールに分離されるか、または一緒に組み合わされてよいことを認識されよう。
以下の特許請求の範囲の要素は、複数の依存関係、構成、および組合せを有することを含めて、異なって配置されてよいことに留意されたい。たとえば、実施形態では、様々な請求項の主題は、他の請求項と組み合わされてよい。
前述の例および実施形態は例示的であり、本発明の範囲を限定するものではないことが当業者には了解されよう。明細書を読み、図面を検討すると当業者には明らかである、それに対するすべての置換、拡張、等価物、組合せ、および改善は、本発明の真の趣旨および範囲内に含まれることが意図されている。

Claims (21)

  1. 行列データを行列プロセッサの入力にマッピングするための方法であって、
    前記行列プロセッサによって処理されるべき第1の行列データを受け取るステップと、
    前記行列プロセッサに関連付けられた入力ベクトルの長さを識別するステップと、
    第1の要素ごとのシーケンス演算を使用して、前記第1の行列データを前記入力ベクトルにマッピングするステップと、
    前記行列プロセッサによって処理されるべき第2の行列データと、冗長である前記第1の行列データ内の少なくとも1つの要素を識別するステップと、
    前記少なくとも1つの冗長要素をキャッシュ内に記憶するステップと、
    前記少なくとも1つの冗長要素が前記キャッシュから検索されるように、第2の要素ごとのシーケンス演算を使用して、前記第2の行列データを前記入力ベクトルにマッピングするステップと、を含む、方法。
  2. 前記第1の行列データおよび前記第2の行列データが、1つまたは複数の畳み込み演算に関連する、請求項1に記載の方法。
  3. 前記第1の要素ごとのシーケンス演算が、前記第2の要素ごとのシーケンス演算と同等である、請求項1に記載の方法。
  4. 前記キャッシュから前記少なくとも1つの冗長要素を検索することが、SRAMからデータを検索するための時間より短い計算時間しか必要としないように、前記キャッシュがローカルな記憶位置である、請求項1に記載の方法。
  5. 前記入力ベクトルの長さを識別する前記ステップに関連する前記行列プロセッサの少なくとも1つのハードウェア構成を識別するステップをさらに含む、請求項1に記載の方法。
  6. 前記行列プロセッサの前記少なくとも1つのハードウェア構成が、畳み込みパラメータを含む、請求項5に記載の方法。
  7. 前記畳み込みパラメータが、3次元データ行列を表す1つまたは複数のアドレスを含む、請求項6に記載の方法。
  8. 前記畳み込みパラメータが、フィルタサイズ、重みの数、およびストライドのうちの少なくとも1つを含む、請求項7に記載の方法。
  9. 前記第1の行列データを前記入力ベクトルにマッピングするステップが、前記行列プロセッサのハードウェア構成に少なくとも部分的に基づいて、前記第1の行列データを前記入力ベクトルに整列させるステップを含む、請求項1に記載の方法。
  10. 前記入力ベクトルの要素が、畳み込み演算の各サイクルおよび前記行列プロセッサ内の各位置のうちの少なくとも1つについて識別される、請求項1に記載の方法。
  11. 前記要素ごとのシーケンス演算が、畳み込み演算ごとに1回実行される、請求項1に記載の方法。
  12. 前記冗長要素を決定するためにフィルタサイズおよびストライドのうちの少なくとも1つを使用する状態機械をさらに備える、請求項1に記載の方法。
  13. 入力画像を畳み込むためにマッピングするための前記方法を使用するステップをさらに含む、請求項1に記載の方法。
  14. 前記行列プロセッサの第1の次元が、所与の出力チャネルについて並行して計算されるピクセルの数に対応する、請求項1に記載の方法。
  15. 前記行列プロセッサの第2の次元が、並行して動作する出力チャネルの数に対応する、請求項1に記載の方法。
  16. 畳み込みデータを行列乗算回路にマッピングして計算速度を高めるためのシステムであって、
    画像データを保持するメモリデバイスと、
    制御ロジックと、
    前記制御ロジックおよび前記メモリデバイスに結合されたデータフォーマッタと、
    を備え、前記データフォーマッタが、
    畳み込み命令を受け取ることに応答して、畳み込み演算に関連付けられた第1および第2の行列データを識別するステップと、
    前記行列プロセッサに関連付けられた入力ベクトルの長さを識別するステップと、
    要素ごとのシーケンス演算を使用して、前記第1の行列データを前記入力ベクトルにマッピングするステップと、
    前記行列プロセッサによって処理されるべき第2の行列データと、冗長である前記第1の行列データ内の少なくとも1つの要素を識別するステップと、
    前記少なくとも1つの冗長要素をキャッシュ内に記憶するステップと、
    前記少なくとも1つの冗長要素が前記キャッシュから検索されるように、前記要素ごとのシーケンス演算を使用して、前記第2の行列データを前記入力ベクトルにマッピングするステップと、を実行するように構成される、システム。
  17. 前記入力ベクトルを生成するために論理回路をさらに備える、請求項16に記載のシステム。
  18. 前記行列プロセッサが、ドット積を生成して畳み込み結果を出力するために、前記第1および第2の行列データを使用してドット乗算を実行する複数のサブ回路を備える、請求項16に記載のシステム。
  19. 前記畳み込み結果が、画像の領域へのフィルタの適用に対応する出力行列である、請求項18に記載のシステム。
  20. 前記シーケンス演算を実行するシーケンサをさらに備える、請求項16に記載のシステム。
  21. 前記データフォーマッタが、前記冗長要素を決定するためにフィルタサイズおよびストライドのうちの少なくとも1つを使用する状態機械を備える、請求項16に記載のシステム。
JP2020529454A 2017-12-12 2018-12-11 行列入力を行列プロセッサ用のベクトル化入力に変換するためのシステムおよび方法 Active JP7101776B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/839,234 US10747844B2 (en) 2017-12-12 2017-12-12 Systems and methods for converting a matrix input to a vectorized input for a matrix processor
US15/839,234 2017-12-12
PCT/US2018/065036 WO2019118517A1 (en) 2017-12-12 2018-12-11 Systems and methods for converting a matrix input to a vectorized input for a matrix processor

Publications (2)

Publication Number Publication Date
JP2021507335A true JP2021507335A (ja) 2021-02-22
JP7101776B2 JP7101776B2 (ja) 2022-07-15

Family

ID=66696896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020529454A Active JP7101776B2 (ja) 2017-12-12 2018-12-11 行列入力を行列プロセッサ用のベクトル化入力に変換するためのシステムおよび方法

Country Status (6)

Country Link
US (1) US10747844B2 (ja)
EP (1) EP3724771A4 (ja)
JP (1) JP7101776B2 (ja)
KR (1) KR102451239B1 (ja)
CN (1) CN111465924B (ja)
WO (1) WO2019118517A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) * 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11256977B2 (en) * 2017-12-29 2022-02-22 Facebook, Inc. Lowering hardware for neural networks
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11468302B2 (en) * 2018-03-13 2022-10-11 Recogni Inc. Efficient convolutional engine
US11709911B2 (en) * 2018-10-03 2023-07-25 Maxim Integrated Products, Inc. Energy-efficient memory systems and methods
CN111338974A (zh) * 2018-12-19 2020-06-26 超威半导体公司 用于矩阵数学指令集的图块化算法
US20200320002A1 (en) * 2019-04-04 2020-10-08 EMC IP Holding Company LLC Intelligently managing data facility caches
CN112766453A (zh) * 2019-10-21 2021-05-07 华为技术有限公司 一种数据处理装置及数据处理方法
CN111242293B (zh) * 2020-01-13 2023-07-18 腾讯科技(深圳)有限公司 一种处理部件、数据处理的方法以及电子设备
CN111325816B (zh) * 2020-02-11 2022-11-04 重庆特斯联智慧科技股份有限公司 一种特征图处理方法、装置、存储介质及终端
US11347486B2 (en) * 2020-03-27 2022-05-31 Advanced Micro Devices, Inc. Compiler-initiated tile replacement to enable hardware acceleration resources
US11687764B2 (en) * 2020-04-17 2023-06-27 Samsung Electronics Co., Ltd. System and method for increasing utilization of dot-product based neural network accelerator
US12001262B2 (en) * 2021-05-25 2024-06-04 Maxim Integrated Products, Inc. Systems and methods for performing in-flight computations
CN114461978B (zh) * 2022-04-13 2022-07-08 苏州浪潮智能科技有限公司 数据处理方法、装置、电子设备及可读存储介质
TWI831643B (zh) * 2023-03-13 2024-02-01 鴻海精密工業股份有限公司 交通標誌識別方法及相關設備

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160342893A1 (en) * 2015-05-21 2016-11-24 Google Inc. Rotating data for neural network computations
US20160379109A1 (en) * 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Convolutional neural networks on hardware accelerators

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6901422B1 (en) 2001-03-21 2005-05-31 Apple Computer, Inc. Matrix multiplication in a vector processing system
US9170812B2 (en) 2002-03-21 2015-10-27 Pact Xpp Technologies Ag Data processing system having integrated pipelined array data processor
CN100498727C (zh) * 2005-12-19 2009-06-10 国际商业机器公司 矩阵的解压缩方法和设备
US20070174429A1 (en) 2006-01-24 2007-07-26 Citrix Systems, Inc. Methods and servers for establishing a connection between a client system and a virtual machine hosting a requested computing environment
US8190905B1 (en) 2006-09-29 2012-05-29 Netapp, Inc. Authorizing administrative operations using a split knowledge protocol
US8984043B2 (en) 2009-12-23 2015-03-17 Intel Corporation Multiplying and adding matrices
CN102541814B (zh) * 2010-12-27 2015-10-14 北京国睿中数科技股份有限公司 用于数据通信处理器的矩阵计算装置和方法
CN102411558B (zh) * 2011-10-31 2015-05-13 中国人民解放军国防科学技术大学 面向向量处理器的大矩阵相乘的向量化实现方法
CN107562444B (zh) * 2012-12-26 2020-12-18 英特尔公司 合并相邻的聚集/分散操作
JP6256461B2 (ja) * 2013-02-15 2018-01-10 日本電気株式会社 情報処理装置
US10223333B2 (en) * 2014-08-29 2019-03-05 Nvidia Corporation Performing multi-convolution operations in a parallel processing system
US10255547B2 (en) * 2014-12-04 2019-04-09 Nvidia Corporation Indirectly accessing sample data to perform multi-convolution operations in a parallel processing system
US9996350B2 (en) * 2014-12-27 2018-06-12 Intel Corporation Hardware apparatuses and methods to prefetch a multidimensional block of elements from a multidimensional array
US20160239706A1 (en) 2015-02-13 2016-08-18 Qualcomm Incorporated Convolution matrix multiply with callback for deep tiling for deep convolutional neural networks
CN106250103A (zh) * 2016-08-04 2016-12-21 东南大学 一种卷积神经网络循环卷积计算数据重用的系统
CN106407158B (zh) * 2016-09-12 2019-01-29 东南大学 一种gpu加速的批处理同构稀疏矩阵乘满向量的处理方法
US10726330B2 (en) * 2016-10-11 2020-07-28 The Research Foundation For The State University Of New York System, method, and accelerator to process convolutional neural network layers
CN106445471B (zh) 2016-10-13 2018-06-01 北京百度网讯科技有限公司 处理器和用于在处理器上执行矩阵乘运算的方法
US10310768B1 (en) * 2017-01-11 2019-06-04 Ambarella, Inc. Convolution calculations in multiple dimensions
US10795836B2 (en) * 2017-04-17 2020-10-06 Microsoft Technology Licensing, Llc Data processing performance enhancement for neural networks using a virtualized data iterator
JP6958027B2 (ja) * 2017-07-03 2021-11-02 富士通株式会社 演算処理装置及び演算処理装置の制御方法
US10671349B2 (en) * 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11803377B2 (en) * 2017-09-08 2023-10-31 Oracle International Corporation Efficient direct convolution using SIMD instructions
GB2568086B (en) * 2017-11-03 2020-05-27 Imagination Tech Ltd Hardware implementation of convolution layer of deep neutral network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160342893A1 (en) * 2015-05-21 2016-11-24 Google Inc. Rotating data for neural network computations
US20160379109A1 (en) * 2015-06-29 2016-12-29 Microsoft Technology Licensing, Llc Convolutional neural networks on hardware accelerators

Also Published As

Publication number Publication date
CN111465924A (zh) 2020-07-28
KR20200089302A (ko) 2020-07-24
JP7101776B2 (ja) 2022-07-15
WO2019118517A1 (en) 2019-06-20
CN111465924B (zh) 2023-11-17
US10747844B2 (en) 2020-08-18
EP3724771A4 (en) 2021-09-29
KR102451239B1 (ko) 2022-10-06
EP3724771A1 (en) 2020-10-21
US20190179870A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP7101776B2 (ja) 行列入力を行列プロセッサ用のベクトル化入力に変換するためのシステムおよび方法
JP7374236B2 (ja) 加速数学エンジン
JP6977239B2 (ja) 行列乗算器
US20240012644A1 (en) Efficient direct convolution using simd instructions
EP3093757B1 (en) Multi-dimensional sliding window operation for a vector processor
KR20200081044A (ko) 뉴럴 네트워크의 컨볼루션 연산을 처리하는 방법 및 장치
JP6981223B2 (ja) 疎行列ベクトル積演算装置及び疎行列ベクトル積演算方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211217

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7101776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150