WO2020196407A1 - 畳込み演算装置 - Google Patents

畳込み演算装置 Download PDF

Info

Publication number
WO2020196407A1
WO2020196407A1 PCT/JP2020/012728 JP2020012728W WO2020196407A1 WO 2020196407 A1 WO2020196407 A1 WO 2020196407A1 JP 2020012728 W JP2020012728 W JP 2020012728W WO 2020196407 A1 WO2020196407 A1 WO 2020196407A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
input
rows
columns
input data
Prior art date
Application number
PCT/JP2020/012728
Other languages
English (en)
French (fr)
Inventor
広津 鉄平
Original Assignee
株式会社エヌエスアイテクス
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エヌエスアイテクス, 株式会社デンソー filed Critical 株式会社エヌエスアイテクス
Priority to EP20778810.0A priority Critical patent/EP3951637A4/en
Publication of WO2020196407A1 publication Critical patent/WO2020196407A1/ja
Priority to US17/480,925 priority patent/US20220004364A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/15Correlation function computation including computation of convolution operations
    • G06F17/153Multidimensional correlation or convolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means

Definitions

  • the present disclosure relates to a convolution calculation device that performs a convolution calculation.
  • output data is generated by convolving the weight data that forms a predetermined filter into the input data.
  • the convolution operation is processed by converting the convolution operation into a matrix operation (see, for example, Patent Document 1).
  • the purpose of the present disclosure is to provide a convolutional arithmetic unit with reduced power consumption.
  • One embodiment of the present disclosure has a plurality of storage elements arranged two-dimensionally to store data, and the data can be cyclically shifted among the plurality of storage elements and input to a predetermined area.
  • a window is set, and a two-dimensional circular shift register unit that selects data stored in the storage element in the input window as input data, and the input data input from the register unit and a predetermined filter are selected.
  • It is a convolution calculation device including a product-sum calculation unit that generates output data by performing a product-sum calculation on the weight data to be formed.
  • FIG. 1 is a block diagram showing a DFP system according to the first embodiment of the present disclosure.
  • FIG. 2 is a block diagram showing the DFP of the first embodiment of the present disclosure.
  • FIG. 3 is a block diagram showing a convolution calculation circuit according to the first embodiment of the present disclosure.
  • FIG. 4 is a block diagram showing a storage element according to the first embodiment of the present disclosure.
  • FIG. 5 is a block diagram showing a product-sum calculation unit according to the first embodiment of the present disclosure.
  • FIG. 6 is a schematic diagram showing selection of input data by shifting according to the first embodiment of the present disclosure.
  • FIG. 7 is a conceptual diagram showing the movement of the input data range according to the first embodiment of the present disclosure.
  • FIG. 8 is a table diagram showing a series of shift operations according to the first embodiment of the present disclosure.
  • FIG. 9 is a block diagram showing a convolution calculation circuit according to the second embodiment of the present disclosure.
  • FIG. 10 is a table diagram showing a series of shift operations according to the second embodiment of the present disclosure.
  • FIG. 11 is a block diagram showing a convolution calculation circuit according to the third embodiment of the present disclosure.
  • FIG. 12 is a table diagram showing a constant matrix used in the product-sum operation of the third embodiment of the present disclosure.
  • FIG. 13 is a conceptual diagram showing the movement of the input data range according to the third embodiment of the present disclosure.
  • the convolution calculation circuit is used for a data flow processor (Data Flow Processor, hereinafter referred to as "DFP") used for image recognition and object detection in automatic operation.
  • DFP Data Flow Processor
  • the shift register 40 data elements are stored in a large number of two-dimensionally arranged storage elements 42, and the storage elements 42 in the input window 44 set in a predetermined area. Select the data element as the input data d.
  • the product-sum calculator 50 the input data d input from the shift register 40 and the weight data g forming a predetermined filter are subjected to a product-sum calculation to generate output data Y.
  • the total data elements are sequentially shifted in the shift register 40, the data elements in the input window 44 are sequentially selected as the input data d, and the total output data Z is selected from the output data Y sequentially generated from the input data d.
  • the DFP system 10 will be outlined with reference to FIG.
  • the DFP 11 functions as an individual master for dealing with the heavy arithmetic load of the host CPU 12, can fetch programs and original instructions, and supports interrupt processing generated by the event handler 13. To do.
  • the DFP11, host CPU12, ROM14, RAM15, and external interface 16 transmit and receive data via the system bus 17.
  • DFP11 will be outlined with reference to FIG. With regard to DFP11, it is possible to execute a plurality of threads in parallel even for different instruction streams by dynamically allocating registers and thread scheduling by hardware for a large number of threads. It should be noted that such a large number of threads can be generated by automatically vectorizing the program code by the compiler and extracting a graph structure that maintains the task parallelism and graph parallelism of the program.
  • the plurality of execution cores 22 each have a large number of independently scheduleable pipelines and share resources among the four processing elements PE # 0, PE # 1, PE # 2, and PE # 3. ..
  • the thread scheduler 24 realizes scheduling across a large number of threads and executes a large number of threads at the same time.
  • the command unit 26 sends and receives data to and from the config interface 28, and functions as a command buffer.
  • the memory subsystem 30 is formed by an arbiter 32, an L1 cache 34a, and an L2 cache 34b, and transmits / receives data to / from the system bus interface 36 and the ROM interface 38.
  • the convolution calculation circuit is used as one execution core 22 among the plurality of execution cores 22 included in the DFP 11.
  • the convolution calculation circuit will be described with reference to FIG.
  • the convolution calculation circuit is formed by a two-dimensional circulation shift register 40 and a product-sum calculation unit 50.
  • a large number of storage elements 42 are arranged two-dimensionally.
  • 64 storage elements 42 in rows 0 to 7 and columns 0 to 7 in rows 8 and 8 are used.
  • Each storage element 42 is connected to a storage element 42 arranged vertically and horizontally of the storage element 42, and the data element of each storage element 42 can be shifted to the storage elements 42 arranged vertically and horizontally.
  • the shift register 40 is a two-dimensional circulation type, and is on the top, bottom, left, and right of the storage elements 42 in the top row, bottom row, leftmost column, and rightmost column, respectively, in the bottom row, top row, and rightmost. It is assumed that the storage elements 42 in the leftmost column are arranged.
  • the shift amount is n.
  • each storage element 42 is connected only to the storage elements 42 adjacent to each other vertically and horizontally, and the data element of each storage element 42 can be shifted only to the storage elements 42 adjacent to each other vertically and horizontally. The amount is 1.
  • a memory interface 60 is connected to the shift register 40. Data elements are sequentially input from the memory interface 60 to each storage element 42 in the bottom row of the shift register 40. By sequentially shifting the data elements input to each storage element 42 in the bottom row upward, the data elements are stored in all the storage elements 42.
  • the input window 44 is set in a predetermined area.
  • the data element stored in the storage element 42 in the input window 44 is selected as the input data d and output to the product-sum calculator 50.
  • the input window 44 is set in the area including the storage elements 42 in the 0th row to the 2nd row and the 0th row to the 2nd column in 3 rows and 3 columns. Then, the input data d of 3 rows and 3 columns is selected from the total data elements of 8 rows and 8 columns, and the input data d of 3 rows and 3 columns is output to the multiply-accumulate calculator 50.
  • the storage element 42 of the shift register 40 will be described in detail with reference to FIG.
  • the storage element 42 is formed of a multiplexer 46 (MUX) and a flip-flop 48 (FF).
  • MUX multiplexer 46
  • FF flip-flop 48
  • data elements are input to the multiplexer 46 from flip-flops 48 of storage elements 42 adjacent to each other in the vertical and horizontal directions.
  • the multiplexer 46 selects one data element from the four input data elements and outputs it to the flip-flop 48 of the storage element 42.
  • the flip-flop 48 holds the data element input from the multiplexer 46.
  • the product-sum calculator 50 will be described with reference to FIG.
  • the product-sum calculation unit 50 performs a product-sum calculation of the input data d and the weight data w forming a predetermined filter to generate the output data Y. That is, as shown by the following equation (1), the Frobenius product of the input data d and the weight data g is defined as the output data Y.
  • d qr is an input data element forming the input data d
  • g qr is a weight data element forming the weight data g.
  • Output data Y of 1 row and 1 column is generated from 0 to 2). Therefore, the number of multiplications in the product-sum operation is nine.
  • the multiply-accumulate unit 50 is composed of an input register 52, a weight register 54, a multiplier 56, and an adder tree 58.
  • the input register 52 holds an input data element d qr that forms the input data d input from the shift register 40.
  • the weight register 54 holds a weight data element g qr that forms the weight data g input from an interface (not shown).
  • the input register 52 and the wait register 54 each include nine storage areas.
  • Each multiplier 56 multiplies each input data element d qr of the input register 52 with each weight data element g qr of the weight register 54, and the adder tree 58 is the total multiplication calculated by each multiplier 56. Add the results. In this embodiment, nine multipliers 56 are used, and nine multiplier results are added by the adder tree 58.
  • the total data elements are sequentially shifted, and the data elements in the input window 44 are sequentially selected as the input data d.
  • the data elements in the three-column input window 44 are sequentially selected as the input data d.
  • the selection of the input data d by the shift in the shift register 40 corresponds to the movement of the input data range D in the total data elements.
  • the shift in the up / down / left / right directions in the shift register 40 corresponds to the movement of the input data range D in the total data elements in the opposite direction.
  • the input data of the input data range D displaced downward and to the right by k and l with respect to the upper left is d kl
  • the output data generated from the input data d kl is Y kl . ..
  • a shift operation of 1 shift amount and 1 shift number is performed in one cycle from input data selection to the next input data selection, and 35 shift operations are performed in 35 cycles.
  • the shift is performed.
  • 36 input data d kl of 3 rows and 3 columns are selected including before the start of the cycle, and 36 1 row 1 column from the input data d kl of 36 3 rows and 3 columns.
  • Output data Y kl of is generated.
  • the total output data Z of 6 rows and 6 columns having 36 output data Y kl as the element z kl is generated.
  • the number of shifts in the convolution operation is 35 times. Further, the total number of multiplications is 324 times by multiplying 9 times, which is the number of multiplications in the product-sum operation, and 36 times, which is the number of times of selection of input data.
  • the convolution calculation circuit of the present embodiment has the following effects.
  • the convolution operation circuit of the present embodiment since the convolution operation is not converted into the matrix operation, it is not necessary to convert the input data so that the matrix operation can be performed, and the original input data is duplicated. There is no need to handle the converted data. Therefore, the increase in hardware and data processing is avoided, and the power consumption in the convolution arithmetic unit is reduced.
  • a plurality of input window areas can be switched with each other in the shift register 40. That is, all the storage elements 42 included in the plurality of input window areas are connected to the multiplexer, and by selecting the input data elements input from the storage elements 42 in the multiplexer, the plurality of input window areas can be switched to each other. It has become like.
  • a filter of 3 rows 3 columns, 4 rows 4 columns, 5 rows 5 columns is used in the convolution operation, 3 rows 3 columns, 4 rows 4 columns, 5 rows 5 columns corresponding to each filter.
  • the 0th to 2nd input window areas including the storage elements 42 of the above can be switched between each other.
  • a 0th to 2nd input window area for example, (0) a 0th input including a storage element 42 in rows 0 to 2 and columns 0 to 2 in 3 rows and 3 columns.
  • 1st input window area including storage elements 42 of 4 rows and 4 columns of 0th to 3rd rows and 0th to 3rd columns, (2) 0th to 4th rows Moreover, it is possible to use the second input window area including the storage element 42 of 5 rows and 5 columns of columns 0 to 4.
  • the shift amount can be switched in the shift register 40. That is, the flip-flop 48 of the storage element 42 next to s 1 , next to s 2 , ..., S n next to each other (n ⁇ 2) is connected to the multiplexer 46 of each storage element 42 in each of the up, down, left, and right directions. ing. Then, in the multiplexer 46 of each storage element 42, the data element input from the flip-flop 48 of any of the storage elements 42 s 1 adjacent, s 2 adjacent, ..., s n adjacent (n ⁇ 2) is selected. The shift amount can be switched by switching whether or not to perform.
  • the flip-flops 48 of the two adjacent storage elements 42 are connected to the multiplexer 46 of each storage element 42 in each of the up, down, left, and right directions.
  • the shift amount is changed by switching which of the adjacent storage elements 42 and the two adjacent storage elements 42 to select the data element input from the storage element 42. Is switched between 1 and 2.
  • FIGS. 9 and 10 A second embodiment of the present disclosure will be described with reference to FIGS. 9 and 10.
  • a plurality of input windows 44a-44d are set in the shift register 40.
  • the signal lines are not shown between the storage elements 42 between the top row and the bottom row, and between the storage elements 42 between the leftmost column and the rightmost column. are doing.
  • the 0th to 3rd input windows 44a-44d are set.
  • the 0th to 3rd input windows 44a-44d (0) the 0th input window 44a including the storage elements 42 of the 0th row to the 2nd row and the 0th row to the 2nd column of the 3rd row and 3rd column.
  • a third input window 44d, including 42, is used.
  • the input data d a to d d from the storage element 42 in the 0th to 3rd input windows 44 are input to the 0th to 3rd multiply-accumulate calculators 50a to 50d, respectively, and the 0th to 3rd product sums are added.
  • Output data Y a to Y d are generated in the arithmetic units 50 a to 50 d .
  • a series of shift operations are executed in the shift register 40.
  • a shift operation with a shift amount of 1 and a shift number of 1 is performed in one cycle from input data selection to the next input data selection, and eight shift operations are performed in eight cycles.
  • the shift is performed.
  • Nine 1-row, 1-column output data Y m n , Y m 3 + n , Y 3 + m n , Y 3 + m 3 + n are generated.
  • the total output data Z of 6 rows and 6 columns having 36 output data Y kl as the element z kl is generated.
  • the number of shifts in the convolution operation is eight. Further, the total number of multiplications is 324 times by multiplying 9 times, which is the number of multiplications in the product-sum operation, 4 times, which is the number of input windows 44a to 44d, and 9 times, which is the number of times input data is selected. ..
  • the convolution calculation circuit of the present embodiment has the following effects.
  • the convolution calculation circuit of the present embodiment since a plurality of input windows 44a to 44d are set in the shift register 40, the same output is performed with a smaller number of shifts as compared with the case where a single input window 44 is set. Can be obtained, and the convolution operation can be executed at high speed.
  • FIGS. 11 to 13 A third embodiment of the present disclosure will be described with reference to FIGS. 11 to 13.
  • the convolution calculation circuit of the present embodiment performs a product-sum calculation based on the Winograd algorithm, selects input data of 5 rows and 5 columns for a filter of 3 rows and 3 columns, and selects 3 rows and 3 columns. Generate the output data of.
  • FIG. 11 as in FIG. 9, for the sake of simplification of the figure, the space between the storage elements 42 in the top row and the bottom row and the space between the storage elements 42 in the leftmost column and the rightmost column are shown. The illustration of the signal line is omitted.
  • an input window 44 including the storage elements 42 of rows 0 to 4 and columns 0 to 4 of 5 rows and 5 columns is set.
  • the product-sum calculation unit 50 performs a product-sum calculation of the input data d and the weight data g based on the Winograd algorithm, as shown in the following equation (2).
  • G, B, and A are constant matrices.
  • the output data Y of 3 rows and 3 columns is generated by the product-sum calculation of the input data d of 5 rows and 5 columns and the weight data g of 3 rows and 3 columns.
  • the constant matrices G, B, and A are as shown in FIG. It is pre-calculated for the weight section GGG T. Therefore, in the present embodiment, the number of multiplications in the product-sum operation is 25 times. Further, as shown in FIG. 12, the constant matrices B and A have one of the elements 1, 2, 3, and 4, and the multiplication operation can be executed only by the bit shift operation and the addition operation. It has become.
  • a shift operation with a shift amount of 1 and a shift number of 3 is performed in one cycle from input data selection to the next input data selection, and nine shift operations are performed in three cycles.
  • the shift is performed.
  • four 5 rows and 5 columns of input data d kl are selected, including before the start of the cycle, and 4 3 rows and 3 columns are selected from the 4 5 rows and 5 columns input data d kl.
  • Output data Y kl of is generated.
  • the number of shifts in the convolution operation is nine.
  • the total number of multiplications is 100 by multiplying 25 times, which is the number of multiplications in the product-sum operation, and 4 times, which is the number of times the input data is selected.
  • the convolution calculation circuit of the present embodiment has the following effects.
  • the number of multiplications and the number of shifts can be significantly reduced by performing the product-sum calculation based on the Winograd algorithm.
  • the multiplication operation can be performed only by the bit shift operation and the addition operation. It is possible to do it. Therefore, it is possible to execute the convolution operation at sufficiently high speed and with low power consumption.
  • the shift amount is set to 3 in the shift register 40 of the third embodiment.
  • each storage element 42 is connected to three adjacent storage elements 42, and the data element is shifted between each storage element 42 and the three adjacent storage elements 42.
  • a shift with a shift amount of 3 can be realized.
  • the shift register 40 a shift operation with a shift amount of 3 and a shift number of 1 is performed in one cycle from input data selection to the next input data selection, and three shifts are executed in three cycles. Therefore, the number of shifts in this modification is three.
  • the number of shifts in the convolution operation is further reduced, and the convolution operation can be executed at higher speed and lower power consumption.
  • the shift register 40 of the third embodiment is capable of switching between the 0th to 3rd input window areas instead of the shift operation. That is, as the 0th to 3rd input window areas, (0) the 0th input window area including the storage elements 42 in rows 0 to 4 and columns 0 to 4 in rows 5 and 5.
  • a first input window area including the storage elements 42 of rows 0 to 4 and columns 3 to 7 of 5 rows and 5 columns, (2) rows 3 to 7 and 0
  • a second input window area that includes a storage element 42 of 5 rows and 5 columns from column to 4th column, (3) a storage element of 3 rows and 3 columns of 3rd to 7th rows and 3rd to 7th columns.
  • a third input window area is used that includes 42. Then, the 0th to 3rd input window areas are sequentially switched to select input data, sequentially output data is generated from the input data, and total output data is generated from the output data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Biophysics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Complex Calculations (AREA)

Abstract

畳込み演算装置は、二次元的に配置されデータを夫々記憶する複数の記憶素子(42)を有し、前記複数の記憶素子間で前記データを循環的にシフト可能であり、所定の領域に入力ウィンドウ(44)が設定されており、当該入力ウィンドウ内の前記記憶素子に記憶されたデータを入力データ(d)として選択する、二次元循環シフトレジスタ部(40)と、前記レジスタ部から入力された前記入力データと所定のフィルタをなすウェイトデータとを積和演算して出力データ(Y)を生成する積和演算部(50)と、を具備する。

Description

畳込み演算装置 関連出願への相互参照
 本出願は、2019年3月28日に出願された日本特許出願番号2019-62744号に基づくものであって、その優先権の利益を主張するものであり、その特許出願の全ての内容が、参照により本明細書に組み入れられる。
 本開示は、畳込み演算を行う畳込み演算装置に関する。
 畳込み演算では、入力データに、所定のフィルタをなすウェイトデータを畳込むことで、出力データを生成する。従来の畳込み装置装置では、畳込み演算を行列演算に変換することで、畳込み演算を処理している(例えば、特許文献1参照)。
米国特許第9747548号明細書
 発明者の詳細な検討の結果、従来の畳込み演算装置では、畳込み演算を行列演算に変換しているため、行列演算が可能なように入力データを変換する必要があり、また、元々の入力データを重複させた変換データを取り扱う必要があることから、ハードウェアやデータ処理が増大し、消費電力が増大してしまうという課題が見出された。
 本開示の目的は、消費電力が低減された畳込み演算装置を提供することにある。
 本開示の一実施態様は、二次元的に配置されデータを夫々記憶する複数の記憶素子を有し、前記複数の記憶素子間で前記データを循環的にシフト可能であり、所定の領域に入力ウィンドウが設定されており、当該入力ウィンドウ内の前記記憶素子に記憶されたデータを入力データとして選択する、二次元循環シフトレジスタ部と、前記レジスタ部から入力された前記入力データと所定のフィルタをなすウェイトデータとを積和演算して出力データを生成する積和演算部と、を具備する畳込み演算装置である。
 これによれば、畳込み演算装置における消費電力が低減されている。
 本開示についての上記目的及びその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、本開示の第1実施形態のDFPシステムを示すブロック図であり、 図2は、本開示の第1実施形態のDFPを示すブロック図であり、 図3は、本開示の第1実施形態の畳込み演算回路を示すブロック図であり、 図4は、本開示の第1実施形態の記憶素子を示すブロック図であり、 図5は、本開示の第1実施形態の積和演算器を示すブロック図であり、 図6は、本開示の第1実施形態のシフトによる入力データの選択を示す模式図であり、 図7は、本開示の第1実施形態の入力データ範囲の移動を示す概念図であり、 図8は、本開示の第1実施形態の一連のシフト動作を示す表図であり、 図9は、本開示の第2実施形態の畳込み演算回路を示すブロック図であり、 図10は、本開示の第2実施形態の一連のシフト動作を示す表図であり、 図11は、本開示の第3実施形態の畳込み演算回路を示すブロック図であり、 図12は、本開示の第3実施形態の積和演算で用いられる定数行列を示す表図であり、 図13は、本開示の第3実施形態の入力データ範囲の移動を示す概念図である。
[第1実施形態]
 図1乃至図8を参照して、本開示の第1実施形態について説明する。
 畳込み演算回路については、自動運転の画像認識や物体検知に用いられるデータフロープロセッサ(Data Flow Processor、以下「DFP」という。)等に用いられるものである。
 本実施形態の畳込み演算回路では、シフトレジスタ40において、二次元的に配置された多数の記憶素子42にデータ要素が記憶され、所定の領域に設定された入力ウィンドウ44内の記憶素子42のデータ要素を入力データdとして選択する。積和演算器50において、シフトレジスタ40から入力された入力データdと、所定のフィルタをなすウェイトデータgとを積和演算して、出力データYを生成する。ここで、シフトレジスタ40において総データ要素を順次シフトさせて、入力ウィンドウ44内のデータ要素を順次入力データdとして選択し、当該入力データdから順次生成された出力データYから総出力データZを生成する。
 図1を参照して、DFPシステム10について概説する。
 本実施形態のDFPシステム10では、DFP11については、ホストCPU12の重い演算負荷に対処する個別のマスタとして機能し、プログラム及び独自の命令フェッチが可能であり、イベントハンドラ13が生成した割込み処理をサポートする。DFP11、ホストCPU12、ROM14、RAM15及び外部インターフェイス16は、システムバス17を介して、データの送受信を行う。
 図2を参照して、DFP11について概説する。
 DFP11については、多量のスレッドに対して、ハードウェアによる動的レジスタ配置及びスレッド・スケジューリングにより、異なる命令ストリームに対してであっても複数のスレッドを並列実行することを可能とする。なお、このような多量のスレッドについては、コンパイラによって、プログラムコードを自動ベクトル化し、プログラムのタスク並列性及びグラフ並列性を保持するグラフ構造を抽出することにより、生成することが可能である。
 DFP11において、複数の実行コア22は、夫々、独立してスケジューリング可能な多数のパイプラインを備え、4つのプロセッシングエレメントPE#0、PE#1、PE#2、PE#3間でリソースを共有する。スレッドスケジューラ24は、多数のスレッドを跨いだスケジューリングを実現し、多数のスレッドを同時実行する。コマンドユニット26は、コンフィグ・インターフェイス28との間でデータを送受信し、コマンド・バッファとして機能する。メモリサブシステム30は、アービタ32、L1キャッシュ34a及びL2キャッシュ34bによって形成され、システムバス・インターフェイス36及びROMインターフェイス38との間でデータを送受信する。
 本実施形態では、畳込み演算回路については、DFP11が備える複数の実行コア22の内の1つの実行コア22として用いられる。
 図3を参照して、畳込み演算回路について説明する。
 畳込み演算回路は、二次元循環シフトレジスタ40及び積和演算器50によって形成されている。
 シフトレジスタ40では、多数の記憶素子42が二次元的に配置されている。本実施形態では、第0行から第7行かつ第0列から第7列の8行8列の64個の記憶素子42が用いられている。
 各記憶素子42には、データ要素が記憶される。各記憶素子42は当該記憶素子42の上下左右に配置された記憶素子42と接続されており、各記憶素子42のデータ要素は上下左右に配置された記憶素子42にシフト可能である。シフトレジスタ40については、二次元循環型であり、最上行、最下行、最左列、最右列の記憶素子42の上、下、左、右に、夫々、最下行、最上行、最右列、最左列の記憶素子42が配置されているものとする。ここで、各記憶素子42がn個隣の記憶素子42に接続され、各記憶素子42とn個隣の記憶素子42との間でデータ要素がシフトされる場合に、シフト量がnであるとする。本実施形態では、各記憶素子42は上下左右に隣接した記憶素子42とのみ接続されており、各記憶素子42のデータ要素は上下左右に隣接した記憶素子42にのみシフト可能であるため、シフト量は1となる。
 シフトレジスタ40には、メモリインターフェース60が接続されている。メモリインターフェース60からシフトレジスタ40の最下行の各記憶素子42にデータ要素が順次入力される。最下行の各記憶素子42に入力されたデータ要素を順次上方向にシフトさせていくことで、全ての記憶素子42にデータ要素が記憶される。
 シフトレジスタ40において、所定の領域に入力ウィンドウ44が設定されている。入力ウィンドウ44内の記憶素子42に記憶されているデータ要素が入力データdとして選択され、積和演算器50へと出力される。本実施形態では、第0行から第2行かつ第0列から第2列の3行3列の記憶素子42を包含する領域に入力ウィンドウ44が設定されている。そして、8行8列の総データ要素から3行3列の入力データdが選択され、3行3列の入力データdが積和演算器50に出力される。
 図4を参照して、シフトレジスタ40の記憶素子42について詳細に説明する。
 記憶素子42は、マルチプレクサ46(MUX)及びフリップフロップ48(FF)から形成されている。本実施形態では、マルチプレクサ46には、上下左右に隣接した記憶素子42のフリップフロップ48からデータ要素が入力される。マルチプレクサ46は、入力された4個のデータ要素の内から1個のデータ要素を選択して、当該記憶素子42のフリップフロップ48に出力する。フリップフロップ48は、マルチプレクサ46から入力されたデータ要素を保持する。
 図5を参照して、積和演算器50について説明する。
 積和演算器50では、入力データdと所定のフィルタなすウェイトデータwとの積和演算を行い、出力データYを生成する。即ち、以下の式(1)で示されるように、入力データdとウェイトデータgとのフロベニウス積を出力データYとする。ここで、dqrは入力データdをなす入力データ要素、gqrはウェイトデータgをなすウェイトデータ要素である。
Figure JPOXMLDOC01-appb-M000001
 本実施形態では、3行3列の入力データd(dqr:q=0~2;r=0~2)と3行3列のウェイトデータg(gqr:q=0~2;r=0~2)とから1行1列の出力データYを生成する。このため、積和演算における乗算回数は9回となる。
 積和演算器50は、入力レジスタ52、ウェイトレジスタ54、乗算器56及び加算器ツリー58から形成されている。入力レジスタ52は、シフトレジスタ40から入力された入力データdをなす入力データ要素dqrを保持する。ウェイトレジスタ54は、図示しないインターフェイスから入力されたウェイトデータgをなすウェイトデータ要素gqrを保持する。本実施形態では、入力レジスタ52及びウェイトレジスタ54は、夫々、9個の記憶領域を備える。各乗算器56は、入力レジスタ52の各入力データ要素dqrと、ウェイトレジスタ54の各ウェイトデータ要素gqrとの乗算を行い、加算器ツリー58は、各乗算器56で算出された全乗算結果を加算する。本実施形態では、9個の乗算器56が用いられ、加算器ツリー58により9個の乗算結果が加算される。
 図6乃至図8を参照して、本実施形態の畳込み演算処理について説明する。
 図6に示されるように、シフトレジスタ40において、総データ要素を順次シフトさせ、入力ウィンドウ44内のデータ要素を順次入力データdとして選択する。本実施形態では、8行8列の総データ要素ij(i=0~7;j=0~7)を順次シフトさせ、第0行から第2行かつ第0列から第2列の3行3列の入力ウィンドウ44内のデータ要素を、順次入力データdとして選択する。
 図7に示されるように、シフトレジスタ40におけるシフトによる入力データdの選択については、総データ要素における入力データ範囲Dの移動に対応する。ここで、シフトレジスタ40における上下左右方向へのシフトについては、総データ要素における入力データ範囲Dの逆方向への移動に対応する。以下では、最上左を基準として、下方向及び右方向に夫々k及びlだけ変位した入力データ範囲Dの入力データをdklとし、当該入力データdklから生成される出力データをYklとする。本実施形態では、8行8列の総データ要素ij(i=0~7;j=0~7)において、3行3列の入力データ範囲Dが下方向及び右方向に夫々k及びl(k=0~5;l=0~5)だけ変位することになる。
 図8に示されるように、一連のシフト動作では、入力データ選択から次の入力データ選択までの1サイクルで、シフト量1及びシフト回数1のシフト動作がなされ、35回のサイクルで35回のシフトが実行される。当該35回のサイクルにより、サイクル開始前も含め、36個の3行3列の入力データdklが選択され、当該36個の3行3列の入力データdklから36個の1行1列の出力データYklが生成される。そして、36個の出力データYklを要素zklとする6行6列の総出力データZが生成される。
 本実施形態では、畳込み演算におけるシフト回数は35回となる。また、総乗算回数は、積和演算における乗算回数である9回と、入力データの選択回数である36回とを乗じて、324回となる。
 本実施形態の畳込み演算回路については、以下の効果を奏する。
 本実施形態の畳込み演算回路では、畳込み演算を行列演算に変換しているわけではないため、行列演算が可能なように入力データを変換する必要はなく、また、元々の入力データを重複させた変換データを取り扱う必要もない。このため、ハードウェアやデータ処理の増大が回避されており、畳込み演算装置における消費電力が低減されている。
[第1実施形態の第1変形例]
 以下、本開示の第1実施形態の第1変形例について説明する。
 本変形例の畳込み演算回路では、シフトレジスタ40において、複数の入力ウィンドウ領域を互いに切替可能としたものである。即ち、複数の入力ウィンドウ領域に包含される全記憶素子42がマルチプレクサに接続されており、マルチプレクサにおいて記憶素子42から入力される入力データ要素を選択することで、複数の入力ウィンドウ領域が互いに切り替えられるようになっている。
 例えば、畳込み演算で3行3列、4行4列、5行5列のフィルタが用いられる場合に、当該各フィルタに対応して、3行3列、4行4列、5行5列の記憶素子42を夫々包含する第0乃至第2の入力ウィンドウ領域を互いに切替可能とする。このような第0乃至第2の入力ウィンドウ領域として、例えば、(0)第0行から第2行かつ第0列から第2列の3行3列の記憶素子42を包含する第0の入力ウィンドウ領域、(1)第0行から第3行かつ第0列から第3列の4行4列の記憶素子42を包含する第1の入力ウィンドウ領域、(2)第0行から第4行かつ第0列から第4列の5行5列の記憶素子42を包含する第2の入力ウィンドウ領域を用いることが可能である。
 本変形例の畳込み演算回路については、シフトレジスタ40において、複数の入力ウィンドウ領域が互いに切替可能であるため、様々な種類の畳込み演算に対応可能であり、汎用性の高い畳込み演算回路が実現されている。
[第1実施形態の第2変形例]
 以下、本開示の第1実施形態の第2変形例について説明する。
 本変形例の畳込み演算回路については、シフトレジスタ40において、シフト量を切替可能としたものである。即ち、各記憶素子42のマルチプレクサ46に、上下左右の方向毎に、s個隣、s個隣、…、s個隣(n≧2)の記憶素子42のフリップフロップ48が接続されている。そして、各記憶素子42のマルチプレクサ46において、s個隣、s個隣、…、s個隣(n≧2)のいずれの記憶素子42のフリップフロップ48から入力されたデータ要素を選択するかを切り替えることにより、シフト量が切り替えられる。
 例えば、シフトレジスタ40において、各記憶素子42のマルチプレクサ46に、上下左右の方向毎に、隣接する記憶素子42のフリップフロップ48に加えて、2個隣の記憶素子42のフリップフロップ48が接続されており、各記憶素子42のマルチプレクサ46において、隣接する記憶素子42と、2個隣の記憶素子42とのいずれの記憶素子42から入力されたデータ要素を選択するかを切り替えることにより、シフト量が1と2との間で切り替えられる。
 本変形例の畳込み演算回路では、シフトレジスタ40において、シフト量が切替可能であるため、様々な種類の畳込み演算に対応可能であり、汎用性の高い畳込み演算回路が実現されている。
 さらに、第1実施形態の第1変形例と第2変形例とを組み合わせて、シフトレジスタ40において、入力データ領域及びシフト量を切替可能とすることで、さらに汎用性の高い畳込み演算回路を実現することが可能である。
[第2実施形態]
 図9及び図10を参照して、本開示の第2実施形態について説明する。
 本実施形態の畳込み演算回路については、シフトレジスタ40において、複数の入力ウィンドウ44a-44dを設定したものである。
 なお、図9では、図の簡略化のため、最上行と最下行との各記憶素子42間、並びに、最左列と最右列との各記憶素子42間について、信号線の図示を省略している。
 図9に示されるように、本実施形態のシフトレジスタ40では、第0乃至第3の入力ウィンドウ44a-44dが設定されている。第0乃至第3の入力ウィンドウ44a-44dとして、(0)第0行から第2行かつ第0列から第2列の3行3列の記憶素子42を包含する第0の入力ウィンドウ44a、(1)第0行から第2行かつ第3列から第5列の3行3列の記憶素子42を包含する第1の入力ウィンドウ44b、(2)第3行から第5行かつ第0列から第2列の3行3列の記憶素子42を包含する第2の入力ウィンドウ44c、(4)第3行から第5行かつ第3列から第5列の3行3列の記憶素子42を包含する第3の入力ウィンドウ44dが用いられる。第0乃至第3の入力ウィンドウ44内の記憶素子42からの入力データd~dは夫々第0乃至第3の積和演算器50a~50dに入力され、第0乃至第3の積和演算器50a~50dにおいて出力データY~Yが生成される。
 畳込み演算処理では、シフトレジスタ40において、一連のシフト動作を実行する。図10に示されるように、一連のシフト動作では、入力データ選択から次の入力データ選択までの1サイクルで、シフト量1かつシフト回数1のシフト動作がなされ、8回のサイクルで8回のシフトが実行される。当該8回のサイクルにより、サイクル開始前も含め、第0乃至第3の入力ウィンドウ44a~44dによって、夫々、各9個の3行3列の入力データdm n、dm 3+n、d3+m n、d3+m 3+n(m=0~2;n=0~2)が選択され、当該各9個の3行3列の入力データdm n、dm 3+n、d3+m n、d3+m 3+nから各9個の1行1列の出力データYm n、Ym 3+n、Y3+m n、Y3+m 3+nが生成される。そして、第1実施形態と同様に、36個の出力データYklを要素zklとする6行6列の総出力データZが生成される。
 本実施形態では、畳込み演算におけるシフト回数は8回となる。また、総乗算回数は、積和演算における乗算回数である9回と、入力ウィンドウ44a~44dの個数である4個と、入力データの選択回数である9回とを乗じて、324回となる。
 本実施形態の畳込み演算回路については、以下の効果を奏する。
 本実施形態の畳込み演算回路では、シフトレジスタ40において複数の入力ウィンドウ44a~44dを設定しているため、単一の入力ウィンドウ44を設定する場合と比較して、少ないシフト回数で同一の出力を得ることができ、畳込み演算を高速で実行することが可能となっている。
[第3実施形態]
 図11乃至図13を参照して、本開示の第3実施形態について説明する。
 本実施形態の畳込み演算回路については、ウィノグラードアルゴリズムに基づく積和演算を行うものであり、3行3列のフィルタに対して、5行5列の入力データを選択し、3行3列の出力データを生成する。
 なお、図11では、図9と同様に、図の簡略化のため、最上行と最下行との各記憶素子42間、並びに、最左列と最右列との各記憶素子42間について、信号線の図示を省略している。
 図11に示されるように、シフトレジスタ40では、第0行から第4行かつ第0列から第4列の5行5列の記憶素子42を包含する入力ウィンドウ44が設定されている。
 積和演算器50では、以下の式(2)に示されるように、ウィノグラードアルゴリズムに基づき入力データdとウェイトデータgとの積和演算を行う。ここで、G、B、Aは定数行列である。
Figure JPOXMLDOC01-appb-M000002
 本実施形態では、5行5列の入力データdと3行3列のウェイトデータgとの積和演算により、3行3列の出力データYが生成される。定数行列G、B、Aについては図12に示されるとおりである。ウェイト項GgGについては予め算出されている。このため、本実施形態では、積和演算における乗算回数は25回となる。また、図12に示されるように、定数行列B及びAについては、要素が1、2、3、4のいずれかとなっており、乗算演算をビットシフト演算と加算演算のみで実行することが可能となっている。
 図13を参照して、本実施形態の畳込み演算処理について説明する。
 本実施形態では、図13に示されるように、8行8列の総データ要素ij(i=0~7;j=0~7)において、5行5列の入力データ範囲Dが右方向及び下方向に夫々k及びl(k=0,3;l=0,3)だけ変位されることになる。
 図13に示されるように、一連のシフト動作では、入力データ選択から次の入力データ選択までの1サイクルで、シフト量1かつシフト回数3のシフト動作がなされ、3回のサイクルで9回のシフトが実行される。当該3回のサイクルにより、サイクル開始前も含め、4個の5行5列の入力データdklが選択され、当該4個の5行5列の入力データdklから4個の3行3列の出力データYklが生成される。そして、各3行3列の出力データYklの出力データ要素ykl op(o=0~2;p=0~2)を要素zk+o l+pとする6行6列の総出力データZが生成される。
 本実施形態では、畳込み演算におけるシフト回数は9回となる。また、総乗算回数は、積和演算における乗算回数である25回と、入力データの選択回数である4回とを乗じて、100回となる。
 本実施形態の畳込み演算回路については、以下の効果を奏する。
 本実施形態の畳込み演算回路では、ウィノグラードアルゴリズムに基づく積和演算を行うようにすることで、乗算回数及びシフト回数を大幅に削減することが可能である。また、3行3列のフィルタに対して、5行5列の入力データを選択し、3行3列の出力データを生成するようにすることで、乗算演算をビットシフト演算と加算演算のみで実行することが可能である。このため、畳込み演算を充分に高速かつ低消費電力で実行することが可能となっている。
[第3実施形態の第1変形例]
 以下、第3実施形態の第1変形例について説明する。
 本変形例の畳込み演算回路については、第3実施形態のシフトレジスタ40において、シフト量を3としたものである。第1実施形態で説明したように、各記憶素子42を3個隣の記憶素子42に接続し、各記憶素子42と3個隣の記憶素子42との間でデータ要素をシフトさせることで、シフト量3のシフトを実現可能である。当該シフトレジスタ40では、入力データ選択から次の入力データ選択までの1サイクルで、シフト量3かつシフト回数1のシフト動作がなされ、3回のサイクルで3回のシフトが実行される。このため、本変形例のシフト回数は3回である。
 このように、本変形例では、畳込み演算におけるシフト回数がさらに削減されており、畳込み演算をさらに高速かつ低消費電力で実行することが可能となっている。
[第3実施形態の第2変形例]
 以下、第3実施形態の第2変形例について説明する。
 本変形例の畳込み演算回路については、第3実施形態のシフトレジスタ40において、シフト動作に代えて、第0乃至第3の入力ウィンドウ領域を互いに切替可能としたものである。即ち、第0乃至第3の入力ウィンドウ領域として、(0)第0行から第4行かつ第0列から第4列の5行5列の記憶素子42を包含する第0の入力ウィンドウ領域、(1)第0行から第4行かつ第3列から第7列の5行5列の記憶素子42を包含する第1の入力ウィンドウ領域、(2)第3行から第7行かつ第0列から第4列の5行5列の記憶素子42を包含する第2の入力ウィンドウ領域、(3)第3行から第7行かつ第3列から第7列の3行3列の記憶素子42を包含する第3の入力ウィンドウ領域が用いられる。そして、第0乃至第3の入力ウィンドウ領域を順次切り替えて入力データを選択し、当該入力データから順次出力データを生成して、出力データから総出力データを生成する。
 このように、本変形例では、畳込み演算において、入力ウィンドウ領域の切替えを行うことで、シフト動作を不要としており、畳込み演算をさらに高速かつ低消費電力で実行することが可能となっている。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それら一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (4)

  1.  二次元的に配置されデータを夫々記憶する複数の記憶素子(42)を有し、前記複数の記憶素子間で前記データを循環的にシフト可能であり、所定の領域に入力ウィンドウ(44,44a~44d)が設定されており、当該入力ウィンドウ内の前記記憶素子に記憶されたデータを入力データ(d,d~d)として選択する、二次元循環シフトレジスタ部(40)と、
     前記レジスタ部から入力された前記入力データと所定のフィルタをなすウェイトデータとを積和演算して出力データ(Y,Y~Y)を生成する積和演算部(50,50a~50d)と、
     を具備する畳込み演算装置。
  2.  前記積和演算部は、ウィノグラードアルゴリズムに基づく積和演算を行い、
     前記フィルタは、3行3列のフィルタであり、
     前記入力データは、5行5列の入力データであり、
     前記出力データは、3行3列の出力データである、
     請求項1に記載の畳込み演算装置。
  3.  前記レジスタ部は、複数の前記入力ウィンドウを有し、複数の前記入力データを選択可能であり、
     前記畳込み演算装置は、前記レジスタ部から前記複数の入力データが夫々入力される複数の前記積和演算器をさらに具備する、
     請求項1に記載の畳込み演算装置。
  4.  前記レジスタ部は、前記入力ウィンドウの領域又は前記シフトのシフト量を切替可能である、
     請求項1に記載の畳込み演算装置。
PCT/JP2020/012728 2019-02-01 2020-03-23 畳込み演算装置 WO2020196407A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20778810.0A EP3951637A4 (en) 2019-03-28 2020-03-23 DEVICE FOR CONVOLUTION CALCULATION
US17/480,925 US20220004364A1 (en) 2019-02-01 2021-09-21 Convolutional computation device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-062744 2019-03-28
JP2019062744A JP7408289B2 (ja) 2019-03-28 2019-03-28 畳込み演算装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/480,925 Continuation US20220004364A1 (en) 2019-02-01 2021-09-21 Convolutional computation device

Publications (1)

Publication Number Publication Date
WO2020196407A1 true WO2020196407A1 (ja) 2020-10-01

Family

ID=72611069

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/012728 WO2020196407A1 (ja) 2019-02-01 2020-03-23 畳込み演算装置

Country Status (3)

Country Link
EP (1) EP3951637A4 (ja)
JP (1) JP7408289B2 (ja)
WO (1) WO2020196407A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114399036A (zh) * 2022-01-12 2022-04-26 电子科技大学 一种基于一维Winograd算法的高效卷积计算单元
CN115469826A (zh) * 2022-09-16 2022-12-13 深圳思谋信息科技有限公司 数据处理方法、装置、计算机设备及计算机可读存储介质
WO2023004762A1 (zh) * 2021-07-30 2023-02-02 华为技术有限公司 计算机系统和数据处理方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11783163B2 (en) * 2020-06-15 2023-10-10 Arm Limited Hardware accelerator for IM2COL operation
CN116323688A (zh) 2020-09-25 2023-06-23 株式会社日本触媒 吸水性树脂粉末的制造方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318194A (ja) * 1993-05-07 1994-11-15 Fujitsu Ltd 並列データ処理方式
JPH0962653A (ja) * 1995-08-29 1997-03-07 Mitsubishi Electric Corp 積和演算装置、積和演算器集積回路装置及び累積加算器
US9747548B2 (en) 2015-05-21 2017-08-29 Google Inc. Rotating data for neural network computations

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10546211B2 (en) * 2016-07-01 2020-01-28 Google Llc Convolutional neural network on programmable two dimensional image processor
US10120649B2 (en) * 2016-07-29 2018-11-06 Microunity Systems Engineering, Inc. Processor and method for outer product accumulate operations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06318194A (ja) * 1993-05-07 1994-11-15 Fujitsu Ltd 並列データ処理方式
JPH0962653A (ja) * 1995-08-29 1997-03-07 Mitsubishi Electric Corp 積和演算装置、積和演算器集積回路装置及び累積加算器
US9747548B2 (en) 2015-05-21 2017-08-29 Google Inc. Rotating data for neural network computations

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3951637A4

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023004762A1 (zh) * 2021-07-30 2023-02-02 华为技术有限公司 计算机系统和数据处理方法
CN114399036A (zh) * 2022-01-12 2022-04-26 电子科技大学 一种基于一维Winograd算法的高效卷积计算单元
CN114399036B (zh) * 2022-01-12 2023-08-22 电子科技大学 一种基于一维Winograd算法的高效卷积计算单元
CN115469826A (zh) * 2022-09-16 2022-12-13 深圳思谋信息科技有限公司 数据处理方法、装置、计算机设备及计算机可读存储介质
CN115469826B (zh) * 2022-09-16 2023-04-07 深圳思谋信息科技有限公司 数据处理方法、装置、计算机设备及计算机可读存储介质

Also Published As

Publication number Publication date
EP3951637A1 (en) 2022-02-09
JP7408289B2 (ja) 2024-01-05
EP3951637A4 (en) 2022-06-22
JP2020161054A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
WO2020196407A1 (ja) 畳込み演算装置
US11775313B2 (en) Hardware accelerator for convolutional neural networks and method of operation thereof
US11175920B2 (en) Efficient work execution in a parallel computing system
Shen et al. Escher: A CNN accelerator with flexible buffering to minimize off-chip transfer
CN110678840B (zh) 张量寄存器文件
TWI639119B (zh) 執行卷積計算的系統及方法
CN110678841B (zh) 张量处理器指令集架构
US9405538B2 (en) Functional unit having tree structure to support vector sorting algorithm and other algorithms
WO2017185389A1 (zh) 一种用于执行矩阵乘运算的装置和方法
US20170206089A1 (en) Information processing apparatus and computational method
CN112506567B (zh) 数据读取方法和数据读取电路
US20220004364A1 (en) Convolutional computation device
US7013321B2 (en) Methods and apparatus for performing parallel integer multiply accumulate operations
EP3931688B1 (en) Data processing
TW201901483A (zh) 執行雙輸入值絕對值及加總運算的電路
US7558816B2 (en) Methods and apparatus for performing pixel average operations
US11409840B2 (en) Dynamically adaptable arrays for vector and matrix operations
JP6712052B2 (ja) 演算処理装置及び演算処理装置の制御方法
JP2021108104A (ja) 部分的読み取り/書き込みが可能な再構成可能なシストリックアレイのシステム及び方法
CN112074810B (zh) 并行处理设备
WO2022121273A1 (zh) Simt指令处理方法及装置
Siddiqui et al. Design space exploration of embedded applications on heterogeneous cpu-gpu platforms
Tokura et al. An efficient GPU implementation of bulk computation of the eigenvalue problem for many small real non-symmetric matrices
Venieris et al. Towards heterogeneous solvers for large-scale linear systems
Ciobanu et al. On implementability of polymorphic register files

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20778810

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020778810

Country of ref document: EP

Effective date: 20211028