TWI753728B - 運算單元架構、運算單元叢集及卷積運算的執行方法 - Google Patents

運算單元架構、運算單元叢集及卷積運算的執行方法 Download PDF

Info

Publication number
TWI753728B
TWI753728B TW109146644A TW109146644A TWI753728B TW I753728 B TWI753728 B TW I753728B TW 109146644 A TW109146644 A TW 109146644A TW 109146644 A TW109146644 A TW 109146644A TW I753728 B TWI753728 B TW I753728B
Authority
TW
Taiwan
Prior art keywords
operation unit
delay
shared data
units
data
Prior art date
Application number
TW109146644A
Other languages
English (en)
Other versions
TW202226073A (zh
Inventor
陳耀華
嚴裕翔
謝宛珊
黃稚存
盧俊銘
劉靖家
Original Assignee
財團法人工業技術研究院
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財團法人工業技術研究院 filed Critical 財團法人工業技術研究院
Priority to TW109146644A priority Critical patent/TWI753728B/zh
Priority to CN202111173336.4A priority patent/CN114692853A/zh
Application granted granted Critical
Publication of TWI753728B publication Critical patent/TWI753728B/zh
Publication of TW202226073A publication Critical patent/TW202226073A/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

適用於卷積運算的一種運算單元架構包括:多個運算單元以及一延遲佇列。運算單元中具有至少依據共用資料進行卷積運算的第一運算單元及第二運算單元。延遲佇列連接第一運算單元及第二運算單元。延遲佇列接收第一運算單元傳送的共用資料,並在接收共用資料且經過一延遲週期後將共用資料傳送至第二運算單元。

Description

運算單元架構、運算單元叢集及卷積運算的執行方法
本發明關於人工智慧,且涉及一種運行深度神經網路的人工智慧加速器。
深度神經網路(Deep Neural Network,DNN)近年來發展迅速。應用DNN進行影像辨識的精確度也逐漸提高,甚至比人類辨識得更為精準。為了配合DNN的計算需求,人工智慧加速器(即運行DNN模型的處理器)必須提升硬體效能。從穿戴裝置、行動通訊裝置以至於自駕車、雲端伺服器所用的人工智慧系統,其所需的運算量隨著裝置規模而指數性成長。
一般而言,DNN專用的處理器須滿足計算力與輸入輸出頻寬兩方面的需求。增加運算單元(Processing Element,PE)的數量理論上可提升運算力,然而也需要一個適用於大量運算單元的資料網路架構才能將輸入資料即時地送入每一個運算單元。對於一個運算單元,其電路面積中佔最大比例部分的是儲存元件,其次才是控制邏輯與運算邏輯。考慮到大量運算單元所伴隨的功耗與電路面積,如何設計良好的資料傳輸路徑,藉此減少儲存元件的用量成為設計人工智慧加速器時的一個重要議題。
有鑑於此,本發明提出一種運算單元架構、運算單元叢集及卷積運算的執行方法,在保有人工智慧加速器原本的運算效能的同時減少所需的儲存空間,並且兼具延展性。
依據本發明一實施例的一種運算單元架構,適用於一卷積運算,該架構包括:多個運算單元,該些運算單元中具有一第一運算單元及一第二運算單元,該第一運算單元及該第二運算單元至少依據一共用資料進行該卷積運算;以及一延遲佇列,連接該第一運算單元及該第二運算單元,該延遲佇列接收該第一運算單元傳送的該共用資料,並在接收該共用資料且經過一延遲週期後將該共用資料傳送至該第二運算單元。
依據本發明一實施例的一種運算單元叢集,適用於一卷積運算,該叢集包括:一第一運算群,具有多個第一運算單元;一第二運算群,具有多個第二運算單元;一匯流排,連接該第一運算群及該第二運算群,該匯流排提供多個共用資料至每一該些第一運算單元;以及多個延遲佇列,該些延遲佇列中的一者連接該些第一運算單元中的一者及該些第二運算單元中的一者,該些延遲佇列中的另一者連接該些第二運算單元的二者,且每一該些延遲佇列傳遞該些共用資料中的一者;其中該第一運算群中的每一該些第一運算單元包括一儲存裝置,該儲存裝置用以儲存該些共用資料中對應的該者;且該第二運算群中的每一該些第二運算單元不包括該儲存裝置。
依據本發明一實施例的一種卷積運算的執行方法,適用於本發明一實施例的運算單元架構,該方法包括:以該第一運算單元接收一輸入資料及 該共用資料並依據該輸入資料及該共用資料執行該卷積運算;以該第一運算單元傳送該共用資料至該延遲佇列;以該延遲佇列等待該延遲週期;在該延遲佇列等待該延遲週期之後,以該延遲佇列傳送該共用資料至該第二運算單元;以及以該第二運算單元接收另一輸入資料,並依據該另一輸出資料及該共用資料進行該卷積運算。
以上之關於本揭露內容之說明及以下之實施方式之說明係用以示範與解釋本發明之精神與原理,並且提供本發明之專利申請範圍更進一步之解釋。
10、10’:運算單元架構
PE1:第一運算單元
PE2、PE2a、PE2b:第二運算單元
MAC:運算電路
M1:第一儲存裝置
M2:第二儲存裝置
Q、Q1、Q2:延遲佇列
20:運算單元叢集
21:第一運算群
22:第二運算群
23:資料匯流排
S1~S8:步驟
圖1是本發明一實施例的運算單元架構的方塊圖;圖2是本發明另一實施例的運算單元架構的方塊圖;圖3是本發明一實施例的運算單元叢集的方塊圖;以及圖4是本發明一實施例的卷積運算的執行方法的流程圖。
以下在實施方式中詳細敘述本發明之詳細特徵以及特點,其內容足以使任何熟習相關技藝者了解本發明之技術內容並據以實施,且根據本說明書所揭露之內容、申請專利範圍及圖式,任何熟習相關技藝者可輕易地理解本發明相關之構想及特點。以下之實施例係進一步詳細說明本發明之觀點,但非以任何觀點限制本發明之範疇。
本發明涉及人工智慧加速器中的處理單元陣列(Processing Element Array,PE Array)。處理單元陣列用於處理一或多個卷積(convolution)運算。處理單元陣列從總體緩衝器(global buffer,GLB)接收卷積運算時所需的輸入資料,例如輸入特徵圖(input feature map,ifmap)、卷積核(kernel map)以及部分和(partial sum)等。處理單元陣列中包含多個處理單元。一般而言,每個處理單元包含暫存記憶體(scratch pad memory,spad),用於暫存前述的輸入資料、乘積累加運算(Multiply Accumulate,MAC)器以及控制邏輯。
本發明提出的運算單元架構包括兩種運算單元:第一運算單元及第二運算單元,其中第一運算單元PE1的數量為1個,第二運算單元PE2的數量至少為1個以上。圖1及圖2分別繪示「一個第二運算單元」及「兩個第二運算單元」的二實施例。「兩個以上的第二運算單元」的實施例則可按照圖1及圖2自行推得。
圖1是本發明一實施例的運算單元架構的方塊圖。所述的運算單元架構適用於卷積運算,且包括多個運算單元以及一延遲佇列。圖1所示的運算單元架構10包括一個第一運算單元PE1、一個第二運算單元PE2以及一個延遲佇列Q。
第一運算單元PE1及第二運算單元PE2至少依據一共用資料進行卷積運算。在一實施例中,共用資料為卷積核或過濾器(filter)。第一運算單元PE1包括第一儲存裝置M1、第二儲存裝置M2及運算電路MAC。第二運算單元PE2的硬體結構類似於第一運算單元PE1,其差別在於第二運算單元PE2並沒有設置第一儲存裝置M1。實務上,第一儲存裝置M1用於暫存共用資料,例如卷積核或過濾器。第二儲存裝置M2用於暫存非共用資料,例如輸入特徵圖或部分和。運算電路MAC例如為乘積累加運算器。運算電路MAC依據取自第一儲存裝置M1 的卷積核、取自第二儲存裝置M2的輸入特徵圖、以及取自第二儲存裝置M2的部分和等資料進行卷積運算。卷積核屬於共用資料,輸入特徵圖及部分和屬於非共用資料。實務上,輸入特徵圖及部分和可分別儲存在兩個相異的儲存裝置,或是儲存在一個儲存裝置下的相異儲存空間,本發明對此不予限制。
延遲佇列(delayed-control queue)Q連接第一運算單元PE1及第二運算單元PE2。延遲佇列Q用以接收第一運算單元PE1傳送的共用資料,並在接收共用資料且經過一延遲週期P後將共用資料傳送至第二運算單元PE2。實務上,延遲佇列Q具有先進先出(First In-First Out,FIFO)的資料結構。舉例說明如下,其中以Tk代表第k個單位時間;在Tk時,第一運算單元PE1傳送共用資料F1至延遲佇列Q;在Tk+1時,第一運算單元PE1傳送共用資料F2至延遲佇列Q;因此,在第Tk+P時,第二運算單元PE2從延遲佇列Q接收到共用資料F1:且在第Tk+1+P時,第二運算單元PE2從延遲佇列Q接收到共用資料F2。
在本發明一實施例中,延遲週期P的數量級與卷積運算的步幅(stride)數值相同。舉例來說,若步幅為2,則延遲週期亦為2個單位時間。
在本發明一實施例中,延遲佇列Q的儲存空間的大小(size)不小於卷積運算的步幅。舉例說明如下,若卷積運算的步幅為3,且第一運算單元PE1在Tk時取得共用資料F1並進行第一次卷積運算,則第一運算單元PE1將在Tk+3時取得共用資料F4並進行第二次卷積運算。然而,在Tk+1至Tk+2的期間,延遲佇列Q仍需要暫存來自第一運算單元PE1的共用資料F2及共用資料F3,且在Tk+3時,延遲佇列Q將共用資料F1傳送至第二運算裝置PE2。因此延遲佇列Q至少需要3個單位空間,用於儲存共用資料F1~F3。
圖2是本發明另一實施例的運算單元架構10’的方塊圖。相較於前一實施例,此實施例的運算單元架構10’包括一個第一運算單元PE1、一個第二運算單元PE2a、另一個第二運算單元PE2b、一個延遲佇列Q1以及另一個延遲佇列Q2。第二運算單元PE2a及另一第二運算單元PE2b至少依據共用資料進行卷積運算。另一延遲佇列Q2連接第二運算單元PE2a及另一第二運算單元PE2b。此另一延遲佇列Q2接收第二運算單元PE2a傳送的共用資料,並在接收共用資料且經過延遲週期後將共用資料傳送至另一第二運算單元PE2b。實務上,可依據需求,自行增加串接在第一運算單元PE1後的多個第二運算單元PE2以及對應這些第二運算單元PE2的延遲佇列Q。由上述可知,運算單元架構10中的延遲佇列Q的數量與第二運算單元PE2的數量相同。
圖3是本發明一實施例的運算單元叢集20的方塊圖。所述的運算單元叢集20適用於卷積運算,且包括第一運算群21、第二運算群22、匯流排23以及多個延遲佇列Q。第一運算群21及第二運算群22排列為M列N行的二維陣列。在M列中的每一者具有多個第一運算單元中的一個及多個第二運算單元中的(N-1)個。在圖3繪示的範例中,M=3且N=7,然而本發明並不限制M及N的數值大小。延遲佇列Q具有M組,這M組的每一者具有(N-1)個延遲佇列Q。
第一運算群21具有M個第一運算單元PE1,第一運算群21中的每個第一運算單元PE1與前一實施例所述的第一運算單元PE1相同。第一運算單元PE1具有用以儲存共用資料的第一儲存裝置M1。
第二運算群22具有M×(N-1)個第二運算單元PE2。第二運算群22中的每個第二運算單元PE2不包括第一儲存裝置M1。
匯流排23連接第一運算群21及第二運算群22。在本發明一實施例中,匯流排23至連接每一個第一運算單元PE1,且匯流排23連接至每一個第二運算單元PE2。匯流排23提供多個共用資料至每個第一運算單元PE1。匯流排23提供多個非共用資料至每個第一運算單元PE1及每個第二運算單元PE2。共用資料及非共用資料的來源例如為GLB。
請參考圖3,運算單元叢集20的延遲佇列Q的數量有M×(N-1)個,每個延遲佇列Q用以傳遞共用資料。
這些延遲佇列Q中的一者連接這些第一運算單元PE1中的一者及這些第二運算單元PE2中的一者。這些延遲佇列Q中的另一者連接這些第二運算單元PE2的二者,且每個些延遲佇列Q傳遞這些共用資料中的一者。換個角度而言,第一運算群21中的每個第一運算單元PE1藉由一延遲佇列Q連接第二運算群22中的一個第二運算單元PE2。第二運算群22中位於同一列且相鄰二行的二個第二運算單元PE2透過該些延遲佇列中的一者彼此連接。
圖4是本發明一實施例的卷積運算的執行方法的流程圖。圖4所示的卷積運算的執行方法適用於圖1所示的運算單元架構10、圖2所示的運算單元架構10’或圖3所示的運算單元叢集20。
步驟S1為「第一運算單元PE1接收輸入資料及共用資料,並依據輸入資料及共用資料執行卷積運算」。輸入資料及共用資料例如由匯流排23傳送至第一運算單元PE1。
步驟S2為「第一運算單元PE1傳送共用資料至第k個延遲佇列Q,其中k=1」。k同時代表延遲佇列的編號及第二處理單元的編號。步驟S1及S2並不限制先後執行順序。步驟S1及S2可同時執行。
步驟S3為「第k個延遲佇列Q等待一延遲時間」。延遲時間的長度取決於卷積運算的步幅。
步驟S4為「第k個延遲佇列Q傳送共用資料至第k個第二運算單元PE2」。
步驟S5為「第k個第二運算單元PE2接收另一輸入資料,並依據另一輸出資料及共用資料進行卷積運算」。
步驟S6為「判斷第k個第二運算單元PE2是否為最後一個第二運算單元PE2」。若步驟S6的判斷結果為是,則結束本發明一實施例的卷積運算的執行方法。若步驟S6的判斷結果為否,則執行步驟S7。
步驟S7為「第k個第二運算單元PE2傳送共用資料至第k+1個延遲佇列Q」。步驟S7類似於步驟S2,步驟S7及S2皆為第一運算單元PE1或第二運算單元PE2將共用資料傳送至下一級的延遲佇列Q。步驟S8為「k=k+1」,即遞增k的值。依據運算單元架構10或10’中的第二運算單元PE2的數量,步驟S3~S8可能被重複執行複數次。
綜上所述,本發明提出的運算單元架構、運算單元叢集及卷積運算的執行方法藉由第二運算單元及延遲佇列的設計,可節省原本用於儲存共用資料的大量儲存裝置。當人工智慧加速器中屬於第二運算群的第二運算單元的數量愈多,應用本發明可節省的電路面積愈大,藉此也節省大量的功率消耗。
雖然本發明以前述之實施例揭露如上,然其並非用以限定本發明。在不脫離本發明之精神和範圍內,所為之更動與潤飾,均屬本發明之專利保護範圍。關於本發明所界定之保護範圍請參考所附之申請專利範 圍。
10:運算單元架構
PE1:第一運算單元
PE2:第二運算單元
M1:第一儲存裝置
M2:第二儲存裝置
Q:延遲佇列
MAC:運算電路

Claims (8)

  1. 一種運算單元架構,適用於一卷積運算,該架構包括:多個運算單元,該些運算單元中具有一第一運算單元及一第二運算單元,該第一運算單元及該第二運算單元至少依據一共用資料進行該卷積運算;以及一延遲佇列,連接該第一運算單元及該第二運算單元,該延遲佇列接收該第一運算單元傳送的該共用資料,並在接收該共用資料且經過一延遲週期後將該共用資料傳送至該第二運算單元;其中該延遲週期的數量級與該卷積運算的步幅數值相同。
  2. 如請求項1的運算單元架構,其中該些運算單元中具有另一第二運算單元,該第二運算單元及該另一第二運算單元至少依據該共用資料進行該卷積運算;以及該運算單元架構更包括另一延遲佇列,該另一延遲佇列連接該第二運算單元及該另一第二運算單元,該另一延遲佇列接收該第二運算單元傳送的該共用資料,並在接收該共用資料且經過該延遲週期後將該共用資料傳送至該另一第二運算單元。
  3. 如請求項1的運算單元架構,其中該延遲佇列的儲存空間不小於該卷積運算的步幅。
  4. 一種運算單元叢集,適用於一卷積運算,該叢集包括:一第一運算群,具有多個第一運算單元;一第二運算群,具有多個第二運算單元;一匯流排,連接該第一運算群及該第二運算群,該匯流排提供多個共用資料至每一該些第一運算單元;以及 多個延遲佇列,該些延遲佇列中的一者連接該些第一運算單元中的一者及該些第二運算單元中的一者,該些延遲佇列中的另一者連接該些第二運算單元的二者,且每一該些延遲佇列傳遞該些共用資料中的一者;其中該第一運算群中的每一該些第一運算單元包括一儲存裝置,該儲存裝置用以儲存該些共用資料中對應的該者;且該第二運算群中的每一該些第二運算單元不包括該儲存裝置。
  5. 如請求項4的運算單元叢集,其中該儲存裝置為第一儲存裝置,且每一該些第一運算單元及每一該些第二運算單元更包括:一第二儲存裝置,用以儲存一非共用資料;以及一運算電路,電性連接該第一儲存裝置及該第二儲存裝置,且該運算電路依據該些共用資料中對應的該者及該非共用資料執行該卷積運算。
  6. 如請求項4的運算單元叢集,其中該第一運算群及該第二運算群形成M列N行的二維陣列,該M列中的每一者具有該些第一運算單元中的一個及該些第二運算單元中的(N-1)個;該些延遲佇列具有M組,該M組的每一者具有(N-1)個延遲佇列。
  7. 一種運算單元架構的執行方法,適用於請求項1的運算單元架構,該方法包括:以該第一運算單元接收一輸入資料及該共用資料並依據該輸入資料及該共用資料執行該卷積運算;以該第一運算單元傳送該共用資料至該延遲佇列;以該延遲佇列等待該延遲週期; 在該延遲佇列等待該延遲週期之後,以該延遲佇列傳送該共用資料至該第二運算單元;以及以該第二運算單元接收另一輸入資料,並依據該另一輸出資料及該共用資料進行該卷積運算。
  8. 如請求項7的卷積運算的執行方法,其中該共用資料為卷積核,且該輸入資料包括輸入特徵圖及部分和。
TW109146644A 2020-12-29 2020-12-29 運算單元架構、運算單元叢集及卷積運算的執行方法 TWI753728B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
TW109146644A TWI753728B (zh) 2020-12-29 2020-12-29 運算單元架構、運算單元叢集及卷積運算的執行方法
CN202111173336.4A CN114692853A (zh) 2020-12-29 2021-10-08 运算单元架构、运算单元丛集及卷积运算的执行方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW109146644A TWI753728B (zh) 2020-12-29 2020-12-29 運算單元架構、運算單元叢集及卷積運算的執行方法

Publications (2)

Publication Number Publication Date
TWI753728B true TWI753728B (zh) 2022-01-21
TW202226073A TW202226073A (zh) 2022-07-01

Family

ID=80809073

Family Applications (1)

Application Number Title Priority Date Filing Date
TW109146644A TWI753728B (zh) 2020-12-29 2020-12-29 運算單元架構、運算單元叢集及卷積運算的執行方法

Country Status (2)

Country Link
CN (1) CN114692853A (zh)
TW (1) TWI753728B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI645301B (zh) * 2015-05-21 2018-12-21 美商谷歌有限責任公司 使用類神經網路處理器計算卷積
US10467501B2 (en) * 2017-10-30 2019-11-05 Sap Se Computer vision architecture with machine learned image recognition models

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI645301B (zh) * 2015-05-21 2018-12-21 美商谷歌有限責任公司 使用類神經網路處理器計算卷積
US10467501B2 (en) * 2017-10-30 2019-11-05 Sap Se Computer vision architecture with machine learned image recognition models

Also Published As

Publication number Publication date
CN114692853A (zh) 2022-07-01
TW202226073A (zh) 2022-07-01

Similar Documents

Publication Publication Date Title
US11720523B2 (en) Performing concurrent operations in a processing element
US10445638B1 (en) Restructuring a multi-dimensional array
US11797853B2 (en) Processing for multiple input data sets
CN109102065B (zh) 一种基于PSoC的卷积神经网络加速器
US11775430B1 (en) Memory access for multiple circuit components
US11461631B2 (en) Scheduling neural network computations based on memory capacity
CN110751280A (zh) 一种应用于卷积神经网络的可配置卷积加速器
US20180039884A1 (en) Systems, methods and devices for neural network communications
CN111465943B (zh) 一种集成电路和用于神经网络处理的方法
WO2020133317A1 (zh) 计算资源分配技术及神经网络系统
EP3686816A1 (en) Techniques for removing masks from pruned neural networks
CN113435682A (zh) 分布式训练的梯度压缩
WO2016123808A1 (zh) 数据处理系统、计算节点和数据处理的方法
US11275997B1 (en) Weight loading in an array
WO2023065983A1 (zh) 计算装置、神经网络处理设备、芯片及处理数据的方法
WO2020133463A1 (zh) 神经网络系统及数据处理技术
Min et al. NeuralHMC: An efficient HMC-based accelerator for deep neural networks
TWI753728B (zh) 運算單元架構、運算單元叢集及卷積運算的執行方法
JP7108702B2 (ja) 複数の入力データセットのための処理
CN113222099A (zh) 卷积运算方法及芯片
CN113222136A (zh) 卷积运算方法及芯片
CN115994040A (zh) 计算系统以及进行数据广播和数据归约的方法及存储介质
CN110929854B (zh) 一种数据处理方法、装置及硬件加速器
US20220207323A1 (en) Architecture and cluster of processing elements and operating method for convolution
Wu et al. Accelerator design for vector quantized convolutional neural network