TWI760690B - 一種資料傳輸系統及其資源配置方法 - Google Patents
一種資料傳輸系統及其資源配置方法 Download PDFInfo
- Publication number
- TWI760690B TWI760690B TW109103218A TW109103218A TWI760690B TW I760690 B TWI760690 B TW I760690B TW 109103218 A TW109103218 A TW 109103218A TW 109103218 A TW109103218 A TW 109103218A TW I760690 B TWI760690 B TW I760690B
- Authority
- TW
- Taiwan
- Prior art keywords
- controlled device
- arbiter
- master
- information
- performance information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
- G06F13/14—Handling requests for interconnection or transfer
- G06F13/36—Handling requests for interconnection or transfer for access to common bus or bus system
- G06F13/362—Handling requests for interconnection or transfer for access to common bus or bus system with centralised access control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
- Bus Control (AREA)
Abstract
一種資料傳輸系統及其資源配置方法。資料傳輸系統用於:擷取主控裝置資源資訊以及受控裝置效能資訊;基於類神經網路模型,根據主控裝置資源資訊以及受控裝置效能資訊決定至少一仲裁器設定參數;以及根據至少一仲裁器設定參數決定至少一主控裝置之資源配置設定。
Description
本發明係關於一種資料傳輸系統及其資源配置方法,尤其是關於一種動態設定仲裁器之資料傳輸系統及其資源配置方法。
習知技術中,仲裁器(arbiter)根據主控裝置(master device)之資源需求,決定主控裝置對受控裝置(slave device)之存取順序,因此,仲裁器之設定將影響資料傳輸效率。
惟現有資料傳輸流程中,仲裁器之設定於決定後多無法更動。即便可以微調,也須由人為判斷須調整之內容後輸入參數並重啟系統。此種方式除浪費多餘操作時間外,亦可能導致資料傳輸效率更差。
有鑑於此,本發明的目的在於提供一種用於資料傳輸系統之資源配置方法,包含:擷取主控裝置資源資訊以及受控裝置效能資訊;基於類神經網路模型,根據主控裝置資源資訊以及受控裝置效能資訊決定至少一仲裁器設定參數;以及根據至少一仲裁器設定參數決定至少一主控裝置之資源配置設定。
本發明另提供一種資料傳輸系統,包含仲裁器參數產生模組以及仲裁器。仲裁器參數產生模組包含處理單元以及儲存單元。儲存單元儲存類神經網路模型以及程式。程式執行後引起處理單元:擷取主控裝置資源資訊以及受控裝置效能資訊;以及基於類神經網路模型,根據主控裝置資源資訊以及受控裝置效能資訊決定至少一仲裁器設定參數。仲裁器與仲裁器參數產生模組電性連結,用以根據至少一仲裁器設定參數決定至少一主控裝置之資源配置設定。
本發明另提供一種仲裁器參數產生模組,包含處理單元以及儲存單元。儲存單元儲存類神經網路模型以及程式。程式執行後引起處理單元:擷取主控裝置資源資訊以及受控裝置效能資訊;以及基於類神經網路模型,根據主控裝置資源資訊以及受控裝置效能資訊決定至少一仲裁器設定參數。
在下文更詳細地論述本發明之實施例。然而,應瞭解,本發明提供可在廣泛多種特定情境中體現之許多適用的概念。所論述特定實施例僅為說明性的且並不限制本發明之範疇。
為了得以根據主控裝置(master device)及受控裝置(slave device)間之即時資料傳輸狀態,動態地調整仲裁器(arbiter)之設定參數,使存取效率提升,本發明提供一種資料傳輸系統10。請參閱圖1A,其係本發明一些實施例之資料傳輸系統10之方塊圖。資料傳輸系統10包含一仲裁器參數產生模組101以及一仲裁器103。
仲裁器參數產生模組101包含一處理單元101P以及一儲存單元101S。處理單元101P以及儲存單元101S透過一匯流排101B電性連接。透過匯流排101B,處理單元101P可執行儲存單元101S儲存之一程式PG1。程式PG1執行時引發處理單元101P執行動態資源配置功能。相關動態資源配置功能將於下文中進一步闡述。
請一併參閱圖1B,其係本發明之資料傳輸系統10之操作示意圖。如圖所示,資料傳輸系統10之仲裁器103與至少一主控裝置M1以及至少一受控裝置S1透過資料傳輸介面(未繪示)電性連結,用以根據至少一主控裝置M1之存取需求,將至少一受控裝置S1之資源配置予至少一主控裝置M1使用。其中,仲裁器103進一步基於仲裁器參數產生模組101傳送之相關設定參數,將至少一受控裝置S1之資源配置予至少一主控裝置M1使用。
具體而言,當仲裁器參數產生模組101之程式PG1執行時,引發處理單元101P擷取與至少一主控裝置M1相關之一主控裝置資源資訊90,並擷取與至少一受控裝置S1相關之一受控裝置效能資訊80。接著,處理單元101P基於儲存於儲存單元101S之一類神經網路(Neural Network)模型NN1,根據主控裝置資源資訊90以及受控裝置效能資訊80決定至少一仲裁器設定參數100。
據此,由於仲裁器參數產生模組101以及仲裁器103透過資料傳輸介面(未繪示)電性連結,因此,仲裁器參數產生模組101可經由資料傳輸介面將至少一仲裁器設定參數100傳送至仲裁器103。如此一來,仲裁器103便可基於至少一仲裁器設定參數100,決定至少一主控裝置M1之資源配置設定。換言之,仲裁器103基於至少一仲裁器設定參數100,決定至少一主控裝置M1存取至少一受控裝置S1之順序。
需特別說明,類神經網路模型NN1主要係被訓練用以將主控裝置資源資訊以及受控裝置效能資訊作為輸入,並輸出相對應之仲裁器設定參數。詳細來說,類神經網路模型NN1於訓練過程中,複數組資料用以訓練類神經網路模型NN1。每一組資料包含某一時間區間之主控裝置資源資訊、同一時間區間之受控裝置效能資訊以及同一時間區間內仲裁器103使用之仲裁器設定參數。
更進一步來說,以同一組資料之主控裝置資源資訊、受控裝置效能資訊以及仲裁器設定參數為例,當仲裁器103基於主控裝置之主控裝置資源資訊,利用仲裁器設定參數配置受控裝置之資源予主控裝置時,受控裝置將會具有相對應之受控裝置效能資訊。
隨後,主控裝置資源資訊以及受控裝置效能資訊反饋輸入至類神經網路模型NN1,而類神經網路模型NN便可據以計算並更新仲裁器設定參數,以嘗試提升受控裝置之受控裝置效能資訊。
於一些實施中,本發明提供一種資料傳輸系統20。請參閱圖2A,其係本發明一些實施例之資料傳輸系統20之方塊圖。資料傳輸系統10包含一仲裁器參數產生模組201、一仲裁器203、一主控裝置監控器205、一受控裝置監視器207以及一受控裝置效能計算單元209。其中,仲裁器參數產生模組201、仲裁器203、主控裝置監控器205、受控裝置監視器207以及受控裝置效能計算單元209間透過資料傳輸介面電性連結。
仲裁器參數產生模組201包含一處理單元201P以及一儲存單元201S。處理單元201P以及儲存單元201S透過一匯流排201B電性連接。透過匯流排201B,處理單元201P可執行儲存單元201S儲存之一程式PG2。程式PG2執行時引發處理單元201P執行動態資源配置功能。相關動態資源配置功能將於下文中進一步闡述。
請一併參閱圖2B,其係本發明之資料傳輸系統20之操作示意圖。如圖所示,資料傳輸系統20之仲裁器203與複數主控裝置M2以及複數受控裝置S2透過資料傳輸介面(未繪示)電性連結。仲裁器203基於仲裁器參數產生模組201傳送之相關設定參數,將受控裝置S2之資源配置予主控裝置M2使用。
具體而言,主控裝置監控器205透過資料傳輸介面(未繪示)與複數主控裝置M2電性連結,用於監視主控裝置M2以產生一主控裝置資源資訊70。其中,主控裝置資源資訊70包含各主控裝置M2之頻寬需求資訊以及各主控裝置M2之存取時間容忍值。頻寬需求資訊主要係主控裝置M2對於資料頻寬之需求,存取時間容忍值主要係主控裝置M2對於存取操作所耗費時間的最大可容許值。
另一方面,受控裝置監控器207透過資料傳輸介面與複數受控裝置S2電性連結,用於監視受控裝置S2以產生一受控裝置資源資訊60。其中,受控裝置資源資訊60包含各受控裝置S2之存取頻寬總量、各受控裝置S2對於每一主控裝置M2之最大存取完成時間,以及各受控裝置S2對於每一主控裝置M2之平均存取完成時間。
存取頻寬總量主要係受控裝置S2提供之存取頻寬總量,最大存取完成時間主要係受控裝置S2對於每一主控裝置M2之所有存取操作中,耗費最多時間之時間值,平均存取時間完成時間主要係受控裝置S2對於每一主控裝置M2之所有存取操作耗費時間之平均時間值。
接著,受控裝置效能計算單元209根據受控裝置資源資訊60計算受控裝置S2之一受控裝置效能資訊50。詳言之,受控裝置效能計算單元209存有多個權重值,分別相對應於受控裝置資源資訊60之存取頻寬總量、最大存取完成時間以及平均存取完成時間。
據此,受控裝置效能計算單元209可根據存取頻寬總量及其權重值、最大存取完成時間及其權重值、平均存取完成時間及其權重值,計算受控裝置效能資訊50。於一些實施例中,存取頻寬總量、最大存取完成時間以及平均存取完成時間相對應之權重值之總和為一,受控裝置效能資訊50可為存取頻寬總量及其權重值之乘積、最大存取完成時間及其權重值之乘積、平均存取完成時間及其權重值之乘積三者之總和。於一些實施例中,受控裝置效能資訊50包含分數或百分比等量化後之資訊,數值越高代表主控裝置M2存取受控裝置S2之效能越佳。
接著,當仲裁器參數產生模組201之程式PG2執行時,引發處理單元201P週期性地自主控裝置監視器205擷取主控裝置資源資訊70,並週期性地自受控裝置效能計算單元209接收受控裝置效能資訊50。隨後,處理單元201P基於儲存於儲存單元201S之一類神經網路模型NN2,根據主控裝置資源資訊70以及受控裝置效能資訊50決定至少一仲裁器設定參數200。其中,至少一仲裁器設定參數200包含一存取優先權參數。
據此,由於仲裁器參數產生模組201以及仲裁器203透過資料傳輸介面(未繪示)電性連結,因此,仲裁器參數產生模組201可經由資料傳輸介面將至少一仲裁器設定參數200傳送至仲裁器203。如此一來,仲裁器203便可基於至少一仲裁器設定參數200包含之存取優先權參數,決定主控裝置M2之資源配置設定。換言之,仲裁器203基於存取優先權參數,決定各主控裝置M2存取受控裝置S2之優先順序。
需特別說明,類神經網路模型NN2主要係被訓練用以將主控裝置資源資訊(即主控裝置之頻寬需求資訊以及存取時間容忍值)以及受控裝置效能資訊(利用受控裝置之存取頻寬總量、最大存取完成時間、平均存取完成時間及相對應之權重值計算所得)作為輸入,並輸出相對應之仲裁器設定參數。
詳細來說,類神經網路模型NN2於訓練過程中,複數組資料用以訓練類神經網路模型NN2。每一組資料包含某一時間區間之主控裝置之頻寬需求資訊以及存取時間容忍值、同一時間區間之受控裝置效能資訊以及同一時間區間內仲裁器203使用之仲裁器設定參數。
更進一步來說,以同一組資料之主控裝置之頻寬需求資訊以及存取時間容忍值、受控裝置效能資訊以及仲裁器設定參數為例,當仲裁器203基於主控裝置之頻寬需求資訊以及存取時間容忍值,利用仲裁器設定參數配置受控裝置之資源予主控裝置時,受控裝置效能計算單元209將會根據受控裝置之存取頻寬總量、最大存取完成時間、平均存取完成時間及相對應之權重值,計算受控裝置之受控裝置效能資訊。
隨後,主控裝置之頻寬需求資訊、存取時間容忍值以及受控裝置效能資訊反饋輸入至類神經網路模型NN2,而類神經網路模型NN2便可據以計算並更新仲裁器設定參數,以嘗試提升受控裝置之受控裝置效能資訊。
於一些實施例中,當仲裁器參數產生模組201之程式PG2執行時,引發處理單元201P自動地調整類神經網路模型NN2中所使用之權重值,以使類神經網路模型NN2完成最佳化之自我學習(Self-Learning)。
具體而言,主控裝置資源資訊(主控裝置之頻寬需求資訊、存取時間容忍值)以及受控裝置效能資訊反饋輸入至類神經網路模型NN2後,仲裁器參數產生模組201便可據以得知主控裝置資源資訊(主控裝置之頻寬需求資訊、存取時間容忍值)搭配之權重值所產生之受控裝置效能資訊。舉例而言,當相對應之主控裝置資源資訊Data Set A以及受控裝置效能資訊Data Set B反饋輸入至類神經網路模型NN2後,仲裁器參數產生模組201可據以得知主控裝置資源資訊Data Set A搭配權重值Data Set W之操作,將產生之受控裝置效能資訊Data Set B。
接著,仲裁器參數產生模組201可根據不同之網路環境參數,自動地調整類神經網路模型NN2所使用之權重值(相應於主控裝置之頻寬需求資訊、存取時間容忍值之權重值),藉以嘗試獲得較高之受控裝置效能資訊。舉例而言,當主控裝置資源資訊之頻寬需求資訊、存取時間容忍值搭配權重值0.7及0.3產生自訂量化之受控裝置效能資訊85分時,仲裁器參數產生模組201根據不同之網路環境參數調整權重值0.7及0.3之比例(例如將頻寬需求資訊調整為0.8,並將存取時間容忍值之權重值調整為0.2),以嘗試於後續操作中獲得比受控裝置效能資訊85分更高之受控裝置效能資訊(例如:90分)。
如此一來,透過反覆之權重值調整嘗試提高受控裝置效能資訊,仲裁器參數產生模組201之類神經網路模型NN2之仲裁器設定參數將可達最佳化。換言之,透過前述自我學習之操作,調整後之類神經網路模型NN2之仲裁器設定參數應可提高受控裝置效能資訊。
本發明之一些實施例包含資源配置方法,其流程圖如圖3所示。這些實施例之資源配置方法由一資料傳輸系統(如前述實施例之資料傳輸系統10)實施。方法之詳細操作如下。
首先,執行步驟S301,擷取一主控裝置資源資訊以及一受控裝置效能資訊。執行步驟S302,基於一類神經網路模型,根據主控裝置資源資訊以及受控裝置效能資訊決定至少一仲裁器設定參數。詳細來說,類神經網路模型接收主控裝置資源資訊以及受控裝置效能資訊作為輸入,並輸出至少一仲裁器設定參數。執行步驟S303,根據至少一仲裁器設定參數決定至少一主控裝置之資源配置設定。換言之,根據至少一仲裁器設定參數,決定至少一主控裝置存取至少一受控裝置之順序。
本發明之一些實施例包含網路封包處理方法,其流程圖如圖4A至圖4B所示。這些實施例之網路封包處理方法由一資料傳輸系統(如前述實施例之資料傳輸系統20)實施。方法之詳細操作如下。
首先,執行步驟S401A以及步驟S401B。其中,主控裝置資源資訊包含一頻寬需求資訊以及一存取時間容忍值。步驟S401A係週期性地自一主控裝置監控器接收一主控裝置資源資訊。其中,步驟S401B係週期性地自一受控裝置效能計算單元接收一受控裝置效能資訊。於一些實施例中,主控裝置資源資訊包含複數主控裝置之頻寬需求資訊以及存取時間容忍值。
需特別說明,於一些實施例中,受控裝置效能資訊係於步驟A中計算完成。請一併參考圖4B,步驟A包含步驟A1以及步驟A2。詳言之,執行步驟A1,擷取一受控裝置資源資訊。其中,受控裝置資源資訊可自用於監視複數受控裝置之一受控裝置監視器接收。受控裝置資源資訊包含與複數受控裝置相關之一存取頻寬總量、一最大存取完成時間以及一平均存取完成時間。
於一些實施例中,存取頻寬總量、最大存取完成時間以及平均存取完成時間具有相對應之權重值,據此,執行步驟A2,根據受控裝置資源資訊及其相對應之權重值,計算受控裝置效能資訊。換言之,即根據與複數受控裝置相關之存取頻寬總量及其權重值、最大存取完成時間及其權重值、平均存取完成時間及其權重值,計算受控裝置效能資訊。
當主控裝置資源資訊以及受控裝置效能資訊擷取後,執行步驟S402,基於類神經網路模型,根據主控裝置資源資訊以及受控裝置效能資訊決定至少一仲裁器設定參數。其中,至少一仲裁器設定參數包含一存取優先權參數。據此,執行步驟S403,根據仲裁器設定參數之存取優先權參數,決定主控裝置存取受控裝置之優先順序。
須說明,於一些實施例中,主控裝置包含計算裝置(例如:中央處理器CPU、圖形處理器GPU等),受控裝置包含記憶體裝置(例如:隨機存取記憶體RAM、雙倍資料率同步隨機存取記憶體DDR SRAM等),惟其並非用以限制本發明主控裝置以及受控裝置之實施態樣。
本發明可利用任何適當的形式來實現,包含硬體、軟體、韌體或是以上的任意組合。至少部分本發明可選擇性地被實現為運行在一個或多個資料處理器及/或數位訊號處理器或可配置的模塊元件(例如FPGA)上的電腦軟體。
上文的敘述簡要地提出了本發明某些實施例之特徵,而使得本發明所屬技術領域具有通常知識者能夠更全面地理解本發明內容的多種態樣。本發明所屬技術領域具有通常知識者當可明瞭,其可輕易地利用本發明內容作為基礎,來設計或更動其他製程與結構,以實現與此處該之實施方式相同的目的和/或達到相同的優點。本發明所屬技術領域具有通常知識者應當明白,這些均等的實施方式仍屬於本發明內容之精神與範圍,且其可進行各種變更、替代與更動,而不會悖離本發明內容之精神與範圍。
10:資料傳輸系統
20:資料傳輸系統
50:受控裝置效能資訊
60:受控裝置資源資訊
70:主控裝置資源資訊
80:受控裝置效能資訊
90:主控裝置資源資訊
100:仲裁器設定參數
101:仲裁器參數產生模組
101P:處理單元
101S:儲存單元
101B:匯流排
103:仲裁器
200:仲裁器設定參數
201:仲裁器參數產生模組
201P:處理單元
201S:儲存單元
201B:匯流排
203:仲裁器
205:主控裝置監視器
207:受控裝置監視器
209:受控裝置效能計算單元
A1~A2:步驟
M1:主控裝置
M2:主控裝置
NN1:類神經網路模型
NN2:類神經網路模型
PG1:程式
PG2:程式
S1:受控裝置
S2:受控裝置
S301~S303:步驟
S401A~S403:步驟
結合附圖閱讀以下詳細描述會最佳地理解本發明之態樣。應注意,各種特徵可能未按比例繪製。事實上,可出於論述清楚起見,而任意地增大或減小各種特徵之尺寸。
圖1A為本發明之一些實施例之資料傳輸系統之方塊圖。
圖1B為本發明之一些實施例之資料傳輸系統之操作示意圖。
圖2A為本發明之一些實施例之資料傳輸系統之方塊圖。
圖2B為本發明之一些實施例之資料傳輸系統之操作示意圖。
圖3為本發明之一些實施例之資源配置方法之流程圖。
圖4A至圖4B為本發明之一些實施例之資源配置方法之流程圖。
S301~S303:步驟
Claims (10)
- 一種資源配置方法,包含:擷取與至少一主控裝置相關的一第一主控裝置資源資訊以及與至少一受控裝置相關的一第一受控裝置效能資訊;基於一類神經網路模型,根據該第一主控裝置資源資訊以及該第一受控裝置效能資訊決定至少一第一仲裁器設定參數,其中,該類神經網路模型是利用複數組資料訓練而產生,其中各組資料包含一時間區間之一第二主控裝置資源資訊、該時間區間之一第二受控裝置效能資訊以及該時間區間之一第二仲裁器設定參數;以及根據該至少一第一仲裁器設定參數決定該至少一主控裝置存取該至少一受控裝置之順序。
- 如請求項1所述之資源配置方法,其中,擷取該第一主控裝置資源資訊以及該第一受控裝置效能資訊更包含:週期性地自一主控裝置監控器接收該第一主控裝置資源資訊;以及週期性地自一受控裝置效能計算單元接收該第一受控裝置效能資訊。
- 如請求項2所述之資源配置方法,其中,該第一主控裝置資源資訊包含一頻寬需求資訊以及一存取時間容忍值。
- 如請求項2所述之資源配置方法,更包含:擷取與該至少一受控裝置相關的一受控裝置資源資訊;根據該受控裝置資源資訊計算該第一受控裝置效能資訊。
- 如請求項4所述之資源配置方法,其中,該受控裝置資源資訊包含:一存取頻寬總量、一最大存取完成時間以及一平均存取完成時間。
- 如請求項5所述之資源配置方法,其中,該存取頻寬總量、該最大存取完成時間以及該平均存取完成時間具有相對應之權重值,根據該受控裝置資源資訊計算該第一受控裝置效能資訊更包含:根據該存取頻寬總量、該最大存取完成時間、該平均存取完成時間及相對應之權重值,計算該第一受控裝置效能資訊。
- 如請求項6所述之資源配置方法,其中,該存取頻寬總量、該最大存取完成時間以及該平均存取完成時間相對應之權重值之總和為一。
- 如請求項1所述之資源配置方法,其中,該至少一第一仲裁器設定參數包含一存取優先權參數,決定該至少一主控裝置存取該至少一受控裝置之順序更包含:根據該存取優先權參數決定該至少一主控裝置存取該至少一受控裝置之順序。
- 如請求項1所述之資源配置方法,其中,該至少一主控裝置包含計算裝 置。
- 一種資料傳輸系統,包含:一仲裁器參數產生模組,包含:一處理單元;以及一儲存單元,用於儲存一類神經網路模型以及一程式,其中,該程式執行後引起該處理單元:擷取與至少一主控裝置相關的一第一主控裝置資源資訊以及與至少一受控裝置相關的一第一受控裝置效能資訊;以及基於該類神經網路模型,根據該第一主控裝置資源資訊以及該第一受控裝置效能資訊決定至少一第一仲裁器設定參數;一仲裁器,與該仲裁器參數產生模組電性連結,用以根據該至少一第一仲裁器設定參數決定該至少一主控裝置存取該至少一受控裝置之順序;其中,該類神經網路模型是利用複數組資料訓練而產生,其中,各組資料包含一時間區間之一第二主控裝置資源資訊、該時間區間之一第二受控裝置效能資訊以及該時間區間之一第二仲裁器設定參數。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109103218A TWI760690B (zh) | 2020-02-03 | 2020-02-03 | 一種資料傳輸系統及其資源配置方法 |
US17/039,493 US11481347B2 (en) | 2020-02-03 | 2020-09-30 | Data transmission system and resource allocation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109103218A TWI760690B (zh) | 2020-02-03 | 2020-02-03 | 一種資料傳輸系統及其資源配置方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW202131197A TW202131197A (zh) | 2021-08-16 |
TWI760690B true TWI760690B (zh) | 2022-04-11 |
Family
ID=77411039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW109103218A TWI760690B (zh) | 2020-02-03 | 2020-02-03 | 一種資料傳輸系統及其資源配置方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11481347B2 (zh) |
TW (1) | TWI760690B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI311712B (en) * | 2004-06-25 | 2009-07-01 | Via Tech Inc | Internal bus system |
US7689746B2 (en) * | 2006-02-27 | 2010-03-30 | Infineon Technologies Ag | Bus system employing an arbiter |
US20120041914A1 (en) * | 2010-08-16 | 2012-02-16 | Durga Deep Tirunagari | System and Method for Effective Caching Using Neural Networks |
US20140047148A1 (en) * | 2009-09-15 | 2014-02-13 | Arm Limited | Data processing apparatus and a method for setting priority levels for transactions |
US20190340490A1 (en) * | 2018-05-04 | 2019-11-07 | Apple Inc. | Systems and methods for assigning tasks in a neural network processor |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10048987B1 (en) * | 2015-12-21 | 2018-08-14 | EMC IP Holding Company LLC | Methods and apparatus for a resource sharing platform having resource quality estimation |
US11816552B2 (en) * | 2017-10-26 | 2023-11-14 | International Business Machines Corporation | Dynamically reconfigurable networked virtual neurons for neural network processing |
-
2020
- 2020-02-03 TW TW109103218A patent/TWI760690B/zh active
- 2020-09-30 US US17/039,493 patent/US11481347B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI311712B (en) * | 2004-06-25 | 2009-07-01 | Via Tech Inc | Internal bus system |
US7689746B2 (en) * | 2006-02-27 | 2010-03-30 | Infineon Technologies Ag | Bus system employing an arbiter |
US20140047148A1 (en) * | 2009-09-15 | 2014-02-13 | Arm Limited | Data processing apparatus and a method for setting priority levels for transactions |
US20120041914A1 (en) * | 2010-08-16 | 2012-02-16 | Durga Deep Tirunagari | System and Method for Effective Caching Using Neural Networks |
US20190340490A1 (en) * | 2018-05-04 | 2019-11-07 | Apple Inc. | Systems and methods for assigning tasks in a neural network processor |
Also Published As
Publication number | Publication date |
---|---|
US20210240647A1 (en) | 2021-08-05 |
US11481347B2 (en) | 2022-10-25 |
TW202131197A (zh) | 2021-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
de Souza Carvalho et al. | Dynamic task mapping for MPSoCs | |
US10355966B2 (en) | Managing variations among nodes in parallel system frameworks | |
CN112003763B (zh) | 网络链路的监测方法、监测装置、监测设备及存储介质 | |
US20160378570A1 (en) | Techniques for Offloading Computational Tasks between Nodes | |
KR102382186B1 (ko) | 딥 러닝을 위한 고성능 컴퓨팅 시스템 | |
US9250682B2 (en) | Distributed power management for multi-core processors | |
CN110750351B (zh) | 多核任务调度器、多核任务调度方法、装置及相关产品 | |
US20220006879A1 (en) | Intelligent scheduling apparatus and method | |
WO2021036330A1 (zh) | 备份处理方法及服务器 | |
WO2023093043A1 (zh) | 一种数据处理方法、装置及介质 | |
US20220300323A1 (en) | Job Scheduling Method and Job Scheduling Apparatus | |
US20130219386A1 (en) | Dynamic allocation of compute resources | |
TW202220469A (zh) | 資源管理系統及資源管理方法 | |
CN104243531A (zh) | 一种数据处理的方法、装置及系统 | |
TWI760690B (zh) | 一種資料傳輸系統及其資源配置方法 | |
WO2024037239A1 (zh) | 一种加速器调度方法及相关装置 | |
CN112306628B (zh) | 一种基于多核服务器的虚拟网络功能资源管理系统 | |
Dhakal et al. | ECML: Improving efficiency of machine learning in edge clouds | |
CN111782626A (zh) | 任务分配方法和装置、分布式系统、电子设备和介质 | |
CN103955397A (zh) | 一种基于微架构感知的虚拟机调度多策略选择方法 | |
TWI512485B (zh) | 簽核動態調整方法及系統 | |
JP2020003860A (ja) | 学習システム、処理装置、処理方法、およびプログラム | |
CN110928683B (zh) | 基于两类密集型虚拟机的边缘计算资源分配方法 | |
CN113259977A (zh) | 一种数据传输系统及其资源配置方法 | |
CN116185942A (zh) | 数据处理方法、装置、存储介质以及电子设备 |