TWI442323B - 用於多核心/眾核心的工作排程與分配管理架構及其方法 - Google Patents
用於多核心/眾核心的工作排程與分配管理架構及其方法 Download PDFInfo
- Publication number
- TWI442323B TWI442323B TW100139601A TW100139601A TWI442323B TW I442323 B TWI442323 B TW I442323B TW 100139601 A TW100139601 A TW 100139601A TW 100139601 A TW100139601 A TW 100139601A TW I442323 B TWI442323 B TW I442323B
- Authority
- TW
- Taiwan
- Prior art keywords
- core
- work
- application
- service
- cores
- Prior art date
Links
Landscapes
- Multi Processors (AREA)
Description
一種工作排程與分配管理架構及其方法,尤其是指一種應用工作與服務工作可分開在不同的指定核心來執行之用於多核心/眾核心的工作排程與分配管理架構及其方法。
近年來,對於中央處理器已從單核心架構發展至多核心(multi-core)架構,在核心數量的增加亦由多核心架構發展至眾核心(many-core)架構,並且由於多核心/眾核心架構發展的迅速,系統工程師在設計系統時將會因為核心(core)的擴展面臨更大的挑戰。
在多核心/眾核心架構下,核心會因為資源的共享,進而產生工作阻斷時間(blocking time),以使得部分核心閒置而降低系統效能,為了避免產生上述的問題,核心中的工作排程將是一個重要的部分。
在設計系統時,有許多針對獨立工作固定或動態的優先權考量排程演算法已經被提出,例如:在1991年N. C. Audsley所提出的“Optimal Priority Assignment and Feasibility of Static Priority Tasks with Arbitrary Start Times”、在1982年J. Y.-T. Leung與J. Whitehead所提出的“On the Complexity of Fixed-Priority Scheduling of periodic,Real-Time Tasks”、在1973年C. L. Liu與J. W. Layland所提出的“Scheduling Algorithms for Multiprogramming in a Hard Real Time Environment”以及在1983年A. K. Monk所提出的“Fundamental Design Problems of Distributed Systems for the Hard Real Time Environment”…等。
然而如果工作兼有資源分享的狀況,會產生優先權反轉(priority inversions)的現象,進而產生出不必要的阻斷成本(blocking costs),而為了解決上述的問題,有許多的工作同步協定被提出,例如:1991年T. P. Baker所提出的“Stack-Based Scheduling of Realtime Processes”、1990年M.-I. Chen與K.-J. Lin所提出的“Dynamic Priority Ceilings:A Concurrency Control Protocol for Real-Time System”以及1990年L. Sha、R. Rajkumar與J. P. Lehoczky所提出的“Priority Inheritance Protocol:An Approach to Real-Time Synchronization”…等,而在priority ceiling protocol(PCP)提出在單調速率(rate-monotonic)優先權分配的狀況下,管理優先權最高和優先權繼承以防止死結(deadlock)和優先權反轉的狀況發生。
在多核心/眾核心架構下工作排程與工作同步的問題更為的複雜,因此透過動態工作移動(dynamic task migration)下的全局排程(global scheduling)演算法與靜態工作分配(static task allocation)下的分群排程演算法被提出來解決多核心/眾核心架構下所產生的上述問題。
而multiprocessor priority ceiling protocol(MPCP)將優先權最高的觀念延伸到多核心/眾核心架構下,資源在全域旗幟(global semaphore)的幫助下管理遠端阻斷與優先權反轉的狀況,並且在2010年B. Brandenburg與J. Anderson所提出的“Optimality Results for Multiprocessor Real-Time Locking”更指出了工作阻斷次數與多核心/眾核心架構排程下優先權反轉的關係。
以一個實際的例子來加以說明現有技術的工作排程,請參考「第1圖」所示,「第1圖」繪示為習知技術的工作排程時序圖。
以具有兩個核心的中央處理器作為舉例說明,假設第二工作32在第一核心41上執行,假設第一工作31以及第三工作33在第二核心42上執行,首先,第二工作32先在第一核心41上執行,接著第三工作33在第二核心42上執行,在時間t 0
時,在第二核心42上執行的第三工作33成功進入臨界區間(Critical Section),而在時間t 1
時,在第一核心31上執行的第二工作32亦需要進入臨界區間,但由於第二核心42上執行的第三工作33已經成功進入臨界區間,此時(時間t 1
)在第一核心41上執行的第二工作32將會暫停執行,以等待第三工作33執行臨界區間結束,而此時(時間t 1
)的第一核心31會進入閒置狀態。
在時間t 2
時,具有高優先權的第一工作31在第二核心42上被執行的同時(時間t 2
),第二核心42上執行的第三工作33將會暫停執行,第二核心42會開始執行高優先權的第一工作31,直到時間t 3
時第二核心42在執行第一工作31完成之後,第二核心42才會再繼續執行第三工作33。
在時間t 4
時,在第二核心42上執行的第三工作33在釋放臨界區間後,在此時(時間t 4
)第一核心41上執行的第二工作32才能成功進入臨界區間,第一核心41才能再繼續執行第二工作32。
綜上所述,可知先前技術中長期以來一直存在先前技術具有因為工作搶占進而造成較長時間的工作阻斷問題,因此有必要提出改進的技術手段,來解決此一問題。
有鑒於先前技術存在先前技術具有因為工作搶占進而造成較長時間的工作阻斷問題,本發明遂揭露一種用於多核心/眾核心的工作排程與分配管理架構及其方法,其中:
本發明所揭露的用於多核心/眾核心的工作排程與分配管理架構,其包含:中央處理器(Central Processing Unit,CPU),中央處理器具有多核心(Multi-Core)/眾核心(Many-Core),中央處理器更包含:至少一服務核心(Service Core)以及多個應用核心(Application Core)。
至少一服務核心是於多核心/眾核心中指定至少一核心為至少一服務核心,服務核心是被指定執行服務工作(Service Task);多個應用核心是未被指定為服務核心的核心為所述應用核心,應用核心是被指定執行應用工作(Application Task);其中,當應用核心其中之一執行的應用工作需要進入服務工作時,應用核心以進程間通訊(Inter-Process Communication,IPC)方式發出服務執行請求,以請求服務核心其中之一執行服務工作,且應用工作會暫停執行以使應用核心進入閒置狀態;當服務核心執行服務工作完成後,再透過進程間通訊返回應用核心以再繼續執行應用工作。
本發明所揭露的用於多核心/眾核心的工作排程與分配管理方法,其包含下列步驟:
首先,在具有多核心(Multi-Core)/眾核心(Many-Core)的中央處理器(Central Processing Unit,CPU)中指定至少一核心為服務核心(Service Core),其餘未被指定為服務核心的核心為應用核心(Application Core):其中,服務核心是被指定執行服務工作(Service Task),應用核心是被指定執行應用工作(Application Task);接著,當應用核心其中之一執行的應用工作需要進入服務工作時,應用核心以進程間通訊(Inter-Process Communication,IPC)方式發出服務執行請求,以請求服務核心其中之一執行服務工作,且應用工作會暫停執行以使應用核心進入閒置狀態;最後,當服務核心執行服務工作完成後,再透過進程間通訊返回應用核心以再繼續執行應用工作。
本發明所揭露的裝置與方法如上,與先前技術之間的差異在於本發明透過在具有多核心/眾核心的中央處理器中指定核心分別為應用核心與服務核心,以使得應用工作與服務工作可分開在不同的指定核心來執行,並透過進程間通訊方式達到核心之間的執行請求,進而讓較少的核心需要在特定時間內完成工作,更能有效的管理工作阻斷的情形。
透過上述的技術手段,本發明可以達成工作排程與分配時能有效管理直接或間接的工作阻斷與工作搶占的技術功效。
以下將配合圖式及實施例來詳細說明本發明的實施方式,藉此對本發明如何應用技術手段來解決技術問題並達成技術功效的實現過程能充分理解並據以實施。
以下首先要說明本發明所揭露的用於多核心/眾核心的工作排程與分配管理架構,並請參考「第2圖」所示,「第2圖」繪示為本發明用於多核心/眾核心的工作排程與分配管理的裝置示意圖。
本發明所揭露的用於多核心/眾核心的工作排程與分配管理架構,其包含:中央處理器(Central Processing Unit,CPU)10,中央處理器10具有多核心(Multi-Core)/眾核心(Many-Core)11,中央處理器10更包含:至少一服務核心(Service Core)111以及多個應用核心(Application Core)112。
服務核心111是於多核心/眾核心11中指定至少一核心11為至少一服務核心111,服務核心111是被指定執行服務工作(Service Task)21,在本發明所述的服務工作21例如像是臨界區間(Critical Section)的執行。
多個應用核心112是未被指定為服務核心111的核心11為所述應用核心112,應用核心112是被指定執行應用工作(Application Task)22,在本發明所述的應用工作22例如像是應用程式的執行。
值得注意的是,上述的服務工作21以及應用工作22是以固定優先權(Fixed-Priority)方式決定每一個服務工作21以及應用工作22的優先權,以固定優先權方式決定每一個服務工作21以及應用工作22的優先權請參考現有技術所述,在此不再進行贅述。
服務核心111以及應用核心112即會依據服務工作21以及應用工作22的優先權來決定服務工作21以及應用工作22的排程與分配,且應用工作22的序列是會被搶占,即具有高優先權的服務工作21以及應用工作22會優先被服務核心111以及應用核心112執行,亦即當某一個應用工作22(此時即表示該應用工作具有最高優先權)暫停被執行時,應用核心112可執行次一個高優先權的應用工作22。
當應用核心112其中之一中執行的應用工作22需要進入服務工作21時,即為該應用核心112中執行的應用工作22需要執行臨界區間時,應用核心112會以進程間通訊(Inter-Process Communication,IPC)方式發出服務執行請求,以請求服務核心111其中之一執行服務工作21(即執行臨界區間),上述的進程間通訊方式又可包含遠端程序呼叫(Remote Procedure Call,RPC)方式、訊號(Signal)方式、訊息傳遞(Message Passing)方式、共享記憶體(Shared Memory)方式、記憶體對應檔案(Memory-Mapped Files)方式、管道(Pipe)方式、套接(Socket)方式,在此僅為舉例說明之,並不以此侷限本發明的應用範疇。
在應用核心112以進程間通訊方式發出服務執行請求,以請求服務核心111其中之一執行服務工作21時,該應用工作22會暫停執行以使該應用核心112進入閒置狀態,而該服務工作21會加到該服務核心111的服務工作的序列中,在該服務核心111中已經準備好的服務工作21應依照優先權排程,並且當沒有任何的服務工作21被請求執行時,服務核心111即會進入閒置狀態。
上述該服務工作21的優先權應考量該應用工作22的優先權,即當該應用工作22的優先權為高優先權時,該服務工作21的優先權亦為高優先權,當該應用工作22的優先權為低優先權時,該服務工作21的優先權亦為低優先權。
接著,當該服務核心111執行服務工作21完成後,即可再透過進程間通訊返回該應用核心112以再繼續執行該應用工作22,藉以在服務核心111以及應用核心112在工作排程與分配時能有效管理直接或間接的工作阻斷與工作搶占成本。
接著,以下將以一個實施例來解說本發明的運作方式及流程,並請同時參考「第2圖」、「第3圖」以及「第4圖」所示,「第3圖」繪示為本發明用於多核心/眾核心的工作排程與分配管理方法流程圖;「第4圖」繪示為本發明用於多核心/眾核心的工作排程與分配管理時序圖。
在本實施例中是以具有三個核心的中央處理器作為舉例說明,本發明並不以此為限制,在具有三核心的中央處理器中指定一個核心為服務核心111,並且未被指定為服務核心111的核心為第一應用核心1121以及第二應用核心1122(步驟110)。
在此假設第二應用工作222在第一應用核心1121上執行,假設第一應用工作221以及第三應用工作223在第二應用核心1122上執行,以及假設服務工作21是在服務核心111上執行(步驟110)。
值得注意的是,第二應用工作222以及第三應用工作223具有相同的全域旗幟(global semaphore),由於第二應用工作222以及第三應用工作223具有相同的全域旗幟,故第二應用工作222以及第三應用工作223會請求相同的服務工作21(即臨界區間)來執行,但是為了說明方便,以下將以第二服務工作212來表示第二應用工作222所請求執行的服務工作21,以及以第三服務工作213來表示第三應用工作223所請求執行的服務工作21。
首先,第二應用工作222先在第一應用核心1121上執行,接著第三應用工作223在第二應用核心1122上執行,在時間t 0
時,在第二應用核心1122上執行的第三應用工作223要執行第三服務工作213,第二應用核心1122即會以進程間通訊方式發出服務執行請求至服務核心111,以請求服務核心111執行第三服務工作213(即臨界區間),此時(時間t 0
)在第二應用核心1122上執行的第三應用工作223會暫停執行,而此時(時間t 0
)的第二應用核心1122亦會進入閒置狀態(步驟120)。
接著,在時間t 1
時,在第一應用核心1121上執行的第二應用工作222要執行第二服務工作212,第一應用核心1121即會以進程間通訊方式發出服務執行請求至服務核心111,以請求服務核心111執行第二服務工作212(即臨界區間),然而此時(時間t 1
)的服務核心111正在為第三應用工作223執行第三服務工作213,而第二應用工作222所請求的第二服務工作212便會先進入服務核心111的行程序列中等待執行,此時(時間t 1
)在第一應用核心1121上執行的第二應用工作222會暫停執行,而此時(時間t 1
)的第一應用核心1121亦會進入閒置狀態(步驟120)。
接著,在時間t 2
時,第一應用工作221需要開始執行,而此時(時間t 2
)第二應用核心1122亦處於閒置狀態,故第一應用工作221即可開始於第二應用核心1122中執行。
接著,在時間t 3
時,第三服務工作213已被執行完成,此時(時間t 3
)服務核心111即會以進程間通訊方式返回第二應用核心1122,以使執行於第二應用核心1122上的第三應用工作223可以再繼續執行,但是由於此時(時間t 3
)的第二應用核心1122正在執行第一應用工作221(正在執行的第一應用工作221為高優先權),因此,第三應用工作223是需要等待到時間t 5
時第一應用工作221執行完成後,第三應用工作223才會恢復執行(步驟130)。
而在時間t 3
時,第三服務工作213已被執行完成,緊接著會服務核心111會執行在行程排序中的第二服務工作212,直到時間t 4
時,第二服務工作212已被執行完成,時此(時間t 4
)的服務核心111即會以進程間通訊方式返回第一應用核心1121,以使執行於第一應用核心1121上的第二應用工作222可以再繼續執行(步驟130)。
藉以在服務核心111以及應用核心112在工作排程與分配時能有效管理直接或間接的工作阻斷與工作搶占成本。
綜上所述,可知本發明與先前技術之間的差異在於本發明透過在具有多核心/眾核心的中央處理器中指定核心分別為應用核心與服務核心,以使得應用工作與服務工作可分開在不同的指定核心來執行,並透過進程間通訊方式達到核心之間的執行請求,進而讓較少的核心需要在特定時間內完成工作,更能有效的管理工作阻斷的情形。
藉由此一技術手段可以來解決先前技術所存在先前技術具有因為工作搶占進而造成較長時間的工作阻斷問題,進而達成工作排程與分配時能有效管理直接或間接的工作阻斷與工作搶占的技術功效。
雖然本發明所揭露的實施方式如上,惟所述的內容並非用以直接限定本發明的專利保護範圍。任何本發明所屬技術領域中具有通常知識者,在不脫離本發明所揭露的精神和範圍的前提下,可以在實施的形式上及細節上作些許的更動。本發明的專利保護範圍,仍須以所附的申請專利範圍所界定者為準。
10...中央處理器
11...核心
111...服務核心
112...應用核心
1121...第一應用核心
1122...第二應用核心
21...服務工作
212...第二服務工作
213...第三服務工作
22...應用工作
221...第一應用工作
222...第二應用工作
223...第三應用工作
31...第一工作
32...第二工作
33...第三工作
41...第一核心
42...第二核心
t 0
...時間
t 1
...時間
t 2
...時間
t 3
...時間
t 4
...時間
t 5
...時間
步驟110 在具有多核心/眾核心的中央處理器中指定至少一核心為服務核心,其餘未被指定為服務核心的核心為應用核心,其中,服務核心是被指定執行服務工作,應用核心是被指定執行應用工作
步驟120 當應用核心其中之一中執行的應用工作需要進入服務工作時,應用核心以進程間通訊方式發出服務執行請求,以請求服務核心其中之一執行服務工作,且應用工作會暫停執行以使應用核心進入閒置狀態
步驟130 當服務核心執行服務工作完成後,再透過進程間通訊返回應用核心以再繼續執行應用工作
第1圖繪示為習知技術的工作排程時序圖。
第2圖繪示為本發明用於多核心/眾核心的工作排程與分配管理的裝置示意圖。
第3圖繪示為本發明用於多核心/眾核心的工作排程與分配管理方法流程圖。
第4圖繪示為本發明用於多核心/眾核心的工作排程與分配管理時序圖。
10...中央處理器
11...核心
111...服務核心
112...應用核心
21...服務工作
22...應用工作
Claims (10)
- 一種用於多核心/眾核心的工作排程與分配管理架構,其包含:一中央處理器(Central Processing Unit,CPU),該中央處理器具有多核心(Multi-Core)/眾核心(Many-Core),該中央處理器更包含:至少一服務核心(Service Core),於多核心/眾核心中指定至少一核心為該至少一服務核心,服務核心是被指定執行服務工作(Service Task);及多個應用核心(Application Core),未被指定為服務核心的核心為所述應用核心,應用核心是被指定執行應用工作(Application Task);其中,當應用核心其中之一執行的應用工作需要進入服務工作時,該應用核心以進程間通訊(Inter-Process Communication,IPC)方式發出服務執行請求,以請求服務核心其中之一執行服務工作,且該應用工作會暫停執行以使該應用核心進入閒置狀態;及當該服務核心執行服務工作完成後,再透過進程間通訊返回該應用核心以再繼續執行該應用工作。
- 如申請專利範圍第1項所述的用於多核心/眾核心的工作排程與分配管理架構,其中該服務工作是指臨界區間(Critical Section)的執行。
- 如申請專利範圍第1項所述的用於多核心/眾核心的工作排程與分配管理架構,其中服務工作以及應用工作是以固定優先權(Fixed-Priority)方式決定每一個服務工作以及應用工作的優先權,並且當應用核心其中之一中執行的應用工作需要進入服務工作時,該服務工作的優先權應考量該應用工作的優先權。
- 如申請專利範圍第3項所述的用於多核心/眾核心的工作排程與分配管理架構,其中每一個應用核心中執行的應用工作會依照優先權排程與分配,且應用工作的序列是會被搶占,當應用核心其中之一中執行的應用工作需要進入服務工作時,該服務工作會加到服務工作的序列中,已經準備好的服務工作應依照優先權排程。
- 如申請專利範圍第1項所述的用於多核心/眾核心的工作排程與分配管理架構,其中進程間通訊包含有遠端程序呼叫(Remote Procedure Call,RPC)、訊號(Signal)、訊息傳遞(Message Passing)、共享記憶體(Shared Memory)、記憶體對應檔案(Memory-Mapped Files)、管道(Pipe)、套接(Socket)。
- 一種用於多核心/眾核心的工作排程與分配管理方法,其包含下列步驟:在具有多核心(Multi-Core)/眾核心(Many-Core)的中央處理器(Central Processing Unit,CPU)中指定至少一核心為服務核心(Service Core),其餘未被指定為服務核心的核心為應用核心(Application Core):其中,服務核心是被指定執行服務工作(Service Task),應用核心是被指定執行應用工作(Application Task);當應用核心其中之一執行的應用工作需要進入服務工作時,該應用核心以進程間通訊(Inter-Process Communication,IPC)方式發出服務執行請求,以請求服務核心其中之一執行服務工作,且該應用工作會暫停執行以使該應用核心進入閒置狀態;及當該服務核心執行服務工作完成後,再透過進程間通訊返回該應用核心以再繼續執行該應用工作。
- 如申請專利範圍第6項所述的用於多核心/眾核心的工作排程與分配管理方法,其中服務核心是被指定執行服務工作步驟中的服務工作是指臨界區間(Critical Section)的執行。
- 如申請專利範圍第6項所述的用於多核心/眾核心的工作排程與分配管理方法,其中服務核心是被指定執行服務工作,應用核心是被指定執行應用工作步驟的服務工作以及應用工作是以固定優先權(Fixed-Priority)方式決定每一個服務工作以及應用工作的優先權,並且當應用核心其中之一中執行的應用工作需要進入服務工作時,該服務工作的優先權應考量該應用工作的優先權。
- 如申請專利範圍第8項所述的用於多核心/眾核心的工作排程與分配管理方法,其中每一個應用核心中執行的應用工作會依照優先權排程與分配,且應用工作的序列是會被搶占,當應用核心其中之一中執行的應用工作需要進入服務工作時,該服務工作會加到服務工作的序列中,已經準備好的服務工作應依照優先權排程。
- 如申請專利範圍第8項所述的用於多核心/眾核心的工作排程與分配管理方法,其中進程間通訊包含有遠端程序呼叫(Remote Procedure Call,RPC)、訊號(Signal)、訊息傳遞(Message Passing)、共享記憶體(Shared Memory)、記憶體對應檔案(Memory-Mapped Files)、管道(Pipe)、套接(Socket)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW100139601A TWI442323B (zh) | 2011-10-31 | 2011-10-31 | 用於多核心/眾核心的工作排程與分配管理架構及其方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW100139601A TWI442323B (zh) | 2011-10-31 | 2011-10-31 | 用於多核心/眾核心的工作排程與分配管理架構及其方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
TW201317897A TW201317897A (zh) | 2013-05-01 |
TWI442323B true TWI442323B (zh) | 2014-06-21 |
Family
ID=48871963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW100139601A TWI442323B (zh) | 2011-10-31 | 2011-10-31 | 用於多核心/眾核心的工作排程與分配管理架構及其方法 |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI442323B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954527B2 (en) | 2020-12-09 | 2024-04-09 | Industrial Technology Research Institute | Machine learning system and resource allocation method thereof |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI503742B (zh) * | 2014-04-21 | 2015-10-11 | Nat Univ Tsing Hua | 多核心處理器系統及其排程方法 |
CN109614249B (zh) * | 2018-12-04 | 2022-02-18 | 郑州云海信息技术有限公司 | 一种模拟多核通信的方法、装置和计算机可读存储介质 |
-
2011
- 2011-10-31 TW TW100139601A patent/TWI442323B/zh active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11954527B2 (en) | 2020-12-09 | 2024-04-09 | Industrial Technology Research Institute | Machine learning system and resource allocation method thereof |
Also Published As
Publication number | Publication date |
---|---|
TW201317897A (zh) | 2013-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20130061220A1 (en) | Method for on-demand inter-cloud load provisioning for transient bursts of computing needs | |
Wieder et al. | Efficient partitioning of sporadic real-time tasks with shared resources and spin locks | |
US9063783B2 (en) | Coordinating parallel execution of processes using agents | |
Yang et al. | Global real-time semaphore protocols: A survey, unified analysis, and comparison | |
US9104500B1 (en) | Lock-free job scheduler for multi-processor systems | |
WO2014101561A1 (zh) | 单个处理器上实现多应用并行处理的方法及装置 | |
Nemati et al. | Partitioning real-time systems on multiprocessors with shared resources | |
KR20170116439A (ko) | 태스크 스케줄링 방법 및 장치 | |
JP7003874B2 (ja) | リソース予約管理装置、リソース予約管理方法およびリソース予約管理プログラム | |
JP2010128664A (ja) | マルチプロセッサシステム、競合回避プログラム及び競合回避方法 | |
Casini et al. | Analyzing parallel real-time tasks implemented with thread pools | |
Yang et al. | Resource-oriented partitioning for multiprocessor systems with shared resources | |
TWI442323B (zh) | 用於多核心/眾核心的工作排程與分配管理架構及其方法 | |
Reano et al. | Intra-node memory safe gpu co-scheduling | |
Cho et al. | Scheduling parallel real-time tasks on the minimum number of processors | |
US20130117754A1 (en) | Multi-core system and scheduling method | |
US20200310937A1 (en) | Device, system lsi, system, and storage medium storing program | |
Negrean et al. | Response-time analysis for non-preemptive scheduling in multi-core systems with shared resources | |
KR20140111525A (ko) | 이기종 멀티코어 프로세서 시스템의 관리 장치 및 방법 | |
US20100269119A1 (en) | Event-based dynamic resource provisioning | |
Yang et al. | DPCP-p: A distributed locking protocol for parallel real-time tasks | |
US11061730B2 (en) | Efficient scheduling for hyper-threaded CPUs using memory monitoring | |
Ward | Relaxing resource-sharing constraints for improved hardware management and schedulability | |
Negrean et al. | Response-time analysis of arbitrarily activated tasks in multiprocessor systems with shared resources | |
JP7122299B2 (ja) | 処理タスクを実行するための方法、装置、デバイス、および記憶媒体 |