WO2019188181A1 - スケジューリング方法、スケジューリング装置 - Google Patents

スケジューリング方法、スケジューリング装置 Download PDF

Info

Publication number
WO2019188181A1
WO2019188181A1 PCT/JP2019/009633 JP2019009633W WO2019188181A1 WO 2019188181 A1 WO2019188181 A1 WO 2019188181A1 JP 2019009633 W JP2019009633 W JP 2019009633W WO 2019188181 A1 WO2019188181 A1 WO 2019188181A1
Authority
WO
WIPO (PCT)
Prior art keywords
execution
priority
position information
scheduling
processing
Prior art date
Application number
PCT/JP2019/009633
Other languages
English (en)
French (fr)
Inventor
雅史 九里
英樹 杉本
Original Assignee
株式会社デンソー
株式会社エヌエスアイテクス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー, 株式会社エヌエスアイテクス filed Critical 株式会社デンソー
Publication of WO2019188181A1 publication Critical patent/WO2019188181A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt

Definitions

  • the present disclosure relates to a scheduling method and a scheduling device for executing a program having a graph structure composed of a plurality of processing nodes.
  • At least one processor element in a multi-core processor includes reconfigurable logic that can be reconfigured at the time of execution, and for each configuration of reconfigurable logic, an executable transaction in an executable state is provided.
  • Listing and providing a configuration queue of executable transactions allocated to individual configurations of reconfigurable processor elements, and the contents of the configuration queue associated with the currently selected configuration instance for execution What is disclosed comprises outputting to a reconfigurable processor element and switching a currently selected configuration instance when a predefined threshold is reached.
  • Patent Document 1 does not provide an effective solution to an event in which the worst execution time of the entire graph becomes longer due to fluctuations in the execution time depending on execution conditions in a graph structure program.
  • This disclosure is intended to reduce the worst execution time by absorbing the fluctuation of the execution time depending on the execution condition in the graph structure program.
  • the present disclosure relates to a scheduling method for executing a program having a graph structure including a plurality of processing nodes, in which an execution ratio in each processing node with respect to a predetermined estimated execution time is set as a relative value.
  • the present disclosure is a scheduling device for executing a program having a graph structure including a plurality of processing nodes, and the executed ratio in each processing node with respect to a predetermined estimated execution time is set as a relative value.
  • a relative position information calculating unit that calculates the position information; and a priority order changing unit that changes the execution priority of each processing node based on the position information.
  • the execution ratio in each processing node with respect to the estimated execution time is calculated as relative position information, and the execution priority of each processing node is changed based on the position information. It can absorb fluctuations in the execution time, such as slowing or fast progress.
  • FIG. 1 is a diagram for explaining parallel processing which is a premise of the present embodiment.
  • FIG. 2 is a diagram showing a system configuration example for executing the parallel processing shown in FIG.
  • FIG. 3 is a diagram illustrating a configuration example of the DFP used in FIG.
  • FIG. 4 is a diagram for explaining a functional configuration example of the compiler.
  • FIG. 5 is a diagram for explaining a functional configuration example of the thread scheduler.
  • FIG. 6 is a diagram for explaining an example of position information calculation.
  • FIG. 7 is a diagram for explaining an example of prioritization.
  • FIG. 1A shows a program code having a graph structure
  • FIG. 1B shows a thread state
  • FIG. 1C shows a state of parallel processing.
  • the program to be processed in this embodiment has a graph structure in which data and processing are divided. This graph structure maintains the task parallelism and graph parallelism of the program.
  • Parallel execution as shown in FIG. 1C can be performed on a large number of threads shown in FIG. 1B by dynamic register placement and thread scheduling by hardware. By dynamically allocating register resources during execution, a plurality of threads can be executed in parallel for different instruction streams.
  • a data processing system 2 which is a system configuration example including a DFP (Data Flow Processor) 10 as an accelerator for performing dynamic register placement and thread scheduling, will be described with reference to FIG.
  • DFP Data Flow Processor
  • the data processing system 2 includes a DFP 10, an event handler 20, a host CPU 21, a ROM 22, a RAM 23, an external interface 24, and a system bus 25.
  • the host CPU 21 is an arithmetic unit that mainly performs data processing.
  • the host CPU 21 supports the OS.
  • the event handler 20 is a part that generates an interrupt process.
  • ROM 22 is a read-only memory.
  • the RAM 23 is a read / write memory.
  • the external interface 24 is an interface for exchanging information with the outside of the data processing system 2.
  • the system bus 25 is for transmitting and receiving information between the DFP 10, the host CPU 21, the ROM 22, the RAM 23, and the external interface 24.
  • the DFP 10 is positioned as an individual master provided to cope with the heavy computation load of the host CPU 21.
  • the DFP 10 is configured to support the interrupt generated by the event handler 20.
  • the DFP 10 includes a command unit 12, a thread scheduler 14, an execution core 16, and a memory subsystem 18.
  • the command unit 12 is configured to be able to communicate information with the config interface.
  • the command unit 12 also functions as a command buffer.
  • the thread scheduler 14 is a part that schedules processing of a large number of threads as exemplified in FIG.
  • the thread scheduler 14 can perform scheduling across threads.
  • the execution core 16 has four processing elements, PE # 0, PE # 1, PE # 2, and PE # 3.
  • the execution core 16 has a number of pipelines that can be scheduled independently.
  • the memory subsystem 18 includes an arbiter 181, an L1 cache 18a, and an L2 cache 18b.
  • the memory subsystem 18 is configured to allow information communication between the system bus interface and the ROM interface.
  • the compiler 50 includes an execution time estimation unit 501 and a priority order assigning unit 502 as functional components.
  • the execution time estimation unit 501 is a part that estimates the execution time of each processing node constituting the graph structure.
  • the priority order assigning unit 502 is a part that assigns an initial priority order to each processing node based on the execution time estimated by the execution time estimation unit 501.
  • the thread scheduler 14 includes a relative position information calculation unit 141 and a priority order changing unit 142 as functional components.
  • the relative position information calculation unit 141 is a part that executes a relative position information calculation step of calculating, as relative position information, an executed ratio in each processing node with respect to a predetermined estimated execution time. As shown in FIG. 6, relative position information is calculated for each node. In the case of the example shown in FIG. 6, since the position information of Node0 is 2, the executed ratio is 20%. Since the position information of Node1 is 9, the executed ratio is 90%. Since the position information of Node2 is 5, the executed ratio is 50%. Since the position information of Node3 is 4, the executed ratio is 40%.
  • the priority changing unit 142 is a part that executes a priority changing step for changing the execution priority of each processing node based on the position information. More specifically, the execution priority of processing nodes with a low execution ratio is increased.
  • Node 0 position information: 2, execution ratio: 20%
  • Node 3 position information: 5, execution ratio: 50%
  • Node 2 Position information: 5, executed ratio: 50%
  • Node1 position information: 9, executed ratio: 90%
  • Node3 is a processing node that is executed using the execution result of Node1 and the execution result of Node2. Therefore, it is necessary to raise the execution priority of Node1 and Node2 over the execution priority of Node3. Considering these, the priority changing unit 142 changes the execution priority so as to be Node 0, Node 2, Node 1, and Node 3 in descending order of priority (see FIG. 7).
  • the present embodiment is a scheduling method for executing a program having a graph structure composed of a plurality of processing nodes, and the executed ratio in each processing node with respect to a predetermined estimated execution time. Are calculated as relative position information, and a priority order changing step for changing the execution priority order of each processing node based on the position information.
  • a thread scheduler 14 as a scheduling device when executing a program having a graph structure composed of a plurality of processing nodes, and executed in each processing node for a predetermined estimated execution time
  • a relative position information calculating unit 141 that calculates the ratio as relative position information
  • a priority changing unit 142 that changes the execution priority of each processing node based on the position information.
  • the execution ratio in each processing node with respect to the estimated execution time is calculated as relative position information, and the execution priority of each processing node is changed based on the position information. It can absorb fluctuations in the execution time, such as slowing or fast progress.
  • the scheduling method it is possible to increase the execution priority of a processing node with a low execution ratio in the priority change step.
  • the priority changing unit 142 increases the execution priority of a processing node with a low execution ratio.
  • the worst execution time can be further shortened by increasing the execution priority of processing nodes with a low execution ratio.
  • the execution priority of the processing nodes is changed in consideration of the dependency between the processing nodes.
  • the priority changing unit 142 changes the execution priority of the processing nodes in consideration of the dependency between the processing nodes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Devices For Executing Special Programs (AREA)

Abstract

予め定められている推定実行時間に基づいて個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出部(141)と、位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更部(142)と、を設ける。

Description

スケジューリング方法、スケジューリング装置 関連出願の相互参照
 本出願は、2018年3月30日に出願された日本国特許出願2018-068435号に基づくものであって、その優先権の利益を主張するものであり、その特許出願の全ての内容が、参照により本明細書に組み込まれる。
 本開示は、複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング方法及びスケジューリング装置に関する。
 マルチコアプロセッサにおいて、スレッドの実行順序を変更するスケジューリング方法が提案されている。下記特許文献1には、マルチコアプロセッサ内の少なくとも1つのプロセッサ要素が、実行時に再構成可能である再構成可能論理を含み、再構成可能論理の構成ごとに、実行可能な状態の実行可能トランザクションをリストし、再構成可能なプロセッサ要素の個々の構成に割り振られる実行可能トランザクションの構成待ち行列を設けるステップと、現在選択されている構成インスタンスと関連付けられた構成待ち行列の内容を、実行のために再構成可能なプロセッサ要素に出力するステップと、事前定義された閾値に達したときに、現在選択されている構成インスタンスを切り換えるステップと、を備えるものが開示されている。
特開2013-239199号公報
 特許文献1では、グラフ構造のプログラムにおいて、実行時の条件に依存する実行時間の揺れにより、グラフ全体の最悪実行時間が長くなるという事象に対して有効な解決手段とはならない。
 本開示は、グラフ構造のプログラムにおいて、実行時の条件に依存する実行時間の揺れを吸収し、最悪実行時間を短縮することを目的とする。
 本開示は、複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング方法であって、予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出ステップと、位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更ステップと、を備える。
 本開示は、複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング装置であって、予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出部と、位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更部と、を備える。
 推定実行時間に対する個々の処理ノード中の実行済割合を相対的な位置情報として算出し、その位置情報に基づいて個々の処理ノードの実行優先順位を変更するので、推定実行時間に対して処理の進みが遅くなったり早くなったりといった実行時間の揺れを吸収することができる。
図1は、本実施形態の前提となる並列処理について説明するための図である。 図2は、図1に示される並列処理を実行するためのシステム構成例を示す図である。 図3は、図2に用いられるDFPの構成例を示す図である。 図4は、コンパイラの機能的な構成例を説明するための図である。 図5は、スレッドスケジューラの機能的な構成例を説明するための図である。 図6は、位置情報算出の一例を説明するための図である。 図7は、優先順位付けの一例を説明するための図である。
 以下、添付図面を参照しながら本実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
 図1(A)は、グラフ構造のプログラムコードを示しており、図1(B)は、スレッドの状態を示しており、図1(C)は、並列処理の状況を示している。
 図1(A)に示されるように、本実施形態が処理対象とするプログラムは、データと処理とが分割されているグラフ構造を有している。このグラフ構造は、プログラムのタスク並列性、グラフ並列性を保持している。
 図1(A)に示されるプログラムコードに対して、コンパイラによる自動ベクトル化とグラフ構造の抽出を行うと、図1(B)に示されるような大量のスレッドを生成することができる。
 図1(B)に示される多量のスレッドに対して、ハードウェアによる動的レジスタ配置とスレッド・スケジューリングにより、図1(C)に示されるような並列実行を行うことができる。実行中にレジスタ資源を動的配置することで、異なる命令ストリームに対しても複数のスレッドを並列実行することができる。
 続いて図2を参照しながら、動的レジスタ配置及びスレッド・スケジューリングを行うアクセラレータとしてのDFP(Data Flow Processor)10を含むシステム構成例である、データ処理システム2を説明する。
 データ処理システム2は、DFP10と、イベントハンドラ20と、ホストCPU21と、ROM22と、RAM23と、外部インターフェイス24と、システムバス25と、を備えている。ホストCPU21は、データ処理を主として行う演算装置である。ホストCPU21は、OSをサポートしている。イベントハンドラ20は、割り込み処理を生成する部分である。
 ROM22は、読込専用のメモリである。RAM23は、読み書き用のメモリである。外部インターフェイス24は、データ処理システム2外と情報授受を行うためのインターフェイスである。システムバス25は、DFP10と、ホストCPU21と、ROM22と、RAM23と、外部インターフェイス24との間で情報の送受信を行うためのものである。
 DFP10は、ホストCPU21の重い演算負荷に対処するために設けられている個別のマスタとして位置づけられている。DFP10は、イベントハンドラ20が生成した割り込みをサポートするように構成されている。
 続いて図3を参照しながら、DFP10について説明する。図3に示されるように、DFP10は、コマンドユニット12と、スレッドスケジューラ14と、実行コア16と、メモリサブシステム18と、を備えている。
 コマンドユニット12は、コンフィグ・インターフェイスとの間で情報通信可能なように構成されている。コマンドユニット12は、コマンドバッファとしても機能している。
 スレッドスケジューラ14は、図1(B)に例示されるような多量のスレッドの処理をスケジューリングする部分である。スレッドスケジューラ14は、スレッドを跨いだスケジューリングを行うことが可能である。
 実行コア16は、4つのプロセッシングエレメントである、PE#0と、PE#1と、PE#2と、PE#3と、を有している。実行コア16は、独立してスケジューリング可能な多数のパイプラインを有している。
 メモリサブシステム18は、アービタ181と、L1キャッシュ18aと、L2キャッシュ18bと、を有している。メモリサブシステム18は、システム・バス・インターフェイス及びROMインターフェイスとの間で情報通信可能なように構成されている。
 続いて、図4を参照しながら、コンパイラ50について説明する。コンパイラ50は、機能的な構成要素として、実行時間推定部501と、優先順位付与部502と、を備える。
 実行時間推定部501は、グラフ構造を構成する個々の処理ノードの実行時間を推定する部分である。優先順位付与部502は、実行時間推定部501が推定した実行時間に基づいて、個々の処理ノードに対する初期の優先順位を付与する部分である。
 続いて、図5を参照しながら、スレッドスケジューラ14の機能的な構成要素について説明する。スレッドスケジューラ14は、機能的な構成要素として、相対位置情報算出部141と、優先順位変更部142と、を備える。
 相対位置情報算出部141は、予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出ステップを実行する部分である。図6に示されるように、相対的な位置情報は各ノードに対して算出される。図6に示される例の場合、Node0は、位置情報が2であるので、実行済割合は20%である。Node1は、位置情報が9であるので、実行済割合は90%である。Node2は、位置情報が5であるので、実行済割合は50%である。Node3は、位置情報が4であるので、実行済割合は40%である。
 優先順位変更部142は、位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更ステップを実行する部分である。より具体的には、実行済割合の少ない処理ノードの実行優先順位を高くする。
 図6の例示では、実行済割合の少ない順に処理ノードを並べると、Node0(位置情報:2、実行済割合:20%)、Node3(位置情報:5、実行済割合:50%)、Node2(位置情報:5、実行済割合:50%)、Node1(位置情報:9、実行済割合:90%)となる。
 ここで、Node3は、Node1の実行結果及びNode2の実行結果を用いて実行される処理ノードである。従って、Node3の実行優先順位よりも、Node1及びNode2の実行優先順位を高める必要がある。これらを考慮し、優先順位変更部142は、優先順位の高い方から、Node0、Node2、Node1、Node3となるように実行優先順位を変更する(図7参照)。
 上記したように本実施形態は、複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング方法であって、予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出ステップと、位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更ステップと、を備える。
 装置として捉えれば、複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング装置としてのスレッドスケジューラ14であって、予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出部141と、位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更部142と、を備える。
 推定実行時間に対する個々の処理ノード中の実行済割合を相対的な位置情報として算出し、その位置情報に基づいて個々の処理ノードの実行優先順位を変更するので、推定実行時間に対して処理の進みが遅くなったり早くなったりといった実行時間の揺れを吸収することができる。
 スケジューリング方法では、優先順位変更ステップにおいて、実行済割合の少ない処理ノードの実行優先順位を高くすることができる。同様に、スケジューリング装置としてのスレッドスケジューラ14において、優先順位変更部142は、実行済割合の少ない処理ノードの実行優先順位を高くする。実行済割合の少ない処理ノードの実行優先順位を高めることで、最悪実行時間をより短縮することができる。
 スケジューリング方法では、優先順位変更ステップにおいて、処理ノード相互の依存関係を考慮して処理ノードの実行優先順位を変更する。同様に、スケジューリング装置としてのスレッドスケジューラ14において、優先順位変更部142は、処理ノード相互の依存関係を考慮して処理ノードの実行優先順位を変更する。依存関係を考慮することで、他の処理ノードの出力待ちを低減することができ、最悪実行時間をより短縮することができる。
 以上、具体例を参照しつつ本実施形態について説明した。しかし、本開示はこれらの具体例に限定されるものではない。これら具体例に、当業者が適宜設計変更を加えたものも、本開示の特徴を備えている限り、本開示の範囲に包含される。前述した各具体例が備える各要素およびその配置、条件、形状などは、例示したものに限定されるわけではなく適宜変更することができる。前述した各具体例が備える各要素は、技術的な矛盾が生じない限り、適宜組み合わせを変えることができる。

Claims (6)

  1.  複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング方法であって、
     予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出ステップと、
     前記位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更ステップと、を備えるスケジューリング方法。
  2.  請求項1に記載のスケジューリング方法であって、
     前記優先順位変更ステップにおいて、実行済割合の少ない処理ノードの実行優先順位を高くする、スケジューリング方法。
  3.  請求項1に記載のスケジューリング方法であって、
     前記優先順位変更ステップにおいて、処理ノード相互の依存関係を考慮して処理ノードの実行優先順位を変更する、スケジューリング方法。
  4.  複数の処理ノードで構成されるグラフ構造のプログラムを実行する際のスケジューリング装置であって、
     予め定められている推定実行時間に対する個々の処理ノード中の実行済割合を、相対的な位置情報として算出する相対位置情報算出部(141)と、
     前記位置情報に基づいて個々の処理ノードの実行優先順位を変更する優先順位変更部(142)と、を備えるスケジューリング装置。
  5.  請求項4に記載のスケジューリング装置であって、
     前記優先順位変更部は、実行済割合の少ない処理ノードの実行優先順位を高くする、スケジューリング装置。
  6.  請求項4に記載のスケジューリング装置であって、
     前記優先順位変更部は、処理ノード相互の依存関係を考慮して処理ノードの実行優先順位を変更する、スケジューリング装置。
PCT/JP2019/009633 2018-03-30 2019-03-11 スケジューリング方法、スケジューリング装置 WO2019188181A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-068435 2018-03-30
JP2018068435A JP2019179418A (ja) 2018-03-30 2018-03-30 スケジューリング方法、スケジューリング装置

Publications (1)

Publication Number Publication Date
WO2019188181A1 true WO2019188181A1 (ja) 2019-10-03

Family

ID=68061579

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009633 WO2019188181A1 (ja) 2018-03-30 2019-03-11 スケジューリング方法、スケジューリング装置

Country Status (2)

Country Link
JP (1) JP2019179418A (ja)
WO (1) WO2019188181A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287085A (ja) * 2006-04-20 2007-11-01 Fuji Xerox Co Ltd 画像処理装置及びプログラム
JP2009069921A (ja) * 2007-09-11 2009-04-02 Hitachi Ltd マルチプロセッサシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4082706B2 (ja) * 2005-04-12 2008-04-30 学校法人早稲田大学 マルチプロセッサシステム及びマルチグレイン並列化コンパイラ

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007287085A (ja) * 2006-04-20 2007-11-01 Fuji Xerox Co Ltd 画像処理装置及びプログラム
JP2009069921A (ja) * 2007-09-11 2009-04-02 Hitachi Ltd マルチプロセッサシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SUGIKI, AKIYOSHI ET AL.: "Study on task progress leveling by introducing a second hierarchical scheduler into Hadoop/Spark", SYSTEM SOFTWARE AND OPERATING SYSTEM (OS), 19 July 2017 (2017-07-19), pages 1 - 7, XP055640038, Retrieved from the Internet <URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=182858&file_id=1&file_no=1> [retrieved on 20190523] *

Also Published As

Publication number Publication date
JP2019179418A (ja) 2019-10-17

Similar Documents

Publication Publication Date Title
JP6296678B2 (ja) ソフトリアルタイムオペレーティングシステムの実時間性を確保する方法及び装置
JP7461947B2 (ja) プロセッサにおける余裕認識(laxity-aware)型動的優先度変更
JP2010079622A (ja) マルチコアプロセッサシステム、および、そのタスク制御方法
JP2008152470A (ja) データ処理システム及び半導体集積回路
JP6673202B2 (ja) 演算装置、演算装置の制御方法、及び、演算装置の制御プログラム
JP4381459B1 (ja) 情報処理装置、粒度調整方法およびプログラム
US9471387B2 (en) Scheduling in job execution
WO2019188181A1 (ja) スケジューリング方法、スケジューリング装置
WO2019188175A1 (ja) デッドロック回避方法、デッドロック回避装置
WO2019188177A1 (ja) 情報処理装置
Wilhelm et al. Designing predictable multicore architectures for avionics and automotive systems
JP4017005B2 (ja) 演算装置
US9632834B2 (en) Assigning priorities to computational work streams by mapping desired execution priorities to device priorities
WO2019188182A1 (ja) プリフェッチコントローラ
US20160034291A1 (en) System on a chip and method for a controller supported virtual machine monitor
JP5540799B2 (ja) データ入出力制御方法,データ入出力制御プログラムおよびデータ入出力制御装置
JP7039365B2 (ja) デッドロック回避方法、デッドロック回避装置
EP2998864B1 (en) Method, device and system for deciding on a distribution path of a task
WO2019188171A1 (ja) コード生成方法、コード生成装置
WO2019188180A1 (ja) スケジューリング方法、スケジューリング装置
WO2022141297A1 (zh) 事件处理方法和装置
WO2019188178A1 (ja) マルチコアシステム
JP2010020683A (ja) スレッド制御方法およびスレッド制御装置ならびにリアルタイムシステム
WO2019188173A1 (ja) 半導体装置
WO2019188172A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19775664

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19775664

Country of ref document: EP

Kind code of ref document: A1