JP5486034B2 - スケジュール作成方法、そのシステムおよびプログラム - Google Patents

スケジュール作成方法、そのシステムおよびプログラム Download PDF

Info

Publication number
JP5486034B2
JP5486034B2 JP2012068034A JP2012068034A JP5486034B2 JP 5486034 B2 JP5486034 B2 JP 5486034B2 JP 2012068034 A JP2012068034 A JP 2012068034A JP 2012068034 A JP2012068034 A JP 2012068034A JP 5486034 B2 JP5486034 B2 JP 5486034B2
Authority
JP
Japan
Prior art keywords
layer
task
tasks
relationship
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012068034A
Other languages
English (en)
Other versions
JP2013200667A (ja
Inventor
顕次郎 山中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Corp
Original Assignee
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp filed Critical NTT Data Corp
Priority to JP2012068034A priority Critical patent/JP5486034B2/ja
Publication of JP2013200667A publication Critical patent/JP2013200667A/ja
Application granted granted Critical
Publication of JP5486034B2 publication Critical patent/JP5486034B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、スケジュール作成方法、そのシステムおよびプログラムに関し、より詳細には、実行時間が特定されない複数のタスクを、そのタスク間の先行関係のみに基づいてスケジューリングする方法、そのシステムおよびプログラムに関する。
クラウドコンピューティングは次世代のコンピューティング環境として期待を集めている。クラウドサービスを利用すると、システムの実行環境(サーバ、ストレージ、ネットワークなど)の調達・増強・縮退が短時間で可能であり、使った時間だけ利用料を払えばよい。従来、ソフトウェアシステムは、運用時にはごく稀にしか起きないピーク性能を基準に実行環境をサイジングし、その固定的な実行環境を前提に構築されてきた。その結果、低い平均負荷、高い運用コストを招いていた。クラウドでは、必要に応じて実行環境のサイズを変えられるので、運用コストの削減が期待できる。
図1に、クラウドコンピューティングの概略図を示す。複数のサーバ101a、101b、・・・、101n(以下、サーバ101と呼ぶ)が、インターネット102を介して、複数のクライアントコンピュータ103a、103b、・・・、103n(以下、クライアントコンピュータ103と呼ぶ)と相互に通信可能に接続される。
サーバ101は、利用者に提供するサービスを実現するためのプログラムを格納するメモリを有し、利用者の要求に応答して、ストレージに格納されたプログラムを処理するために必要なデータを用いて、サービスを提供する。
クライアントコンピュータ103は、クラウドサービスの利用者によって使用される端末である。利用者は、クライアントコンピュータ103を介して、サーバ101が提供するサービスを、サーバ群を意識することなしに利用する。
また、従来、ソフトウェアシステムの開発段階において、マシンリソースの不足が開発スケジュール遅延の原因となることが多かった。例えば、試験工程では、マシンリソースの不足により、多くの期間を費やすこととなる。開発段階においてクラウドコンピューティングを利用することで、マシンリソースに制約されない開発が可能になり、開発期間の短縮、開発費の削減が期待できる。このようにクラウドコンピューティングは、従来のソフトウェアシステムの諸問題を解決できる可能性を秘めている。
クラウドコンピューティングには課題もある。一般に、ソフトウェアシステムは、機能要求に加えて、性能要求も満たす必要がある。従来、固定された実行環境において性能試験を行うことにより、一定の性能を保証してきた。従来型システムでは、実際に運用される実行環境が固定されるので、同実行環境における試験結果が、運用時に成り立つと類推可能だからである。一方、クラウドサービスでは、ベストエフォートで実行環境を提供する。
ベストエフォート型では、例えば、CPUのクロック数に関して、あるユーザーがCPU負荷の高いプログラムを実行すると、同一環境を利用する別のユーザーの性能は劣化する。また、ストレージに関して、あるユーザーがストレージに過剰な負荷をかける大量のトランザクションを処理すると、同様に、同一環境を利用する別のユーザーのI/O性能は劣化する。ネットワークに関しても同様である。これでは、実行環境を特定することができず、従って、性能試験の結果が運用時にも成り立つとの類推はできない。
このような問題を解決するため、本件出願人は、実行環境を固定できないクラウドコンピューティングにおいて、システムとしての性能(スループット)を保証する手段を提供することに成功した。システムとしての性能を保証するために、当該技術では、タイマーにより、定められた一定の処理を実行し、それが終了すると、次にタイマーにより駆動されるまで休むよう動作するクロック駆動プログラミング(CDP)のプログラムを処理する。高速マシンを使うと、実行時間は減少するが、その分休止時間が増える。低速マシンを使うと、実行時間が増加し、その分休止時間が減少する。すなわち、高速マシンおよび低速マシンのいずれを用いても、時間当たりの実行ステップ数は同じになる。従って、性能(スループット)はハードウェアには依存せずに同一になる。
ただし、周期Tを保ってプログラムを実行するために、以下の式で示されるデューティ率(D)は1未満である必要がある。τは実行時間である。
Figure 0005486034
複数のタスクをどの時刻でどのCPUにより実行するかを決定する従来のスケジューリング方法では、タスク間の先行関係、各タスクの実行時間、リソース数(CPU数)を特定し、リソース数の制約のもとで実行時間が最小となるスケジュールを作成することを目的としていた。
この方法では、まず第1に、タスクの実行時間が変わるたびに、スケジュールを再作成する必要があった。タスクの実行時間は、CPUのスペック(アーキテクチャ、クロック周波数、キャッシュサイズなど)に応じて変化する。今日、CPUのスペックは多種多様である。そのため、CPUのスペック毎に対応するスケジュールを作成する従来の方法では、多種多様なCPUをサポートすることは困難である。
また、第2に、リソース数に制約を設けることに疑問がもたれる。今日一般的に普及しているマルチコア環境では、CPU数を自由に増やすことができる。例えば、デスクトップコンピュータでは6コアや8コア、サーバコンピュータでは数十コアを容易に搭載し得る。このような技術進歩を考慮すると、もはや、リソース数は決定的な制約とはなりえない。
さらに、第3に、実行時間が特定されない場合には、利用することができない。前述のCDPは、特に、実行環境を固定できないクラウドコンピューティングにおいて効果を発揮する。しかし、CPUの性能など、クラウドコンピューティングの実行環境により実行時間が変わるので、実行時間を特定することはできない。
本発明は、このような問題に鑑みてなされたもので、その目的とするところは、実行時間が特定されない複数のタスクを、そのタスク間の先行関係のみに基づいてスケジューリングする手段を提供することにある。
上記の課題を解決するために、本発明に係るスケジュール作成方法は、先行タスク、後続タスク、タスク間に生じる直接および間接の先行関係タイプを格納する閉包先行関係記憶手段と、先行タスク、後続タスク、タスク間に生じる直接の先行関係タイプを格納する縮退先行関係記憶手段と、タスク間の先行後続関係に基づくスケジューリングを実現するために用いる同期機構イベントの識別子と先行、後続として配置できなかったタスク間の先行関係とを格納するイベント記憶手段と、スケジュールの結果を記憶するタスク配置記憶手段とを備えたシステムにおいて実行される方法であって、前記システムの先行関係管理手段が、スケジュール作成対象のプログラムのタスク間の先行関係データを受信するステップと、前記先行関係管理手段が、前記先行関係データに含まれる先行関係から、間接的な先行関係を識別し、前記識別された間接的な先行関係を取り除いた先行関係タイプを前記縮退先行関係記憶手段に記憶させるとともに、前記閉包先行関係記憶手段の先行関係タイプを直接、間接を区別して記憶させるステップと、前記システムのタスク配置手段が、前記縮退先行関係記憶手段に記録された先行関係に対し、PERT解析を使用して、各タスクの実行時間を1とした場合の各タスクの開始時間を算出するステップと、前記タスク配置手段が、前記算出した開始時間に基づいて、前記各タスクの開始時間に対応する1以上のレイヤ、およびスケジュール作成対象のプログラムの実行のフィニッシュ時間に対応するレイヤを有するタスク配置構造体を生成するステップと、前記タスク配置手段が、レイヤ1をレイヤ1内に存在するタスク数のレベルで分割し、分割した領域にタスクを配置するステップと、前記タスク配置手段が、処理対象のレイヤを示すレイヤLに、レイヤ2をセットするステップと、前記タスク配置手段が、前記レイヤLが前記フィニッシュ時間に対応するレイヤtであるか否か判定するステップであって、レイヤtである場合、前記タスク配置構造体および前記イベント記憶手段に基づいて、スケジュールを作成し、レイヤtでない場合、前記タスク配置手段が、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数を比較して、いずれか一方のレイヤ内のタスク数が他方のレイヤ内のタスク数より少ない場合、空タスクを生成して両レイヤ内のタスク数を同一にするステップと、前記タスク配置手段が、前記閉包先行関係記憶手段に基づいて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクに対して、後続となり得る前記レイヤL内のタスク(後続タスク候補)の集合を判定するステップと、前記タスク配置手段が、グラフの最大マッチングアルゴリズムを用いて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクについて、最大マッチングを取得するステップと、
前記タスク配置手段が、前記最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数より少ない場合、最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数と一致するまで、マッチング数とタスク数の差の数、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤに空タスクを生成し、空タスクを配置するために新たなレベルの領域を作成し、前記後続タスク候補の集合を判定するステップ、および前記最大マッチングを取得するステップを繰り返す、ステップと、前記タスク配置手段が、前記レイヤLのレイヤを当該レイヤ内に存在するタスク数のレベルで分割し、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクとが、同一レベルになるように分割した領域にタスクを配置するステップと、前記システムのイベント識別手段が、前記レイヤLの1つ前のレイヤであるレイヤ内のタスクxの後続として前記レイヤL内に配置できなかったタスクyを識別し、先行、後続として配置できなかったタスク間の先行関係を、前記同期機構イベントを使って表現するため、前記タスクxと前記タスクyとイベント識別子を前記イベント記憶手段に記憶するステップと、前記タスク配置手段が、前記レイヤLに1を加算することにより現在処理中のレイヤの次のレイヤを処理対象のレイヤとしてセットするステップを行い、前記レイヤLが前記フィニッシュ時間に対応するレイヤtであるか否か判定するステップに戻す、ステップとを含むことを特徴とする。
本発明により、タスクの実行時間に依存しないスケジュールを作成することができる。そのため、タスクの実行時間が変わっても、スケジュールを再作成する必要はなくなる。また、得られるスケジュールは、いずれの実行環境においても、最小時間での実行を保障することができる。
さらに、本発明で導かれるスケジュールにより、最小時間で実行するための最少リソース数を得ることができる。最少リソース数を知ることにより、不必要なリソースを維持する不利益を回避することができる。
クラウドコンピューティングの概略図である。 本発明の一実施形態に係るタスクのプログラム記述例を示す図である。 本発明の一実施形態に係る別のタスクを利用するタスクのプログラム記述例を示す図である。 本発明の一実施形態に係るタスク配列のプログラム記述例を示す図である。 本発明の一実施形態に係るタスクのコールグラフを示す図である。 本発明の一実施形態に係るタスクのPERT図である。 本発明の一実施形態に係るタスクのコールグラフを示す図である。 ポーリングを用いたタスクのプログラム記述例を示す。 ポーリングを用いたタスクのプログラム記述例を示す。 本発明の一実施形態に係るタスクのPERT図である。 本発明の一実施形態に係るタスク間の先行関係を示す先行関係表である。 変数リネーム技法を適用する前のプログラム記述例を示す図である。 変数リネーム技法を適用する後のプログラム記述例を示す図である。 個別化技法を適用する前後のコールグラフを示す図である。 抽選化技法を適用したタスクのプログラム記述例を示す図である。 抽選化技法を適用したタスクのプログラム記述例を示す図である。 本発明の一実施形態に係るタスクのPERT図である。 本発明の一実施形態に係るタスクを実行するプログラム記述例を示す図である。 本発明の一実施形態に係るタスクを実行するプログラム記述例を示す図である。 本発明の一実施形態に係るタスクを並列実行するシーケンス図である。 本発明の一実施形態に係るスケジュール作成システムの構成を示すブロック図である。 本発明の一実施形態に係る閉包先行関係記憶手段に格納された情報の一例を示す図である。 本発明の一実施形態に係る縮退先行関係記憶手段に格納された情報の一例を示す図である。 本発明の一実施形態に係るイベント記憶手段に格納された情報の一例を示す図である。 本発明の一実施形態に係るスケジュールを作成する工程を示すフローチャートである。 本発明の一実施形態に係るタスクのPERT図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るタスク構造体に配置されているPERT図のイメージ図である。 本発明の一実施形態に係るスケジュールを作成する工程を示すフローチャートである。
(CDPプログラム)
初めに、CDPプログラムについて説明する。CDPは、イベント駆動プログラミング(EDP)の一部である。従って、CDPは、EDPをサポートする任意のプログラミング言語、およびOSで実践できる。本実施形態では、C言語、およびWindows(登録商標)を用いるが、これに限定されるものではない。
CDPとEDPとの違いは、イベントハンドラーの使い方にある。EDPでは、任意の数のタイマーを利用することができるのに対し、CDPでは、タイマーイベントハンドラーを提供するタイマーを、必ず1つ利用することが要求される。
また、EDPでは、タイマーイベントハンドラーを含むすべてのイベントハンドラーにおいて、イベントに対応する処理を行う。一方、CDPでは、タイマーイベントハンドラー以外のイベントハンドラーにおいて、状態を示すフラグをセットすることにより、イベントの発生を記録するのみで、イベントに対応する処理は、ここでは行わない。CDPでは、タイマーイベントハンドラーにおいて、状態を示すフラグに基づいて、イベントの発生に対応するタスクを実行する。
CDPプログラムは、以下の手順で作成される。1)タスクを洗い出し、記述する。2)タスク間の先行関係を把握し、PERT図を作成する。3)PERT図によって与えられた先行関係の制約を満たすスケジュールを作成する。タスクの記述、PERT図の作成、スケジュールの作成を順に説明する。
(タスクの記述)
CDPのタスクを、図2のプログラム記述例に基づいて説明する。CDPのタスクは、以下の要素を用いて定義される。
内部変数:ステート間で値を引継ぐために使用する1以上の変数
インタフェース関数:内部変数を他のタスクが参照または更新するための0以上の関数
リセット関数:内部変数を初期化するための関数
タスク本体関数:タイマーイベントハンドラーによって呼び出される関数
CDPのタスクは、状態により、実行する動作が変化するステートマシンである。ステート間で値を引継ぐために、内部変数を用いる。図2の例では、行番号L5に、taskA_data_t構造体型の内部変数taskA_dataが定義されている。なお、taskA_data_t構造体型は、同図の行番号L2からL4により示されるように、taskA_state_t列挙型の変数state、int型のx、y、resultをメンバとして含む。
CDPのタスクは、前述の内部変数を他のタスクが参照または更新するためのインタフェース関数を必要に応じて定義する。図2の例では、行番号L13からL31で定義されるcalcメソッド、行番号L33からL43で定義されるget_resultメソッドがインタフェース関数である。calcメソッドは、図2に記述されるTaskAに処理を要求するための関数、get_resultメソッドは、処理結果を要求するための関数である。
CDPのタスクはまた、内部変数を初期化するためのリセット関数を定義する。図2の例では、行番号L45からL48で定義されるtaskA_RSTメソッドがリセット関数である。本実施形態では、リセット関数において内部変数taskA_dataのメンバ変数stateを初期化している。
そして、CDPのタスクは、タイマーイベントハンドラーによって呼び出されるタスク本体関数を定義する。図2の例では、行番号L50からL84で定義されるtaskA_CLKメソッドがタスク本体関数である。図2に示されるように、タスク本体関数は、taskA_data.stateの値に従って計算を実行する。stateがcalc1の場合、F(x)を計算する。ここで、関数Fは、行番号L11で定義されるように、標準ライブラリなどの他のモジュールで定義される外部関数である。stateがcalc2の場合、定数LIMITを上限として、F(x)yを計算する。
ここで、タスクの実行時間は、タイマーの周期より短い必要がある。そのため、タスクは次の2つの要求を満たす必要がある。1)タスクは、実行ステップの上限を有する。2)タスクの各ステートメントは、実行時間の上限を有する。
要求1)を満たすために、各関数は、構文的に停止性が保証される形で書く。すなわち、選択(if then else)および順次(;) の組み合わせに展開可能となるように記述する。ループに関しては、反復回数に上限があるものだけが記述可能であり、実行時に反復回数が決まるループを書くことは許されない。不定回数のループは、図2のtaskA_CLKメソッドのように、固定回数のループを周期的に実行することにより実現する。この場合、選択(if then else)によりステップ数は変化するが、1周期で実行されるステップ数には上限が存在するので、要求1)が満たされる。
要求2)を満たすために問題となるのは、ステートメントが関数呼び出しを含む場合である。呼び出す関数が他のタスクのインタフェース関数である場合は、呼び出し先の関数についても実行ステップ数に上限があり、結果として実行時間に上限があるので、問題はない。一方、呼び出す関数が、ライブラリ関数やOSの機能を呼び出すAPIなど、CDPに従わない関数である場合、実行時間に上限がない場合がある。
特に問題となるのが、OSのAPIに存在するblocking I/Oである。例えば、blocking I/O のREAD関数を用いてファイルの読み出しをする場合、ファイルの読み出しが完了するまで、呼び出し側プログラムに制御を戻さない。これでは、要求2)を満たすことができない。そこで、CDPのタスクでは、原則としてblocking I/Oの代わりに、non-blocking I/Oを用いる。あるいは、select関数等を用いてブロックされないことを確認した上でblocking I/Oを用いる。
続いて、図3に、図2に記載のtaskAを利用するtaskBのプログラム記述例を示す。taskBは、列挙型の変数state、int型のa、b、zをメンバとして含む構造体型の内部変数taskB_dataを持つ。taskBのタスク本体関数では、図3の行番号L34に示されるように、stateがstate_10の場合、calcメソッドを呼ぶことによりtaskAに処理を要求する。図2の行番号L23に示されるように、taskAの状態に従って要求が受け入れられる場合のみ、戻り値として0が返される。従って、taskBは、要求が受け入れられるまでリトライし、要求が受け入れられると、state_11に遷移する。
また、図3の行番号L40に示されるように、stateがstate_11の場合、get_resultメソッドを呼ぶことにより処理結果の取得を試みる。ここでも、図2の行番号L40に示されるように、taskAの状態に従って計算が終わっている場合のみ、戻り値として0が返される。従って、taskBは、戻り値として0が得られるまで、クロック毎にget_resultメソッドを呼び出し、処理結果を取得すると、state_12に遷移する。
(タスクの配列化)
図2の行番号L18に示されるように、taskAはstateがfreeである場合のみ、計算要求を受け入れる。つまり、taskAが先行する計算要求を受け入れ、計算を実行している間は、他のタスクからの計算要求を受け入れることはできない。そこで、同時に複数の計算要求を処理したい場合には、同一機能を持つ複数のタスクを用意するために、タスクを配列化したタスク配列を定義する。図4に、図2に記載のtaskAを配列化したタスク配列のプログラム記述例を示す。
図4の行番号L4に示されるように、タスク配列では、内部変数を配列化する。そして、行番号L7に示されるように、インタフェース関数calcの引数としてインデクスを受け取り、内部変数の参照、更新時には受け取ったインデクスを指定して行う。他の関数においても、同様に引数としてインデクスを受け取り、受け取ったインデクスを指定して内部変数の参照更新を行うことにより、タスクを配列化することができる。内部変数配列の要素数をタスク配列の多重度と呼び、配列化されていないタスク(例えば、図2のtaskA)の多重度は1である。
(PERT図の作成)
タスクを記述したら、次にタスク間の先行関係を把握しPERT図を作成する。タイマーイベントハンドラーが呼び出すのは、タスク本体関数であり、タスク間の先行関係とは、タスク本体関数間の先行関係である。あるタスクは、そのタスク本体関数において、他のタスクのインタフェース関数を呼び出して、他のタスクの処理結果を取得する。例えば、図3に示すtaskBは、タスク本体関数において、taskAのget_resultメソッドを呼び出して、taskAの処理結果F(x)yを取得する。このインタフェース関数の静的呼び出し関係を示したものが、図5のコールグラフである。
ここで、taskBが処理結果を得るためには、taskAのタスク本体関数がtaskBのタスク本体関数の実行の前に完了している必要がある。この場合、taskAはtaskBに先行する。完了順序を示すPERT図は、コールグラフの矢印の向きを逆転することにより得ることができる(図6)。しかし、全てのコールグラフからPERT図を得ることができるわけではない。
PERT図を得るためには、コールグラフがacyclicである(ループがない)必要がある。図7に示すように、コールグラフがacyclicでない場合は、ポーリング(polling)を用いてタスク間のインタフェースの向きを入れ替える必要がある。taskAとtaskBとのコールグラフはacyclicであるので、タスク間のインタフェースの向きを入れ替える必要はない。ポーリングを用いる参考例として、図8Aおよび図8Bに、インタフェース方向を変えたtaskAおよびtaskBのプログラム記述例を示す。
得られたPERT図から、同時実行され得るタスクを判断することができる。コールグラフに基づいて、図9に示すPERT図が得られたものとする。ここで、図9に示すPERT図のグラフGは、1から9のタスクに対応するノードの集合、およびタスク間の先行関係を表す矢印の集合により構成される。PERT図には、本来のタスク1から9に対応するノードに加えて、プログラム全体のスタートとフィニッシュをそれぞれ表す端点sと端点tが記されている。
図10に、図9のPERT図に含まれるタスク間の先行関係を示す先行関係表を示す。図中の◎は、2つのタスクが、直接の先行関係を有することを示す。例えば、タスク1と(タスク1のインタフェース関数を呼び出す)タスク4、タスク1と(タスク1のインタフェース関数を呼び出す)タスク6などは、直接の先行関係を有する。図中の○は、2つのタスクが、間接の先行関係を有することを示す。例えば、タスク1とタスク7、タスク1とタスク8、タスク1とタスク9などは、間接の先行関係を有する。図中の×は、2つのタスクが、先行関係を有し得ないことを示す。
間接の先行関係は、直接の先行関係を有さないが、1または複数のタスクを経由して先行関係を有する2つのタスク間において生じる。例えば、タスク1とタスク7は、タスク1のインタフェース関数を呼び出し、かつタスク7によりそのインタフェース関数を呼び出されるタスク4を経由して、先行関係を有する。同様に、タスク1とタスク8も、タスク4を経由して先行関係を有する。また、タスク1とタスク9は、タスク4およびタスク7を経由して、あるいはタスク6を経由して、先行関係を有する。
ここで、特定のタスクvのインタフェース関数を呼び出すタスクu、およびタスクwが、直接または間接の先行関係を有する場合、タスクuとタスクwとは、同時実行されることはない。例えば、タスク1のインタフェース関数を呼び出すタスク4およびタスク6は、図10に示されるように直接の先行関係を有するので、同時実行されることはない。一方、タスク3のインタフェース関数を呼び出すタスク5およびタスク8は、図10に示されるように先行関係を有さないので、同時実行され得る。
複数のタスクが同時に同じタスクのインタフェース関数を呼び出す場合、タスクの実行される順序やインタフェース関数の実行される順序により、結果が変わってしまう可能性がある。そこで、複数のタスクから同時に呼び出され得るインタフェース関数は、Bernstein’s conditionsを満たす必要がある。Bernstein's conditionsは、プログラムの断片が並列実行できるための、周知の十分条件である。
例えば、タスク5およびタスク8から同時に呼び出され得る、タスク3に含まれる関数f、gは、関数fの中で構文的に参照される内部変数の集合(R(f))、関数fの中で構文的に代入される内部変数の集合(W(f))、関数gの中で構文的に参照される内部変数の集合(R(g))、および関数gの中で構文的に代入される内部変数の集合(W(g))について以下の(1)から(3)が成り立つ場合、Bernstein's conditionsを満たし、並列実行することができる。
R(f) ∩ W(g) = φ・・・(1)
R(g) ∩ W(f) = φ・・・(2)
W(f) ∩ W(g) = φ・・・(3)
(Bernstein's conditionsを満たすプログラムへの書き換え技法)
同時実行され得るタスクがBernstein's conditionsを満たさない場合、書き替え技法を用いてプログラムを修正する必要がある。代表的な3つの書き換え技法を以下で紹介する。
第1の書き替え技法として、変数リネーム技法がある。図11Aおよび図11Bに、変数リネーム技法を適用する前後のプログラム記述例を示す。適用前のプログラム記述例では、図11Aに示されるように、インタフェース関数read、writeにおいて、R(read) ∩ W(write) = {taskA_x} ≠ φであり、Bernstein's conditionsを満たさない。一方、適用後のプログラム記述例では、図11Bに示されるように、別途内部変数を用いてプログラムを修正することにより、R(read) ∩ W(write) =φとなり、Bernstein's conditionsを満たすことができる。
第2の書き替え技法として、個別化技法がある。個別化技法では、Bernstein's conditionsを満たさないインタフェース関数を有するタスクを、配列化する。図12に、個別化技法を適用する前後のコールグラフを示す。適用前のコールグラフでは、図12(左)に示されるように、インタフェース関数calc_Fの競合がおき、R(calc_F) ∩ W(calc_F) = {taskB_data} ≠ φであり、Bernstein's conditionsを満たさない。一方、適用後のコールグラフでは、図12(右)に示されるように、taskBを配列化することにより、R(calc_F(0)) ∩ )W(calc_F(1)) = {taskB_data[0]} ∩ {taskB_data[1]} = φとなり、Bernstein's conditionsを満たすことができる。
第3の書き替え技法として、抽選化技法がある。前述した個別化技法は、唯一のリソースを使用する場合には適用することができない。この場合、内部変数のみを配列化し、タスクは配列化しない抽選化技法により、インタフェース関数の競合を防ぐ。具体的には、図13Aに示されるように、競合対象であるtaskBのタスク本体関数において、複数のインタフェース関数呼び出しのうちの1つを選択し(抽選)、選択された(当選した)呼び出しのみ処理を実行し、選択されなかった(落選した)呼び出しについてはエラーを返す。また、図13Bに示されるように、呼び出し側タスクであるtaskC(およびtaskD(図示せず))では、当選するまでインタフェース関数の呼び出しを繰り返す。
(スケジュールの作成)
PERT図が得られたら、次にスケジュールを作成する。スケジュールは、どのタイミングでどのリソースにタスクを割り当てるかを、PERT図で与えられた先行関係を満たすように定めたものである。利用可能なリソースの制約の元で、完了時間が最小となるスケジュールを作成することが望ましい。図14に示すPERT図に基づいて、スケジュールを作成する。
(スケジュールの作成−逐次実行)
逐次実行する場合、PERT図を既知のアルゴリズムでトポロジカルソートすることにより、容易にスケジュールを作成することができる。図14のPERT図の場合、以下の3つのスケジュールが作成される。taskX、taskY、taskZ、taskWのタスク本体関数が、それぞれ、taskX_CLK()、taskY_CLK()、taskZ_CLK()、taskW_CLK()であるものとする。
スケジュール1=taskX_CLK(); taskY_CLK(); taskW_CLK(); taskZ_CLK();
スケジュール2=taskX_CLK(); taskY_CLK(); taskZ_CLK(); taskW_CLK();
スケジュール3=taskX_CLK(); taskZ_CLK(); taskY_CLK(); taskZ_CLK();
PERT図の先行関係を満たす限り、どの順序で実行しても同一の結果を得ることができ、また、同一の完了時間となる。従って、任意のスケジュールを選択することができる。図15に、スケジュール1でタスクを実行するプログラム記述例を示す。図15の行番号L25において、第3引数(presiod)で指定した100ミリ秒ごとに、第4引数(OnTimer)で指定した関数が呼ばれるよう、タイマーの設定が行われている。本実施形態ではスケジュール1を実行するために、図15の行番号L6からL9に示されるように、タスクの実行順序を定義する。
(スケジュールの作成−並列実行)
並列実行する場合、タスク間の先行関係は同期プリミティブを用いて実現する。本実施形態では、同期プリミティブとして、Windowsの提供するEvent Objectを用いる。Event Objectは、2つの状態(シグナル状態/非シグナル状態)を持つ。SetEvent(e)を呼び出すことにより、引数eのハンドルにより特定されるEvent Objectはシグナル状態になる。WaitForSingleObject(e)を呼び出すと、引数eのハンドルにより特定されるEvent Objectが非シグナル状態である場合、シグナル状態になるまでWaitForSingleObject(e)の呼び出し側スレッドは待機し続ける。他のスレッドによりSetEvent(e)が呼ばれ、eにより特定されるEvent Objectがシグナル状態になると、制御が戻され、呼び出し側スレッドは後続の処理を実行することができる。
例えば、図14のPERT図を、並列度4で実行する場合を考える。
スケジュール4−0=taskX_CLK(); SetEvent(e1); SetEvent(e2);
スケジュール4−1=WaitForSingleObject(e1); taskZ_CLK();
スケジュール4−2=WaitForSingleObject(e2); taskY_CLK(); SetEvent(e3);
スケジュール4−3=WaitForSingleObject(e3); taskW_CLK();
スケジュール4−0では、taskX_CLKメソッドが完了すると、e1およびe2により特定されるEvent Objectをシグナル状態にする。スケジュール4−1では、WaitForSingleObject(e1)を呼び出し、e1により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。taskX_CLKメソッドの完了によりSetEvent(e1)が呼ばれると、スケジュール4−1に対応するスレッドに制御が戻され、taskZ_CLKメソッドが実行される。同様に、スケジュール4−2では、WaitForSingleObject(e2)を呼び出し、e2により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。taskX_CLKメソッドの完了によりSetEvent(e2)が呼ばれると、スケジュール4−2に対応するスレッド制御が戻され、taskY_CLKメソッドが実行される。スケジュール4−2では、taskY_CLKメソッドが完了すると、e3により特定されるEvent Objectをシグナル状態にする。スケジュール4−3も、WaitForSingleObject(e3)を呼び出し、e3により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。taskY_CLKメソッドの完了によりSetEvent(e3)が呼ばれると、スケジュール4−3に対応するスレッドに制御が戻され、taskW_CLKメソッドが実行される。
図16に、スケジュール4−0から4−3でタスクを実行するプログラム記述例を示す。図16の行番号L43において、第3引数(presiod)で指定した100ミリ秒ごとに、第4引数(OnTimer)で指定した関数が呼ばれるよう、タイマーの設定が行われている。本実施形態では、図16の行番号L3からL14に示されるように、スケジュール4−1から4−3に対応するスレッドを用意する。
OnTimerメソッドでは、まず、スレッド1、スレッド2、スレッド3にそれぞれ対応するs[0]、s[1]、s[2]により特定されるEvent Objectをシグナル状態にする。その後、メインスレッドでスケジュール4−0を実行し、スレッド1、スレッド2、スレッド3にそれぞれ対応するt[0]、t[1]、t[2]により特定されるEvent Object のWaitForSingleObjectメソッドを呼び出すことで、Event Objectがシグナル状態になるまで、すなわち該当のスレッドが完了するまで待機し続ける。図17に、並列実行のシーケンス図を示す。
スケジュール4−1に対応するスレッド1では、WaitForSingleObject(s[0])を呼び出し、s[0]により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。図16の行番号L18に示されるように、OnTimerメソッド内でSetEvent(s[0])が呼ばれると、スレッド1に制御が戻され、WaitForSingleObject(e1)を呼び出す。その後、e1により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。taskX_CLKメソッドの完了によりSetEvent(e1)が呼ばれると、スレッド1に制御が戻され、taskZ_CLKメソッドが実行される。スレッド1では、taskZ_CLKメソッドが完了すると、t[0]により特定されるEvent Objectをシグナル状態にすることで、スレッドの完了を通知する。
スケジュール4−2に対応するスレッド2(図示せず)においても、スレッド1同様、WaitForSingleObject(s[1])を呼び出し、s[1]により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。図16の行番号L19に示されるように、OnTimerメソッド内でSetEvent(s[1])が呼ばれると、スレッド2に制御が戻され、WaitForSingleObject(e2)を呼び出す。その後、e2により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。taskX_CLKメソッドの完了によりSetEvent(e2)が呼ばれると、スレッド2に制御が戻され、taskY_CLKメソッドが実行される。スレッド2では、taskY_CLKメソッドが完了すると、taskYの完了を通知するSetEvent(e3)を呼び出し、その後、t[1]により特定されるEvent Objectをシグナル状態にすることで、スレッドの完了を通知する。
スケジュール4−3に対応するスレッド3(図示せず)においても、スレッド1同様、WaitForSingleObject(s[2])を呼び出し、s[2]により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。図16の行番号L20に示されるように、OnTimerメソッド内でSetEvent(s[2])が呼ばれると、スレッド3に制御が戻され、WaitForSingleObject(e3)を呼び出す。その後、e3により特定されるEvent Objectがシグナル状態になるまで、待機し続ける。taskY_CLKメソッドの完了によりSetEvent(e3)が呼ばれると、スレッド3に制御が戻され、taskW_CLKメソッドが実行される。スレッド3では、taskW_CLKメソッドが完了すると、t[2]により特定されるEvent Objectをシグナル状態にすることで、スレッドの完了を通知する。
(スケジュールの作成−タスク配列)
タスク配列内の各タスク間に先行関係は存在しない。そのため、各タスクをどのような順序でスケジューリングしてもよい。また、タスク配列は、コードは全て同じで、内部変数の場所だけが異なるので、タスク配列内の各タスクの平均の実行時間は、同一であることが期待できる。従って、タスクの多重度がm、利用可能なCPU数がnである場合、各CPUにm/n個ずつタスクを分配する。
図14に示すPERT図のtaskYが多重度4のタスク配列で、利用可能なCPU数が5である場合、以下のスケジュールを作成することができる。
スケジュール5−0=taskX_CLK(); SetEvent(e1); SetEvent(e21); SetEvent(e22);
スケジュール5−1=WaitForSingleObject(e1); taskZ_CLK();
スケジュール5−2=WaitForSingleObject(e21); taskY_CLK(0); taskY_CLK(2);
SetEvent(e31);
スケジュール5−3=WaitForSingleObject(e22); taskY_CLK(1); taskY_CLK(3);
SetEvent(e32);
スケジュール5−4=WaitForSingleObject(e31); WaitForSingleObject(e32);
taskW_CLK();
このように、多重度の数だけ存在するタスク本体関数をインデックス指定して、各CPUに分配することにより、利用可能なCPU数に応じてスケジュールを作成することができる。
ここまで、CDPプログラムについて詳述してきた。特に、スケジュールの作成に関する章では、PERT図で与えられた先行関係を満たすスケジュールの作成について述べている。前述したように、逐次実行する場合、PERT図を既知のアルゴリズムでトポロジカルソートすることにより、容易にスケジュールを作成することができる。しかし、並列実行する場合については、有用なスケジュール作成技術が、現在示されていない。以降の章では、実行時間が特定されない複数のタスクを、そのタスク間の先行関係のみに基づいてスケジューリングする技術を開示する。
(システム構成)
図18のブロック図を参照して、スケジュール作成システム1の構成を詳細に説明する。なお、図18では、単一のコンピュータシステムを想定し、必要な機能構成だけを示しているが、スケジュール作成システム1を、複数のコンピュータシステムによる多機能の分散システムの一部として構成することもできる。
スケジュール作成システム1は、CPU10に、システムバス11を介してRAM12、入力装置13、出力装置14、通信制御装置15および不揮発性記憶媒体(ROMやHDDなど)で構成される記憶装置16が接続された構成を有する。記憶装置16は、上記した機能を奏するためのソフトウェアプログラムを格納するプログラム格納領域と、随時取得するデータや処理結果としてのデータ等を格納するデータ格納領域とを備えている。以下に説明するプログラム格納領域の各手段は、実際は独立したソフトウェアプログラム、そのルーチンやコンポーネントなどであり、CPU10によって記憶装置16から呼び出されRAM12のワークエリアに展開されて、データベース等を適宜参照しながら順次実行されることで、各機能を奏するものである。
データ格納領域は、閉包先行関係記憶手段17、縮退先行関係記憶手段18、タスク配置記憶手段19およびイベント記憶手段20を備える。何れも、記憶装置16内に確保された一定の記憶領域である。
閉包先行関係記憶手段17および縮退先行関係記憶手段18は、図19および図20に示すように、先行タスク、後続タスク、先行関係タイプを格納する。本実施形態では、先行関係タイプには、直接の先行関係を示す2、または間接の先行関係を示す1のいずれかを格納する。
タスク配置記憶手段19は、m個のレイヤ、およびn個のレベルを有し、m×n個の領域に分割されるタスク配置構造体を格納する。各領域には、0または1つのタスクが格納される。レイヤおよびレベルについては後述する。
イベント記憶手段20は、図21に示すように、通知タスク、待機タスク、イベント識別子を格納する。通知タスクにタスクx、および待機タスクにタスクyが格納される場合、タスクxの実行完了後にタスクyを実行すべきであることがわかる。イベント識別子は、イベントを一意に識別する。
プログラム格納領域に格納されているソフトウェアプログラムは、本発明に関連するものだけを列挙すると、先行関係管理手段21、タスク配置手段22、イベント識別手段23およびスケジュール変換手段24を備えている。
先行関係管理手段21は、スケジュール作成対象のプログラムのタスク間の先行関係データを受信する。一実施形態では、先行関係データの一例であるPERT図を受信する。また、先行関係管理手段21は、受信した先行関係データからタスクに対応するノードの集合、およびタスク間の先行関係を表す矢印の集合を抽出する。先行関係管理手段21は、タスク間に生じる間接の先行関係を識別する。間接の先行関係については後述する。先行関係管理手段21は、タスク間の直接の先行関係および間接の先行関係に基づいて、受信した先行関係データの推移閉包(Transitive Closure)を閉包先行関係記憶手段17に、および受信した先行関係データの推移縮退(Transitive Reduction)を縮退先行関係記憶手段18に登録する。
タスク配置手段22は、PERT解析を使用して、各タスクの実行時間を1とした場合の各タスクの最速開始時間を算出する。タスク配置手段22は、算出した開始時間に基づいて、スタート時間、各開始時間、およびフィニッシュ時間に対応するレイヤを有するタスク配置構造体を生成する。
タスク配置手段22は、レイヤLおよびレイヤL−1内のタスク数を比較して、いずれか一方のレイヤ内のタスク数が他方のレイヤ内のタスク数より少ない場合、空タスクを生成して両レイヤ内のタスク数を同一にする。空タスクについては後述する。また、タスク配置手段22は、閉包先行関係記憶手段17に基づいて、レイヤL−1内の各タスクに対して、後続となり得るレイヤL内のタスク(後続タスク候補)の集合を判定する。タスク配置手段22は、グラフの最大マッチングアルゴリズムを用いて、レイヤL−1内の各タスクとその後続タスクについて、最大マッチングを取得する。
タスク配置手段22は、得られた最大マッチングのマッチング数とレイヤL−1内のタスク数を比較する。マッチング数がタスク数より少ない場合、マッチング数とタスク数の差の数、レイヤLおよびレイヤL−1に空タスクを生成し、空タスクを配置するために、新たなレベルの領域を作成する。マッチング数とタスク数とが一致する場合には、各タスクを配置する領域をレイヤL内に作成し、作成した領域にタスクを配置する。
イベント識別手段23は、レイヤL−1内のタスクxの後続としてレイヤL内に配置できなかったタスクyを識別し、イベント記憶手段20に記憶する。なお、レイヤL−1内のタスクxの後続としてレイヤL内に配置できなかったタスクyが存在する場合であっても、タスクxの後続として空タスクが配置されている場合には、この空タスクの後続としてタスクyが配置されないときのみ、イベント記憶手段20に記憶する。
スケジュール変換手段24は、タスク構造体のレベルのうち、スケジュールを作成していないレベルを抽出する。スケジュール変換手段24は、レイヤCに配置されたタスクを識別する。スケジュール変換手段24は、イベント記憶手段20に基づいて、識別したタスクを実行する前に待機すべきイベントが存在するか否かを判定する。待機すべきイベントが存在する場合は、待機すべきイベントをスケジュールとして記述する。一実施形態では、Event Objectを用いて待機すべきイベントを記述する。
スケジュール変換手段24は、識別したタスクが空タスクでない場合、当該タスクの実行をスケジュールとして記述する。スケジュール変換手段24は、イベント記憶手段20に基づいて、識別したタスクの完了を通知すべきイベントが存在するか否かを判定する。通知すべきイベントが存在する場合は、通知すべきイベントをスケジュールとして記述する。一実施形態では、Event Objectを用いて通知すべきイベントを記述する。
(スケジュール作成方法−タスク配置構造体の作成)
次に、図22のフローチャートを参照して、本実施形態に係るスケジュールを作成する工程を説明する。本実施形態では、図9に示されるPERT図で表される複数のタスクを、そのタスク間の先行関係のみに基づいてスケジューリングする。
処理S1において、先行関係管理手段21は、スケジュール作成対象のプログラムのタスク間の先行関係データを受信する。本実施形態では、先行関係データの一例である、図9に示されるPERT図を受信したものとする。この先行関係データは、コンピュータを介してユーザーから、または外部のシステムなどから受信することができる。
処理S2において、先行関係管理手段21は、受信した先行関係データからタスクに対応するノードの集合、およびタスク間の先行関係を表す矢印の集合を抽出する。本実施形態では、タスク1からタスク9の計9個のタスクに対応するノード、およびタスク1からタスク4への先行関係を示す矢印<1,4>、タスク1からタスク6への先行関係を示す矢印<1,6>、・・・など、計12個の矢印が抽出される。
処理S3において、先行関係管理手段21は、タスク間に生じる間接の先行関係を識別する。本実施形態では、タスク4を経由して先行関係を有するタスク1とタスク6との間、タスク4を経由して先行関係を有するタスク1とタスク7との間、などに生じる間接の先行関係が識別される。
処理S4において、先行関係管理手段21は、処理S2で抽出したタスク間の直接の先行関係、および処理S3で識別したタスク間の間接の先行関係に基づいて、受信した先行関係データの推移閉包を閉包先行関係記憶手段17に、および受信した先行関係データの推移縮退を縮退先行関係記憶手段18に登録する。本実施形態では、図19および図20に示されるようなレコードが登録される。
閉包先行関係記憶手段17には、先行関係を有するすべてのタスク間のレコードが登録される。ここで、例えばタスク1とタスク6とは、図9に示されるように直接の先行関係を有し、かつ、前述したように間接の先行関係も有する。すなわち、タスク1がタスク6に先行することは、タスク1とタスク6との直接の先行関係によって表されており、かつ、タスク1とタスク4との直接の先行関係およびタスク4とタスク6との直接の先行関係によっても表されている。このように、直接の先行関係および間接の先行関係を有する場合には、間接の先行関係を優先して登録する。このようにすることで、直接の先行関係のうち、他の直接の先行関係によって表される冗長関係を排除することができる。
また、縮退先行関係記憶手段18には、閉包先行関係記憶手段17に登録されているレコードのうち、直接の先行関係を示すレコードのみが登録される。図23に、処理S4時点のPERT図を示す。図23に示されるように、処理S4時点では、タスク1とタスク6との直接の先行関係を示す矢印は削除される。
次に、処理S5において、タスク配置手段22は、縮退先行関係記憶手段18に記録された先行関係に対し、PERT解析を使用して、各タスクの実行時間を1とした場合の各タスクの最速開始時間を算出する。本実施形態では、プログラム全体のスタートを0とし、実行時間1にタスク1、タスク2、タスク3が開始され、実行時間2にタスク4、タスク5が開始され、実行時間3にタスク6、タスク7、タスク8が開始され、実行時間4にタスク9が開始され、フィニッシュすることがわかる。
処理S6において、タスク配置手段22は、処理S5で算出した開始時間に基づいて、スタート時間、各開始時間、およびフィニッシュ時間に対応するレイヤを有するタスク配置構造体を生成する。本実施形態では、計6個のレイヤを有するタスク配置構造体が生成される。図24は、タスク構造体に配置されているPERT図のイメージ図である。
処理S7において、タスク配置手段22は、レイヤ1の割り当てを決定する。具体的には、レイヤ1をレイヤ内に存在するタスク数のレベルに分割し、分割した領域にタスクを配置する。本実施形態では、レイヤ1内にタスクが3つ存在するので、レイヤ1を3つのレベルに分割して、タスク1、タスク2、タスク3を配置する。図25は、処理S7時点のタスク構造体に配置されたPERT図のイメージ図である。レイヤ1の割り当て完了後、タスク配置手段22は、レイヤLにレイヤ2をセットする。
処理S8において、タスク配置手段22は、レイヤLがフィニッシュ時間に対応するレイヤtであるか否か判定する。レイヤtでない場合、処理S9に進み、レイヤtである場合には処理S17に進む。本実施形態では、レイヤLはレイヤ2であるので、処理S9に進む。
処理S9において、タスク配置手段22は、レイヤLおよびレイヤL−1内のタスク数を比較して、いずれか一方のレイヤ内のタスク数が他方のレイヤ内のタスク数より少ない場合、空タスクを生成して両レイヤ内のタスク数を同一にする。本実施形態では、レイヤL(レイヤ2)内のタスク数が2、レイヤL−1(レイヤ1)内のタスク数が3であるので、レイヤ2に空タスクを1つ生成する。図26は、処理S9時点のタスク構造体に配置されたPERT図のイメージ図である。図26において、空タスクはεとして表される。空タスクは、スケジュール作成のために用いる、実行ステップを持たないタスクである。
処理S10において、タスク配置手段22は、閉包先行関係記憶手段17に基づいて、レイヤL−1内の各タスクに対して、後続となり得るレイヤL内のタスク(後続タスク候補)の集合を判定する。ここで、タスクxおよびタスクyが先行関係を有する場合、タスクyはタスクxの後続となり得る。また、空タスクは、任意のタスクの後続になり得る。本実施形態では、タスク1の後続タスク候補としてタスク4および空タスク1、タスク2の後続タスク候補としてタスク4および空タスク1、タスク3の後続タスク候補としてタスク5および空タスク1が判定される。
処理S11において、タスク配置手段22は、グラフの最大マッチングアルゴリズムを用いて、レイヤL−1内の各タスクとその後続タスクについて、最大マッチングを取得する。本実施形態では、組み合わせ1{[タスク1→タスク4],[タスク2→空タスク1],[タスク3→タスク5]}および組み合わせ2{[タスク1→空タスク1],[タスク2→タスク4],[タスク3→タスク5]}の2通りの最大マッチングが得られる。
処理S12において、タスク配置手段22は、処理S11で得られた最大マッチングのマッチング数とレイヤL−1内のタスク数を比較する。マッチング数がタスク数より少ない場合、処理S13に進み、マッチング数とタスク数とが一致する場合には、処理S14に進む。本実施形態では、マッチング数およびタスク数が3と一致するので、処理S14に進む。処理S13については後述する。
処理S14において、タスク配置手段22は、レイヤLをレイヤ内に存在するタスク数のレベルに分割し、分割した領域にタスクを配置する。ここで、レイヤLおよびレイヤL−1は同じ数の領域が作成されている。図27に示すように、タスク配置構造体を区切る縦の単位をレイヤ、横の単位をレベルと呼ぶ。タスク配置手段22は、各タスクとその後続のタスクとが、同一レベルになるようにタスクを配置する。処理S11で複数の最大マッチングが得られた場合には、任意の1つを選択することができる。本実施形態では、組み合わせ1を選択し、レイヤ2のレベル1にタスク4を、レイヤ2のレベル2に空タスク1を、レイヤ2のレベル3にタスク5を配置する。図27は、処理S14時点のタスク構造体に配置されたPERT図のイメージ図である。
処理S15において、イベント識別手段23は、レイヤL−1内のタスクxの後続としてレイヤL内に配置できなかったタスクyを識別し、イベント記憶手段20に記憶する。本実施形態では、まず、タスク2の後続として配置できなかったタスク4が識別され、イベント記憶手段20に記憶される。また、レイヤ1内のタスク3の後続としてレイヤ2内に配置できなかったタスク8が識別され、イベント記憶手段20に記憶される。ここでは、図21のイベント識別子e0およびe1により識別されるレコードが登録される。
処理S8から処理S15までが、1つのレイヤに対する処理である。処理S16において、タスク配置手段22は、レイヤLに現在処理中のレイヤの次のレイヤをセットし、処理S8に戻る。本実施形態では、タスク配置手段22は、レイヤLにレイヤ3をセットし、処理S8に戻る。
本実施形態では、処理S8(2週目)において、タスク配置手段22は、レイヤLがフィニッシュ時間に対応するレイヤtであるか否か判定し、レイヤLはレイヤ3であるので、処理S9に進む。
処理S9(2週目)において、タスク配置手段22は、レイヤ3およびレイヤ2内のタスク数を比較する。本実施形態では、両レイヤ内のタスク数は3で同一であるので、空タスクは生成せずに、処理S10に進む。
処理S10(2週目)において、タスク配置手段22は、閉包先行関係記憶手段17に基づいて、レイヤ2内の各タスクに対して、後続となり得るレイヤ3内のタスクの集合を判定する。本実施形態では、まず、タスク4の後続タスク候補としてタスク6、タスク7およびタスク8が判定される。ここで、空タスクの後続候補は、空タスクに先行する空タスク以外のタスクのうち、最も高レイヤのタスクxが直接または間接の先行関係を有するタスクyとなる。本実施形態では、空タスク1の後続タスク候補として、空タスクに先行する空タスク以外のタスクのうち、最も高レイヤのタスク2が間接の先行関係を有するタスク6、タスク7およびタスク8が判定される。一方、タスク5の後続タスク候補は存在しない。
処理S11(2週目)において、タスク配置手段22は、グラフの最大マッチングアルゴリズムを用いて、レイヤ2内の各タスクとその後続タスクについて、最大マッチングを取得する。本実施形態では、組み合わせ1{[タスク4→タスク6],[空タスク1→タスク7]}、組み合わせ2{[タスク4→タスク7],[空タスク1→タスク6]}など、複数の最大マッチングが得られる。
処理S12(2週目)において、タスク配置手段22は、処理S11で得られた最大マッチングのマッチング数2とレイヤ2内のタスク数3を比較する。本実施形態では、マッチング数がタスク数より少ないので、処理S13に進む。
処理S13(2週目)において、タスク配置手段22は、マッチング数とタスク数の差の数、レイヤLおよびレイヤL−1に空タスクを生成し、空タスクを配置するために、新たなレベルの領域を作成する。本実施形態では、レイヤ2およびレイヤ3に空タスク2、空タスク3がそれぞれ生成され、空タスク2を配置するために、レベル4の領域が生成される。図28は、処理S13時点のタスク構造体に配置されたPERT図のイメージ図である。
処理S13後、再度処理S10に戻る。処理S10(2週目、2度目)において、タスク配置手段22は、閉包先行関係記憶手段17に基づいて、レイヤ2内の各タスクに対して、後続となり得るレイヤ3内のタスクの集合を判定する。本実施形態では、タスク4、空タスク1、空タスク2の後続タスク候補として、いずれもタスク6、タスク7、タスク8および空タスク3が、タスク5の後続タスク候補として空タスク3が判定される。
処理S11(2週目、2度目)において、タスク配置手段22は、グラフの最大マッチングアルゴリズムを用いて、レイヤ2内の各タスクとその後続タスクについて、最大マッチングを取得する。本実施形態では、組み合わせ1{[タスク4→タスク6],[空タスク1→タスク7],[タスク5→空タスク3],[空タスク2→タスク8]}、組み合わせ2{[タスク4→タスク7],[空タスク1→タスク6]}など、複数の最大マッチングが得られる。
処理S12(2週目、2度目)において、タスク配置手段22は、処理S11で得られた最大マッチングのマッチング数4とレイヤ2内のタスク数4を比較する。本実施形態では、マッチング数とタスク数とが一致するので、処理S14に進む。
処理S14(2週目)において、タスク配置手段22は、レイヤ3をレイヤ3内に存在するタスク数である4つのレベルに分割し、分割した領域にタスクを配置する。本実施形態では、レイヤ3のレベル1にタスク6を、レイヤ3のレベル2にタスク7を、レイヤ3のレベル3に空タスク3を、レイヤ3のレベル4にタスク8を配置する。図29は、処理S14(2週目)時点のタスク構造体に配置されたPERT図のイメージ図である。
処理S15(2週目)において、イベント識別手段23は、レイヤ2内のタスクxの後続としてレイヤ3内に配置できなかったタスクyを識別し、イベント記憶手段20に記憶する。本実施形態では、タスク4の後続として配置できなかったタスク7、タスク4の後続として配置できなかったタスク8が識別され、イベント記憶手段20に記憶される。なお、レイヤ2内のタスク5の後続としてレイヤ3内に配置できなかったタスク9については、ここでは記憶されない。レイヤL−1内のタスクxの後続としてレイヤL内に配置できなかったタスクyが存在する場合であっても、タスクxの後続として空タスクが配置されている場合には、この空タスクの後続としてタスクyが配置されないときのみ、イベント記憶手段20に記憶する。したがって、ここでは、図21のイベント識別子e2およびe3により識別されるレコードが登録される。
レイヤ3に対する処理を終え、処理S16(2週目)において、タスク配置手段22は、レイヤLにレイヤ4をセットし、処理S8に戻る。
本実施形態では、処理S8(3週目)において、タスク配置手段22は、レイヤLがフィニッシュ時間に対応するレイヤtであるか否か判定し、レイヤLはレイヤ4であるので、処理S9に進む。
処理S9(3週目)において、タスク配置手段22は、レイヤ4およびレイヤ3内のタスク数を比較する。本実施形態では、レイヤ4内のタスク数が1、レイヤ3内のタスク数が4であるので、レイヤ4に空タスクを3つ生成する。図30は、処理S9(3週目)時点のタスク構造体に配置されたPERT図のイメージ図である。
処理S10(3週目)において、タスク配置手段22は、閉包先行関係記憶手段17に基づいて、レイヤ3内の各タスクに対して、後続となり得るレイヤ4内のタスクの集合を判定する。本実施形態では、タスク6、タスク7、タスク8、空タスク3の後続タスク候補として、いずれもタスク9、空タスク4、空タスク5および空タスク6が判定される。
処理S11(3週目)において、タスク配置手段22は、グラフの最大マッチングアルゴリズムを用いて、レイヤ3内の各タスクとその後続タスクについて、最大マッチングを取得する。本実施形態では、組み合わせ1{[タスク6→空タスク4],[タスク7→空タスク5],[空タスク3→タスク9],[タスク8→空タスク6]}など、複数の最大マッチングが得られる。
処理S12(3週目)において、タスク配置手段22は、処理S11で得られた最大マッチングのマッチング数4とレイヤ3内のタスク数4を比較する。本実施形態では、マッチング数とタスク数とが一致するので、処理S14に進む。
処理S14(3週目)において、タスク配置手段22は、レイヤ4をレイヤ内に存在するタスク数である4つのレベルに分割し、分割した領域にタスクを配置する。本実施形態では、レイヤ4のレベル1に空タスク4を、レイヤ4のレベル2に空タスク5を、レイヤ4のレベル3にタスク9を、レイヤ4のレベル4に空タスク6を配置する。図31は、処理S14(3週目)時点のタスク構造体に配置されたPERT図のイメージ図である。
処理S15(3週目)において、イベント識別手段23は、レイヤ3内のタスクxの後続としてレイヤ4内に配置できなかったタスクyを識別し、イベント記憶手段20に記憶する。本実施形態では、タスク6の後続として配置できなかったタスク9、タスク7の後続として配置できなかったタスク9、タスク8の後続として配置できなかったタスク9が識別され、イベント記憶手段20に記憶される。なお、レイヤ2内のタスク5の後続としてレイヤ3内に配置できなかったタスク9は、レイヤ3の空タスクを介して、レイヤ4内にタスク5の後続として配置されているので、イベント記憶手段20には記憶されない。したがって、ここでは、図21のイベント識別子e4、e5およびe6により識別されるレコードが登録される。
レイヤ4に対する処理を終え、処理S16(3週目)において、タスク配置手段22は、レイヤLにレイヤtをセットし、処理S8に戻る。
本実施形態では、処理S8(4週目)において、タスク配置手段22は、レイヤLがフィニッシュ時間に対応するレイヤtであるか否か判定し、レイヤLはレイヤtであるので、処理S17に進む。
処理S17において、タスク配置手段22は、上述の処理で得られたタスク配置構造体の情報をタスク配置記憶手段19に記憶する。
処理S18において、スケジュール変換手段24は、タスク配置記憶手段19のタスク配置構造体およびイベント記憶手段20に基づいて、スケジュールを作成する。
(スケジュール作成方法−タスク配置構造体からの変換)
次に、図32のフローチャートを参照して、タスク配置記憶手段19のタスク配置構造体およびイベント記憶手段20に基づいて、スケジュールを作成する工程を詳述する。本実施形態では、(スケジュールの作成−並列実行)の章同様、Event Objectを用いるものとする。
処理S1において、スケジュール変換手段24は、スケジュール未作成のレベルが存在するか否か判定する。未作成のレベルが存在する場合、処理S2に進み、未作成のレベルが存在しない場合には処理を終了する。本実施形態では、未作成のレベルが存在するので、処理S2に進む。
処理S2において、スケジュール変換手段24は、タスク構造体のレベルのうち、スケジュールを作成していないレベルを抽出し、かつ、レイヤCにレイヤ1をセットする。本実施形態では、レベル1を抽出するものとする。
処理S3において、スケジュール変換手段24は、レイヤCがフィニッシュ時間に対応するレイヤtであるか否か判定する。レイヤtでない場合、処理S4に進み、レイヤtである場合には処理S1に戻る。本実施形態では、レイヤCはレイヤ1であるので、処理S4に進む。
処理S4において、スケジュール変換手段24は、レイヤCに配置されたタスクを識別する。本実施形態では、レイヤ1に配置されたタスク1を識別する。
処理S5において、スケジュール変換手段24は、イベント記憶手段20に基づいて、処理S4で識別したタスクを実行する前に待機すべきイベントが存在するか否かを判定する。待機すべきイベントが存在する場合は処理S6に進み、存在しない場合には処理S7に進む。本実施形態では、イベント記憶手段20の待機タスクに対象となるタスクが格納されているか否かにより判定を行うことができる。ここでは、図21に示されるように、待機タスクにタスク1が格納されたレコードは存在しないので、処理S7に進む。処理S6については後述する。
処理S7において、スケジュール変換手段24は、処理S4で識別したタスクが空タスクでない場合、当該タスクの実行をスケジュールとして記述する。本実施形態では、タスク1の実行をtask1()と記述する。
処理S8において、スケジュール変換手段24は、イベント記憶手段20に基づいて、処理S4で識別したタスクの完了を通知すべきイベントが存在するか否かを判定する。通知すべきイベントが存在する場合は処理S9に進み、存在しない場合には処理S10に進む。本実施形態では、イベント記憶手段20の通知タスクに対象となるタスクが格納されているか否かにより判定を行うことができる。ここでは、図21に示されるように、通知タスクにタスク1が格納されたレコードは存在しないので、処理S10に進む。処理S9については後述する。
処理S3から処理S9までが、1つのレイヤに対する処理である。処理S10において、スケジュール変換手段24は、レイヤCに現在処理中のレイヤの次のレイヤをセットし、処理S3に戻る。ここでは、レイヤCにレイヤ2をセットする。
処理S3(2週目)において、スケジュール変換手段24は、レイヤCがフィニッシュ時間に対応するレイヤtであるか否か判定し、レイヤCはレイヤ2であるので、処理S4に進む。
処理S4(2週目)において、スケジュール変換手段24は、レイヤ2に配置されたタスク4を識別する。処理S5(2週目)において、スケジュール変換手段24は、イベント記憶手段20に基づいて、タスク4を実行する前に待機すべきイベントが存在するか否かを判定する。本実施形態では、図21に示されるように、タスク4を実行する前に待機すべきイベントが存在するので、処理S6に進む。
処理S6(2週目)において、スケジュール変換手段24は、待機すべきイベントをスケジュールとして記述する。本実施形態では、e0により特定されるEvent Objectがシグナル状態になるまで待機し続けるために、WaitForSingleObject(e0)の呼び出しを記述する。
処理S7(2週目)において、スケジュール変換手段24は、処理S4で識別したタスク4の実行をスケジュールとして記述する。本実施形態では、タスク4の実行をtask4()と記述する。処理S8(2週目)において、スケジュール変換手段24は、イベント記憶手段20に基づいて、処理S4で識別したタスク4の完了を通知すべきイベントが存在するか否かを判定する。本実施形態では、図21に示されるように、タスク4の完了を通知すべきイベントが存在するので、処理S9に進む。
処理S9(2週目)において、スケジュール変換手段24は、通知すべきイベントをスケジュールとして記述する。本実施形態では、e2およびe3により特定されるEvent Objectをシグナル状態にするために、SetEvent(e2)およびSetEvent(e3)の呼び出しを記述する。
処理S10において、スケジュール変換手段24は、レイヤCにレイヤ3をセットし、処理S3に戻る。同様に、レイヤ3、レイヤ4に対して処理S3から処理S9までの処理を行い、最後に、処理S10において、レイヤCにレイヤtがセットされると、処理S3の判定を経て、処理S1に戻る。ここまでの処理によって、レベル1に対応するスケジュールとして、以下に示すスケジュール6−0が作成される。
また、同様に、処理S1からフローチャートに従って処理することにより、レベル2に対応するスケジュールとしてスケジュール6−1、レベル3に対応するスケジュールとしてスケジュール6−2、レベル4に対応するスケジュールとしてスケジュール6−3が得られる。
スケジュール6−0=task1(); WaitForSingleObject(e0); task4(); SetEvent(e2);
SetEvent(e3); task6(); SetEvent(e4);
スケジュール6−1=task2(); SetEvent(e0); WaitForSingleObject(e2); task7();
SetEvent(e5);
スケジュール6−2=task3(); SetEvent(e1); task5(); WaitForSingleObject(e4);
WaitForSingleObject(e5); WaitForSingleObject(e6); task9();
スケジュール6−3=WaitForSingleObject(e1); WaitForSingleObject(e3); task8();
SetEvent(e6);
以上の処理により、図9に示されるPERT図で表される複数のタスクを、そのタスク間の先行関係のみに基づいてスケジューリングすることができる。タスクの実行時間に依存しないので、タスクの実行時間が変わっても、スケジュールを再作成する必要はなくなる。
本発明で導かれるスケジュールは、リソース数の制約がない場合に実行時間が最小となるものであって、いずれの実行環境においても、最小時間での実行を保障することができる。さらに、本発明で導かれるスケジュールにより、実行時間が最小となるスケジュールを実行するための最少リソース数を得ることができる。最少リソース数を知ることにより、不必要なリソースを維持する不利益を回避することができる。

Claims (8)

  1. 先行タスク、後続タスク、タスク間に生じる直接および間接の先行関係タイプを格納する閉包先行関係記憶手段と、先行タスク、後続タスク、タスク間に生じる直接の先行関係タイプを格納する縮退先行関係記憶手段と、タスク間の先行後続関係に基づくスケジューリングを実現するために用いる同期機構イベントの識別子と先行、後続として配置できなかったタスク間の先行関係とを格納するイベント記憶手段と、スケジュールの結果を記憶するタスク配置記憶手段とを備えたシステムにおいて実行される方法であって
    前記システムの先行関係管理手段が、スケジュール作成対象のプログラムのタスク間の先行関係データを受信するステップと、
    前記先行関係管理手段が、前記先行関係データに含まれる先行関係から、間接的な先行関係を識別し、前記識別された間接的な先行関係を取り除いた先行関係タイプを前記縮退先行関係記憶手段に記憶させるとともに、前記閉包先行関係記憶手段の先行関係タイプを直接、間接を区別して記憶させるステップと、
    前記システムのタスク配置手段が、前記縮退先行関係記憶手段に記録された先行関係に対し、PERT解析を使用して、各タスクの実行時間を1とした場合の各タスクの開始時間を算出するステップと、
    前記タスク配置手段が、前記算出した開始時間に基づいて、前記各タスクの開始時間に対応する1以上のレイヤ、およびスケジュール作成対象のプログラムの実行のフィニッシュ時間に対応するレイヤを有するタスク配置構造体を生成するステップと、
    前記タスク配置手段が、レイヤ1をレイヤ1内に存在するタスク数のレベルで分割し、
    分割した領域にタスクを配置するステップと、
    前記タスク配置手段が、処理対象のレイヤを示すレイヤLに、レイヤ2をセットするステップと、
    前記タスク配置手段が、前記レイヤLが前記フィニッシュ時間に対応するレイヤtであるか否か判定するステップであって、レイヤtである場合、前記タスク配置構造体および前記イベント記憶手段に基づいて、スケジュールを作成し、レイヤtでない場合、
    前記タスク配置手段が、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数を比較して、いずれか一方のレイヤ内のタスク数が他方のレイヤ内のタスク数より少ない場合、空タスクを生成して両レイヤ内のタスク数を同一にするステップと、
    前記タスク配置手段が、前記閉包先行関係記憶手段に基づいて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクに対して、後続となり得る前記レイヤL内のタスク(後続タスク候補)の集合を判定するステップと、
    前記タスク配置手段が、グラフの最大マッチングアルゴリズムを用いて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクについて、最大マッチングを取得するステップと、
    前記タスク配置手段が、前記最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数より少ない場合、最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数と一致するまで、マッチング数とタスク数の差の数、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤに空タスクを生成し、空タスクを配置するために新たなレベルの領域を作成し、前記後続タスク候補の集合を判定するステップ、および前記最大マッチングを取得するステップを繰り返す、ステップと、
    前記タスク配置手段が、前記レイヤLのレイヤを当該レイヤ内に存在するタスク数のレベルで分割し、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクとが、同一レベルになるように分割した領域にタスクを配置するステップと、
    前記システムのイベント識別手段が、前記レイヤLの1つ前のレイヤであるレイヤ内のタスクxの後続として前記レイヤL内に配置できなかったタスクyを識別し、先行、後続として配置できなかったタスク間の先行関係を、前記同期機構イベントを使って表現するため、前記タスクxと前記タスクyとイベント識別子を前記イベント記憶手段に記憶するステップと、
    前記タスク配置手段が、前記レイヤLに1を加算することにより現在処理中のレイヤの次のレイヤを処理対象のレイヤとしてセットするステップを行い
    前記レイヤLが前記フィニッシュ時間に対応するレイヤtであるか否か判定するステップに戻、ステップと
    を含むことを特徴とする方法。
  2. 前記タスク配置構造体および前記イベント記憶手段に基づいて、スケジュールを作成するステップは、
    前記システムのスケジュール変換手段が、前記タスク配置構造体にスケジュール未作成のレベルが存在するか否か判定し、存在する場合に、後続の処理を続けるステップと、
    前記スケジュール変換手段が、前記タスク配置構造体のレベルのうち、スケジュールを作成していないレベルを抽出し、かつ、処理対象のレイヤを示すレイヤCに1をセットするステップと、
    前記スケジュール変換手段が、前記レイヤCが前記レイヤtであるか否か判定するステップであって、レイヤtである場合、前記タスク配置構造体にスケジュール未作成のレベルが存在するか否か判定するステップに戻り、レイヤtでない場合、
    前記スケジュール変換手段が、前記レイヤCに配置されたタスクを識別するステップと、
    前記スケジュール変換手段が、前記イベント記憶手段に基づいて、前記識別したタスクを実行する前に待機すべきイベントが存在するか否かを判定し、存在する場合に、イベントを待機するために待機タスクをスケジュールに挿入するステップと、
    前記スケジュール変換手段が、前記識別したタスクが空タスクでない場合、当該タスクの実行をスケジュールとして記述するステップと、
    前記スケジュール変換手段が、前記イベント記憶手段に基づいて、前記識別したタスクの完了を通知すべきイベントが存在するか否かを判定し、存在する場合に、イベントを通知する通知タスクをスケジュールに挿入するステップと
    前記スケジュール変換手段が、前記レイヤCに1を加算現在処理中のレイヤの次のレイヤをセットするステップを行い
    前記レイヤCが前記レイヤtであるか否か判定するステップに戻ステップと
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記先行関係データはPERT図であり、
    前記先行関係管理手段が、前記先行関係データからタスクに対応するノードの集合、およびタスク間の先行関係を表す矢印の集合を抽出するステップと、
    前記先行関係管理手段が、タスク間に生じる間接の先行関係を識別するステップと
    をさらに含むことを特徴とする請求項1または2に記載の方法。
  4. 前記先行関係管理手段は、直接の先行関係および間接の先行関係を有する場合には、前記閉包先行関係記憶手段に間接の先行関係を優先して登録することを特徴とする請求項1乃至3のいずれかに記載の方法。
  5. 前記スケジュール変換手段は、同期プリミティブを用いて前記待機すべきイベントおよび前記通知すべきイベントを記述することを特徴とする請求項2に記載の方法。
  6. 前記タスク配置構造体を、前記システムのタスク配置記憶手段に記憶するステップをさらに含むことを特徴とする請求項1乃至5のいずれかに記載の方法。
  7. 先行タスク、後続タスク、タスク間に生じる直接および間接の先行関係タイプを格納する閉包先行関係記憶手段と、先行タスク、後続タスク、タスク間に生じる直接の先行関係タイプを格納する縮退先行関係記憶手段と、
    タスク間の先行後続関係に基づくスケジューリングを実現するために用いる同期機構イベントの識別子と先行、後続として配置できなかったタスク間の先行関係とを格納するイベント記憶手段と、
    スケジュールの結果を記憶するタスク配置記憶手段と、
    スケジュール作成対象のプログラムのタスク間の先行関係データを受信し、前記先行関係データに含まれる先行関係から、間接的な先行関係を識別し、前記識別された間接的な先行関係を取り除いた先行関係タイプを前記縮退先行関係記憶手段に記憶させるとともに、前記閉包先行関係記憶手段の先行関係タイプを直接、間接を区別して記憶させる先行関係管理手段と、
    前記縮退先行関係記憶手段に記録された先行関係に対し、PERT解析を使用して、各タスクの実行時間を1とした場合の各タスクの開始時間を算出し、前記算出した開始時間に基づいて、前記各タスクの開始時間に対応する1以上のレイヤ、およびスケジュール作成対象のプログラムの実行のフィニッシュ時間に対応するレイヤを有するタスク配置構造体を生成し、レイヤ1をレイヤ1内に存在するタスク数のレベルで分割して、分割した領域にタスクを配置し、処理対象のレイヤを示すレイヤLにレイヤ2をセットし、前記レイヤLが前記フィニッシュ時間に対応するレイヤtであるか否か判定し、レイヤtでない場合、ステップ(1)から(6)を繰り返すタスク配置手段であって、
    (1)前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数を比較して、いずれか一方のレイヤ内のタスク数が他方のレイヤ内のタスク数より少ない場合、空タスクを生成して両レイヤ内のタスク数を同一にし、
    (2)前記閉包先行関係記憶手段に基づいて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクに対して、後続となり得る前記レイヤL内のタスク(後続タスク候補)の集合を判定し、
    (3)グラフの最大マッチングアルゴリズムを用いて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクについて、最大マッチングを取得し、
    (4)前記最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数より少ない場合、最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数と一致するまで、マッチング数とタスク数の差の数、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤに空タスクを生成し、空タスクを配置するために新たなレベルの領域を作成し、(2)および(3)を繰り返し、
    (5)前記レイヤLのレイヤを当該レイヤ内に存在するタスク数のレベルで分割し、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクとが、同一レベルになるように分割した領域にタスクを配置し、
    (6)前記レイヤLに1を加算することにより現在処理中のレイヤの次のレイヤをセットし、前記レイヤLがフィニッシュ時間に対応するレイヤtでない場合、(1)に戻す
    タスク配置手段と、
    前記レイヤLの1つ前のレイヤであるレイヤ内のタスクxの後続として前記レイヤL内に配置できなかったタスクyを識別し、先行、後続として配置できなかったタスク間の先行関係を、前記同期機構イベントを使って表現するため、前記タスクxと前記タスクyとイベント識別子を前記イベント記憶手段に記憶するイベント識別手段と、
    前記タスク配置構造体および前記イベント記憶手段に基づいて、スケジュールを作成するスケジュール変換手段と
    を備えたことを特徴とするシステム。
  8. 先行タスク、後続タスク、タスク間に生じる直接および間接の先行関係タイプを格納する閉包先行関係記憶手段と、先行タスク、後続タスク、タスク間に生じる直接の先行関係タイプを格納する縮退先行関係記憶手段と、タスク間の先行後続関係に基づくスケジューリングを実現するために用いる同期機構イベントの識別子と先行、後続として配置できなかったタスク間の先行関係とを格納するイベント記憶手段とスケジュールの結果を記憶するタスク配置記憶手段とを備えたシステムに、タスク間の先行関係に基づいてスケジュールを作成させるためのプログラムであって、
    前記システムの先行関係管理手段が、スケジュール作成対象のプログラムのタスク間の先行関係データを受信するステップと、
    前記先行関係管理手段が、前記先行関係データに含まれる先行関係から、間接的な先行関係を識別し、前記識別された間接的な先行関係を取り除いた先行関係タイプを前記縮退先行関係記憶手段に記憶させるとともに、前記閉包先行関係記憶手段の先行関係タイプを直接、間接を区別して記憶させるステップと、
    前記システムのタスク配置手段が、前記縮退先行関係記憶手段に記録された先行関係に対し、PERT解析を使用して、各タスクの実行時間を1とした場合の各タスクの開始時間を算出するステップと、
    前記タスク配置手段が、前記算出した開始時間に基づいて、前記各タスクの開始時間に対応する1以上のレイヤ、およびスケジュール作成対象のプログラムの実行のフィニッシュ時間に対応するレイヤを有するタスク配置構造体を生成するステップと、
    前記タスク配置手段が、レイヤ1をレイヤ1内に存在するタスク数のレベルで分割し、分割した領域にタスクを配置するステップと、
    前記タスク配置手段が、処理対象のレイヤを示すレイヤLにレイヤ2をセットするステップと、
    前記タスク配置手段が、前記レイヤLが前記フィニッシュ時間に対応するレイヤtであるか否か判定するステップであって、レイヤtである場合、前記タスク配置構造体および前記イベント記憶手段に基づいて、スケジュールを作成し、レイヤtでない場合
    記タスク配置手段が、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数を比較して、いずれか一方のレイヤ内のタスク数が他方のレイヤ内のタスク数より少ない場合、空タスクを生成して両レイヤ内のタスク数を同一にするステップと、
    前記タスク配置手段が、前記閉包先行関係記憶手段に基づいて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクに対して、後続となり得る前記レイヤL内のタスク(後続タスク候補)の集合を判定するステップと、
    前記タスク配置手段が、グラフの最大マッチングアルゴリズムを用いて、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクについて、最大マッチングを取得するステップと、
    前記タスク配置手段が、前記最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数より少ない場合、最大マッチングのマッチング数が前記レイヤLの1つ前のレイヤであるレイヤ内のタスク数と一致するまで、マッチング数とタスク数の差の数、前記レイヤLおよび前記レイヤLの1つ前のレイヤであるレイヤに空タスクを生成し、空タスクを配置するために新たなレベルの領域を作成し、前記後続タスク候補の集合を判定するステップ、および前記最大マッチングを取得するステップを繰り返す、ステップと、
    前記タスク配置手段が、前記レイヤLのレイヤを当該レイヤ内に存在するタスク数のレベルで分割し、前記レイヤLの1つ前のレイヤであるレイヤ内の各タスクとその後続タスクとが、同一レベルになるように分割した領域にタスクを配置するステップと、
    前記システムのイベント識別手段が、前記レイヤLの1つ前のレイヤであるレイヤ内のタスクxの後続として前記レイヤL内に配置できなかったタスクyを識別し、先行、後続として配置できなかったタスク間の先行関係を、前記同期機構イベントを使って表現するため、前記タスクxと前記タスクyとイベント識別子を前記イベント記憶手段に記憶するステップと、
    前記タスク配置手段が、前記レイヤLに1を加算することにより現在処理中のレイヤの次のレイヤを処理対象のレイヤとしてセットするステップを行い
    前記レイヤLがフィニッシュ時間に対応するレイヤtであるか否か判定するステップに戻、ステップと
    を含むことを特徴とするプログラム。
JP2012068034A 2012-03-23 2012-03-23 スケジュール作成方法、そのシステムおよびプログラム Active JP5486034B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012068034A JP5486034B2 (ja) 2012-03-23 2012-03-23 スケジュール作成方法、そのシステムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012068034A JP5486034B2 (ja) 2012-03-23 2012-03-23 スケジュール作成方法、そのシステムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2013200667A JP2013200667A (ja) 2013-10-03
JP5486034B2 true JP5486034B2 (ja) 2014-05-07

Family

ID=49520880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012068034A Active JP5486034B2 (ja) 2012-03-23 2012-03-23 スケジュール作成方法、そのシステムおよびプログラム

Country Status (1)

Country Link
JP (1) JP5486034B2 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282551A (ja) * 2000-03-29 2001-10-12 Hitachi Ltd ジョブ処理装置および方法
JP4206653B2 (ja) * 2001-07-13 2009-01-14 日本電気株式会社 タスクスケジューリングシステムおよび方法、プログラム
JP2003296124A (ja) * 2002-03-29 2003-10-17 Japan Research Institute Ltd ジョブ実行順序設定装置、ジョブ実行順序設定システムおよびジョブ実行順序設定方法
JP2005038332A (ja) * 2003-07-18 2005-02-10 Matsushita Electric Ind Co Ltd ジョブスケジュール装置

Also Published As

Publication number Publication date
JP2013200667A (ja) 2013-10-03

Similar Documents

Publication Publication Date Title
US8327363B2 (en) Application compatibility in multi-core systems
Singh et al. Optimizing grid-based workflow execution
US20170046201A1 (en) Backfill scheduling for embarrassingly parallel jobs
Carver et al. In search of a fast and efficient serverless dag engine
JP2012511204A (ja) リソースを最適化するためのタスク再編成方法
JP2011527788A (ja) 依存問題の効率的並列計算
US20070198628A1 (en) Cell processor methods and apparatus
CN113205417B (zh) 一种面向联盟链的交易并行处理方法及系统
Becker et al. Scheduling multi-rate real-time applications on clustered many-core architectures with memory constraints
US8484649B2 (en) Amortizing costs of shared scans
Zeng et al. Mechanisms for guaranteeing data consistency and flow preservation in AUTOSAR software on multi-core platforms
Verhoef Modeling and validating distributed embedded real-time control systems
WO2020121292A1 (en) Efficient data processing in a serverless environment
Suzuki et al. Real-time ros extension on transparent cpu/gpu coordination mechanism
WO2016207249A1 (en) Computer-implemented method of performing parallelized electronic-system level simulations
Singh et al. A non-database operations aware priority ceiling protocol for hard real-time database systems
CN113220444B (zh) Os优化的工作流分配
EP2840513B1 (en) Dynamic task prioritization for in-memory databases
Amer et al. Improving scientific workflow performance using policy based data placement
JP5480322B2 (ja) 性能制御方法、そのシステムおよびプログラム
JP5486034B2 (ja) スケジュール作成方法、そのシステムおよびプログラム
Lázaro-Muñoz et al. A tasks reordering model to reduce transfers overhead on GPUs
CN113094260B (zh) 一种分布式系统时序关系建模与仿真分析方法
Wong et al. Priority-based functional reactive programming (P-FRP) using deferred abort
JP5465745B2 (ja) プログラム処理方法およびそのシステム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20140109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140220

R150 Certificate of patent or registration of utility model

Ref document number: 5486034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250