JP2019144627A - プログラム実行制御方法および車両制御装置 - Google Patents

プログラム実行制御方法および車両制御装置 Download PDF

Info

Publication number
JP2019144627A
JP2019144627A JP2018025692A JP2018025692A JP2019144627A JP 2019144627 A JP2019144627 A JP 2019144627A JP 2018025692 A JP2018025692 A JP 2018025692A JP 2018025692 A JP2018025692 A JP 2018025692A JP 2019144627 A JP2019144627 A JP 2019144627A
Authority
JP
Japan
Prior art keywords
function
lock
core
queue
limiter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018025692A
Other languages
English (en)
Other versions
JP7042105B2 (ja
Inventor
昌能 西
Masataka Nishi
昌能 西
朋仁 蛯名
Tomohito Ebina
朋仁 蛯名
一 芹沢
Hajime Serizawa
一 芹沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2018025692A priority Critical patent/JP7042105B2/ja
Priority to PCT/JP2019/001978 priority patent/WO2019159616A1/ja
Priority to DE112019000189.2T priority patent/DE112019000189T5/de
Priority to US16/969,702 priority patent/US11645124B2/en
Publication of JP2019144627A publication Critical patent/JP2019144627A/ja
Application granted granted Critical
Publication of JP7042105B2 publication Critical patent/JP7042105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/52Program synchronisation; Mutual exclusion, e.g. by means of semaphores
    • G06F9/524Deadlock detection or avoidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/52Program synchronisation; Mutual exclusion, e.g. by means of semaphores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/544Buffers; Shared memory; Pipes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/546Message passing systems or structures, e.g. queues

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)

Abstract

【課題】データ競合しない関数群は複数のコアで並行実行可能としつつ、データ競合する関数対は時間分離して実行させる。【解決手段】プロセスバリア20は、関数を並行実行可能なコア数をN(Nは2以上の整数)とすると、N—1個のチェッカ関数22と1個のリミッタ関数23とを備え、チェッカ関数22は、ロックフリー関数キューLFQ1の先頭エントリがチェッカ関数22かリミッタ関数23のいずれかであるかを判定し、いずれかである場合にはロックフリー関数キューLFQ1の先頭エントリの読み取りを繰り返し、いずれでもない場合には処理を終了し、リミッタ関数23は、何も処理をせず終了する空関数である。【選択図】図1

Description

本発明は、マルチコアまたはメニーコアによるプログラムの並列実行が可能なプログラム実行制御方法および車両制御装置に関する。
半導体微細化技術が行き詰まり、クロック周期の高速化による性能改善から、多数のコアを1つのMPU(Micro Processing Unit)に搭載することによる性能改善が図られるようになり、サーバや携帯端末用途など、多様な形態に適したメニーコアMPUが販売されている。これらの用途では、シングルコアMPUを前提として設計され、データ分離(data separation)条件が成立する複数のアプリケーションをOS(Operating System)が並行実行制御することにより、メニーコアの性能を引き出す設計を前提としている。この並行実行制御では、OS内の共有リソースへのリード・ライトアクセスが発生するものの、既存の排他制御機構を用いて強制的に関数を逐次実行させることで時間分離(temporal separation)を図り、データ競合に起因したデータ整合性の不具合の回避に一定の成功を収めている。
しかし、長年、シングルコアを前提として設計・継承・派生開発されてきた制御ソフトウェアでは、グローバル変数に代表される共有リソースに関するアクセス競合が顕著である。そのため、前記のようなデータ分離を前提としたプログラム並行実行をすることができず、OSのサポートもない。データ競合を許容するプログラム並行実行は非決定的(non−deterministic)な実行後プログラム状態を導くため、デバッグ・テスト・検証ができなくなる。
また、実際には、割込み処理負荷を分散させるために、複数のコアには設計時点で想定困難な計算負荷が発生する。そのため、関数毎のコア占有時間を用いて明示的に関数割当てをして最適化を図る設計手法でも、時間同期による制御不能無駄時間の上限が不定である限りは、最悪時応答時間の保証をすることも困難である。
従来技術では、タスク間依存関係の制約を考慮して、各コアに静的に割り当てたタスクの実行順序を明示的に制御する多様な方法があるが、2つの共通した課題がある。第1の課題は、コア数N(Nは2以上の整数)に比例してスケールしない共有リソースの使用を前提としている点である。第2の課題は、割込み処理などの外乱負荷のために、設計時点で最適化して決定した静的なタスク割当をして実現される無駄時間の抑制が図られず、最悪応答時間の保証ができない点である。
特許文献1には、逐次実行プログラムを構成する複数の処理間で制御依存性を分析し、依存タスクと非依存タスクに分類して異なるコアに割り当てる並列化方法が開示されている。これは実行順序関係に基づく時間分離およびデータ分離条件に基づく並列化手法の一例であり、コア間の同期待ちに起因していずれのタスクも実行されないことにより発生する無駄時間を抑制することができる。
特許文献1に開示された技術では、タスクの実行順序を制御する際に、コア間の通信手段を介して待ち状態を解除するMPUの機能を実現する。しかし、多数のコアを活用してコア数Nと同程度の数のタスクを割り振る際、タスク間の依存関係が複雑になると、コア数Nが増加しても性能がN倍にスケールしない。また、ハードウェハ面では、コア数Nに対してN*(N−1)/2本のコア間通信経路が必要になる。しかし、コア間通信経路はO(N)(Nのオーダー)程度にしかスケールしない。
多くのメニーコアMPUは、マスタコアと多数のスレーブコアという役割に区分して、マスタコアがスレーブコアに明示的に実行タスクを指定することにより、コア間通信経路のスケーラビリティの問題に対処するタスク割当・並行実行制御方法を想定している。実際、Nが6程度のメニーコアだけでなく、N=1000を超えるGPU(Graphics Processing Uni)でも、ONE−to−Allのコア間通信のために利用できる通信経路しかなく、その数はO(N)よりも少ない。
特許文献1の趣旨に従いながらこの制約を満たすためには、依存関係が密な処理群を集約して、各タスクを構成する処理の数を大きくして対処するしかない。この場合、並列実行できるタスク対も1つのコアに集約して逐次実行せざるを得なくなり、多数のコアを効率的に活用することができなくなる。
また、各コアは時間スケジューリングされたタスクのみを実行するわけではなく、外部デバイスからの割込み処理に対する応答時間の抑制と負荷平準化のために、割込み処理を多数のコアに分散させるのにも用いられる。タスク実行中にこれら割込み処理が発生すると、多数コアの負荷平準化を図って設計したタスク割当により達成される同期待ち無駄時間の短縮効果が実現されない。
特許文献2では、技術背景として、データ分離条件を利用したプログラム内・プログラム間並列性を活用して多数のコアを並列動作させることの重要性が指摘されている。また、MPI、OpenMP、pthread等の並列コンピューティング環境に実装されるバリア同期の機構を通じてコア間での同期処理を図る手法にも言及している。
また、HPCで搭載されているような専用ハードウェアを使用せずにソフトウェアだけで実装する場合、バリア同期を頻繁に使用すると、ソフトウェアの実行性能が低下する点、およびバリア処理完了時刻に関する想定のばらつきが、設計時点で意図しない無駄時間を引き起こす点にも言及している。
バリア同期では、例えば共有メモリ領域に終了プロセス数のカウンタを保持する実装などが一般的である。多数のコアがこのカウンタに対してリード・ライトアクセスをするため、排他制御機構が必要となる。バリア同期処理に要するこのカウンタ操作の排他制御に起因した無駄時間が発生するために、コア数Nに対して性能がN倍にスケールしない。コア数Nに対するスケーラビリティを実現するためには、バリア同期の制御に関わる共有データへのアクセスは、少なくともロックフリーでなければならないが、この点に関する言及もない。また、カウンタ値が規定値に到達したら動作再開を通知するコア間通信経路も依然として必要である。
このバリア同期に要する処理時間やハードウェアリソースが、コア数Nに対してスケールしないことに対処しようとすると、タスクを構成する処理の数を増やすしかなく、特許文献1に開示された技術と同様に、多数のコアを効率的に活用することができなくなる。この時、多数のコアを効率的に活用するために処理単位を小さくして対処しようとする場合に、実行性能低下を引き起こす。
代わりに、特許文献2では、コア間通知経路にツリー構造を導入した専用ハードウェアを用いて、バリア同期処理実行のレイテンシを抑制するコア間通信手段が開示されている。All−to−Allのコア間通信経路の代わりに、ツリー構造となるようにコアグループを階層化して近接コア間の通信経路に限定する方法である。本手法は、特許文献2に開示されているように、専用ハードウェアでも実装でき、ソフトウェアのみで実装することもできる。また、All−to−Allのコア間通信に要する実際の通信経路数はO(N)程度に抑えられ、バリア同期処理時間は、LogNでしか増加しない通信ステップ数程度に留まる。しかし、コア間の通信手段がO(N)程度搭載されている場合にのみ効率的なソフトウェア実装が可能である。
特許文献3では、各コアが実行するスレッドの選択・割当順序を制御する方法であって、各タスクの優先度を設定し、これを優先度付キューに登録してデキュー順序で、スレッド選択・割当順序を制御する方法が開示されている。
特許文献3の趣旨に従いながらプログラム並行実行の予測性・再現性を保証しようとすると、例えばデータ分離条件が成立して並列実行可能なタスク群を実行するスレッドには同一優先度を割当て、時間分離させて実行順序を明示的に制御する必要があるタスク群には、異なる優先度レベルを設定し、タスク開始から終了時点までに実行する順序で優先度が小さくなるように割り当てていく方法が考えられる。この方法により、少なくとも、コア稼働率を考慮した動的なスレッド割当てが実現される。
しかし、特許文献3は、各コアの計算負荷を平準化する技術の開示に留まっており、データ競合するスレッド対の実行時点を時間分離するための並行実行制御機構は開示されていない。また、前記優先度キューから、各コアが実行するスレッドを選択・制御するマスタコアと、それ以外の多数のスレーブコアとの間でのコア間通信経路は依然としてO(N)だけ必要である。
特開2017−73000号公報 特開2014−62378号公報 特開2006−155480号公報
従来のソフトウェア開発手法における設計、デバッグ、テスト技法、カバレッジ基準、検証手法はすべて、多数の関数を逐次実行し、実行後プログラム状態の再現性・予測性が前提として成立することに依存している。
また、前記再現性・予測性は、制御ソフトウェアに要求される最悪時応答時間を保証するために必要な要件でもある。よって、プログラム並行実行の具体的な実現手段に寄らず、データ分離条件が成立する関数群は複数のコアで並行実行し、データ競合のために時間分離が必要となる関数対は逐次実行される並行実行制御機構が必要である。
特に、コア数の増加に対してスケールしないコア間通信機構に依存せず、設計時に想定困難な割込み負荷に適応して、各コアの計算待ち時間が動的に平準化され、最悪実行時間を保証できるような並列実行制御機構が求められていた。
本発明は、上記事情に鑑みなされたものであり、その目的は、データ競合しない関数群は複数のコアで並行実行可能としつつ、データ競合する関数対は時間分離して実行させることが可能なプログラム実行制御方法および車両制御装置を提供することにある。
上記目的を達成するため、第1の観点に係るプログラム実行制御方法は、並行実行可能な複数の関数が順々に登録されたロックフリー関数キューを保持し、前記ロックフリー関数キューは、データ競合する関数間に挿入されたプロセスバリアを含み、前記プロセスバリアは、前記データ競合する前後の関数のうち、前の関数の実行が完了するまで、後の関数の実行を前記プロセスバリアの位置で待機させる。
本発明によれば、データ競合しない関数群は複数のコアで並行実行可能としつつ、データ競合する関数対は時間分離して実行させることができる。
図1は、第1実施形態に係るプログラム実行制御装置が適用される車両制御装置の構成を示すブロック図である。 図2は、図1のプログラム実行制御装置の動作状態を示すタイミングチャートである。 図3は、図1のプログラム実行制御装置の関数実行方法を示すフローチャートである。 図4は、第2実施形態に係るプログラム実行制御装置が適用される車両制御装置の構成を示すブロック図である。 図5は、図4のプログラム実行制御装置の動作状態を示すタイミングチャートである。 図6は、第2実施形態に係るプログラム実行制御装置のその他の動作状態を示すブロック図である。 図7は、図6のプログラム実行制御装置の動作状態を示すタイミングチャートである。 図8は、図4のプログラム実行制御装置の関数実行方法を示すフローチャートである。 図9は、第3実施形態に係るプログラム実行制御装置が適用される車両制御装置の構成を示すブロック図である。
実施形態について、図面を参照して説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、第1実施形態に係るプログラム実行制御装置が適用される車両制御装置の構成を示すブロック図である。
図1において、計算機1Aには、複数のコア10〜13、入出力インターフェース14、DRAM15およびキャッシュ16が設けられている。計算機1Aは、入出力インターフェース14を介してセンサ17およびアクチュエータ18に接続されている。コアはCPUごとに設けるようにしてもよいし、1つのCPUに複数のコアが設けられていてもよい。DRAM15は、コア10〜13からアクセス可能な共有メモリとして用いることができる。この時、各コア10〜13は、入出力インターフェース14を介してDRAM15およびキャッシュ16にアクセスすることができる。センサ17は、車両の各部の状態を監視する。アクチュエータ18は、車両のパワートレイン系、操舵系および制動系などを駆動する。
DRAM15は、ロックフリー関数キューLFQ1を保持する。また、DRAM15は、各コア10〜13が実行する実行コードを保持することができる。ロックフリー関数キューLFQ1には、計算機1Aで並行実行可能な複数の関数が順々に登録される。ロックフリー関数キューLFQ1は、プログラマが事前に構築し、ROM等に保存することができる。ロックフリー関数キューLFQ1は複数用意することができ、コア10〜13のいずれかが、例えば、10msecの周期でDRAM15に順次ロードすることができる。なお、実装の都合により、ロックフリー関数キューLFQ1には、関数の実体の代わりに、関数の実体へのポインタを登録してもよい。図1では、関数[0]〜関数[4]が登録されている例を示した。また、ロックフリー関数キューLFQ1には、データ競合する関数間にプロセスバリア20が挿入される。データ競合としては、グローバル変数のリードかライトかの順序によってグローバル変数の値が変化することが挙げられる。データ競合は、データ間に依存関係がある場合に引き起こされる。
プロセスバリア20は、データ競合する前後の関数のうち、データ競合する後の関数の直前に配置する。例えば、関数[0]と関数[2]がデータ競合25を引き起こすものとすると、プロセスバリア20は、関数[2]の直前に挿入される。
プロセスバリア20は、データ競合する前後の関数のうち、前の関数の実行が完了するまで、後の関数の実行をプロセスバリア20の位置で待機させる。この時、プロセスバリア20で区切られてない関数については複数のコア10〜13による並行処理が可能である。例えば、関数[0]と関数[1]については、コア10〜13による並行処理が可能である。また、関数[2]〜関数[4]についても、コア10〜13による並行処理が可能である。
また、プロセスバリア20は、プロセスバリア20で区切られている関数については、プロセスバリア20の後の関数とデータ競合するプロセスバリア20の前の関数が実行されるまで、プロセスバリア20の後の関数の実行をプロセスバリアの位置で待機させる。そして、プロセスバリア20は、データ競合する前後の関数のうち、前の関数の実行が完了すると、後の関数を実行するコア10〜13の割り当てを許容する。この時、プロセスバリア20の後の関数と競合するプロセスバリア20の前の関数が実行されると、複数のコア10〜13は、プロセスバリア20の後の関数について、関数を並行実行することができる。
プロセスバリア20は、関数を並行実行可能なコア数をN(Nは2以上の整数)とすると、N―1個のチェッカ関数22と1個のリミッタ関数23とを備える。リミッタ関数23は、チェッカ関数22の直後に配置される。例えば、並行実行可能なコアがコア10〜12であるものとすると、プロセスバリア20には、2個のチェッカ関数22と1個のリミッタ関数23が設けられる。図1では、チェッカ関数22として、プロセスバリア[0]_checker[0]およびプロセスバリア[0]_checker[1]が挿入され、リミッタ関数23としてプロセスバリア[0]_limiterが挿入された例を示した。
プロセスバリア20は、関数間のデータ競合に応じてロックフリー関数キューLFQ1に複数挿入することができる。これらのプロセスバリア20を区別するため、プロセスバリア20には、プロセスバリアID24が付される。この時、同じプロセスバリア20に所属するチェッカ関数22とリミッタ関数23は同じプロセスバリアID24を保持する。
チェッカ関数22は、ロックフリー関数キューLFQ1の先頭エントリがチェッカ関数22かリミッタ関数23のいずれかであるかを判定し、いずれかである場合にはロックフリー関数キューLFQ1の先頭エントリの読み取りを繰り返し、いずれでもない場合には処理を終了する。リミッタ関数23は、何も処理をせず終了する空関数である。
ロックフリー関数キューLFQ1に登録されたエントリの取得に際しては、HEAD41とTAIL42という変数を参照することにより、先頭または最後の登録エントリの位置を知ることができる。HEAD41とTAIL42は、アクセスの高速化を図るために、キャッシュ16に保持させることができる。なお、HEAD41とTAIL42は、DRAM15が保持するようにしてもよい。そして、HEAD41のアクセス回数に応じてHEAD41がキャッシュ16に保持されるようにしてもよい。
mutex等の排他制御機構を用いることなくデータ競合を回避し、複数のコア10〜13がHEAD値とTAIL値を更新するは、HEAD値とTAIL値をアトミックに書き換え可能なCAS(compare−and−swap)命令を用いてロックフリー関数キューLFQ1をロックフリー化することができる。CAS命令の実行に成功したコア10〜13は、ロックフリー関数キューLFQ1の先頭エントリを取得し、HEAD値を次の登録エントリに進める。HEAD値に対するライトアクセス競合のために、CAS命令の実行に失敗したコア10〜13は、更新されたHEAD値に対して再度CAS命令を実行することで登録エントリを取得する。この時、複数のコア10〜13がHEAD値に同時にアクセスした場合においても、必ず1つのコアはCAS命令の実行に成功し、HEAD値に同時にアクセスした全てのコアがCAS命令の実行に失敗することはない。このため、コア数Nが有限である限りは、CAS命令の実行の失敗が際限なく何度も繰り返されるのを防止することができ、エントリ取得時の無駄時間を低減することができる。
このプロセスバリア20の導入により、並行動作するいずれか1つのコアX1がリミッタ関数23をデキューする時点までは、他のコアX2〜Xはチェッカ関数22を実行し続ける。一方で、リミッタ関数23をデキューしたコアX1が空関数を実行し終えて、プロセスバリア20の直後の関数をデキューしたことを契機として、他のコアX2〜Xはチェッカ関数22を終了し、ロックフリー関数キューLFQ1に登録された後続の関数をデキューして実行する。
これにより、プロセスバリア20が挿入されたロックフリー関数キューLFQ1において、コアX1〜Xはプロセスバリア20にて区切られていない関数群を並行実行し、プロセスバリア20で区切られた前後の関数対を時間分離することができる。
この過程ではコアX〜X間の明示的な時間同期などの機構は必要でなく、ロックフリー関数キューLFQ1の先頭エントリがチェッカ関数22またはリミッタ関数23のいずれであるか判定しさえすればよく、共有メモリに格納されたロックフリー関数キューLFQ1の先頭エントリのデータへのリードアクセス程度の時間しか必要でない。従って、同期待ち無駄時間が最小化され、ロックフリー関数キューLFQ1に内在する並列化可能な範囲で最大限の並列化性能を引き出すことができる。
各コアX〜Xは、割込み処理に起因した想定困難な計算負荷が不定期で発生するため、設計時点で静的に並列化処理を実行するコアの割当をしても、設計段階の想定とは異なる同期待ち無駄時間が残存するため、所望の並列化性能を引き出すことができない。プロセスバリア20の導入により、各コアX〜Xは自身の占有時間を最大限としてロックフリー関数キューLFQ1に登録された関数を処理するように動作するため、同期待ち無駄時間は、チェッカ関数22を実行している期間に限ることができる。
また、各コアX〜Xが処理する関数は動的に選択されながらも、データ分離条件と時間分離条件が成立するように並行動作するため、ロックフリー関数キューLFQ1に登録された関数を逐次実行した場合と同じ実行後プログラム状態を導くことができる。
図2は、図1のプログラム実行制御装置の動作状態を示すタイミングチャートである。
図2において、並行実行可能なコアが図1のコア10〜12であるものとする。HEAD41は、ロックフリー関数キューLFQ1の先頭エントリとして関数[0]を示しているものとする。そして、コア10〜12がCAS命令を実行し、コア10がCAS命令の実行に成功したものとすると、コア10は、HEAD41が示す関数[0]を取得し、関数[0]を実行するとともに、HEAD41を次の登録エントリに進める(P0)。この時、HEAD41は、ロックフリー関数キューLFQ1の先頭エントリとして関数[1]を示す。
次に、前回CAS命令の実行に失敗したコア11、12はCAS命令を再度実行し、コア11がCAS命令の実行に成功したものとすると、コア11は、HEAD41が示す関数[1]を取得し、関数[1]を実行するとともに、HEAD41を次の登録エントリに進める(P1)。この時、HEAD41は、ロックフリー関数キューLFQ1の先頭エントリとしてプロセスバリア[0]_checker[0]を示す。また、関数[0]と関数[1]は、コア10、11にて並行実行される。
次に、前回CAS命令の実行に失敗したコア12はCAS命令を再度実行し、コア12がCAS命令の実行に成功したものとすると、コア12は、HEAD41が示すプロセスバリア[0]_checker[0]を取得し、プロセスバリア[0]_checker[0]の処理を実行するとともに、HEAD41を次の登録エントリに進める(P2)。この時、HEAD41は、ロックフリー関数キューLFQ1の先頭エントリとしてプロセスバリア[0]_checker[1]を示す。
次に、コア10は、関数[0]の実行を完了したものとすると、CAS命令を実行する。そして、コア10は、CAS命令の実行に成功すると、HEAD41が示すプロセスバリア[0]_checker[1]を取得し、プロセスバリア[0]_checker[1]の処理を実行するとともに、HEAD41を次の登録エントリに進める(P3)。この時、HEAD41は、ロックフリー関数キューLFQ1の先頭エントリとしてプロセスバリア[0]_limiterを示す。
次に、コア11は、関数[1]の実行を完了したものとすると、CAS命令を実行する。そして、コア11は、CAS命令の実行に成功すると、HEAD41が示すプロセスバリア[0]_limiterを取得し、プロセスバリア[0]_limiterをデキューするとともに、HEAD41を次の登録エントリに進める(P4)。この時、HEAD41は、ロックフリー関数キューLFQ1の先頭エントリとして関数[2]を示す。コア11は、プロセスバリア[0]_limiterをデキューすることにより、プロセスバリア20を通過することができる。
プロセスバリア[0]_checker[0]の処理を実行しているコア12は、ロックフリー関数キューLFQ1の先頭エントリを監視し、その先頭エントリがチェッカ関数22またはリミッタ関数23の場合は、ロックフリー関数キューLFQ1の先頭エントリの監視を継続する。その先頭エントリがチェッカ関数22またはリミッタ関数23でない場合は、プロセスバリア[0]_checker[0]の処理を終了する。HEAD41が、ロックフリー関数キューLFQ1の先頭エントリとして関数[2]を示すと、その先頭エントリがチェッカ関数22またはリミッタ関数23でなくなるので、コア12は、プロセスバリア[0]_checker[0]の処理を終了する。この時、コア12は、コア11にてプロセスバリア[0]_limiterがデキューされているので、プロセスバリア20を通過することができる。
プロセスバリア[0]_checker[1]の処理を実行しているコア10も、ロックフリー関数キューLFQ1の先頭エントリを監視する。そして、HEAD41が、ロックフリー関数キューLFQ1の先頭エントリとして関数[2]を示すと、コア10は、プロセスバリア[0]_checker[1]の処理を終了する。この時、コア10も、コア11にてプロセスバリア[0]_limiterがデキューされているので、プロセスバリア20を通過することができる。
コア10〜12は、プロセスバリア20を通過すると、CAS命令を実行する。そして、CAS命令が成功した順序に従ってコア10〜12は関数[2]〜関数[4]を取得し、関数[2]〜関数[4]を並行実行する。
これにより、データ競合する関数[0]および関数[2]は時間分離することが可能となるとともに、データ競合しない関数[0]および関数[1]と、データ競合しない関数[2]、関数[3]および関数[4]とは、それぞれ並行実行することができる。このプロセスバリア20の実装により、プロセスバリア20より前の全ての関数の実行が完了すると、プロセスバリア20に後続する関数の並列実行をほとんど待ち時間なく開始することができ、同期待ち無駄時間を減らすことができる。
また、データ競合する関数[0]および関数[2]は時間分離されるので、ロックフリー関数キューLFQ1に登録された関数を逐次実行した場合と同じ実行後プログラム状態を導くことができる。このため、ロックフリー関数キューLFQ1に登録された関数の並列実行を許容した場合においても、デバッグ・テスト・検証をできなくなるのを防止することができる。
さらに、ロックフリー関数キューLFQ1に登録された関数が並行実行された場合においても、ロックフリー関数キューLFQ1に登録された関数を逐次実行した場合と同じ実行後プログラム状態が導かれるので、実行後プログラム状態の再現性・予測性を確保することができる。このため、制御ソフトウェアに要求される最悪時応答時間を保証することができ、車両制御装置に要求されるハードリアルタイム制御を実現することができる。
図3は、図1のプログラム実行制御装置の関数実行方法を示すフローチャートである。
図3のS01において、各コア10〜13は、ロックフリー関数キューLFQ1に登録された関数がない(ロックフリー関数キューLFQ1が空)か否かを判定する。ロックフリー関数キューLFQ1が空であれば処理を終了する。ロックフリー関数キューLFQ1が空でなければ、S02に進み、HEAD値が指し示す先頭エントリをロックフリー関数キューLFQ1から取得する。
次に、ステップS03において、各コア10〜13は、ロックフリー関数キューLFQ1から取得した関数がチェッカ関数22であるか判定し、チェッカ関数22である場合にはS06に進み、チェッカ関数22の処理100を実行する。チェッカ関数22でない場合にはステップS04に進み、各コア10〜13は、リミッタ関数23であるか判定する。リミッタ関数23である場合にはステップS09に進み、リミッタ関数23の処理を終了してステップS01に戻る。リミッタ関数23でない場合には、各コア10〜13は、ステップS05に進み、S02で取得した関数を実行した後、ステップS01に戻る。
チェッカ関数22の処理100において、ステップS06では、各コア10〜13は、HEAD値が示す先頭エントリをロックフリー関数キューLFQ1から読み取る。次に、ステップS07において、各コア10〜13は、ステップS06で取得した関数が、ステップS03のチェッカ関数22と同じプロセスバリアID24を持つチェッカ関数22またはリミッタ関数23であるかを判定する。チェッカ関数22またはリミッタ関数23のいずれかである場合はS06に戻り、ロックフリー関数キューLFQ1のHEAD値が示す先頭エントリの読み取りを繰り返す。チェッカ関数22およびリミッタ関数23いずれでもない場合には、ステップS08に進み、チェッカ関数22の処理を終了してS01に戻る。
これにより、データ分離されて競合しない関数群は複数のコア10〜13で並行実行され、データ分離されていない関数群は、プロセスバリア20により時間分離されて逐次実行される。また、この並行実行制御により各コア10〜13が実行した後のプログラム状態は、ロックフリー関数キューLFQ1に登録された関数群を逐次実行した後のプログラム状態と一致する。このため、複数のコア10〜13を用いて並行実行しても、実行後プログラム状態の再現性および予測性を保証することができる。
また、各コア10〜13は、コア間同期による無駄時間を発生させることなく、ロックフリー関数キューLFQ1に登録された関数を処理することができる。このため、各コア10〜13に割込み等の計算処理負荷が不定期で発生しても、それが有限である限りは、それら関数群の処理に要する最悪実行時間を保証することができる。コア間通信機構は必要でなく、バリア同期が抱えるコア数Nに対するコア間通信機構のスケーラビリティの問題も発生しない。
図4は、第2実施形態に係るプログラム実行制御装置が適用される車両制御装置の構成を示すブロック図である。
図4において、計算機1Bには、複数のコア10〜13、入出力インターフェース14、DRAM15およびキャッシュ16が設けられている。計算機1Bは、入出力インターフェース14を介してセンサ17およびアクチュエータ18に接続されている。DRAM15は、ロックフリー関数キューLFQ2を保持する。ロックフリー関数キューLFQ2には、計算機1Aで並行実行可能な複数の関数が順々に登録される。図4では、関数[0]〜関数[4]が登録されている例を示した。各関数には、自身の関数の処理終了を示す終了フラグ36が追加される。各関数は、自身の関数の処理が終了すると、自身の終了フラグをtrueに設定し、自身の関数の処理が終了してない場合、自身の終了フラグをfalseに設定する。処理が終了してない関数の終了フラグ36を予めfalseに初期化し、自身の関数の処理が終了すると、自身の終了フラグをtrueに設定するようにしてもよい。
また、ロックフリー関数キューLFQ2には、データ競合する関数間にプロセスバリア30が挿入される。プロセスバリア30は、データ競合する前後の関数のうち、後の関数の直前に配置する。例えば、関数[0]と関数[2]がデータ競合35を引き起こすものとすると、プロセスバリア30は、関数[2]の直前に挿入される。
プロセスバリア30は、データ競合する前後の関数のうち、前の関数の実行が完了するまで、後の関数の実行をプロセスバリア30の位置で待機させる。この時、プロセスバリア30は、データ競合する前後の関数のうち、前の関数の実行が完了したかを監視する。そして、プロセスバリア30は、データ競合する前後の関数のうち、前の関数の実行が完了すると、後の関数を実行するコア10〜13の割り当てを許容する。
プロセスバリア30は、指定の関数の処理完了を確認するチェッカ関数32と、プロセスバリア30より後の関数の実行を待機させるリミッタ関数33とを備える。チェッカ関数32とリミッタ関数33とは1個ずつプロセスバリア30に設けられ、チェッカ関数32とリミッタ関数33とは対をなす。リミッタ関数33は、チェッカ関数32の直後に配置される。チェッカ関数32には、終了フラグ36が監視対象とされる関数(以下、監視対象関数と言う)のリストが追加される。監視対象関数が複数ある場合は、それら全てのすべての監視対象関数をチェッカ関数32に登録する。監視対象関数は、プログラマが事前にチェッカ関数32に登録することができる。図4では、チェッカ関数32として、プロセスバリア[0]_checker、監視対象関数=関数[0]が挿入され、リミッタ関数33としてプロセスバリア[0]_limiterが挿入された例を示した。
チェッカ関数32は、指定の関数の処理完了を確認すると、チェッカ関数32と対となるリミッタ関数33をロックフリー関数キューLFQ2から削除する。各コア10〜13は、プロセスバリア30の処理時に関数の取得および実行を中断し、リミッタ関数33の削除後に、ロックフリー関数キューLFQ2から関数を取得および実行する処理を再開する。
ここで、指定の関数の実行の完了を監視するコアは、指定の関数を実行するコアとは別個に割り当てられる。さらに、指定の関数を実行するコアと指定の関数の実行の完了を監視するコア以外の他のコアは、指定の関数の実行が完了するまで、プロセスバリア30に後続する関数の実行がプロセスバリア[0]_limiterにて阻止される。
このプロセスバリア30の導入により、ロックフリー関数キューLFQ2の処理に関与するコアの個数を固定する必要がなくなる。このため、各コアの実際の処理負荷に応じてロックフリー関数キューLFQ2の処理に割り当てるコアの個数を動的に変えることができ、計算負荷の平準化および最悪応答時間を保証することができる。
また、図1のプロセスバリア20では、プロセスバリア20より前の全ての関数の実行が完了しないと、プロセスバリア20に後続する関数の実行ができない。これに対して、図4のプロセスバリア30では、プロセスバリア30より前の全ての関数の実行が完了しなくても、監視対象関数の実行が完了すると、プロセスバリア30に後続する関数を実行することができ、プロセスバリア30に後続する関数の実行の待ち時間を減らすことができる。
図5は、図4のプログラム実行制御装置の動作状態を示すタイミングチャートである。なお、図4および図5の例では、並行実行される関数[0]および関数[1]において、監視対象関数でない関数[1]が監視対象関数である関数[0]より早く完了した場合を示した。
図5において、並行実行可能なコアが図4のコア10〜12であるものとする。HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[0]を示しているものとする。そして、コア10〜12がCAS命令を実行し、コア10がCAS命令の実行に成功したものとすると、コア10は、HEAD41が示す関数[0]を取得し、関数[0]を実行するとともに、HEAD41を次の登録エントリに進める(P10)。この時、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[1]を示す。
次に、前回CAS命令の実行に失敗したコア11、12はCAS命令を再度実行し、コア11がCAS命令の実行に成功したものとすると、コア11は、HEAD41が示す関数[1]を取得し、関数[1]を実行するとともに、HEAD41を次の登録エントリに進める(P11)。この時、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとしてプロセスバリア[0]_checkerを示す。また、関数[0]と関数[1]は、コア10、11にて並行実行される。
次に、前回CAS命令の実行に失敗したコア12はCAS命令を再度実行し、コア12がCAS命令の実行に成功したものとすると、コア12は、HEAD41が示すプロセスバリア[0]_checkerを取得し、プロセスバリア[0]_checkerの処理を実行するとともに、HEAD41を次の登録エントリに進める(P12)。この時、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとしてプロセスバリア[0]_limiterを示す。
次に、コア11は、関数[1]の実行を完了したものとすると、CAS命令を実行する。
そして、コア11は、CAS命令の実行に成功すると、HEAD41が示すプロセスバリア[0]_limiterを取得し、プロセスバリア[0]_limiterの処理を実行する(P13)。この時、コア11は、HEAD41を次の登録エントリに進めることなく、HEAD値をそのままにする。このため、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとしてプロセスバリア[0]_limiterを示したままとなる。プロセスバリア[0]_limiterの処理では、コア11は、ロックフリー関数キューLFQ2の先頭エントリを読み取り、その先頭エントリがプロセスバリア[0]_limiterである場合は、ロックフリー関数キューLFQ2の先頭エントリの読み取りを繰り返す。
プロセスバリア[0]_checkerの処理を実行しているコア12は、監視対象関数である関数[0]の終了フラグ36を監視し、関数[0]の終了フラグ36がfalseの場合は、関数[0]の終了フラグ36の監視を継続する。
一方、コア10は、関数[0]の実行を完了すると、関数[0]の終了フラグ36をtrueに設定する。コア12は、関数[0]の終了フラグ36がtrueになると、プロセスバリア[0]_limiterをデキューし、プロセスバリア[0]_checkerの処理を終了する。この時、コア12は、HEAD41を次の登録エントリに進める。このため、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[2]を示す。
HEAD41が、ロックフリー関数キューLFQ2の先頭エントリとして関数[2]を示すと、ロックフリー関数キューLFQ2の先頭エントリがプロセスバリア[0]_limiterでなくなる。この時、プロセスバリア[0]_limiterの処理を実行しているコア11は、ロックフリー関数キューLFQ2の先頭エントリを読み取ると、その先頭エントリがプロセスバリア[0]_limiterでないため、プロセスバリア[0]_limiterの処理から抜け出し、プロセスバリア30を通過することができる。また、コア12がプロセスバリア[0]_limiterをデキューすることにより、コア10、12は、プロセスバリア30を通過することができる。
コア10〜12は、プロセスバリア30を通過すると、CAS命令を実行する。そして、CAS命令が成功した順序に従ってコア10〜12は関数[2]〜関数[4]を取得し、関数[2]〜関数[4]を並行実行する。
図6は、第2実施形態に係るプログラム実行制御装置のその他の動作状態を示すブロック図、図7は、図6のプログラム実行制御装置の動作状態を示すタイミングチャートである。なお、図6および図7の例では、並行実行される関数[0]および関数[1]において、監視対象関数である関数[0]が監視対象関数でない関数[1]より早く終了した場合を示した。
図6および図7において、並行実行可能なコアが図4のコア10〜12であるものとする。HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[0]を示しているものとする。そして、コア10〜12がCAS命令を実行し、コア10がCAS命令の実行に成功したものとすると、コア10は、HEAD41が示す関数[0]を取得し、関数[0]を実行するとともに、HEAD41を次の登録エントリに進める(P20)。この時、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[1]を示す。
次に、前回CAS命令の実行に失敗したコア11、12はCAS命令を再度実行し、コア11がCAS命令の実行に成功したものとすると、コア11は、HEAD41が示す関数[1]を取得し、関数[1]を実行するとともに、HEAD41を次の登録エントリに進める(P21)。この時、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとしてプロセスバリア[0]_checkerを示す。また、関数[0]と関数[1]は、コア10、11にて並行実行される。
次に、前回CAS命令の実行に失敗したコア12はCAS命令を再度実行し、コア12がCAS命令の実行に成功したものとすると、コア12は、HEAD41が示すプロセスバリア[0]_checkerを取得し、プロセスバリア[0]_checkerの処理を実行するとともに、HEAD41を次の登録エントリに進める(P22)。この時、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとしてプロセスバリア[0]_limiterを示す。
次に、コア10は、関数[0]の実行を完了したものとすると、関数[0]の終了フラグ36をtrueに設定し、CAS命令を実行する。そして、コア10は、CAS命令の実行に成功すると、HEAD41が示すプロセスバリア[0]_limiterを取得し、プロセスバリア[0]_limiterの処理を実行する(P23)。この時、コア10は、HEAD41を次の登録エントリに進めることなく、HEAD値をそのままにする。このため、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとしてプロセスバリア[0]_limiterを示したままとなる。プロセスバリア[0]_limiterの処理では、コア10は、ロックフリー関数キューLFQ2の先頭エントリを読み取り、その先頭エントリがプロセスバリア[0]_limiterである場合は、ロックフリー関数キューLFQ2の先頭エントリの読み取りを繰り返す。
プロセスバリア[0]_checkerの処理を実行しているコア12は、監視対象関数である関数[0]の終了フラグ36を監視し、関数[0]の終了フラグ36がfalseの場合は、関数[0]の終了フラグ36の監視を継続する。
一方、コア12は、関数[0]の終了フラグ36がtrueになると、プロセスバリア[0]_limiterをデキューし、プロセスバリア[0]_checkerの処理を終了する。この時、コア12は、HEAD41を次の登録エントリに進める。このため、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[2]を示す。
HEAD41が、ロックフリー関数キューLFQ2の先頭エントリとして関数[2]を示すと、ロックフリー関数キューLFQ2の先頭エントリがプロセスバリア[0]_limiterでなくなる。この時、プロセスバリア[0]_limiterの処理を実行しているコア10は、ロックフリー関数キューLFQ2の先頭エントリを読み取ると、その先頭エントリがプロセスバリア[0]_limiterでないため、プロセスバリア[0]_limiterの処理から抜け出し、プロセスバリア30を通過することができる。また、コア12がプロセスバリア[0]_limiterをデキューすることにより、コア11、12は、プロセスバリア30を通過することができる。
コア10、12は、プロセスバリア30を通過すると、CAS命令を実行する。そして、CAS命令が成功した順序に従ってコア10、12は関数[2]および関数[3]を取得し、関数[2]および関数[3]を並行実行する。この時、各コア10、12は、HEAD41の登録エントリをそれぞれ先に進める。このため、HEAD41は、ロックフリー関数キューLFQ2の先頭エントリとして関数[4]を示す。
コア11は、コア10、12が関数[2]および関数[3]を実行している間も、関数[1]の実行を継続する。そして、コア11は、関数[1]の実行が完了すると、CAS命令を実行する。コア10がCAS命令の実行に成功すると、コア11は、HEAD41が示す関数[4]を取得し、関数[4]を実行する。コア11が関数[1]の実行を完了した時には、プロセスバリア[0]_limiterはデキューされている。このため、コア11は、プロセスバリア30による待機時間なく、関数[1]の実行に引き続いて関数[4]を実行することができる。
ここで、第1実施形態では、コア10による関数[0]の実行が完了しても、コア11による関数[1]の実行が完了しないと、プロセスバリア20を通過することができない。このため、コア10による関数[0]の実行が完了しても、コア11による関数[1]の実行が完了しないと、関数[2]および関数[3]を実行することができない。
これに対して、第2実施形態では、コア10による関数[0]の実行が完了すると、コア12によってプロセスバリア[0]_limiterがデキューされる。このため、コア10による関数[0]の実行が完了すると、コア11による関数[1]の実行が完了しなくても、関数[2]および関数[3]を実行することができる。このため、第2実施形態では、第1実施形態に比べて、関数[2]および関数[3]の実行を開始するまでの待ち時間を短縮することができる。
また、関数を実行しているコアに割り込みが入り、その関数の実行の完了が遅れる場合においても、他のコアは関数の取得および実行を継続することができる。このため、関数を実行しているコアに割り込みが入った場合においても、他のコアに負荷分散することができ、外部デバイスからの割込み処理に対する応答時間の抑制と負荷平準化を図ることができる。
なお、図7において、コア10が関数[0]の実行を完了し、関数[0]の終了フラグ36をtrueに設定した後、コア10がCAS命令の実行に成功する前に、コア12がプロセスバリア[0]_limiterをデキューした場合には、コア10は、プロセスバリア[0]_limiterの処理(P23)をスキップし、関数[3]を実行することができる。
図8は、図4のプログラム実行制御装置の関数実行方法を示すフローチャートである。
図8のステップS11において、各コア10〜13は、ロックフリー関数キューLFQ2が空か否かを判定する。ロックフリー関数キューLFQ2が空であれば処理を終了する。ロックフリー関数キューLFQ2が空でなければ、S12に進み、先頭エントリをロックフリー関数キューLFQ2から読み取る。読み取ったエントリがリミッタ関数でなければ、その先頭エントリを取得し、リミッタ関数であれば返り値falseを返す。この時、リミッタ関数を示していたHEAD値はそのまま維持し、HEAD値を次の登録エントリに進めない。
次に、ステップS13において、各コア10〜13は、ロックフリー関数キューLFQ2から取得した関数がチェッカ関数32であるか判定し、チェッカ関数32である場合にはS17に進み、チェッカ関数22の処理102を実行する。チェッカ関数32でない場合にはステップS14に進み、各コア10〜13は、リミッタ関数33であるか判定する。リミッタ関数33である場合にはステップS20に進み、リミッタ関数33の処理101を実行する。リミッタ関数33でない場合には、各コア10〜13は、ステップS15に進み、S12で取得した関数を実行する。次に、ステップS16において、ステップS15で実行した関数の終了フラグ36をtrueにセットし、ステップS11に戻る。
チェッカ関数32の処理102において、ステップS17では、監視対象関数の終了フラグ37を読み出し、終了フラグ37がtrueであるかを判定する。終了フラグ37がtrueでない場合、ステップS17の処理を繰り返す。あるコアがチェッカ関数32の処理102を実行している時に、監視対象関数を処理する他のコアが監視対象関数の実行を完了すると、監視対象関数の実行を完了したコアは、監視対象関数の終了フラグ36をtrueに設定する。
監視対象関数の終了フラグ36が他のコアによりtrueに設定されると、チェッカ関数32の処理102を実行しているコアは、ステップS17において、終了フラグ37がtrueであると判定し、ステップS18に進む。なお、チェッカ関数32に複数の監視対象関数が登録されている場合、全ての監視対象関数の終了フラグ37がtrueである時に、ステップS18に進む。ステップS18では、チェッカ関数32の処理102を実行しているコアは、リミッタ関数33をデキューし、ステップS19に進む。ステップS19では、チェッカ関数32の処理102を実行しているコアは、チェッカ関数32の処理を終了してS11に戻る。
リミッタ関数33の処理101において、ステップS20では、先頭エントリをロックフリー関数キューLFQ2から読み取る。次に、ステップS21において、リミッタ関数33の処理101を実行しているコアは、ステップS20で取得した関数が、ステップS14のリミッタ関数33と同じプロセスバリアID34を持つリミッタ関数33であるかを判定する。なお、簡単のために、ロックフリー関数キューLFQ2のHEAD値を参照および比較してもよい。同じプロセスバリアID34を持つリミッタ関数33である場合はS20に戻り、ロックフリー関数キューLFQ1の先頭エントリの読み取りを繰り返す。
あるコアがリミッタ関数33の処理101を実行している時に、チェッカ関数32の処理102を実行しているコアがリミッタ関数33をデキューすると、ロックフリー関数キューLFQ2の先頭エントリは、同じプロセスバリアID34を持つリミッタ関数33でなくなる。このため、ステップS21において、リミッタ関数33の処理101を実行しているコアは、ステップS20で取得した関数が同じプロセスバリアID34を持つリミッタ関数33でないと判定し、S11に戻る。
これにより、チェッカ関数32が監視対象とする関数が完了した時点でリミッタ関数33がデキューされ、S20で行っていたループ監視処理に伴う無駄時間がなくなることから、処理の高速化を図ることができる。また、第1実施形態では、プロセスバリア20に登録されるチェッカ関数22は、関数処理に割り当てられるコアの個数の指定を必要としていたが、第2実施形態においては、関数処理に割り当てられるコアの個数の指定は必要でなくなる。ロックフリー関数キューLFQ2に登録された関数を処理している任意の時点で、そのロックフリー関数キューLFQ2に登録された関数を実行するコアを追加してもよいし、いくつかのコアを別のロックフリー関数キューの処理に再割当てしてもよい。
図9は、第3実施形態に係るプログラム実行制御装置が適用される車両制御装置の構成を示すブロック図である。
図9において、このプログラム実行制御装置には、図4の構成に管理テーブル50が追加されている。管理テーブル50は、ロックフリー関数キューに登録された関数を実行するために割り当てられるコアのコア番号を管理する。このロックフリー関数キューには、図4と同様の構成のプロセスバリアを挿入することができる。この時、ロックフリー関数キューは、タスクの機能または実行周期などの動的特性に基づき分類することができる。
例えば、2つのロックフリー関数キューLFQ2A、LFQ2Bがあるものとする。ロックフリー関数キューLFQ2Aには、関数[10]〜関数[14]が登録されている。関数[11]と関数[13]がデータ競合を引き起し、関数[13]の直前にプロセスバリア30Aが挿入されている。プロセスバリア30Aで監視される対象となる監視対象関数は関数[11]に設定される。ロックフリー関数キューLFQ2Bには、関数[0]〜関数[4]が登録されている。関数[0]と関数[2]がデータ競合を引き起し、関数[2]の直前にプロセスバリア30Bが挿入されている。プロセスバリア30Bで監視される対象となる監視対象関数は関数[0]に設定される。
また、各コア10〜13にはコア番号NO0〜NO3が付されているものとする。ここで、コア10、11がロックフリー関数キューLFQ2Aを担当し、コア12、13がロックフリー関数キューLFQ2Bを担当するものとすると、管理テーブル50には、ロックフリー関数キューLFQ2Aとコア番号NO0、NO1との対応関係と、ロックフリー関数キューLFQ2Bにコア番号NO2、NO3との対応関係が登録される。
メニーコアを用いた制御ソフトウェアは、シングルコア用アプリケーションを統合するために用いられることが多い。そのため、1つのロックフリー関数キューに全ての関数を登録するよりも、実行周期や処理の特性ごとに管理されたサブプログラムライブラリを1つの逐次実行処理単位として区分けするのがよい。このように区分けされたロックフリー関数キューLFQ2A、LFQ2Bを構築し、管理テーブル50を参照することにより、各ロックフリー関数キューLFQ2A、LFQ2Bに登録された関数を実行するコアを割り当てることができる。タイマー起動される周期タスクを実行する場合には、タイマー起動した時点で対応するロックフリー関数キューLFQ2A、LFQ2Bを選択し、図4の処理を実行すればよい。
第2実施形態で示したようにロックフリー関数キューLFQ2A、LFQ2Bを構成することにより、各コア10〜13の実際の計算負荷に応じて、登録関数の処理に割り当てるコア10〜13を動的に制御することもできる。この点を活用すれば、複数のロックフリー関数キューLFQ2A、LFQ2Bに異なるコアを割り当てても、先に処理が終わったロックフリー関数キューに割り当てられていたコアを他のロックフリー関数キューの処理に再割当できる。不定量の割込み処理が特定のコアに集中しても、この再割当てにより、コア全体での計算負荷の平準化と最悪実行時間の保証ができる。
1A…計算機、10〜13 コア、14 入出力インターフェース、15 DRAM、16 キャッシュ、17 センサ、18 アクチュエータ、LFQ1、LFQ2 ロックフリー関数キュー、20、30 プロセスバリア、21、31 関数、22、32 チェッカ関数、23、33 リミッタ関数、24、34 プロセスバリアID、36 終了フラグ

Claims (10)

  1. 並行実行可能な複数の関数が順々に登録されたロックフリー関数キューを保持し、
    前記ロックフリー関数キューは、データ競合する関数間に挿入されたプロセスバリアを含み、
    前記プロセスバリアは、前記データ競合する前後の関数のうち、前の関数の実行が完了するまで、後の関数の実行を前記プロセスバリアの位置で待機させるプログラム実行制御方法。
  2. 前記プロセスバリアは、前記データ競合する前後の関数のうち、前の関数の実行が完了したかを監視し、前の関数の実行が完了すると、後の関数を実行するコアの割り当てを許容する請求項1に記載のプログラム実行制御方法。
  3. 前記プロセスバリアは、
    指定の関数の処理完了を確認するチェッカと、
    前記プロセスバリアより後の関数の実行を待機させるリミッタとを備え、
    前記チェッカは、前記指定の関数の処理完了を確認すると、前記チェッカと対となる前記リミッタを前記ロックフリー関数キューから削除し、
    前記コアは、
    前記プロセスバリアの処理時に前記関数の取得および実行を中断し、
    前記リミッタの削除後に、前記ロックフリー関数キューから前記関数を取得および実行する処理を再開する請求項2に記載のプログラム実行制御方法。
  4. 前記ロックフリー関数キューを複数保持し、
    それぞれの前記ロックフリー関数キューに登録された関数を実行するために割り当てられるコアのコア番号を管理する管理テーブルを備える請求項3に記載のプログラム実行制御方法。
  5. 前記プロセスバリアは、前記関数を並行実行可能なコア数をN(Nは2以上の整数)とすると、N―1個のチェッカと1個のリミッタとを備え、
    前記チェッカは、前記ロックフリー関数キューの先頭エントリが前記チェッカか前記リミッタのいずれかであるかを判定し、いずれかである場合には前記先頭エントリの読み取りを繰り返し、いずれでもない場合には処理を終了し、
    前記リミッタは、何も処理をせず終了する空関数である請求項2に記載のプログラム実行制御方法。
  6. 前記コアは、前記ロックフリー関数キューの先頭エントリを示す変数を更新する際に、アトミック命令を用いて前記ロックフリー関数キューをロックフリー化する請求項2に記載のプログラム実行制御方法。
  7. 複数のコアと、
    前記コアからアクセス可能な共有メモリとを備え、
    前記共有メモリは、データ競合する関数間に挿入されたプロセスバリアを含むロックフリー関数キューを保持し、
    前記プロセスバリアは、
    指定の関数の処理完了を確認するチェッカと、
    前記プロセスバリアより後の関数の実行を待機させるリミッタとを備え、
    前記コアは、
    前記プロセスバリアの処理時に前記関数の取得および実行を中断し、
    前記チェッカの実行時に前記指定の関数の処理完了を確認すると、前記チェッカと対となる前記リミッタを前記ロックフリー関数キューから削除し、
    前記リミッタを削除した後、前記ロックフリー関数キューから前記関数を取得および実行する処理を再開する車両制御装置。
  8. 前記ロックフリー関数キューを複数保持し、
    それぞれの前記ロックフリー関数キューに登録された関数を実行するために割り当てられるコアのコア番号を管理するテーブルを備える請求項7に記載の車両制御装置。
  9. 前記ロックフリー関数キューは、タスクの機能または動的特性に基づき分類され、
    前記ロックフリー関数キューを処理するコアを動的に割当てる請求項8に記載の車両制御装置。
  10. 前記ロックフリー関数キューの処理状況に応じて、前記ロックフリー関数キューを処理するコアを動的に再割当てする請求項8に記載の車両制御装置。

JP2018025692A 2018-02-16 2018-02-16 プログラム実行制御方法および車両制御装置 Active JP7042105B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018025692A JP7042105B2 (ja) 2018-02-16 2018-02-16 プログラム実行制御方法および車両制御装置
PCT/JP2019/001978 WO2019159616A1 (ja) 2018-02-16 2019-01-23 プログラム実行制御方法および車両制御装置
DE112019000189.2T DE112019000189T5 (de) 2018-02-16 2019-01-23 Programmausführungs-steuerverfahren und fahrzeugsteuervorrichtung
US16/969,702 US11645124B2 (en) 2018-02-16 2019-01-23 Program execution control method and vehicle control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018025692A JP7042105B2 (ja) 2018-02-16 2018-02-16 プログラム実行制御方法および車両制御装置

Publications (2)

Publication Number Publication Date
JP2019144627A true JP2019144627A (ja) 2019-08-29
JP7042105B2 JP7042105B2 (ja) 2022-03-25

Family

ID=67620045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018025692A Active JP7042105B2 (ja) 2018-02-16 2018-02-16 プログラム実行制御方法および車両制御装置

Country Status (4)

Country Link
US (1) US11645124B2 (ja)
JP (1) JP7042105B2 (ja)
DE (1) DE112019000189T5 (ja)
WO (1) WO2019159616A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220394284A1 (en) * 2021-06-07 2022-12-08 Sony Interactive Entertainment Inc. Multi-threaded cabac decoding
US11934255B2 (en) 2022-01-04 2024-03-19 Bank Of America Corporation System and method for improving memory resource allocations in database blocks for executing tasks

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510613A (ja) * 2005-09-27 2009-03-12 株式会社ソニー・コンピュータエンタテインメント セルプロセッサのためのspuタスクマネージャ
JP2011248469A (ja) * 2010-05-24 2011-12-08 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4606142B2 (ja) 2004-12-01 2011-01-05 株式会社ソニー・コンピュータエンタテインメント スケジューリング方法、スケジューリング装置およびマルチプロセッサシステム
WO2011148553A1 (ja) 2010-05-24 2011-12-01 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US8954986B2 (en) * 2010-12-17 2015-02-10 Intel Corporation Systems and methods for data-parallel processing
JP2014063278A (ja) 2012-09-20 2014-04-10 Kyushu Univ 同期処理回路及び同期処理方法
US9804888B2 (en) * 2013-03-15 2017-10-31 Oracle International Corporation System and method for implementing constrained data-driven parallelism
JP6464982B2 (ja) 2015-10-07 2019-02-06 株式会社デンソー 並列化方法、並列化ツール、車載装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009510613A (ja) * 2005-09-27 2009-03-12 株式会社ソニー・コンピュータエンタテインメント セルプロセッサのためのspuタスクマネージャ
JP2011248469A (ja) * 2010-05-24 2011-12-08 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US11645124B2 (en) 2023-05-09
JP7042105B2 (ja) 2022-03-25
WO2019159616A1 (ja) 2019-08-22
US20210004278A1 (en) 2021-01-07
DE112019000189T5 (de) 2020-08-27

Similar Documents

Publication Publication Date Title
US10241831B2 (en) Dynamic co-scheduling of hardware contexts for parallel runtime systems on shared machines
Chen et al. Effisha: A software framework for enabling effficient preemptive scheduling of gpu
US8549524B2 (en) Task scheduler for cooperative tasks and threads for multiprocessors and multicore systems
CN105579961B (zh) 数据处理系统及操作方法、用于数据处理系统的硬件单元
US8954986B2 (en) Systems and methods for data-parallel processing
US8375390B2 (en) Scheduling method and scheduling apparatus
JP2005284749A (ja) 並列処理コンピュータ
US20070226440A1 (en) Read-copy-update (RCU) operations with reduced memory barrier usage
US9378069B2 (en) Lock spin wait operation for multi-threaded applications in a multi-core computing environment
WO2013192231A1 (en) Managing use of a field programmable gate array by multiple processes in an operating system
US20130152100A1 (en) Method to guarantee real time processing of soft real-time operating system
US10360079B2 (en) Architecture and services supporting reconfigurable synchronization in a multiprocessing system
WO2019159616A1 (ja) プログラム実行制御方法および車両制御装置
JP2020095441A (ja) 演算制御装置
WO2005048009A2 (en) Method and system for multithreaded processing using errands
Wang et al. Adaptive scheduling of multiprogrammed dynamic-multithreading applications
Aggarwal et al. Lock-free and wait-free slot scheduling algorithms
JP2019204387A (ja) プログラム実行制御方法およびプログラム変換装置
JP2021060707A (ja) 同期制御システムおよび同期制御方法
Wang et al. Amcilk: A framework for multiprogrammed parallel workloads
JP6445876B2 (ja) リソース割当装置、リソース割当システム、および、リソース割当方法
JP7301892B2 (ja) マルチスレッドアプリケーションを実装するシステム
JP2010026575A (ja) スケジューリング方法およびスケジューリング装置並びにマルチプロセッサシステム
Shen et al. A software framework for efficient preemptive scheduling on gpu
US20150293780A1 (en) Method and System for Reconfigurable Virtual Single Processor Programming Model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220314

R150 Certificate of patent or registration of utility model

Ref document number: 7042105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150