JP2008217134A - メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム - Google Patents

メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム Download PDF

Info

Publication number
JP2008217134A
JP2008217134A JP2007050269A JP2007050269A JP2008217134A JP 2008217134 A JP2008217134 A JP 2008217134A JP 2007050269 A JP2007050269 A JP 2007050269A JP 2007050269 A JP2007050269 A JP 2007050269A JP 2008217134 A JP2008217134 A JP 2008217134A
Authority
JP
Japan
Prior art keywords
data
program
memory
block
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007050269A
Other languages
English (en)
Other versions
JP5224498B2 (ja
Inventor
Hironori Kasahara
博徳 笠原
Keiji Kimura
啓二 木村
Hiroshi Nakano
啓史 中野
Takumi Nito
拓実 仁藤
Takanori Maruyama
貴紀 丸山
Takeshi Miura
剛 三浦
Tomohiro Tagawa
友博 田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2007050269A priority Critical patent/JP5224498B2/ja
Application filed by Waseda University filed Critical Waseda University
Priority to PCT/JP2008/053891 priority patent/WO2008105558A1/ja
Priority to US12/525,404 priority patent/US8438359B2/en
Priority to CN2008800037808A priority patent/CN101601017B/zh
Priority to KR1020097017059A priority patent/KR101186174B1/ko
Priority to GB1109237.6A priority patent/GB2478874B/en
Priority to GB0914592.1A priority patent/GB2459802B/en
Publication of JP2008217134A publication Critical patent/JP2008217134A/ja
Application granted granted Critical
Publication of JP5224498B2 publication Critical patent/JP5224498B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5033Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering data affinity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/0284Multiple user address space allocation, e.g. using different base addresses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/06Addressing a physical block of locations, e.g. base addressing, module addressing, memory dedication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/06Addressing a physical block of locations, e.g. base addressing, module addressing, memory dedication
    • G06F12/0646Configuration or reconfiguration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/41Compilation
    • G06F8/45Exploiting coarse grain parallelism in compilation, i.e. parallelism between groups of instructions
    • G06F8/453Data distribution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/48Indexing scheme relating to G06F9/48
    • G06F2209/483Multiproc
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5017Task decomposition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Devices For Executing Special Programs (AREA)
  • Memory System (AREA)
  • Memory System Of A Hierarchy Structure (AREA)
  • Stored Programmes (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】メモリへデータを効率よく配置する。
【解決手段】プロセッサによって使用されるメモリの記憶領域を管理する方法であって、前記プロセッサは、タスクの実行時に使用されるデータを格納するメモリに接続されており、前記メモリの記憶領域を複数の異なるサイズのブロックに分割し、前記タスクの実行時に使用されるデータに適合するサイズのブロックを選択し、前記選択されたブロックに、前記タスクの実行時に使用されるデータを格納する。
【選択図】図5

Description

本発明は、複数のプロセッサコアで構成されるマルチプロセッサシステムにおけるメモリの管理方法に関し、特に、コンパイラが取得した情報に基づいて、プロセッサによってアクセスされるされるデータをメモリの分割された領域に割り当てる方法に関する。
複数のプロセッサコアを一つのチップ上に集積したマルチコアプロセッサ(チップマルチプロセッサ)が、各マイクロプロセッサメーカによって次々に発表されている。スーパーコンピュータ、サーバ、デスクトップコンピュータ及びPCサーバ分野の他、情報家電及び装置組み込みの分野(例えば、携帯電話機、ゲーム機、カーナビゲーションシステム、デジタルテレビ受像機、HDD/DVDレコーダ・プレーヤ等)においても、マイクロプロセッサのマルチコア化の動きが見られる。
このように、現在情報家電からスーパーコンピュータに至るほとんどの情報機器においてマルチコアプロセッサが使われるようになっており、今後、さらに多くの情報機器にマルチコアプロセッサが組み込まれていくと考えられる。
マルチコアプロセッサは、細粒度命令レベルの並列性だけでなく、より並列性の大きいループレベルの並列性、さらに粒度の粗いループ間の並列性、関数間の粗粒度タスク並列性も利用することができる。このように、マルチコアプロセッサは、より大きな並列性の利用によって、プロセッサの処理性能を向上させることができる点で有利である。また、マルチコアプロセッサは、n台のプロセッサコアを用い同一性能を達成することができるので、クロック周波数をn分の1にし、印加する電圧も下げることによって、消費電力(電圧の2乗で増大する)を低く抑えることができる点でも有利である。
また、ソフトウェア面では、マルチプロセッサ用の並列プログラミングは、通常、チューニングに多大な時間を要することから、アプリケーションソフトウェアの開発が大変である。しかし、比較的少数のプロセッサが集積されている現時点では、逐次プログラムを自動的に並列化する自動並列化コンパイラによって高性能を得ることができる。情報家電分野ではアプリケーションの質と数が市場での競争力を決めることから、コンパイラによって、4コア、8コア、16コアのマルチプロセッサ用のプログラムの自動並列化が可能となれば、マルチコアの優位性が高まる。
また、マルチグレイン並列化では、文レベル、ループレベル、より粗いレベル(例えば、ループ間、サブルーチン間、ベーシックブロック間)の全ての並列性を組み合わせて最早実行可能条件解析によって並列性を抽出する(例えば、特許文献1参照)。
特開2001−175619号公報
このような、ローカルメモリの最適化は、従来から行われていた。しかし、従来のローカルメモリの最適化は、並列ループが連続する場合に、並列可能なループを連続的に実行することによってメモリ上のデータを使い回すだけのものであった。
しかし、一つのループで使用されるデータサイズはローカルメモリのサイズよりも大きい場合が多く、ループの中でデータのロード及びストアが発生していた。このとき、プロセッサは、次に使用するデータが準備されるまで処理を待つ必要があり、プロセッサによる処理のオーバーヘッドが発生していた。
また、ローカルメモリ上のデータを使いながらプログラムを実行していくデータローカライゼーションによると、ローカルメモリだけを使って処理をするために、逐次形のループ及びベーシックブロックで使用される大きなデータもローカルメモリに格納しなければならない。ローカルメモリに載せられないデータは共有メモリに格納していた。よって、プログラム全域に渡ってデータをローカライゼーションを適用することが望まれている。
また、スタティックスケジューリング時及びダイナミックスケジューリングコードの生成時には、各プロセッサ上のローカルメモリ又は分散共有メモリを有効に使用し、プロセッサ間のデータ転送量を最小化するためのデータローカライゼーションも用いられる。
さらに、プロセッサの集積度が高まり、1チップに含まれるプロセッサコア数が増えてくると、プログラムを並列化してもそれほど処理性能が向上しない。なぜなら、プロセッサの動作が早くなっても、プロセッサによる処理速度とメモリアクセス速度との差が拡大することによって、プロセッサが使用するデータを適切なタイミングでメモリへ供給できないという、メモリウォールの問題が生じるからである。
そこで、プロセッサに近接して設けられているメモリを上手に使う必要がある。すなわち、プロセッサに近接するメモリの記憶容量は小さいので、大きなデータが必要な場合は、データを分割してメモリに載せることが必要となる。さらに、メモリ間のデータの転送は時間がかかるので、メモリに載っているデータを使い回せるように、プログラムの処理の順序を工夫したスケジューリングをすることが求められる。さらに、メモリ間でデータを転送するときにDMAコントローラを使って、オーバヘッドを隠す必要がある。
コンパイラは、プロセッサで実行されるプログラムの並列性を解析するときに、プログラム内のタスクの実行順序の情報を取得し、タスク間でのデータの依存関係(定義、参照の関係)も解析する。また、分岐が決まると、同じデータを使うプログラムが分かる。このように、コンパイラが取得した情報によって、メモリに格納されたデータが使用されるタイミングが分かり、複数のタスク間でデータを使い回すことができる。
すなわち、本発明では、プロセッサ近傍に配置された高速なメモリに格納されたデータを、可能な限り連続して長期間置いたまま処理を続けられるようにするために、データを効率よく配置する。具体的には、必要なデータをプロセッサ近傍の高速なメモリに格納し、不必要となったデータを低速だが大容量のメモリへ順次転送する。さらに、本発明では、データを分割してローカルメモリに割り当てる。また、ローカルメモリに格納されたデータを長期間使えるようにするために、コンパイラが持っている情報(データが何時どこで使われるかの情報)に基づいて、どのデータを追い出すかを決める。また、必要となるデータを先にロードするようにDMAをスケジューリングする。
なお、本発明は、同一種類のプロセッサにおけるメモリ管理のみでなく、異なる種類のヘテロジニアス・マルチプロセッサにおけるメモリ管理にも適用することができる。
本発明によれば、メモリの記憶領域の管理が容易になることから、ローカルメモリ及び分散共有メモリへのデータの配置を最適化することができる。これにより、メモリに載っているデータを使い回すことができ、メモリ間でデータの転送を減らすことができる。
まず、本発明の概要を説明する。
本発明は、コンパイラがプログラムの解析によって取得した情報に基づいて、メモリの記憶領域を管理する。コンパイラはプログラムをコンパイルする際に、プログラムの情報を取得する。具体的には、コンパイラは、前記プログラムで使用されるデータの情報、前記データが次に使用されるタイミングの情報、前記データが使用されるプロセッサの情報を、プログラムの解析によって取得できる。すなわち、プログラムによってデータが使用されるタイミングを取得できる。本発明の第1の特徴は、プログラムを解析して得られた情報に基づいて、メモリの記憶領域の割り当てを管理することである。
具体的には、コンパイラは、プログラム(例えば、ネストされた各階層の処理)の実行スケジュールの情報を持っているので、データがいつアクセスされるかの情報を取得できる。よって、プログラムの実行スケジュールに基づいてメモリの記憶領域をデータに最適に割り当てることができるので、データの転送を最小化することができる。
さらに、メモリに割り当てられたデータを、どのプロセッサが、いつ必要とするかの情報を取得できる。よって、プロセッサによる処理に影響することなくDMAコントローラによって、データをメモリに連続的に供給(ロード)できる。よって、データがメモリに供給されるのを待つために、プロセッサが止まらない。
さらに、コンパイラは、データがプログラムによっていつアクセスされるかの情報を取得できるので、既に不要となったデータ又は直ぐにはアクセスされないデータを特定することができ、DMAコントローラによって不要となったデータ又は直ぐにはアクセスされないデータをメモリの記憶領域から掃き出す(ストア)ことができる。この将来の情報に基づいたデータの掃き出しは、従来用いられていたLRU(Least Recently Used)と異なり、最近使われていないが直ぐに使われるかもしれないデータが掃き出されることがなく、メモリの利用を最適化して、メモリ間のデータ転送を減らすことができる。
すなわち、本発明の第2の特徴は、プログラムを解析して得られた情報に基づいて、メモリへ/からデータを転送するタイミングを決めることである。
このようにメモリの記憶領域を管理するために、メモリの記憶領域を固定サイズのブロックに分割して、ブロック毎にデータを割り当てる。記憶領域が分割されるブロックのサイズは、コンパイル時に取得したプログラムの特性(プログラムで使用されている配列サイズ、配列の形状、プログラムの実行パターン等)に応じて適切なサイズを決定する。また、ブロックのサイズは整数倍(例えば、2の倍数)の関係にするとよい。
すなわち、本発明の第3の特徴は、プログラムを解析して得られた情報に基づいて、メモリの記憶領域を適切なサイズのブロックに分割して、データを割り当てることである。プログラムの特性に応じて記憶領域を固定サイズのブロックに分割することは、ハードウェアやOS(オペレーティングシステム)では成し得ない。これは、ハードウェアやOSによって記憶領域を分割すると、いつも決まったサイズで分割されてしまうからである。
さらに、アクセスするデータの種類や範囲によって、プログラムに使用されるデータのサイズが異なる場合がある、よって、プログラム中で使用されるデータのサイズに適合するように、複数のサイズのブロックを用意する。そして、データのサイズに適合するように割り当てられるブロックのサイズを変える。
さらに、プログラムの実行時に必要となるデータ(ある瞬間にメモリに載っていなければならないデータを「ワーキングセット」という)の分割にあわせて、プログラムも分割する。例えば、ループを2分の1に分割すると、使用されるデータも2分の1になる。本発明の第4の特徴は、プログラムを解析して得られた情報に基づいて、メモリの記憶領域にワーキングセットが載るように、プログラムの分割数を決めることである。例えば、プログラムの分割は、一つの大きなループを分割して、細かい単位のループを繰り返し実行する。
さらに、多重ループでは、通常、多次元配列変数が使用される。1次元アドレス空間を有する固定サイズのブロックに多次元配列変数を割り当てる際に、1次元のブロックに多次元配列テンプレートを割り当てる。この多次元配列テンプレートの形状及びサイズは、プログラムで使用される配列変数の形状及びサイズに基づいて決定される。本発明の第5の特徴は、プログラムを解析して得られた情報に基づいて、ブロックに割り当てられるテンプレートを決定することである。これによって、配列変数の添字を変換する手間やプログラムの複雑化を避けながら、任意の配列をメモリ上の任意のアドレスに割り当てることができる。
なお、以下の本発明の実施の形態では、データの使用について具体的に説明するが、プロセッサによるデータの使用(参照)の他に、データの定義(データを計算してメモリへ格納すること)におけるメモリ管理も本発明の範疇である。すなわち、本発明は、データの使用及び定義の両方を含むデータのアクセスについて適用可能されるものである。
次に、本発明の実施の形態について、図面を参照して説明する。
図1は、本発明の実施の形態のシングルチップマルチコアプロセッサの構成図である。
本発明の実施形態のシングルチップマルチプロセッサ10は、複数のプロセッサコア(PC0、PC1、…、PCn)16を含む複数のマルチコアチップ(CMP0、…、CMPm)10、複数の集中共有メモリ(CSM0、…、CSMj)14、入出力制御を行う複数の入出力用チップ(I/O CSP0、…、I/O CSPk)18、及び、チップ間結合網(InterCCN)12を備える。
チップ間結合網12は、既存の接続技術(クロスバースイッチ、バス、マルチステージネットワーク等)によって実現され、複数のプロセッサコア16、複数の集中共有メモリ14及び入出力用チップ18を接続する。集中共有メモリ14は、システム中の全プロセッサコア16によって共有され、各プロセッサコア16からアクセス可能なメモリである。集中共有メモリ14は、マルチコアチップ10内に備わる集中共有メモリ28を補完する。
各マルチコアチップ10は、複数のプロセッサコア(PC)16、集中共有メモリ(CSM/L2 Cache)28及びチップ内結合網(IntraCCN)34を備える。各プロセッサコア16は、CPU20、分散共有メモリ(DSM:distributed shared memory)22、ローカルプログラムメモリ(LPM/I−Cache)24、ローカルデータメモリ(LDM/D−cache)26、データ転送コントローラ(DTC)30、ネットワークインターフェイス(NI)32及び電力制御レジスタ(FVR)36を備える。
CPU20は、整数演算及び浮動小数点演算が可能なものであればよく、特に限定されない。例えば、データのロード及びストアのアーキテクチャが単純なシングルイッシューRISCアーキテクチャのCPUを用いることができる。また、スーパースカラプロセッサ、VLIWプロセッサ等も用いることができる。
分散共有メモリ(DSM)22は、デュアルポートメモリで構成されており、データ転送コントローラ30を介して、他のプロセッサコア16からデータを直接読み書きすることができ、タスク間のデータ転送に使用される。
ローカルプログラムメモリ(LPM)24は、スケジューラによって定められたタスクの実行順序に従って、実行すべき命令を他のメモリから先読みしてキャッシュする。なお、プログラムの特徴に応じ、通常のデータキャッシュメモリとしても使用でき、ヒットミスを少なくするためのキャッシュとしても使用される。
ローカルデータメモリ(LDM)26は、各プロセッサコア16内だけでアクセスできるメモリであり、各プロセッサコア16に割り当てられたタスクで使用されるデータ(例えば、配列変数)を格納する。また、ローカルデータメモリ26は、L1データキャッシュに切り替えることができる。
データ転送コントローラ(DTC)30は、公知のDMAコントローラによって構成され、スケジューラによって定められたタイミングに従って、実行すべき命令や使用されるデータをメモリ間で転送する。具体的には、自又は他のプロセッサコア16上のローカルメモリ26、自及び他のプロセッサコア16上の分散共有メモリ22、自及び他のマルチコアチップ10上の集中共有メモリ28、及び、他のチップに設けられた集中共有メモリ14間でデータを転送する。
なお、ローカルデータメモリ26とデータ転送コントローラ30との間の破線は、シングルチップマルチプロセッサの用途に応じて、データ転送コントローラ30がローカルデータメモリ26にアクセスできるように構成してもよいことを示している。このような場合、CPU20が、転送指示を、ローカルデータメモリ26を介して、データ転送コントローラ30に与えることができる。また、CPU20が、転送終了後に転送されたデータをチェックすることができる。
CPU20は、ローカルデータメモリ26、分散共有メモリ22又は専用のバッファ(図示省略)を介して、データ転送コントローラ30へデータ転送を指示する。また、データ転送コントローラ30は、ローカルデータメモリ26、分散共有メモリ22又は専用のバッファ(図示省略)を介して、CPU20へデータ転送の終了を報告する。このとき、どのメモリ又はバッファを使うかはプロセッサの用途に応じて、プロセッサの設計時に決められる。又は、複数のハードウェア的な方法を用意し、プログラムの特性に応じて、コンパイラ又はユーザがソフトウェア的に使い分けられるようにしてもよい。
データ転送コントローラ30へのデータ転送指示(例えば、何番地から何バイトのデータを、どこにストアし又はロードするか、及び、データ転送のモード(連続データ転送、ストライド転送等)等)は、コンパイラが、データ転送命令をメモリ又は専用バッファに格納して、プログラムの実行時にはどのデータ転送命令を実行するかの指示のみを出すようにして、データ転送コントローラ30を駆動するためのオーバヘッドを削減することが望ましい。
ネットワークインタフェース(NI)32は、各マルチコアチップ10内のプロセッサコア16の間を通信可能にするために、チップ内結合網34に接続される。チップ内結合網34はチップ間結合網12に接続されている。プロセッサコア16は、チップ間結合網12によって、他のマルチコアチップ10内のプロセッサコア16と通信することができる。
プロセッサコア16は、チップ内結合網34を介して、集中共有メモリ14に接続される。集中共有メモリ14は、チップ間結合網12に接続される。
なお、ネットワークインタフェース32は、チップ内接続ネットワーク34を介さずに、チップ間結合網12とを直接接続することもできる。このような構成は、システム中の全プロセッサコア16が、各チップ上に分散して配置された集中共有メモリ28及び分散共有メモリ22に、平等なアクセスを可能にする。また、直結されたパスを設けることによって、チップ間のデータの転送量が多い場合でも、システム全体のデータ転送能力を高めることができる。
電力制御レジスタ(FVR)36は、プロセッサコア16の動作周波数及び動作電圧を制御するために、プロセッサコア16に供給される電源電圧やクロック周波数が設定される。なお、図示したように、電力制御レジスタは、プロセッサコア16だけでなく、マルチコアチップ10、チップ間結合網12、集中共有メモリ14、入出力用チップ18、集中共有メモリ28及びチップ内結合網34にも設けられ、これらの各構成の動作周波数及び動作電圧を制御するためのデータが格納される。
図2は、本発明の実施の形態のマルチグレイン並列処理を説明する図である。
マルチグレイン並列処理とは、粗粒度並列性、中粒度並列性及び近細粒度並列性を階層的に利用する並列処理方式である。粗粒度並列性とは、サブルーチン間、ループ間及び基本ブロック間の並列性であり、中粒度並列性とは、ループのイタレーション間の並列性であり、近細粒度並列性とは、ステートメント間及び命令間の並列性である。このマルチグレイン並列処理によって、従来行われてきた局所的かつ単一粒度の並列化(ループの並列化及び命令レベルの並列化等)とは異なり、プログラム全域にわたるグローバルかつ複数粒度にわたるフレキシブルな並列処理が可能となる。
マルチグレイン並列処理においては、以下の手順で並列化処理が行われる。
1)ソースプログラムからマクロタスクを生成。
2)マクロタスク間の制御フロー及びデータ依存を解析しマクロフローグラフを生成。
3)最早実行可能条件解析によってマクロタスクグラフを生成。
以下、この手順を具体的に説明する。
単一プログラム中のサブルーチン、ループ、基本ブロック間の並列性を利用するマルチグレイン並列処理では、ソースとなる、例えばフォートランプログラムを、粗粒度タスク(マクロタスク)として、繰り返しブロック(RB:repetition block)、サブルーチンブロック(SB:subroutine block)、及び、疑似代入文ブロック(BPA:block of pseudo assignment statements)の3種類のマクロタスク(MT)に分解する。繰り返しブロックは、各階層での最も外側のループである。
また、疑似代入文ブロックは、スケジューリングオーバヘッド及び並列性を考慮して、結合及び/又は分割された基本ブロックである。ここで、疑似代入文ブロックは、基本的には通常の基本ブロックであるが、並列性抽出のために単一の基本ブロックを複数に分割してもよい。また、一つの疑似代入文ブロックの処理時間が短く、ダイナミックスケジューリング時のオーバヘッドが無視できない場合には、複数の疑似代入文ブロックを結合して一つの疑似代入文ブロックを生成する。
最外側ループである繰り返しブロックがDoallループである場合は、ループインデクスを分割することによって、複数の部分Doallループに分割し、分割されたDoallループを新たに繰り返しブロックと定義する。繰り返しブロックがnon−Doallループである場合は、繰り返しブロック内の並列性に、階層的マクロデータフロー処理を適用するとよい。
サブルーチンブロックは、可能な限りインライン展開するとよい。しかし、コード長を考慮した結果、効果的にインライン展開ができないサブルーチンは、そのままサブルーチンブロックとする。この場合、サブルーチンブロック内の並列性に、階層的マクロデータフロー処理を適用するとよい。
次に、マクロタスク間の制御フローとデータ依存を解析し、図3に示すようなマクロタスクグラフ(MTG)
を作成する。マクロフローグラフでは、マクロタスク(MT)間の制御フローを表している。マクロタスクグラフを作成する際は、マクロタスク間の制御依存及びデータ依存を同時に解析し、各マクロタスクが最も早く実行できる条件(最早実行可能条件)の形でマクロタスク間の並列性を検出する。。また、この最早実行開始条件をグラフで表現したものがマクロタスクグラフである。
そして、コンパイラは、マクロタスクグラフ上のマクロタスクを、プロセッサクラスタ(コンパイラ又はユーザによって定義されるプロセッサのグループ)へ割り当てる。このタスクの割り当てには、コンパイル時に割り当てるスタティックスケジューリングと、実行時に割り当てるダイナミックスケジューリングがある。ダイナミックスケジューリングの場合、ダイナミックCPアルゴリズムを用いてダイナミックスケジューリングコードを生成し、生成されたダイナミックスケジューリングコードをプログラム中に埋め込む。なお、ダイナミックスケジューリング時には、実行時までどのマクロタスクがどのプロセッサで実行されるか分からないので、マクロタスク間で共有されるデータは全プロセッサから等距離に見える集中共有メモリ14に割り当てるとよい。
マルチグレイン並列化では、マクロデータフロー処理によってプロセッサクラスタに割り当てられるループブロックは、そのループブロックがDoallループ又はDoacrossループである場合、プロセッサクラスタ内の複数のプロセッサコア16によって処理がされるように、イタレーションレベルでループが分割され、ループが並列化される。
ループの再構築には、ステートメントの実行順序の変更、ループディストリビューション、ノードスプリッティングスカラ エクスパンション、ループインターチェンジ、ループアンローリング、ストリップマイニング、アレイプライベタイゼーション、及び、ユニモジュラー変換(ループリバーサル、パーミュテーション、スキューイング等)等の従来の技術がそのまま利用できる。
また、ループ並列処理が適用できないループには、近細粒度並列処理、又は、ループのボディ部を階層的にマクロタスクに分割する粗粒度タスク並列処理を適用する。
プロセッサクラスタに割り当てられるマクロタスクが疑似代入文ブロックであるか、又は、ループ並列化も階層的なマクロデータフロー処理も適用できないループブロックの場合は、疑似代入文ブロック内のステートメント又は命令を近細粒度タスクとして、プロセッサクラスタ内のプロセッサで並列処理する。
マルチプロセッサシステムでの近細粒度並列処理では、プロセッサ間の負荷バランスだけでなくプロセッサ間のデータ転送を最少にするように、近細粒度タスクをプロセッサにスケジューリングすることによって、効率よい並列処理を実現する。さらに、この近細粒度並列処理で要求されるスケジューリングでは、近細粒度タスク間にはデータ依存による実行順序の制約があるため、タスクの実行順序が問題となる。
このようにして生成された近細粒度タスクグラフを各プロセッサにスタティックにスケジューリングする。この際、スケジューリングアルゴリズムとして、データ転送オーバヘッドを考慮し実行時間を最小化するために、公知のヒューリスティックアルゴリズム(CP/DT/MISF法、CP/ETF/MISF法、ETF/CP法、又は、DT/CP法)を適用し最適なスケジュールを決定する。
スケジューリングの終了後、コンパイラはプロセッサコアに割り当てられたタスクの命令列を順番に並べ、データ転送命令や同期命令を必要な箇所に挿入することによって、各プロセッサ用のマシンコードを生成する。このとき、挿入されるデータ転送命令は、マクロタスク間の制御依存及びデータ依存よって、ローカルメモリ26にデータを格納する及びローカルメモリ26からデータを掃き出すタイミングを決められる。
近細粒度タスク間の同期にはバージョンナンバー法を用い、同期フラグの受信は受信側プロセッサコアのビジーウェイトによって行うとよい。ここで、データ転送指示及び同期フラグの設定は、送信側のプロセッサが受信側のプロセッサコア16上の分散共有メモリ22に直接書き込むことによって、低オーバヘッドで行うことができる。
<ローカルメモリ管理>
図4は、本発明の実施の形態のローカルメモリ管理の概要を説明する図である。
プログラムは、一般に、サブルーチン及び多重ループによって複数の階層に分かれている。よって、プログラムの実行に必要なデータをどのタイミングで転送するかを考えることが重要である。例えば、ループにおいては、ループの前後でデータを転送するとよい。具体的には、ループの実行前にデータをローカルメモリに転送し、ループの実行後にデータをローカルメモリから転送する。そして、ループ内ではデータをローカルメモリに載せたままで、ループが実行できるようにデータを配置するとよい。このように、データをローカルメモリに載せたままで実行できるプログラムの単位を「ローカルメモリ管理マクロタスク」という。
すなわち、ローカルメモリ管理マクロタスクで扱うデータは必ずローカルメモリ上に載るサイズのデータである。また、ローカルメモリ管理マクロタスクの実行に必要なデータは、ローカルメモリ管理マクロタスクの実行前又は実行後の適切なタイミングで転送(ロード、ストア)される。さらに、タスク内でデータの転送が発生しないように、ローカルメモリ管理マクロタスクを決定する。
そして、必要な全てのデータをローカルメモリに載せることができないループは、そのループの中で、使用される全てのデータがローカルメモリに載る部分をローカルメモリ管理マクロタスクと定義する。すなわち、必要な全てのデータがローカルメモリに載るようにプログラムを分割し、ローカルメモリ管理マクロタスクを決める。このようにローカルメモリ管理マクロタスクを決めて、ローカルメモリ管理マクロタスクの実行に必要なデータは、マクロタスクの実行前後で転送(ローカルメモリへのロード、ローカルメモリから集中共有メモリへのストア)する。このため、マクロタスク内において、データの転送が発生しない。
以上、ループについて説明したが、プログラム中のベーシックブロック及びサブルーチンでも同じである。なお、サブルーチンについては、後述する例外がある。
また、本明細書では、ローカルメモリの管理について説明するが、容量に制限のある(記憶容量が使用されるデータより少ない)メモリであれば、本発明を適用することができる。例えば、ローカルメモリ26の他、プロセッサコア16内の分散共有メモリ22、オンチップの集中共有メモリ28及びオフチップの集中共有メモリ14にも、本発明を適用することができる。
以上説明したプログラムを分割して、ローカルメモリ管理マクロタスクを生成する方法について、図4を参照して説明する。
ローカルメモリに配列変数の要素が1000個載ると仮定する。また、図4に示すように、このプログラムは変数i、jによる2重ループが含まれている。ループ中で配列変数A[1:30,1:20]は600要素が使用され、配列変数B[1:30]は30要素が使用され、配列変数C[1:30,1:20]は600要素が使用される。合計すると、このループでは1230個の配列要素が使用される。よって、全てのデータをローカルメモリに載せて、このループを実行することができない。
そこで、本発明の実施の形態のコンパイラは、変数iのループを、i=1〜10及び、i=11〜20の二つのループに分割する。すると、各ループでアクセスされるデータは630要素になるので、全てのデータをローカルメモリに載せたまま、ループを最初から最後まで実行することができる。この分割されたループが、ローカルメモリ管理マクロタスクである。そして、このマクロタスクの実行前後に必要なデータがロード及びストアされる。
データのローカルメモリへの転送(ロード)はマクロタスクの実行直前でなくても、他のデータのブロックへの割り当てを考慮して、もっと前の時点で実行してもよい。このように、配列変数(データ)が使用されるマクロタスクの実行開始前までの任意のタイミングで、そのマクロタスクで使われる配列変数をメモリにロードすることを「プレロード」という。このプレロードは、他のマクロタスクの実行中であっても、そのデータがロードされるべきブロックが空いていれば、DMAによってデータの転送が可能である。このように、ブロックの空き状態によって、マクロタスクの実行前でもデータをロードすることができ、プログラム実行までに必要なデータを揃えることができる。このため、メモリに必要なデータがロードされていないことによるプロセッサの待ち時間を削減することができる。
また、データのローカルメモリからの転送(ストア)はマクロタスクの実行終了直後でなくても、他のデータのブロックへの割り当てを考慮して、もっと後の時点で実行してもよい。このように、配列変数(データ)が使用されるマクロタスクの終了後の任意のタイミングで、そのマクロタスクで使われた配列変数をメモリにロードすることを「ポストストア」という。このポストストアは、他のマクロタスクの実行中であっても、DMAによってローカルメモリから集中共有メモリへのデータの転送が可能である。このように、任意のタイミングでデータをストアすることによって、DMAの負荷がマクロタスクの実行前後に集中することを避けることができる。
次に、前述したサブルーチンにおける例外について説明する。
前述したように、一般的には、ローカルメモリ管理マクロタスク内でデータの転送が発生することはない。しかし、サブルーチンがローカルメモリ管理マクロタスクとなった場合、及び、内部でサブルーチンを呼び出しているループがローカルメモリ管理マクロタスクとなった場合の二つの場合には、サブルーチン内においてデータを転送(ロード及び/又はストア)する必要がある。
具体的には、サブルーチンの開始時に、サブルーチン呼び出し元で使用していた配列変数をロードする。例えば、フォートランにおけるセーブ、コモン及びデータ変数、C言語におけるスタティック変数及びグローバル変数を使用すると、これらの変数は呼び出し元では管理することができない。よって、マクロタスク内のサブルーチンの処理が終わったら使用された変数を共有メモリに転送する必要がある。サブルーチン終了時に変数をローカルメモリから読み出して共有メモリに書き込まないと、データの整合性がとれないからである。なお、マクロタスクは一つの物理プロセッサによって実行されるので、マクロタスク内でデータをロード及びストアしても正しい値が保証される。
<記憶領域の分割>
図5は、本発明の実施の形態のメモリの記憶領域の分割の状態を説明する図である。
本発明で、記憶領域の管理の対象となるメモリは、ローカルメモリ及び分散共有メモリである。これらの管理対象のメモリの記憶領域は、複数のブロック(サブブロック等も含む)101〜104に分割されている。
図5に、ローカルメモリの記憶領域を分割したブロックを示す。ブロック101は、ローカルメモリの記憶領域が2のべき乗分の1(図示する状態では8分の1)に分割された固定長の領域である。更に、ブロック4〜7は、ブロックサイズの半分のサブブロック8〜15(102)に分割されている。さらに、サブブロック12〜15は、サブブロックサイズの半分のサブサブブロック24〜31(103)に分割されている。さらに、サブサブブロック28〜31は、サブサブブロックサイズの半分のサブサブサブブロック56〜63(104)に分割されている。
ブロック101、サブブロック102、サブサブブロック103、サブサブサブブロック104は独立して管理される。コンパイラは、メモリの各アドレス空間に任意のサイズのブロックを設定することができる。コンパイラは、コンパイルされるプログラムに応じて適切なサイズのブロック等を設定する。すなわち、大きいデータを扱うプログラムでは大きなサイズのブロックを、小さいデータを扱うプログラムでは小さなサイズのブロックを用意することによって、ローカルメモリを無駄なく、かつ効率よく使用することができる。
なお、ブロックの管理を容易にするため、サブブロック等も、記憶領域の先頭アドレスから通し番号を付与する。このため、一つのアドレスによって示される領域が、複数のブロック、サブブロックに含まれる。例えば、ブロック0、サブブロック0〜1、サブサブブロック0〜3、及びサブサブサブブロック0〜7は、同じメモリ空間(アドレス0〜127)を示す。このように、複数種類のブロックをメモリ空間の同じアドレスに設定することによって、随時、適切な種類のブロック等を使用するようにメモリを管理することができる。
このように設定された、サブブロックのサイズはブロックのサイズの1/2であり、サブサブブロックのサイズはブロックのサイズの1/4であり、サブサブサブブロックのサイズはブロックのサイズの1/8となるように分割されている。つまり、メモリの記憶領域は、サイズが2のべき乗の関係(隣接するサイズのブロックと2倍の関係)にある複数のサイズのブロックに分割され、分割された複数のサイズのブロックが記憶領域として提供される。
なお、ブロックサイズは、コンパイラがプログラムをコンパイルする際に取得したプログラムの情報によって決定されるので、プログラム実行開始から終了までの間変更されない。しかし、コンパイラが、別のプログラムをコンパイルすると、コンパイル対象のプログラムの特性に適合するように、ブロックの数及びサイズは異なってくる。すなわち、本発明のローカルメモリの記憶領域の管理単位となるブロックは、完全に固定されたサイズではなく、コンパイラがプログラムを解析した情報に基づいて、プログラムで使用されるデータサイズに最適なブロックサイズを決めることができる。ブロックサイズはプログラム内では固定だが、プログラム毎に最適なブロックサイズを選択する。
なお、プログラム実行中にブロックサイズを変えてもよい。具体的には、プログラムのあるステップまでは大きな配列データを使ったが、あるステップ以後は小さなスカラーデータ(1次元変数)を使うときは、配列データの使用終了時にブロックを分割してサブブロックにしてもよい。また、テンプレートの割り当てを変えることによって、ブロックに載せられる配列変数のサイズを変更することができる。テンプレートのブロックへの割り当ては後述する。
本発明では、一つのローカルメモリ管理マクロタスクで使用される全てのデータが一つのブロックに格納できるように、ブロックサイズが決定される。換言すると、ブロックのサイズによって、ローカルメモリ管理マクロタスクのサイズが定まる。なお、定められたブロックサイズにデータを出し入れするタイミングは、その後、マクロタスクに実行タイミングに基づいて、スケジューラによって決められる。
このようにして、ローカルメモリの記憶領域を複数のサイズのブロックに分割することによって、ローカルメモリ管理マクロタスクにおいて使用されるデータに最適なサイズのブロックに、必要なデータがロードされる。また、ローカルメモリの記憶領域を固定サイズの領域で管理することによって、可変サイズの領域で管理する場合に生じる断片化(フラグメンテーション)の問題を回避することができる。
図4に示した分割したループの例では、配列変数Aはローカルメモリの一つのブロックに収まる。また、配列変数Bは一つのサブサブブロックに収まる。換言すれば、ブロックのサイズは、コンパイラによって、プログラムの性質に応じて決められる。より具体的には、配列変数Aがローカルメモリの一つのブロックに収まるようにブロックサイズが決められ、ループが分割される。そして、通常は、ブロックサイズはコンパイル対象のプログラムの開始時から終了時までは変更されない。
<データのロード及びストア>
次に、ブロックへのデータの書き込み(ロード)、読み出し(ストア)、及び、ブロックの割り当てについて説明する。
図5に示すように記憶領域が分割されたメモリには、ローカルメモリ管理マクロタスクにおいて使用されるデータがロードされる。まず、スケジューラは、データをロードするメモリが、ローカルメモリか分散共有メモリかを決める。このとき、複数のプロセッサコアによって共有されるデータは分散共有メモリにロードするとよい。
次に、スケジューラは、必要なデータが既にロードされているブロックがある場合、そのブロックにロードされているデータをそのまま使用する。一方、必要なデータがいずれのブロックにもロードされていない場合、空いているブロックを当該ロードされるデータに割り当て、割り当てられたブロックに必要なデータをロードする。さらに、空いているブロックがなければ、掃き出し優先度の最も高いデータをローカルメモリ26から読み出して、集中共有メモリ28又は14に書き込み、空きブロックとなった記憶領域に必要なデータをロードする。
図6は、本発明の実施の形態のメモリの掃き出し優先度を説明する図であり、横軸に時間の経過を示す。
本発明の実施の形態では、掃き出し優先度は以下の順で決められる。
1)以後アクセスされないデータ。
2)他プロセッサでアクセスされるが、自プロセッサではアクセスされないデータ。
3)再度自プロセッサで使用されるが、先の時間で使用されるデータ。
4)自プロセッサですぐに使用されるデータ。
以後アクセスされないデータは、例えば、新たに再計算されてしまっている変数である。このような既に死んでいる変数は残しておく必要がないため、掃き出し優先度は一番高くなる。他のプロセッサでアクセスされるが、今後自プロセッサでアクセスされないデータは、そのデータを必要とするプロセッサコア16の分散共有メモリ22に転送するとよいので、次に掃き出し優先度が高くなる。他プロセッサでアクセスされるデータは直ぐに分散共有メモリ22へ転送すればよいが、他のプロセッサコア16のメモリの状況によって、すぐに転送できない場合には、少し時間をずらしてから分散共有メモリ22へ転送するか、集中共有メモリ28又は14へ転送する。このようにローカルメモリ26からのデータの転送タイミングに自由度を持たせるために、アクセスされないデータより掃き出し優先度を低く設定している。
最後に、再び自プロセッサでアクセスされるデータについては、次に使用されるまでの時間によって優先度を決める。そのデータが使用される時間が先である程、掃き出し優先度は高く、すぐ近くで使用されるデータは掃き出し優先度を低くし、なるべくメモリに載ったまま残るようにする。
図6を参照して、時間の経過と共にメモリの掃き出し優先度について説明する。図6では、現在、プロセッサコア0(PC0)で実行されているローカルメモリ管理マクロタスクにおいて、配列変数A、B、C及びDがローカルメモリにロードされている状態を考える(1001)。
このローカルメモリ管理マクロタスクでは、始め、プロセッサコア0(PC0)で、配列変数Aを定義し(Def A)、配列変数Aを使用している(1002)。
次に、プロセッサコア1(PC1)で、別の配列変数Aを定義した(1003)。すると、PC0のローカルメモリにロードされている配列変数Aは既に変わっているので、今後アクセスされることはない。よって、掃き出し優先度が最高位になる。キャッシュのコヒーレンス制御と同様に、整合性がとれないデータは、不要なデータと判断すればよいからである。
次に、後に実行されるべきマクロタスクを検討する。配列変数Bは、他のプロセッサ(PC1)で使用される(1004)。配列変数C及びDは、自プロセッサ(PC0)で使用される(1005、1006)。よって、配列変数Bの掃き出し優先度は、配列変数C及びDの掃き出し優先度より高くなる。
配列変数Cと配列変数Dを比較すると、配列変数Dの方が配列変数Cより先に使用される。よって、配列変数Cの掃き出し優先度は、配列変数Dの掃き出し優先度より高くなる。なお、配列変数C及びDは、後に利用されるので、集中共有メモリCSMに一旦書き戻して、次に必要になるときにロードすればよい。
このため、掃き出し優先度はA、B、C、Dの順となる。
図7、本発明の実施の形態のメモリにロードされている変数の推移を説明する図である。
図7は、一つのプロセッサコア上で、二つのローカルメモリ管理マクロタスク(MT1、MT2)が含まれるプログラムが一つの階層で実行される場合に、プログラムの実行開始前のメモリの状態を、マクロタスク1(MT1)の実行終了時のメモリの状態、マクロタスク2(MT2)の実行開始時のメモリの状態、及び、マクロタスク2(MT2)の実行終了時のメモリの状態を示す。なお、ローカルメモリの記憶領域は、図5で示したように分割されている。
マクロタスク1(MT1)の実行開始前には、全てのメモリの記憶領域(ブロック)は、空き状態である(1011)。そして、マクロタスク1の開始時には、マクロタスク1で必要とされるデータ(配列変数A、B、C、D、E、F)にブロックが割り当てられ、各配列変数がメモリにロードされる。その後、マクロタスク1による処理が開始する。具体的には、宣言文def Aによって、配列変数Aがブロック0に割り当てられる。同様に、配列変数Bがブロック1に割り当てられ、配列変数Cがブロック2に割り当てられ、配列変数Dがブロック3に割り当てられ、配列変数Eサブブロック8に割り当てられ、配列変数Fがサブブロック9に割り当てられる。
マクロタスク1の実行終了時には、各配列変数がブロックにロードされている(1012)。
マクロタスク2(MT2)の実行開始時には、マクロタスク2で使用される全てのデータがメモリにロードされている必要がある。マクロタスク2では、配列変数A、B、C、G、E、H、I及びJが使用されるので、4個のブロック及び4個のサブブロックが必要である。必要な配列変数のうち、配列変数A、B、C及びEは、既にローカルメモリにロードされているので、マクロタスク2の実行時に新たにロードすべき配列変数は、配列変数G、H、I及びJである。このうち、配列変数Hは、マクロタスク2の実行開始前にサブブロック10にプレロードされている。また、サブブロック11は空いている。よって、マクロタスク2の実行開始の段階で1個のブロック及び1個のサブブロックを空ける必要がある。
そこで、必要なデータをロードするブロックを確保するために、掃き出し優先度に従って配列変数Dをブロック3から掃き出し、配列変数Fをサブブロック9から掃き出す。これによって、1個の空きブロック及び1個の空きサブブロックを確保する(1014)。
このため、マクロタスク1の実行終了後、マクロタスク2の実行前には、配列変数D及びFの集中共有メモリへの転送、配列変数Hのローカルメモリへの転送が必要となる(1013)。
マクロタスク2の実行開始前に、配列変数Gがブロック3に割り当てられ、配列変数Iがサブブロック9に割り当てられ、配列変数Jがサブブロック11に割り当てられる。その後、マクロタスク2が実行され、配列変数G、I及びJがマクロタスク2で使用される(1014)。
このように、前述した優先度によって、メモリからデータを分散共有メモリ又は集中共有メモリにストアするので、従来のLRUとは異なり、メモリの利用を最適化することができ、メモリ間のデータ転送を減らすことができる。すなわち、従来のLRUによると、最近使われていないが直ぐに使われるかもしれないデータもメモリから転送されてしまう。しかし、本発明のように、コンパイラが取得した情報によると、そのデータが次に使用されるタイミングが分かり、メモリを最適に使用することができる。
<ループの分割>
次に、図8から図11を参照して、ループの分割手順の具体例を説明する。
ループの分割は、複数のループを見て整合分割を行う。多重化されたループで一番広くアクセスする範囲を解析して、グローバルインデックスレンジとする。すなわち、ローカルメモリをアクセスすればよい範囲と、隣のプロセッサと通信をしなければいけない範囲とがあるので、データのアクセス範囲を解析し、これを切り分ける。このため、プログラムの構造を解析し、ターゲットループグループ(TLG)を選択する。本実施形態では、従来のコンパイラによる並列的なループを連続的に実行するための解析と異なり、複数のループにわたってどのようにメモリがアクセスされるかを解析する。
ここで、二つのループが整合するとは、以下の全ての条件を満たすことである。
1)各ループが、Doallループ、Reductionループ、ループキャリッドデータ依存(リカレンス)によるSequentialループのいずれかである。
2)ループ間に配列変数のデータ依存が存在する。
3)各ループのループ制御変数が同一配列の同じ次元の添字式で使用されており、次元の配列添字がループ制御変数の一次式で表されている。
4)ループ間にデータ依存を導く各配列に対して、配列添字中のループ制御変数係数のループ間での比が一定である。
このとき、選択されていない単一のループも全てターゲットループグループとし、ターゲットループグループの入れ子を許容し、間接参照を含むループも選択する。すなわち、ターゲットループグループに選ばれたループの内側にもループが存在していた場合、内側のループに対してもターゲットループグループを生成する。また、他のループと整合可能でないループは、そのループのみでターゲットループグループを成す。
ターゲットループグループとは、マクロタスク上でループ整合分割が適用可能な繰り返しブロック(RB)の集合であり、マクロタスクグラフ上で直接データ依存先行、後続関係を持つ繰り返しブロックの集合である。これは、実行時のコスト(メモリ及びプロセッサ等のリソースの消費)が大きい繰り返しブロックとその繰り返しブロックに直接データ依存先行、後続関係を持つ繰り返しブロックは大きなデータを扱うので、分割の効果が高いためである。これによって、ループ間で同じデータを使う場合に、同じ領域を使い回して、キャッシュミスを防止することができる。
具体的に、図8に示すプログラムでは、変数iによる二つのループがTLG1となり、各TLG1内の変数jによるループがTLG1−1及びTLG1−2となる。さらに、TLG1−1内の変数kによるループがTLG1−1−1なり、TLG1−2内の変数kによるループがTLG1−2−1なる。
次に、図9に示すように、TLG集合を生成する。TLGが以下の生成条件の全てを満たす場合に、TLG集合が生成される。
1)少なくとも一つ以上共有配列を持つ(依存関係も考慮される)。
2)共有配列の整合次元が全て一致する。
3)サブルーチンを跨った場合は、共有配列の形状が一致する。
次に、図10に示すように、分割候補TLG集合を生成する。これは、入れ子になったTLGがある場合、コストが最大のTLG集合を選択し、選択されたTLG集合を分割候補とする。その後、分割候補TLG集合毎にGIRを計算する。このようにすると、プログラム中の全てのコードをカバーすることができる。具体的には、TLG集合1が分割候補TLG集合1となり、GIRは[1:10]となる。
次に、分割基準領域を決定する。分割基準領域は、各TLG集合で使用されるデータを収めなければならない記憶領域である。具体的には、分割候補TLG集合で使用されるデータサイズの比を計算する。ここで、3個の分割候補TLG集合があり、集合1で使用されるデータサイズが300k、集合2で使用されるデータサイズが200k、集合3で使用されるデータサイズが100kであれば、データサイズの比は3:2:1になる。
この比に基づいて、最小メモリ領域(ローカルメモリと分散共有メモリとのうち、容量が小さいもの)を各分割候補TLG集合に割り当てる。具体的には、分割候補TLG集合で使用されるデータが最小メモリ領域よりも小さいの領域に収まるように、分割候補TLG集合を分割する。なお、実際には、この時に割り当てられた領域以外の領域にも分割候補TLG集合で使用されるデータを載せることができるが、分割用の目安としてこのような処理をする。
これによって、分割後の各分割候補TLG集合で使用されるデータを同時にローカルメモリに載せることが可能となる。なお、実際にデータをメモリに載せるかは、スケジューリング及びメモリ管理ルーチンによって決まる。
次に、ブロックサイズを決定する。
まず、コストが最も大きい分割候補TLG集合を、ブロックサイズを決定する基準にする。但し、多重分割が必要となった場合、分割候補TLG集合には最大分割数が採用される。ここで、最大分割数とは、割り当てられるプロセッサグループ(PG)内のプロセッサコア(PC)の構成と、並列処理によるオーバーヘッドを考慮した場合の最大の分割数である。CPUの数が一つである場合、最大分割数は、ループのイタレーション数である。以後、多重分割が必要となったTLG集合は、分割候補TLG集合に選ばない。そして、再び、分割候補TLG集合を生成する。
具体的には、図11に示すように、TLG集合1は最大分割数で分割されるので、次のTLG集合2が分割候補TLGに選択される。分割候補となったTLG集合2は、GIRは[1:20]である。
次に、ブロックサイズの決定手順について説明する。
まず、ブロックサイズ決定前処理を実行する。基準となる分割候補TLG集合でアクセスするデータが、分割基準領域よりも小さいサイズになる分割数を計算する。ここではアクセスされるデータのサイズのみを考え、間接的に参照されるデータのアクセスについては考慮しない。分割数は、プロセッサグループの数の整数倍となるように選択する。求められた分割数でTLG集合内の各ループの分割を試行する。
具体的には、最外ループ(iのループ)で4分割を試行する。アクセスされる配列変数A及びBのサイズは、[k,j,i]=[1:30,1:20,1:3]である。総データサイズは、30×20×3×2=3600になる。
次に、ブロックサイズを決定する。
分割後の配列アクセス範囲に基づいて、TLG集合中の全てのローカル配列のテンプレートを作成し、作成されたテンプレートの大きさを仮ブロックサイズとする。テンプレートの作成の詳細は後述する。ここでも、間接参照される配列データのアクセスについて考慮しない。テンプレートの作成に失敗した場合、分割数を大きくして、ブロックサイズ決定前処理からやり直す。
決定された仮ブロックサイズを用いて、分割基準領域に割り当てできるかを判定する。このステップでは、データを間接的に参照している場合は、その次元については配列の宣言サイズを用いて判定する。間接的に参照されている配列がブロックに収まらなかった場合、共有メモリに置くことを決定してもよい。
TLG集合で使用されるデータが仮ブロックサイズに割り当てできる場合、テンプレートを作成したときの分割数を採用する(すなわち、さらに分割はしない)。そして、仮ブロックサイズをブロックサイズと決定する。
一方、TLG集合で使用されるデータが仮ブロックサイズに割り当てできない場合、分割数を大きくして、ブロックサイズ決定前処理からやり直す。さらに、最大分割数でも割り当てできなかった場合、最大分割数を採用し、以後、割り当てできなかったTLG集合は、分割候補TLG集合に選ばない。そして、再び、分割候補TLG集合を生成する。
次に、分割数を決定する。
分割候補TLG集合毎に、先に決められたブロックサイズに基づいて、分割基準領域決定で決めた領域中にいくつのブロックが確保できるか計算し、割り当てできる分割数を求める。その結果、いずれかの分割候補TLG集合の割り当てに失敗した場合、再び、分割候補TLG集合を生成する。
その際、割り当てできなかった分割候補TLG集合は最大分割数を採用し、以後、割り当てできなかったTLG集合は、分割候補TLG集合に選ばず、ブロックサイズは再計算しない。既に、分割数が決められた分割候補TLG集合のデータサイズをローカルメモリのサイズから減じて、まだ残っている分割候補TLG集合のデータサイズの比に基づいて、再度、TLG集合を割り当てる。そして、分割数が決定した分割候補TLG集合内にある各ループを。ローカルメモリ管理マクロタスク候補とする。
具体的には、TLG集合1で使用されるデータサイズが300k、TLG集合2で使用されるデータサイズが200k、TLG集合3で使用されるデータサイズが100kである例を考える。TLG集合1を基準にブロックサイズが決定できたとする。TLG集合2を最大分割数でも割り当てに失敗した場合、TLG集合2の中にTLG集合4、TLG集合5及びTLG集合6があった場合、これらが次の分割候補TLG集合に加わる。
全てのデータがローカルメモリに配置できるループの分割数が決まった場合、どのデータがどのようなパターンでアクセスされるか、及び、どのデータがどの大きさのブロック等を使用すると仮定して分割したかの情報を、データをローカルメモリに割り当てるときのために、記憶しておく。
次に、マクロタスクの分割、ループの再構築を行う。ここで行われる処理は、マクロタスクの分割、ループディストリビューション、ループフュージョン及びループの再構築である。
ここで、ループディストリビューション(Loop distribution)とは、具体的には図14及び図15で後述するが、多重分割を行った際にデータを使い回すための処理である。ループフュージョン(Loop fusion)とは、レジスタを使い回すための処理である。
そして、ループの再構築(Loop restructuring)後、外側階層のループから順に分割数が設定されているマクロタスクを探し、見つかったマクロタスクをローカルメモリ管理マクロタスクとする。ローカルメモリ管理マクロタスクに設定されたマクロタスクの内側では、マクロタスクの探索を行わない。
<テンプレートの作成>
次に、テンプレートの作成手順について説明する。
本実施の形態において、テンプレートとは、配列変数をローカルメモリに割り当てる単位である。コンパイラは、プログラムがデータにアクセスするパタンに応じてテンプレートを準備する。提供されるテンプレートのサイズは、ブロック又はサブブロックのサイズと同じである。また、テンプレートは、次元毎(1次元配列、2次元配列、3次元配列、・・・)に用意され、プログラムによってアクセスされるサイズ以上の大きさである。
ブロックを用いてローカルメモリを管理する場合に、同一アドレス領域のブロックに様々なデータ(形状、次元が異なる配列等)を載せる必要がある。すなわち、データのサイズがブロックに収まるものであっても、1次元で宣言されているスカラー変数であったり、2次元、3次元の配列変数である場合がある。また、同じ次元のデータであっても各次元のサイズが異なるデータである場合もある。これらを同じアドレス空間のブロックに載せるために、すべてのデータを1次元のデータに変換してメモリアドレスと一致させることもできる。しかし、配列変数の場合、添字変換が必要となり、ユーザーが書いたプログラムと異なるものとなってしまう。このような添字変換をすると、プログラムが分かりにくくなり、デバッグも困難になり、並列性の解析が分かりにくくなる。
そこで、プログラムの可読性を保ったまま、ローカルメモリを管理するために ブロック等のサイズと同じサイズのテンプレートを利用する。テンプレートとは、配列変数が格納されるテンプレートである。テンプレートに必要なデータを格納することによって、ローカルメモリ上の任意のブロックにデータを載せることを実現する。
テンプレートは以下の手順によって作成される。
まず、TLG集合内の全ての配列について、各次元のアクセスサイズよりも大きく、かつ最も小さい2のべき乗の数を求める。そして、各次元が求められた大きさの仮テンプレートを作成する。
前述した例では、最外の変数iのループで4分割を試行する。例えば、i=1〜3、4〜6、7〜8、9〜10の4個のループに分割すれば、3回転の2個のループ、2回転の2個のループができる。分割されたループ内での配列変数A及びBのアクセスサイズは、共に、[k,j,i]=[1:30,1:20,1:3]である。なお、3次元目はループの回転数のうち大きい方を選択し、3回転とする。
次に、仮テンプレートの大きさを計算する。テンプレートの各次元は配列変数の各次元のサイズより大きな2のべき乗の数としているので、テンプレートサイズは、32×32×4=4k要素となる。そして、最も大きい仮テンプレートのサイズをブロックサイズとする。前述した例では、ブロックサイズは4k要素となる。
その後、分割基準領域サイズをブロックサイズで除算し商を求める(分割基準領域サイズ/ブロックサイズ)。この求められた商が1以上である場合は、除算に依って求められた商の小数点以下を切り捨てることによって、用意できるブロックの数(Block_num)を求める。一方、求められた商が1未満である場合は、このテンプレートサイズでは一つもブロックが作成できないので、テンプレートの作成が失敗したと判断する。
また、ブロックサイズを各テンプレートのサイズで除算し(ブロックサイズ/各テンプレートのサイズ)、その商をサブブロックの数とする。
前述した例では、分割されるローカルメモリの領域が12k要素分なので、用意できるブロック数は、12k/4k=3個と求まる。最終的に、4k要素のサイズの3個のテンプレート[1:32,1:32,1:4,0:2]が用意される。テンプレートサイズ及びテンプレート数が決まったので、ループの分割数は4で確定する。
すなわち、この処理では、プログラム全体を見て、最適なブロックサイズを決定する。このため、マクロタスクで使用されるデータ(ワーキングセット)をローカルメモリに載せるためのプログラムの分割数を定める。そして、分割されたデータサイズより大きなブロックサイズとなるように、分割数を選択する。
<ローカルメモリ管理マクロタスクの決定の例1>
次に、図12〜図13を参照して、ブロックサイズの決定手順の別な具体例について説明する。
ブロックサイズを決定するためには、まず、ループ内でアクセスされるデータを解析して、2のべき乗の大きさのテンプレートを作る。
この例では、ローカルメモリのサイズ(フラグ領域除く)が2kB、各配列要素のサイズは4B/要素と仮定し、分散共有メモリの存在は考えない。
まず、最外ループを最大分割数で分割した場合を考える。
図12に示すように、変数iによる最外ループ1020、ループ1020の中に変数jによる内側ループ1021、及び、ループ1021の中に変数kによる最内ループ1022がある、3重ループ構造となっている。
具体的には、ループの分割を考えない場合、最内ループ1022で使用される配列変数A、B及びCのサイズは、[k,j,i]=[1:10,1:10,1:10]である。前述した手順によって仮テンプレートを作成する。作成される仮テンプレートのサイズは、[k,j,i]=[1:16,1:16,1:16]となる。この仮テンプレートに必要なブロックサイズは16×16×16×4=16kBである。ローカルメモリのサイズは2kBなので、一つもブロックを用意できない。そこで、最外ループ1020を分割することを考える。
図13に示すように、最外ループ(変数i)1020を最大分割数で分割(10分割)する。最大分割数は、ループのイタレーション数である。なお、外側のループは限界まで分割しても必要なブロック数が確保できない場合に、内側のループを分割することが望ましい。
この場合、最内ループ1022で使用される配列変数A、B及びCのサイズは、[k,j,i]=[1:10,1:10,1:1]である。前述した手順によって作成される仮テンプレートのサイズは、[k,j,i]=[1:16,1:16,1:1]となる。この仮テンプレートに必要なブロックサイズは16×16×1×4=1kBである。ローカルメモリのサイズは2kBなので、用意できるブロック数は、分割基準領域サイズ(2kB)/ブロックサイズ(1kB)=2個となる。このループでは3個の配列変数を使用するので、この状態では必要なブロックが確保できない。そこで、次に、内側ループ1021を分割することを考える。
内側ループ1021を2分割(2等分)した場合、最内ループ1022で使用される配列変数A、B及びCのサイズは、[k,j,i]=[1:10,1:5,1:1]である。前述した手順によって作成される仮テンプレートのサイズは、[k,j,i]=[1:16,1:8,1:1]となる。この仮テンプレートに必要なブロックサイズは16×8×1×4=512Bである。ローカルメモリのサイズは2kBなので、分割基準領域サイズ(2kB)/ブロックサイズ(512B)によって用意できるブロック数を求めると、用意できるブロックは4個となる。
よって、このループで使用される3個の配列変数が割り当てられるブロックが確保できるので、ブロックのサイズ及び個数が決定する。作成されるテンプレートは、[1:16,1:8,1:1,0:3]となる。
そして、内側ループ1021をj=1:5と、j=6:10とに分けたループが、ローカルメモリ管理マクロタスクとなる。
ループ1030、1031も、同様に分割する。
このように、外側ループの分割に失敗した場合、内側(他の次元)のループでも分割(多次元分割)することによって、ローカルメモリのサイズに適したローカルメモリ管理マクロタスクを決定することができる。
<ローカルメモリ管理マクロタスクの決定の例2>
次に、図14から図15を参照して、ローカルメモリ管理マクロタスクの生成の別な具体例を説明する。
この例でも、前述の例と同様に、ローカルメモリのサイズ(フラグ領域除く)が2kB、各配列要素のサイズは4B/要素と仮定し、分散共有メモリの存在は考えない。
このプログラムは、図14に示すように、変数i、j、kによる3重ループを有する。変数iによる最外ループ1041内に、内側ループ1042(j=1:10)及び内側ループ1043(j=11:20)が含まれている。同様に、変数iによる最外ループ1051内に、内側ループ1052(j=1:10)及び内側ループ1053(j=11:20)が含まれている。
ループ1051は、ループ1041の後に実行される、また、ループ1042とループ1052とは同じデータ(配列変数A[1:30,1:10,1:1]及び配列変数B[1:30,1:10,1:1])を使用し、ループ1043とループ1053とは同じデータ(配列変数A[1:30,11:20,1:1]及び配列変数B[1:30,11:20,1:1])を使用する。
しかし、このプログラムでは、ループ1042、ループ1043、ループ1052、ループ1053の順に実行されるため、同じデータをローカルメモリ上に載せたまま使い回すことができない。そこで、図15に示すように、最外ループ1041を、内側ループ1042(j=1:10)と内側ループ1043(j=11:20)とに分割する。同様に、最外ループ1051を、内側ループ1052(j=1:10)と内側ループ1053(j=11:20)とに分割する。
この分割によって、分割された最外ループ1041Aと最外ループ1051Aとを順に実行することができる(すなわち、内側ループ1042と内側ループ1052とが順に実行される)。このため、ループ1042で使用した配列データを、そのまま、ループ1052で使用することができる。つまり、ループ1041Aの実行終了時とループ1051Aの実行開始時との間でデータ(配列変数)の転送が発生しない。
同様に、分割された最外ループ1041Bと最外ループ1051Bとを順に実行することができる(すなわち、内側ループ1043と内側ループ1053とが順に実行される)。このため、ループ1043で使用した配列データを、そのまま、ループ1053で使用することができる。つまり、ループ1041Bの実行終了時とループ1051Bの実行開始時との間でデータ(配列変数)の転送が発生しない。
このように、プログラムの実行順序と、そのプログラムで使用されるデータとが整合し
ない場合、ループのディストリビューションを実行して、同じデータを扱うループを連続的に実行するようにする。これによって、ループの実行時にデータの転送が発生しないようにすることができる。
<テンプレートの作成手順の例>
図16は、本発明の実施の形態のテンプレートの作成手順の例を示す。
テンプレートは、ローカルメモリをマクロタスク上で扱うために、ローカルメモリに配列変数を割り当てる単位である。
テンプレートは、1次元配列、2次元配列、3次元配列・・・等が用意され、その形はマクロタスクで使用される配列変数によって様々である。例えば、2次元配列を考えると、配列変数の各添字の最大値が等しい正方形や、添字の最大値が異なる長方形(縦長、横長)が、マクロタスクで使用される配列変数の大きさに合うように用意される。
テンプレートのサイズは、ローカルメモリ管理マクロタスクで使用されるデータのサイズより大きくなる。さらに、テンプレートの各次元の添字の最大値は、ローカルメモリ管理マクロタスクで使用される配列変数の各次元の添字の最大値より大きく、かつ最も小さい2のべき乗の数が選択される。このため、テンプレートは、その形が変わっても、その大きさはブロック及びサブブロック等のいずれかのサイズと等しい。
よって、テンプレートのサイズは、ブロックサイズと等しい又はブロックサイズの2のべき乗分の1となる。これによって、データが収まる最小の大きさのテンプレートを作り、この作られたテンプレートにデータが収まるようにプログラム(ループ)を分割する。そして、配列変数をローカルメモリに割り当てる際に、同じサイズのブロック等に割り当てることができ、ローカルメモリの記憶容量を無駄なく使用することができる。
割り当てられたテンプレートを使用することで、ブロック0に割り当てられたテンプレートは、ブロック0のメモリ空間を使用し、ブロック1に割り当てられたテンプレートは、ブロック1のメモリ空間を使用する。
テンプレートは同じ形状のものをブロック数分用意する。そしてブロック番号によって使用するテンプレート配列を変える。そのために、用意されるテンプレートは同じテンプレートを複数個並べた形(データを載せて使用する配列変数の次元+1次元)が実際に作成されるテンプレートとなる。新たに作られた次元はブロック指定用の次元となり、要素数はブロックの数となる。
すなわち、テンプレートの次元は、配列変数の次元より1次元大きくなっている。これは、テンプレートの追加された次元の添字の値によって、複数の配列変数を切り替え、アクセスするブロックを変えるためである。なお、各テンプレートは、ローカルメモリの異なるブロック(異なるアドレス)に割り当てられる。配列変数の形状及び大きさが同じである場合、同じテンプレートを使用することができる。例えば、均等に分割されたループは、同じ形状及び大きさの配列変数を使用することから、このようなテンプレートを用意することが有効である。
例えば、ブロック数が8個であり、その各々のサイズが[1:2,1:16,1:4]である場合、tempA[1:2,1:16,1:4,0:7]のテンプレートをローカルメモリに割り当てる。なお、このとき、プログラム中に表れる配列変数が5個であった場合は、tempA[1:2,1:16,1:4,0:4]として、ブロック0から4のみにテンプレートを割り当てる。他のブロックは、更に分割してサブブロックとして利用してもよい。
図17に、テンプレートがマッピングされたローカルメモリの状態を示す。
テンプレートのマッピングには、例えばFORTRANでは、EQUIVALENCE文が用いられる。具体的には、EQUIVALENCE(LM(1),tempA(1,1,1,0))と宣言することによって、ローカルメモリのブロック0に、テンプレートAを割り当てることができる。
テンプレートAは、3次元配列用のテンプレートで、各次元はtempA[1:2,1:16,1:4,0:7]である。よって、ブロック0(アドレス0〜127)にはtempA[1,1,1,0]が割り当てられ、ブロック1(アドレス128〜255)にはtempA[1,1,1,1]が割り当てられる。
すなわち、前述したように、テンプレートの最外側の4次元目はテンプレート自体の次元ではなく、テンプレートが割り当てられるブロック番号を示す。
さらに具体的に例示すると、
do dim3 = 1, 4
do dim2 = 1, 16
do dim1 = 1, 2
tempA(dim1, dim2, dim3, 2) = GA(dim1, dim2, dim3)
enddo
enddo
enddo
を実行することによって、配列変数GAのデータが、ローカルメモリのブロック2に格納される。
図18に、別なテンプレートがマッピングされたローカルメモリの状態を示す。
前述した例と異なり、プログラム中に表れる配列サイズが[1:2,1:8,1:4]である場合、サブブロックサイズに適合するテンプレートtemp_subA[1:2,1:8,1:4,0:15]をローカルメモリに割り当てられる。このように最外側の要素の値によってアクセスするサブブロックが可変となる。
前述と同様にEQUIVALENCE文を用いて、EQUIVALENCE(LM(1), temp_subA(1,1,1,0))と宣言することによって、ローカルメモリのサブブロック0に、テンプレート(サブ)Aを割り当てることができる。
テンプレートAは、3次元配列用のテンプレートで、その大きさはtemp_subA[1:2,1:8,1:4,0:15]である。よって、サブブロック0(アドレス0〜63)にはtemp_subA[1,1,1,0]が割り当てられ、サブブロック1(アドレス64〜127)にはtemp_subA[1,1,1,1]が割り当てられる。
さらに具体的に例示すると、
do dim3 = 1, 4
do dim2 = 1, 8
do dim1 = 1, 2
temp_subA(dim1, dim2, dim3, 4) = GA(dim1, dim2, dim3)
enddo
enddo
enddo
を実行することによって、配列変数GAのデータが、ローカルメモリのサブブロック4に格納される。
このように、コンパイラがプログラムを解析して取得した情報に基づいて、プログラム中で使用される配列変数の形を特定してテンプレートを作成し、その変数をどのテンプレートに割り当てるかを決める。これによって、メモリの1次元のアドレス空間を多次元に見せることができ、プログラム中で使用された多次元配列をそのままの形でメモリに割り当てることができる。
<テンプレート配列を用いたコードイメージの作成>
次に、図19から図34を参照して、テンプレート配列を用いたコードイメージの作成の具体例について説明する。図19から図34の説明は、ローカルメモリサイズを1024、ブロックサイズは128とし、ローカルメモリの領域を4個のブロック101、4個のサブブロック102、4個のサブサブブロック103、8個のサブサブサブブロック104に分割した場合に、コンパイラがコードを書き換える様子及びプログラム実行時のローカルメモリの状態を示す。
図19は、コンパイル前のオリジナルコード及びローカルメモリの状態(状態1)を示す。このオリジナルコード中には、三つのループ及び二つのサブルーチン呼び出しが含まれており、これらのループ及びサブルーチン呼び出しが、ローカルメモリ管理マクロタスクとなる。
図20は、テンプレートがブロック等に設定される状態(状態2)を示す。LM領域及びテンプレート配列を定義し、EQUIVALENCE文によってテンプレートをローカルメモリのアドレス空間に割り当てる。この割り当てによって、ローカルメモリとテンプレートとは同じ領域を指す。そして、テンプレートの添字(0〜7)を変えることによって対応する領域が変わる。なお、テンプレート配列によって宣言されるがtempl(1,4)以後はサブブロック等に割り当てられた領域なので、ブロックとしては使用されない。
具体的には、以下の文がプログラムに挿入される。
Integer a(128), b(128), c(128), d(128), e(128)
Integer LM(1024)
Integer templ(128, 0:7)
EQUIVALENCE (LM, templ)
これによって、テンプレートがローカルメモリに割り当てられる。
図21は、テンプレート配列へ変換される状態(状態3)を示す。ローカルメモリに載せて使用したい配列を、新しく定義したテンプレート配列へ変換する。オリジナルコード中の配列をテンプレート配列にすることによって、ローカルメモリを使用していることになる。ブロックを指定する次元の値(添字)を変えることによって、使用されるブロック(ローカルメモリのアドレス)を変えることができる。
具体的には、オリジナルのコード中の配列名a(i)、b(i)、c(i)は、templ(i,0)、templ(i,1)、templ(i,2)に書き換えられる。
図22は、ブロックからデータが掃き出される状態(状態4)を示す。二つ目のマクロタスクでは、四つの配列b、c、d及びeを使用するため、4個のブロックが必要である。一つ目のマクロタスクが終了した時点で、次に実行されるマクロタスクで必要なブロック数が空いていない場合、掃き出し優先度に従って必要な数のブロックを空ける。具体的には、三つの配列a、b及びcが、ローカルメモリ上に載っているが、配列b及びcは継続して使用される。よって、配列eをロードするために、配列aが掃き出される。掃き出されるブロックに格納されていたデータは集中共有メモリ28又は14に転送される。よって、テンプレート配列に格納されたデータを集中共有メモリ28又は14の配列へ転送する命令がオリジナルコードに挿入される。
図23は、テンプレート配列へ変換される状態(状態5)を示す。状態3(図21)に示した状態と同様に、ローカルメモリに載せて使用したい配列を、新しく定義したテンプレート配列へ変換する。ブロック0から配列aが掃き出され、配列dが格納されている。
図24は、サブルーチンが解析される状態(状態6)を示す。サブルーチンの引数と、サブルーチン内の処理に必要なブロック数を解析する。図示する例では、サブルーチンsub1では引数配列x及び自動変数である配列yを使用している。つまり、引数用に1個のブロック、内部処理用に1個のブロック。合計2個のブロックが必要である。
図25は、サブルーチン内でブロック指定変数を用いたテンプレート配列へ変換される状態(状態7)を示す。ここで、前述したように、サブルーチンは複数箇所から呼ばれる可能性があるため、テンプレート配列のブロック指定次元を定数によって指定すると、メモリ管理上の制限が強くなる。そのため、ブロック指定変数 block_no1 を用いて、テンプレートを任意の場所に置けるように、テンプレート配列を変換をする。
図26は、サブルーチン処理用のブロックを確保する状態(状態8)を示す。既に、サブルーチン内の解析が終わり、サブルーチンで必要なブロック数が分かっているので、必要な数のブロックをサブルーチン呼び出し時に空けて、サブルーチン処理用のブロックを確保する。必要な数のブロックが空いていない場合は、既にロードされているデータを掃き出す。掃き出されるデータは、掃き出し優先度に従って決められる。
具体的には、このサブルーチンでは、1個の引数ブロック及び1個の内部処理用ブロックが必要である。メモリ上に配列b、c、d及びeが載っているが、配列eは引数として使用される。よって、1個のブロックを内部処理用に空ける必要がある。掃き出し優先度を考慮すると、配列c及びdは直ぐに使用されるため、配列bが掃き出される。
図27は、ブロック指定変数が設定される状態(状態9)を示す。サブルーチン内で使用される内部処理用の配列は、ブロック指定変数 block_no1 によって任意のブロックを使用できる。このため、内部処理用の配列変数に割り当てられるブロック番号を指定変数に設定する。
図28は、サブルーチンが実行される状態(状態10)を示す。サブルーチン呼び出し時に設定されたブロック指定変数によって、使用されるブロックが決定される。すなわち、ブロック1は内部処理用の配列yに割り当てられ、ブロック3は引数用の配列xに割り当てられる。サブルーチンでは、指定されたブロックを使用して、サブルーチンの処理が行なわれる。
図29は、サブルーチンの実行終了時の状態(状態11)を示す。サブルーチンの処理が終わると、内部処理用のブロックはNULLとなる。引数用のブロックは、引数として受け取った元の配列に戻る。
図30は、テンプレート配列へ変換される状態(状態12)を示す。状態3(図21)及び状態5(図23)に示した状態と同様に、ローカルメモリに載せて使用したい配列を、新しく定義したテンプレート配列へ変換する。
図31は、サブルーチン処理用のブロックを確保する状態(状態13)を示す。既に、サブルーチン内の解析が終わり、サブルーチンで必要なブロック数が分かっているので、サブルーチン呼び出し時に必要な数のブロックを空けて、サブルーチン処理用のブロックを確保する。必要な数のブロックが空いていない場合は、既にロードされているデータを掃き出す。掃き出されるデータは、掃き出し優先度に従って決められる。
具体的には、次のマクロタスク(サブルーチン呼び出し)で、サブルーチンの内部処理用に1個のブロックを空ける必要がある。ローカルメモリに載っている配列d、a、c及びeのうち、配列aはサブルーチンの引数として使用される。配列d、c及びeの掃き出し優先度は同じなので、ブロック番号の最も小さいブロック0に格納されている配列dを掃き出す。また、次のマクロタスクで配列aが必要なことが分かっているので、データ転送ユニットによって、ローカルメモリの空いているブロック1に配列aを転送する。
図32は、ブロック指定変数が設定される状態(状態14)を示す。サブルーチン内で使用される内部処理用の配列は、ブロック指定変数 block_no1 によって任意のブロックを使用できる。このため、サブルーチン呼出時に、内部処理用の配列変数に割り当てられるブロック番号を指定変数に設定する。前のサブルーチン呼出時(図27に示す状態9)と異なるブロック番号を設定することができる。
図33は、サブルーチンが実行される状態(状態15)を示す。サブルーチン呼び出し時に設定されたブロック指定変数によって、使用されるブロックが決定される。すなわち、ブロック0は内部処理用の配列yに割り当てられ、ブロック1は引数用の配列xに割り当てられる。サブルーチンでは、指定されたブロックを使用して、サブルーチンの処理が行なわれる。前のサブルーチン呼出時(図28に示す状態10)とは別の領域で処理を行っている。
図34は、サブルーチンの実行終了時の状態(状態16)を示す。図34に示すコードがコンパイル完了時のコードである。サブルーチンの処理が終わると、内部処理用のブロックはNULLとなる。引数用のブロックは、引数として受け取った元の配列に戻る。
本発明の実施の形態のシングルチップマルチコアプロセッサの構成図である。 本発明の実施の形態のマルチグレイン並列処理の説明図である。 本発明の実施の形態のマクロフローグラフの説明図である。 本発明の実施の形態のローカルメモリ管理の概要の説明図である。 本発明の実施の形態のメモリの記憶領域の分割の状態の説明図である。 本発明の実施の形態のメモリの掃き出し優先度の説明図である。 本発明の実施の形態のメモリにロードされている変数の推移の説明図である。 本発明の実施の形態のループの分割手順の具体例の説明図である。 本発明の実施の形態のループの分割手順の具体例の説明図である。 本発明の実施の形態のループの分割手順の具体例の説明図である。 本発明の実施の形態のループの分割手順の具体例の説明図である。 本発明の実施の形態のブロックサイズの決定手順の具体例の説明図である。 本発明の実施の形態のブロックサイズの決定手順の具体例の説明図である。 本発明の実施の形態のローカルメモリ管理マクロタスクの生成の具体例(ディストリビューション前)の説明図である。 本発明の実施の形態のローカルメモリ管理マクロタスクの生成の具体例(ディストリビューション後)の説明図である。 本発明の実施の形態のテンプレートの作成手順の例を示す。 本発明の実施の形態のテンプレートがマッピングされたローカルメモリの状態の説明図である。 本発明の実施の形態のテンプレートがマッピングされたローカルメモリの状態の説明図である 本発明の実施の形態のコードイメージの作成例(状態1)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態2)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態3)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態4)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態5)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態6)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態7)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態8)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態9)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態10)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態11)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態12)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態13)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態14)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態15)の説明図である。 本発明の実施の形態のコードイメージの作成例(状態16)の説明図である。
符号の説明
10 シングルチップマルチプロセッサ
16 プロセッサコア(PC)
14 集中共有メモリ(CSM)
18 入出力用チップ(I/O CSP)
12 チップ間結合網(InterCCN)
28 集中共有メモリ(CSM/L2 Cache)
34 チップ内結合網(IntraCCN)
20 CPU
22 分散共有メモリ(DSM)
24 ローカルプログラムメモリ(LPM/I−Cache)
26 ローカルデータメモリ(LDM/D−cache)
30 データ転送コントローラ(DTC)
32 ネットワークインターフェイス(NI)
36 電力制御レジスタ(FVR)

Claims (21)

  1. プロセッサによって使用されるメモリの記憶領域を管理する方法であって、
    前記プロセッサは、タスクの実行時にアクセスされるデータを格納するメモリに接続されており、
    前記メモリの記憶領域を複数の異なるサイズのブロックに分割し、
    前記タスクの実行時にアクセスされるデータに適合するサイズのブロックを選択し、
    前記選択されたブロックに、前記タスクの実行時にアクセスされるデータを格納することを特徴とするメモリ管理方法。
  2. 前記タスクを含むプログラムの解析によって得られた情報に基づいて決定されるサイズに、前記ブロックを分割することを特徴とする請求項1に記載のメモリ管理方法。
  3. 前記ブロックは、複数のサイズのブロックを含み、前記ブロックの複数のサイズは整数倍の関係にあることを特徴とする請求項1又は2に記載のメモリ管理方法。
  4. 前記データに前記選択されたブロックへ割り当てることを決定した後、データ転送手段によって、前記データを前記選択されたブロックに格納し、
    前記ブロックの解放タイミングまでに、前記データ転送手段によって、前記選択されたブロックに格納されたデータを読み出し、他のメモリに格納することを特徴とする請求項1から3のいずれか一つに記載のメモリ管理方法。
  5. 前記タスクでアクセスされるデータにn次元の配列データが含まれる場合に、前記タスクでアクセスされる配列データに整合するように選択されたn+1次元のテンプレートを、前記ブロックに割り当て、
    データを格納するブロックを指定する場合に、前記加えられた次元の値によって、アクセスされるブロックが異なるように、次元の値の異なる前記テンプレートを前記各ブロックに割り当てることを特徴とする請求項1から4のいずれか一つに記載のメモリ管理方法。
  6. プロセッサがメモリの記憶領域を管理する方法であって、
    前記プロセッサは、プログラムの実行時にアクセスされるデータを格納するメモリに接続されており、
    前記方法は、
    前記メモリの記憶領域をブロックに分割し、
    前記プログラムの解析によって得られた情報に基づいて定められた複数の形状及びサイズのテンプレートを、適合する大きさのブロックに割り当て、
    前記割り当てられたテンプレートに適合する形状及び大きさのデータを、前記テンプレートに格納することを特徴とするメモリ管理方法。
  7. 前記テンプレートを割り当てるステップでは、
    各ブロックに割り当て可能な複数種類のテンプレートから、前記プログラムでアクセスされる配列データの次元に1を加えた次元を有し、各次元の最大値が前記プログラムでアクセスされる配列データの各次元の最大値より大きいテンプレートを割り当て、
    前記加えられた次元の値によって、アクセスされるブロックが異なるように、複数の前記テンプレートを複数の前記ブロックに割り当てることを特徴とする請求項6に記載のプログラムの作成方法。
  8. プロセッサ及び前記プロセッサによってアクセスされるデータを格納するメモリを備える情報処理装置であって、
    前記メモリの記憶領域は、前記プロセッサで実行されるプログラムの解析によって得られた情報に基づいて決定される複数のサイズのブロックに分割され、
    前記ブロックに割り当てられるテンプレートの形状及びサイズは、前記プログラムの解析によって得られた情報に基づいて定められており、
    前記プロセッサは、
    前記プロセッサで実行されるプログラムの解析によって得られた情報に基づいて決定される複数のサイズのブロックに、前記メモリの記憶領域を分割し、
    前記プログラムの解析によって得られた情報に基づいて定められた形状及びサイズのテンプレートを、適合する大きさのブロックに割り当て、
    前記割り当てられたテンプレートに適合する形状及び大きさのデータを、前記テンプレートに格納することを特徴とする情報処理装置。
  9. 前記プログラムでアクセスされる配列データの次元に1を加えた次元を有し、加えられた次元以外の各次元の最大値が前記プログラムでアクセスされる配列データの各次元の最大値以上のテンプレートが割り当てられ、
    前記加えられた次元の値によって、アクセスされるブロックが異なるように、複数の前記テンプレートが複数の前記ブロックに割り当てられることを特徴とする請求項8に記載の情報処理装置。
  10. プロセッサによって実行可能なプログラムの作成方法であって、
    プログラムの情報をコンパイラによって解析し、
    前記プログラムに含まれる各タスクの実行に必要なデータを特定し、
    前記タスクの実行タイミングに従って、必要なデータをメモリに読み書きするタイミングを決定し、
    前記決定されたデータの書き込みタイミングまでに前記メモリの領域を割り当てる命令を、コンパイルされるプログラムに追加することを特徴とするプログラムの作成方法。
  11. 前記プログラムの解析によって得られた情報に基づいて、解放する前記領域及び前記領域を解放するタイミングを決定し、
    前記割り当てられた領域を解放するために、前記決定されたタイミングまでに前記メモリに書き込まれたデータを読み出す命令を、前記コンパイルされるプログラムに追加することを特徴とする請求項10に記載のプログラムの作成方法。
  12. 前記メモリの領域を割り当てた後に、データ転送手段によって、前記データを前記メモリに格納する命令、及び
    前記メモリの領域の解放タイミングまでに、前記データ転送手段によって、前記メモリに格納されたデータを読み出し、他のメモリに格納する命令を、前記コンパイルされるプログラムに追加することを特徴とする請求項11に記載のプログラムの作成方法。
  13. 前記プログラムの解析によって得られた情報は、前記プログラムでアクセスされるデータの情報、前記データが次にアクセスされるタイミングの情報、前記データをアクセスするプロセッサの情報の少なくとも一つを含むことを特徴とする請求項10から12のいずれか一つに記載のプログラムの作成方法。
  14. 前記プロセッサは複数のプロセッサコアを備えるマルチプロセッサであって、
    前記方法は、前記タスクをいつどのプロセッサに実行させるかを決定し、前記決定されたプロセッサに前記タスクを割り当てる命令を、前記コンパイルされるプログラムに追加することを特徴とする請求項10から13のいずれか一つに記載のプログラムの作成方法。
  15. 前記メモリの領域は、前記メモリの記憶領域が固定サイズのブロックに分割された領域であることを特徴とする請求項10から14のいずれか一つに記載のプログラムの作成方法。
  16. 前記メモリの領域は複数の異なるサイズのブロックに分割された領域であって、
    前記複数のサイズは、前記ブロックの複数のサイズは整数倍の関係にあることを特徴とする請求項15に記載のプログラムの作成方法。
  17. 前記ブロックのサイズは、前記コンパイラがプログラムを解析して得られた情報に基づいて決定されることを特徴とする請求項15に記載のプログラムの作成方法。
  18. 前記タスクでアクセスされるデータを前記一つのブロックに収まるようにするために、前記プログラムを分割することを特徴とする請求項15に記載のプログラムの作成方法。
  19. 前記プログラムは多重ループを含み、
    外側のループの分割によって生成されたタスクでアクセスされるデータが前記ブロックに収まるか否かを判定し、
    前記外側のループが分割によって生成されたタスクでアクセスされるデータが前記ブロックに収まらなければ、更に内側のループを分割することによって、前記データのサイズを変更することを特徴とする請求項18に記載のプログラムの作成方法。
  20. 前記プログラムでアクセスされるデータにn次元の配列データが含まれる場合に、前記プログラムでアクセスされる配列データに整合するように選択されたn+1次元のテンプレートを割り当て、
    データを格納する領域を指定する場合に、前記加えられた次元の値によって、アクセスされる領域が指定されるように、複数の前記テンプレートを複数の領域に割り当てることを特徴とする請求項10から19のいずれか一つに記載のプログラムの作成方法。
  21. プロセッサによって実行可能なプログラムであって、
    前記プログラムは、コンパイラによって、
    プログラムの情報が解析され、
    前記プログラムに含まれる各タスクの実行に必要なデータが特定され、
    前記タスクの実行タイミングに従って、必要なデータをメモリに読み書きするタイミングが決定され、
    前記決定されたデータの書き込みタイミングまでに前記メモリの領域を割り当てる命令が追加されることによって生成されるプログラム。
JP2007050269A 2007-02-28 2007-02-28 メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム Active JP5224498B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2007050269A JP5224498B2 (ja) 2007-02-28 2007-02-28 メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム
US12/525,404 US8438359B2 (en) 2007-02-28 2008-02-27 Memory management method, information processing device, program creation method, and program
CN2008800037808A CN101601017B (zh) 2007-02-28 2008-02-27 存储器管理方法以及程序的生成方法
KR1020097017059A KR101186174B1 (ko) 2007-02-28 2008-02-27 메모리 관리방법, 정보처리장치, 프로그램의 작성방법 및 프로그램
PCT/JP2008/053891 WO2008105558A1 (ja) 2007-02-28 2008-02-27 メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム
GB1109237.6A GB2478874B (en) 2007-02-28 2008-02-27 Memory management method, information precessing device, program creation method, and program
GB0914592.1A GB2459802B (en) 2007-02-28 2008-02-27 Memory management method and information processing device implementing the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007050269A JP5224498B2 (ja) 2007-02-28 2007-02-28 メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2008217134A true JP2008217134A (ja) 2008-09-18
JP5224498B2 JP5224498B2 (ja) 2013-07-03

Family

ID=39721378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007050269A Active JP5224498B2 (ja) 2007-02-28 2007-02-28 メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム

Country Status (6)

Country Link
US (1) US8438359B2 (ja)
JP (1) JP5224498B2 (ja)
KR (1) KR101186174B1 (ja)
CN (1) CN101601017B (ja)
GB (2) GB2478874B (ja)
WO (1) WO2008105558A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101499034A (zh) * 2009-03-05 2009-08-05 北京中星微电子有限公司 内存管理方法
WO2011078162A1 (ja) * 2009-12-24 2011-06-30 日本電気株式会社 スケジューリング装置、スケジューリング方法及びプログラム
JP2013528861A (ja) * 2010-05-20 2013-07-11 アップル インコーポレイテッド サブバッファオブジェクト
JP2014225089A (ja) * 2013-05-15 2014-12-04 オリンパス株式会社 演算装置
JP2014225088A (ja) * 2013-05-15 2014-12-04 オリンパス株式会社 演算装置
JP2015095218A (ja) * 2013-11-14 2015-05-18 株式会社デンソー 電子制御装置
JP2015149038A (ja) * 2014-02-10 2015-08-20 ルネサスエレクトロニクス株式会社 演算制御装置及び演算制御方法並びにプログラム、OpenCLデバイス
JP2018525724A (ja) * 2015-06-29 2018-09-06 アイキャス ゲゼルシャフト ミット ベシュレンクテル ハフツングaicas GmbH メモリ管理装置を用いた自動メモリ管理
US11231917B2 (en) 2018-06-20 2022-01-25 Fujitsu Limited Information processing apparatus, computer-readable recording medium storing therein compiler program, and compiling method

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8219740B2 (en) * 2008-06-25 2012-07-10 International Business Machines Corporation Flash sector seeding to reduce program times
US8335897B2 (en) * 2009-12-15 2012-12-18 Seagate Technology Llc Data storage management in heterogeneous memory systems
KR101754998B1 (ko) 2011-01-27 2017-07-06 삼성전자주식회사 멀티 코어 시스템 및 멀티 코어 시스템에서의 데이터 병렬 처리 방법
CN102622206A (zh) * 2011-01-28 2012-08-01 中兴通讯股份有限公司 一种处理器及其处理数据的方法
JP2012173870A (ja) * 2011-02-18 2012-09-10 Toshiba Corp 半導体装置及びメモリ保護方法
US9354988B2 (en) * 2011-03-28 2016-05-31 Sap Se Allocation strategies for data storage applications
JP5708216B2 (ja) * 2011-05-09 2015-04-30 ソニー株式会社 フラッシュメモリ装置、メモリ制御装置、メモリ制御方法、ストレージシステム
WO2013001614A1 (ja) * 2011-06-28 2013-01-03 富士通株式会社 データ処理方法およびデータ処理システム
JPWO2013001614A1 (ja) * 2011-06-28 2015-02-23 富士通株式会社 データ処理方法およびデータ処理システム
US9830133B1 (en) * 2011-12-12 2017-11-28 Significs And Elements, Llc Methods and apparatus for automatic communication optimizations in a compiler based on a polyhedral representation
WO2013095605A1 (en) * 2011-12-23 2013-06-27 Intel Corporation Apparatus and method for sliding window data gather
US10193927B2 (en) * 2012-02-27 2019-01-29 University Of Virginia Patent Foundation Method of instruction location randomization (ILR) and related system
US9323316B2 (en) 2012-03-13 2016-04-26 Intel Corporation Dynamically controlling interconnect frequency in a processor
CN104169832B (zh) 2012-03-13 2017-04-19 英特尔公司 提供处理器的能源高效的超频操作
US9436245B2 (en) 2012-03-13 2016-09-06 Intel Corporation Dynamically computing an electrical design point (EDP) for a multicore processor
US8984313B2 (en) 2012-08-31 2015-03-17 Intel Corporation Configuring power management functionality in a processor including a plurality of cores by utilizing a register to store a power domain indicator
US8510531B1 (en) * 2012-09-20 2013-08-13 Google Inc. Fast, dynamic cache packing
KR101537725B1 (ko) * 2013-01-18 2015-07-20 서울대학교산학협력단 워크 그룹 크기 결정 방법, 시스템 및 컴퓨터 판독가능 기록매체
JP6018022B2 (ja) 2013-06-14 2016-11-02 株式会社デンソー 並列化コンパイル方法、並列化コンパイラ、並列化コンパイル装置、及び、車載装置
JP6201788B2 (ja) * 2014-01-29 2017-09-27 富士通株式会社 ループ分割検出プログラム及びループ分割検出方法
KR101771289B1 (ko) * 2014-05-19 2017-08-24 엘에스산전 주식회사 Plc 프로그램 관리 장치
CN104168079B (zh) * 2014-09-03 2017-02-01 成都朗锐芯科技发展有限公司 一种多通道分组定时器
JP6488739B2 (ja) 2015-02-05 2019-03-27 株式会社デンソー 並列化コンパイル方法、及び、並列化コンパイラ
JP6488738B2 (ja) 2015-02-05 2019-03-27 株式会社デンソー 並列化コンパイル方法、及び、並列化コンパイラ
US10491667B1 (en) * 2015-03-16 2019-11-26 Amazon Technologies, Inc. Customized memory modules in multi-tenant service provider systems
JP6427053B2 (ja) 2015-03-31 2018-11-21 株式会社デンソー 並列化コンパイル方法、及び並列化コンパイラ
JP6427054B2 (ja) 2015-03-31 2018-11-21 株式会社デンソー 並列化コンパイル方法、及び並列化コンパイラ
CN110874212B (zh) 2015-06-30 2021-08-20 华为技术有限公司 一种硬件加速方法、编译器以及设备
DE102017209697A1 (de) * 2016-06-13 2017-12-14 Denso Corporation Parallelisierungsverfahren, Parallelisierungswerkzeug und fahrzeuginterne Vorrichtung
DE102016211386A1 (de) * 2016-06-14 2017-12-14 Robert Bosch Gmbh Verfahren zum Betreiben einer Recheneinheit
JP2017228029A (ja) * 2016-06-21 2017-12-28 株式会社デンソー 並列化方法、並列化ツール、車載装置
US10289309B2 (en) 2016-09-12 2019-05-14 Toshiba Memory Corporation Automatic detection of multiple streams
US10073640B1 (en) 2017-03-10 2018-09-11 Toshiba Memory Corporation Large scale implementation of a plurality of open channel solid state drives
US10542089B2 (en) 2017-03-10 2020-01-21 Toshiba Memory Corporation Large scale implementation of a plurality of open channel solid state drives
US10339983B1 (en) * 2017-12-29 2019-07-02 Micron Technology, Inc. Temperature-based memory operations
US11461631B2 (en) * 2018-03-22 2022-10-04 Amazon Technologies, Inc. Scheduling neural network computations based on memory capacity
US11475306B2 (en) 2018-03-22 2022-10-18 Amazon Technologies, Inc. Processing for multiple input data sets
CN109634518A (zh) * 2018-10-29 2019-04-16 成都华为技术有限公司 一种存储资源配置方法及装置
CN110704362B (zh) * 2019-09-12 2021-03-12 无锡江南计算技术研究所 一种处理器阵列局部存储混合管理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015883A (ja) * 2001-06-29 2003-01-17 Nec Corp プロセッサ間通信削減方法と並列化コンパイラ装置並びにプログラム
WO2005081113A2 (en) * 2004-02-13 2005-09-01 Jaluna Sa Memory allocation

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5784699A (en) * 1996-05-24 1998-07-21 Oracle Corporation Dynamic memory allocation in a computer using a bit map index
US6088777A (en) 1997-11-12 2000-07-11 Ericsson Messaging Systems, Inc. Memory system and method for dynamically allocating a memory divided into plural classes with different block sizes to store variable length messages
JP4784792B2 (ja) 1999-12-22 2011-10-05 学校法人早稲田大学 マルチプロセッサ
DE10228103A1 (de) 2002-06-24 2004-01-15 Bayer Cropscience Ag Fungizide Wirkstoffkombinationen
CN1679005A (zh) * 2002-08-30 2005-10-05 皇家飞利浦电子股份有限公司 动态存储器管理
US7563748B2 (en) 2003-06-23 2009-07-21 Cognis Ip Management Gmbh Alcohol alkoxylate carriers for pesticide active ingredients

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015883A (ja) * 2001-06-29 2003-01-17 Nec Corp プロセッサ間通信削減方法と並列化コンパイラ装置並びにプログラム
WO2005081113A2 (en) * 2004-02-13 2005-09-01 Jaluna Sa Memory allocation
JP2007523412A (ja) * 2004-02-13 2007-08-16 ジャルナ エスアー メモリ割当て

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199700034010; 吉田 明正 他: 'マルチグレインデータローカライゼーションのための近細粒度タスクスケジューリング' 電子情報通信学会技術研究報告 第96巻, 19960827, 頁71-78, 社団法人電子情報通信学会 *
JPN6012026802; 吉田 明正 他: 'マルチグレインデータローカライゼーションのための近細粒度タスクスケジューリング' 電子情報通信学会技術研究報告 第96巻, 19960827, 頁71-78, 社団法人電子情報通信学会 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101499034A (zh) * 2009-03-05 2009-08-05 北京中星微电子有限公司 内存管理方法
JP5810918B2 (ja) * 2009-12-24 2015-11-11 日本電気株式会社 スケジューリング装置、スケジューリング方法及びプログラム
WO2011078162A1 (ja) * 2009-12-24 2011-06-30 日本電気株式会社 スケジューリング装置、スケジューリング方法及びプログラム
JP2013528861A (ja) * 2010-05-20 2013-07-11 アップル インコーポレイテッド サブバッファオブジェクト
US9691346B2 (en) 2010-05-20 2017-06-27 Apple Inc. Subbuffer objects
US8957906B2 (en) 2010-05-20 2015-02-17 Apple Inc. Subbuffer objects
JP2014225089A (ja) * 2013-05-15 2014-12-04 オリンパス株式会社 演算装置
JP2014225088A (ja) * 2013-05-15 2014-12-04 オリンパス株式会社 演算装置
JP2015095218A (ja) * 2013-11-14 2015-05-18 株式会社デンソー 電子制御装置
JP2015149038A (ja) * 2014-02-10 2015-08-20 ルネサスエレクトロニクス株式会社 演算制御装置及び演算制御方法並びにプログラム、OpenCLデバイス
JP2018525724A (ja) * 2015-06-29 2018-09-06 アイキャス ゲゼルシャフト ミット ベシュレンクテル ハフツングaicas GmbH メモリ管理装置を用いた自動メモリ管理
US11176031B2 (en) 2015-06-29 2021-11-16 Aicas Gmbh Automatic memory management using a memory management unit
US11231917B2 (en) 2018-06-20 2022-01-25 Fujitsu Limited Information processing apparatus, computer-readable recording medium storing therein compiler program, and compiling method

Also Published As

Publication number Publication date
GB0914592D0 (en) 2009-09-30
GB2478874A (en) 2011-09-21
GB2459802B (en) 2012-01-04
CN101601017A (zh) 2009-12-09
WO2008105558A1 (ja) 2008-09-04
CN101601017B (zh) 2013-10-09
KR101186174B1 (ko) 2012-10-02
US8438359B2 (en) 2013-05-07
KR20090106613A (ko) 2009-10-09
JP5224498B2 (ja) 2013-07-03
GB2478874B (en) 2011-12-28
GB2459802A (en) 2009-11-11
GB201109237D0 (en) 2011-07-13
US20100174876A1 (en) 2010-07-08

Similar Documents

Publication Publication Date Title
JP5224498B2 (ja) メモリ管理方法、情報処理装置、プログラムの作成方法及びプログラム
EP1881405B1 (en) Global compiler for controlling heterogeneous multiprocessor
US10430190B2 (en) Systems and methods for selectively controlling multithreaded execution of executable code segments
US7926046B2 (en) Compiler method for extracting and accelerator template program
Eichenbergert et al. Optimizing compiler for the cell processor
Owaida et al. Synthesis of platform architectures from OpenCL programs
JP4082706B2 (ja) マルチプロセッサシステム及びマルチグレイン並列化コンパイラ
JP6319880B2 (ja) 並列性の抽出方法及びプログラムの作成方法
US7631305B2 (en) Methods and products for processing loop nests
US20100153959A1 (en) Controlling and dynamically varying automatic parallelization
Hagiescu et al. Automated architecture-aware mapping of streaming applications onto GPUs
US7747990B2 (en) Processors and compiling methods for processors
JP2016192153A (ja) 並列化コンパイル方法、並列化コンパイラ、及び車載装置
JP2007305148A (ja) マルチプロセッサシステム
Owaida et al. Massively parallel programming models used as hardware description languages: The OpenCL case
Rauber et al. General Purpose GPU Programming
JP2016192152A (ja) 並列化コンパイル方法、並列化コンパイラ、及び車載装置
Huynh et al. Mapping streaming applications onto GPU systems
JP2001175619A (ja) シングルチップマルチプロセッサ
JP4304347B2 (ja) マルチプロセッサ
JP4784842B2 (ja) マルチプロセッサ及びマルチプロセッサシステム
Ravi et al. Semi-automatic restructuring of offloadable tasks for many-core accelerators
Kim et al. Static function prefetching for efficient code management on scratchpad memory
Shan et al. Evaluation of Programming Models and Performance for Stencil Computation on Current GPU Architectures
You et al. VecRA: A Vector-Aware Register Allocator for GPU Shader Processors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120730

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130308

R150 Certificate of patent or registration of utility model

Ref document number: 5224498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S804 Written request for registration of cancellation of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314803

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250