JP7494526B2 - MEMORY ALLOCATION METHOD AND PROCESSING APPARATUS - Patent application - Google Patents

MEMORY ALLOCATION METHOD AND PROCESSING APPARATUS - Patent application Download PDF

Info

Publication number
JP7494526B2
JP7494526B2 JP2020061336A JP2020061336A JP7494526B2 JP 7494526 B2 JP7494526 B2 JP 7494526B2 JP 2020061336 A JP2020061336 A JP 2020061336A JP 2020061336 A JP2020061336 A JP 2020061336A JP 7494526 B2 JP7494526 B2 JP 7494526B2
Authority
JP
Japan
Prior art keywords
memory
area
data flow
predetermined
flow graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020061336A
Other languages
Japanese (ja)
Other versions
JP2021162924A (en
Inventor
亜季 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020061336A priority Critical patent/JP7494526B2/en
Publication of JP2021162924A publication Critical patent/JP2021162924A/en
Application granted granted Critical
Publication of JP7494526B2 publication Critical patent/JP7494526B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、データフローグラフを実行するためのメモリアロケーション方法及び処理装置に関する。 The present invention relates to a memory allocation method and processing device for executing a data flow graph.

従来、データフローグラフを実行する様々な方法ないし装置が用いられている(例えば、特許文献1参照)。 Conventionally, various methods and devices have been used to execute data flow graphs (see, for example, Patent Document 1).

特開2019-71120号公報JP 2019-71120 A

データフローグラフを実行する際には、ノードを実行するのに必要となるバッファをメモリ領域に割り当てるメモリアロケーションを行う必要がある。 When executing a dataflow graph, memory allocation must be performed to allocate memory space for the buffers required to execute the nodes.

本発明の目的は、適切なメモリアロケーションを実現可能なメモリアロケーション方法及び処理装置を提供することにある。 The object of the present invention is to provide a memory allocation method and processing device that can achieve appropriate memory allocation.

本発明の第1実施態様は、データフローグラフを実行するためのメモリアロケーション方法であって、前記データフローグラフの所定のステージにおいて、メモリ領域の内の所定の共用領域において一方向側から入力バッファを割り当てると共に逆方向側から出力バッファを割り当てる第1の割当ステップと、前記データフローグラフの前記所定のステージの次のステージにおいて、前記所定の共用領域において前記逆方向側から入力バッファを割り当てると共に前記一方向側から出力バッファを割り当てる第2の割当ステップと、を具備するメモリアロケーション方法である。 The first embodiment of the present invention is a memory allocation method for executing a data flow graph, comprising: a first allocation step of allocating an input buffer from one direction side and an output buffer from the reverse direction side in a specified shared area of a memory area at a specified stage of the data flow graph; and a second allocation step of allocating an input buffer from the reverse direction side in the specified shared area and an output buffer from the one direction side at a stage next to the specified stage of the data flow graph.

本発明の第2実施態様は、データフローグラフを実行するための処理装置(10)であって、メモリ領域を有するメモリ(12)と、前記データフローグラフのノードを実行し前記メモリ領域に対する入出力を実行する演算装置(14)と、前記データフローグラフの所定のステージにおいて、前記メモリ領域の内の所定の共用領域において一方向側から入力バッファを割り当てると共に逆方向側から出力バッファを割り当て、前記所定のステージの次のステージにおいて、前記所定の共用領域において前記逆方向側から入力バッファを割り当てると共に前記一方向側から出力バッファを割り当てるメモリアロケーション装置(16)と、を具備する処理装置である。 The second embodiment of the present invention is a processing device (10) for executing a data flow graph, comprising a memory (12) having a memory area, an arithmetic unit (14) for executing nodes of the data flow graph and performing input/output to the memory area, and a memory allocation device (16) for allocating an input buffer from one direction side and an output buffer from the reverse direction side in a specified shared area of the memory area at a specified stage of the data flow graph, and allocating an input buffer from the reverse direction side in the specified shared area at a stage next to the specified stage, and allocating an output buffer from the one direction side in the specified shared area.

本発明では、適切なメモリアロケーションを実現可能となっている。 The present invention makes it possible to achieve appropriate memory allocation.

本発明の一実施形態の処理装置を示すブロック図。FIG. 1 is a block diagram showing a processing device according to an embodiment of the present invention. 本発明の一実施形態のデータフローグラフを示す模式図。FIG. 2 is a schematic diagram showing a data flow graph according to an embodiment of the present invention. 本発明の一実施形態のメモリアロケーション方法を示すフロー図。2 is a flow diagram illustrating a memory allocation method according to an embodiment of the present invention. 本発明の一実施形態のメモリアロケーション方法を示す模式図。1 is a schematic diagram showing a memory allocation method according to an embodiment of the present invention;

図1乃至図4を参照して、本発明の一実施形態を説明する。 One embodiment of the present invention will be described with reference to Figures 1 to 4.

図1を参照して、本実施形態の処理装置10について概説する。
図1に示されるように、処理装置10は、組み込みシステムに搭載され、データフローグラフを実行するものである。処理装置10において、メモリ12は、メモリ領域を有する。演算装置14は、データフローグラフのノードを実行し、メモリ12のメモリ領域に対する入出力を実行する。メモリアロケーション装置16は、データフローグラフの所定のステージにおいて、メモリ12のメモリ領域の内の所定の共用領域において、一方向側から入力バッファを割り当てると共に、逆方向側から出力バッファを割り当て、当該所定のステージの次のステージにおいて、共用領域の逆方向側から入力バッファを割り当てると共に、一方向側から出力バッファを割り当てる。また、メモリアロケーション装置16は、メモリ12のメモリ領域の内の所定の共通領域に、データフローグラフの全てのステージにわたって利用される共通バッファを割り当てる。
A processing apparatus 10 according to the present embodiment will be outlined with reference to FIG.
As shown in Fig. 1, a processing device 10 is mounted on an embedded system and executes a data flow graph. In the processing device 10, a memory 12 has a memory area. An arithmetic unit 14 executes nodes of the data flow graph and executes input/output to the memory area of the memory 12. A memory allocation unit 16 allocates an input buffer from one direction side and an output buffer from the reverse direction side in a predetermined shared area in the memory area of the memory 12 at a predetermined stage of the data flow graph, and allocates an input buffer from the reverse direction side of the shared area at the next stage of the predetermined stage and allocates an output buffer from the one direction side. The memory allocation unit 16 also allocates a shared buffer to be used across all stages of the data flow graph to a predetermined common area in the memory area of the memory 12.

図2乃至図4を参照して、本実施形態の処理方法について説明する。 The processing method of this embodiment will be described with reference to Figures 2 to 4.

図2を参照して、本実施形態のデータフローグラフについて説明する。
本実施形態のデータフローグラフについては、後戻りのない順方向のデータフローグラフである。データフローグラフについては、同時に実行される各ステージに分割される。各ステージでは、入力バッファからの入力に対して、ノードが実行され、出力バッファに対して出力がなされる。
The data flow graph of this embodiment will be described with reference to FIG.
The data flow graph of this embodiment is a forward data flow graph with no backtracking. The data flow graph is divided into stages that are executed simultaneously. In each stage, a node is executed for input from an input buffer, and output is made to an output buffer.

本実施形態では、図2に示されるように、データフローグラフは、ステージ1乃至ステージ3に分割される。ステージ1では、入力バッファb1からの入力に対して、ノードn1及びn2が夫々実行され、出力バッファb2及びb3に対して夫々出力がなされる。ステージ2では、入力バッファb2及びb3からの入力に対して、ノードn3が実行され、出力バッファb4に対して出力がなされる。ステージ3では、入力バッファb3及びb4からの入力に対して、ノードn4が実行されて、出力バッファb5に対して出力がなされる。ここで、バッファb3については、ステージ1乃至ステージ3にわたって利用される共通バッファである。 In this embodiment, as shown in FIG. 2, the data flow graph is divided into stages 1 to 3. In stage 1, nodes n1 and n2 are executed for input from input buffer b1, and output is provided to output buffers b2 and b3, respectively. In stage 2, node n3 is executed for input from input buffers b2 and b3, and output is provided to output buffer b4. In stage 3, node n4 is executed for input from input buffers b3 and b4, and output is provided to output buffer b5. Here, buffer b3 is a common buffer used across stages 1 to 3.

図3及び図4を参照して、本実施形態のメモリアロケーション方法について説明する。
本実施形態のメモリアロケーション方法では、データフローグラフのグラフプログラムのコンパイル時に、データフローグラフのステージの分割と、メモリ領域におけるメモリのアロケーションとを静的に行う。
The memory allocation method of this embodiment will be described with reference to FIG. 3 and FIG.
In the memory allocation method of this embodiment, when a graph program of a data flow graph is compiled, the division of the stages of the data flow graph and the allocation of memory in the memory area are statically performed.

メモリ領域の各メモリ要素にはアドレスが順次付与されており、アドレスの先頭側及び末尾側を夫々上側及び下側と称する。 Each memory element in the memory area is assigned an address in sequence, and the beginning and end of the address are called the upper and lower sides, respectively.

メモリ領域において、データフローグラフのステージ毎に利用される共用領域を確保すると共に、全てのステージにわたって共通に利用される共通領域を確保する。そして、データフローグラフの所定のステージにおいて、メモリ領域の共用領域の一方向側から入力バッファを割り当てると共に、逆方向側から出力バッファを割り当て、当該所定のステージの次のステージにおいて、共用領域の逆方向側から入力バッファを割り当てると共に、一方向側から出力バッファを割り当てる。また、メモリ領域の共通領域には、全てのステージにわたって利用される共通バッファを割り当てる。 In the memory area, a shared area is secured that is used for each stage of the dataflow graph, and a common area is secured that is used across all stages. Then, at a specific stage of the dataflow graph, an input buffer is assigned from one side of the shared area of the memory area, and an output buffer is assigned from the opposite side, and at the stage following the specific stage, an input buffer is assigned from the opposite side of the shared area, and an output buffer is assigned from the one side. A common buffer that is used across all stages is also assigned to the common area of the memory area.

ここで、メモリ領域の共用領域及び共通領域については、データフローグラフのグラフプログラムの実行中にメモリ不足の発生しないサイズが割り当てられる。即ち、共用領域に必要なサイズについては、各ステージにおいて必要となる入出力バッファの合計サイズの内の最大の合計サイズとなる。また、共通領域に必要なサイズについては、全共通バッファの合計サイズとなる。 The shared and common memory areas are allocated sizes that will not cause memory shortages during execution of the graph program of the dataflow graph. In other words, the size required for the shared area is the maximum total size of the total sizes of the input/output buffers required at each stage. The size required for the common area is the total size of all the common buffers.

本実施形態では、図3及び図4に示されるように、データフローグラフのステージ1(S1)では、メモリ領域の共用領域Rにおいて、一方向側である上側から入力バッファb1を割り当て、逆方向側である下側から出力バッファb2を割り当てる。また、メモリ領域の共通領域Sに、出力バッファとして共通バッファb3を割り当てる。上述したとおり、データフローグラフのステージ1では、入力バッファb1からの入力に対して、ノードn1及びn2が夫々実行され、出力バッファb2及びb3に対して夫々出力がなされる。 In this embodiment, as shown in Figures 3 and 4, in stage 1 (S1) of the data flow graph, in the shared area R of the memory area, an input buffer b1 is allocated from the upper side, which is one direction, and an output buffer b2 is allocated from the lower side, which is the opposite direction. In addition, a common buffer b3 is allocated as an output buffer to the common area S of the memory area. As described above, in stage 1 of the data flow graph, nodes n1 and n2 are each executed in response to input from input buffer b1, and output is made to output buffers b2 and b3, respectively.

ステージ2(S2)では、メモリ領域の共用領域Rにおいて、逆方向側である下側から入力バッファb2を割り当て、一方向側である上側から出力バッファb4を割り当てる。また、メモリ領域の共通領域Sに、入力バッファとして共通バッファb3を割り当てる。上述したとおり、ステージ2では、入力バッファb2及びb3からの入力に対して、ノードn3が実行され、出力バッファb4に対して出力がなされる。 In stage 2 (S2), in the shared area R of the memory area, input buffer b2 is allocated from the lower side, which is the opposite direction side, and output buffer b4 is allocated from the upper side, which is the one-way side. In addition, common buffer b3 is allocated as an input buffer to the common area S of the memory area. As described above, in stage 2, node n3 is executed in response to inputs from input buffers b2 and b3, and output is made to output buffer b4.

ステージ3(S3)では、メモリ領域の共用領域Rにおいて、一方向側である上側から入力バッファb4を割り当て、逆方向側である下側から出力バッファb5を割り当てる。また、メモリ領域の共通領域Sに、入力バッファとして共通バッファb3を割り当てる。上述したとおり、ステージ3では、入力バッファb3及びb4からの入力に対して、ノードn4が実行されて、出力バッファb5に対して出力がなされる。 In stage 3 (S3), in the shared area R of the memory area, input buffer b4 is allocated from the upper side, which is one direction, and output buffer b5 is allocated from the lower side, which is the opposite direction. In addition, common buffer b3 is allocated as an input buffer to the common area S of the memory area. As described above, in stage 3, node n4 is executed in response to inputs from input buffers b3 and b4, and output is made to output buffer b5.

ここで、メモリ領域の共用領域Rに必要なサイズについては、ステージ1では、入力バッファb1と出力バッファb2との合計サイズとなり、ステージ2では、入力バッファb2と出力バッファb4との合計サイズとなり、ステージ3では、入力バッファb4と出力バッファb5との合計サイズとなる。ここでは、ステージ3の合計サイズが最大の合計サイズとなっているため、メモリ領域の共用領域Rに必要なサイズについては、ステージ3の合計サイズである入力バッファb4と出力バッファb5との合計サイズとなる。また、メモリ領域の共通領域Rに必要なサイズについては、共通バッファb3のサイズとなる。 The size required for the shared region R of the memory area is the total size of the input buffer b1 and the output buffer b2 in stage 1, the total size of the input buffer b2 and the output buffer b4 in stage 2, and the total size of the input buffer b4 and the output buffer b5 in stage 3. Here, since the total size of stage 3 is the maximum total size, the size required for the shared region R of the memory area is the total size of the input buffer b4 and the output buffer b5, which is the total size of stage 3. Also, the size required for the common region R of the memory area is the size of the common buffer b3.

本実施形態のメモリアロケーション装置及び方法は以下の効果を奏する。 The memory allocation device and method of this embodiment provide the following advantages:

本実施形態では、メモリ領域において共用領域を確保し、データフローグラフの所定のステージにおいて、共用領域の一方向側から入力バッファを割り当てると共に、逆方向側から出力バッファを割り当て、当該所定のステージの次のステージにおいて、共用領域の逆方向側から入力バッファを割り当てると共に、一方向側から出力バッファを割り当てている。そして、共用領域に必要なサイズについては、各ステージにおいて必要となる入出力バッファの合計サイズの内の最大の合計サイズとなっている。 In this embodiment, a shared area is reserved in the memory area, and at a specified stage of the data flow graph, an input buffer is allocated from one side of the shared area and an output buffer is allocated from the opposite side, and at the next stage after the specified stage, an input buffer is allocated from the opposite side of the shared area and an output buffer is allocated from the one side. The size required for the shared area is the maximum total size of the total sizes of the input/output buffers required at each stage.

ここで、メモリ領域をバッファとして使用するためには、当該バッファに対応した連続したメモリ領域が必要となる。そして、データフローグラフの各ノードを実行するためにバッファが必要となる度にメモリ領域を確保し、バッファが不要となる度にメモリ領域を解放するメモリアロケーション方法では、各ノードの実行において必要となるバッファのサイズが異なる場合には、バッファとして使用することが不可能な細分化されたメモリ領域が発生するメモリ領域の断片化を招来してしまう。この場合には、グラフプログラムを停止したうえで、メモリ領域を整理して断片化を解消することが必要となり、特に組み込みシステムには不適切である。また、データフローグラフの各ノードを実行するために必要となるバッファのサイズとは無関係に、常に一定のサイズのメモリ領域を確保する場合には、メモリ領域の断片化を回避することは可能となるが、メモリの利用効率が低下してしまう。 To use a memory area as a buffer, a continuous memory area corresponding to the buffer is required. In a memory allocation method in which a memory area is reserved each time a buffer is required to execute each node of the dataflow graph and the memory area is released each time the buffer is no longer required, if the size of the buffer required to execute each node is different, this leads to memory area fragmentation, which generates memory areas that cannot be used as buffers. In this case, it is necessary to stop the graph program and organize the memory area to eliminate the fragmentation, which is particularly unsuitable for embedded systems. In addition, if a memory area of a constant size is always reserved regardless of the size of the buffer required to execute each node of the dataflow graph, it is possible to avoid memory area fragmentation, but memory utilization efficiency will decrease.

これに対して、上述した本実施形態では、原理的にメモリ領域の断片化が発生しないようになっており、また、データフローグラフの各ノードを実行するために常に一定のサイズのメモリ領域を確保する場合と比較して、メモリの利用効率が高くなっている。 In contrast, in the present embodiment described above, fragmentation of memory space does not occur in principle, and memory usage is more efficient than when a fixed size memory space is always reserved to execute each node in the data flow graph.

また、メモリ領域の共用領域を単に半分に分割して、ステージ毎に一方向側のメモリ領域に入力バッファと出力バッファ、逆方向側のメモリ領域に出力バッファと入力バッファとを交互に割り当てていくメモリアロケーションでは、共用領域に必要なサイズについては、各ステージにおいて必要となる入力バッファの合計サイズ又は出力バッファの合計サイズの内の最大の合計サイズの2倍のサイズとなる。 In addition, in a memory allocation where the shared memory area is simply divided in half and an input buffer and an output buffer are alternately assigned to the memory area on one side and an output buffer and an input buffer to the memory area on the opposite side for each stage, the size required for the shared area is twice the maximum total size of the total size of the input buffers or the total size of the output buffers required for each stage.

これに対して、上述した本実施形態では、共用領域に必要なサイズについては、各ステージにおいて必要となる入出力バッファの合計サイズの内の最大の合計サイズにすぎず、メモリの利用効率が高くなっている。 In contrast, in the embodiment described above, the size required for the shared area is merely the maximum total size of the total sizes of the input/output buffers required at each stage, resulting in high memory utilization efficiency.

さらに、本実施形態では、データフローグラフのグラフプログラムのコンパイル時に、データフローグラフのステージの分割と、メモリ領域におけるメモリのアロケーションとを静的に行っているため、グラフプログラムの実行中にメモリ不足が発生することがない。なお、データフローグラフのグラフプログラムの実行時に、データフローグラフのステージの分割と、メモリ領域におけるメモリのアロケーションとを動的に行うようにしてもよい。 Furthermore, in this embodiment, when the graph program of the data flow graph is compiled, the division of the stages of the data flow graph and the allocation of memory in the memory area are performed statically, so that memory shortages do not occur during execution of the graph program. Note that when the graph program of the data flow graph is executed, the division of the stages of the data flow graph and the allocation of memory in the memory area may be performed dynamically.

10…処理装置 12…メモリ 14…演算装置 16…メモリアロケーション装置
10: Processing device 12: Memory 14: Arithmetic unit 16: Memory allocation device

Claims (4)

メモリアロケーション装置によって実行されるデータフローグラフを実行するためのメモリアロケーション方法であって、
アドレスが順次付与されている複数のメモリ要素からなるメモリ領域において、連続する所定の個数のメモリ要素を、所定の共用領域として確保するステップと、
前記データフローグラフの所定のステージにおいて、前記所定の共用領域においてアドレスの一方向側から連続する複数のメモリ要素に入力バッファを割り当てると共にアドレスの逆方向側から連続する複数のメモリ要素に出力バッファを割り当てる第1の割当ステップと、
前記データフローグラフの前記所定のステージの次のステージにおいて、前記所定の共用領域において前記アドレスの逆方向側から連続する複数のメモリ要素に入力バッファを割り当てると共に前記アドレスの一方向側から連続する複数のメモリ要素に出力バッファを割り当てる第2の割当ステップと、
を具備するメモリアロケーション方法。
1. A memory allocation method for executing a data flow graph executed by a memory allocation apparatus , comprising:
A step of reserving a predetermined number of consecutive memory elements as a predetermined shared area in a memory area consisting of a plurality of memory elements to which addresses are sequentially assigned;
a first allocation step of allocating input buffers to a plurality of consecutive memory elements from one address direction side in the predetermined shared area and allocating output buffers to a plurality of consecutive memory elements from an opposite address direction side in the predetermined shared area in a predetermined stage of the data flow graph;
a second allocation step of allocating input buffers to a plurality of consecutive memory elements from a reverse direction side of the address in the predetermined shared area and allocating output buffers to a plurality of consecutive memory elements from one direction side of the address in a stage next to the predetermined stage of the data flow graph;
1. A memory allocation method comprising:
前記メモリ領域において、前記所定の共用領域が設定されたメモリ要素とは異なる、連続する所定の個数のメモリ要素を、所定の共通領域として確保するステップと、
前記所定の共通領域に、前記データフローグラフの複数のステージにわたって利用される共通バッファを割り当てる追加の割当ステップと、
をさらに具備する、請求項1に記載のメモリアロケーション方法。
reserving, as a predetermined common area, a predetermined number of consecutive memory elements in the memory area, which are different from the memory elements in which the predetermined shared area is set;
an additional allocation step of allocating a common buffer to the predetermined common area, the common buffer being used across multiple stages of the data flow graph ;
2. The memory allocation method of claim 1, further comprising:
前記データフローグラフのグラフプログラムのコンパイル時に前記データフローグラフのステージの分割及び前記メモリ領域におけるメモリのアロケーションを行う、
請求項1に記載のメモリアロケーション方法。
dividing the stages of the data flow graph and allocating memory in the memory area when compiling a graph program of the data flow graph;
2. The memory allocation method according to claim 1.
データフローグラフを実行するための処理装置(10)であって、
アドレスが順次付与されている複数のメモリ要素からなるメモリ領域を有するメモリ(12)と、
前記データフローグラフのノードを実行し前記メモリ領域に対する入出力を実行する演算装置(14)と、
前記メモリ領域において、連続する所定の個数のメモリ要素を、所定の共用領域として確保し、前記データフローグラフの所定のステージにおいて、前記所定の共用領域においてアドレスの一方向側から連続する複数のメモリ要素に入力バッファを割り当てると共にアドレスの逆方向側から連続する複数のメモリ要素に出力バッファを割り当て、前記所定のステージの次のステージにおいて、前記所定の共用領域において前記アドレスの逆方向側から連続する複数のメモリ要素に入力バッファを割り当てると共に前記アドレスの一方向側から連続する複数のメモリ要素に出力バッファを割り当てるメモリアロケーション装置(16)と、
を具備する処理装置。
A processing device (10) for executing a data flow graph, comprising:
a memory (12) having a memory area made up of a plurality of memory elements to which addresses are sequentially assigned ;
an arithmetic unit (14) for executing nodes of the data flow graph and performing input/output to the memory region;
a memory allocation device (16) that reserves a predetermined number of consecutive memory elements in the memory area as a predetermined shared area, and in a predetermined stage of the data flow graph, assigns an input buffer to a plurality of consecutive memory elements in the predetermined shared area from one address direction and assigns an output buffer to a plurality of consecutive memory elements in the opposite address direction, and in a stage next to the predetermined stage, assigns an input buffer to a plurality of consecutive memory elements in the predetermined shared area from the opposite address direction and assigns an output buffer to a plurality of consecutive memory elements in the predetermined shared area from the one address direction;
A processing device comprising:
JP2020061336A 2020-03-30 MEMORY ALLOCATION METHOD AND PROCESSING APPARATUS - Patent application Active JP7494526B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020061336A JP7494526B2 (en) 2020-03-30 MEMORY ALLOCATION METHOD AND PROCESSING APPARATUS - Patent application

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020061336A JP7494526B2 (en) 2020-03-30 MEMORY ALLOCATION METHOD AND PROCESSING APPARATUS - Patent application

Publications (2)

Publication Number Publication Date
JP2021162924A JP2021162924A (en) 2021-10-11
JP7494526B2 true JP7494526B2 (en) 2024-06-04

Family

ID=

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259487A (en) 1999-03-10 2000-09-22 Ricoh Co Ltd Memory device
JP2006040254A (en) 2004-06-21 2006-02-09 Sanyo Electric Co Ltd Reconfigurable circuit and processor
JP2019207458A (en) 2018-05-28 2019-12-05 ルネサスエレクトロニクス株式会社 Semiconductor device and memory access setting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000259487A (en) 1999-03-10 2000-09-22 Ricoh Co Ltd Memory device
JP2006040254A (en) 2004-06-21 2006-02-09 Sanyo Electric Co Ltd Reconfigurable circuit and processor
JP2019207458A (en) 2018-05-28 2019-12-05 ルネサスエレクトロニクス株式会社 Semiconductor device and memory access setting method

Similar Documents

Publication Publication Date Title
CN107491351B (en) Resource allocation method, device and equipment based on priority
JP2009528610A (en) Method and apparatus for dynamically resizing cache partition based on task execution phase
CN108268317B (en) Resource allocation method and device
KR101640848B1 (en) Job Allocation Method on Multi-core System and Apparatus thereof
JP6364880B2 (en) Parallel computer system, control program for job management apparatus, and control method for parallel computer system
JP2017535888A (en) Memory management method and apparatus
US8352702B2 (en) Data processing system memory allocation
US9471387B2 (en) Scheduling in job execution
JP2020119564A (en) Method for allocating resource to multiple path neural network and layers of the same, and multiple path neural network analyzer
KR101392584B1 (en) Apparatus for dynamic data processing using resource monitoring and method thereof
JP2003131819A5 (en)
JP7494526B2 (en) MEMORY ALLOCATION METHOD AND PROCESSING APPARATUS - Patent application
JP2017162522A (en) Method and apparatus for allocating interrupts in multi-core system
US9740530B2 (en) Decreasing the priority of a user based on an allocation ratio
JP2020061133A (en) Multiple processing architecture using memory processor and method of operating the same
JP4409568B2 (en) Band control program and multiprocessor system
JP5355152B2 (en) Dynamic reconfiguration device
JP2021162924A (en) Memory allocation method and processing apparatus
JP2016071886A5 (en)
JP6953768B2 (en) Assistance device, program
Andersson et al. Partitioned aperiodic scheduling on multiprocessors
WO2020213397A1 (en) Processor and register inheritance method
US9280330B2 (en) Apparatus and method for executing code
KR20130067100A (en) Core allocation apparatus in different multi-core
CN108694125B (en) Allocating shared memory among multiple tasks in a multiprocessor environment