JP2022539956A - メモリ管理方法及び関連製品 - Google Patents
メモリ管理方法及び関連製品 Download PDFInfo
- Publication number
- JP2022539956A JP2022539956A JP2021570921A JP2021570921A JP2022539956A JP 2022539956 A JP2022539956 A JP 2022539956A JP 2021570921 A JP2021570921 A JP 2021570921A JP 2021570921 A JP2021570921 A JP 2021570921A JP 2022539956 A JP2022539956 A JP 2022539956A
- Authority
- JP
- Japan
- Prior art keywords
- task
- processing device
- cache
- cache block
- pool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本願の実施例は、メモリ管理方法及び関連製品を開示する。該方法は、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップと、前記第1処理機器は、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定した場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップであって、前記第2キャッシュブロックの少なくとも一部が前記第1キャッシュブロックに含まれるステップとを含む。本願の実施例では、第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合、該第1タスクと該第2タスクとは、一部のキャッシュブロックを再利用でき、メモリ利用率を向上できる。【選択図】図2
Description
本願はコンピュータ分野に関し、特にメモリ管理方法及び関連製品に関する。
中央処理装置(Central Processing Unit、CPU)及び加速機器からなる異種加速システムでは、加速機器におけるメモリ管理戦略がシステム全体の性能と効率に大きく影響する。加速機器とは、CPU以外の、加速計算用の機器、たとえば、グラフィックスプロセッシングユニット(Graphics Processing Unit、GPU)、ニューラルネットワークプロセシングユニット(Neural-network Processing Unit、NPU)、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array、FPGA)などである。現在採用されているメモリ管理戦略は、メモリ利用率が低いため、メモリ利用率の高いメモリ管理戦略を研究する必要がある。
本願の実施例は、メモリ管理方法及び関連製品を開示する。
第1態様では、本願の実施例は、メモリ管理方法を提供し、該方法は、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップと、前記第1処理機器は、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定した場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップであって、前記第2キャッシュブロックの少なくとも一部が前記第1キャッシュブロックに含まれるステップと、を含む。
第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合とは、該第1処理機器は、該第2処理機器が該第1タスクと該第2タスクを並列実行しないことである。つまり、第2処理機器は、該第1タスクと該第2タスクを同時に実行しない。第2処理機器は、第2タスクと第1タスクを順に実行する場合、該第1タスクと該第2タスクを実行するに、同一のキャッシュブロックを同時に占めることが不可能である。従って、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当て、第2タスクに第2キャッシュブロックを割り当て、すなわち、該第1タスクと該第2タスクは、一部のキャッシュブロックを再利用することができる。
本願の実施例では、第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合、該第1タスクと該第2タスクが一部のキャッシュブロックを再利用することができ、メモリ利用率を向上させることができる。
1つの可能な実施形態では、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップの後に、前記方法は、前記第1処理機器は、前記第1タスクを前記第2処理機器に送信したことに応じて、前記第1キャッシュブロックを前記キャッシュプールに再び入れるステップをさらに含む。
前記第1処理機器は、前記第1タスクを前記第2処理機器に送信することは、前記第1処理機器は、第2処理機器を呼び出して前記第1タスクを実行することであってもよいし、前記第1タスクを第2処理機器処理のあるタスクキューに提出することであってもよい。前記第1処理機器は、前記第1タスクを前記第2処理機器に送信した直後、前記第1キャッシュブロックを前記キャッシュプールに再び入れることができる。
該実施形態では、第1処理機器は、該第1キャッシュプールを再利用するために、直ちに第1キャッシュブロックをキャッシュプールに再び入れることができる。
1つの可能な実施形態では、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップの後に、前記方法は、前記第1処理機器は、前記第1キャッシュブロックに対応する前記第1タスクの位置する第1操作キューを記録するステップを含み、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定するステップは、前記第1処理機器は、記録された前記第1タスクの位置する前記第1操作キューに基づいて、前記第1タスクと前記第2タスクとの位置する操作キューが同じであると決定するステップを含む。
任意選択的には、前記第1処理機器は、前記第1タスクを前記第2処理機器に送信したことに応じて、前記第1キャッシュブロックに対応する前記第1タスクの位置する第1操作キューを記録する。任意選択的には、前記第1処理機器が、前記第1キャッシュブロックを前記キャッシュプールに再び入れる操作と、前記第1キャッシュブロックに対応する前記第1タスクの位置する第1操作キューを記録する操作とは、同時に実行されるとしてもよい。つまり、第1処理機器が第1キャッシュブロックをキャッシュプールに再び入れる操作と、該第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録する操作とは、バインディングされてもよい。前記第1処理機器は、前記第2タスクをキャッシュブロックに割り当てる前、前記第2タスクの位置する操作キューを知っている。従って、第1処理機器は、記録された第1タスクの位置する第1操作キューに基づいて、該第1タスクと第2タスクとの位置する操作キューが同じであるか否かを決定することができる。
該実施形態では、第1処理機器は、記録した第1タスクの位置する第1操作キューに基づいて、該第1タスクと第2タスクの位置する操作キューが同じであると正確かつ迅速に決定することができる。
1つの可能な実施形態では、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップは、前記第1処理機器は、前記第2処理機器による前記第1タスクの実行中に、前記キャッシュプールの前記第2キャッシュブロックを前記第2タスクに割り当てるステップを含む。
該実施形態では、第1処理機器と第2処理機器とは、並列動作し、作業効率が高い。
1つの可能な実施形態では、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップの前に、前記方法は、前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するステップをさらに含み、前記第1処理機器は、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定した場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップは、前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるステップを含む。
該実施形態では、第1処理機器は、少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、該少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを該第2タスクに割り当てることによって、該第2タスクは、割り当てられたキャッシュブロックを再利用し、メモリ利用率を向上できる。
1つの可能な実施形態では、前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するステップは、前記第1処理機器は、前記キャッシュプールから、前記第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索するステップと、前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記少なくとも1つの候補キャッシュブロックから検索するステップとを含む。前記少なくとも1つの候補キャッシュブロックは、いずれも現在タスクが割り当てられているキャッシュブロックであってもよいし、タスクが現在割り当てられているキャッシュブロックを含むとともに、タスクが現在割り当てられていないキャッシュブロックをさらに含むものであってもよい。
該実施形態では、少なくとも1つの候補キャッシュブロックから、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを優先的に検索することによって、タスクが現在割り当てられておりかつ第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを迅速に検索できる。
1つの可能な実施形態では、前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するステップは、前記第1処理機器は、前記キャッシュプールにおける、タスクが現在割り当てられているキャッシュブロックから、前記第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索するステップを含む。
該実施形態では、第1処理機器は、キャッシュプールにおける、タスクが現在割り当てられているキャッシュブロックから、第2タスクに必要なキャッシュサイズを満たすキャッシュブロックを直接検索し、さらに現在タスクが割り当てられているキャッシュブロックを該第2タスクに再びに割り当てることによって、メモリ利用率を向上できる。
1つの可能な実施形態では、前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるステップは、第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係、及び前記少なくとも1つの候補キャッシュブロックのサイズに基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるステップを含む。
第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係、及び前記少なくとも1つの候補キャッシュブロックのサイズに基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てることは、前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクを順に実行すると決定した場合、前記少なくとも1つの候補キャッシュブロックのサイズに基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てることであってもよい。
該実施形態では、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てることによって、タスクが現在割り当てられているキャッシュブロックを再利用し、メモリ再利用率を向上させることができる。
1つの可能な実施形態では、前記方法は、前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックが前記第2タスクの要求を満たすキャッシュブロックを含まないと決定した場合、前記キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つのキャッシュブロックから、前記第2タスクに割り当てられるターゲットキャッシュブロックを決定するステップをさらに含む。
該実施形態では、キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つのキャッシュブロックから、第2タスクに割り当てられるターゲットキャッシュブロックを決定することによって、該第2タスクを成功して実行できる。
1つの可能な実施形態では、前記方法は、前記第1処理機器は、前記キャッシュプールから、前記第2タスクの要求を満たすキャッシュブロックが検索できなかった場合、前記キャッシュプールを拡張するステップと、前記第1処理機器は、拡張後の前記キャッシュプールから、前記第2タスクに割り当てられるターゲットキャッシュブロックを検索するステップとをさらに含む。
該実施形態では、拡張後のキャッシュプールから、第2タスクの要求を満たすキャッシュブロックを検索することによって、第2タスクにその要求を満たすキャッシュブロックを迅速に割り当てることができる。
第2形態では、本願の実施例は、データ処理装置を提供し、該データ処理装置は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるためのメモリ割り当てユニットと、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があるか否かを決定するための処理ユニットとを含み、前記メモリ割り当てユニットは、さらに、前記第2処理機器が前記第2タスクと前記第1タスクとを順に実行する必要があることが前記処理ユニットにより決定された場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるために用いられ、前記第2キャッシュブロックの少なくとも一部は、前記第1キャッシュブロックに含まれる。
前記処理ユニットと前記メモリ割り当てユニットとは、同一のユニットであってもよいし、2つの独立したユニットであってもよい。いくつかの可能な実施の形態では、処理ユニットは、CPUなどのプロセッサであり、メモリ割り当てユニットはハードウェアである。いくつかの可能な実施の形態では、処理ユニットは、CPUなどのプロセッサであり、メモリ割り当てユニットの機能は、プロセッサにより実行されるソフトウェア又はプログラムによって実現される。つまり、処理ユニットの機能及びメモリ割り当てユニットの機能は、いずれも、プロセッサによって実現される。
1つの可能な実施形態では、前記処理ユニットは、さらに、前記第1タスクを前記第2処理機器に送信するために用いられ、前記メモリ割り当てユニットは、さらに前記第1タスクを前記第2処理機器に送信したことに応じて、前記第1キャッシュブロックを前記キャッシュプールに再び入れるために用いられる。
1つの可能な実施形態では、前記処理ユニットは、さらに、前記第1キャッシュブロックに対応する前記第1タスクの位置する第1操作キューを記録するために用いられ、前記処理ユニットは、記録された前記第1タスクの位置する前記第1操作キューに基づいて、前記第1タスクと前記第2タスクとの位置する操作キューが同じであると決定するために用いられる。
1つの可能な実施形態では、前記メモリ割り当てユニットは、さらに、前記第2処理機器による前記第1タスクの実行中に、前記キャッシュプールの前記第2キャッシュブロックを前記第2タスクに割り当てる。
1つの可能な実施形態では、前記メモリ割り当てユニットは、さらに、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するために用いられ、前記メモリ割り当てユニットは、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記第2処理機器が前記第2タスクと前記第1タスクとを順に実行する必要があると処理ユニットが決定した場合、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるために用いられる。
1つの可能な実施形態では、前記メモリ割り当てユニットは、前記キャッシュプールにおける、タスクが現在割り当てられているキャッシュブロックから、前記第2タスクに必要なキャッシュサイズを満たす前記少なくとも1つの候補キャッシュブロックを検索するために用いられる。
1つの可能な実施形態では、前記メモリ割り当てユニットは、前記キャッシュプールから、前記第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索し、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記少なくとも1つの候補キャッシュブロックから検索するために用いられる。
1つの可能な実施形態では、前記メモリ割り当てユニットは、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記第2処理機器が前記第2タスクと前記第1タスクとを順に実行する必要があると前記処理ユニットが決定した場合、前記少なくとも1つの候補キャッシュブロックのサイズに基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるために用いられる。
1つの可能な実施形態では、前記メモリ処理ユニットは、さらに、前記少なくとも1つの候補キャッシュブロックが前記第2タスクの要求を満たすキャッシュブロックを含まないことが処理ユニットにより決定された場合、前記キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つのキャッシュブロックから、前記第2タスクに割り当てられるターゲットキャッシュブロックを決定するために用いられる。
1つの可能な実施形態では、前記メモリ処理ユニットは、さらに、前記キャッシュプールから、前記第2タスクの要求を満たすキャッシュブロックが検索できなかった場合、前記キャッシュプールを拡張し、拡張後の前記キャッシュプールから、前記第2タスクに割り当てられるターゲットキャッシュブロックを検索するために用いられる。
第2態様または様々な可能な実施形態がもたらす技術的効果については、第1態様または対応する実施形態の技術的効果についての説明を参照することができる。
第3態様では、本願の実施例は、メモリと第1プロセッサとを含む電子機器を提供し、前記メモリは、命令を記憶するために用いられ、前記第1プロセッサは、前記メモリに記憶された命令を実行し、第1態様及びいずれかの可能な実施形態の方法を実行させるために用いられる。
1つの可能な実施形態では、前記電子機器は、第2プロセッサをさらに含み、前記第2プロセッサは、前記第1プロセッサによって割り当てられたキャッシュブロックを用いて、前記第1プロセッサによって送信されたタスクを実行するために用いられる。例示的には、第1プロセッサはCPUであり、第2プロセッサはGPUである。
第4態様では、本願の実施例は、第1処理機器、メモリ及び第2処理機器を含む電子機器を提供し、前記メモリは、命令及びデータを記憶するために用いられ、前記第1プロセッサは、前記メモリに記憶された命令を実行し、前記第1プロセッサに第1態様及びいずれかの可能な実施形態の方法を実行させるために用いられ、前記第2処理機器は、前記第1処理機器よって割り当てられたキャッシュブロックを用いて、前記第1プロセッサよって送信されたタスクを実行するために用いられる。例示的には、第1処理機器は、CPUであり、第2処理機器はGPUである。
第5態様では、本願の実施例は、データインタフェース及び第1態様に記載の第1処理機器を含むチップを提供し、前記第1処理機器は、第1態様又は第1態様のいずれかの可能な実施形態における方法を実行するために用いられる。
第6態様では、本願の実施例は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体を提供し、該コンピュータプログラムは、プログラム命令を含み、該プログラム命令がプロセッサよって実行されると、該プロセッサに第1態様及びいずれかの任意選択的な実施形態の方法を実行させる。
第7態様では、本願の実施例は、プログラム命令を含むコンピュータプログラム製品を提供し、前記プログラム命令がプロセッサによって実行されると、前記プロセッサに第1態様及びいずれかの任意選択的な実施形態の方法を実行させる。
本願の実施形態又は背景技術における技術的態様をより明確に説明するために、本願の実施形態又は背景技術において必要とされる図面について説明する。
本願の実施例に係るデータ処理装置の構造模式図である。
本願の実施例に係るメモリ管理方法のフローチャートである。
本願の実施例に係る別のメモリ管理方法のフローチャートである。
本願の実施例に係る別のメモリ管理方法のフローチャートである。
本願の実施例に係る別のメモリ管理方法のフローチャートである。
本願の実施例に係るメモリ管理方法のタイミングチャートである。
本願の実施例に係る別のメモリ管理方法のフローチャートである。
本願の実施例に係る別のメモリ管理方法のタイミングチャートである。
本願の実施例に係るデータ処理装置の構造模式図である。
本願の実施例に係る別のデータ処理装置の構造模式図である。
本願の明細書の実施形態及び特許請求の範囲と図面における用語の「第1」、「第2」、及び「第3」などは、特定の順序または前後の順序を記述するのではなく、類似の対象を区別するために使用される。さらに、用語の「含む」、「有する」及びそれらの任意の変形は、非排他的な包含を含むことを意図し、例えば、一連のステップ又はユニットを含む。方法、システム、製品又は機器は、明確に列挙されたそれらのステップ又はユニットに限定されるものではなく、明確に列挙されていない又はこれらのプロセス、方法、製品又は装置に固有の他のステップ又はユニットを含むことができる。
背景技術に記載されているように、異種(heterogeneous)加速システムにおいて現在採用されているメモリ管理戦略は、メモリ利用率が通常低いため、メモリ利用率の高いメモリ管理戦略を研究する必要がある。本願の実施例は、第1処理機器(たとえば、CPU)及び第2処理機器(加速機器に対応する)を有するデータ処理装置(異種加速システムに対応する)に適用される、メモリ利用率の高いメモリ管理方法を提供する。以下、本願の実施例に係るメモリ管理方法が適用されるデータ処理装置の構造を説明し、本願の実施例に係るメモリ管理方法をより容易に説明する。
図1は、本願の実施例に係るデータ処理装置の構造模式図である。図1に示すように、該データ処理装置は、第1処理機器101、メモリアロケータ102、第2処理機器103及び機器メモリ104を含み、該第1処理機器101とメモリアロケータ102とは、独立して設けられるか、又は、同一の機器に集成され、第2処理機器103と第1処理機器101とは、異なる種類の処理機器であり、機器メモリ104は、第2処理機器103の一部であってもよいし、又は、第2処理機器103とは独立して設けられていてもよいが、本開示の実施形態はこれについて限定しない。いくつかの例では、第1処理機器101は処理ユニットに対応し、メモリアロケータ102はメモリ割り当てユニットに対応する。第1処理機器101は、CPU又は他の種類のプロセッサであってもよい。いくつかの実施例では、第1処理機器101は、CPUなどのメイン処理機器であってもよく、第2処理機器103は、GPUなどの加速機器であってもよい。第2処理機器103は、GPU、NPU、FPGA、デジタル信号プロセッサ(digital signal processor、DSP)、専用集積回路(application specific integrated circuit、ASIC)などの、第1処理機器101と異なるプロセッサ又は処理装置であってもよい。いくつかの可能な実施の形態では、第1処理機器101はCPUであり、メモリ割り当てユニットは、CPUと互いに独立したハードウェアである。いくつかの可能な実施の形態では、第1処理機器101はCPUであり、メモリアロケータ102の機能は、第1処理機器101で実行されるソフトウェア又はプログラムによって実現される。つまり、いくつかの可能な実施の形態では、メモリアロケータ102に対応するエンティティハードウェアは、第1処理機器101である。機器メモリ104は、第2処理機器103が利用可能なメモリであってもよい。例示的には、第2処理機器103はGPUであり、機器メモリ104は第2処理機器103のビデオメモリである。いくつかの実施例では、機器メモリ104は第2処理機器103の一部である。
以下、データ処理装置が本願の実施例に係るメモリ管理方法を実施するとき、第1処理機器101、メモリアロケータ102、第2処理機器103及び機器メモリ104の機能についてそれぞれ説明する。
第1処理機器(たとえば、CPU)101は、第2処理機器103にタスクを提出し、メモリアロケータ102がキャッシュプールにおけるキャッシュを割り当てる及び/又は解放するように制御し、すなわち、メモリアロケータ102を介して第2処理機器103の機器メモリ104を管理するために用いられる。第1処理機器101が第2処理機器103にタスクを提出することは、第1処理機器101がタスクを、第2処理機器103の処理すべき操作キューに追加することであってもよいし、タスクを第2処理機器103に送信し、たとえば、あるタスクの実行を指示する命令を第2処理機器103に送信することであってもよいし、タスクを、第1処理機器101が第2処理機器103のインターフェースを呼び出して行わせる必要がある操作キューに追加することであってもよいし、他の方式で、第2処理機器103にタスクの実行を通知することであってもよい。第1処理機器101は、さらに、第2処理機器103のインターフェースを呼び出してタスクを実行させるために用いられる。例示的には、操作キューは、並列コンピューティングアーキテクチャ(compute unified device architecture、CUDA)におけるcudaStreamである。同一のcudaStreamにおけるタスクは、提出された順序に従って実行され、異なるcudaStreamにおけるタスクは前後の順序がなく、並列に実行されてもよい。例示的には、操作キューは、オープン計算言語(Open Computing Language、OpenCL)におけるcl_command_queueである。OpenCLは、異種プラットフォームに対してプログラムを作成するフレームワークであり、この異種プラットフォームは、CPU、GPU又は他の種類のプロセッサを含んでもよい。例示的には、操作キューは、C++AMPにおけるaccelerator_viewである。C++AMPは、マイクロソフトVisual Studio及びC++プログラミング言語の新しい拡張であり、開発者が現在と将来の高度並列・異種の計算環境に十分に適することを助けるために使用される。
メモリアロケータ102は、機器メモリ104の管理を担当している。メモリアロケータ102は、エンティティハードウェアであってもよい。あるいは、メモリアロケータ102の機能は、第1処理機器101が実行するソフトウェア又はプログラムによって実現されてもよい。
第2処理機器103は、機器メモリ104を介してデータを読み書きし、第1処理機器101により提出されたタスクを実行し、又は第1処理機器101によって少なくとも1つのインターフェースが呼び出されることでタスクを完了するように構成される。第2処理機器103は、GPU、NPU、ASIC、FPGAなどのCPU以外の加速機器として理解できる。
機器メモリ104とは、第2処理機器103における記憶デバイス(メモリ空間に対応)であり、第2処理機器103によって使用され、たとえば、GPU(第2処理機器103に対応)のビデオメモリである。
いくつかの実施例では、メモリアロケータ102には、機器メモリを予め割り当ててキャッシュするためのキャッシュプールが設けられている。このキャッシュプールは、1つの完全な機器メモリであってもよいし、任意のサイズの複数の機器メモリを組み合わせたものであってもよい。第2処理機器103がタスクを実行するために機器メモリを使用する必要があると、メモリアロケータ102は、直接キャッシュプールからキャッシュを第2処理機器103に割り当てることができ、第2処理機器103が割り当てられたキャッシュを使用する必要がなくなると、メモリアロケータ102は、キャッシュをキャッシュプールに再び入れ、すなわち、キャッシュをキャッシュプールに返却する。いくつかの実施例では、第1処理機器101はCPUであり、第2処理機器103はGPUであり、機器メモリ104は第2処理機器103におけるビデオメモリである。CPU及びGPUを含む異種計算システムでは、CPUは、タスク(たとえば、計算タスク又は画像処理タスクなど)の準備と開始を担当し、GPUは、タスクの実際の実行を担当している。CPUは、タスクを開始する前に、GPUがタスクを実行するために使用するビデオメモリを指定する必要がある。CPUによるビデオメモリに対する割り当て及び解放は、メモリアロケータ102によって実際に行われる。メモリアロケータ102は、GPUにおけるビデオメモリの管理を実際に担当している。GPUは、タスクを実行するとき、CPUがメモリアロケータ102を介して割り当てられた一部のビデオメモリを直接使用する。
以下、図2を併せて、データ処理装置が本願の実施例に係るメモリ管理方法を実行するとき、各部材が実行する操作について説明する。図2は、本願の実施例に係るメモリ管理方法のフローチャートである。図2に示すように、該メモリ管理方法は、ステップ201と202を含む。
ステップ201において、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てる。
第1処理機器は、CPU又は他の種類のプロセッサであってもよい。いくつかの実施例では、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てることは、第1処理機器は、メモリアロケータを介してキャッシュプールの第1キャッシュブロックを第1タスクに割り当てることであってもよい。メモリアロケータの機能は、第1処理機器により実行されるソフトウェア又はプログラムによって実現される。第1タスクは、画像処理タスク、計算タスクなどの、第2処理機器(たとえば、GPU)が実行すべきタスク、又は、第2処理機器を呼び出して実行させるべきタスクであってもよい。第1キャッシュブロックは、キャッシュプールにおけるいずれかのキャッシュブロックであってもよい。キャッシュプールは、メモリアロケータの内部に設けられるキャッシュ機器メモリ(たとえば、ビデオメモリ)のプールとして理解され得る。例を挙げると、メモリアロケータにより管理されるビデオメモリは、プール(すなわち、キャッシュプール)にキャッシュされる。メモリアロケータは、第2処理機器がビデオメモリを必要とすると、プールから割り当て、該第2処理機器に割り当てされたビデオメモリが使い果たされた後、該第2処理機器がタスクを完了するのを待たず、該ビデオメモリを解放する。このように、キャッシュプールを利用することによって、機器メモリの割り当てと解放中の機器同期を解消できる。機器同期は、第1処理機器(たとえば、CPU)がプログラムの実行を停止し、第2処理機器(加速機器に対応)がタスクを完了するのを待つこととして理解され得る。いくつかの実施例では、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てることは、第1タスクの要求を満たすキャッシュブロックをキャッシュプールから優先的に割り当てるが、該キャッシュプールには、該第1タスクの要求を満たすキャッシュブロックがないと、cudaMallocを呼び出して機器メモリからより多くのメモリを割り当て、キャッシュプールを拡張することであってもよい。cudaMallocは、CUDAにおける、ビデオメモリを割り当てるインターフェースである。
いくつかの実施例では、第1タスクは、ある計算タスク又は画像処理タスク又は他の種類の深層学習タスクであってもよい。いくつかの実施例では、第1処理機器は、ステップ201を実行する前、次のような操作を実行することができる。第1処理機器は、大きなタスクを分割して、第1タスクを取得することができる。本願の実施例におけるデータ処理装置は、異種計算システムであってもよい。異種計算システムは、計算タスクの並列性種類(concurrency type)を解析した上で、同じ種類のコードセグメントを同一のサブタスクに分割し、そして、異なる並列性種類に応じて、各サブタスクをその実行に最適な計算リソース(たとえば、第2処理機器)に割り当てて実行させ、計算タスクの総実行時間を最小にすることを実現する。このように、第1タスクは、第1処理機器が大きなタスクを分割ことによって得られた、第2処理機器が実行すべきサブタスク又は第2処理機器を呼び出して実行させるサブタスクとして理解され得る。あるいは、第1タスクは、第1処理機器により決定される実行すべきタスク自体であるが、本開示の実施例はこれについて限定しない。
いくつかの実施例では、第1処理機器は、ステップ201を実行した後、次のような操作を実行することができる。第1処理機器は、第1タスクを第2処理機器に送信したことに応じて、第1キャッシュブロックをキャッシュプールに再び入れる(返却とも呼ばれる)。第1処理機器は、第1タスクを第2処理機器に送信することは、第1処理機器は、タスクを、第2処理機器の処理すべき操作キューに追加することであってもよいし、あるタスクの実行を指示する命令を、第2処理機器に送信することであってもよいし、タスクを、第2処理機器のインターフェースを呼び出して行わせる必要がある操作キューに追加することであってもよいし、他の方式で、第2処理機器にタスクの実行を通知することであってもよいが、本開示の実施例は、これについて限定しない。
いくつかの実施例では、第1処理機器は、第1タスクを第2処理機器に送信した後、第2処理機器が第1キャッシュブロックを使用して第1タスクを実行完了するのを待つことなく、直ちに第1キャッシュブロックをキャッシュプールに再び入れることができる。本開示の実施例では、該第1キャッシュブロックの再利用(reuse)を容易にするために、第1処理機器は、第1キャッシュブロックをキャッシュプールに直ちに再び入れることができる。
いくつかの実施例では、第1処理機器又はメモリアロケータは、キャッシュプールにおける各キャッシュブロックに対して識別子を設定して、キャッシュブロックの現在状態を表すことができる。一例として、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てることは、該第1処理機器は、該キャッシュプールの該第1キャッシュブロックを第1タスクに割り当て、該第1キャッシュブロックの状態を使用不可に設定し、該第1キャッシュブロックが他のタスクを割り当てることができないことを表すことであってもよい。第1キャッシュブロックをキャッシュプールに再び入れる(返却とも呼ばれる)ことは、該第1キャッシュブロックの状態を使用可能に設定し、該第1キャッシュブロックが他のタスクに割り当てることを表すことであってもよい。本開示の実施例は、さらに、各キャッシュブロックが現在使用可能であるか否かを他の方式で表してもよい。たとえば、第1処理機器は、第1キャッシュブロックを第1タスクに割り当てることは、該第1キャッシュブロックをキャッシュプールに含まれるキャッシュリソースから除去することであってもよい。第1キャッシュブロックをキャッシュプールに再び入れることは、第1キャッシュブロックをキャッシュプールに含まれるキャッシュリソースに再追加することであってもよい。
ステップ202において、第1処理機器は、第2処理機器が第2タスクと第1タスクとを順に実行する必要があると決定した場合、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てる。
第2キャッシュブロックの少なくとも一部は、第1キャッシュブロックに含まれる。第2タスクは、画像処理タスク、計算タスクなどの、第2処理機器(たとえば、GPU)が実行すべきタスク又は第2処理機器を呼び出して実行させるべきタスクであってもよい。
第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定することは、該第1処理機器は、該第2処理機器が該第1タスクと該第2タスクを並列実行しないと決定することである。つまり、第2処理機器は、該第1タスクと該第2タスクを同時に実行しない。該第1タスクと第2タスクとは、同一または異なる種類のタスクであってもよく、たとえば、同一のタスクの異なるサブタスクであってもよいし、異なるタスクのサブタスクであってもよい。本開示の実施例は、これについて限定しない。第2処理機器は、第2タスクと第1タスクを順に実行する場合、該第1タスクと該第2タスクを実行するとき、キャッシュブロックを同時に使用することは不可能であることを理解されたい。従って、第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合、第2タスクに第2キャッシュブロックを割り当ててもよく、つまり、該第1タスクと該第2タスクとは、一部のキャッシュブロックを再利用してもよい。以下、第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定する実施形態についてさらに詳細に説明する。
いくつかの実施例では、第1処理機器のメモリ割り当てと、第2処理機器のタスク処理とを並列に実行でき、それにより、処理効率を向上させる。例を挙げると、第1処理機器は、第2処理機器による第1タスクの実行中に、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てる。
本願の実施例では、第1処理機器は、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合、該第1タスクと該第2タスクとは、一部のキャッシュブロックを再利用でき、メモリ利用率を向上させることができる。
以下、第2処理機器が第2タスクと第1タスクを順に実行する必要がある任意選択的な例を説明する。
第1処理機器は、第1キャッシュブロックをキャッシュプールに再び入れた後、又は、第1キャッシュブロックをキャッシュプールに再び入れる過程において、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録する。第2タスクにキャッシュブロックを割り当てる過程において、記録された第1タスクの位置する第1操作キューに基づいて、第1タスクと第2タスクとの位置する操作キューが同じであると決定する。第1操作キューは、第2処理機器が実行すべき操作キュー又は第2タスクの位置する操作キューであってもよい。例を挙げると、第1処理機器は、タスクを第2処理機器の第1操作キューに提出し、該第2処理機器は、各タスクが該第1操作キューに提出された順に、該第1操作キューにおけるタスクを実行する。第1操作キューは、第1処理機器が第2処理機器のインターフェースを呼び出して行わせる必要がある操作キューであってもよい。例を挙げると、第1処理機器は、第2処理機器のインターフェースを呼び出して行わせる必要がある操作キューにタスクを追加し、各タスクが該操作キューに追加された順に、第2処理機器のインターフェースを呼び出して各タスクを実行させる。
いくつかの実施例では、第1処理機器が第1キャッシュブロックをキャッシュプールに再び入れる操作と、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録する操作とは、同時にまたは任意の順序で実行することができ、たとえば、第1キャッシュブロックをキャッシュプールに再び入れた後、第1キャッシュブロックの今回のタスク割り当て情報を記録し、該タスク割り当て情報は、第1タスクの位置する操作キューの情報を含む。またたとえば、第1処理機器は、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録した直後、第1キャッシュブロックをキャッシュプールに再び入れる。
そして、第2タスクにキャッシュブロックを割り当てる過程において、第1処理機器は、記録された第1タスクの位置する第1操作キューに基づいて、たとえば、第1キャッシュブロックのタスク割り当て情報を照会することによって、該第1タスクと第2タスクの位置する操作キューが同じであるか否か、すなわち、割り当てすべき第2タスクと第1キャッシュブロックに割り当てられた第1タスクとが同一の操作キューに属するか否かを決定できる。このように、同一の操作キューにおける異なるタスクは、特定の順序に従って実行され、第1タスクと第2タスクとが同一の操作キューに位置することは、第1タスクと第2タスクとを同時に実行しないことを示す。
図3は、本願の実施例に係る別のメモリ管理方法のフローチャートである。図2に示す実施例と同様の点についての説明は簡略化される。
ステップ301において、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てる。
ステップ302において、第1処理機器は、第1キャッシュブロックをキャッシュプールに再び入れ、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録する。
いくつかの実施例では、第1処理機器は、キャッシュプールに再び入れる各々のキャッシュブロックに対応するタスクの位置する操作キューを記録することができる。つまり、第1処理機器は、キャッシュプールにおける、タスクが現在割り当てられている各キャッシュブロックに対応する操作キューを記録することができる。1つのキャッシュブロックに対応する操作キューは、該キャッシュブロックに割り当てられたタスクが位置する操作キューである。
いくつかの実施例では、第1処理機器は、第1キャッシュブロックをキャッシュプールに再び入れる前、該第1キャッシュブロックを解放することができる。例を挙げると、キャッシュプールにおけるキャッシュブロックは、第2処理機器のビデオメモリであり、第1処理機器は、第1キャッシュブロックをキャッシュプールに再び入れる前、メモリアロケータのインターフェースを呼び出すことによって該第1キャッシュブロックを解放する。cudaFreeインターフェースはCUDAにおける、ビデオメモリを解放するインターフェースである。いくつかの実施例では、第1キャッシュブロックを解放するということは、該第1キャッシュブロックをキャッシュプールに入れることであり、しかし、該第1キャッシュブロックの割り当てができないことであり、たとえば、該第1キャッシュブロックの状態を使用不可に設定する。第1キャッシュブロックをキャッシュプールに再び入れるということは、該第1キャッシュブロックの割り当てができることであり、たとえば、該第1キャッシュブロックの状態を使用可能に設定することであってもよい。
ステップ303において、第1処理機器は、記録された第1タスクの位置する第1操作キューに基づいて、第1タスクと第2タスクとの位置する操作キューが同じであると決定した場合、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てる。
ステップ303は、ステップ202の1つの可能な実施形態である。第2キャッシュブロックの少なくとも一部は第1キャッシュブロックに含まれる。
いくつかの実施例では、第1処理機器は、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てる前、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックをキャッシュプールから検索することができる。ステップ303の一実施形態は、以下のとおりである。少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てる。
第1処理機器は、キャッシュプールから、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを検索することは、第1処理機器は、キャッシュプールから、第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索し、第1処理機器は、少なくとも1つの候補キャッシュブロックから、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを検索することであってもよい。例示的には、第1処理機器は、少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てることは、少なくとも1つの候補キャッシュブロックから、現在割り当てられているタスクと第2タスクとを順に実行する1つ又は複数のターゲットキャッシュブロックを選択し、1つ又は複数のターゲットキャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てることであってもよい。例を挙げると、第1処理機器は、キャッシュプールから、第2タスクに必要なキャッシュサイズを満たす10個の候補キャッシュブロックが検索され、該10個の候補キャッシュブロックから、現在割り当てられているタスクと第2タスクを順に実行する候補キャッシュブロックを選択し、ターゲットキャッシュブロックを得、該ターゲットキャッシュブロックから決定された第2キャッシュブロックを該第2タスクに割り当てる。本願の実施例では、候補キャッシュブロックは、第2タスクに必要なキャッシュサイズを満たすキャッシュブロックであり、候補キャッシュブロックには、第2タスクに必要なキャッシュサイズを満たすだけではなく、タスクが現在割り当てられている。
本願の実施例では、記録された第1タスクの位置する第1操作キューに基づいて、該第1タスクと第2タスクとの位置する操作キューが同じであることを正確かつ迅速に決定し、さらに該第2タスクに第2キャッシュブロックを割り当てることができ、メモリ利用率を向上させることができる。
図4は、本願の実施例に係る別のメモリ管理方法のフローチャートである。図2に示す実施例と同様の点についての説明は簡略化される。
ステップ401において、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てる。
ステップ402において、第1処理機器は、第1キャッシュブロックをキャッシュプールに再び入れ、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録する。
ステップ403において、第1処理機器は、キャッシュプールから、第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索する。
第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックが検索できた場合、ステップ404を実行し、第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックが検索できなかった場合、ステップ408を実行する。
ステップ404において、第1処理機器は、少なくとも1つの候補キャッシュブロックから、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを検索する。
タスクが割り当てられている少なくとも1つの候補キャッシュブロックが検索できた場合、ステップ405を実行し、タスクが割り当てられている候補キャッシュブロックが検索できなかった場合、ステップ406を実行する。
ステップ405において、第1処理機器は、少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、少なくとも1つの候補キャッシュブロックから、第2タスクに割り当てられる第2キャッシュブロックを決定する。
例示的には、ステップ405の1つの可能な実施形態は、以下のとおりである。少なくとも1つの候補キャッシュブロックから、現在割り当てられているタスクと第2タスクを順に実行する候補キャッシュブロックを選択し、1つ又は複数のターゲットキャッシュブロック(例えば、上記第1キャッシュブロック)を取得し、1つ又は複数のターゲットキャッシュブロックから、第2タスクに割り当てられる第2キャッシュブロックを決定する。ステップ405は、図2におけるステップ202に対応する。
例示的には、ステップ405の1つの可能な実施形態は、以下のとおりである。第1処理機器は、少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係、及び少なくとも1つの候補キャッシュブロックのサイズに基づいて、少なくとも1つの候補キャッシュブロックから、第2タスクに割り当てられる第2キャッシュブロックを決定する。例を挙げると、少なくとも1つの候補キャッシュブロックから、現在割り当てられているタスクと第2タスクを順に実行する候補キャッシュブロックを選択し、1つ又は複数のターゲットキャッシュブロック(例えば、上記第1キャッシュブロック)を取得し、1つ又は複数のターゲットキャッシュブロックから、第2タスクに必要なキャッシュサイズを満たす第2キャッシュブロックを選択し、第2タスクに第2キャッシュブロックを割り当てる。一例として、第2タスクに必要なキャッシュサイズを満たすターゲットキャッシュブロックが複数ある場合、第2タスクの要求を満たすターゲットキャッシュブロックから、最小のターゲットキャッシュブロックを第2キャッシュブロックとして選択するが、本開示の実施例は、これについて限定しない。
ステップ406において、第1処理機器は、キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つの候補キャッシュブロックから、第2タスクに割り当てられる第3キャッシュブロックを決定する。
ステップ407において、第1処理機器は、第2タスクに第3キャッシュブロックを割り当てる。
ステップ408において、第1処理機器は、キャッシュプールを拡張し、拡張後のキャッシュプールから、第2タスクに割り当てられる第4キャッシュブロックを検索する。
第4キャッシュブロックは、第2タスクに必要なキャッシュサイズを満たすキャッシュブロックであってもよい。例を挙げると、キャッシュプールには、第2タスクの要求を満たすキャッシュブロックがない場合、cudaMallocインターフェースを呼び出して、機器メモリからより多くのビデオメモリを割り当て、キャッシュプールを拡張する。cudaMallocインターフェースは、CUDAにおける、ビデオメモリを割り当てるインターフェースである。第2タスクの要求を満たすとは、第2タスクに必要なキャッシュサイズを満たすことである。
ステップ409において、第1処理機器は、第2タスクに第4キャッシュブロックを割り当てる。
このように、第2タスクに対するキャッシュの割り当てが完了する。いくつかの実施例では、該方法は、さらに、ステップ410を含んでもよい。
ステップ410において、第1処理機器は、キャッシュプールを空にする。
いくつかの実施例では、第1処理機器は、第2処理機器を呼び出してタスクを実行させる必要がない場合、キャッシュプールにおけるキャッシュを第2処理機器の機器メモリに返却することができる。例を挙げると、第1処理機器は、cudaFreeインターフェースを呼び出してキャッシュプールにおけるビデオメモリをGPU(すなわち、第2処理機器)に返却し、すなわち、キャッシュプールを空にする。
本願の実施例では、第1処理機器は、まず、第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを決定し、そして、該少なくとも1つの候補キャッシュブロックから、タスクが現在割り当てられており、かつ割り当てられているタスクと第2タスクとを順に実行する少なくとも1つの候補キャッシュブロックを優先的に選択することによって、第2タスクにその要求を満たすキャッシュブロックを迅速に割り当てることができ、メモリ利用率を向上させることができる。
図5は、本願の実施例に係る別のメモリ管理方法のフローチャートである。
ステップ501において、第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てる。
ステップ502において、第1処理機器は、第1キャッシュブロックをキャッシュプールに再び入れ、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録する。
ステップ503において、第1処理機器は、キャッシュプールから、タスクが現在割り当てられておりかつ第2タスクの要求を満たす候補キャッシュブロックが検索できたか否かを決定する。
タスクが現在割り当てられておりかつ第2タスクの要求を満たす少なくとも1つの候補キャッシュブロックが検索できた場合、ステップ504を実行し、タスクが現在割り当てられておりかつ第2タスクの要求を満たす候補キャッシュブロックが検索できなかった場合、ステップ505を実行する。
ステップ504において、第1処理機器は、少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てる。
ステップ504の実施形態は、ステップ405の実施形態と同じであってもよい。
ステップ505において、第1処理機器は、キャッシュプールから、タスクが現在割り当てられておらずかつ第2タスクの要求を満たすキャッシュブロックが検索できたか否かを決定する。
第1処理機器は、キャッシュプールから、タスクが現在割り当てられておらずかつ第2タスクの要求を満たすキャッシュブロックが検索できた場合、ステップ506を実行し、第1処理機器は、キャッシュプールから、タスクが現在割り当てられておらずかつ第2タスクの要求を満たすキャッシュブロックが検索できなかった場合、ステップ507を実行する。
ステップ506において、第1処理機器は、検索できた、タスクが現在割り当てられておらずかつ第2タスクの要求を満たすキャッシュブロックから、第2タスクに割り当てられる第3キャッシュブロックを決定する。
ステップ507において、第1処理機器は、キャッシュプールを拡張し、拡張後のキャッシュプールから、第2タスクに割り当てられる第4キャッシュブロックを検索する。
本願の実施例では、タスクが現在割り当てられておりかつ第2タスクの要求を満たすキャッシュブロックから優先的に検索し、第2タスクにキャッシュブロックを割り当てることによって、検索速度を向上させることができるとともに、メモリ再利用率を向上させることができる。
以下、図6におけるメモリ管理方法のタイミングチャートを併せて、図2~図5におけるメモリ管理方法についてさらに説明する。図6は、図2~図5におけるメモリ管理方法に対応する、本願の実施例に係るメモリ管理方法のタイミングチャートである。図6に示すように、第1処理機器は、割り当て1、タスク提出1(第1タスクに対応)、解放1、割り当て2、タスク提出2(第2タスクに対応)及び解放2を順に実行する。第2処理機器は、タスク実行1及びタスク実行2を順に実行する。割り当て1は、第1処理機器がタスク1に第1キャッシュブロックを割り当てることを表し、割り当て2は、第1処理機器がタスク2に第2キャッシュブロックを割り当てることを表し、タスク提出1は、第1処理機器が該タスク1を第2処理機器の操作キューに提出することを表し、タスク提出2は、第1処理機器がタスク2を第2処理機器の操作キューに提出することを表し、解放1は、第1処理機器が、メモリアロケータが第1キャッシュブロックを解放して、該第1キャッシュブロックをキャッシュプールに再び入れるように制御することを表し、解放2は、第1処理機器が、メモリアロケータが第2キャッシュブロックを解放して、該第2キャッシュブロックをキャッシュプールに再び入れるように制御することを表し、タスク実行1は、第2処理機器が該タスク1を実行することを表し、タスク実行2は、第2処理機器がタスク2を実行することを表す。図6では、第1処理機器が割り当て1を実行して割り当てられる第1キャッシュブロックと、第1処理機器が割り当て2を実行して割り当てられる第2キャッシュブロックとは、同一であるかまたは重複している。つまり、第2処理機器によって実行される同一操作キューのタスクについて、キャッシュブロックを再利用してもよい。いくつかの実施例では、第2処理機器が第1タスクを実行して使用される第1キャッシュブロックと、第2タスクを実行して使用される第2キャッシュブロックとは、同一であることが理解されたい。例を挙げると、第2処理機器はGPUであり、GPUは、同一の操作キューの計算タスクを実行するときに、同一のブロックのビデオメモリを再利用してもよい。図6に示すように、第1処理機器は、タスク提出1、解放1、割り当て2及びタスク提出2の操作を実行すると同時に、第2処理機器は、タスク1を実行する。第2処理機器は、タスク2を実行するとき、第1処理機器は、解放2の操作を実行する。これから分かるように、第1処理機器は、第2処理機器がタスク1を完了するのを待つことなく、解放1、割り当て2及びタスク提出2の操作を実行する。つまり、第1処理機器と第2処理機器とを同期させる必要がなく、非同期計算モードを実現し、計算性能を向上させることができる。
本願の実施例では、第2処理機器は、タスクが実行される順にキャッシュを再利用でき、第1処理機器と第2処理機器とは、非同期計算モードを実現することができ、メモリ利用率を向上させるとともに、計算効率を向上させることができる。
図7は、本願の実施例に係る別のメモリ管理方法のフローチャートである。図7に示すように、該方法は、ステップ701~ステップ706を含む。
ステップ701において、第1処理機器は、第3タスクにキャッシュプールにおける第5キャッシュブロックを割り当てる。
ステップ701の実施形態は、ステップ301の実施形態と同様であってもよい。
ステップ702において、第1処理機器は、第3タスクを第2処理機器の操作キューに提出する。
いくつかの実施例では、第1処理機器は、第3タスクを第2処理機器の操作キューに提出した直後、第5キャッシュブロックを解放する。
ステップ703において、第1処理機器は、第3タスクが完了したかどうかを検査する。
そうである場合、ステップ704を実行し、そうではない場合、ステップ703を再実行する。いくつかの実施例では、第1処理機器は、第3タスクが完了したかどうかを定期的に(たとえば、5ms、10msなどおきに)検査することができる。第3タスクが完了したことを検査した場合、メモリアロケータを呼び出して第5キャッシュブロックをキャッシュプールに再び入れ、そうではない場合、定期検査を続行する。いくつかの実施例では、ステップ703は、毎回キャッシュブロック(たとえば、第5キャッシュブロック)を解放する前に、第3タスクが完了したかどうかを検査することに置き換えられる。いくつかの実施例では、ステップ703は、毎回キャッシュブロック(たとえば、第5キャッシュブロック)を申し込む前、第3タスクが完了したかどうかを検査することに置き換えられる。第1処理機器は、第3タスクが完了したかどうかを他の方式で検査してもよいが、本願の実施例は限定しない。
ステップ704において、第1処理機器は、第5キャッシュブロックをキャッシュプールに再び入れる。
ステップ705において、第1処理機器は、第4タスクにキャッシュプールにおける第6キャッシュブロックを割り当てする。
第5キャッシュブロックと、第6キャッシュブロックとは、重複していない。
ステップ706において、第1処理機器は、第4タスクを第2処理機器の操作キューに提出する。
第2処理機器は、第5キャッシュブロックを占有して第3タスクを実行し、第6キャッシュブロックを占有して第4タスクを実行することを理解されたい。
本願の実施例では、第1処理機器は、第2処理機器におけるタスクが完了したか否かを定期的に検査し、いずれかの計算タスクが完了すると、第2処理機器におけるすべての計算タスクが完了するのを待つことなく、該いずれかの計算タスクに対応するキャッシュを解放することによって、処理効率を向上させることができる。
以下、図8におけるメモリ管理方法のタイミングチャートを併せて、図7のメモリ管理方法についてさらに説明する。図8は、図7におけるメモリ管理方法に対応する、本願の実施例に係るメモリ管理方法のタイミングチャートである。図8に示すように、第1処理機器は、割り当て1、タスク提出1(第3タスクに対応)、解放1、割り当て2、タスク提出2(第4タスクに対応)及び解放2を順に実行し、第2処理機器は、タスク実行1及びタスク実行2を順に実行する。図8では、割り当て1は、第1処理機器がタスク1にキャッシュプールにおける第5キャッシュブロックを割り当てることを表し、割り当て2は、第1処理機器がタスク2にキャッシュプールにおける第6キャッシュブロックを割り当てることを表し、タスク提出1は、第1処理機器が該タスク1を第2処理機器の操作キューに提出することを表し、タスク提出2は、第1処理機器が該タスク2を第2処理機器の操作キューに提出することを表し、解放1は、第1処理機器が第5キャッシュブロックを解放することを表し、解放2は、第1処理機器が第6キャッシュブロックを解放することを表し、タスク実行1は、第2処理機器が該タスク1を実行することを表し、タスク実行2は、第2処理機器がタスク2を実行することを表す。図8では、第1処理機器が割り当て1を実行して割り当てられる第5キャッシュブロックと、割り当て2を実行して割り当てられる第6キャッシュブロックとは、いかなる同一のキャッシュもない。つまり、第2処理機器によって実行される同一操作キューの計算タスクについて、キャッシュブロックを再利用することはでない。図6のタイミングチャートについての説明と比較すると、図8のタイミングチャートにおける解放1の操作は、第1処理機器が第5キャッシュブロックを解放することである一方、図6のタイミングチャートにおける解放1の操作は、第1処理機器が第1キャッシュブロックを解放し、該第1キャッシュブロックをキャッシュプールに再び入れることである。図8のタイミングチャートにおける解放2の操作は、第1処理機器が第6キャッシュブロックを解放することである一方、図6のタイミングチャートにおける解放2の操作は、第1処理機器が第2キャッシュブロックを解放し、該第2キャッシュブロックをキャッシュプールに再び入れることである。図7のメモリ管理方法では、第1処理機器が、いずれかの計算タスクを第2処理機器の操作キューに提出した後、該いずれかの計算タスクが第2処理機器によって完了されたかどうかを定期的に検査し、該いずれかの計算タスクが完了されると、該いずれかの計算タスクが占有するメモリ空間をキャッシュプールに再び入れる。つまり、第1処理機器は、ある計算タスクを実行するキャッシュブロックを第2処理機器に割り当て、該計算タスクが完了されるまで、該キャッシュブロックをキャッシュプールに再び入れる。図8に示すように、第1処理機器は、タスク提出1、解放1、割り当て2及びタスク2の操作を実行すると同時に、第2処理機器は、タスク1を実行する。第2処理機器は、タスク2を実行するとき、第1処理機器は、解放2の操作を実行する。これから分かるように、第1処理機器は、第2処理機器がタスク1を完了するのを待つことなく、解放1、割り当て2及びタスク提出2の操作を実行する。つまり、第1処理機器と第2処理機器とを同期させる必要がなく、非同期計算モードを実現し、計算性能を向上させることができる。
本願の実施例では、第1処理機器と第2処理機器は、非同期計算モードを実現することができ、メモリ利用率を向上させることができる。
以下、上述した実施例に係るメモリ管理方法を実現できるデータ処理装置の構造について説明する。
図9は、本願の実施例に係るデータ処理装置の構造模式図であり、図9に示すように、該データ処理装置は、
キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるためのメモリ割り当てユニット901と、
第2処理機器が第2タスクと第1タスクを順に実行する必要があるか否かを決定するための処理ユニット902とを含み、
メモリ割り当てユニット901は、さらに、第2処理機器が第2タスクと第1タスクを順に実行する必要があると処理ユニットが決定した場合、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てるために用いられ、前記第2キャッシュブロックの少なくとも一部は第1キャッシュブロックに含まれる。
キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるためのメモリ割り当てユニット901と、
第2処理機器が第2タスクと第1タスクを順に実行する必要があるか否かを決定するための処理ユニット902とを含み、
メモリ割り当てユニット901は、さらに、第2処理機器が第2タスクと第1タスクを順に実行する必要があると処理ユニットが決定した場合、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てるために用いられ、前記第2キャッシュブロックの少なくとも一部は第1キャッシュブロックに含まれる。
処理ユニットとメモリ割り当てユニットとは、同一のユニットであってもよいし、2つの独立したユニットであってもよい。いくつかの可能な実施の形態では、処理ユニットは、CPUなどのプロセッサであり、メモリ割り当てユニットはハードウェアである。いくつかの可能な実施の形態では、処理ユニットは、CPUなどのプロセッサであり、メモリ割り当てユニットの機能は、プロセッサにより実行されるソフトウェア又はプログラムによって実現される。つまり、処理ユニットの機能及びメモリ割り当てユニットの機能は、いずれも、プロセッサによって実現される。
1つの可能な実施形態では、処理ユニット902は、さらに、第1タスクを第2処理機器に送信するために用いられる、メモリ割り当てユニット901は、さらに、第1タスクを第2処理機器に送信したことに応じて、第1キャッシュブロックをキャッシュプールに再び入れるために用いられる。
1つの可能な実施形態では、処理ユニット902は、さらに、第1キャッシュブロックに対応する第1タスクの位置する第1操作キューを記録するために用いられ、処理ユニット902は、記録された第1タスクの位置する第1操作キューに基づいて、第1タスクと第2タスクとの位置する操作キューが同じであると決定するために用いられる。
1つの可能な実施形態では、メモリ割り当てユニット901は、さらに、第2処理機器による第1タスクの実行中に、キャッシュプールの第2キャッシュブロックを第2タスクに割り当てるために用いられる。
1つの可能な実施形態では、メモリ割り当てユニット901は、さらに、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックをキャッシュプールから検索するために用いられ、メモリ割り当てユニット901は、処理ユニットが少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合、少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てるために用いられる。
1つの可能な実施形態では、メモリ割り当てユニット901は、キャッシュプールから、第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索し、少なくとも1つの候補キャッシュブロックから、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを検索するために用いられる。
1つの可能な実施形態では、メモリ割り当てユニット901は、処理ユニットが少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと第2タスクとの実行順序関係に基づいて、第2処理機器が第2タスクと第1タスクを順に実行する必要があると決定した場合、少なくとも1つの候補キャッシュブロックのサイズに基づいて、少なくとも1つの候補キャッシュブロックから決定された第2キャッシュブロックを第2タスクに割り当てるために用いられる。
1つの可能な実施形態では、メモリ処理ユニット901は、さらに、処理ユニットが少なくとも1つの候補キャッシュブロックが第2タスクの要求を満たすキャッシュブロックを含まないと決定した場合、キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つのキャッシュブロックから、第2タスクに割り当てられるターゲットキャッシュブロックを決定するために用いられる。
1つの可能な実施形態では、メモリ処理ユニット901は、さらに、キャッシュプールから、第2タスクの要求を満たすキャッシュブロックが検索できなかった場合、キャッシュプールを拡張し、拡張後のキャッシュプールから、第2タスクに割り当てられるターゲットキャッシュブロックを検索するために用いられる。
図10は、本願の実施例に係る別のデータ処理装置の構造模式図であり、図10に示すように、該データ処理装置は、第1プロセッサ1001、第2プロセッサ1002、及びメモリ1003を含み、メモリは、命令及びデータを記憶するために用いられ、第1プロセッサは、メモリに記憶された命令を実行し、第1プロセッサに上記いずれかの実施例に記載のメモリ管理方法を実行させるために用いられ、第2処理機器は、第1処理機器により割り当てられたキャッシュブロックを用いて、第1プロセッサにより送信されたタスクを実行するために用いられる。メモリ1003は、第2プロセッサ1002により使用される機器メモリ、及び第1プロセッサ1001のメモリを含むことができる。例示的には、第1処理機器は、CPUであり、第2処理機器はGPUであり、メモリ1003は、GPUのビデオメモリを含む。
本願の実施例は、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体をさらに提供し、コンピュータプログラムがプロセッサにより実行されると、上記いずれかの実施例に記載のメモリ管理方法を実現する。該コンピュータ読み取り可能な記憶媒体は、非一時的なコンピュータ読み取り可能な記憶媒体を含む。
本願の実施例は、命令を含むコンピュータプログラム製品をさらに提供し、コンピュータ上で実行されると、コンピュータに上記実施例に係るメモリ管理方法を実行させる。
本願の実施例は、メモリ及び第1プロセッサを含む電子機器をさらに提供し、前記メモリは、命令を記憶するために用いられ、前記第1プロセッサは、前記メモリに記憶された命令を実行し、前記第1プロセッサに上記いずれかの実施例に記載のメモリ管理方法を実行させるために用いられる。前記電子機器は、第2プロセッサをさらに含むことができ、前記第2プロセッサは、前記第1プロセッサにより割り当てられたキャッシュブロックを用いて、前記第1プロセッサにより送信されたタスクを実行するために用いられる。
本願の実施例は、データインタフェース及び第1態様に記載の第1処理機器を含むチップを提供し、前記第1処理機器は、上記いずれかの実施例に記載のメモリ管理方法を実行するために用いられる。
上記したものは、本出願の具体的な実施形態に過ぎず、本出願の保護範囲はこれに限定されず、当業者は本出願に開示された技術的範囲内で、様々な等価の修正や置換を容易に想到することができ、これらの修正や置換はいずれも本出願の保護範囲内に含まれるべきである。したがって、本願の保護範囲は特許請求の範囲を基準とすべきである。
Claims (21)
- メモリ管理方法であって、
第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップと、
前記第1処理機器は、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定した場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップであって、前記第2キャッシュブロックの少なくとも一部が前記第1キャッシュブロックに含まれるステップと、を含む、
ことを特徴とするメモリ管理方法。 - 前記第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップの後に、
前記第1処理機器は、前記第1タスクを前記第2処理機器に送信したことに応じて、前記第1キャッシュブロックを前記キャッシュプールに再び入れるステップをさらに含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1処理機器は、キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるステップの後に、
前記第1処理機器は、前記第1キャッシュブロックに対応する前記第1タスクの位置する第1操作キューを記録するステップをさらに含み、
前記第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定するステップは、
前記第1処理機器は、記録された前記第1タスクの位置する前記第1操作キューに基づいて、前記第1タスクと前記第2タスクとの位置する操作キューが同じであると決定するステップを含む、
ことを特徴とする請求項1又は2に記載の方法。 - 前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップは、
前記第1処理機器は、前記第2処理機器による前記第1タスクの実行中に、前記キャッシュプールの前記第2キャッシュブロックを前記第2タスクに割り当てるステップを含む、
ことを特徴とする請求項1~3のいずれかに記載の方法。 - 前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップの前に、
前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するステップをさらに含み、
前記第1処理機器は、第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があると決定した場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるステップは、
前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるステップを含む、
ことを特徴とする請求項1~4のいずれかに記載の方法。 - 前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するステップは、
前記第1処理機器は、前記キャッシュプールから、前記第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索するステップと、
前記第1処理機器は、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記少なくとも1つの候補キャッシュブロックから検索するステップと、を含む、
ことを特徴とする請求項5に記載の方法。 - 前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるステップは、
第1処理機器は、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係、及び前記少なくとも1つの候補キャッシュブロックのサイズに基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるステップを含む、
ことを特徴とする請求項5又は6に記載の方法。 - 前記第1処理機器は、前記少なくとも1つの候補キャッシュブロックが前記第2タスクの要求を満たすキャッシュブロックを含まないと決定した場合、前記キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つのキャッシュブロックから、前記第2タスクに割り当てられるターゲットキャッシュブロックを決定するステップをさらに含む、
ことを特徴とする請求項5~7のいずれかに記載の方法。 - 前記第1処理機器は、前記キャッシュプールから、前記第2タスクの要求を満たすキャッシュブロックが検索できなかった場合、前記キャッシュプールを拡張するステップと、
前記第1処理機器は、拡張後の前記キャッシュプールから、前記第2タスクに割り当てられるターゲットキャッシュブロックを検索するステップと、をさらに含む、
ことを特徴とする請求項1~8のいずれかに記載の方法。 - データ処理装置であって、
キャッシュプールの第1キャッシュブロックを第1タスクに割り当てるためのメモリ割り当てユニットと、
第2処理機器が第2タスクと前記第1タスクとを順に実行する必要があるか否かを決定するための処理ユニットとを含み、
前記メモリ割り当てユニットは、さらに、前記第2処理機器が前記第2タスクと前記第1タスクとを順に実行する必要があることが前記処理ユニットによって決定された場合、前記キャッシュプールの第2キャッシュブロックを前記第2タスクに割り当てるために用いられ、第2キャッシュブロックの少なくとも一部は前記第1キャッシュブロックに含まれる、
ことを特徴とするデータ処理装置。 - 前記処理ユニットは、さらに、前記第1タスクを前記第2処理機器に送信するために用いられ、
前記メモリ割り当てユニットは、さらに、前記第1タスクを前記第2処理機器に送信したことに応じて、前記第1キャッシュブロックを前記キャッシュプールに再び入れるために用いられる、
ことを特徴とする請求項10に記載のデータ処理装置。 - 前記処理ユニットは、さらに前記第1キャッシュブロックに対応する前記第1タスクの位置する第1操作キューを記録するために用いられ、
前記処理ユニットは、記録された前記第1タスクの位置する前記第1操作キューに基づいて、前記第1タスクと前記第2タスクとの位置する操作キューが同じであると決定するために用いられる、
ことを特徴とする請求項10又は11に記載のデータ処理装置。 - 前記メモリ割り当てユニットは、さらに、前記第2処理機器による前記第1タスクの実行中に、前記キャッシュプールの前記第2キャッシュブロックを前記第2タスクに割り当てるために用いられる、
ことを特徴とする請求項10~12のいずれかに記載のデータ処理装置。 - 前記メモリ割り当てユニットは、さらに、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記キャッシュプールから検索するために用いられ、
前記メモリ割り当てユニットは、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記第2処理機器が前記第2タスクと前記第1タスクとを順に実行する必要があると処理ユニットが決定した場合、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるために用いられる、
ことを特徴とする請求項10~13のいずれかに記載のデータ処理装置。 - 前記メモリ割り当てユニットは、前記キャッシュプールから、前記第2タスクに必要なキャッシュサイズを満たす少なくとも1つの候補キャッシュブロックを検索し、タスクが現在割り当てられている少なくとも1つの候補キャッシュブロックを前記少なくとも1つの候補キャッシュブロックから検索するために用いられる、
ことを特徴とする請求項14に記載のデータ処理装置。 - 前記メモリ割り当てユニットは、前記少なくとも1つの候補キャッシュブロックに現在割り当てられているタスクと前記第2タスクとの実行順序関係に基づいて、前記第2処理機器が前記第2タスクと前記第1タスクとを順に実行する必要があると前記処理ユニットが決定した場合、前記少なくとも1つの候補キャッシュブロックのサイズに基づいて、前記少なくとも1つの候補キャッシュブロックから決定された前記第2キャッシュブロックを前記第2タスクに割り当てるために用いられる、
ことを特徴とする請求項14又は15に記載のデータ処理装置。 - 前記メモリ処理ユニットは、さらに、前記少なくとも1つの候補キャッシュブロックが前記第2タスクの要求を満たすキャッシュブロックを含まないことが処理ユニットによって決定された場合、前記キャッシュプールに含まれる、タスクが現在割り当てられていない少なくとも1つのキャッシュブロックから、前記第2タスクに割り当てられるターゲットキャッシュブロックを決定するために用いられる、
ことを特徴とする請求項14~16のいずれかに記載のデータ処理装置。 - 前記メモリ処理ユニットは、さらに、前記キャッシュプールから、前記第2タスクの要求を満たすキャッシュブロックが検索できなかった場合、前記キャッシュプールを拡張し、拡張後の前記キャッシュプールから、前記第2タスクに割り当てられるターゲットキャッシュブロックを検索するために用いられる、
ことを特徴とする請求項10~17のいずれかに記載のデータ処理装置。 - メモリと第1プロセッサとを含む電子機器であって、前記メモリは、命令を記憶するために用いられ、前記第1プロセッサは、前記メモリに記憶された命令を実行し、請求項1~9のいずれかに記載の方法を実行させるために用いられる、
ことを特徴とする電子機器。 - 前記電子機器は、第2プロセッサをさらに含み、前記第2プロセッサは、前記第1プロセッサによって割り当てられたキャッシュブロックを用いて、前記第1プロセッサによって送信されたタスクを実行するために用いられる、
ことを特徴とする請求項19に記載の電子機器。 - コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
前記コンピュータプログラムは、プログラム命令を含み、前記プログラム命令がプロセッサによって実行されると、前記プロセッサに請求項1~9のいずれかに記載の方法を実行させる、ことを特徴とする記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010561183.X | 2020-06-18 | ||
CN202010561183.XA CN111736998A (zh) | 2020-06-18 | 2020-06-18 | 内存管理方法和相关产品 |
PCT/CN2021/079390 WO2021253875A1 (zh) | 2020-06-18 | 2021-03-05 | 内存管理方法和相关产品 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022539956A true JP2022539956A (ja) | 2022-09-14 |
Family
ID=72649904
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021570921A Withdrawn JP2022539956A (ja) | 2020-06-18 | 2021-03-05 | メモリ管理方法及び関連製品 |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP2022539956A (ja) |
KR (1) | KR20220010036A (ja) |
CN (1) | CN111736998A (ja) |
TW (1) | TWI783401B (ja) |
WO (1) | WO2021253875A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111736998A (zh) * | 2020-06-18 | 2020-10-02 | 上海商汤智能科技有限公司 | 内存管理方法和相关产品 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7353339B2 (en) * | 2003-12-24 | 2008-04-01 | Intel Corporation | Adaptive caching |
AU2011213795A1 (en) * | 2011-08-19 | 2013-03-07 | Canon Kabushiki Kaisha | Efficient cache reuse through application determined scheduling |
CN109271327B (zh) * | 2017-07-18 | 2020-11-27 | 杭州海康威视数字技术股份有限公司 | 内存管理方法及装置 |
CN110308982B (zh) * | 2018-03-20 | 2021-11-19 | 华为技术有限公司 | 一种共享内存复用方法及装置 |
CN108829610B (zh) * | 2018-04-02 | 2020-08-04 | 浙江大华技术股份有限公司 | 一种神经网络前向计算过程中的内存管理方法及设备 |
US10509727B1 (en) * | 2018-09-10 | 2019-12-17 | Mediatek Inc. | Method and apparatus for performing task-level cache management in electronic device |
CN111736998A (zh) * | 2020-06-18 | 2020-10-02 | 上海商汤智能科技有限公司 | 内存管理方法和相关产品 |
-
2020
- 2020-06-18 CN CN202010561183.XA patent/CN111736998A/zh active Pending
-
2021
- 2021-03-05 KR KR1020217042198A patent/KR20220010036A/ko active Search and Examination
- 2021-03-05 JP JP2021570921A patent/JP2022539956A/ja not_active Withdrawn
- 2021-03-05 WO PCT/CN2021/079390 patent/WO2021253875A1/zh active Application Filing
- 2021-03-09 TW TW110108324A patent/TWI783401B/zh active
Also Published As
Publication number | Publication date |
---|---|
WO2021253875A1 (zh) | 2021-12-23 |
KR20220010036A (ko) | 2022-01-25 |
CN111736998A (zh) | 2020-10-02 |
TWI783401B (zh) | 2022-11-11 |
TW202201231A (zh) | 2022-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4769484B2 (ja) | 仮想計算機をマイグレーションするための方法およびシステム | |
US9135060B2 (en) | Method and apparatus for migrating task in multicore platform | |
CN106371894B (zh) | 一种配置方法、装置和数据处理服务器 | |
JP5516744B2 (ja) | スケジューラ、マルチコアプロセッサシステムおよびスケジューリング方法 | |
CA2722670C (en) | Scheduler instances in a process | |
JP5366552B2 (ja) | 集中特化したマルチタスク及びマルチフロー処理をリアルタイム実行する手法及びシステム | |
US20110119674A1 (en) | Scheduling method, scheduling apparatus and multiprocessor system | |
WO2014090008A1 (zh) | 一种任务处理的方法和虚拟机 | |
US8024726B2 (en) | System for correct distribution of hypervisor work | |
JP5356925B2 (ja) | ロックをスレッドに割り当てる方法、装置 | |
US8291426B2 (en) | Memory allocators corresponding to processor resources | |
JP2012512452A (ja) | マルチプロセス間のバリアの物理マネージャ | |
KR20110075297A (ko) | 병렬도를 고려한 병렬 처리 장치 및 방법 | |
JP2015516633A (ja) | 装置、システム及びメモリ管理の方法 | |
US9063805B2 (en) | Method and system for enabling access to functionality provided by resources outside of an operating system environment | |
CN111158855B (zh) | 一种基于微容器及云函数的轻量虚拟化裁剪方法 | |
KR20070090649A (ko) | 멀티 코어 시스템에서 협력적 스케줄링을 제공하는 장치 및방법 | |
JP2022539956A (ja) | メモリ管理方法及び関連製品 | |
CN105677481B (zh) | 一种数据处理方法、系统及电子设备 | |
JP6007516B2 (ja) | リソース配分システム、リソース配分方法、及びリソース配分プログラム | |
JP2002259146A (ja) | アプリケーション実行装置及び方法 | |
US20090187911A1 (en) | Computer device with reserved memory for priority applications | |
CN114816777A (zh) | 命令处理装置、方法、电子设备以及计算机可读存储介质 | |
CN111310638A (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
JP5776813B2 (ja) | マルチコアプロセッサシステム、マルチコアプロセッサシステムの制御方法および制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220126 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20221223 |