WO2022028165A1 - 缓存管理方法、终端以及存储介质 - Google Patents

缓存管理方法、终端以及存储介质 Download PDF

Info

Publication number
WO2022028165A1
WO2022028165A1 PCT/CN2021/104026 CN2021104026W WO2022028165A1 WO 2022028165 A1 WO2022028165 A1 WO 2022028165A1 CN 2021104026 W CN2021104026 W CN 2021104026W WO 2022028165 A1 WO2022028165 A1 WO 2022028165A1
Authority
WO
WIPO (PCT)
Prior art keywords
clock
sampling
sampling clock
frequency control
control word
Prior art date
Application number
PCT/CN2021/104026
Other languages
English (en)
French (fr)
Inventor
刘洪霞
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Publication of WO2022028165A1 publication Critical patent/WO2022028165A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5022Mechanisms to release resources

Definitions

  • the present application relates to the field of computer technology, and in particular, to a cache management method, a terminal device, and a storage medium.
  • the processor When the processor reads data, it will first look for the required data from the cache. If it is found, it will be executed directly. If it cannot be found, it will be searched from the non-cache area. Because caches run much faster than non-cached areas, caches help the processor run faster. However, the cost of caching is very expensive. With more and more application software installed on terminal devices, more and more useless data is stored in the cache. Therefore, a scientific caching mechanism needs to be developed to achieve a balance between performance and cost.
  • Embodiments of the present application provide a cache management method, a terminal device, and a storage medium.
  • an embodiment of the present application provides a cache management method, the method includes: when it is determined that a terminal switches to a first application scenario, extracting dedicated hotspot data corresponding to the first application scenario from a non-cache area, and storing The dedicated hotspot data is loaded into the cache; when it is determined that the terminal switches from the first application scenario to the second application scenario, the data corresponding to the first application scenario is released from the cache according to a preset release policy. the dedicated hotspot data.
  • an embodiment of the present application provides a terminal, including a memory, a processor, and a computer program stored in the memory and running on the processor, and the processor implements the above-mentioned claims when executing the program The steps of the cache management method.
  • an embodiment of the present application provides a computer-readable storage medium storing a computer program, and when the program is executed by a processor, implements the steps of the above-mentioned cache management method.
  • the embodiments of the present application include: when it is determined that the terminal switches to the first application scenario, extracting dedicated hotspot data corresponding to the first application scenario from a non-cache area, and loading the dedicated hotspot data into the cache; The terminal switches from the first application scenario to the second application scenario, and releases the dedicated hotspot data corresponding to the first application scenario from the cache according to a preset release policy.
  • the dedicated hotspot data matching the first application scenario is preloaded into the cache, so that the usage rate of the cache can be improved, and the data read by the processor when running the application can be saved.
  • the overhead of the processor improves the running speed of the processor in the first application scenario.
  • the dedicated hotspot data corresponding to the first application scenario is released from the cache to reduce the occupation of the cache space, so as to achieve a balance between performance and cost. balanced.
  • FIG. 1 is a schematic flowchart of a cache management method provided by an embodiment of the present application.
  • Fig. 2a is a schematic flow chart of sub-steps of step S110 in Fig. 1;
  • Fig. 2b is a schematic flow chart of sub-steps of step S121 in Fig. 1;
  • FIG. 3 is a schematic flowchart of a cache management method provided by another embodiment of the present application.
  • FIG. 4 is a schematic flow chart of sub-steps of step S220 in FIG. 3;
  • FIG. 5 is a schematic flow chart of sub-steps of step S221 in FIG. 4;
  • FIG. 6 is a schematic flowchart of a cache management method provided by another embodiment of the present application.
  • FIG. 7 is a schematic flowchart of a cache management method provided by another embodiment of the present application.
  • FIG. 8 is a schematic diagram of an acquisition process of shared hotspot data provided by an embodiment of the present application.
  • FIG. 9 is a schematic flowchart of a cache management method provided by another embodiment of the present application.
  • FIG. 10 is a schematic flowchart of a cache management method provided by another embodiment of the present application.
  • FIG. 11 is a schematic structural diagram of a terminal provided by an embodiment of the present application.
  • a, b, and c may represent: a, b, c, a and b, a and c, b and c or a and b and c, where a, b, c may be single, or Can be multiple.
  • the cache management method provided by the embodiments of the present application can be applied to mobile phones, tablet computers, wearable devices, vehicle-mounted devices, augmented reality (AR)/virtual reality (VR) devices, notebook computers, and ultra-mobile personal computers (ultra mobile personal computers).
  • augmented reality (AR)/virtual reality (VR) devices notebook computers
  • ultra-mobile personal computers ultra mobile personal computers
  • -mobi lepersonalcomputer, UMPC netbook
  • personal digital assistant personal digital assistant
  • PDA personal digital assistant
  • other terminal equipment can also be applied to smart home appliances such as TV, speaker, washing machine, the embodiment of the application does not make any restrictions on the specific type of the terminal.
  • FIG. 1 shows a flowchart of a cache management method provided by an embodiment of the present application. As shown in Figure 1, the method includes the following steps:
  • a terminal is usually installed with multiple applications. Since the data that different types of applications need to access when running are quite different, this embodiment of the present application divides multiple application scenarios according to the types of applications installed on the terminal. Each application type corresponds to an application scenario. For example, video applications are set as the first application scenario, game applications are set as the second application scenario, and online shopping applications are set as the third application scenario.
  • the current application scenario of the terminal can be determined according to the user's operation.
  • the Android daemon process can be used to monitor the user's operation of opening an application and determine which application the user has opened, so as to determine the current application scenario of the terminal.
  • the first application scenario described in this embodiment of the present application may refer to any one of multiple application scenarios divided by the terminal.
  • the dedicated hotspot data corresponding to the current first application scenario is extracted from the non-cache area, and loaded into the cache for buffering, so as to realize preloading of the hotspot data, so as to improve the cache performance.
  • the usage rate and the hit rate of the cache during the application running process can be avoided to avoid the processor frequently reading data from the non-cache area and increase the I/O overhead, and improve the running speed and performance of the processor.
  • the dedicated hotspot data described in this embodiment of the present application is hotspot data corresponding to a specified application scenario. For example, if data A is data that the terminal has previously accessed multiple times in the first application scenario, then data A may be used as the data corresponding to the first application scenario.
  • the extraction of dedicated hotspot data corresponding to the first application scenario from the non-buffering area in step S110 may be implemented through the following sub-steps S111 and S112.
  • S112 Extract the dedicated hotspot data corresponding to the first application scenario from the non-cache area.
  • At least one configuration list may be preset, and the mapping relationship between the dedicated hotspot data and the application scenario is recorded through the configuration list.
  • each configuration list corresponds to an application scenario
  • each configuration list includes a data identifier and a data address of the dedicated hotspot data.
  • only one configuration list is set, and the configuration list includes the data identifier, data address and corresponding application scenario of the dedicated hotspot data.
  • the configuration list is searched for the The dedicated hotspot data corresponding to the first application scenario, and according to the data address in the configuration list, the dedicated hotspot data corresponding to the first application scenario is extracted from the non-cache area.
  • the cache described in the embodiments of the present application is a storage space with a faster reading speed than a non-cache area.
  • the cache may refer to RAM (Random Access Memory, random access memory), and the non-cache area may refer to ROM (Read-Only Memory, read-only memory); in some embodiments, the cache may refer to SRAM (Static RAM, static random access memory), the non-cache area may refer to DRAM (Dynamic RAM, dynamic random access memory); in other embodiments, the cache may refer to the memory, and the non-cache area may refer to the disk.
  • the embodiments of the present application do not specifically limit the storage devices referred to by the cache and non-cache areas.
  • the dedicated hotspot data corresponding to the first application scene is released from the cache to avoid excessive data that is not commonly used. Occupy the cache space in order to load the dedicated hotspot data corresponding to the second application scenario.
  • step S120 releasing the dedicated hotspot data corresponding to the first application scenario from the cache according to a preset release strategy may include:
  • the terminal When the terminal switches from the first application scenario to the second application scenario, it determines whether the first application scenario is a very-used scenario, and if it is determined that the first application scenario is a very-used scenario, it releases the dedicated application corresponding to the first application scenario from the cache. Hotspot data to avoid excessive use of cache space for data that is not commonly used.
  • FIG. 3 is a flowchart of a cache management method provided by an embodiment of the present application. As shown in FIG. 3 , the method includes the following steps:
  • step S220 determine that the terminal switches from the first application scene to the second application scene, and determine the category of the first application scene, if it is determined that the first application scene is a very common scene, perform step S230; if it is determined that the first application scene is a common scene, directly Execute step S240;
  • S240 Extract the dedicated hotspot data corresponding to the second application scenario from the non-cache area, and load the dedicated hotspot data corresponding to the second application scenario into the cache.
  • the terminal when the terminal switches from the first application scenario to the second application scenario, it determines whether the first application scenario is an extremely useful scenario, and if it is determined that the first application scenario is an extremely useful scenario, it is released from the cache Dedicated hotspot data corresponding to the first application scenario, to avoid excessive occupation of cache space by infrequent data; if it is determined that the first application scenario is a commonly used scenario, the dedicated hotspot data corresponding to the first application scenario is not released, so that The dedicated hotspot data corresponding to the application scenario is kept in the cache to avoid excessive memory I/O overhead caused by multiple loading of the hotspot data of the first application scenario in the future.
  • step S220 the process of determining the category of the first application scenario specifically includes:
  • usage heat value of the application scenario represents the probability of using the application scenario, and the larger the usage heat value of the application scenario, the higher the probability of being used.
  • S222 Determine, according to the usage heat value, that the first application scenario is a common scenario or a very useful scenario.
  • the ranking positions of the first application scenario in the multiple application scenarios may be determined in descending order of the usage heat value.
  • the current terminal device is divided into M application scenarios, and the M application scenarios are sorted according to the usage heat value of each application scenario. lowest.
  • the sorting position of the first application scenario is in the top N, it is determined that the first application scenario is a common scenario, otherwise it is a very common scenario, where N is an integer greater than 0, and N is less than M.
  • N may be a preset value, and among the M application scenarios, N application scenarios with higher ranking by heat value are selected as common scenarios, and the rest are very useful scenarios.
  • step S221 the process of acquiring the usage heat value of the first application scenario specifically includes:
  • S2212 Perform a weighted operation according to the number of times of use and the time point of use to obtain a use heat value of the first application scenario.
  • the usage information of each application scenario can be recorded by setting the scenario list, and in step S2211, the usage information of the first application scenario can be read from the scenario list.
  • This example uses a weighted operation based on the number of times of use and the time of use to determine the use heat value, and then divides the commonly used application scenarios according to the use heat value.
  • the division method of this example can be divided more accurately, which can better suit the user's usage needs. For example, a user may frequently use a certain application scenario within a certain period of time, so that the cumulative number of uses of this application scenario is higher than that of other application scenarios, but the last use time point of this application scenario is far away from the current time point. It is obviously inappropriate to judge the application scenario as a common scenario. For another example, the user may currently switch multiple application scenarios in succession.
  • the usage time is used as the basis for judging common scenarios
  • the recently switched application scenarios will replace the previously commonly used application scenarios, but the user may only use this scenario currently.
  • Several application scenarios are used once and will not be used in the future. It is obviously inappropriate to judge these application scenarios as common scenarios.
  • FIG. 6 is a flowchart of a cache management method provided by an embodiment of the present application. As shown in FIG. 6 , the method includes the following steps:
  • S302 Receive the access request of the terminal in the first application scenario and determine the type of the access request; when receiving the access request of the terminal to the dedicated hotspot data in the first application scenario, perform step S303a; Step S303b is performed when an access request is made to non-hotspot data in the application scenario;
  • S303b take the non-hotspot data as new dedicated hotspot data, and record the access information of the new dedicated hotspot data;
  • step S304 determine whether the terminal switches from the first application scenario to the second application scenario; if the determination result is yes, go to step S305; if the determination result is no, return to step S302;
  • step S305 determine the category of the first application scenario; if it is determined that the first application scenario is an uncommon scenario, step S306 is performed; if it is determined that the first application scenario is a frequently used scenario, step S307 is directly performed;
  • S307 Extract the dedicated hotspot data corresponding to the second application scenario from the non-cache area, and load the dedicated hotspot data corresponding to the second application scenario into the cache.
  • the access request in step S302 represents the access request of the processor to the required data in the first application scenario. If the data requested by the access request is the dedicated hotspot data that has been preloaded into the cache, the access information of the dedicated hotspot data is updated.
  • the access information of the dedicated hotspot data may be recorded through a configuration list, where the access information may include the number of times of access, the time of access, and the like.
  • the form of the configuration list can refer to Table 1 (the data address is not shown in the table).
  • the dedicated hotspot data corresponding to the current first application scenario that has been preloaded into the cache includes data A, B , C, D, and E, where the access information of data A includes: the number of accesses 8, and the access time point 2020/5/68:00.
  • the processor requests access to data A in this first application scenario, and the time point for accessing data A is 2020/5/6 13:00, then according to this access request to data A, the corresponding access to data A is The access information is updated: the number of visits is increased by 1, so that the number of visits is updated to 9, and the access time point is updated to the latest access time point 2020/5/6 13:00, and the updated data A is shown in Table 2.
  • the data requested by the access request is non-hot data that has not been loaded into the cache, it is necessary to search for the non-hot data in the non-cache area.
  • the requested non-hot data is found, load the non-hot data into the cache. , and establish a corresponding relationship between the non-hotspot data and the current first application scenario, thereby updating the non-hotspot data to the dedicated hotspot data corresponding to the first application scenario, and simultaneously record the access information of the new dedicated hotspot data.
  • the processor requests access to data F, which has not been loaded into the cache before.
  • the processor After finding the data F from the non-cache area, the processor loads the data F into the cache and uses it as The new dedicated hotspot data is added to the configuration list corresponding to the first application scenario, and the access information of the data F is recorded in the configuration list. For details, see Table 2.
  • the buffer management method of this embodiment of the present application further includes the steps shown in FIG. 7 :
  • the access information of the dedicated hotspot data include at least one of the number of visits and the time of the visit;
  • S403 Clear the dedicated hotspot data according to the access heat value of the dedicated hotspot data, so that the total capacity of the dedicated hotspot data is lower than the first upper limit value.
  • the data capacity of each dedicated hotspot data may be recorded in the configuration list, and the total capacity of the dedicated hotspot data is obtained by summing the data capacity of each dedicated hotspot data.
  • the access value of the dedicated hotspot data represents the probability that the dedicated hotspot data is accessed in the first application scenario. It can be understood that the higher the access value of the dedicated hotspot data, the higher the probability of being accessed in the first application scenario, and the higher the access value. Low dedicated hotspot data is less likely to be accessed in the first application scenario. Therefore, when the total capacity of the dedicated hotspot data in the configuration list corresponding to the first application scenario reaches the first upper limit value, the dedicated hotspot data with lower access heat value can be eliminated until the dedicated hotspot data corresponding to the first application scenario The total capacity of hotspot data is lower than the first upper limit value.
  • the access information of the dedicated hotspot data includes the number of visits and the access time point; in step S402, the access heat value of the dedicated hotspot data is determined according to the access information of the dedicated hotspot data, which may specifically include: according to the number of visits and the access time. The access time point is weighted to obtain the access heat value of the dedicated hotspot data.
  • the access heat value of it is rather one-sided to only use the number of visits or the time of the visit as the basis for determining the heat value of the visit. For example, although some hotspot data have been accessed many times before, the latest access time point is relatively far from the current time point. In the current application scenario, these hotspot data no longer need to be used. If you continue to store these hotspot data In the cache, it will cause a waste of cache space.
  • the processor does not need to access these hotspot data after only one access. Data elimination will eliminate some hot data that are really frequently accessed, resulting in a decrease in the cache hit rate.
  • the weighted operation is performed by combining the number of visits and the access time point to obtain the access heat value of the dedicated hotspot data, so as to ensure that the cache hit rate after the cache clears the hotspot data does not drop sharply.
  • the first upper limit value in step S402 may be preset, for example, set to 10% of the cache space capacity.
  • the dedicated hotspot data may be cleared one by one according to the descending order of the access heat value. For example, first clear the dedicated hotspot data with the smallest access heat value. If the total capacity of the dedicated hotspot data is still not lower than the first upper limit, continue to clear the dedicated hotspot data of the next digit, and so on. The dedicated hotspot data is cleared until the total capacity of the dedicated hotspot data in the configuration list is lower than the first upper limit value.
  • shared hotspot data is stored in the cache, wherein the shared hotspot data represents hotspot data corresponding to all application scenarios, that is, shared hotspot data is hotspot data accessed in all application scenarios.
  • the hotspot data corresponding to all application scenarios are fixedly stored in the cache, so as to reduce the I/O overhead of loading the hotspot data from the non-cache area to the cache each time the application scenario is switched.
  • the acquisition process of the shared hotspot data includes:
  • the dedicated hotspot data is used as the shared hotspot data to be loaded into the cache for storage.
  • the configuration list may be scanned for dedicated hotspot data to obtain a mapping relationship between each dedicated hotspot data and application scenarios.
  • dedicated hotspot data F is added to the configuration list of the first application scenario, and the terminal is divided into three application scenarios in total.
  • the configuration lists of the three application scenarios are scanned for dedicated hotspot data, and it can be known that the data F has already existed in the configuration lists of the second and third application scenarios. Therefore, it can be considered that the data F is all All application scenarios may access data hotspots, so data F is updated from dedicated hotspot data to shared hotspot data, added to the configuration list of all scenarios, and loaded into the cache for fixed storage.
  • the newly added shared hotspot data may be loaded into the cache along with the dedicated hotspot data of the current application scenario. It should also be understood that after the data F is added to the configuration list of all scenarios, the data F should be deleted from the configuration lists of the first application scenario, the second application scenario, and the third application scenario.
  • the number of visits in the access information of the shared hotspot data refers to the cumulative number of times the shared hotspot data is accessed in all application scenarios, and is not limited to counting the number of visits in a single application scenario.
  • the access time point in the access information carried by the hotspot data is not limited to recording the accessed time point in a single application scenario.
  • step S302 and before step S304 it may further include: S303c, when receiving a request for accessing the shared hotspot data by the terminal in the first application scenario, update the shared hotspot data access information.
  • the access information carried by the shared hotspot data may include the number of times of access, the time of access, and the like.
  • data G is shared hotspot data.
  • the access information carried by data G is updated accordingly: the number of accesses is increased by 1, and the access time point is updated to The latest access point in time.
  • the method of this embodiment of the present application may further include:
  • S630 Clear the shared hotspot data according to the access heat value of the shared hotspot data, so that the total capacity of the shared hotspot data is lower than the second upper limit value.
  • the access information includes the number of visits and the access time point; in step S620, the access heat value of the shared hotspot data is determined according to the access information of the shared hotspot data, which may specifically include: according to the number of visits and the access time point.
  • the weighted operation is used to obtain the access heat value of the shared hotspot data.
  • the second upper limit value may be preset, such as 10% of the total cache capacity.
  • the shared hotspot data in the cache can be cleared one by one according to the access heat value from small to large, so that the total capacity of the shared hotspot data in the cache lower than the second upper limit value. For example, first clear the shared hotspot data with the smallest access heat value. If the total capacity of the shared hotspot data is still not lower than the second upper limit value, continue to clear the shared hotspot data of the last digit, and so on. The hotspot data is cleared until the total capacity of the shared hotspot data in the configuration list is lower than the second upper limit value.
  • FIG. 11 shows a terminal 500 provided by an embodiment of the present application.
  • the terminal 500 includes but is not limited to:
  • memory 501 configured to store programs
  • the processor 502 is configured to execute the program stored in the memory 501.
  • the processor 502 executes the program stored in the memory 501, the processor 502 is configured to execute the above-mentioned cache management method.
  • the processor 502 and the memory 501 may be connected by a bus or other means.
  • the memory 501 can be used to store non-transitory software programs and non-transitory computer-executable programs, such as the cache management method described in the embodiments of this application.
  • the processor 502 implements the above-mentioned cache management method by running the non-transitory software programs and instructions stored in the memory 501 .
  • the memory 501 may include a storage program area and a storage data area, wherein the storage program area may store an operating system and an application program required by at least one function; the storage data area may store and execute the above-mentioned cache management method.
  • memory 501 may include high-speed random access memory, and may also include non-transitory memory, such as at least one magnetic disk storage device, flash memory device, or other non-transitory solid-state storage device.
  • memory 501 may include memory located remotely from processor 502, which may be connected to processor 502 through a network. Examples of such networks include, but are not limited to, the Internet, an intranet, a local area network, a mobile communication network, and combinations thereof.
  • the non-transitory software programs and instructions required to implement the above cache management method are stored in the memory 501 , and when executed by one or more processors 502 , execute the cache management methods provided by the embodiments shown in FIGS. 1 to 10 .
  • Embodiments of the present application further provide a storage medium storing computer-executable instructions, where the computer-executable instructions are used to execute the above cache management method.
  • the storage medium stores computer-executable instructions, and the computer-executable instructions are executed by one or more control processors 502, for example, executed by a processor 502 in the above-mentioned terminal device 500, so that the above-mentioned One or more processors 502 execute the cache management methods provided by the embodiments shown in FIG. 1 to FIG. 10 .
  • the embodiments of the present application include: when it is determined that the terminal switches to the first application scenario, extracting dedicated hotspot data corresponding to the first application scenario from a non-cache area, and loading the dedicated hotspot data into the cache; The terminal switches from the first application scenario to the second application scenario, and releases the dedicated hotspot data corresponding to the first application scenario from the cache according to a preset release policy.
  • the dedicated hotspot data matching the first application scenario is preloaded into the cache, so that the usage rate of the cache can be improved and the data read by the processor when running the application can be saved.
  • the overhead of the processor improves the running speed of the processor in the first application scenario.
  • the dedicated hotspot data corresponding to the first application scenario is released from the cache to reduce the occupation of the cache space, so as to achieve a balance between performance and cost. balanced.
  • Computer storage media include, but are not limited to, RAM, ROM, EEPROM, flash memory or other memory technology, CD-ROM, digital versatile disk (DVD) or other optical disk storage, magnetic cartridges, magnetic tape, magnetic disk storage or other magnetic storage devices, or may Any other medium used to store desired information and which can be accessed by a computer.
  • communication media typically include computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave or other transport mechanism, and can include any information delivery media, as is well known to those of ordinary skill in the art .

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

一种缓存管理方法、终端以及存储介质,方法包括:当确定终端切换至第一应用场景,从非缓存区提取与第一应用场景对应的专用热点数据,并将专用热点数据加载至缓存中;当确定终端从第一应用场景切换至第二应用场景,按照预设的释放策略从缓存中释放与第一应用场景对应的专用热点数据。

Description

缓存管理方法、终端以及存储介质
相关申请的交叉引用
本申请基于申请号为202010772335.0、申请日为2020年8月4日的中国专利申请提出,并要求该中国专利申请的优先权,该中国专利申请的全部内容在此引入本申请作为参考。
技术领域
本申请涉及计算机技术领域,特别是涉及一种缓存管理方法、终端设备以及存储介质。
背景技术
处理器在读取数据时,会首先从缓存中查找需要的数据,若查找到则直接执行,若查找不到则从非缓存区中查找。由于缓存的运行速度比非缓存区快得多,因此缓存能够帮助处理器更快地运行。但是,缓存的成本十分昂贵,随着终端设备安装的应用软件越来越多,缓存中的无用数据也越来越多,因此需要制定科学的缓存机制,以便达到性能和成本之间的均衡。
发明内容
以下是对本文详细描述的主题的概述。本概述并非是为了限制权利要求的保护范围。
本申请实施例提供了一种缓存管理方法、终端设备以及存储介质。
一方面,本申请实施例提供了一种缓存管理方法,所述方法包括:当确定终端切换至第一应用场景,从非缓存区提取与所述第一应用场景对应的专用热点数据,并将所述专用热点数据加载至缓存中;当确定所述终端从所述第一应用场景切换至第二应用场景,按照预设的释放策略从所述缓存中释放与所述第一应用场景对应的所述专用热点数据。
另一方面,本申请实施例提供了一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求如上所述的缓存管理方法的步骤。
再一方面,本申请实施例提供了一种计算机可读存储介质,存储有计算机程序,该程序被处理器执行时实现如上所述的缓存管理方法的步骤。
本申请实施例包括:当确定终端切换至第一应用场景,从非缓存区提取与所述第一应用场景对应的专用热点数据,并将所述专用热点数据加载至缓存中;当确定所述终端从所述第一应用场景切换至第二应用场景,按照预设的释放策略从所述缓存中释放与所述第一应用场景对应的所述专用热点数据。本申请实施例提供的技术方案,在终端切换至第一应用场景时,预加载匹配第一应用场景的专用热点数据至缓存,从而能够提高缓存的使用率,节约处理器运行应用时读取数据的开销,提高处理器在第一应用场景下的运行速度。当终端从第一应用场景切换至第二应用场景时,按照预设的释放策略,从缓存中释放与第一应用场景对应的专用热点数据,减少对缓存空间的占用,以便达到性能与成本的均衡。
本申请的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请而了解。本申请的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
附图说明
附图用来提供对本申请技术方案的进一步理解,并且构成说明书的一部分,与本申请的实施例一起用于解释本申请的技术方案,并不构成对本申请技术方案的限制。
图1是本申请一实施例提供的缓存管理方法的流程示意图;
图2a是图1中的步骤S110的子步骤流程示意图;
图2b是图1中的步骤S121的子步骤流程示意图;
图3是本申请另一实施例提供的缓存管理方法的流程示意图;
图4是图3中的步骤S220的子步骤流程示意图;
图5是图4中的步骤S221的子步骤流程示意图;
图6是本申请另一实施例提供的缓存管理方法的流程示意图;
图7是本申请另一实施例提供的缓存管理方法的流程示意图;
图8是本申请实施例提供的共用热点数据的获取过程的示意图;
图9是本申请另一实施例提供的缓存管理方法的流程示意图;
图10是本申请另一实施例提供的缓存管理方法的流程示意图;
图11是本申请实施例提供的一种终端的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
应了解,在本申请实施例的描述中,如果有描述到“第一”、“第二”等只是用于区分技术特征为目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量或者隐含指明所指示的技术特征的先后关系。“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示单独存在A、同时存在A和B、单独存在B的情况。其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项”及其类似表达,是指的这些项中的任意组合,包括单项或复数项的任意组合。例如,a,b和c中的至少一项可以表示:a,b,c,a和b,a和c,b和c或a和b和c,其中a,b,c可以是单个,也可以是多个。
此外,下面所描述的本申请各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本申请实施例提供的缓存管理方法可以应用于手机、平板电脑、可穿戴设备、车载设备、增强现实(augmentedreality,AR)/虚拟现实(virtualreality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobi lepersonalcomputer,UMPC)、上网本、个人数字助理(personaldigitalassistant,PDA)等终端设备上,也可以应用于电视、音箱、洗衣机等智能家电设备上,本申请实施例对终端的具体类型不作任何限制。
图1示出了本申请实施例提供的一种缓存管理方法的流程图。如图1所示,该方法包括如下步骤:
S110,当确定终端切换至第一应用场景,从非缓存区提取与所述第一应用场景对应的专用热点数据,并将所述专用热点数据加载至缓存中。
示例性的,终端通常安装有多个应用,由于不同类型的应用在运行时所需访问的数据具有较大差异,故本申请实施例根据终端安装的应用类型划分多个应用场景,具体可以设定每个应用类型对应一个应用场景。比如,将视频类应用设定为第一应用场景,游戏类应用设定为第二应用场景,网购类应用设定为第三应用场景。
当终端设备监测到用户打开应用的操作,可根据用户的操作确定终端当前的应用场景。比如,对于安装安卓Android操作系统的终端,可以利用Android的守护进程监测用户打开应用的操作及确定用户打开了哪个应用,进而确定终端当前的应用场景。应理解,本申请实施例描述的第一应用场景可以指代终端划分的多个应用场景中的任意一个。本申请实施例在确定终端当前切换至第一应用场景时,从非缓存区提取与当前第一应用场景对应的专用热点数据,并加载至缓存中进行缓冲,实现热点数据预加载,以提高缓存的使用率和应用运行过程中缓存的命中率,避免处理器频繁从非缓存区读取数据而增加I/O开销,提升处理器的运行速度和性能。
应理解,本申请实施例描述的专用热点数据是对应于指定应用场景的热点数据,比如, 数据A为终端先前在第一应用场景下多次访问的数据,则数据A可以作为对应于第一应用场景的专用热点数据。
如图2a所示,步骤S110中的从非缓存区提取与所述第一应用场景对应的专用热点数据可以通过如下子步骤S111和S112实现。
S111,根据专用热点数据与应用场景之间的映射关系,确定与第一应用场景对应的专用热点数据;
S112,从非缓存区提取与第一应用场景对应的专用热点数据。
具体实现时,可以预先设置至少一个配置列表,通过配置列表记录专用热点数据与应用场景之间的映射关系。
在一些实施例中,设置有多个配置列表,每个配置列表对应一个应用场景,每个配置列表包括专用热点数据的数据标识和数据地址。当确定终端切换至第一应用场景时,查找与第一应用场景对应的配置列表,根据配置列表中的数据地址,从非缓存区提取与第一应用场景对应的专用热点数据。
在另一些实施例中,仅设置一个配置列表,该配置列表中包括专用热点数据的数据标识、数据地址和对应的应用场景,当确定终端切换至第一应用场景时,在配置列表中查找与第一应用场景对应的专用热点数据,并根据配置列表中的数据地址,从非缓存区提取与第一应用场景对应的专用热点数据。
应理解,本申请实施例描述的缓存是相对非缓存区而言读取速度较快的存储空间。比如:在一些实施例中,缓存可以指RAM(Random Access Memory,随机存取存储器),非缓存区可以指ROM(Read-Only Memory,只读内存);在一些实施例中,缓存可以指SRAM(Static RAM,静态随机存取存储器),非缓存区可以指DRAM(Dynamic RAM,动态随机存取存储器);在另一些实施例中,缓存可以指内存,非缓存区可以指磁盘。本申请实施例对缓存和非缓存区各自指代的存储器件不作具体限定。
S120,当确定终端从第一应用场景切换至第二应用场景,按照预设的释放策略从缓存中释放与第一应用场景对应的专用热点数据。
示例性的,当监测到终端的应用场景发生切换时,第一应用场景被切换至第二应用场景,则从缓存中释放与第一应用场景对应的专用热点数据,避免不常用的数据过多占用缓存空间,以便加载与第二应用场景对应的专用热点数据。
作为示例,如图2b所示,步骤S120中,按照预设的释放策略从缓存中释放与第一应用场景对应的专用热点数据,可以包括:
S121,确定第一应用场景的类别,其中,应用场景的类别包括常用场景和非常用场景;
S122,当确定第一应用场景为非常用场景,从缓存中释放与第一应用场景对应的专用热点数据。
当终端从第一应用场景切换至第二应用场景时,判断第一应用场景是否为非常用场景,若确定第一应用场景为非常用场景,则从缓存中释放与第一应用场景对应的专用热点数据,避免不常用的数据过多占用缓存空间。
图3为本申请一实施例提供的缓存管理方法的流程图,如图3所示,包括如下步骤:
S210,确定终端切换至第一应用场景,从非缓存区提取与第一应用场景对应的专用热点数据,并将与第一应用场景对应的专用热点数据加载至缓存中;
S220,确定终端从第一应用场景切换至第二应用场景,确定第一应用场景的类别,若确定第一应用场景为非常用场景,执行步骤S230;若确定第一应用场景为常用场景,直接执行步骤S240;
S230,从缓存中释放与第一应用场景对应的专用热点数据;
S240,从非缓存区提取与第二应用场景对应的专用热点数据,并将与第二应用场景对应的专用热点数据加载至缓存中。
图3所示的示例中,当终端从第一应用场景切换至第二应用场景时,判断第一应用场景是否为非常用场景,若确定第一应用场景为非常用场景,则从缓存中释放与第一应用场景对应的专用热点数据,避免不常用的数据过多占用缓存空间;若确定第一应用场景为常用场景,则不释放与第一应用场景对应的专用热点数据,使与第一应用场景对应的专用热点数据保留在缓存中,避免日后多次加载第一应用场景的热点数据造成内存I/O开销过大。
作为示例,如图4所示,步骤S220中,第一应用场景的类别的确定过程具体包括:
S221,获取第一应用场景的使用热度值。
应理解,应用场景的使用热度值表征应用场景使用的概率,应用场景的使用热度值越大表征其被使用的概率越高。
S222,根据使用热度值确定第一应用场景为常用场景或者非常用场景。
作为示例,可以按照使用热度值从大到小的顺序,确定第一应用场景在多个应用场景中的排序位置。比如,当前终端设备划分有M个应用场景,根据各个应用场景的使用热度值,对这M个应用场景进行排序,排在第一位的使用热度值最高,排在第M位的使用热度值最低。当第一应用场景的排序位置在前N位,则确定第一应用场景为常用场景,否则为非常用场景,其中N为大于0的整数,且N小于M。这里的N可以是预设的数值,在M个应用场景中取使用热度值排序较高的N个的应用场景作为常用场景,其余的为非常用场景。
作为示例,如图5所示,步骤S221中,第一应用场景的使用热度值的获取过程具体包括:
S2211,获取第一应用场景的使用信息,使用信息包括使用次数和使用时间点;
S2212,根据使用次数和使用时间点进行加权运算,得到第一应用场景的使用热度值。
具体实现时,可以通过设置场景列表记录各个应用场景的使用信息,步骤S2211中,可以从场景列表读取第一应用场景的使用信息。
本示例采用根据使用次数和使用时间点进行加权运算来确定使用热度值,进而根据使用热度值划分出常用的应用场景,相比只根据使用次数或者使用时间点进行常用/非常用场景的划分,本示例的划分方式可以划分得更加准确,更能贴合用户的使用需求。比如,用户可能某个时间段内频繁使用某一个应用场景,使得该应用场景的累计使用次数高于其它应用场景,但是该应用场景最近一次的使用时间点已经距离当前时间点已经相隔较远,若将该应用场景判定为常用场景明显是不恰当的。又比如,用户可能当前连续切换了多个应用场景,若按照使用时间点作为判定常用场景的依据,最近切换的几个应用场景会替换之前常用的应用场景,但是用户可能只是在当前使用了这几个应用场景一次,日后将不再使用,若将这几个应用场景判定为常用场景也明显是不恰当的。
图6为本申请一实施例提供的缓存管理方法的流程图,如图6所示,包括如下步骤:
S301,确定终端切换至第一应用场景,从非缓存区提取与第一应用场景对应的专用热点数据,并将与第一应用场景对应的专用热点数据加载至缓存中;
S302,接收终端在第一应用场景下的访问请求并确定访问请求的类型;当接收到终端在第一应用场景下对专用热点数据的访问请求时,执行步骤S303a;当接收到终端在第一应用场景下对非热点数据的访问请求时,执行步骤S303b;
S303a,更新专用热点数据的访问信息;
S303b,将非热点数据作为新的专用热点数据,并记录新的专用热点数据的访问信息;
S304,确定终端是否从第一应用场景切换至第二应用场景;若确定结果为是,执行步骤S305;若确定结果为否,返回步骤S302;
S305,确定第一应用场景的类别;若确定第一应用场景为非常用场景,执行步骤S306;若确定第一应用场景为常用场景,直接执行步骤S307;
S306,从缓存中释放与第一应用场景对应的专用热点数据;
S307,从非缓存区提取与第二应用场景对应的专用热点数据,并将与第二应用场景对 应的专用热点数据加载至缓存中。
示例性的,步骤S302中的访问请求表征在第一应用场景下,处理器对所需数据的访问请求。若访问请求所请求访问的数据为已预先加载至缓存的专用热点数据,则对该专用热点数据的访问信息进行更新。
在具体实现时,可以通过配置列表记录专用热点数据的访问信息,这里的访问信息可以包括被访问次数、访问时间点等。其中,配置列表的形式可以参见表1(数据地址未在表中示出),如表1所示,已预先加载至缓存中的与当前第一应用场景对应的专用热点数据包括数据A、B、C、D、E,其中,数据A的访问信息包括:被访问次数8,访问时间点2020/5/68:00。
表1
Figure PCTCN2021104026-appb-000001
当处理器在本次第一应用场景下请求访问了数据A,且访问数据A的时间点为2020/5/6 13:00,则根据本次对数据A的访问请求,相应的对数据A的访问信息进行更新:被访问次数加1,使被访问次数更新为9,访问时间点更新为最新的访问时间点2020/5/6 13:00,更新后的数据A参见表2所示。
若访问请求所请求访问的数据为未加载至缓存的非热点数据,则需要到非缓存区中查找该非热点数据,当查找到所请求的非热点数据,将该非热点数据加载至缓存中,并将该非热点数据与当前的第一应用场景建立对应关系,由此将该非热点数据更新为与第一应用场景对应的专用热点数据,同时记录该新的专用热点数据的访问信息。比如,处理器在本次第一应用场景下请求访问了数据F,数据F先前未加载至缓存,处理器从非缓存区中查找到该数据F后,将该数据F加载至缓存,并作为新的专用热点数据添加至对应于第一应用场景的配置列表中,并在配置列表中记录数据F的访问信息,具体可以参见表2。
表2
Figure PCTCN2021104026-appb-000002
在一些实施例中,在上述步骤S303b之后,本申请实施例的缓冲管理方法还包括如图7所示的步骤:
S401,计算专用热点数据的总容量;
S402,当专用热点数据的总容量达到第一上限值时,获取专用热点数据的访问信息,并根据专用热点数据的访问信息确定专用热点数据的访问热度值;其中,专用热点数据的 访问信息包括被访问次数和访问时间点中的至少一项;
S403,根据专用热点数据的访问热度值对专用热点数据进行清除,以使得专用热点数据的总容量低于第一上限值。
在具体实现时,可以在配置列表中记录各个专用热点数据的数据容量大小,通过对各个专用热点数据的数据容量大小进行求和计算,得到专用热点数据的总容量。
专用热点数据的访问热度值表征专用热点数据在第一应用场景下被访问的概率,可以理解访问热度值越高的专用热点数据在第一应用场景中被访问的概率越大,访问热度值越低的专用热点数据在第一应用场景中被访问的概率越小。因此当与第一应用场景对应的配置列表中的专用热点数据的总容量达到第一上限值时,可以对访问热度值较低的专用热点数据进行淘汰,直至与第一应用场景对应的专用热点数据的总容量低于第一上限值。
在一实施例中,专用热点数据的访问信息包括被访问次数和访问时间点;步骤S402中,根据专用热点数据的访问信息确定专用热点数据的访问热度值,具体可以包括:根据被访问次数和访问时间点进行加权运算,得到专用热点数据的访问热度值。
通常情况下,某个热点数据被访问次数越多,或者最近一次被访问时间点距离当前时间点越近,都能在一定程度上说明该热点数据被访问的概率相对较大,应当赋予较大的访问热度值。但是,只采用被访问次数或者访问时间点作为确定访问热度值的依据都是较片面的。比如,某些热点数据先前被访问的次数虽然多,但是最近一次的访问时间点距离当前时间点已相对较远,当前应用场景下已经无需再用到这些热点数据,若继续将这些热点数据存储在缓存中,将会造成缓存空间的浪费。又比如,某些热点数据的最近一次被访问的时间点虽然距离当前时间点很近,但是处理器只访问一次后,便无需再访问这些热点数据,若按照访问时间点远近对缓存中的热点数据进行淘汰,会将一些真正经常访问的热点数据淘汰掉,导致缓存命中率下降。
因此,本申请实施例综合被访问次数和访问时间点进行加权运算,得到专用热点数据的访问热度值,以保证缓存清除热点数据后的缓存命中率不会急剧下降。
步骤S402中的第一上限值可以是预先设定的,比如,设定为缓存空间容量的10%。
步骤S403中,可以按照访问热度值从小到大的顺序对专用热点数据进行逐一清除。比如,首先清除访问热度值最小的专用热点数据,若专用热点数据的总容量仍然未低于第一上限值,则继续清除后一位的专用热点数据,如此类推,依次对配置列表中的专用热点数据进行清除,直至配置列表中的专用热点数据的总容量低于第一上限值。
在一些实施例中,缓存中存储有共用热点数据,其中,共用热点数据表征与所有的应用场景对应的热点数据,即共用热点数据是在所有应用场景中被访问过的热点数据。本实施例将这些与所有应用场景对应的热点数据固定存储在缓存中,以减少每次应用场景切换时从非缓存区加载热点数据至缓存的I/O开销。
示例性的,如图8所示,共用热点数据的获取过程包括:
S510,获取各个专用热点数据与应用场景之间的映射关系;
S520,当确定专用热点数据与所有的应用场景均存在对应关系,将专用热点数据作为共用热点数据以加载至缓存中进行存储。
示例性的,可以对配置列表进行专用热点数据扫描以获取各个专用热点数据与应用场景之间的映射关系。比如,可以参见表2,在本次第一应用场景中,第一应用场景的配置列表中新增了专用热点数据F,而终端总共划分了3个应用场景,通过对第二应用场景、第三应用场景的配置列表(参见表3、表4)进行专用热点数据扫描,可获知此前数据F已经存在于第二应用场景、第三应用场景的配置列表中,由此可以认为数据F是所有应用场景均可能访问的数据热点,故将数据F从专用热点数据更新为共用热点数据,添加至全场景的配置列表中,以及加载至缓存中进行固定存储。具体的,可以在应用场景切换时,将新增的共用热点数据随当前应用场景的专用热点数据加载至缓存中。还应理解,当数据F 添加至全场景的配置列表后,应从第一应用场景、第二应用场景、第三应用场景的配置列表中删除该数据F。
表3
Figure PCTCN2021104026-appb-000003
表4
Figure PCTCN2021104026-appb-000004
表5
Figure PCTCN2021104026-appb-000005
应理解,共用热点数据的访问信息中的被访问次数是指共用热点数据在所有应用场景下被访问的累计次数,而不仅限于对在单个应用场景下的被访问次数进行统计,同理,共用热点数据携带的访问信息中的访问时间点也不仅限于对在单个应用场景下的被访问时间点进行记录。
在一些实施例中,如图9所示,在步骤S302之后,步骤S304之前,还可以包括:S303c,当接收到终端在第一应用场景下对共用热点数据的访问请求时,更新共用热点数据的访问信息。
共用热点数据携带的访问信息可以包括:被访问次数、访问时间点等。比如,数据G为共用热点数据,当处理器在本次第一应用场景下请求访问了数据G,则对数据G携带的访问信息进行相应的更新:被访问次数加1、访问时间点更新为最新的访问时间点。
在一些实施例中,如图10所示,本申请实施例的方法还可以包括:
S610,计算共用热点数据的总容量;
S620,当共用热点数据的总容量达到第二上限值,获取共用热点数据的访问信息,并根据共用热点数据的访问信息确定共用热点数据的访问热度值,其中,共用热点数据的访问信息包括被访问次数和访问时间点中的至少一项;
S630,根据共用热点数据的访问热度值对共用热点数据进行清除,使得共用热点数据的总容量低于第二上限值。
在一实施例中,访问信息包括被访问次数和访问时间点;步骤S620中,根据共用热点数据的访问信息确定共用热点数据的访问热度值,具体可以包括:根据被访问次数和访问时间点进行加权运算,得到共用热点数据的访问热度值。
作为示例,第二上限值可以是预先设定的,比如设定为缓存总容量的10%。当配置列表中的共用热点数据的总容量达到第二上限值,可以按照访问热度值从小到大的顺序,对缓存中的共用热点数据进行逐一清除,使得缓存中的共用热点数据的总容量低于第二上限 值。比如,首先清除访问热度值最小的共用热点数据,若共用热点数据的总容量仍然未低于第二上限值,则继续清除后一位的共用热点数据,如此类推,依次对缓存中的共用热点数据进行清除,直至配置列表中的共用热点数据的总容量低于第二上限值。
应理解的是,在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
进一步可以理解的是,本申请实施例中尽管在附图中以特定的顺序描述操作,但是不应将其理解为要求按照所示的特定顺序或是串行顺序来执行这些操作,或是要求执行全部所示的操作以得到期望的结果。在特定环境中,多任务和并行处理可能是有利的。
图11示出了本申请实施例提供的终端500。如图11所示,该终端500包括但不限于:
存储器501,被配置为存储程序;
处理器502,被配置为执行存储器501存储的程序,当处理器502执行存储器501存储的程序时,处理器502被配置为执行上述的缓存管理方法。
处理器502和存储器501可以通过总线或者其他方式连接。
存储器501作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序,如本申请实施例描述的缓存管理方法。处理器502通过运行存储在存储器501中的非暂态软件程序以及指令,从而实现上述的缓存管理方法。
存储器501可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储执行上述的缓存管理方法。此外,存储器501可以包括高速随机存取存储器,还可以包括非暂态存储器,比如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器501可包括相对于处理器502远程设置的存储器,这些远程存储器可以通过网络连接至该处理器502。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
实现上述的缓存管理方法所需的非暂态软件程序以及指令存储在存储器501中,当被一个或者多个处理器502执行时,执行图1至图10所示实施例提供的缓存管理方法。
本申请实施例还提供了一种存储介质,存储有计算机可执行指令,计算机可执行指令用于执行上述的缓存管理方法。
在一实施例中,该存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个控制处理器502执行,比如,被上述终端设备500中的一个处理器502执行,可使得上述一个或多个处理器502执行图1至图10所示实施例提供的缓存管理方法。
本申请实施例包括:当确定终端切换至第一应用场景,从非缓存区提取与所述第一应用场景对应的专用热点数据,并将所述专用热点数据加载至缓存中;当确定所述终端从所述第一应用场景切换至第二应用场景,按照预设的释放策略从所述缓存中释放与所述第一应用场景对应的所述专用热点数据。本申请实施例提供的技术方案,在终端切换至第一应用场景时,预加载匹配第一应用场景的专用热点数据至缓存,从而能够提高缓存的使用率,节约处理器运行应用时读取数据的开销,提高处理器在第一应用场景下的运行速度。当终端从第一应用场景切换至第二应用场景时,按照预设的释放策略,从缓存中释放与第一应用场景对应的专用热点数据,减少对缓存空间的占用,以便达到性能与成本的均衡。
以上所描述的实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统可以被实施为软件、固件、硬件及其适当的组合。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如 本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包括计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
以上是对本申请的一些实施进行了具体说明,但本申请并不局限于上述实施方式,熟悉本领域的技术人员在不违背本申请范围的情况下还可作出种种等同的变形或替换,这些等同的变形或替换均包括在本申请权利要求所限定的范围内。

Claims (57)

  1. [援引加入(细则20.6) 13.09.2021]
    一种缓存管理方法,包括:
    当确定终端切换至第一应用场景,从非缓存区提取与所述第一应用场景对应的专用热点数据,并将所述专用热点数据加载至缓存中;
    当确定所述终端从所述第一应用场景切换至第二应用场景,按照预设的释放策略从所述缓存中释放与所述第一应用场景对应的所述专用热点数据。
  2. [援引加入(细则20.6) 13.09.2021]根据权利要求1所述的方法,其中,所述从非缓存区提取与所述第一应用场景对应的专用热点数据,包括:
    根据所述专用热点数据与所述应用场景之间的映射关系,确定与所述第一应用场景对应的所述专用热点数据;
    从所述非缓存区提取与所述第一应用场景对应的专用热点数据。
  3. [援引加入(细则20.6) 13.09.2021]根据权利要求1所述的方法,还包括:
    当接收到所述终端在所述第一应用场景下对专用热点数据的访问请求,更新所述专用热点数据的访问信息。
  4. [援引加入(细则20.6) 13.09.2021]根据权利要求1所述的方法,还包括:
    当接收到所述终端在所述第一应用场景下对非热点数据的访问请求,将所述非热点数据作为新的专用热点数据,并记录所述新的专用热点数据的访问信息。
  5. [援引加入(细则20.6) 13.09.2021]根据权利要求4所述的方法,其中,所述方法还包括:
    计算所述专用热点数据的总容量;
    当所述专用热点数据的总容量达到第一上限值时,获取所述专用热点数据的访问信息,并根据所述专用热点数据的所述访问信息确定所述专用热点数据的访问热度值;
    根据所述专用热点数据的所述访问热度值对所述专用热点数据进行清除,以使得所述专用热点数据的总容量低于所述第一上限值。
  6. [援引加入(细则20.6) 13.09.2021]根据权利要求5所述的方法,其中,所述访问信息包括被访问次数和访问时间点;所述根据所述访问信息确定所述专用热点数据的访问热度值,包括:
    根据所述被访问次数和所述访问时间点进行加权运算,得到所述专用热点数据的访问热度值。
  7. [援引加入(细则20.6) 13.09.2021]根据权利要求1所述的方法,其中,所述缓存中存储有共用热点数据,所述共用热点数据表征与所有的应用场景对应的热点数据。
  8. [援引加入(细则20.6) 13.09.2021]根据权利要求7所述的方法,其中,所述共用热点数据的获取过程包括:
    获取所述专用热点数据与所述应用场景之间的映射关系;
    当确定所述专用热点数据与所有的应用场景均存在对应关系,将所述专用热点数据作为所述共用热点数据以加载至所述缓存中进行存储。
  9. [援引加入(细则20.6) 13.09.2021]根据权利要求1所述的方法,其中,所述按照预设的释放策略从所述缓存中释放与所述第一应用场景对应的所述专用热点数据,包括:
    确定所述第一应用场景的类别,所述类别包括非常用场景和常用场景;
    当确定所述第一应用场景为非常用场景,从所述缓存中释放与所述第一应用场景对应的所述专用热点数据;或者,
    当确定所述第一应用场景为常用场景,将与所述第一应用场景对应的所述专用热点数据保留在所述缓存中。
  10. [援引加入(细则20.6) 13.09.2021]根据权利要求9所述的方法,其中,所述第一应用场景的类别的确定过程包括:
    获取所述第一应用场景的使用热度值;
    根据所述使用热度值确定所述第一应用场景为所述常用场景或者所述非常用场景。
  11. [援引加入(细则20.6) 13.09.2021]根据权利要求10所述的方法,其中,所述第一应用场景的使用热度值的获取过程包括:
    获取所述第一应用场景的使用信息,所述使用信息包括使用次数和使用时间点;
    根据所述使用次数和所述使用时间点进行加权运算,得到所述第一应用场景的使用热度值。
  12. [援引加入(细则20.6) 13.09.2021]一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其中,所述处理器执行所述程序时实现权利要求1-11任一项所述方法的步骤。
  13. [援引加入(细则20.6) 13.09.2021]一种计算机可读存储介质,存储有计算机程序,其中,所述计算机程序被处理器执行时实现权利要求1-11任一项所述方法的步骤。
  14. 一种时钟发送装置,包括:
    输入单元,配置为输入第一输入时钟与第二输入时钟;
    采样单元,配置为获取第一采样时钟与第二采样时钟,并根据所述第一采样时钟与所述第二采样时钟确定第一频率控制字;其中,所述第一频率控制字用于指示所述第一采样时钟与所述第二采样时钟之间的关系,所述第一采样时钟由所述第一输入时钟按照预设规则确定,所述第二采样时钟由所述第二输入时钟按照预设规则确定;
    发送单元,配置为根据所述第一输入时钟生成时钟信号,并发送所述时钟信号至接收侧;其中,所述时钟信号中至少携带有所述第一频率控制字。
  15. 根据权利要求1所述的装置,其中,所述第一频率控制字用于指示以下对象中的至少之一:所述第一采样时钟与所述第二采样时钟的时钟频率的比例,所述第一采样时钟与所述第二采样时钟的时钟频率的差值。
  16. 根据权利要求2所述的装置,其中,所述采样单元还配置为,
    分别对所述第一采样时钟的时钟频率与所述第二采样时钟的时钟频率进行采样,以确定所述第一频率控制字。
  17. 根据权利要求3所述的装置,其中,所述采样单元包括:
    发送累加子单元,配置为对所述第一采样时钟的时钟边沿进行累加;
    发送判决子单元,配置为对所述第二采样时钟的时钟边沿进行判决;
    计数子单元,配置为根据所述发送判决子单元的判决结果对所述第二采样时钟的时钟边沿进行计数,并在所述第一采样时钟的时钟边沿累加至预设数值时,确定所述第二采样时钟的时钟边沿的计数值,以得到所述第一频率控制字。
  18. 根据权利要求1至4任一项中所述的装置,其中,所述装置还包括:
    倍频单元,配置为根据预设的第一倍数对所述第一输入时钟进行倍频,以得到所述第一采样时钟;其中,所述第一采样时钟与所述第二采样时钟的时钟频率的比例在预设范围内。
  19. 根据权利要求5所述的装置,其中,所述倍频单元包括:
    第一倍频子单元,配置为根据预设的第二倍数对所述第一输入时钟进行倍频,以得到第一发送时钟;其中,所述第一发送时钟用于供所述发送单元根据所述第一发送时钟生成所述时钟信号;
    第二倍频子单元,配置为根据预设的第三倍数对所述第一发送时钟进行倍频,以得到所述第一采样时钟。
  20. 根据权利要求6所述的装置,其中,所述倍频单元还包括:
    第三倍频子单元,配置为根据预设的第四倍数对所述第二输入时钟进行倍频,以得到所述第二采样时钟。
  21. 根据权利要求7所述的装置,其中,所述时钟信号中还携带有所述第一倍数、所述第二倍数、所述第三倍数、所述第四倍数。
  22. 根据权利要求1至4任一项中所述的装置,其中,所述装置还包括:
    滤波单元,配置为根据预设的滤波方式对所述第一频率控制字进行滤波,并将滤波后的所述第一频率控制字发送至所述发送单元,以供所述发送单元在所述时钟信号中携带滤波后的所述第一频率控制字。
  23. 根据权利要求9所述的装置,其中,所述采样单元还配置为,
    重复执行以下操作,以得到多个所述第一频率控制字:根据所述第一采样时钟与所述第二采样时钟确定所述第一频率控制字;
    所述滤波单元还配置为,将多个所述第一频率控制字的均值作为滤波后的所述第一频率控制字。
  24. 根据权利要求1所述的装置,其中,所述发送单元还包括:
    PWM编码子单元,配置对所述第一输入时钟进行编码,以生成所述时钟信号,并将所述第一频率控制字包络于所述时钟信号中;其中,所述时钟信号的时钟频率为所述第一输入时钟的时钟频率。
  25. 根据权利要求1所述的装置,其中,
    所述输入单元,还配置为输入所述第一输入时钟、所述第二输入时钟和第三输入时钟;
    所述采样单元,包括第一采样子单元与第二采样子单元;其中,
    所述第一采样子单元配置为,根据所述第一采样时钟与所述第二采样时钟确定所述第一频率控制字;
    所述第二采样子单元配置为,根据所述第一采样时钟与第三采样时钟确定第二频率控制字;其中,所述第二频率控制字用于指示所述第一采样时钟与所述第三采样时钟之间的关系,所述第三采样时钟由所述第三输入时钟按照预设规则确定;
    所述发送单元,还配置为根据所述第一输入时钟生成所述时钟信号,并发送所述时钟信号至所述接收侧;其中,所述时钟信号中至少携带有所述第一频率控制字与所述第二频率控制字。
  26. 根据权利要求1所述的装置,其中,所述第一输入时钟的频率源与所述第二输入时钟的频率源不同。
  27. 一种时钟接收装置,包括:
    接收单元,配置为接收发送侧发送的时钟信号;其中,所述时钟信号是根据所述发送侧的第一输入时钟生成的,所述时钟信号中至少携带有第一频率控制字,所述第一频率控制字用于指示第一采样时钟与第二采样时钟之间的关系,所述第一采样时钟由所述第一输入时钟按照预设规则确定,所述第二采样时钟由所述发送侧的第二输入时钟按照预设规则确定;所述接收单元还配置为,根据所述时钟信号确定所述第一输入时钟与所述第一频率控制字;
    恢复单元,配置为根据所述第一输入时钟与所述第一频率控制字确定所述第二输入时钟。
  28. 根据权利要求14所述的装置,其中,所述恢复单元还配置为,
    根据所述第一输入时钟获取所述第一采样时钟,并根据所述第一采样时钟与所述第一频率控制字确定多个第一相位地址;其中,所述第一相位地址用于指示所述第二采样时钟的相位;
    根据所述多个第一相位地址,确定所述第二采样时钟,并根据所述第二采样时钟确定所述第二输入时钟。
  29. 根据权利要求15所述的装置,其中,所述恢复单元包括:
    接收累加子单元,配置为根据所述第一采样时钟的时钟边沿对所述第一频率控制字进行累加,并根据所述第一频率控制字的每一次累加结果以得到所述多个第一相位地址;
    查询子单元,配置为根据所述多个第一相位地址与预设的映射关系,以得到所述第二采样时钟的波形;其中,所述映射关系用于指示所述第一相位地址与所述第二采样时钟预设的波形参数之间的映射关系;所述查询子单元还配置为,根据所述第二采样时钟的波形确定所述第二采样时钟的时钟频率。
  30. 根据权利要求16所述的装置,其中,所述波形参数用于指示周期性波形的参数,其中,所述波形参数包括以下至少之一:方波输出电平值、正弦波输出电平值、三角波输出电平值,锯齿波输出电平值、脉冲输出电平值。
  31. 根据权利要求17所述的装置,其中,所述波形参数为所述方波输出电平值的情形下,所述查询子单元还配置为,
    根据所述映射关系对所述多个第一相位地址进行判决,并根据判决结果以得到所述第 二采样时钟的波形。
  32. 根据权利要求17所述的装置,其中,所述波形参数为所述正弦波输出电平值的情形下,所述查询子单元还配置为,根据所述多个第一相位地址与所述映射关系,以得到所述多个第一相位地址分别对应的多个所述正弦波输出电平值;
    所述恢复单元还包括数字模拟转换器DAC子单元,所述DAC子单元配置为,对多个所述正弦波输出电平值进行数字模拟转换,以得到所述第二采样时钟的波形。
  33. 根据权利要求14所述的装置,其中,所述接收单元还包括:
    PWM解码子单元,配置为对所述时钟信号进行解码,以恢复所述第一输入时钟,并提取所述时钟信号中携带的所述第一频率控制字。
  34. 一种时钟传输系统,包括:
    输入单元,配置为输入第一输入时钟与第二输入时钟;
    采样单元,配置为获取第一采样时钟与第二采样时钟,并根据所述第一采样时钟与所述第二采样时钟确定第一频率控制字;其中,所述第一频率控制字用于指示所述第一采样时钟与所述第二采样时钟之间的关系,所述第一采样时钟由所述第一输入时钟按照预设规则确定,所述第二采样时钟由所述第二输入时钟按照预设规则确定;
    发送单元,配置为根据所述第一输入时钟生成时钟信号,并发送所述时钟信号至接收侧;其中,所述时钟信号中至少携带有所述第一频率控制字;
    接收单元,配置为接收所述时钟信号,并根据所述时钟信号确定所述第一输入时钟与所述第一频率控制字;
    恢复单元,配置为根据所述第一输入时钟与所述第一频率控制字确定所述第二输入时钟。
  35. 根据权利要求21所述的系统,还包括:
    线路单元,设置在所述发送单元与所述接收单元之间,所述线路单元配置为通过同一线路传输所述时钟信号至所述接收单元。
  36. 一种时钟发送方法,应用于发送侧,所述方法包括:
    输入第一输入时钟与第二输入时钟;
    根据所述第一输入时钟获取第一采样时钟,根据所述第二输入时钟获取第二采样时钟,并根据所述第一采样时钟与所述第二采样时钟确定第一频率控制字;其中,所述第一频率控制字用于指示所述第一采样时钟与所述第二采样时钟之间的关系;
    根据所述第一输入时钟生成时钟信号,并发送所述时钟信号至接收侧;其中,所述时钟信号中至少携带有所述第一频率控制字。
  37. 根据权利要求23所述的方法,其中,所述第一频率控制字用于指示以下对象中的至少之一:所述第一采样时钟与所述第二采样时钟的时钟频率的比例,所述第一采样时钟与所述第二采样时钟的时钟频率的差值。
  38. 根据权利要求24所述的方法,其中,所述根据所述第一采样时钟与所述第二采样时钟确定第一频率控制字,包括:
    分别对所述第一采样时钟的时钟频率与所述第二采样时钟的时钟频率进行采样,以确定所述第一频率控制字。
  39. 根据权利要求25所述的方法,其中,所述分别对所述第一采样时钟的时钟频率与所述第二采样时钟的时钟频率进行采样,以确定所述第一频率控制字,包括:
    对所述第一采样时钟的时钟边沿进行累加;
    对所述第二采样时钟的时钟边沿进行判决,并根据判决结果对所述第二采样时钟的时钟边沿进行计数;
    在所述第一采样时钟的时钟边沿累加至预设数值时,确定所述第二采样时钟的时钟边沿的计数值,以得到所述第一频率控制字。
  40. 根据权利要求23至26任一项中所述的方法,其中,所述根据所述第一输入时钟获取第一采样时钟,包括:
    根据预设的第一倍数对所述第一输入时钟进行倍频,以得到所述第一采样时钟;其中,所述第一采样时钟与所述第二采样时钟的时钟频率的比例在预设范围内。
  41. 根据权利要求27所述的方法,其中,所述根据预设的第一倍数对所述第一输入时钟进行倍频,以得到所述第一采样时钟,还包括:
    根据预设的第二倍数对所述第一输入时钟进行倍频,以得到第一发送时钟;其中,所述第一发送时钟用于生成所述时钟信号;
    根据预设的第三倍数对所述第一发送时钟进行倍频,以得到所述第一采样时钟。
  42. 根据权利要求28所述的方法,其中,所述根据所述第二输入时钟获取第二采样时钟,包括:
    根据预设的第四倍数对所述第二输入时钟进行倍频,以得到所述第二采样时钟。
  43. 根据权利要求29所述的方法,其中,所述时钟信号中还携带有所述第一倍数、所述第二倍数、所述第三倍数、所述第四倍数。
  44. 根据权利要求23至26任一项中所述的方法,其中,所述根据所述第一输入时钟生成时钟信号,并发送所述时钟信号至接收侧,还包括:
    根据预设的滤波方式对所述第一频率控制字进行滤波;
    根据所述第一输入时钟生成所述时钟信号,并发送所述时钟信号至所述接收侧;其中,所述时钟信号中携带有滤波后的所述第一频率控制字。
  45. 根据权利要求31所述的方法,其中,所述根据所述第一采样时钟与所述第二采样时钟确定第一频率控制字,还包括:
    重复执行以下操作,以得到多个所述第一频率控制字:根据所述第一采样时钟与所述第二采样时钟确定所述第一频率控制字;
    所述根据预设的滤波方式对所述第一频率控制字进行滤波,包括:将多个所述第一频率控制字的均值作为滤波后的所述第一频率控制字。
  46. 根据权利要求23所述的方法,其中,所述根据所述第一输入时钟生成时钟信号,包括:
    对所述第一输入时钟进行编码,以生成所述时钟信号,并将所述第一频率控制字包络于所述时钟信号中;其中,所述时钟信号的时钟频率为所述第一输入时钟的时钟频率。
  47. 根据权利要求23所述的方法,其中,所述方法还包括:
    输入所述第一输入时钟、所述第二输入时钟、第三输入时钟;
    根据所述第一采样时钟与所述第二采样时钟确定所述第一频率控制字;
    根据所述第三输入时钟获取第三采样时钟,根据所述第一采样时钟与第三采样时钟确定第二频率控制字;其中,所述第二频率控制字用于指示所述第一采样时钟与所述第三采样时钟之间的关系;
    根据所述第一输入时钟生成所述时钟信号,并发送所述时钟信号至所述接收侧;其中,所述时钟信号中至少携带有所述第一频率控制字与所述第二频率控制字。
  48. 根据权利要求23所述的方法,其中,所述第一输入时钟的频率源与所述第二输入时钟的频率源不同。
  49. 一种时钟接收方法,应用于接收侧,所述方法包括:
    接收发送侧发送的时钟信号;其中,所述时钟信号是根据所述发送侧的第一输入时钟生成的,所述时钟信号中至少携带有第一频率控制字,所述第一频率控制字用于指示第一采样时钟与第二采样时钟之间的关系,所述第一采样时钟由所述第一输入时钟按照预设规则确定,所述第二采样时钟由所述发送侧的第二输入时钟按照预设规则确定;
    根据所述时钟信号确定所述第一输入时钟与所述第一频率控制字;
    根据所述第一输入时钟与所述第一频率控制字确定所述第二输入时钟。
  50. 根据权利要求36所述的方法,其中,所述根据所述第一输入时钟与所述第一频率控制字确定所述第二输入时钟,包括:
    根据所述第一输入时钟获取所述第一采样时钟,并根据所述第一采样时钟与所述第一频率控制字确定多个第一相位地址;其中,所述第一相位地址用于指示所述第二采样时钟的相位;
    根据所述多个第一相位地址,确定所述第二采样时钟,并根据所述第二采样时钟确定所述第二输入时钟。
  51. 根据权利要求37所述的方法,其中,所述根据所述第一输入时钟获取所述第一采样时钟,并根据所述第一采样时钟与所述第一频率控制字确定多个第一相位地址,包括:
    根据所述第一采样时钟的时钟边沿对所述第一频率控制字进行累加,并根据所述第一频率控制字的每一次累加结果以得到所述多个第一相位地址;
    所述根据所述多个第一相位地址,确定所述第二采样时钟,包括:
    根据所述多个第一相位地址与预设的映射关系,以得到所述第二采样时钟的波形;其中,所述映射关系用于指示所述第一相位地址与所述第二采样时钟预设的波形参数之间的映射关系;
    根据所述第二采样时钟的波形确定所述第二采样时钟的时钟频率。
  52. 根据权利要求38所述的方法,其中,所述波形参数用于指示周期性波形的参数,其中,所述波形参数包括以下至少之一:方波输出电平值、正弦波输出电平值、三角波输出电平值,锯齿波输出电平值、脉冲输出电平值。
  53. 根据权利要求39所述的方法,其中,所述波形参数为所述方波输出电平值的情形下,所述根据所述多个第一相位地址与预设的映射关系,以得到所述第二采样时钟的波形,包括:
    根据所述映射关系对所述多个第一相位地址进行判决,并根据判决结果以得到所述第二采样时钟的波形。
  54. 根据权利要求39所述的方法,其中,所述波形参数为所述正弦波输出电平值的情形下,所述根据所述多个第一相位地址与预设的映射关系,以得到所述第二采样时钟的波形,包括:
    根据所述多个第一相位地址与所述映射关系,以得到所述多个第一相位地址分别对应的多个所述正弦波输出电平值;
    对多个所述正弦波输出电平值进行数字模拟转换,以得到所述第二采样时钟的波形。
  55. 根据权利要求39所述的方法,其中,所述时钟信号中还携带有第二频率控制字,所述第二频率控制字用于指示第一采样时钟与第三采样时钟之间的关系,所述第三采样时钟由所述发送侧的第三输入时钟按照预设规则确定;
    所述方法还包括:
    根据所述时钟信号确定所述第二频率控制字;
    根据所述第一输入时钟与所述第二频率控制字确定所述第三输入时钟。
  56. 一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求23至36任一项中所述的方法,或者执行权利要求36至42任一项中所述的方法。
  57. 一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,其中,所述处理器被设置为运行所述计算机程序以执行所述权利要求23至36任一项中所述的方法,或者执行权利要求36至42任一项中所述的方法。
PCT/CN2021/104026 2020-08-04 2021-07-01 缓存管理方法、终端以及存储介质 WO2022028165A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010772335.0A CN114079671A (zh) 2020-08-04 2020-08-04 缓存管理方法、终端以及存储介质
CN202010772335.0 2020-08-04

Publications (1)

Publication Number Publication Date
WO2022028165A1 true WO2022028165A1 (zh) 2022-02-10

Family

ID=80116912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/104026 WO2022028165A1 (zh) 2020-08-04 2021-07-01 缓存管理方法、终端以及存储介质

Country Status (2)

Country Link
CN (1) CN114079671A (zh)
WO (1) WO2022028165A1 (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050240652A1 (en) * 2004-04-21 2005-10-27 International Business Machines Corporation Application Cache Pre-Loading
CN104156242A (zh) * 2014-08-05 2014-11-19 吉林大学 一种缓存数据预加载、加载方法及装置
CN106341533A (zh) * 2016-08-30 2017-01-18 腾讯科技(深圳)有限公司 应用中加载网络资源的方法和装置
CN108958828A (zh) * 2018-05-21 2018-12-07 Oppo广东移动通信有限公司 应用程序预加载方法、装置、存储介质及终端
CN109976821A (zh) * 2017-12-14 2019-07-05 广东欧珀移动通信有限公司 应用程序加载方法、装置、终端及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050240652A1 (en) * 2004-04-21 2005-10-27 International Business Machines Corporation Application Cache Pre-Loading
CN104156242A (zh) * 2014-08-05 2014-11-19 吉林大学 一种缓存数据预加载、加载方法及装置
CN106341533A (zh) * 2016-08-30 2017-01-18 腾讯科技(深圳)有限公司 应用中加载网络资源的方法和装置
CN109976821A (zh) * 2017-12-14 2019-07-05 广东欧珀移动通信有限公司 应用程序加载方法、装置、终端及存储介质
CN108958828A (zh) * 2018-05-21 2018-12-07 Oppo广东移动通信有限公司 应用程序预加载方法、装置、存储介质及终端

Also Published As

Publication number Publication date
CN114079671A (zh) 2022-02-22

Similar Documents

Publication Publication Date Title
CN108153757B (zh) 一种哈希表管理的方法和装置
WO2021008311A1 (zh) 访问电子设备中的混合缓存的方法及装置
CN107992577B (zh) 一种哈希表数据冲突处理方法及装置
EP2998862A1 (en) Method, device, and system for memory management
US20170153909A1 (en) Methods and Devices for Acquiring Data Using Virtual Machine and Host Machine
CN109947720A (zh) 一种文件预读方法、装置、设备及可读存储介质
CN109787884B (zh) 一种消息推送方法和装置
WO2023179433A1 (zh) 流表存储及报文转发方法、装置、计算设备及介质
CN105988941B (zh) 缓存数据处理方法和装置
US9836491B1 (en) Method and apparatus for hardware-implemented AVL tree updates
CN112631504A (zh) 利用堆外内存实现本地缓存的方法和装置
CN113419973A (zh) 一种报文转发方法及装置
WO2022028165A1 (zh) 缓存管理方法、终端以及存储介质
CN114116656B (zh) 数据处理方法及相关装置
WO2021008301A1 (zh) 访问电子设备中的混合缓存的方法及装置
CN111680014B (zh) 共享文件的获取方法、装置、电子设备及存储介质
CN110825521B (zh) 一种内存使用管理方法、装置及存储介质
CN109214884B (zh) 需求撮合方法及装置、电子设备
CN113177169A (zh) 网络地址的类别获取方法、装置、设备及存储介质
CN111147556A (zh) 一种负载均衡方法、装置、设备及存储介质
CN111131497A (zh) 文件传输方法、装置、电子设备及存储介质
CN110032457B (zh) 一种复制粘贴方法和装置
CN114793234B (zh) 消息处理方法、装置、设备和存储介质
CN113177173B (zh) 一种数据访问方法、装置、设备及存储介质
CN116405443B (zh) 报文转发方法、装置、设备及存储介质

Legal Events

Date Code Title Description
NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 23.06.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21852528

Country of ref document: EP

Kind code of ref document: A1