CN116916390A - 一种结合资源分配的边缘协作缓存优化方法及装置 - Google Patents
一种结合资源分配的边缘协作缓存优化方法及装置 Download PDFInfo
- Publication number
- CN116916390A CN116916390A CN202311160197.0A CN202311160197A CN116916390A CN 116916390 A CN116916390 A CN 116916390A CN 202311160197 A CN202311160197 A CN 202311160197A CN 116916390 A CN116916390 A CN 116916390A
- Authority
- CN
- China
- Prior art keywords
- content
- base station
- cache
- user
- time slot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013468 resource allocation Methods 0.000 title claims abstract description 40
- 238000005457 optimization Methods 0.000 title claims abstract description 18
- 230000001413 cellular effect Effects 0.000 claims abstract description 11
- 239000007853 buffer solution Substances 0.000 claims abstract description 9
- 238000004891 communication Methods 0.000 claims abstract description 7
- 238000004364 calculation method Methods 0.000 claims abstract description 5
- 238000010276 construction Methods 0.000 claims abstract description 5
- 238000012384 transportation and delivery Methods 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 21
- 230000005540 biological transmission Effects 0.000 claims description 15
- 238000003860 storage Methods 0.000 claims description 10
- 239000000969 carrier Substances 0.000 claims description 9
- 239000000835 fiber Substances 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000002457 bidirectional effect Effects 0.000 claims description 6
- 230000003139 buffering effect Effects 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 5
- 239000000872 buffer Substances 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 239000013307 optical fiber Substances 0.000 claims description 4
- 239000000654 additive Substances 0.000 claims description 3
- 230000000996 additive effect Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims description 2
- 230000006870 function Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 239000013256 coordination polymer Substances 0.000 claims 9
- 230000002787 reinforcement Effects 0.000 description 3
- 230000001934 delay Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000243 solution Substances 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W28/00—Network traffic management; Network resource management
- H04W28/02—Traffic management, e.g. flow control or congestion control
- H04W28/10—Flow control between communication endpoints
- H04W28/14—Flow control between communication endpoints using intermediate storage
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/16—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/563—Data redirection of data network streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
- H04L67/5682—Policies or rules for updating, deleting or replacing the stored data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/04—Wireless resource allocation
- H04W72/044—Wireless resource allocation based on the type of the allocated resource
- H04W72/0453—Resources in frequency domain, e.g. a carrier in FDMA
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W72/00—Local resource management
- H04W72/50—Allocation or scheduling criteria for wireless resources
- H04W72/535—Allocation or scheduling criteria for wireless resources based on resource usage policies
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Mobile Radio Communication Systems (AREA)
Abstract
本发明公开了一种结合资源分配的边缘协作缓存优化方法及装置。该方法为:建立基于蜂窝网络和回程链路的边缘缓存系统;确定当前待分析基站中所有服务用户、基站中的信息数据;初始化边缘缓存系统的参数;确定时隙t的缓存策略;计算资源分配成本;更新基站的缓存内容;令时隙t=t+1,返回确定信息数据的步骤重复迭代,直至时隙t达到运行周期内最大值,输出边缘缓存系统中的最优缓存内容。该装置包括边缘缓存系统构建、信息数据确定、系统参数初始化、缓存策略确定、资源分配成本计算、基站缓存内容更新、迭代优化这七个模块。本发明能够提高网络资源利用率并最小化网络成本,满足了用户所需的QoS和大规模终端设备通信服务的网络可用性。
Description
技术领域
本发明涉及边缘协作缓存技术领域,特别是一种结合资源分配的边缘协作缓存优化方法及装置。
背景技术
随着多媒体应用的快速发展,对数据传输速率的要求越来越高,使得传输资源管理变得非常具有挑战性。此外,从服务器下载用户请求的内容将导致额外的资源消耗,从而导致网络成本的增加。因此,内容缓存最近已作为一种有前景的解决方案出现,内容缓存是指将流行内容缓存在基站BS的存储器中,以减轻回程业务的负担,从而提高用户的服务质量QoS。但是基站的储存容量是有限的,许多内容无法缓存在基站BS中。
为了克服基站BS处的存储限制问题,一种有效的方法是协作缓存,其中所请求的内容如果在基站BS中未缓存,但是请求内容存储在相邻基站BS中,则可以从相邻基站BS获取。在这种情况下,降低了交付内容的资源成本,提高了用户服务质量QoS。虽然内容缓存可以通过使内容接近用户来降低网络成本,但是频谱效率和发射功率从网络成本的角度来看也是很重要的参数,上述工作都没有考虑网络带宽资源在网络成本中的影响。尽管考虑了协作内容缓存来减少回程流量,但是由于传输链路的有限容量,链路仍然遭受巨大的网络业务量。在这方面,研究内容缓存过程中的资源消耗和两个基站BS之间的链路即协作链路对网络成本的影响具有重要意义。
发明内容
本发明的目的在于提供一种结合资源分配的边缘协作缓存优化方法及装置,以提高网络资源利用率并最小化网络成本,并且满足用户所需的QoS和大规模终端设备通信服务的网络可用性。
实现本发明目的的技术解决方案为:一种结合资源分配的边缘协作缓存优化方法,包括以下步骤:
步骤1、建立基于蜂窝网络和回程链路的边缘缓存系统;
步骤2、确定当前待分析基站中所有服务用户、基站中的信息数据;
步骤3、初始化边缘缓存系统的参数;
步骤4、确定时隙的缓存策略/>;
步骤5、计算资源分配成本;
步骤6、更新基站的缓存内容;
步骤7、令时隙,返回步骤2,重复迭代,直至时隙/>达到运行周期内最大值,输出边缘缓存系统中的最优缓存内容。
本发明与现有技术相比,其显著优点为:
(1)提高网络资源利用率并最小化网络成本,同时还可以满足用户所需的QoS和大规模设备类型通信服务的网络可用性;
(2)研究了联合用户关联和子载波分配的边缘缓存网络,从而找到用户分配和基站资源的优化使用方法;同时基站间协作提供用户所需的内容,以尽量减少成本;
(3)采用PD-NOMA技术在接入链路分配多个用户到一个子载波,能够降低网络成本,增加无线容量,以支持未来网络的大规模连接。
附图说明
图1是结合资源分配的边缘协作缓存系统模型图。
图2是结合资源分配的边缘协作缓存的用户内容请求流程图。
图3是内容交付方案示意图。
具体实施方式
容易理解,依据本发明的技术方案,在不变更本发明的实质精神的情况下,本领域的一般技术人员可以想象出本发明的多种实施方式。因此,以下具体实施方式和附图仅是对本发明的技术方案的示例性说明,而不应当视为本发明的全部或者视为对本发明技术方案的限制或限定。
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
本发明提出一种结合资源分配的边缘协作缓存优化方法,其不仅可以提高网络资源利用率并最小化网络成本,而且还可以满足用户所需的QoS和大规模终端设备通信服务的网络可用性。在协作缓存网络研究了用户关联和子载波分配,从而优化用户资源分配和BS的资源利用率,同时尽可能提供用户所需的内容,以减少成本。此外,采用功率域非正交多址接入(PD-NOMA)技术在传输链路分配多个用户到一个子载波,这能够降低网络成本,增加无线容量,以支持未来网络的大规模连接。
本发明结合资源分配的边缘协作缓存优化方法,具体包括以下步骤:
步骤1、建立基于蜂窝网络和回程链路的边缘缓存系统;
步骤2、确定当前待分析基站中所有服务用户、基站中的信息数据;
步骤3、初始化边缘缓存系统的参数;
步骤4、确定时隙的缓存策略/>;
步骤5、计算资源分配成本;
步骤6、更新基站的缓存内容;
步骤7、令时隙,返回步骤2,重复迭代,直至时隙/>达到运行周期内最大值,输出边缘缓存系统中的最优缓存内容。
作为一种具体示例,步骤1中,建立基于蜂窝网络和回程链路的边缘缓存系统,具体如下:
建立基于蜂窝网络和回程链路的边缘缓存系统,包括一个宏基站(MBS)和多个基站,可以彼此交换内容。所有基站(BS)经由光纤前传链路彼此连接。每个BS在集合中,大小为/>,MBS由索引0表示。设每个基站具有一定的储存容量,如基站/>的最大存储容量由/>表示。设定只有一个基站BS为/>集合中的每个用户/>提供服务,大小为/>。
所有BS通过回程链路连接到远程CP,CP表示内容提供商,对于回程链路考虑无限容量,远程CP具有所有基站的缓存内容,/>,/>表示内容/>的大小;
每个用户在每个时隙中只请求一个内容/>,时隙/>由集合/>表示。
作为一种具体示例,步骤1中,边缘缓存系统的网络分为两个时间段:第一阶段为内容缓存阶段,第二阶段为内容交付阶段;内容交付阶段被划分成多个时隙,其中所有用户的请求由BS提供;每个用户在每个时隙中只请求一个内容,时隙由集合表示;
内容缓存阶段的内容通过回程链路缓存,在完成内容缓存阶段之后,启动内容交付阶段;在每个时隙上,用户位置和接入网络的信道增益是固定的,每个时隙中的信道增益彼此独立;在接收到用户内容请求之后,BS开始向用户发送所请求的内容。
作为一种具体示例,用户内容请求的流程如下:
①当基站接收到来自用户的所有请求时,检索基站/>的存储器查看所请求的内容/>是否已缓存;如果内容/>缓存于基站/>的存储器中,则为缓存命中情况CHC;否则,进入②;
②基站向相邻的所有BS发送对内容/>的请求;从基站/>接收到请求的每个基站在存储器中搜索内容/>,/>;从存储器中具有内容/>的所有BS中,选择基站/>经由前传光纤链路向基站/>发送内容/>;在获得内容/>时,基站/>将内容/>发送给请求内容/>的所有用户;这种情况为协作缓存命中情况CCHC;
③如果所请求的内容没有被缓存在任何BS中,则基站/>将请求转发到远程CP以获取内容/>;然后,内容/>由远程CP发送到基站/>,并且在内容/>由相应的基站/>传输到用户之后,过程终止;这种情况为缓存未命中情况CMC。
作为一种具体示例,步骤2中,确定当前待分析基站中所有服务用户、基站中的信息数据,具体如下:
用户的信息数据包括用户的请求内容;基站的信息数据包括基站的缓存内容/>、基站的最大存储容量/>、基站的服务用户/>和当前基站的缓存策略/>,/>由下式表示:
其中,且/>;策略参数/>表示在时隙/>处用户的请求内容/>由基站/>提供;策略参数/>表示在时隙/>处用户的请求内容/>由基站/>的相邻基站/>提供;策略参数/>表示在时隙/>处用户的请求内容/>由远程CP提供。
作为一种具体示例,步骤3中,初始化边缘缓存系统的参数,具体如下:
设定缓存策略,其中/>;
设定资源分配成本,/>表示成本为非负数;
设定时隙的初始值为1;
设定基站的缓存内容随机从F个不同的流行内容中抽取,且满足约束条件;F表示基站获取的所有流行内容,基站容量有限,不能全部缓存;f表示被选择缓存于基站的流行内容;/>表示缓存于基站的流行内容对应的文件大小。
通过具有平均值和方差/>的对数正态分布建立流行内容的模型,如下式:
其中表示内容/>流行度;/>表示正态分布曲线的陡度参数,/>,/>的值越小表示内容/>被用户请求的概率越大,内容/>的值越大表示被用户请求的概率越低;定义作为请求参数,/>表示用户/>在时隙/>请求内容/>,否则/>。
作为一种具体示例,步骤4中,确定时隙的缓存策略/>,具体如下:
(4.1)根据基站缓存内容状态信息判断请求内容/>的缓存位置;若,则判断请求内容/>缓存在基站/>中,进入步骤(4.2);若/>,则判断请求内容/>未缓存在基站/>中,进入步骤(4.3);
(4.2)更新缓存参数,令,确定时隙/>的内容缓存策略/>为用户所请求的内容由基站/>提供;
(4.3)根据协作缓存基站的缓存内容,检索用户请求的内容,若相邻基站缓存有该内容,则令,确定时隙/>的内容缓存策略/>为用户所请求的内容由基站/>的相邻基站/>提供,否则进入步骤(4.4);
(4.4)更新缓存参数,令,确定时隙/>的内容缓存策略/>为用户所请求的内容由远程CP提供。
作为一种具体示例,步骤5中,计算资源分配成本,具体如下:
资源分配成本的公式为:
其中,表示功耗成本,/>表示无线带宽成本,/>表示链路带宽成本;
用表示总下行链路带宽,被划分为/>个正交子载波,子载波带宽为/>;另外,在第/>个子载波上来自基站/>的用户/>的接入链路的时隙/>处的可实现数据速率由下式计算:
其中是子载波分配参数,其中在时隙/>处第/>个子载波被分配给基站/>中的用户/>,则为/>,否则为/>。
用于表示在时隙/>在子载波/>上从基站/>接收到的用户/>的信号与干扰加噪声比SINR,由下式给出:
其中是在第/>个子载波上从基站/>到用户/>的发射功率;/>为用户和基站/>之间在子载波/>上的信道功率增益;/>是加性高斯白噪声AWGN的功率;是分配给基站/>的用户/>在子载波/>上,来自基于非正交多址接入分配相同子载波的基站/>的所有其他用户的接收干扰;/>是来自其他基站的用户对用户/>的干扰。
(1)功耗成本
通常,在时隙t每个基站 b处的总消耗功率包括基带单元(BBU)处的通信和计算功率,并且可以建模如下:
其中,,/>是发射功率的单位成本。
因此,功耗成本为
(2)无线带宽成本
无线带宽成本表示用户设备和基站间的传输成本,即时隙处的每个BS处的无线带宽消耗成本:
其中是无线电带宽消耗的单位成本。
(3)链路带宽成本
链路带宽成本表示基站与基站间或者基站与远程CP间的传输成本;设是基站/>从协作基站/>获取内容/>的协作获取指示符;/>是确定是否从远程CP下载内容/>的二进制指示符,如果/>,则从回程链路获取内容/>,否则
链路带宽成本是整个网络中光纤链路的带宽消耗,由下式给出:
其中,和/>分别为CCHC和CMC的交付成本,CCHC表示协作缓存命中情况,CMC表示缓存未命中情况;/>是在时隙/>处从基站/>到基站/>的前传链路中的内容/>的数据速率,/>是基站/>中用于在时隙/>处递送内容/>的回程链路所分配的数据速率。
作为一种具体示例,步骤6中,更新基站的缓存内容,具体如下:
(6.1)建立基于强化学习的内容替换模型,并利用基于强化学习的内容替换模型更新基站的缓存内容;
(6.2)所述基于强化学习的内容替换模型,具体采用基于双向长短时记忆网络Bi-LSTM的DRQN神经网络模型,用于制定基站缓存内容替换策略;
基于Bi-LSTM的内容替换模型DRQN结构,包括输入层、双向LSTM层、隐藏层和输出层,其中:
输入层,用于将原始内容映射为向量序列,原始内容包括当前环境状态、时间信息、用户请求情况;
双向LSTM层,用于捕捉输入序列的上下文信息,正向LSTM和反向LSTM分别处理输入序列的正向和反向信息,然后将正向和反向的输出连接起来;Bi-LSTM同时处理正向和反向的序列信息,从而能够更好地捕捉每个时间步的上下文信息。这有助于理解每个时间步的输入与前后时间步的关系,对于序列数据中的依赖关系有着更准确的建模能力。双向LSTM 进一步缓解了梯度消失的问题,因为在反向过程中也有单独的记忆单元。这使得模型能够在更长的序列中保持梯度的有效传播,有助于更好地训练深层网络;
隐藏层有多个,每个隐藏层由多个神经元组成,每个神经元将双向LSTM的输出与权重相乘,并传递给激活函数;隐藏层的目标是捕捉输入之间的非线性关系,提取高级特征;
输出层,用于生成Q值向量,表示每个内容的替换优先级;Q值向量中的值对应于缓存中每个内容的预期奖励,从而指导替换决策;
(6.3)将当前获得的缓存策略和总系统代价/>,作为已构建好的基于强化学习的内容替换模型的输入数据,然后不断训练优化,根据优化后的最低系统成本缓存策略更新当前基站的缓存内容。
本发明还提供一种结合资源分配的边缘协作缓存优化装置,该装置用于实现所述的结合资源分配的边缘协作缓存优化方法,所述装置包括边缘缓存系统构建模块、信息数据确定模块、系统参数初始化模块、缓存策略确定模块、资源分配成本计算模块、基站缓存内容更新模块、迭代优化模块,其中:
边缘缓存系统构建模块,用于建立基于蜂窝网络和回程链路的边缘缓存系统;
信息数据确定模块,用于确定当前待分析基站中所有服务用户、基站中的信息数据;
系统参数初始化模块,用于初始化边缘缓存系统的参数;
缓存策略确定模块,用于确定时隙的缓存策略/>;
资源分配成本计算模块,用于计算资源分配成本;
基站缓存内容更新模块,用于更新基站的缓存内容;
迭代优化模块,用于令时隙,返回信息数据确定模块,重复迭代,直至时隙达到运行周期内最大值/>,输出边缘缓存系统中的最优缓存内容。
下面结合附图及具体实施例对本发明做进一步详细说明。
实施例
本发明实施例中,所述系统和方法通过以下步骤实现:
(1)建立基于蜂窝网络和回程链路的边缘缓存系统,包括一个宏基站(MBS)和多个基站,可以彼此交换内容。系统模型如图1所示,所有基站(BS)经由光纤前传链路彼此连接。每个BS在集合中,大小为/>,MBS由索引0表示。设每个基站具有一定的储存容量,如基站/>的最大存储容量由/>表示。设定只有一个基站为集合中的每个用户/>提供服务,大小为/>。所有BS通过回程链路连接到远程内容提供商(CP),对于回程链路考虑无限容量,远程CP具有所有内容/>,由集合表示,由/>表示的内容/>的大小。
网络中有两个时间段:第一阶段涉及内容缓存,第二阶段涉及内容交付。此后,交付阶段被划分成若干小时隙,其中所有用户的请求由BS提供。每个用户在每个小时隙中只请求一个内容,时隙由集合表示。缓存阶段发生在网络的低流量时间,其中内容通过回程链路缓存。此外,在所考虑的网络中,内容缓存是通过缓存替换策略和信道分布信息作为输入的深度学习神经网络来完成的。在完成缓存阶段之后,将启动交付阶段。在每个短时隙上,用户位置和接入网络的信道增益是固定的,每个短时隙中的信道增益彼此独立。在接收到内容请求之后,BS开始向它们的用户发送所请求的内容。
用户内容请求流程图如图2所示,提供所请求的内容的过程定义如下:
①当基站b接收到来自其用户的所有请求时,检索其存储器以查看所请求的内容c是否已缓存。如果内容c缓存于b的存储器中,则如图3发生该缓存命中情况(CHC)。
②否则,基站b向相邻的所有BS发送对内容c的请求。从基站b接收到请求的每个基站 i(i≠b)在其存储器中搜索内容c。从在其存储器中具有内容c的所有BS中,基站 i被选择为经由前传光纤链路向基站 b发送内容c。在获得内容c时,基站 b将其发送给请求内容c的所有用户。在这种情况下,发生图3所示的协作缓存命中情况(CCHC)。
③如果所请求的内容c没有被缓存在任何BS中,则基站 b将请求转发到远程CP以获取内容c。然后,内容由远程CP发送到基站b,并且在内容c由相应的基站 b传输到用户之后,过程终止。在这种情况下,如图3所示缓存未命中情况(CMC)发生。此外,内容c从远程CP向每个基站b递送一次。
(2)获取当前待分析基站中所有服务用户、基站中的信息数据。所述终端设备的信息数据包括终端设备的请求内容c;所述基站的信息数据包括基站的缓存内容C、基站的缓存容量大小、基站的服务用户U和当前基站的缓存策略/>;
,且/>策略参数/>表示在时隙t处用户请求的内容c由基站b提供;策略参数/>表示在时隙t处用户请求的内容c由基站b的相邻基站i提供;策略参数/>表示在时隙t处用户请求的内容c由远程CP提供;
(3)初始化缓存系统参数:
设定缓存策略,其中/>。
设定资源分配成本。设定基站的缓存内容C随机从F个不同的流行内容中抽取,且满足约束条件/>,/>为基站缓存内容的容量。
通过具有平均值和方差/>的对数正态分布来建立内容流行度的模型,其由下式给出:
其中和/>分别表示内容/>流行度和正态分布曲线的陡度参数。/>的值越小意味着内容/>被用户请求的概率越大,并且内容/>的值越大意味着被用户请求的概率越低。定义/>作为请求参数,/>其中表示用户/>在时隙/>请求内容/>;否则/>。
(4)确定时隙的缓存策略/>,具体步骤包括:
(4.1)根据基站缓存内容状态信息判断请求内容/>的缓存位置;若,则判断请求内容/>缓存在基站/>中,进入步骤(4.2);若/>,则判断请求内容/>未缓存在基站/>中,进入步骤(4.3);
(4.2)更新缓存参数,令,确定时隙/>的内容缓存策略/>为用户所请求的内容由基站/>提供;
(4.3)根据协作缓存基站的缓存内容,检索用户请求的内容,若相邻基站缓存有该内容,则令,确定时隙/>的内容缓存策略/>为用户所请求的内容由基站/>的相邻基站/>提供,否则进入步骤(4.4);
(4.4)更新缓存参数,令,确定时隙/>的内容缓存策略/>为用户所请求的内容由远程CP提供。
(5)计算资源分配成本:
其中,表示功耗成本,/>表示无线带宽成本,/>表示链路带宽成本;
用表示总下行链路带宽,被划分为/>个正交子载波,子载波带宽为/>;另外,在第/>个子载波上来自基站/>的用户/>的接入链路的时隙/>处的可实现数据速率由下式计算:
其中是子载波分配参数,其中在时隙/>处第/>个子载波被分配给基站/>中的用户/>,则为/>,否则为/>;
此外,用于表示在时隙/>在子载波/>上从基站/>接收到的用户/>的信号与干扰加噪声比SINR,由下式给出:
其中是在第/>个子载波上从基站/>到用户/>的发射功率;/>为用户和基站/>之间在子载波/>上的信道功率增益;/>是加性高斯白噪声AWGN的功率;是分配给基站/>的用户/>在子载波/>上,来自基于非正交多址接入分配相同子载波的基站/>的所有其他用户的接收干扰;/>是来自其他基站的用户对用户/>的干扰;
功耗成本:通常,在时隙每个基站/>处的总消耗功率包括基带单元BBU处的通信和计算功率,并且建模如下:
其中,,/>是发射功率的单位成本。因此,成本的第一部分是:
无线带宽成本:该成本表示用户设备和基站间的传输成本,即时隙处的每个BS处的无线带宽消耗成本,如下:
其中是无线电带宽消耗的单位成本。
链路带宽成本:该成本表示基站与基站间或者基站与远程CP间的传输成本。设是基站/>从协作基站/>获取内容/>的协作获取指示符;/>是确定是否从远程CP下载内容/>的二进制指示符,如果/>,则从回程链路获取内容/>,否则。
考虑的成本的第三部分是整个网络中光纤链路的带宽消耗,其由下式给出:
其中,/>和/>分别为CCHC和CMC的交付成本,CCHC表示协作缓存命中情况,CMC表示缓存未命中情况;是在时隙/>处从基站/>到基站/>的前传链路中的内容/>的数据速率,/>是基站中用于在时隙/>处递送内容/>的回程链路所分配的数据速率。
计算成本约束包括:
储存约束:BS的存储器中的内容放置取决于存储器容量。即,BS的存储器中的缓存内容的总大小不应超过存储容量。因此,施加以下约束:
其中是内容放置变量,其中/>示内容c存在于基站 b中,否则为/>。由于缓存的内容直到时隙t + 1才发生变化,因此对于每个交付时隙t,内容放置变量都具有相同的值。
功率约束:为基站b中的所有用户分配的发射功率不应超过最大功率预算,如以下约束中所述:
其中是基站b中的最大功率预算。此外,对于每个子载波存在如下的最大功率限制:
其中是每个子载波n上的最大发射功率。
PD-NOMA约束:分配给一个子载波的用户的数量被限制如下:
其中是允许分配给一个子载波的用户的最大数量。
BS分配约束:每个用户被分配给一个BS。因此,如下有:
内容交付约束:表示在时隙t处基站b中的内容c的CHC的发生。因此,如果/>,从基站 b的存储器发送内容c;否则/>。如前所述,当所有请求的内容都被递送时,内容递送过程结束。此外,每个内容都可以通过CHC,CCHC,CMC来获取。因此,以下约束表示每个基站 b中针对每个内容c的内容递送过程应当仅由供应情况中的一个执行:
如果,/>则不能为1。即,如果所请求的内容c不存在于相关联的基站b的存储器中,则CHC不能发生。因此,它产生以下约束:
另一方面,如果内容c被缓存在基站 i的存储器中,则可以是1。在这种情况下,内容c在基站b中的CCHC出现取决于内容c在基站i的存储器中的存在,因此有:
传输约束:基站b中的多于一个用户可以请求内容c。为了在CCHC情况下将内容c从基站i递送到基站b,从基站i到基站b的前传链路的专用数据速率应当大于请求用户的最小接入速率。因此,引入以下约束:
同理,对于在CMC情况下从回程链路到基站b的获取,包括以下约束:
内容交付时间约束:每个请求的内容被强制在每个短时隙(T秒)中被递送以避免延迟。此外,前传和回程链路延迟的延迟被假设为超低。因此,下一个约束如下控制每个内容和每个用户的递送时间:
上述约束表示大小为的每个内容c应当在T秒内被递送到基站b中的用户u。
前传光纤链路限制的最大速率约束:用于从基站i发送到基站 b的所有内容的分配的前传数据速率不应超过所提到的前传链路的有限最大数据速率。则:
其中表示基站i和基站b之间的前传链路的最大数据速率。
(6)更新基站的缓存内容:
建立基于强化学习的内容替换模型,并利用基于强化学习的内容替换模型更新基站的缓存内容;所述基于强化学习的内容替换模型为神经网络模型,包括输入层、输出层和隐藏层。
将当前获得的缓存策略和总系统代价/>作为已构建好的基于强化学习的内容替换模型的输入数据并不断训练优化,根据优化后的最低系统成本缓存策略更新当前基站的缓存内容。
(7)返回步骤(2),重复迭代,直至时刻t=V,输出边缘缓存系统中的最优缓存内容C;V为运行周期。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。
应当理解,为了精简本发明并帮助本领域的技术人员理解本发明的各个方面,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时在单个实施例中进行描述,或者参照单个图进行描述。但是,不应将本发明解释成示例性实施例中包括的特征均为本专利权利要求的必要技术特征。
Claims (10)
1.一种结合资源分配的边缘协作缓存优化方法,其特征在于,包括以下步骤:
步骤1、建立基于蜂窝网络和回程链路的边缘缓存系统;
步骤2、确定当前待分析基站中所有服务用户、基站中的信息数据;
步骤3、初始化边缘缓存系统的参数;
步骤4、确定时隙的缓存策略/>;
步骤5、计算资源分配成本;
步骤6、更新基站的缓存内容;
步骤7、令时隙,返回步骤2,重复迭代,直至时隙/>达到运行周期内最大值/>,输出边缘缓存系统中的最优缓存内容。
2.根据权利要求1所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤1中,建立基于蜂窝网络和回程链路的边缘缓存系统,具体如下:
边缘缓存系统包括能够彼此交换内容的多个BS,其中一个为MBS,BS表示基站,MBS表示宏基站;
基于蜂窝网络,所有BS经由光纤前传链路彼此连接;每个BS在集合中,大小为/>,MBS由索引0表示;设每个BS具有储存容量,基站/>的最大存储容量由表示;设定只有一个BS为用户集合/>中的每个用户/>提供服务,大小为/>;
所有BS通过回程链路连接到远程CP,CP表示内容提供商,对于回程链路考虑无限容量,远程CP具有所有基站的缓存内容,/>,/>表示内容/>的大小;
每个用户在每个时隙中只请求一个内容/>,时隙/>由集合/>表示。
3.根据权利要求2所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤1中,边缘缓存系统的网络分为两个时间段:第一阶段为内容缓存阶段,第二阶段为内容交付阶段;内容交付阶段被划分成多个时隙,其中所有用户的请求由BS提供;每个用户在每个时隙中只请求一个内容,时隙由集合表示;
内容缓存阶段的内容通过回程链路缓存,在完成内容缓存阶段之后,启动内容交付阶段;在每个时隙上,用户位置和接入网络的信道增益是固定的,每个时隙中的信道增益彼此独立;在接收到用户内容请求之后,BS开始向用户发送所请求的内容。
4.根据权利要求3所述的结合资源分配的边缘协作缓存优化方法,其特征在于,用户内容请求的流程如下:
①当基站接收到来自用户的所有请求时,检索基站/>的存储器查看所请求的内容/>是否已缓存;如果内容/>缓存于基站/>的存储器中,则为缓存命中情况CHC;否则,进入②;
②基站向相邻的所有BS发送对内容/>的请求;从基站/>接收到请求的每个基站/>在存储器中搜索内容/>,/>;从存储器中具有内容/>的所有BS中,选择基站/>经由前传光纤链路向基站/>发送内容/>;在获得内容/>时,基站/>将内容/>发送给请求内容/>的所有用户;这种情况为协作缓存命中情况CCHC;
③如果所请求的内容没有被缓存在任何BS中,则基站/>将请求转发到远程CP以获取内容/>;然后,内容/>由远程CP发送到基站/>,并且在内容/>由相应的基站/>传输到用户之后,过程终止;这种情况为缓存未命中情况CMC。
5.根据权利要求4所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤2中,确定当前待分析基站中所有服务用户、基站中的信息数据,具体如下:
用户的信息数据包括用户的请求内容;基站的信息数据包括基站的缓存内容/>、基站的最大存储容量/>、基站的服务用户/>和当前基站的缓存策略/>,/>由下式表示:
;
其中,且/>;策略参数/>表示在时隙/>处用户的请求内容/>由基站/>提供;策略参数/>表示在时隙/>处用户的请求内容/>由基站/>的相邻基站/>提供;策略参数/>表示在时隙/>处用户的请求内容/>由远程CP提供。
6.根据权利要求5所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤3中,初始化边缘缓存系统的参数,具体如下:
设定缓存策略,其中/>;
设定资源分配成本,/>表示成本为非负数;
设定时隙的初始值为1;
设定基站的缓存内容随机从F个不同的流行内容中抽取,且满足约束条件; F表示基站获取的所有流行内容,基站容量有限,不能全部缓存;f表示被选择缓存于基站的流行内容;/>表示缓存于基站的流行内容对应的文件大小;
通过具有平均值和方差/>的对数正态分布建立流行内容的模型,如下式:
;
其中表示内容/>流行度;/>表示正态分布曲线的陡度参数,/>,/>的值越小表示内容/>被用户请求的概率越大,内容/>的值越大表示被用户请求的概率越低;定义作为请求参数,/>表示用户/>在时隙/>请求内容/>,否则/>。
7.根据权利要求6所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤4中,确定时隙的缓存策略/>,具体如下:
(4.1)根据基站缓存内容状态信息判断请求内容/>的缓存位置;若/>,则判断请求内容/>缓存在基站/>中,进入步骤(4.2);若/>,则判断请求内容/>未缓存在基站/>中,进入步骤(4.3);
(4.2)更新缓存参数,令,确定时隙/>的内容缓存策略/>为用户所请求的内容由基站/>提供;
(4.3)根据协作缓存基站的缓存内容,检索用户请求的内容,若相邻基站缓存有该内容,则令,确定时隙/>的内容缓存策略/>为用户所请求的内容由基站/>的相邻基站/>提供,否则进入步骤(4.4);
(4.4)更新缓存参数,令,确定时隙/>的内容缓存策略/>为用户所请求的内容由远程CP提供。
8.根据权利要求7所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤5中,计算资源分配成本,具体如下:
资源分配成本的公式为:
;
其中,表示功耗成本,/>表示无线带宽成本,/>表示链路带宽成本;
用表示总下行链路带宽,被划分为/>个正交子载波,子载波带宽为/>;另外,在第/>个子载波上来自基站/>的用户/>的接入链路的时隙/>处的可实现数据速率由下式计算:
;
其中是子载波分配参数,其中在时隙/>处第/>个子载波被分配给基站/>中的用户/>,则为/>,否则为/>;
用于表示在时隙/>在子载波/>上从基站/>接收到的用户/>的信号与干扰加噪声比SINR,由下式给出:
;
其中是在第/>个子载波上从基站/>到用户/>的发射功率;/>为用户/>和基站/>之间在子载波/>上的信道功率增益;/>是加性高斯白噪声AWGN的功率;/>是分配给基站/>的用户/>在子载波/>上,来自基于非正交多址接入分配相同子载波的基站的所有其他用户的接收干扰;/>是来自其他基站的用户对用户/>的干扰;
(1)功耗成本
在时隙每个基站/>处的总消耗功率包括基带单元BBU处的通信和计算功率,并且建模如下:
;
;
其中,;/>是发射功率的单位成本;
因此,功耗成本为
;
(2)无线带宽成本
无线带宽成本表示用户设备和基站间的传输成本,即时隙处的每个BS处的无线带宽消耗成本:
;
其中是无线电带宽消耗的单位成本;
(3)链路带宽成本
链路带宽成本表示基站与基站间或者基站与远程CP间的传输成本;设是基站/>从协作基站/>获取内容/>的协作获取指示符;/>是确定是否从远程CP下载内容/>的二进制指示符,如果/>,则从回程链路获取内容/>,否则/>;
链路带宽成本是整个网络中光纤链路的带宽消耗,由下式给出:
;
其中,和/>分别为CCHC和CMC的交付成本,CCHC表示协作缓存命中情况,CMC表示缓存未命中情况;/>是在时隙/>处从基站/>到基站/>的前传链路中的内容/>的数据速率,/>是基站/>中用于在时隙/>处递送内容/>的回程链路所分配的数据速率。
9.根据权利要求8所述的结合资源分配的边缘协作缓存优化方法,其特征在于,步骤6中,更新基站的缓存内容,具体如下:
(6.1)建立基于强化学习的内容替换模型,并利用基于强化学习的内容替换模型更新基站的缓存内容;
(6.2)所述基于强化学习的内容替换模型,具体采用基于双向长短时记忆网络Bi-LSTM的DRQN神经网络模型,用于制定基站缓存内容替换策略;
基于Bi-LSTM的内容替换模型DRQN结构,包括输入层、双向LSTM层、隐藏层和输出层,其中:
输入层,用于将原始内容映射为向量序列,原始内容包括当前环境状态、时间信息、用户请求情况;
双向LSTM层,用于捕捉输入序列的上下文信息,正向LSTM和反向LSTM分别处理输入序列的正向和反向信息,然后将正向和反向的输出连接起来;
隐藏层有多个,每个隐藏层由多个神经元组成,每个神经元将双向LSTM的输出与权重相乘,并传递给激活函数;隐藏层的目标是捕捉输入之间的非线性关系,提取高级特征;
输出层,用于生成Q值向量,表示每个内容的替换优先级;Q值向量中的值对应于缓存中每个内容的预期奖励,从而指导替换决策;
(6.3)将当前获得的缓存策略和总系统代价/>,作为已构建好的基于强化学习的内容替换模型的输入数据,然后不断训练优化,根据优化后的最低系统成本缓存策略更新当前基站的缓存内容。
10.一种结合资源分配的边缘协作缓存优化装置,其特征在于,该装置用于实现权利要求1~9任一项所述的结合资源分配的边缘协作缓存优化方法,所述装置包括边缘缓存系统构建模块、信息数据确定模块、系统参数初始化模块、缓存策略确定模块、资源分配成本计算模块、基站缓存内容更新模块、迭代优化模块,其中:
边缘缓存系统构建模块,用于建立基于蜂窝网络和回程链路的边缘缓存系统;
信息数据确定模块,用于确定当前待分析基站中所有服务用户、基站中的信息数据;
系统参数初始化模块,用于初始化边缘缓存系统的参数;
缓存策略确定模块,用于确定时隙的缓存策略/>;
资源分配成本计算模块,用于计算资源分配成本;
基站缓存内容更新模块,用于更新基站的缓存内容;
迭代优化模块,用于令时隙,返回信息数据确定模块,重复迭代,直至时隙/>达到运行周期内最大值/>,输出边缘缓存系统中的最优缓存内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311160197.0A CN116916390A (zh) | 2023-09-11 | 2023-09-11 | 一种结合资源分配的边缘协作缓存优化方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311160197.0A CN116916390A (zh) | 2023-09-11 | 2023-09-11 | 一种结合资源分配的边缘协作缓存优化方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116916390A true CN116916390A (zh) | 2023-10-20 |
Family
ID=88360556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311160197.0A Pending CN116916390A (zh) | 2023-09-11 | 2023-09-11 | 一种结合资源分配的边缘协作缓存优化方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116916390A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117234759A (zh) * | 2023-11-13 | 2023-12-15 | 长沙时代跳动科技有限公司 | 一种app服务平台的数据处理方法及系统 |
CN117785332A (zh) * | 2024-02-28 | 2024-03-29 | 国维技术有限公司 | 一种虚拟三维空间动态资源加载释放方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020103384A4 (en) * | 2020-11-11 | 2021-01-28 | Beijing University Of Technology | Method for Constructing Energy-efficient Network Content Distribution Mechanism Based on Edge Intelligent Caches |
CN113891327A (zh) * | 2021-08-19 | 2022-01-04 | 广东工业大学 | 一种基于深度多用户drqn的动态频谱接入方法 |
CN114811713A (zh) * | 2022-04-22 | 2022-07-29 | 常州英集动力科技有限公司 | 基于混合深度学习的二级网户间均衡供热调控方法 |
-
2023
- 2023-09-11 CN CN202311160197.0A patent/CN116916390A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2020103384A4 (en) * | 2020-11-11 | 2021-01-28 | Beijing University Of Technology | Method for Constructing Energy-efficient Network Content Distribution Mechanism Based on Edge Intelligent Caches |
CN113891327A (zh) * | 2021-08-19 | 2022-01-04 | 广东工业大学 | 一种基于深度多用户drqn的动态频谱接入方法 |
CN114811713A (zh) * | 2022-04-22 | 2022-07-29 | 常州英集动力科技有限公司 | 基于混合深度学习的二级网户间均衡供热调控方法 |
Non-Patent Citations (1)
Title |
---|
MARYAM MOGHIMI等: "Joint Radio Resource Allocation and Cooperative Caching in PD-NOMA-Based HetNets", IEEE TRANSACTIONS ON MOBILE COMPUTING, vol. 21, no. 6, pages 1 - 4 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117234759A (zh) * | 2023-11-13 | 2023-12-15 | 长沙时代跳动科技有限公司 | 一种app服务平台的数据处理方法及系统 |
CN117234759B (zh) * | 2023-11-13 | 2024-02-23 | 长沙时代跳动科技有限公司 | 一种app服务平台的数据处理方法及系统 |
CN117785332A (zh) * | 2024-02-28 | 2024-03-29 | 国维技术有限公司 | 一种虚拟三维空间动态资源加载释放方法 |
CN117785332B (zh) * | 2024-02-28 | 2024-05-28 | 国维技术有限公司 | 一种虚拟三维空间动态资源加载释放方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Du et al. | MEC-assisted immersive VR video streaming over terahertz wireless networks: A deep reinforcement learning approach | |
Guo et al. | An adaptive wireless virtual reality framework in future wireless networks: A distributed learning approach | |
Qian et al. | Reinforcement learning-based optimal computing and caching in mobile edge network | |
CN116916390A (zh) | 一种结合资源分配的边缘协作缓存优化方法及装置 | |
CN108834080B (zh) | 异构网络中基于多播技术的分布式缓存和用户关联方法 | |
CN108495340A (zh) | 一种基于异构混合缓存的网络资源分配方法和装置 | |
Hu et al. | Heterogeneous networks relying on full-duplex relays and mobility-aware probabilistic caching | |
CN111565419A (zh) | 一种超密集网络中面向延迟优化的协作式边缘缓存算法 | |
Liu et al. | MEC-assisted flexible transcoding strategy for adaptive bitrate video streaming in small cell networks | |
Li et al. | A delay-aware caching algorithm for wireless D2D caching networks | |
CN108093435A (zh) | 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法 | |
CN115714814B (zh) | 一种基于多智能体强化学习的边缘缓存替换方法 | |
Vu et al. | Latency minimization for content delivery networks with wireless edge caching | |
Zhang et al. | Two time-scale caching placement and user association in dynamic cellular networks | |
Kabir et al. | Energy-aware caching and collaboration for green communication systems. | |
CN113115362B (zh) | 协同边缘缓存方法及装置 | |
CN112887314B (zh) | 一种时延感知的云雾协作视频分发方法 | |
Al-Abiad et al. | Energy efficient federated learning in integrated fog-cloud computing enabled internet-of-things networks | |
Chen et al. | Dynamic task caching and computation offloading for mobile edge computing | |
Zheng et al. | Reinforcement learning for energy-efficient edge caching in mobile edge networks | |
CN108668288B (zh) | 用于优化无线缓存网络中小基站位置的方法 | |
Hua et al. | On cost minimization for cache-enabled D2D networks with recommendation | |
CN113411862B (zh) | 一种动态蜂窝网络中的缓存放置和用户接入方法及装置 | |
Yao et al. | Joint caching in fronthaul and backhaul constrained C-RAN | |
CN113766540B (zh) | 低时延的网络内容传输方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20231020 |