CN108990111B - 一种内容流行度随时间变化下的基站缓存方法 - Google Patents

一种内容流行度随时间变化下的基站缓存方法 Download PDF

Info

Publication number
CN108990111B
CN108990111B CN201810606373.1A CN201810606373A CN108990111B CN 108990111 B CN108990111 B CN 108990111B CN 201810606373 A CN201810606373 A CN 201810606373A CN 108990111 B CN108990111 B CN 108990111B
Authority
CN
China
Prior art keywords
content
popularity
helper
time
cached
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810606373.1A
Other languages
English (en)
Other versions
CN108990111A (zh
Inventor
刘楠
牛岩
潘志文
尤肖虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201810606373.1A priority Critical patent/CN108990111B/zh
Publication of CN108990111A publication Critical patent/CN108990111A/zh
Application granted granted Critical
Publication of CN108990111B publication Critical patent/CN108990111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W28/00Network traffic management; Network resource management
    • H04W28/02Traffic management, e.g. flow control or congestion control
    • H04W28/10Flow control between communication endpoints
    • H04W28/14Flow control between communication endpoints using intermediate storage

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

本发明公开了一种内容流行度随时间变化下的基站缓存方法。该方法在每个时间段,根据缓存内容的瞬时请求频率,利用多臂赌博机估计内容的流行度,同时将新产生的内容依次存储在这些helper中,考虑到不同helper覆盖下的用户对内容的请求频率有差异,通过隐语义模型估计每个helper下用户对新内容的请求频率,内容控制器根据估计的内容流行度更新缓存内容。本发明能在线实时估计内容流行度,并实时缓存流行度高的内容,从而提高缓存命中率,改善用户满意度和回程链路负载。

Description

一种内容流行度随时间变化下的基站缓存方法
技术领域
本发明涉及移动通信系统技术领域,尤其是一种内容流行度随时间变化下的基站缓存方 法。
背景技术
为了应对海量数据增长带来的对系统容量的挑战,一种有效的方案是在宏基站周围部署 helper,其中helper拥有缓存容量且能够缓存内容。当用户请求的内容存储在helper的缓存中, 内容直接从helper传给用户,不会占用回程链路资源,同时减少传输时延,提高用户体验。 如果用户请求的内容不在helper中,则将请求发送给宏基站并从宏基站下载所请求的内容。 基站主动存储是在请求未到达之前将内容存储在helper中,可以减小回传链路的流量,进而 缓解蜂窝系统中的流量负载,改善系统的性能。但目前多数缓存研究都是在内容流行度已知 且不随时间变化的情况下研究缓存性能,在内容流行度随时间变化情况下,性能尚待改进。
发明内容
发明目的:本发明目的在于提供一种基站缓存方法,能够在内容流行度随时间变化情况 下优化缓存内容,提高缓存命中率,缓解回程链路负载,提高用户满意度。
技术方案:为实现上述发明目的,本发明采用如下技术方案:
一种内容流行度随时间变化下的基站缓存方法,包括如下步骤:
(1)在每个时刻t,对在时刻
Figure BDA0001694431520000011
产生的缓存在helper中的内容,将内容作为多臂 赌博机中的“臂”,采用组合置信区间上界算法估计内容流行度,并按照内容流行度从高到低 缓内容,直到达到设定的各helper缓存容量占比;其中,Td为设定的新内容流行度计算周期;
(2)每隔设定的时间段Td,基于缓存在各个helper中的新内容的请求历史,利用隐语义 模型估计每个helper下覆盖用户对新内容的流行度,并按照内容流行度从高到低缓内容。
作为优选,步骤(1)中根据公式
Figure BDA0001694431520000012
估计时刻thelpern中内容流行度内容f的 流行度,其中Tf,n为内容f缓存在helpern的次数,
Figure BDA0001694431520000013
为观测到的内容流行度,更新方式为
Figure BDA0001694431520000014
Figure BDA0001694431520000015
为时刻t观测的瞬时请求次数。
作为优选,步骤(2)中,利用隐语义模型估计新内容的流行度,包括如下步骤:
(2.1)将新产生的内容依次存储在helper中,观测helper覆盖用户对新内容的请求频率, 构造不完全流行度矩阵;
(2.2)初始化参数向量pn和qf,其中pn表征用户n对潜在特征的感兴趣程度,qf表征内容f在特征的权重;
(2.3)采用梯度下降法求解获得参数pn和qf直到如下损失函数达到最小:
Figure BDA0001694431520000021
其中,
Figure BDA0001694431520000022
是已知内容流行度θf,n的(f,n)集合,参数λ控制正则化的程度;
(2.4)根据计算出的pn和qf,利用式
Figure BDA0001694431520000023
估计helper对某个新内容的流行度。
作为优选,步骤(2.1)中对于第f个新内容,则将内容f缓存在第n=f%N个helper中, 其中N是所有helper的个数。
作为优选,如果helper中没有足够的容量对时间段Td之间产生的新内容进行缓存,则对 新内容采用先进先出的规则进行替换。
作为优选,步骤(2.1)中新内容的不完全流行度矩阵根据
Figure BDA0001694431520000024
计算;其 中
Figure BDA0001694431520000025
为时刻t观测的瞬时请求次数,Tf,n为内容f缓存在helpern的次数。
有益效果:本发明结合机器学习中的多臂赌博机和隐语义模型提出一种在线实时的缓存 策略。一方面多臂赌博机模型能够边学习内容的流行度,边缓存流行度高的内容。另一方面, 隐语义模型采取基于用户行为统计的自动聚类,能反应用户对于内容的分类意见,能有效估 计新内容的流行度,同时减少多臂赌博机对新内容的探索次数。本发明将多臂赌博机和隐语 义模型进行结合,在内容流行度随时间变化情况下,能有效估计内容流行度,从而提高缓存 命中率,改善用户满意度和网络回程负载;与现有技术相比,本发明将机器学习引入到对缓 存内容的决策中,在内容流行度随时间变化的情况下,大大提高了缓存命中率,有效的缓解 了回程链路负载,提高用户满意度。
附图说明
图1为本发明实施例的应用场景图。
图2为本发明实施例的方法流程示意图。
具体实施方式
下面结合附图和具体实施例对发明的技术方案做进一步介绍。
考虑一个部署N个helpers的宏蜂窝网络,Helper用集合
Figure BDA0001694431520000031
表示。如图1所 示,每个helper通过可靠的回程链路连接到宏基站,同时向它服务的用户提供高速数据服务。 假设每个helper有固定的缓存容量M,宏基站中的内容控制器根据缓存策略确定每个helper 所缓存的内容。我们将时间分为一些时间段,每个时间段包含用户请求阶段和缓存放置阶段。 在用户请求阶段,helper所服务的用户请求内容,如果请求的内容存储在helper中,则helper 处理请求并将内容快速传输给用户,不会对宏蜂窝网络造成负载,与此同时,提高用户体验。 在缓存放置阶段,内容控制器根据缓存内容的瞬时请求频率更新缓存内容,同时helper将缓 存内容的更新信息广播给服务的用户。缓存放置阶段的持续时间可以忽略不计。
在每个时间段,helper将缓存的内容广播给它所服务的用户,注意内容控制器仅能观测 到缓存在helper中的内容请求信息。如果有新内容产生,我们应该将新内容缓存在helper中 来通知用户。
我们定义
Figure BDA0001694431520000032
为helper n所服务用户对于内容f在时刻t瞬时请求次数。瞬时请求次数,
Figure BDA0001694431520000033
是均值为θf,n的独立同分布随机变量,其值介于[0,Un]之间,这里Un是helper给定时间 内所能服务的最大用户数。我们假设同一个helper所服务的用户对于同一个内容有相同的请 求频率,不同helper所服务的用户对内容的请求频率不同。我们用Vf表示内容f的平均请求 次数。对于每一个内容,内容的平均请求次数Vf和θf,n之间的关系是:
Figure BDA0001694431520000034
内容控制器的目标是在事先不知道内容流行度的情况下,仅仅通过观察缓存在helper中 的内容请求频率,采用合适的缓存策略,估计内容流行度,在每个时间段优化缓存放置内容, 使用户直接从helper获得的数据流量最大化。
当用户请求的内容f从helper中获得,我们认为网络中有一个sf的奖赏,这里sf是内容 f的大小。这个奖赏可以被看作用户的QoE增益,或者是宏蜂窝网络中的带宽缓解。所以 对于每一个helper,其平均瞬时奖赏可以描述为:
Figure BDA0001694431520000035
其中Ft表示该时刻存在的所有内容的总数,
Figure BDA0001694431520000041
是缓存放置矩阵
Figure BDA0001694431520000042
的元素, 其中
Figure BDA0001694431520000043
表示内容f在时刻t被缓存在helper n中。
我们定义内容流行度矩阵
Figure BDA0001694431520000044
其中每个元素θf,n(t)表示helper n的覆盖区域下 内容f的流行度。注意到不同helper所服务的用户对于同一个内容的流行度可能不同,也就 是θf,n(t)≠θf,n'(t)。如果内容流行度Θ(t)已知,内容控制器可以根据流行度从高到低将内容 缓存在helper中。但在实际中,我们事先并不知道内容流行度,所以需要根据历史请求来估 计。在每个缓存内容放置阶段,内容控制器可以根据缓存在helper中的内容请求频率估计出 内容流行度。我们提出一种优化的方式根据瞬时请求频率去估计内容流行度,并根据估计的 内容流行度缓存内容。由于内容控制器仅仅能估计缓存在helper中的内容流行度,内容在 helper中缓存的次数越多,对于内容流行度估计的就越准确,同时,内容控制器也要缓存当 前它认为最流行的内容。这是多臂赌博机中的探索和利用权衡问题,与此同时,为了减少对 新内容的探索次数,我们预先使用隐语义模型对新内容估计流行度。
我们采用如下的方式进行缓存,主要包括:
首先,考虑利用多臂赌博机模型估计内容流行度的问题:内容控制器仅仅能观测到缓存 在helper中的内容请求频率,内容在helper中缓存的次数越多,对于内容流行度估计的就越 准确,同时,内容控制器也要缓存当前它认为最流行的内容以确保缓存命中率。这是多臂赌 博机中的探索和利用权衡问题。将内容作为多臂赌博机中的“臂”,采用组合置信区间上界算 法(CUCB),对缓存在helper中的内容估计内容流行度。并缓存内容流行度高的内容。
然后,对于一段时间产生的新内容,将新内容依次存储在helper中,并观察请求频率, 利用隐语义模型(LFM)估计每个helper下覆盖用户对新内容的流行度。
最后,综合上述两方面,对于每个helper,根据估计的内容流行度,按照内容流行度从 高到低将内容依次存储在helper中。
如图2所示,本发明实施例公开的一种内容流行度随时间变化下的基站缓存方法,包括 如下步骤:
(1)利用多臂赌博机模型根据瞬时请求频率去估计内容流行度,并根据估计的内容流行 度缓存内容。
在每个时刻t,我们对在时刻
Figure BDA0001694431520000045
产生的内容利用组合置信区间上界算法来边缓存边 预测内容流行度,用式
Figure BDA0001694431520000051
来权衡探索和利用,其中Tf,n为内容f缓存在 helper n的次数,按照内容流行度
Figure BDA0001694431520000052
从高到低缓内容,直到内容的大小达达helper缓存容 量的1-η,其中η用来表示预留给新内容的容量占总缓存容量的百分比。具体包括如下步骤:
(1.1)初始化阶段,将所有内容都至少在helper中缓存一次,观测瞬时请求次数
Figure BDA0001694431520000053
同时更新内容f在helper n中缓存的次数Tf,n和观测到的内容流行度
Figure BDA0001694431520000054
(1.2)观测缓存在helper中内容的瞬时请求次数
Figure BDA0001694431520000055
(1.3)更新
Figure BDA0001694431520000056
和Tf,n←Tf,n+1。
(1.4)计算
Figure BDA0001694431520000057
根据
Figure BDA0001694431520000058
选择流行度最高的内容缓存在helper中。
(1.5)t←t+1,重复(1.2)~(1.4)根据瞬时请求估计内容流行度,实时更新缓存内容。
(2)利用隐语义模型估计新内容的流行度,并根据估计的内容流行度缓存内容。
在每个t%Td==0时刻,基于缓存在各个helper中的新内容的请求历史,构造不完全流行 度矩阵Θ(t),利用隐语义模型计算参数向量pn和qf,根据公式
Figure BDA0001694431520000059
计算新内容f在各 个helper中的流行度,对所有现存内容根据流行度从高到低缓存在每个helper中。具体包括 如下步骤:
(2.1)将新产生的内容依次存储在helper中,观测helper覆盖用户对新内容的请求频率, 根据
Figure BDA00016944315200000510
构造不完全流行度矩阵Θ(t)。本步骤中,如果第f个新内容产生, 则将内容f缓存在第n=f%N个helper中,这里N是所有helper的个数。如果时间段Td之间 产生的新内容较多,helper中没有足够的容量对其进行缓存,则对新内容采用先进先出的规 则进行替换。
(2.2)为了获得不同helper对新内容的流行度,即补全流行度矩阵Θ(t),我们利用隐语 义模型估计某个helper对新内容的流行度,首先用较小的值初始化参数向量pn和qf,其中pn表征用户n对潜在特征k的感兴趣程度,qf表征内容f在特征k的权重。
(2.3)隐语义模型通过最小化如下损失函数来获得参数pn和qf
Figure BDA0001694431520000061
这里,
Figure BDA0001694431520000062
是已知内容流行度θf,n的(f,n)集合。λ(||qf||2+||pn||2是用来防止过拟合的正则 化项,参数λ控制正则化的程度,通常通过交叉验证来确定。
本步骤可采用梯度下降法求解获得参数pn和qf,计算参数最快下降方向也就是梯度
Figure BDA0001694431520000063
Figure BDA0001694431520000064
Figure RE-GDA0001759362260000065
用如下公式更新参数pn和qf
Figure BDA0001694431520000066
其中α是学习速率。
(2.4)根据计算出的pn和qf,利用式
Figure BDA0001694431520000067
估计helper对某个新内容的流行度。对 所有现存内容根据流行度从高到低缓存在每个helper中。
尽管本发明就优选实施方式进行了示意和描述,但本领域的技术人员应当理解,只要不 超出本发明的权利要求所限定的范围,可以对本发明进行各种变化和修改。

Claims (3)

1.一种内容流行度随时间变化下的基站缓存方法,其特征在于,包括如下步骤:
(1)在每个时刻t,对在时刻
Figure FDA0003036798550000011
产生的缓存在helper中的内容,将内容作为多臂赌博机中的臂,采用组合置信区间上界算法估计内容流行度,并按照内容流行度从高到低缓内容,直到达到设定的各helper缓存容量占比;其中,Td为设定的新内容流行度计算周期;
(2)每隔设定的时间段Td,基于缓存在各个helper中的新内容的请求历史,利用隐语义模型估计每个helper下覆盖用户对新内容的流行度,并按照内容流行度从高到低缓内容;
步骤(1)中根据公式
Figure FDA0003036798550000012
估计时刻thelpern中内容流行度内容f的流行度,其中Tf,n为内容f缓存在helpern的次数,
Figure FDA0003036798550000013
为观测到的内容流行度,更新方式为
Figure FDA0003036798550000014
Figure FDA0003036798550000015
为时刻t观测的瞬时请求次数;
步骤(2)中,利用隐语义模型估计新内容的流行度,包括如下步骤:
(2.1)将新产生的内容依次存储在helper中,观测helper覆盖用户对新内容的请求频率,构造不完全流行度矩阵;新内容的不完全流行度矩阵根据
Figure FDA0003036798550000016
计算;其中
Figure FDA0003036798550000017
为时刻t观测的瞬时请求次数,Tf,n为内容f缓存在helpern的次数;
(2.2)初始化参数向量pn和qf,其中pn表征用户n对潜在特征的感兴趣程度,qf表征内容f在特征的权重;
(2.3)采用梯度下降法求解获得参数pn和qf直到如下损失函数达到最小:
Figure FDA0003036798550000018
其中,
Figure FDA0003036798550000019
是已知内容流行度θf,n的(f,n)集合,参数λ控制正则化的程度;
(2.4)根据计算出的pn和qf,利用式
Figure FDA00030367985500000110
估计helper对某个新内容的流行度。
2.根据权利要求1所述的一种内容流行度随时间变化下的基站缓存方法,其特征在于,步骤(2.1)中对于第f个新内容,则将内容f缓存在第n=f%N个helper中,其中N是所有helper的个数。
3.根据权利要求2所述的一种内容流行度随时间变化下的基站缓存方法,其特征在于,如果helper中没有足够的容量对时间段Td之间产生的新内容进行缓存,则对新内容采用先进先出的规则进行替换。
CN201810606373.1A 2018-06-13 2018-06-13 一种内容流行度随时间变化下的基站缓存方法 Active CN108990111B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810606373.1A CN108990111B (zh) 2018-06-13 2018-06-13 一种内容流行度随时间变化下的基站缓存方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810606373.1A CN108990111B (zh) 2018-06-13 2018-06-13 一种内容流行度随时间变化下的基站缓存方法

Publications (2)

Publication Number Publication Date
CN108990111A CN108990111A (zh) 2018-12-11
CN108990111B true CN108990111B (zh) 2021-06-11

Family

ID=64541269

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810606373.1A Active CN108990111B (zh) 2018-06-13 2018-06-13 一种内容流行度随时间变化下的基站缓存方法

Country Status (1)

Country Link
CN (1) CN108990111B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109451517B (zh) * 2018-12-27 2020-06-12 同济大学 一种基于移动边缘缓存网络的缓存放置优化方法
CN113271339B (zh) * 2021-04-25 2022-03-18 复旦大学 一种用户偏好未知的边缘基站缓存部署方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107171961A (zh) * 2017-04-28 2017-09-15 中国人民解放军信息工程大学 基于内容流行度的缓存方法及其装置
CN107592656A (zh) * 2017-08-17 2018-01-16 东南大学 基于基站聚类的缓存方法
CN107659946A (zh) * 2017-09-19 2018-02-02 北京工业大学 一种基于边缘缓存的移动通信网络模型构建方法
CN107733998A (zh) * 2017-09-22 2018-02-23 北京邮电大学 蜂窝异构分层网络的缓存内容放置及提供方法
CN107948247A (zh) * 2017-11-01 2018-04-20 西安交通大学 一种软件定义网络的虚拟缓存通道缓存管理方法
CN108093435A (zh) * 2017-12-18 2018-05-29 南京航空航天大学 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法
CN108134774A (zh) * 2017-11-16 2018-06-08 中国科学院信息工程研究所 基于内容隐私和用户安全分级的隐私保护方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120016642A1 (en) * 2010-07-14 2012-01-19 Yahoo! Inc. Contextual-bandit approach to personalized news article recommendation
US9626438B2 (en) * 2013-04-24 2017-04-18 Leaf Group Ltd. Systems and methods for determining content popularity based on searches
EP2953325B1 (en) * 2014-06-06 2019-01-16 Institut Mines-Telecom Method for managing packets in a network of Information Centric Networking (ICN) nodes

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107171961A (zh) * 2017-04-28 2017-09-15 中国人民解放军信息工程大学 基于内容流行度的缓存方法及其装置
CN107592656A (zh) * 2017-08-17 2018-01-16 东南大学 基于基站聚类的缓存方法
CN107659946A (zh) * 2017-09-19 2018-02-02 北京工业大学 一种基于边缘缓存的移动通信网络模型构建方法
CN107733998A (zh) * 2017-09-22 2018-02-23 北京邮电大学 蜂窝异构分层网络的缓存内容放置及提供方法
CN107948247A (zh) * 2017-11-01 2018-04-20 西安交通大学 一种软件定义网络的虚拟缓存通道缓存管理方法
CN108134774A (zh) * 2017-11-16 2018-06-08 中国科学院信息工程研究所 基于内容隐私和用户安全分级的隐私保护方法及装置
CN108093435A (zh) * 2017-12-18 2018-05-29 南京航空航天大学 基于缓存流行内容的蜂窝下行链路网络能效优化系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Clustered Small Base Stations for Cache-Enabled Wireless Networks";Yan Niu, Shen Gao, Nan Liu, Zhiwen Pan, Xiaohu You;《International Conference on Wireless Communications and Signal Processing (WCSP)》;20171013;全文 *
"具有非理想电路损耗的无线网中的能效数据包传输(英文)";杨灼其; 周庆; 刘楠; 潘志文; 尤肖虎;《Journal of Southeast University ( English Edition)》;20170315;第33卷(第1期);全文 *

Also Published As

Publication number Publication date
CN108990111A (zh) 2018-12-11

Similar Documents

Publication Publication Date Title
CN113094982B (zh) 一种基于多智能体深度强化学习的车联网边缘缓存方法
EP2782014B1 (en) Method and apparatus for managing cache memory in communication system
CN108990111B (zh) 一种内容流行度随时间变化下的基站缓存方法
CN113411826B (zh) 一种基于注意力机制强化学习的边缘网络设备缓存方法
CN113115368A (zh) 基于深度强化学习的基站缓存替换方法、系统及存储介质
CN112702443B (zh) 一种星地协同通信系统多星多级缓存分配方法及装置
CN110138836A (zh) 一种基于优化能量效率的线上协作缓存方法
CN107872478A (zh) 一种内容缓存方法、装置和系统
CN116321307A (zh) 一种无蜂窝网络中基于深度强化学习的双向缓存放置方法
CN113873534A (zh) 一种雾计算中区块链协助的联邦学习主动内容缓存方法
CN113395333B (zh) 基于智能体深度增强学习的多边缘基站联合缓存替换方法
CN109951317B (zh) 一种基于用户驱动的流行度感知模型的缓存替换方法
CN113993168B (zh) 一种雾无线接入网中基于多智能体强化学习的协作缓存方法
CN113141634B (zh) 基于移动边缘计算网络的vr内容缓存方法
CN113672819B (zh) 一种基于推荐感知和协作边缘缓存的内容请求处理系统
CN113992770B (zh) 雾无线接入网中基于策略的联邦强化学习的协作缓存方法
Liu et al. Mobility-aware video prefetch caching and replacement strategies in mobile-edge computing networks
CN110191362B (zh) 数据传输方法及装置、存储介质及电子设备
Lyu et al. Service-driven resource management in vehicular networks based on deep reinforcement learning
CN111901833A (zh) 一种面向不可靠信道传输的联合服务调度以及内容缓存方法
CN116362345A (zh) 基于多智能体强化学习和联邦学习的边缘缓存方法及系统
CN113766540B (zh) 低时延的网络内容传输方法、装置、电子设备及介质
KR102235622B1 (ko) IoT 환경에서의 협력 에지 캐싱 방법 및 그를 위한 장치
CN115134418B (zh) 一种多接入边缘计算的协同存储方法、系统及电子设备
CN113271339B (zh) 一种用户偏好未知的边缘基站缓存部署方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant