CN113132931B - 一种基于参数预测的深度迁移室内定位方法 - Google Patents
一种基于参数预测的深度迁移室内定位方法 Download PDFInfo
- Publication number
- CN113132931B CN113132931B CN202110409122.6A CN202110409122A CN113132931B CN 113132931 B CN113132931 B CN 113132931B CN 202110409122 A CN202110409122 A CN 202110409122A CN 113132931 B CN113132931 B CN 113132931B
- Authority
- CN
- China
- Prior art keywords
- network
- layer
- source
- theta
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/30—Services specially adapted for particular environments, situations or purposes
- H04W4/33—Services specially adapted for particular environments, situations or purposes for indoor environments, e.g. buildings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W64/00—Locating users or terminals or network equipment for network management purposes, e.g. mobility management
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于在复杂的室内环境下进行准确定位的方法,具体是涉及一种基于参数预测的深度迁移室内定位方法。本发明首先利用有标签的源域数据预训练一个性能良好的源网络定位模型,然后通过固定预训练的源网络参数,在无标签目标域数据的辅助下学习一种从源网络参数到目标网络参数的转换矩阵,最后利用该转换矩阵和源网络参数计算出目标域网络参数。本发明克服了常用领域适应技术过度专注于领域不变特征而忽略领域差异的弊端,能够使目标域的特征分布尽可能接近源域特征分布,从而保证了目标域网络在适应新环境的同时能保留部分源域网络的数据处理能力。本发明是一种能够良好适应复杂室内环境的高精度定位方法。
Description
技术领域
本发明属于室内定位技术领域,具体是涉及一种基于参数预测的深度迁移室内定位方法。
背景技术
移动设备的普及和无线通讯技术的发展推动了一系列基于移动终端的业务的发展,其中基于位置的服务极大地改变了人们的生活方式,它通过获得用户的地理位置进而在相关平台上为用户提供服务,目前已经被广泛地应用于行人导航、广告推送、资产安全管理等场景中。定位技术作为基于位置的服务的基础,受到了研究者的广泛关注。
在众多室内定位技术中,基于WiFi的定位技术得益于其低成本、高实时性、使用便捷等优势,成为了最具前景的定位技术之一。该定位方法主要分为两大类:几何测距法和位置指纹法。前者容易受到多径效应和非视距传播的影响导致定位效果不稳定,后者只依赖于离线建立的指纹库,能有效避免由测量带来的误差,具有更强的稳定性。然而传统的基于位置指纹的定位方法的基本假设是:在线定位阶段的样本与离线建库阶段的指纹服从相同的数据分布。但在真实的室内环境下,RSS信号会随着时间的变化波动并出现数据分布偏移的现象,此外由于设备的硬件差异,不同设备对同一信号的测量值也会存在偏差,这两种因素都会导致传统指纹定位方法的假设不成立。因此,在实际定位场景中传统指纹定位方法并不适用,而迁移学习中的领域适应技术被证明能够解决这类问题。
文献“M.Long,Y.Cao,J.Wang,and M.Jordan,“Learning transferable featureswith deep adaptation networks,”in International conference on machinelearning,2015,pp.97–105”和文献“B.Sun and K.Saenko,“Deep coral:Correlationalignment for deep domain adaptation,”in European conference on computervision,2016,pp.443–450”是最常见的领域适应方法,它们分别使用最大均值差异准则(Maximum Mean Discrepancy,MMD)和深度协方差对齐(Deep Correlation Alignment,Deep CORAL)来缩小不同领域数据的分布差异。但这两种方法都采用了同一网络来提取不同领域的数据特征,这样的特征提取方式的弊端是过度专注于两个领域的共性而忽略了各自领域的独有特性。此外,由于相同的网络提取的特征为两个领域的公共部分,因此只能有效地约束共有特征的相似程度,按照这种方式缩小领域差异显然是不够充分的,并且当某一领域数据量较小或领域差异较大时还会导致模型的定位性能剧烈下降。基于上述原因,此类方法在复杂的室内定位环境中难以实现准确的定位。
发明内容
本发明的目的是,为克服上述技术的不足,提供一种新的基于参数预测的深度迁移室内定位方法。如图1所示,本发明方法涉及两个结构相同但参数不同的深度神经网络,主要包含三个阶段,分别为:预训练阶段、参数预测阶段和测试阶段。图中的虚线框表示在此阶段内参数正在被更新,实线框表示参数固定不变。在预训练阶段,仅利用有标签的源域数据训练一个源网络,使其能在源域数据上取得良好的分类效果;在参数预测阶段,将目标域网络参数初始化为预训练的源网络参数,利用目标域数据和源域数据训练参数转换矩阵并更新分类层参数,通过转换矩阵对目标网络参数进行预测;在测试阶段,将在线样本输入目标网络中实现对位置的估计。
本发明的技术方案是:一种基于参数预测的深度迁移室内定位方法,包括以下步骤:
S1、将待定位室内环境划分为C个格点,依次记录每个格点的位置并设置唯一标签,格点标签可以表示为:
Ys={yk|k=1,2,…,C}
S2、在第1个月份内,使用移动设备依次在每个格点中进行多次采样并记录每条RSS样本值用于构建指纹库,其中第i条RSS样本值可以表示为:
Xs={xi T|i=1,2,…,ns}
其中,Xt表示总数量为nt的所有在线样本集合,可进一步详细地表示为:
Xt={xj T|j=1,2,…,nt}
S4、构建包含L层的源网络进行预训练,其中网络前(L-1)层为特征提取部分,对应参数记为Θs,最后一层为分类层,对应参数记为θs。将有标签的源域数据输入源网络中,采用如公式(1)所示的交叉熵损失函数计算网络的分类损失,并基于该分类损失利用梯度下降法更新参数Θs和θs;
S5、构建与源网络结构相同的目标网络,其特征提取部分的参数记为Θt,分类层对应参数记为θt,初始化目标网络的参数为预训练好的源网络参数;
S6、基于源网络参数和转换矩阵对目标网络参数进行预测,预测部分为网络前(L-1)层的参数Θt,分类层参数在源网络分类层参数的基础上随训练过程进行更新。神经网络的每一层都包含权重矩阵和偏置向量两部分,一个具有L层的神经网络的参数Θ,具体可以表示为:
其中,Θ(i)表示第i层的网络参数,W(i)和b(i)分别表示该层的权重矩阵和偏置向量。转换矩阵中包含对权重矩阵进行放缩的矩阵A及对偏置向量进行平移的向量d。
S8、将第(n+1)个月的在线RSS样本输入目标网络中进行定位,得到定位结果。
进一步地,步骤S6中对目标网络参数进行预测的具体步骤为:
S61、将放缩矩阵A中的元素全部初始化为1,将平移向量d中的元素全部初始化为0;
S62、基于源网络参数Θs对目标网络的参数进行预测,即每一层权重矩阵中的元素与放缩矩阵中的对应元素相乘,偏置向量中的元素与平移向量中的元素对应相加。目标域网络第i层的参数可按照公式(3)进行计算:
进一步地,步骤S7的具体训练步骤为:
其中,φ为核映射,核函数k(Rs,Rt)=<φ(Rs),φ(Rt)>;
本发明的有益效果是:本发明在源域网络参数的基础上学习一种转换矩阵对目标域网络的参数进行预测,该转换矩阵会使目标域的特征分布尽可能接近源域特征的最终分布,从而有效克服传统领域适应方法只能提取领域公共特征的弊端。此外,分类层参数随转换矩阵一起更新,能够不断适应对目标域样本进行分类的任务,使目标域网络在适应新的环境的同时保留了源域网络的处理能力。
附图说明
图1为基于参数预测的深度迁移室内定位模型的结构示意图;
图2为基于参数预测的深度迁移室内定位方法流程图;
图3为背景技术方法和本发明方法在不同月份的平均定位误差对比图;
图4为背景技术方法和本发明方法在同种设备和不同设备下的定位误差对比图。
具体实施方式
下面结合附图及实施例,详细描述本发明的技术方案:
如图2所示,本发明主要包括以下步骤:
步骤1.将待定位室内环境划分为C个格点,依次记录每个格点的位置并设置唯一标签,格点标签可以表示为:
Ys={yk|k=1,2,…,C}
步骤2.在第1个月份内,使用移动设备依次在每个格点中进行多次采样并记录每条RSS样本值用于构建指纹库,其中第i条RSS样本值可以表示为:
Xs={xi T|i=1,2,…,ns}
其中,Xt表示总数量为nt的所有在线样本集合,可进一步详细地表示为:
Xt={xj T|j=1,2,…,nt}
步骤4.构建包含L层的源网络进行预训练,其中网络前(L-1)层为特征提取部分,对应参数记为Θs,最后一层为分类层,对应参数记为θs。在实施例中使用的是5层全连接神经网络,前4层为特征提取部分。将有标签的源域数据输入源网络中,采用如公式(1)所示的交叉熵损失函数计算网络的分类损失,并基于该分类损失利用梯度下降法更新参数Θs和θs;
步骤5.构建与源网络结构相同的目标网络,其特征提取部分的参数记为Θt,分类层对应参数记为θt,初始化目标网络的参数为预训练好的源网络参数;
步骤6.基于源网络参数和转换矩阵对目标网络参数进行预测,预测部分为网络前4层的参数Θt,分类层参数在源网络分类层参数的基础上随训练过程进行更新。神经网络的每一层都包含权重矩阵和偏置向量两部分,一个具有L层的神经网络的参数Θ,具体可以表示为:
其中,Θ(i)表示第i层的网络参数,W(i)和b(i)分别表示该层的权重矩阵和偏置向量。转换矩阵包含对权重矩阵进行放缩的矩阵A及对偏置向量进行平移的向量d。
进一步地,步骤6中对目标网络参数进行预测的具体步骤为:
步骤61、将放缩矩阵A中的元素全部初始化为1,将平移向量d设置为零向量;
步骤62、基于源网络参数Θs对目标网络的参数进行预测,即每一层权重矩阵中的元素与放缩矩阵中的对应元素相乘,偏置向量中的元素与平移向量中的元素对应相加,目标域网络第i层的参数可按照公式(3)进行计算:
进一步地,步骤7的具体训练步骤为:
其中,φ为核映射,核函数k(Rs,Rt)=<φ(Rs),φ(Rt)>;
步骤8、将第(n+1)个月的在线RSS样本输入由步骤7训练完毕得到的目标网络中输出预测标签并将其转换为二维坐标得到定位结果。
实施例
使用在西班牙Jaume I大学图书馆采集的WiFi RSS公开数据集进行实验,数据采集区域总覆盖面积为308.4平方米,共有620个接入点,整个区域被划分为48个网格格点。使用第1个月采集的8640条有标签样本作为源域数据,第n个月(n≥2)的3120条样本作为无标签目标域数据,对本发明的方法进行效果验证。
算法中涉及到的深度神经网络模型均包含5个全连接层,每一层的神经元个数依次为256,128,128,128和48。预训练的源网络中对参数进行随机初始化,参数预测阶段中的目标网络参数初始化为预训练好的源网络参数。
本发明从环境变化和异构设备两个角度分别验证提出算法的优越性。第一组实验是对比背景技术方法和本发明方法在环境变化下的定位误差,图3中绘制了从2月至25月的误差变化情况,从图中可以看出本发明方法对环境变化的适应性明显优于背景技术方法,且本发明的方法在2至25月实现了2.44m的平均定位误差,而其他两种背景技术的平均定位误差分别为2.61m和2.65m;第二组实验对比了背景技术方法和本发明方法在设备差异的影响下的定位误差情况,如图4所示本发明方法的定位误差在同种设备(设备1)和不同设备(设备2)测量值下均明显低于两种背景技术方法。两组实验的结果证明,本发明提出的基于参数预测的深度迁移室内定位方法能够克服常用领域适应技术中过度专注于领域共性而忽略领域特异性的弊端,在充分利用源域数据训练出的模型参数的基础上使用无标签目标域数据加以辅佐,从而实现对目标域网络参数的预测,该网络结构能够在挖掘领域共性的同时对领域差异进行自适应。综上所述,本发明是一种能够良好适应复杂环境的高精度室内定位方法。
Claims (3)
1.一种基于参数预测的深度迁移室内定位方法,其特征在于,包括以下步骤:
S1、将待定位室内环境划分为C个格点,依次记录每个格点的位置并设置唯一标签,格点标签表示为:
Ys={yk|k=1,2,…,C}
S2、在第1个月份内,使用移动设备依次在每个格点中进行多次采样并记录每条RSS样本值用于构建指纹库,其中第i条RSS样本值表示为:
Xs={xi T|i=1,2,…,ns}
其中,Xt表示总数量为nt的所有在线样本集合:
Xt={xj T|j=1,2,…,nt}
S4、构建包含L层的源网络进行预训练,其中网络前(L-1)层为特征提取部分,对应参数记为Θs,最后一层为分类层,对应参数记为θs;将有标签的源域数据输入源网络中,采用如公式(1)所示的交叉熵损失函数计算网络的分类损失,并基于该分类损失利用梯度下降法更新参数Θs和θs;
S5、构建与源网络结构相同的目标网络,其特征提取部分的参数记为Θt,分类层对应参数记为θt,初始化目标网络的参数为预训练好的源网络参数;
S6、基于源网络参数和转换矩阵对目标网络参数进行预测,预测部分为网络前(L-1)层的参数Θt,分类层参数在源网络分类层参数的基础上随训练过程进行更新;神经网络的每一层都包含权重矩阵和偏置向量两部分,一个具有L层的神经网络的参数Θ,具体表示为:
其中,Θ(i)表示第i层的网络参数,W(i)和b(i)分别表示该层的权重矩阵和偏置向量,转换矩阵中包含对权重矩阵进行放缩的矩阵A及对偏置向量进行平移的向量d;
S8、将第(n+1)个月的在线RSS样本输入目标网络中进行定位,得到定位结果。
3.根据权利要求2所述的一种基于参数预测的深度迁移室内定位方法,其特征在于,所述步骤S7的具体方法为:
其中,φ为核映射,核函数k(Rs,Rt)=<φ(Rs),φ(Rt)>;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110409122.6A CN113132931B (zh) | 2021-04-16 | 2021-04-16 | 一种基于参数预测的深度迁移室内定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110409122.6A CN113132931B (zh) | 2021-04-16 | 2021-04-16 | 一种基于参数预测的深度迁移室内定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113132931A CN113132931A (zh) | 2021-07-16 |
CN113132931B true CN113132931B (zh) | 2022-01-28 |
Family
ID=76777425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110409122.6A Active CN113132931B (zh) | 2021-04-16 | 2021-04-16 | 一种基于参数预测的深度迁移室内定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113132931B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115103441B (zh) * | 2022-06-20 | 2024-04-05 | 燕山大学 | 一种基于先验知识和迁移学习的定位方法 |
CN116720927B (zh) * | 2023-08-08 | 2023-11-03 | 北京人天书店集团股份有限公司 | 图书荐购方法、系统及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110536257A (zh) * | 2019-08-21 | 2019-12-03 | 成都电科慧安科技有限公司 | 一种基于深度自适应网络的室内定位方法 |
CN110705591A (zh) * | 2019-03-09 | 2020-01-17 | 华南理工大学 | 一种基于最优子空间学习的异构迁移学习方法 |
CN111275130A (zh) * | 2020-02-18 | 2020-06-12 | 上海交通大学 | 基于多模态的深度学习预测方法、系统、介质及设备 |
CN111311675A (zh) * | 2020-02-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 车辆定位方法、装置、设备和存储介质 |
CN111814977A (zh) * | 2020-08-28 | 2020-10-23 | 支付宝(杭州)信息技术有限公司 | 训练事件预测模型的方法及装置 |
CN111935629A (zh) * | 2020-07-30 | 2020-11-13 | 广东工业大学 | 一种基于环境特征迁移的自适配定位方法 |
CN112113570A (zh) * | 2020-09-15 | 2020-12-22 | 电子科技大学 | 一种基于深度迁移和模型参数集成的室内定位方法 |
CN112183450A (zh) * | 2020-10-15 | 2021-01-05 | 成都思晗科技股份有限公司 | 一种多目标跟踪方法 |
CN112233124A (zh) * | 2020-10-14 | 2021-01-15 | 华东交通大学 | 基于对抗式学习与多模态学习的点云语义分割方法及系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10229369B2 (en) * | 2016-04-19 | 2019-03-12 | General Electric Company | Creating predictive damage models by transductive transfer learning |
CN109902798A (zh) * | 2018-05-31 | 2019-06-18 | 华为技术有限公司 | 深度神经网络的训练方法和装置 |
-
2021
- 2021-04-16 CN CN202110409122.6A patent/CN113132931B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110705591A (zh) * | 2019-03-09 | 2020-01-17 | 华南理工大学 | 一种基于最优子空间学习的异构迁移学习方法 |
CN110536257A (zh) * | 2019-08-21 | 2019-12-03 | 成都电科慧安科技有限公司 | 一种基于深度自适应网络的室内定位方法 |
CN111311675A (zh) * | 2020-02-11 | 2020-06-19 | 腾讯科技(深圳)有限公司 | 车辆定位方法、装置、设备和存储介质 |
CN111275130A (zh) * | 2020-02-18 | 2020-06-12 | 上海交通大学 | 基于多模态的深度学习预测方法、系统、介质及设备 |
CN111935629A (zh) * | 2020-07-30 | 2020-11-13 | 广东工业大学 | 一种基于环境特征迁移的自适配定位方法 |
CN111814977A (zh) * | 2020-08-28 | 2020-10-23 | 支付宝(杭州)信息技术有限公司 | 训练事件预测模型的方法及装置 |
CN112113570A (zh) * | 2020-09-15 | 2020-12-22 | 电子科技大学 | 一种基于深度迁移和模型参数集成的室内定位方法 |
CN112233124A (zh) * | 2020-10-14 | 2021-01-15 | 华东交通大学 | 基于对抗式学习与多模态学习的点云语义分割方法及系统 |
CN112183450A (zh) * | 2020-10-15 | 2021-01-05 | 成都思晗科技股份有限公司 | 一种多目标跟踪方法 |
Non-Patent Citations (6)
Title |
---|
An Adaptive and Robust Model for WiFi-based Localization;Yajie SONG等;《In ACM Turing Celebration Conference-China(ACM TURC"20)》;20200524;全文 * |
Beyond Sharing Weights for Deep Domain Adaptation;Artem Rozantsev等;《IEEE Transactions on Pattern Analysis and Machine Intelligence》;20180308;全文 * |
Residual Parameter Transfer for Deep Domain Adaptation;Artem Rozantsev等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20181217;全文 * |
基于多目摄像头的运动目标跟踪研究;颜巧;《中国优秀硕士学位论文全文数据库社会科学I辑》;20210310;全文 * |
基于深度学习的室内场景人员检测方法研究;李玉乐;《中国优秀硕士学位论文全文数据库信息科技辑》;20190110;全文 * |
无线室内定位中的环境适应方法研究与实现;侯缓缓;《中国优秀硕士学位论文全文数据库信息科技辑》;20200810;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113132931A (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113132931B (zh) | 一种基于参数预测的深度迁移室内定位方法 | |
CN109151995B (zh) | 一种基于信号强度的深度学习回归融合定位方法 | |
Chidlovskii et al. | Semi-supervised variational autoencoder for WiFi indoor localization | |
CN108882172B (zh) | 一种基于hmm模型的室内移动轨迹数据的预测方法 | |
CN108627798B (zh) | 基于线性判别分析和梯度提升树的wlan室内定位算法 | |
CN112489081A (zh) | 一种视觉目标跟踪方法及装置 | |
CN109143161B (zh) | 基于混合指纹质量评价模型的高精度室内定位方法 | |
CN111079847A (zh) | 一种基于深度学习的遥感影像自动标注方法 | |
JP6892606B2 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
Niu et al. | RecNet: A convolutional network for efficient radiomap reconstruction | |
Hsu et al. | An adaptive Wi-Fi indoor localisation scheme using deep learning | |
CN116229519A (zh) | 一种基于知识蒸馏的二维人体姿态估计方法 | |
CN109121081B (zh) | 一种基于位置候选集与em算法的室内定位方法 | |
Chen et al. | A wifi indoor localization method based on dilated cnn and support vector regression | |
CN115311449A (zh) | 基于类重激活映射图的弱监督图像目标定位分析系统 | |
Xu et al. | Neural network-based accuracy enhancement method for WLAN indoor positioning | |
CN113838058B (zh) | 一种基于小样本分割的医学图像自动标注方法及系统 | |
CN111144462A (zh) | 一种雷达信号的未知个体识别方法及装置 | |
Jia et al. | A fingerprint-based localization algorithm based on LSTM and data expansion method for sparse samples | |
CN113536925A (zh) | 一种基于引导注意力机制的人群计数方法 | |
CN112113570A (zh) | 一种基于深度迁移和模型参数集成的室内定位方法 | |
CN112954633B (zh) | 一种基于参数约束的双网络架构室内定位方法 | |
CN112040408B (zh) | 一种适用于监管场所的多目标精确智能定位跟踪方法 | |
WO2022188574A1 (zh) | 一种回归任务的深度学习方法和装置 | |
CN109040948B (zh) | 一种位置候选集合生成方法及其高精度融合定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |