CN108304509B - 一种基于文本多向量表示相互学习的垃圾评论过滤方法 - Google Patents
一种基于文本多向量表示相互学习的垃圾评论过滤方法 Download PDFInfo
- Publication number
- CN108304509B CN108304509B CN201810053433.1A CN201810053433A CN108304509B CN 108304509 B CN108304509 B CN 108304509B CN 201810053433 A CN201810053433 A CN 201810053433A CN 108304509 B CN108304509 B CN 108304509B
- Authority
- CN
- China
- Prior art keywords
- training
- text
- texts
- classifier
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Abstract
本发明公开了一种基于文本多向量相互学习的垃圾评论过滤方法,所述方法首先对训练集的评论文本进行预处理后用多种不同的文本向量表示方法对同一文本进行向量化表示,然后采用同一种分类器训练方法根据这些不同的向量表示方式训练出多个不同的分类器,之后借鉴协同训练的思想让这些分类器间相互学习,并不断将添加集的数据进行标注并移到训练集中;最终可以得到能力都有所提升的多个分类器。本发明借鉴协同训练的思想,只需要人工标注部分数据,即可对剩余数据进行自动标注,这样不仅减少了大量的人工标注数据工作,同时也提升了分类器的分类能力,使得垃圾评论的过滤精度得以提高。
Description
技术领域
本发明涉及一种垃圾评论过滤技术,特别涉及一种基于文本多向量表示相互学习的垃圾评论过滤方法。
背景技术
随着电子商务的快速发展,各大电商及相关领域的在线用户评论数量急剧增加,而这些评论也是人们购物时的重要参考信息。简而言之,积极的评论会促进消费者的购买意向,而消极的评论很大程度上会增加消费者的疑虑。因此,网络上出现了大量的组织和个人利用评论弄虚作假,制造垃圾评论混淆视听,误导用户。虽然多数的网站会在评论内容上设置是否“有帮助”或“有用”的投票机制,但实际投票记录却很少。因此,过滤垃圾评论,净化网络环境,为用户提供一个真实可信的信息获取途径就尤为重要。
目前,垃圾评论过滤的方法主要分类两大类,一种是基于词典的过滤方法,一种是基于机器学习的过滤方法。基于词典的过滤方法主要是通过指定一系列的信赖词典和规则,对评论文本进行段落拆解、句法分析,计算信赖值,最后通过信赖值来作为判断依据。而基于机器学习的过滤方法则是将垃圾评论过滤作为一个分类过程来看待。正常评论和垃圾评论即为目标类别,对评论的文本内容进行结构化处理,输入到给定分类算法中进行训练,从而得到一个分类器,并对待过滤的评论文本数据用分类器来预测结果。
两种方法都有面临一个问题,就是人工标注的工作量太大。对于基于词典的方法而言,词典的重要性太突出了。可以说,过滤效果很大程度取决于词典的合理性,而词典的建立又需要太大的人力成本。虽然基于机器学习的方法需要的人力成本会比较少,但若是希望有良好的效果,同样需要大量的人工标注数据,而传统的半监督学习方法表现效果又不尽如人意。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种基于文本多向量表示相互学习的垃圾评论过滤方法,该方法是一种半监督学习方法,借鉴了协同训练算法,让不同向量表示的分类器间进行相互学习,既达到了数据标注的目的,又提高了分类器的性能。
为了达到上述目的,本发明采用以下技术方案:
本发明的一种基于文本多向量表示相互学习的垃圾评论过滤方法,包括下述步骤:
S1:获取电商网站的评论数据,并将获得的评论数据分为训练集和添加集;其中,训练集用于建立分类器,添加集用于加强训练集训练出的分类器;
S2:对所有的评论数据都进行预处理:先删除数据中的噪声数据,然后对除噪后的数据进行中文分词,最后将分词结果中的停用词过滤掉;
S3:使用n种不同的方法将训练集中的同一文本映射为n种不同的空间向量,即用多种不同的向量表示;
S4:使用一种分类器的训练方法,利用某种形式文本向量训练得到一个分类器Cn;
S5:利用分类器Cn对添加集中未标注的文本进行标注;
S6:从添加集中未标注的文本中选择分类器Cn预测的分数得分最高的2k个文本En放入总样本集合E中,选取时需要注意正负样本平衡的问题,选取k个正样本和k个负样本;若样本已经在E中,则跳过该样本选取下一个样本;
S7:重复S4-S6步骤n次,每次使用的分类器训练方法一样,而文本向量化的方法不一样;
S8:对选取的总样本集合E进行处理,若样本得分低于预设阈值,则直接丢弃该样本;
S9:将样本集合E从添加集中移到训练集合中;
S10:重复S4-S9,直至达到预设迭代次数或添加集合数据为空或添加集合中的所有样本得分都低于预设阈值;
S11:经过上述10个步骤得到了n个分类器;对于新来的评论,同样采用n种向量表示方式,然后输入到对应的分类器中,累加其正负得分,最终输出分类预测结果,由此完成垃圾评论的过滤。
作为优选的技术方案,所述步骤S1中,获取的电商网站评论数据中的训练集由人工进行标注,且添加集大于训练集。
作为优选的技术方案,所述步骤S2中,使用的多种向量表示时,所述添加集本质上就是未标注的训练集,在进行统计词频来向量化文本时,将训练集和添加集进行统一计算。
作为优选的技术方案,采取三种不同的向量表现方法:GloVe模型、TF-IDF算法和LDA模型;
(1)用GloVe模型进行文本表示;
采用中文维基百科数据训练GloVe模型,然后使用训练好的GloVe模型对训练集中的文本的每个词进行向量表示,将同一文本下的词向量进行加操作得到该文本的向量;
(2)用TF-IDF算法进行文本表示;
在训练过程中会将添加集中的文本不断移到训练集中,所以在计算词频矩阵时需要将训练集和添加集的文本统一纳入计算,从而得到每个训练集中每个文本的TF-IDF向量表示;
(3)用LDA进行文本表示
训练过程中会将添加集中的文本不断移到训练集中,所以在进行主题模型训练时需要将训练集和添加集的文本都放入训练,然后借助训练好的主题模型就可以得到训练集中每个文本的LDA向量表示。
作为优选的技术方案,步骤S8中的预设迭代次数和预设得分阀值都是可以人工根据特定电商网站评论数据的特性进行设置的。
作为优选的技术方案,步骤S11中,对新来的评论进行向量表示时使用和步骤S3相同的标准。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明实现了利用文本多向量表示相互学习进行垃圾评论过滤的方法,本方法相较与一般的半监督学习方法,利用同一文本的多种不同向量表示方法来进行相互学习,从而提高了各个分类器的分类性能。
2、本发明在进行协同训练时,考虑训练样本的平衡性问题,在每次标注样本时都采用参数进行控制,既不让训练样本过于失衡,又不会选择信赖度过于低的样本。
3、本发明相较于常见的基于词典的方法和一般的机器学习方法来说,不需要过多的人工标注样本,极大的节省了人力成本。
附图说明
图1为本发明方法的整体流程图;
图2为文本多向量表示相互学习的流程图;
图3为评论文本的过滤流程图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
下面以亚马逊网站的垃圾评论为例,对本发明进行进一步详细说明。
图1描述的是本方法的整体流程图。电商网站商品下的评论通常文本内容短小,但评论数量多且经常出现不相关广告等垃圾信息。因此,本发明设计了一种电商产品垃圾评论过滤方法,采用多种文本多向量表示相互学习的方法,构建多个相互促进的分类器,在有标注的训练数据上训练得到多个分类器,然后利用无标注数据作为添加集来让这些类器相互学习,最后得到的这些分类器就可以作为垃圾评论的过滤器了。本方法不仅在分类精度上有所提高,而且大量节省了人工样本标注的工作。本例采取三种不同的向量表现方法:LDA、TF-IDF和GloVe。分类器则采用支持向量机(SVM)。
数据获取阶段:
采用爬虫的方式获取本发明所需的电商产品评论数据,并人工标注其中部分数据作为训练集,其余数据则作为添加集。
数据预处理阶段:
清理掉评论文本本身可能含有的噪声数据,如URL和各类标签。此外,中文文本和英文文本不同,中文文本是没有字为基本单位,而通常进行文本分析时都是以词作为基本单位,因此,在对评论文本进行分析之前还需要进行中文分词操作。分词之后,可以很明显看出文本中包含大量无意义的词,这里统称为停用词。一般而言,停用词包含了助词、介词、副词、冠词、连接词、代词等,这些停用词不仅增加了分类时间,还降低了执行效率和分类准确率。因此,在进行文本进一步分析之前,都会过滤掉这些无意义的词语。
训练阶段:
①用GloVe模型进行文本表示
采用中文维基百科数据训练GloVe模型,然后使用训练好的GloVe模型对训练集中的文本的每个词进行向量表示,将同一文本下的词向量进行加操作得到该文本的向量。
②用TF-IDF进行文本表示
TF-IDF是应用最为广泛的文本向量表示方法。一般来说,字词的重要性随着它在文本中出现的次数成正比增加,但是同时会随着它在语料库中出现的频率成反比下降。由于本方法在训练过程中会将添加集合中的文本不断移到训练集合中,所以在计算词频矩阵时需要将训练集合和添加集合的文本统一纳入计算,从而得到每个训练集中每个文本的TF-IDF向量表示。
③用LDA进行文本表示
LDA即主题模型,是一种用来发现大量文档集合的主题的算法。借助该算法可以对文档集合进行归类。简而言之,通过该算法可以得到每个文本在多个主题下的概率分布,而这些概率分布形成的向量有刚好可以用来表示该文本。同样的,由于本方法在训练过程中会将添加集合中的文本不断移到训练集合中,所以在进行主题模型训练时需要将训练集合和添加集合的文本都放入训练。然后借助训练好的主题模型就可以得到训练集中每个文本的LDA向量表示。
④文本多向量表示相互学习
由①-③得到同一文本的不同向量表示,接下来便可以让由这三种不同形式的向量训练得到的分类器进行相互学习:
(1)使用SVM,利用LDA形式的文本向量训练得到一个分类器C1
(2)利用分类器C1对添加集中未标注的文本进行标注
(3)从添加集的未标注文本中选择分类器C1预测的分数得分最高的2n个文本E1,选取时需要注意正负样本平衡的问题,一般选取n个正样本和n个负样本.
(4)使用SVM,利用TF-IDF形式的文本向量训练得到一个分类器C2
(5)利用分类器C2对添加集中未标注的文本进行标注
(6)从添加集的未标注文本中选择分类器C2预测的分数得分最高的2n个文本E2,选取时需要注意正负样本平衡的问题,一般选取n个正样本和n个负样本,若样本已经在E1中,则跳过该样本选取下一个样本。
(7)使用SVM,利用GloVe形式的文本向量训练得到一个分类器C3
(8)利用分类器C3对添加集中未标注的文本进行标注
(9)从添加集的未标注文本中选择分类器C3预测的分数得分最高的2n个文本E3,选取时需要注意正负样本平衡的问题,一般选取n个正样本和n个负样本,若样本已经在E1或E2中,则跳过该样本选取下一个样本。
(10)对选取的所有样本集合E1、E2和E3进行处理,若样本得分低于阀值,则直接丢弃该样本。
(11)将样本集合E1、E2、E3从添加集中移到训练集合中。
(12)重复(1)-(12),直至达到预设迭代次数或添加集合数据为空或添加集合中的所有样本得分都低于预设阀值。
经过上述步骤,就可以得到最终用来进行评论文本过滤的三个分类器了。
过滤阶段:
对于待过滤的评论文本,同样需要对同一评论文本采取以上三种向量表示方法进行向量化,并且将向量化后的文本输入至对应的分类器进行分类,然后累加该文本在三个分类器上的得分,并选取得分最高的那一类作为最终预测结果。若是最终被分类为垃圾评论,则直接将该评论过滤掉。由此就完成垃圾评论的过滤。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种基于文本多向量表示相互学习的垃圾评论过滤方法,其特征在于,包括下述步骤:
S1:获取电商网站的评论数据,并将获得的评论数据分为训练集和添加集;其中,训练集用于建立分类器,添加集用于加强训练集训练出的分类器;
S2:对所有的评论数据都进行预处理:先删除数据中的噪声数据,然后对除噪后的数据进行中文分词,最后将分词结果中的停用词过滤掉;
所述步骤S2中,使用的多种向量表示时,所述添加集本质上就是未标注的训练集,在进行统计词频来向量化文本时,将训练集和添加集进行统一计算;
采取三种不同的向量表现方法:GloVe模型、TF-IDF算法和LDA模型;
(1)用GloVe模型进行文本表示;
采用中文维基百科数据训练GloVe模型,然后使用训练好的GloVe模型对训练集中的文本的每个词进行向量表示,将同一文本下的词向量进行加操作得到该文本的向量;
(2)用TF-IDF算法进行文本表示;
在训练过程中会将添加集中的文本不断移到训练集中,所以在计算词频矩阵时需要将训练集和添加集的文本统一纳入计算,从而得到每个训练集中每个文本的TF-IDF向量表示;
(3)用LDA进行文本表示
训练过程中会将添加集中的文本不断移到训练集中,所以在进行主题模型训练时需要将训练集和添加集的文本都放入训练,然后借助训练好的主题模型就可以得到训练集中每个文本的LDA向量表示;
S3:使用n种不同的方法将训练集中的同一文本映射为n种不同的空间向量,即用多种不同的向量表示;
S4:使用一种分类器的训练方法,利用某种形式文本向量训练得到一个分类器Cn;
S5:利用分类器Cn对添加集中未标注的文本进行标注;
S6:从添加集中未标注的文本中选择分类器Cn预测的分数得分最高的2k个文本En放入总样本集合E中,选取时需要注意正负样本平衡的问题,选取k个正样本和k个负样本;若样本已经在E中,则跳过该样本选取下一个样本;
S7:重复S4-S6步骤n次,每次使用的分类器训练方法一样,而文本向量化的方法不一样;
S8:对选取的总样本集合E进行处理,若样本得分低于预设阈值,则直接丢弃该样本;
S9:将样本集合E从添加集中移到训练集合中;
S10:重复S4-S9,直至达到预设迭代次数或添加集合数据为空或添加集合中的所有样本得分都低于预设阈值;
S11:经过上述10个步骤得到了n个分类器;对于新来的评论,同样采用n种向量表示方式,然后输入到对应的分类器中,累加其正负得分,最终输出分类预测结果,由此完成垃圾评论的过滤。
2.根据权利要求1所述 基于文本多向量表示相互学习的垃圾评论过滤方法,其特征在于,所述步骤S1中,获取的电商网站评论数据中的训练集由人工进行标注,且添加集大于训练集。
3.根据权利要求1所述 基于文本多向量表示相互学习的垃圾评论过滤方法,其特征在于,步骤S8中的预设迭代次数和预设得分阀值都是可以人工根据特定电商网站评论数据的特性进行设置的。
4.根据权利要求1所述 基于文本多向量表示相互学习的垃圾评论过滤方法,其特征在于,步骤S11中,对新来的评论进行向量表示时使用和步骤S3相同的标准。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810053433.1A CN108304509B (zh) | 2018-01-19 | 2018-01-19 | 一种基于文本多向量表示相互学习的垃圾评论过滤方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810053433.1A CN108304509B (zh) | 2018-01-19 | 2018-01-19 | 一种基于文本多向量表示相互学习的垃圾评论过滤方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108304509A CN108304509A (zh) | 2018-07-20 |
CN108304509B true CN108304509B (zh) | 2021-12-21 |
Family
ID=62865549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810053433.1A Active CN108304509B (zh) | 2018-01-19 | 2018-01-19 | 一种基于文本多向量表示相互学习的垃圾评论过滤方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108304509B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109145187A (zh) * | 2018-07-23 | 2019-01-04 | 浙江大学 | 基于评论数据的跨平台电商欺诈检测方法和系统 |
CN110175236B (zh) * | 2019-04-24 | 2023-07-21 | 平安科技(深圳)有限公司 | 用于文本分类的训练样本生成方法、装置和计算机设备 |
CN112052671B (zh) * | 2019-06-06 | 2023-10-27 | 阿里巴巴集团控股有限公司 | 负样本采样方法、文本处理方法、装置、设备及介质 |
CN110347934B (zh) * | 2019-07-18 | 2023-12-08 | 腾讯科技(成都)有限公司 | 一种文本数据过滤方法、装置及介质 |
RU2738335C1 (ru) | 2020-05-12 | 2020-12-11 | Общество С Ограниченной Ответственностью "Группа Айби" | Способ и система классификации и фильтрации запрещенного контента в сети |
CN111966944B (zh) * | 2020-08-17 | 2024-04-09 | 中电科大数据研究院有限公司 | 一种多层级用户评论安全审核的模型构建方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101187944A (zh) * | 2007-11-30 | 2008-05-28 | 中国科学院合肥物质科学研究院 | 基于小生境粒子群优化算法的分类器集成的多层选择方法 |
CN104750844A (zh) * | 2015-04-09 | 2015-07-01 | 中南大学 | 基于tf-igm的文本特征向量生成方法和装置及文本分类方法和装置 |
CN105205124A (zh) * | 2015-09-11 | 2015-12-30 | 合肥工业大学 | 一种基于随机特征子空间的半监督文本情感分类方法 |
CN106055538A (zh) * | 2016-05-26 | 2016-10-26 | 达而观信息科技(上海)有限公司 | 主题模型和语义分析相结合的文本标签自动抽取方法 |
CN106844349A (zh) * | 2017-02-14 | 2017-06-13 | 广西师范大学 | 基于协同训练的垃圾评论识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8612364B2 (en) * | 2009-10-29 | 2013-12-17 | Xerox Corporation | Method for categorizing linked documents by co-trained label expansion |
-
2018
- 2018-01-19 CN CN201810053433.1A patent/CN108304509B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101187944A (zh) * | 2007-11-30 | 2008-05-28 | 中国科学院合肥物质科学研究院 | 基于小生境粒子群优化算法的分类器集成的多层选择方法 |
CN104750844A (zh) * | 2015-04-09 | 2015-07-01 | 中南大学 | 基于tf-igm的文本特征向量生成方法和装置及文本分类方法和装置 |
CN105205124A (zh) * | 2015-09-11 | 2015-12-30 | 合肥工业大学 | 一种基于随机特征子空间的半监督文本情感分类方法 |
CN106055538A (zh) * | 2016-05-26 | 2016-10-26 | 达而观信息科技(上海)有限公司 | 主题模型和语义分析相结合的文本标签自动抽取方法 |
CN106844349A (zh) * | 2017-02-14 | 2017-06-13 | 广西师范大学 | 基于协同训练的垃圾评论识别方法 |
Non-Patent Citations (1)
Title |
---|
基于机器学习的汉语短文本分类方法研究与实现;黄旭;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170215(第 02 期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108304509A (zh) | 2018-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108304509B (zh) | 一种基于文本多向量表示相互学习的垃圾评论过滤方法 | |
CN107133213B (zh) | 一种基于算法的文本摘要自动提取方法与系统 | |
Li et al. | Twiner: named entity recognition in targeted twitter stream | |
CN106570148B (zh) | 一种基于卷积神经网络的属性抽取方法 | |
CN108121700B (zh) | 一种关键词提取方法、装置及电子设备 | |
CN110298033B (zh) | 关键词语料标注训练提取系统 | |
CN109446404B (zh) | 一种网络舆情的情感极性分析方法和装置 | |
Gokulakrishnan et al. | Opinion mining and sentiment analysis on a twitter data stream | |
CN105183833B (zh) | 一种基于用户模型的微博文本推荐方法及其推荐装置 | |
CN106776574B (zh) | 用户评论文本挖掘方法及装置 | |
CN110032639B (zh) | 将语义文本数据与标签匹配的方法、装置及存储介质 | |
CN107609121A (zh) | 基于LDA和word2vec算法的新闻文本分类方法 | |
CN104199833B (zh) | 一种网络搜索词的聚类方法和聚类装置 | |
CN109933779A (zh) | 用户意图识别方法及系统 | |
CN107273348B (zh) | 一种文本的话题和情感联合检测方法及装置 | |
CN106126619A (zh) | 一种基于视频内容的视频检索方法及系统 | |
CN106202584A (zh) | 一种基于标准词典和语义规则的微博情感分析方法 | |
CN103678275A (zh) | 一种基于主客观语义的双层次文本相似度计算方法 | |
CN110415071B (zh) | 一种基于观点挖掘分析的汽车竞品对比方法 | |
WO2023065642A1 (zh) | 语料筛选方法、意图识别模型优化方法、设备及存储介质 | |
CN109522396B (zh) | 一种面向国防科技领域的知识处理方法及系统 | |
Xiao et al. | Chinese text sentiment analysis based on improved Convolutional Neural Networks | |
Chang et al. | A METHOD OF FINE-GRAINED SHORT TEXT SENTIMENT ANALYSIS BASED ON MACHINE LEARNING. | |
CN104794209B (zh) | 基于马尔科夫逻辑网络的中文微博情绪分类方法及系统 | |
CN112287240A (zh) | 基于双嵌入多层卷积神经网络的案件微博评价对象抽取方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |