CN106557563A - 基于人工智能的查询语句推荐方法及装置 - Google Patents
基于人工智能的查询语句推荐方法及装置 Download PDFInfo
- Publication number
- CN106557563A CN106557563A CN201611019559.4A CN201611019559A CN106557563A CN 106557563 A CN106557563 A CN 106557563A CN 201611019559 A CN201611019559 A CN 201611019559A CN 106557563 A CN106557563 A CN 106557563A
- Authority
- CN
- China
- Prior art keywords
- query statement
- neural network
- query
- user
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 74
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 46
- 239000013598 vector Substances 0.000 claims abstract description 180
- 238000013528 artificial neural network Methods 0.000 claims description 106
- 238000012549 training Methods 0.000 claims description 42
- 230000011218 segmentation Effects 0.000 claims description 26
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 230000009466 transformation Effects 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims 1
- 230000007935 neutral effect Effects 0.000 abstract 2
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 13
- 238000004590 computer program Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000003062 neural network model Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 4
- 238000011478 gradient descent method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/2433—Query languages
- G06F16/2435—Active constructs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出了一种基于人工智能的查询语句推荐方法及装置,其中,方法包括:接收用户输入的查询语句;利用神经网络将查询语句转换为隐层向量;将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句;向用户返回推荐查询语句。通过本发明能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于人工智能的查询语句推荐方法及装置。
背景技术
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能技术的发展也带动了其他相关技术的进步,比如搜索处理技术。
当用户通过搜索引擎输入搜索词查询信息时,往往会出现需要多次变换搜索词进行信息查询才能获得满意的结果的情况。因此,如何使用户快速查询到满足需求的搜索结果,成为搜索引擎面临的重要问题。
目前的搜索引擎技术,通常采用两种方法帮助用户查询搜索结果。一是根据用户输入的搜索词向用户推荐与搜索词相似度较高的其他搜索词;二是当搜索词具有多个不同含义时,向用户推荐多样性的搜索结果,由用户自行选择满足需求的搜索结果。但是,第一种方法是通过固定的词典来向用户推荐搜索词,因此向每个用户返回的搜索词都是相同的,难以满足用户的个性化需求;第二种方法仅适用于具有多种含义的搜索词,适用范围受限,如果搜索词较长,则很可能无法推荐合适的搜索词。
发明内容
本发明的目的旨在至少在一定程度上解决上述的技术问题之一。
为此,本发明的第一个目的在于提出一种基于人工智能的查询语句推荐方法,该方法能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且适用于各种类型的查询语句,适用范围广,适用性强。
本发明的第二个目的在于提出一种基于人工智能的查询语句推荐装置。
本发明的第三个目的在于提出一种终端。
本发明的第四个目的在于提出一种非临时性计算机可读存储介质。
本发明的第五个目的在于提出一种计算机程序产品。
为了实现上述目的,本发明第一方面实施例提出了一种基于人工智能的查询语句推荐方法,包括:接收用户输入的查询语句;利用神经网络将查询语句转换为隐层向量;将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句;向用户返回推荐查询语句。
本发明第一方面实施例提出的基于人工智能的查询语句推荐方法,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
为了实现上述目的,本发明第二方面实施例提出了一种基于人工智能的查询语句推荐装置,包括:接收模块,用于接收用户输入的查询语句;转换模块,用于利用神经网络将查询语句转换为隐层向量;处理模块,用于将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句;推荐模块,用于向用户返回推荐查询语句。
本发明第二方面实施例提出的基于人工智能的查询语句推荐装置,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
为了实现上述目的,本发明第三方面实施例提出了一种终端,包括:处理器;用于存储处理器可执行指令的存储器。其中,处理器被配置为执行以下步骤:
接收用户输入的查询语句;
利用神经网络将查询语句转换为隐层向量;
将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句;
向用户返回推荐查询语句。
本发明第三方面实施例提出的终端,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
为了实现上述目的,本发明第四方面实施例提出了一种非临时性计算机可读存储介质,用于存储一个或多个程序,当存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种基于人工智能的查询语句推荐方法,方法包括;
接收用户输入的查询语句;
利用神经网络将查询语句转换为隐层向量;
将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句;
向用户返回推荐查询语句。
本发明第四方面实施例提出的非临时性计算机可读存储介质,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
为了实现上述目的,本发明第五方面实施例提出了一种计算机程序产品,当计算机程序产品中的指令被处理器执行时,执行一种基于人工智能的查询语句推荐方法,方法包括:
接收用户输入的查询语句;
利用神经网络将查询语句转换为隐层向量;
将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句;
向用户返回推荐查询语句。
本发明第五方面实施例提出的计算机程序产品,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一实施例提出的基于人工智能的查询语句推荐方法的流程示意图;
图2是利用神经网络将查询语句转换为隐层向量的流程示意图;
图3是将词向量转换为隐层向量的神经网络结构示意图;
图4是利用神经网络生成候选推荐词的示例图;
图5是本发明一实施例提出的基于人工智能的查询语句推荐方法的框架图;
图6是本发明另一实施例提出的基于人工智能的查询语句推荐方法的流程示意图;
图7是预先训练生成神经网络的流程示意图;
图8是本发明一实施例提出的基于人工智能的查询语句推荐装置的结构示意图;
图9是本发明另一实施例提出的基于人工智能的查询语句推荐装置的结构示意图;
图10是本发明又一实施例提出的基于人工智能的查询语句推荐装置的结构示意图;
图11是本发明再一实施例提出的基于人工智能的查询语句推荐装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
当前,搜索引擎成为用户获取互联网信息的重要途径。当用户通过搜索引擎查询信息时,需要通过搜索关键词或者查询语句描述查询意图,进而通过搜索引擎输入搜索关键词或者查询语句进行信息查询。然而,简单的搜索关键词或查询语句往往不能完全表达用户的查询意图。对于复杂的信息查询,用户通常需要多次变换搜索关键词或查询语句才能获得满意的搜索结果。因此,如何帮助用户快速获得满足需求的搜索结果,成为搜索技术亟待解决的重要问题。
对于上述问题,现有的解决方法有两种:
方法一:当用户输入查询语句时,通过近义词词典或其他统计方式获得的关联词词典获取与用户输入的查询语句相近的查询语句,并将相似度最高的查询语句推荐给用户,使用户根据推荐的查询语句进行信息查询。采用这种方式时,对于不同用户输入的相同查询语句,推荐的查询语句也相同,无法满足用户的个性化需求。
方法二:根据用户输入的查询语句的不同含义返回多种搜索结果,由用户从多种搜索结果中选择满足需求的搜索结果。比如,当用户输入的查询语句为“苹果”时,在搜索结果列表中显示有关“苹果电脑”、“苹果手机”和“苹果水果”三种类型的搜索结果供用户选择。对于含义单一的查询语句,采用这种方式进行信息查询的效果较差,该方式仅适用于具有多种含义的查询语句,适用范围受限。
因此,为了弥补现有技术的缺陷,本发明实施例提出一种基于人工智能的查询语句推荐方法,该方法可以被用于搜素引擎、人机交互智能问答系统等相关技术领域,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且适用于各种类型的查询语句,适用范围广。
图1是本发明一实施例提出的基于人工智能的查询语句推荐方法的流程示意图,以该方法被配置于搜索引擎中为例进行具体描述。
如图1所示,本实施例的基于人工智能的查询语句推荐方法包括:
S11:接收用户输入的查询语句。
本实施例中,当用户通过搜索引擎输入查询语句进行信息查询时,搜索引擎接收用户输入的查询语句。
其中,查询语句可以是一个或多个词语,也可以是多个词语组成的短语或者完整的句子,本发明对此不作限制。
S12:利用神经网络将查询语句转换为隐层向量。
本实施例中,在搜索引擎接收到用户输入的查询语句之后,即可利用神经网络将接收到的查询语句转换为隐层向量。
其中,神经网络可以包括:循环神经网络(Recurrent Neural Network,RNN)、门控循环神经网络(Gated Recurrent Neural Network,Gated RNN)、长短时记忆网络(LongShort-Term Memory,LSTM)等。
具体地,如图2所示,利用神经网络将查询语句转换为隐层向量,可以包括以下步骤:
S121:将查询语句切分为M个分词。
本实施例中,在搜索引擎接收到用户输入的查询语句后,首先采用相关技术对查询语句进行分词处理,将查询语句切分为M个分词。其中,M为正整数。
比如,对于用户输入的查询语句,记为Q,对Q进行分词处理,获得m个分词,分别记为w1,w2,…,wm。其中,m为正整数。
S122:基于词向量矩阵获取M个分词对应的分词向量。
本实施例中,在将查询语句进行分词处理之后,进而基于词向量矩阵获取M个分词对应的分词向量。
具体而言,假设存在一词向量矩阵,用E表示。该词向量矩阵的行高为N,表示所有可能出现的词的个数;词向量矩阵的列宽为W。其中,N、W为正整数,W的大小通常设定为50~1000之间。该词向量矩阵中的所有元素均用数字表示,每一行的元素组成一个长度为W的向量,即为该行元素所对应的词的词向量(Word Embedding),W即为词向量大小(embeddingsize)。对于一个给定的词,假设该词对应于词向量矩阵中的第k行,则通过查找该词向量矩阵,即可获得该词的词向量。其中,k为正整数。
因此,在对查询语句进行分词之后,即可通过查找该词向量矩阵,获得各个分词对应的分词向量。比如,对于上述查询语句Q,在获得Q的m个分词之后,通过查找词向量矩阵,即可获得对应的m个分词向量,分别记为emb_w1,emb_w2,…,emb_wm。
需要说明的是,词向量是将语言中的词进行数字化的一种方式,即把一个词表示成一个向量。最简单的词向量表示方法是:把每个词表示为一个很长的向量,向量的维度表示词表的大小,只有一个维度的向量分量值为“1”,其他分量值全为“0”,“1”的位置对应该词在词表中的位置。举例而言,“麦克风”表示为[0 0 0 0 0 0 0 010 0 0 0 0 0 0...],假设从0开始记,麦克风记为8,表示麦克风这个词处于词表中的第8个位置。还有一种词向量表示方法是:通过训练将某种语言中的每一个词映射成一个固定长度的向量,将所有向量集合形成一个词向量空间,其中每一向量表示该空间中的一个点。在词向量空间中引入“距离”的概念,即可根据词之间的距离来判断词与词在语法、语义上的相似性。本发明可以采用任一方法表示词向量,对此不作限制。
另外,需要说明的是,本发明实施例使用的词向量矩阵,可以通过模型训练获得,也可以通过人工标注的方式获得,本发明对此不作限制。
S123:利用神经网络将分词向量转换为隐层向量。
其中,隐层向量为M个,M为正整数。
本实施例中,在对查询语句进行分词处理并获得M个分词对应的分词向量之后,即可利用神经网络将分词向量转换为隐层向量。
作为一种示例,参见图3,图3是将词向量转换为隐层向量的神经网络结构示意图。
如图3所示,将词向量转换为隐层向量的神经网络包括词向量层和隐藏层两层结构。在获得上述查询语句Q的各个分词对应的分词向量之后,将各分词向量输入至词向量层,再由词向量层输入至隐藏层,采用相关技术进行运算后可获得各分词向量对应的隐层向量。具体地,首先对分词向量emb_w1进行处理获得对应的隐层向量h1,接着利用分词向量emb_w2和隐藏向量h1获得与emb_w2对应的隐层向量h2,再利用分词向量emb_w3和隐藏向量h2获得与emb_w3对应的隐层向量h3,以此类推,最后获得分词向量emb_wm对应的隐层向量hm。
需要说明的是,本示例中所述的将词向量转换为隐层向量的神经网络,其词向量层的输入可以是词向量,也可以是对查询语句进行分词处理后获得的分词。当输入为词向量时,词向量层直接将接收的词向量输出至隐藏层;当输入为分词时,词向量层将分词转换为对应的词向量后再输入至隐藏层。本发明对词向量层的输入形式不作限制。
S13:将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句。
本实施例中,在获得查询语句各个分词对应的隐层向量之后,将隐层向量和起始符号词对应的向量输入至神经网络,即可生成查询语句对应的推荐查询语句。
其中,起始符号词对应的向量是为神经网络计算需要所设置的特殊向量,在实际处理中通常设置为0向量,本发明对此不作限制。
具体地,将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句,包括:将隐层向量和起始符号词对应的向量输入至神经网络的隐藏层;利用非线性变换和softmax回归输出候选推荐词;根据候选推荐词生成推荐查询语句。也就是说,当获得查询语句对应的隐层向量之后,将获得的隐层向量和预设的起始符号词对应的向量输入至神经网络的隐藏层,在隐藏层采用相关非线性变换函数(比如双曲正切函数tanh、激活函数ReLU等)对输入的隐层向量和预设的起始符号词对应的向量进行运算,再利用softmax回归算法对运算结果进行处理,获得多个候选推荐词,最终根据候选推荐词生成推荐查询语句。
作为一种示例,参见图4,图4是利用神经网络生成候选推荐词的示例图。
假设起始符号词对应的向量记为emb_bos。如图4所示,神经网络包括词向量层、隐藏层和输出层。首先将前文利用神经网络转换所得的隐层向量hm和emb_bos共同输入至隐藏层,通过非线性变换后获得对应的隐层向量,记为sh1,利用softmax函数对sh1进行回归运算,即得到对应的候选推荐词,记为sw1。同理,利用获得的隐层向量sh1和词向量emb_sw1作为输入,经过同样的处理后可获得对应的候选推荐词sw2。以此类推,利用获得的隐层向量shn-1和词向量emb_swn-1作为输入,可获得候选推荐词swn。其中,emb_swi为对神经网络进行训练所获得的词向量参数,具体表示含义将在下文给出;m、n、i均为正整数,i=1,2,…,n-1。在获得多个候选推荐词之后,即可根据候选推荐词表示出推荐查询语句。
S14:向用户返回推荐查询语句。
本实施例中,在获得用户输入的查询语句所对应的推荐查询语句之后,将推荐查询语句返回给用户,用户根据返回的推荐查询语句即可快速查询到满足自身需求的搜索结果。
前文提到,在利用神经网络生成候选推荐词时,所用到的词向量是通过对神经网络进行训练获得的,具体训练过程将在下文中给出,现仅结合简单描述对本实施例进行具体说明。如图5所示,本实施例中,首先从搜索引擎的点击日志中获取用户的历史查询信息作为训练样本,通过并行计算集群对训练样本进行训练,生成神经网络模型参数。根据所得到的模型参数,对用户当前输入的查询语句和用户当前查询过程中的查询语句进行自动生成推荐查询语句的计算,最后向用户返回推荐查询语句。
本发明实施例提出的基于人工智能的查询语句推荐方法,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
图6是本发明另一实施例提出的基于人工智能的查询语句推荐方法的流程示意图。
如图6所示,基于上述实施例,该基于人工智能的查询语句推荐方法,还可以包括以下步骤:
S15:预先训练生成神经网络。
本实施例中,为了能够实现通过神经网络获得用户输入的查询语句对应的隐层向量,进而获得对应的推荐查询语句,需要预先训练生成神经网络。
具体地,如图7所示,预先训练生成神经网络,可以包括以下步骤:
S151:获取用户搜索日志数据。
为了能够训练生成神经网络,需要获取训练样本。本实施例中,利用搜索引擎的点击日志获取用户搜索日志数据作为训练样本,用于训练生成神经网络。
S152:从搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本。
本实施例中,在获取到搜索日志数据后,从搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本。
具体地,将搜索日志数据中用户最终点击的搜索结果所对应的查询语句作为满足用户需求查询语句样本,记为SQ;在SQ之前出现的查询语句作为查询语句样本,记为Q。由此,可以从搜索日志数据中获得大量的<Q,SQ>对。
S153:将查询语句样本和满足用户需求查询语句样本作为训练数据,利用随机梯度下降法SGD训练神经网络。
本实施例中,从搜索日志数据中提取出查询语句样本Q以及满足用户需求查询语句样本SQ之后,即可将获得的大量<Q,SQ>对作为训练数据,利用随机梯度下降(StochasticGradient Descent,SGD)算法训练神经网络。
具体地,将获得的大量<Q,SQ>对作为训练数据,以对数损失函数(log loss)作为训练目标,在GPU集群(并行计算集群)上使用SGD算法对神经网络及神经网络模型参数进行训练和优化,使所得参数在对数损失函数上最优。
其中,SGD算法的思想是通过计算某一组训练数据的梯度(参数的偏导数),来迭代更新初始化过的参数。迭代更新的过程为:让参数减去所设置的学习率(learning rate)乘以计算出的梯度,将此次迭代所得的结果更新到参数上。经过多次迭代后,能够使神经网络根据参数计算所得的值与实际值之间的差收敛于对数损失函数。
需要说明的是,还可以利用反向传播(Back Propagation,BP)算法对神经网络模型参数进行训练和优化,BP算法是一种有效的计算参数的梯度的方法。另外,也可以使用其他损失函数作为训练目标,比如0-1损失函数、平方损失函数、绝对损失函数等。本发明对神经网络模型参数的训练和优化方法、训练目标函数均不作限制。
本发明实施例提出的基于人工智能的查询语句推荐方法,通过获取用户搜索日志数据,并从搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本,进而将查询语句样本以及满足用户需求查询语句样本作为训练数据,利用随机梯度下降算法训练神经网络,能够根据用户的历史查询信息训练生成神经网络和神经网络模型参数,进一步提高向用户返回的推荐查询语句的准确率,从而更加满足用户的个性化需求。
为了实现上述实施例,本发明还提出了一种基于人工智能的查询语句推荐装置,图8是本发明一实施例提出的基于人工智能的查询语句推荐装置的结构示意图。
如图8所示,本实施例的基于人工智能的查询语句推荐装置包括:接收模块810、转换模块820、处理模块830,以及推荐模块840。其中,
接收模块810,用于接收用户输入的查询语句。
转换模块820,用于利用神经网络将查询语句转换为隐层向量。
其中,神经网络可以包括:RNN神经网络、Gated RNN神经网络、LSTM神经网络等。
具体地,如图9所示,转换模块820包括:
切分单元821,用于将查询语句切分为M个分词。
第一获取单元822,用于基于词向量矩阵获取M个分词对应的分词向量。
转换单元823,用于利用神经网络将分词向量转换为隐层向量。
其中,隐层向量为M个,M为正整数。
处理模块830,用于将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句。
具体地,处理模块830用于:
将隐层向量和起始符号词对应的向量输入至神经网络的隐藏层;
利用非线性变换和softmax回归输出候选推荐词;
根据候选推荐词生成推荐查询语句。
推荐模块840,用于向用户返回推荐查询语句。
需要说明的是,前述实施例中对基于人工智能的查询语句推荐方法实施例的解释说明也适用于本实施例的基于人工智能的查询语句推荐装置,其实现原理类似,此处不再赘述。
本发明实施例提出的基于人工智能的查询语句推荐装置,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
图10是本发明又一实施例提出的基于人工智能的查询语句推荐装置的结构示意图。如图10所示,在如图8所示的基础上,本实施例提出的基于人工智能的查询语句推荐装置,还可以包括:
训练模块850,用于预先训练生成神经网络。
具体地,如图11所示,训练模块850包括:
第二获取单元851,用于获取用户搜索日志数据。
提取单元852,用于从搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本。
训练单元853,用于将查询语句样本和满足用户需求查询语句样本作为训练数据,利用随机梯度下降法SGD训练神经网络。
需要说明的是,前述实施例中对基于人工智能的查询语句推荐方法实施例的解释说明也适用于本实施例的基于人工智能的查询语句推荐装置,其实现原理类似,此处不再赘述。
本发明实施例提出的基于人工智能的查询语句推荐装置,通过获取用户搜索日志数据,并从搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本,进而将查询语句样本以及满足用户需求查询语句样本作为训练数据,利用随机梯度下降算法训练神经网络,能够根据用户的历史查询信息训练生成神经网络和神经网络模型参数,进一步提高向用户返回的推荐查询语句的准确率,从而更加满足用户的个性化需求。
为了实现上述实施例,本发明还提出了一种终端,包括:处理器,以及用于存储处理器可执行指令的存储器。其中,处理器被配置为执行以下步骤:
S11’:接收用户输入的查询语句。
S12’:利用神经网络将查询语句转换为隐层向量。
S13’:将隐层向量和起始符号词对应的向量输入至神经网络,并生成查询语句对应的推荐查询语句。
S14’:向用户返回推荐查询语句。
需要说明的是,前述实施例中对基于人工智能的查询语句推荐方法实施例的解释说明也适用于本实施例的终端,其实现原理类似,此处不再赘述。
本发明实施例提出的终端,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
为了实现上述实施例,本发明还提出了一种非临时性计算机可读存储介质,用于存储一个或多个程序,当存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行本发明第一方面实施例提出的基于人工智能的查询语句推荐方法。
本发明实施例提出的非临时性计算机可读存储介质,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
为了实现上述实施例,本发明还提出了一种计算机程序产品,当计算机程序产品中的指令被处理器执行时,执行本发明第一方面实施例提出的基于人工智能的查询语句推荐方法。
本发明实施例提出的计算机程序产品,通过利用神经网络将接收到的查询语句转换为隐层向量,将所得隐层向量和起始符号词输入至神经网络以生成查询语句对应的推荐查询语句,进而将推荐查询语句返回给用户。由此,能够根据用户输入向用户推荐新的查询语句,满足用户的个性化需求,且该方法适用于各种类型的查询语句,适用范围广,适用性强。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (12)
1.一种基于人工智能的查询语句推荐方法,其特征在于,包括:
接收用户输入的查询语句;
利用神经网络将所述查询语句转换为隐层向量;
将所述隐层向量和起始符号词对应的向量输入至所述神经网络,并生成所述查询语句对应的推荐查询语句;
向所述用户返回所述推荐查询语句。
2.如权利要求1所述的方法,其特征在于,利用神经网络将所述查询语句转换为隐层向量,包括:
将所述查询语句切分为M个分词;
基于词向量矩阵获取所述M个分词对应的分词向量;
利用所述神经网络将所述分词向量转换为隐层向量,所述隐层向量为M个,M为正整数。
3.如权利要求1所述的方法,其特征在于,将所述隐层向量和起始符号词对应的向量输入至所述神经网络,并生成所述查询语句对应的推荐查询语句,包括:
将所述隐层向量和起始符号词对应的向量输入至所述神经网络的隐藏层;
利用非线性变换和softmax回归输出候选推荐词;
根据所述候选推荐词生成所述推荐查询语句。
4.如权利要求1所述的方法,其特征在于,所述神经网络包括RNN神经网络、GatedRNN神经网络、LSTM神经网络。
5.如权利要求1所述的方法,其特征在于,还包括:
预先训练生成所述神经网络。
6.如权利要求5所述的方法,其特征在于,预先训练生成所述神经网络,包括:
获取用户搜索日志数据;
从所述搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本;
将所述查询语句样本和所述满足用户需求查询语句样本作为训练数据,利用随机梯度下降法SGD训练所述神经网络。
7.一种基于人工智能的查询语句推荐装置,其特征在于,包括:
接收模块,用于接收用户输入的查询语句;
转换模块,用于利用神经网络将所述查询语句转换为隐层向量;
处理模块,用于将所述隐层向量和起始符号词对应的向量输入至所述神经网络,并生成所述查询语句对应的推荐查询语句;
推荐模块,用于向所述用户返回所述推荐查询语句。
8.如权利要求7所述的装置,其特征在于,所述转换模块,包括:
切分单元,用于将所述查询语句切分为M个分词;
第一获取单元,用于基于词向量矩阵获取所述M个分词对应的分词向量;
转换单元,用于利用所述神经网络将所述分词向量转换为隐层向量,所述隐层向量为M个,M为正整数。
9.如权利要求7所述的装置,其特征在于,所述处理模块,用于:
将所述隐层向量和起始符号词对应的向量输入至所述神经网络的隐藏层;
利用非线性变换和softmax回归输出候选推荐词;
根据所述候选推荐词生成所述推荐查询语句。
10.如权利要求7所述的装置,其特征在于,所述神经网络包括RNN神经网络、GatedRNN神经网络、LSTM神经网络。
11.如权利要求7所述的装置,其特征在于,还包括:
训练模块,用于预先训练生成所述神经网络。
12.如权利要求11所述的装置,其特征在于,所述训练模块,包括:
第二获取单元,用于获取用户搜索日志数据;
提取单元,用于从所述搜索日志数据中提取查询语句样本以及满足用户需求查询语句样本;
训练单元,用于将所述查询语句样本和所述满足用户需求查询语句样本作为训练数据,利用随机梯度下降法SGD训练所述神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611019559.4A CN106557563B (zh) | 2016-11-15 | 2016-11-15 | 基于人工智能的查询语句推荐方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611019559.4A CN106557563B (zh) | 2016-11-15 | 2016-11-15 | 基于人工智能的查询语句推荐方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106557563A true CN106557563A (zh) | 2017-04-05 |
CN106557563B CN106557563B (zh) | 2020-09-25 |
Family
ID=58444511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611019559.4A Active CN106557563B (zh) | 2016-11-15 | 2016-11-15 | 基于人工智能的查询语句推荐方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106557563B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220296A (zh) * | 2017-04-28 | 2017-09-29 | 北京拓尔思信息技术股份有限公司 | 问答知识库的生成方法、神经网络的训练方法以及设备 |
CN107730343A (zh) * | 2017-09-15 | 2018-02-23 | 广州唯品会研究院有限公司 | 一种基于图片属性提取的用户商品信息推送方法及设备 |
CN108153916A (zh) * | 2018-01-30 | 2018-06-12 | 福建星瑞格软件有限公司 | 利用随机算法实现数据库sql查询语句自动生成工具的方法 |
CN109241268A (zh) * | 2018-07-05 | 2019-01-18 | 腾讯科技(深圳)有限公司 | 一种相似信息推荐方法、装置、设备及存储介质 |
CN109241262A (zh) * | 2018-08-31 | 2019-01-18 | 出门问问信息科技有限公司 | 基于关键词生成回复语句的方法及装置 |
CN109542247A (zh) * | 2018-11-14 | 2019-03-29 | 腾讯科技(深圳)有限公司 | 句式推荐方法及装置、电子设备、存储介质 |
CN109710915A (zh) * | 2017-10-26 | 2019-05-03 | 华为技术有限公司 | 复述语句生成方法及装置 |
CN109995642A (zh) * | 2017-12-29 | 2019-07-09 | Tcl集团股份有限公司 | 一种自动生成快捷回复的方法及装置、即时通讯系统 |
CN110019928A (zh) * | 2017-11-17 | 2019-07-16 | 上海全土豆文化传播有限公司 | 视频标题的优化方法及装置 |
CN110795612A (zh) * | 2019-10-28 | 2020-02-14 | 北京字节跳动网络技术有限公司 | 搜索词的推荐方法、装置、电子设备和计算机可读存储介质 |
CN111274359A (zh) * | 2020-01-20 | 2020-06-12 | 福州大学 | 基于改进vhred与强化学习的查询推荐方法及系统 |
CN112883185A (zh) * | 2021-03-30 | 2021-06-01 | 中国工商银行股份有限公司 | 基于机器学习的问题推荐方法及装置 |
CN113360497A (zh) * | 2021-05-26 | 2021-09-07 | 华中科技大学 | 一种面向多负载的云数据库二级索引自动推荐方法和系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1758248A (zh) * | 2004-10-05 | 2006-04-12 | 微软公司 | 用于提供个性化搜索和信息访问的系统、方法和接口 |
CN102609433A (zh) * | 2011-12-16 | 2012-07-25 | 北京大学 | 基于用户日志进行查询推荐的方法及系统 |
CN104036010A (zh) * | 2014-06-25 | 2014-09-10 | 华东师范大学 | 一种基于半监督cbow的用户搜索词主题分类的方法 |
CN104615589A (zh) * | 2015-02-15 | 2015-05-13 | 百度在线网络技术(北京)有限公司 | 训练命名实体识别模型的方法、命名实体识别方法及装置 |
CN104850614A (zh) * | 2015-05-14 | 2015-08-19 | 百度在线网络技术(北京)有限公司 | 推荐查询词展现方法和装置 |
CN104933183A (zh) * | 2015-07-03 | 2015-09-23 | 重庆邮电大学 | 一种融合词向量模型和朴素贝叶斯的查询词改写方法 |
CN105183720A (zh) * | 2015-08-05 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 基于rnn模型的机器翻译方法和装置 |
CN105868255A (zh) * | 2015-12-25 | 2016-08-17 | 乐视网信息技术(北京)股份有限公司 | 查询推荐方法及装置 |
CN105930413A (zh) * | 2016-04-18 | 2016-09-07 | 北京百度网讯科技有限公司 | 相似度模型参数的训练方法、搜索处理方法及对应装置 |
-
2016
- 2016-11-15 CN CN201611019559.4A patent/CN106557563B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1758248A (zh) * | 2004-10-05 | 2006-04-12 | 微软公司 | 用于提供个性化搜索和信息访问的系统、方法和接口 |
CN102609433A (zh) * | 2011-12-16 | 2012-07-25 | 北京大学 | 基于用户日志进行查询推荐的方法及系统 |
CN104036010A (zh) * | 2014-06-25 | 2014-09-10 | 华东师范大学 | 一种基于半监督cbow的用户搜索词主题分类的方法 |
CN104615589A (zh) * | 2015-02-15 | 2015-05-13 | 百度在线网络技术(北京)有限公司 | 训练命名实体识别模型的方法、命名实体识别方法及装置 |
CN104850614A (zh) * | 2015-05-14 | 2015-08-19 | 百度在线网络技术(北京)有限公司 | 推荐查询词展现方法和装置 |
CN104933183A (zh) * | 2015-07-03 | 2015-09-23 | 重庆邮电大学 | 一种融合词向量模型和朴素贝叶斯的查询词改写方法 |
CN105183720A (zh) * | 2015-08-05 | 2015-12-23 | 百度在线网络技术(北京)有限公司 | 基于rnn模型的机器翻译方法和装置 |
CN105868255A (zh) * | 2015-12-25 | 2016-08-17 | 乐视网信息技术(北京)股份有限公司 | 查询推荐方法及装置 |
CN105930413A (zh) * | 2016-04-18 | 2016-09-07 | 北京百度网讯科技有限公司 | 相似度模型参数的训练方法、搜索处理方法及对应装置 |
Non-Patent Citations (1)
Title |
---|
CHO K 等: "Learning phase representations using RNN encoder-decoder for statistical machine translation", 《EMNLP 2014》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220296A (zh) * | 2017-04-28 | 2017-09-29 | 北京拓尔思信息技术股份有限公司 | 问答知识库的生成方法、神经网络的训练方法以及设备 |
CN107220296B (zh) * | 2017-04-28 | 2020-01-17 | 北京拓尔思信息技术股份有限公司 | 问答知识库的生成方法、神经网络的训练方法以及设备 |
CN107730343A (zh) * | 2017-09-15 | 2018-02-23 | 广州唯品会研究院有限公司 | 一种基于图片属性提取的用户商品信息推送方法及设备 |
US11586814B2 (en) | 2017-10-26 | 2023-02-21 | Huawei Technologies Co., Ltd. | Paraphrase sentence generation method and apparatus |
CN109710915B (zh) * | 2017-10-26 | 2021-02-23 | 华为技术有限公司 | 复述语句生成方法及装置 |
CN109710915A (zh) * | 2017-10-26 | 2019-05-03 | 华为技术有限公司 | 复述语句生成方法及装置 |
CN110019928A (zh) * | 2017-11-17 | 2019-07-16 | 上海全土豆文化传播有限公司 | 视频标题的优化方法及装置 |
CN109995642A (zh) * | 2017-12-29 | 2019-07-09 | Tcl集团股份有限公司 | 一种自动生成快捷回复的方法及装置、即时通讯系统 |
CN108153916A (zh) * | 2018-01-30 | 2018-06-12 | 福建星瑞格软件有限公司 | 利用随机算法实现数据库sql查询语句自动生成工具的方法 |
CN108153916B (zh) * | 2018-01-30 | 2021-08-31 | 福建星瑞格软件有限公司 | 利用随机算法实现数据库sql查询语句自动生成工具的方法 |
CN109241268B (zh) * | 2018-07-05 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 一种相似信息推荐方法、装置、设备及存储介质 |
CN109241268A (zh) * | 2018-07-05 | 2019-01-18 | 腾讯科技(深圳)有限公司 | 一种相似信息推荐方法、装置、设备及存储介质 |
CN109241262B (zh) * | 2018-08-31 | 2021-01-05 | 出门问问信息科技有限公司 | 基于关键词生成回复语句的方法及装置 |
CN109241262A (zh) * | 2018-08-31 | 2019-01-18 | 出门问问信息科技有限公司 | 基于关键词生成回复语句的方法及装置 |
CN109542247B (zh) * | 2018-11-14 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 句式推荐方法及装置、电子设备、存储介质 |
CN109542247A (zh) * | 2018-11-14 | 2019-03-29 | 腾讯科技(深圳)有限公司 | 句式推荐方法及装置、电子设备、存储介质 |
CN110795612A (zh) * | 2019-10-28 | 2020-02-14 | 北京字节跳动网络技术有限公司 | 搜索词的推荐方法、装置、电子设备和计算机可读存储介质 |
CN111274359B (zh) * | 2020-01-20 | 2022-06-14 | 福州大学 | 基于改进vhred与强化学习的查询推荐方法及系统 |
CN111274359A (zh) * | 2020-01-20 | 2020-06-12 | 福州大学 | 基于改进vhred与强化学习的查询推荐方法及系统 |
CN112883185A (zh) * | 2021-03-30 | 2021-06-01 | 中国工商银行股份有限公司 | 基于机器学习的问题推荐方法及装置 |
CN113360497A (zh) * | 2021-05-26 | 2021-09-07 | 华中科技大学 | 一种面向多负载的云数据库二级索引自动推荐方法和系统 |
CN113360497B (zh) * | 2021-05-26 | 2022-04-05 | 华中科技大学 | 一种面向多负载的云数据库二级索引自动推荐方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN106557563B (zh) | 2020-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106557563B (zh) | 基于人工智能的查询语句推荐方法及装置 | |
CN108280061B (zh) | 基于歧义实体词的文本处理方法和装置 | |
CN108846077B (zh) | 问答文本的语义匹配方法、装置、介质及电子设备 | |
CN108062388B (zh) | 人机对话的回复生成方法和装置 | |
CN107193807B (zh) | 基于人工智能的语言转换处理方法、装置及终端 | |
CN106844368B (zh) | 用于人机对话的方法、神经网络系统和用户设备 | |
CN108038107B (zh) | 基于卷积神经网络的语句情感分类方法、装置及其设备 | |
CN105183720B (zh) | 基于rnn模型的机器翻译方法和装置 | |
CN107729322B (zh) | 分词方法及装置、建立句子向量生成模型方法及装置 | |
CN113361578B (zh) | 图像处理模型的训练方法、装置、电子设备及存储介质 | |
CN109829162B (zh) | 一种文本分词方法及装置 | |
CN108960338B (zh) | 基于注意力反馈机制的图像自动语句标注方法 | |
US20150095017A1 (en) | System and method for learning word embeddings using neural language models | |
CN115795009A (zh) | 基于生成式多语言模型的跨语言问答系统构建方法和装置 | |
CN110874536B (zh) | 语料质量评估模型生成方法和双语句对互译质量评估方法 | |
CN106570162B (zh) | 基于人工智能的谣言识别方法及装置 | |
CN113158687B (zh) | 语义的消歧方法及装置、存储介质、电子装置 | |
CN109145083B (zh) | 一种基于深度学习的候选答案选取方法 | |
CN110852066B (zh) | 一种基于对抗训练机制的多语言实体关系抽取方法及系统 | |
CN113569018A (zh) | 问答对挖掘方法及装置 | |
CN114722833B (zh) | 一种语义分类方法及装置 | |
CN115098556A (zh) | 用户需求匹配方法、装置、电子设备及存储介质 | |
CN116955644A (zh) | 基于知识图谱的知识融合方法、系统及存储介质 | |
CN110969005B (zh) | 一种确定实体语料之间的相似性的方法及装置 | |
CN115062123A (zh) | 一种对话生成系统的知识库问答对生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |