CN106776869B - 基于神经网络的搜索优化方法、装置以及搜索引擎 - Google Patents
基于神经网络的搜索优化方法、装置以及搜索引擎 Download PDFInfo
- Publication number
- CN106776869B CN106776869B CN201611071564.XA CN201611071564A CN106776869B CN 106776869 B CN106776869 B CN 106776869B CN 201611071564 A CN201611071564 A CN 201611071564A CN 106776869 B CN106776869 B CN 106776869B
- Authority
- CN
- China
- Prior art keywords
- search
- word
- search word
- current
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2457—Query processing with adaptation to user needs
- G06F16/24575—Query processing with adaptation to user needs using context
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/248—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F7/00—Methods or arrangements for processing data by operating upon the order or content of the data handled
- G06F7/06—Arrangements for sorting, selecting, merging, or comparing data on individual record carriers
- G06F7/08—Sorting, i.e. grouping record carriers in numerical or other ordered sequence according to the classification of at least some of the information they carry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于神经网络的搜索优化方法、装置以及搜索引擎。其中方法包括:获取用户输入的当前搜索词以及前置搜索词;根据当前搜索词获取多个搜索结果;基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示;基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。该方法可以最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
Description
技术领域
本发明涉及搜索引擎技术领域,尤其涉及一种基于神经网络的搜索优化方法、装置以及搜索引擎。
背景技术
随着搜索引擎技术的快速发展以及人们生活需求的不断提高,越来越多的用户更加注重搜索使用体验,而搜索使用体验取决于搜索结果与用户的搜索意图的相关性,例如,搜索结果与用户的搜索意图的相关性越大,则更加贴近用户的需求。
在搜索过程中,通常由用户输入一个查询,搜索引擎返回与查询匹配的结果。查询可以是文本查询,包括一个或多个搜索词语或短语。搜索引擎例如可以通过文本相关的匹配方法返回与搜索查询对应的搜索结果。
在相关技术中,用户输入的搜索需求描述信息可能存在多种语义或者语义比较宽泛,所以搜索引擎对用户搜索意图的理解可能会有偏差,导致返回的搜索结果的准确度较低。
发明内容
本发明的目的旨在至少在一定程度上解决上述的技术问题之一。
为此,本发明的第一个目的在于提出一种基于神经网络的搜索优化方法。该方法可以最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
本发明的第二个目的在于提出一种基于神经网络的搜索优化装置。
本发明的第三个目的在于提出一种搜索引擎。
本发明的第四个目的在于提出一种电子设备。
本发明的第五个目的在于提出一种非临时性计算机可读存储介质。
本发明的第六个目的在于提出一种计算机程序产品。
为达到上述目的,本发明第一方面实施例提出的基于神经网络的搜索优化方法,包括:获取用户输入的当前搜索词以及前置搜索词;根据所述当前搜索词获取多个搜索结果;基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;基于DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
本发明实施例的基于神经网络的搜索优化方法,可获取用户输入的当前搜索词以及前置搜索词,并根据当前搜索词获取多个搜索结果,之后,基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,最后,基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。即利用用户前置搜索词对当前搜索词进行搜索优化,并利用神经网络在语义理解上的优势能更好地对当前搜索词匹配出符合用户短期搜索需求的结果和排序,最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
为达到上述目的,本发明第二方面实施例提出的基于神经网络的搜索优化装置,包括:第一获取模块,用于获取用户输入的当前搜索词以及前置搜索词;第二获取模块,用于根据所述当前搜索词获取多个搜索结果;生成模块,用于基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;预测模块,用于基于DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
本发明实施例的基于神经网络的搜索优化装置,可通过第一获取模块获取用户输入的当前搜索词以及前置搜索词,第二获取模块根据当前搜索词获取多个搜索结果,生成模块基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,预测模块基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。即利用用户前置搜索词对当前搜索词进行搜索优化,并利用神经网络在语义理解上的优势能更好地对当前搜索词匹配出符合用户短期搜索需求的结果和排序,最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
为达到上述目的,本发明第三方面实施例提出的搜索引擎,包括:本发明第二方面实施例所述的基于神经网络的搜索优化装置。
为达到上述目的,本发明第四方面实施例提出的电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:获取用户输入的当前搜索词以及前置搜索词;根据所述当前搜索词获取多个搜索结果;基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;基于DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
为达到上述目的,本发明第五方面实施例提出的非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器被执行时,使得移动终端能够执行一种基于神经网络的搜索优化方法,所述方法包括:获取用户输入的当前搜索词以及前置搜索词;根据所述当前搜索词获取多个搜索结果;基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;基于DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
为达到上述目的,本发明第六方面实施例提出的计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行一种基于神经网络的搜索优化方法,所述方法包括:获取用户输入的当前搜索词以及前置搜索词;根据所述当前搜索词获取多个搜索结果;基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;基于DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本发明一个实施例的基于神经网络的搜索优化方法的流程图;
图2是根据本发明实施例的生成目标词向量表示的流程图;
图3是根据本发明实施例的生成目标词向量表示的示例图;
图4是根据本发明另一个实施例的基于神经网络的搜索优化方法的流程图;
图5是根据本发明又一个实施例的基于神经网络的搜索优化方法的流程图;
图6是根据本发明一个实施例的基于神经网络的搜索优化装置的结构示意图;
图7是根据本发明一个实施例的生成模块的结构示意图;
图8是根据本发明一个实施例的生成子模块的结构示意图;
图9是根据本发明又一个实施例的基于神经网络的搜索优化装置的结构示意图;
图10是根据本发明另一个实施例的基于神经网络的搜索优化装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
下面参考附图描述本发明实施例的基于神经网络的搜索优化方法、装置以及搜索引擎。
目前,传统的个性化搜索和用户搜索的优化需求构建较为复杂、维护成本较高的用户画像(profile),此外,还需要做一系列的匹配来进行推荐,成本非常高;也缺乏从语义维度来刻画用户搜索意图和兴趣的工业实践;基于神经网络原理的机器学习方法在经过学术界较长一段时间的讨论与研究后也在网页排序上取得过很好的效果。然而,神经网络在搜索个性化的方面上仍然缺乏实际的应用。
作为搜索引擎的基础组成之一,现有的排序模型只针对一次搜索进程中的搜索词(query)和备选文档进行排序,用户的前置搜索词(pre-query)以及前置搜索进程中点击以及忽略的结果在新的一次搜索中完全被排除在模型的排序因子之外。然而,前置搜索词以及前置搜索进程中点击以及忽略的结果等信息,也可能会提供关于用户搜索的需求信息以更好的匹配与当前搜索词相符合的结果。
为此,本发明提出了一种基于神经网络的搜索优化方法,通过将前置搜索词、当前搜索以及该当前搜索词的搜索结果进行结合,并基于多层神经网络提取出用于标识用户的短期兴趣的目标词向量表示,最后,根据该目标词向量表示获取当前搜索词的优化搜索结果,以实现最大程度的满足用户的个性化需求。
具体地,图1是根据本发明一个实施例的基于神经网络的搜索优化方法的流程图。需要说明的是,本发明实施例的基于神经网络的搜索优化方法可应用于本发明实施例的基于神经网络的搜索优化装置,该基于神经网络的搜索优化装置可被配置于搜索引擎上。
如图1所示,该基于神经网络的搜索优化方法可以包括:
S110,获取用户输入的当前搜索词以及前置搜索词。
需要说明的是,在本发明的实施例中,上述前置搜索词是指当前搜索词的前一个搜索请求中的搜索内容。也就是说,当前搜索词与前置搜索词分别是连续的两个搜索请求中的搜索内容,当前搜索词是当前搜索请求中的搜索内容,前置搜索词是前一个搜索请求中的搜索内容。
举例而言,假设本发明实施例的基于神经网络的搜索优化方法可用于搜索引擎中,该搜索引擎可为用户提供输入框,用户通过该输入框输入搜索词。当用户输入搜索词并点击确定搜索时,可获取该用户所输入的本次搜索请求中的当前搜索词,并获取该用户上一次搜索请求中的前置搜索词。
其中,该当前搜索词以及前置搜索词可以是数字、字母、文字、符号等中的一种或多种的组合,例如,当前搜索词为“刘德华2015年演绎的电影”,前置搜索词为“刘德华演过哪些电影”。
S120,根据当前搜索词获取多个搜索结果。
举例而言,以当前搜索词为查询词,查询与该当前搜索词匹配的文档或网页等资源,并将这些资源作为该当前搜索词的搜索结果。其中,上述匹配可以理解为先精确匹配再模糊匹配,也就是说,可先找到与该当前搜索词精确匹配的资源,并找到与该当前搜索词模糊匹配的资源,最后将这些资源作为搜索结果。
S130,基于MLP(Multi-layer Perceptron,多层神经网络),根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示。
具体地,可将当前搜索词、前置搜索词和多个搜索结果通过MLP多层神经网络模型MLP提取出目标词向量表示,该目标词向量表示可以用于表示用户的短期兴趣。
作为一种示例,如图2所示,该基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示的具体实现过程可包括以下步骤:
S210,获取当前搜索词与前置搜索词之间的分词交集集合、第一分词差集集合、第二分词差集集合以及分词并集集合,其中,第一分词差集集合用于指示存在于当前搜索词而未存在于前置搜索词的分词集合,第二分词差集集合用于指示存在于前置搜索词而未存在于当前搜索词的分词集合。
具体地,可对当前搜索词进行分词以得到多个第一分词,并对前置搜索词进行分词以得到多个第二分词,之后,可根据多个第一分词和多个第二分词,分别获取当前搜索词与前置搜索词之间的分词交集集合、第一分词差集集合、第二分词差集集合以及分词并集集合。
例如,假设当前搜索词为“刘德华和关之琳合作演绎过哪些电影”,前置搜索词为“刘德华与哪些女明星合作演绎过电影”,分别对当前搜索词和前置搜索词进行分词,得到第一分词集合{刘德华,关之琳,合作,演绎,哪些,电影},第二分词集合{刘德华,哪些,女明星,合作,演绎,电影},这样,可以获得当前搜索词与前置搜索词之间的分词交集集合{刘德华,合作,演绎,哪些,电影},第一分词差集集合{关之琳},第二分词差集集合{女明星},分词并集集合{刘德华,关之琳,合作,演绎,哪些,电影,女明星}。
S220,获取多个搜索结果的分词集合和搜索标识集合,其中,搜索标识集合用于指示多个搜索结果是出现在前置搜索词的点击集合、非点击集合还是未展现集合。
可以理解,多个搜索结果是由多个网页文档组成的,每个网页文档可具有标题(title),针对每个搜索结果,可对该搜索结果的标题进行分词处理,得到分词集合,并确定该搜索结果是否出现在前置搜索词的点击集合中、非点击集合还是未展现集合。
其中,搜索结果出现在前置搜索词的点击集合,可以理解为该搜索结果也是前置搜索词所对应的搜索结果,且该搜索结果是被用户点击查看过的;搜索结果出现在前置搜索词的非点击集合,可以理解为该搜索结果也是前置搜索词所对应的搜索结果,而该搜索结果未被用户点击查看过;搜索结果出现在前置搜索词的未展现集合,可以理解为该搜索词不是前置搜索词的搜索结果。
S230,基于多层神经网络MLP,根据当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及多个搜索结果的分词集合和搜索标识集合,生成目标词向量表示。
具体地,可将当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及多个搜索结果的分词集合和搜索标识集合,通过多层神经网络MLP提取出对应的目标词向量表示。
作为一种示例,该多层神经网络MLP可包括连接层、非线性变换层、全连接层和MLP层。其中,在本示例中,如图3所示,上述步骤S230可包括以下步骤:
S231,将当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合通过连接层连接成当前搜索词的词向量。
具体地,可将当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合分别作为参数,通过连接层(Connect Layer)将这些参数连接成一个当前搜索词的词向量。
S232,通过非线性变换层(Softsign Layer)对当前搜索词的词向量进行非线性变换,并通过全连接层(FC Layer)对非线性变换后的当前搜索词的词向量进行全连接以生成当前搜索词的词向量表示。
S233,将多个搜索结果的分词集合和搜索标识集合通过连接层连接成多个搜索结果的词向量。
S234,通过非线性变换层对多个搜索结果的词向量进行非线性变换,并通过全连接层对非线性变换后的多个搜索结果的词向量进行全连接以生成多个搜索结果的词向量表示。
S235,根据当前搜索词的词向量表示和多个搜索结果的词向量表示,通过MLP层生成目标词向量表示。
也就是说,可将当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合通过连接层连接成一个当前搜索词的词向量,并将经过非线性变换层之后的当前搜索词的词向量经过全连接层以生成当前搜索词的词向量表示;同时,可将多个搜索结果的分词集合和搜索标识集合通过连接层连接成一个搜索结果的词向量,并经过非线性变换层和全连接层以生成搜索结果的词向量表示,最后,将当前搜索词的词向量表示和搜索结果的词向量表示,通过MLP层以生成目标词向量表示。
由此,通过将当前搜索词与前置搜索词的交集部分、两者之间的差集(包括第一分词差集集合和第二分词差集集合)和并集、以及一个搜索结果标题的分词集合和搜索标识集合作为考虑因素,来实现基于多层神经网络对于前置搜索词的个性化搜索优化,以最大程度的满足用户的个性化需求。
S140,基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。其中,上述基于DNN技术的语义模型可理解为通过利用DNN技术来训练出的语义模型。
具体地,可将目标词向量表示作为当前搜索词的排序信息引入基于DNN技术的语义模型来进行打分,并根据打分结果从高到低排序,得到多个排序后的优化搜索结果。也就是说,在得到当前搜索词的搜索结果之后,再根据当前搜索词与前置搜索词通过多层神经网络,对该当前搜索词的搜索结果进行个性化的搜索优化,从而得到该当前搜索词的优化搜索结果。这样,利用神经网络在语义理解上的优势能更好地对当前搜索词匹配出符合用户短期搜索需求的结果和排序。
本发明实施例的基于神经网络的搜索优化方法,可获取用户输入的当前搜索词以及前置搜索词,并根据当前搜索词获取多个搜索结果,之后,基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,最后,基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。即利用用户前置搜索词对当前搜索词进行搜索优化,并利用神经网络在语义理解上的优势能更好地对当前搜索词匹配出符合用户短期搜索需求的结果和排序,最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
图4是根据本发明另一个实施例的基于神经网络的搜索优化方法的流程图。
为了提高搜索结果的准确度,提高搜索个性化优化的效果,在本发明的实施例中,还可确定当前搜索词与前置搜索词之间的关系类型,基于MLP,根据关系类型、当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,最后,基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。具体地,如图4所示,该基于神经网络的搜索优化方法可以包括:
S410,获取用户输入的当前搜索词以及前置搜索词。
S420,根据当前搜索词获取多个搜索结果。
S430,确定当前搜索词与前置搜索词之间的关系类型。
需要说明的是,为了更好地利用用户前置搜索词进行搜索优化,可将前置搜索词与当前搜索词的关系区分成四个大类:
1)变形类型:前置搜索词和本次搜索的当前搜索词在语义上没有区别。对于变形类型的关系,可以看到展现在前置搜索词结果中的链接不论在上一次搜索点击与否,在本次搜索中用户都不倾向于与点击其链接。
2)特化类型:在前置搜索词的基础上,用户对其搜索需求进行进一步的特殊化以减少搜索的范围。对于特化类型的关系,用户理论上会对与这一次搜索语义更相关的结果感兴趣。
3)泛化类型:用户对于前置搜索词进行了总结,搜索了一个语义更为宽泛的搜索词(query)。对于泛化类型的关系,与特化类型的区别在于,用户对本次搜索的偏好不明显,但理论上并不会对与上一次搜索语义更相关的结果感兴趣。
4)共有话题需求类型:两次搜索很有可能是在搜索同类型的话题下的需求。共有话题需求的搜索结果中,能够同时满足两次搜索的需求的结果更可能满足用户的短期个性化搜索需求。
由此可见,本发明可对上文信息进行适当的分类,将连续的两个搜索请求分成了变形需求、特化需求、泛化需求和共有话题需求这四大类。这样,在实际应用中,可先确定当前搜索词与前置搜索词之间的关系属于哪一种需求类型,以便后续集合该需求类型进一步地提高个性化的搜索优化。
S440,基于多层神经网络MLP,根据关系类型、当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示。
可以理解,本发明将连续的两个搜索请求分成了变形需求、特化需求、泛化需求和共有话题需求,并对以上四类的搜索需求的前置query的结果进行的点击和非点击进行区分,以上述四个大类共8个小类前置query的信息配合特殊的神经网络的训练网络的涉及,通过模型网络特有的训练和学习方式对每一小类信息在对于展现结果的排序上都有不同的影响。
由此,在确定搜索词与前置搜索词之间的关系类型之后,可将当前搜索词、前置搜索词和多个搜索结果通过MLP提取出符合该关系类型下的目标词向量表示。
作为一种示例,如图2所示,该基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示的具体实现过程可包括以下步骤:
S210,获取当前搜索词与前置搜索词之间的分词交集集合、第一分词差集集合、第二分词差集集合以及分词并集集合,其中,第一分词差集集合用于指示存在于当前搜索词而未存在于前置搜索词的分词集合,第二分词差集集合用于指示存在于前置搜索词而未存在于当前搜索词的分词集合。
S220,获取多个搜索结果的分词集合和搜索标识集合,其中,搜索标识集合用于指示多个搜索结果是出现在前置搜索词的点击集合、非点击集合还是未展现集合。
S230,基于多层神经网络MLP,根据当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及多个搜索结果的分词集合和搜索标识集合,生成目标词向量表示。
作为一种示例,该多层神经网络MLP可包括连接层、非线性变换层、全连接层和MLP层。其中,在本示例中,上述步骤S230可包括以下步骤:
S231)将当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合通过连接层连接成当前搜索词的词向量;
S232)通过非线性变换层对当前搜索词的词向量进行非线性变换,并通过全连接层对非线性变换后的当前搜索词的词向量进行全连接以生成当前搜索词的词向量表示;
S233)将多个搜索结果的分词集合和搜索标识集合通过连接层连接成多个搜索结果的词向量;
S234)通过非线性变换层对多个搜索结果的词向量进行非线性变换,并通过全连接层对非线性变换后的多个搜索结果的词向量进行全连接以生成多个搜索结果的词向量表示;
S235)根据当前搜索词的词向量表示和多个搜索结果的词向量表示,通过MLP层生成目标词向量表示。
S450,基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。
本发明实施例的基于神经网络的搜索优化方法,确定当前搜索词与前置搜索词之间的关系类型,基于MLP,根据关系类型、当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,最后,基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。即通过基于DNN技术的语义模型提供了多个隐藏层信息,对于不同种类的前置搜索词信息提供了更多可用的排序依据,提高了搜索结果的准确度,提高了搜索个性化优化的效果。
为了进一步提升用户体验,进一步提高搜索个性化优化的效果,进一步地,本发明的一个实施例中,如图5所示,在得到与当前搜索词对应的多个优化搜索结果之后,该基于神经网络的搜索优化方法还可包括:
S510,获取当前搜索词的上下文信息。
S520,根据上下文信息对多个优化搜索结果进行重新排序。
举例而言,可计算该多个优化搜索结果与该上下文信息的相关性,并根据该相关性的大小对该多个优化搜索结果进行重新排序,例如,可按照相关性从大到小,依次对该多个优化结果进行重新排序。
S530,将重新排序后的多个优化搜索结果展现在搜索结果页面中。
由此,通过将已有的上下文信息合理、合适的结合在最终结果的展现重新排序上,以此来优化前置query的用户个性化搜索,进一步提升用户体验。
与上述几种实施例提供的基于神经网络的搜索优化方法相对应,本发明的一种实施例还提供一种基于神经网络的搜索优化装置,由于本发明实施例提供的基于神经网络的搜索优化装置与上述几种实施例提供的基于神经网络的搜索优化方法相对应,因此在前述基于神经网络的搜索优化方法的实施方式也适用于本实施例提供的基于神经网络的搜索优化装置,在本实施例中不再详细描述。图6是根据本发明一个实施例的基于神经网络的搜索优化装置的结构示意图。如图6所示,该基于神经网络的搜索优化装置可以包括:第一获取模块610、第二获取模块620、生成模块630和预测模块640。
具体地,第一获取模块610可用于获取用户输入的当前搜索词以及前置搜索词。
第二获取模块620可用于根据当前搜索词获取多个搜索结果。
生成模块630可用于基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示。
作为一种示例,如图7所示,该生成模块630可包括:第一获取子模块631、第二获取子模块632和生成子模块633。其中,第一获取子模块631用于获取当前搜索词与前置搜索词之间的分词交集集合、第一分词差集集合、第二分词差集集合以及分词并集集合,其中,第一分词差集集合用于指示存在于当前搜索词而未存在于前置搜索词的分词集合,第二分词差集集合用于指示存在于前置搜索词而未存在于当前搜索词的分词集合。第二获取子模块632用于获取多个搜索结果的分词集合和搜索标识集合,其中,搜索标识集合用于指示多个搜索结果是出现在前置搜索词的点击集合、非点击集合还是未展现集合。生成子模块633用于基于多层神经网络MLP,根据当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及多个搜索结果的分词集合和搜索标识集合,生成目标词向量表示。
作为一种示例,多层神经网络MLP可包括连接层、非线性变换层、全连接层和MLP层。其中,在本示例中,如图8所示,该生成子模块633可包括:连接单元6331、非线性变换单元6332、全连接单元6333和生成单元6334。
其中,连接单元6331用于将当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合通过连接层连接成当前搜索词的词向量。
非线性变换单元6332用于通过非线性变换层对当前搜索词的词向量进行非线性变换。
全连接单元6333用于通过全连接层对非线性变换后的当前搜索词的词向量进行全连接以生成当前搜索词的词向量表示。
连接单元6331还用于将多个搜索结果的分词集合和搜索标识集合通过连接层连接成多个搜索结果的词向量。
非线性变换单元6332还用于通过非线性变换层对多个搜索结果的词向量进行非线性变换。
全连接单元6333还用于通过全连接层对非线性变换后的多个搜索结果的词向量进行全连接以生成多个搜索结果的词向量表示。
生成单元6334用于根据当前搜索词的词向量表示和多个搜索结果的词向量表示,通过MLP层生成目标词向量表示。
预测模块640可用于基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。
为了提高搜索结果的准确度,提高搜索个性化优化的效果,进一步地,在本发明的一个实施例中,如图9所示,该基于神经网络的搜索优化装置还可包括:确定模块650,确定模块650可用于确定当前搜索词与前置搜索词之间的关系类型。其中,在本发明的实施例中,生成模块630可具体用于:基于多层神经网络MLP,根据关系类型、当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示。
为了进一步提升用户体验,进一步提高搜索个性化优化的效果,进一步地,在本发明的一个实施例中,如图10所示,该基于神经网络的搜索优化装置还可包括:第三获取模块660、重新排序模块670和展现模块680。其中,第三获取模块660用于在得到与当前搜索词对应的多个优化搜索结果之后,获取当前搜索词的上下文信息。重新排序模块670用于根据上下文信息对多个优化搜索结果进行重新排序。展现模块680用于将重新排序后的多个优化搜索结果展现在搜索结果页面中。
本发明实施例的基于神经网络的搜索优化装置,可通过第一获取模块获取用户输入的当前搜索词以及前置搜索词,第二获取模块根据当前搜索词获取多个搜索结果,生成模块基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,预测模块根据基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。即利用用户前置搜索词对当前搜索词进行搜索优化,并利用神经网络在语义理解上的优势能更好地对当前搜索词匹配出符合用户短期搜索需求的结果和排序,最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
为了实现上述实施例,本发明还提出了一种搜索引擎,包括上述任一个实施例所述的基于神经网络的搜索优化装置。
本发明实施例的搜索引擎,可通过搜索引擎中的第一获取模块获取用户输入的当前搜索词以及前置搜索词,第二获取模块根据当前搜索词获取多个搜索结果,生成模块基于多层神经网络MLP,根据当前搜索词、前置搜索词和多个搜索结果生成目标词向量表示,预测模块根据基于DNN技术的语义模型对目标词向量表示进行预测,得到与当前搜索词对应的多个优化搜索结果。即利用用户前置搜索词对当前搜索词进行搜索优化,并利用神经网络在语义理解上的优势能更好地对当前搜索词匹配出符合用户短期搜索需求的结果和排序,最大程度的满足用户的个性化需求,提高搜索结果的准确度,大大提升了用户的搜索体验。
在本发明的描述中,需要理解的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (9)
1.一种基于神经网络的搜索优化方法,其特征在于,包括以下步骤:
获取用户输入的当前搜索词以及前置搜索词;
根据所述当前搜索词获取多个搜索结果;
基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;其中,所述基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示,包括:
获取所述当前搜索词与所述前置搜索词之间的分词交集集合、第一分词差集集合、第二分词差集集合以及分词并集集合,其中,所述第一分词差集集合用于指示存在于所述当前搜索词而未存在于所述前置搜索词的分词集合,所述第二分词差集集合用于指示存在于所述前置搜索词而未存在于所述当前搜索词的分词集合;
获取所述多个搜索结果的分词集合和搜索标识集合,其中,所述搜索标识集合用于指示所述多个搜索结果是出现在所述前置搜索词的点击集合、非点击集合还是未展现集合;
基于所述多层神经网络MLP,根据所述当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及所述多个搜索结果的分词集合和搜索标识集合,生成所述目标词向量表示;
基于深度神经网络DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
2.如权利要求1所述的方法,其特征在于,所述多层神经网络MLP包括连接层、非线性变换层、全连接层和MLP层;其中,所述基于所述多层神经网络MLP,根据所述当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及所述多个搜索结果的分词集合和搜索标识集合,生成所述目标词向量表示,包括:
将所述当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合通过所述连接层连接成所述当前搜索词的词向量;
通过所述非线性变换层对所述当前搜索词的词向量进行非线性变换,并通过所述全连接层对非线性变换后的所述当前搜索词的词向量进行全连接以生成所述当前搜索词的词向量表示;
将所述多个搜索结果的分词集合和搜索标识集合通过所述连接层连接成所述多个搜索结果的词向量;
通过所述非线性变换层对所述多个搜索结果的词向量进行非线性变换,并通过所述全连接层对非线性变换后的所述多个搜索结果的词向量进行全连接以生成所述多个搜索结果的词向量表示;
根据所述当前搜索词的词向量表示和所述多个搜索结果的词向量表示,通过所述MLP层生成所述目标词向量表示。
3.如权利要求1至2中任一项所述的方法,其特征在于,还包括:
确定所述当前搜索词与所述前置搜索词之间的关系类型;
其中,所述基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示,包括:
基于所述多层神经网络MLP,根据所述关系类型、所述当前搜索词、所述前置搜索词和所述多个搜索结果生成所述目标词向量表示。
4.如权利要求1至2中任一项所述的方法,其特征在于,在所述得到与所述当前搜索词对应的多个优化搜索结果之后,所述方法还包括:
获取所述当前搜索词的上下文信息;
根据所述上下文信息对所述多个优化搜索结果进行重新排序;
将重新排序后的多个优化搜索结果展现在搜索结果页面中。
5.一种基于神经网络的搜索优化装置,其特征在于,包括:
第一获取模块,用于获取用户输入的当前搜索词以及前置搜索词;
第二获取模块,用于根据所述当前搜索词获取多个搜索结果;
生成模块,用于基于多层神经网络MLP,根据所述当前搜索词、所述前置搜索词和所述多个搜索结果生成目标词向量表示;其中,所述生成模块包括:
第一获取子模块,用于获取所述当前搜索词与所述前置搜索词之间的分词交集集合、第一分词差集集合、第二分词差集集合以及分词并集集合,其中,所述第一分词差集集合用于指示存在于所述当前搜索词而未存在于所述前置搜索词的分词集合,所述第二分词差集集合用于指示存在于所述前置搜索词而未存在于所述当前搜索词的分词集合;
第二获取子模块,用于获取所述多个搜索结果的分词集合和搜索标识集合,其中,所述搜索标识集合用于指示所述多个搜索结果是出现在所述前置搜索词的点击集合、非点击集合还是未展现集合;
生成子模块,用于基于所述多层神经网络MLP,根据所述当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合、以及所述多个搜索结果的分词集合和搜索标识集合,生成所述目标词向量表示;
预测模块,用于基于DNN技术的语义模型对所述目标词向量表示进行预测,得到与所述当前搜索词对应的多个优化搜索结果。
6.如权利要求5所述的装置,其特征在于,所述多层神经网络MLP包括连接层、非线性变换层、全连接层和MLP层;其中,所述生成子模块包括:
连接单元,用于将所述当前搜索词、前置搜索词、分词交集集合、第一分词差集集合、第二分词差集集合、分词并集集合通过所述连接层连接成所述当前搜索词的词向量;
非线性变换单元,用于通过所述非线性变换层对所述当前搜索词的词向量进行非线性变换;
全连接单元,用于通过所述全连接层对非线性变换后的所述当前搜索词的词向量进行全连接以生成所述当前搜索词的词向量表示;
所述连接单元还用于将所述多个搜索结果的分词集合和搜索标识集合通过所述连接层连接成所述多个搜索结果的词向量;
所述非线性变换单元还用于通过所述非线性变换层对所述多个搜索结果的词向量进行非线性变换;
所述全连接单元还用于通过所述全连接层对非线性变换后的所述多个搜索结果的词向量进行全连接以生成所述多个搜索结果的词向量表示;
生成单元,用于根据所述当前搜索词的词向量表示和所述多个搜索结果的词向量表示,通过所述MLP层生成所述目标词向量表示。
7.如权利要求5至6中任一项所述的装置,其特征在于,还包括:
确定模块,用于确定所述当前搜索词与所述前置搜索词之间的关系类型;
其中,所述生成模块具体用于:
基于所述多层神经网络MLP,根据所述关系类型、所述当前搜索词、所述前置搜索词和所述多个搜索结果生成所述目标词向量表示。
8.如权利要求5至6中任一项所述的装置,其特征在于,还包括:
第三获取模块,用于在所述得到与所述当前搜索词对应的多个优化搜索结果之后,获取所述当前搜索词的上下文信息;
重新排序模块,用于根据所述上下文信息对所述多个优化搜索结果进行重新排序;
展现模块,用于将重新排序后的多个优化搜索结果展现在搜索结果页面中。
9.一种搜索引擎,其特征在于,包括:如权利要求5至8中任一项所述的基于神经网络的搜索优化装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611071564.XA CN106776869B (zh) | 2016-11-28 | 2016-11-28 | 基于神经网络的搜索优化方法、装置以及搜索引擎 |
US15/625,460 US10762150B2 (en) | 2016-11-28 | 2017-06-16 | Searching method and searching apparatus based on neural network and search engine |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611071564.XA CN106776869B (zh) | 2016-11-28 | 2016-11-28 | 基于神经网络的搜索优化方法、装置以及搜索引擎 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106776869A CN106776869A (zh) | 2017-05-31 |
CN106776869B true CN106776869B (zh) | 2020-04-07 |
Family
ID=58905264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611071564.XA Active CN106776869B (zh) | 2016-11-28 | 2016-11-28 | 基于神经网络的搜索优化方法、装置以及搜索引擎 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10762150B2 (zh) |
CN (1) | CN106776869B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832432A (zh) * | 2017-11-15 | 2018-03-23 | 北京百度网讯科技有限公司 | 一种搜索结果排序方法、装置、服务器和存储介质 |
US11074486B2 (en) * | 2017-11-27 | 2021-07-27 | International Business Machines Corporation | Query analysis using deep neural net classification |
CN110309114B (zh) * | 2018-02-28 | 2021-07-27 | 腾讯科技(深圳)有限公司 | 媒体信息的处理方法、装置、存储介质和电子装置 |
CN109033140B (zh) * | 2018-06-08 | 2020-05-29 | 北京百度网讯科技有限公司 | 一种确定搜索结果的方法、装置、设备和计算机存储介质 |
CN110955822B (zh) * | 2018-09-25 | 2024-02-06 | 北京京东尚科信息技术有限公司 | 商品搜索方法和装置 |
CN109858004B (zh) * | 2019-02-12 | 2023-08-01 | 四川无声信息技术有限公司 | 文本改写方法、装置及电子设备 |
CN112989177B (zh) * | 2019-12-12 | 2024-05-03 | 阿里巴巴集团控股有限公司 | 信息处理方法、装置、电子设备及计算机存储介质 |
CN111259272B (zh) * | 2020-01-14 | 2023-06-20 | 口口相传(北京)网络技术有限公司 | 搜索结果排序方法及装置 |
CN112182154B (zh) * | 2020-09-25 | 2023-10-10 | 中国人民大学 | 一种利用个人词向量消除关键词歧义的个性化搜索模型 |
CN112182387B (zh) * | 2020-09-29 | 2023-08-25 | 中国人民大学 | 一种时间信息增强的个性化搜索方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685448A (zh) * | 2008-09-28 | 2010-03-31 | 国际商业机器公司 | 在用户的查询操作与搜索结果之间建立关联的方法和设备 |
CN102637171A (zh) * | 2011-02-10 | 2012-08-15 | 北京百度网讯科技有限公司 | 一种优化搜索结果的方法和装置 |
CN102955821A (zh) * | 2011-08-30 | 2013-03-06 | 北京百度网讯科技有限公司 | 一种对查询序列进行扩展处理的方法与设备 |
CN103914553A (zh) * | 2014-04-14 | 2014-07-09 | 百度在线网络技术(北京)有限公司 | 搜索方法和搜索引擎 |
CN106021227A (zh) * | 2016-05-16 | 2016-10-12 | 南京大学 | 一种基于状态转移与神经网络的汉语组块分析方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7617202B2 (en) * | 2003-06-16 | 2009-11-10 | Microsoft Corporation | Systems and methods that employ a distributional analysis on a query log to improve search results |
WO2006036781A2 (en) * | 2004-09-22 | 2006-04-06 | Perfect Market Technologies, Inc. | Search engine using user intent |
US8832097B2 (en) * | 2006-03-06 | 2014-09-09 | Yahoo! Inc. | Vertical search expansion, disambiguation, and optimization of search queries |
US8122011B1 (en) * | 2008-03-12 | 2012-02-21 | Google Inc. | Identifying sibling queries |
US8032535B2 (en) * | 2009-04-21 | 2011-10-04 | Yahoo! Inc. | Personalized web search ranking |
US8868548B2 (en) * | 2010-07-22 | 2014-10-21 | Google Inc. | Determining user intent from query patterns |
US20140280179A1 (en) * | 2013-03-15 | 2014-09-18 | Advanced Search Laboratories, lnc. | System and Apparatus for Information Retrieval |
US9535960B2 (en) * | 2014-04-14 | 2017-01-03 | Microsoft Corporation | Context-sensitive search using a deep learning model |
-
2016
- 2016-11-28 CN CN201611071564.XA patent/CN106776869B/zh active Active
-
2017
- 2017-06-16 US US15/625,460 patent/US10762150B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101685448A (zh) * | 2008-09-28 | 2010-03-31 | 国际商业机器公司 | 在用户的查询操作与搜索结果之间建立关联的方法和设备 |
CN102637171A (zh) * | 2011-02-10 | 2012-08-15 | 北京百度网讯科技有限公司 | 一种优化搜索结果的方法和装置 |
CN102955821A (zh) * | 2011-08-30 | 2013-03-06 | 北京百度网讯科技有限公司 | 一种对查询序列进行扩展处理的方法与设备 |
CN103914553A (zh) * | 2014-04-14 | 2014-07-09 | 百度在线网络技术(北京)有限公司 | 搜索方法和搜索引擎 |
CN106021227A (zh) * | 2016-05-16 | 2016-10-12 | 南京大学 | 一种基于状态转移与神经网络的汉语组块分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106776869A (zh) | 2017-05-31 |
US10762150B2 (en) | 2020-09-01 |
US20180150561A1 (en) | 2018-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106776869B (zh) | 基于神经网络的搜索优化方法、装置以及搜索引擎 | |
US11354356B1 (en) | Video segments for a video related to a task | |
CN110188168B (zh) | 语义关系识别方法和装置 | |
CN111581510B (zh) | 分享内容处理方法、装置、计算机设备和存储介质 | |
CN109033229B (zh) | 问答处理方法和装置 | |
CN111061946B (zh) | 场景化内容推荐方法、装置、电子设备及存储介质 | |
US10180979B2 (en) | System and method for generating suggestions by a search engine in response to search queries | |
Guo et al. | Products ranking through aspect-based sentiment analysis of online heterogeneous reviews | |
US20170228459A1 (en) | Method and device for mobile searching based on artificial intelligence | |
US20100094845A1 (en) | Contents search apparatus and method | |
US20100191758A1 (en) | System and method for improved search relevance using proximity boosting | |
JP2013541793A (ja) | マルチモード検索クエリー入力手法 | |
US11361759B2 (en) | Methods and systems for automatic generation and convergence of keywords and/or keyphrases from a media | |
KR20160107187A (ko) | 검색 결과에서의 논리적인 질문 응답 기법 | |
CN105426550B (zh) | 一种基于用户质量模型的协同过滤标签推荐方法及系统 | |
US20150154308A1 (en) | Information providing text reader | |
CN105975639B (zh) | 搜索结果排序方法和装置 | |
WO2014206151A1 (en) | System and method for tagging and searching documents | |
CN109635157A (zh) | 模型生成方法、视频搜索方法、装置、终端及存储介质 | |
CN104462590A (zh) | 信息搜索方法及装置 | |
CN112364184A (zh) | 多媒体数据的排序方法、装置、服务器及存储介质 | |
CN115455249A (zh) | 双引擎驱动的多模态数据检索方法、设备及系统 | |
EP3144825A1 (en) | Enhanced digital media indexing and retrieval | |
US20170075999A1 (en) | Enhanced digital media indexing and retrieval | |
CN106570116B (zh) | 基于人工智能的搜索结果的聚合方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |