CN106547871A - 基于神经网络的搜索结果的召回方法和装置 - Google Patents

基于神经网络的搜索结果的召回方法和装置 Download PDF

Info

Publication number
CN106547871A
CN106547871A CN201610942287.9A CN201610942287A CN106547871A CN 106547871 A CN106547871 A CN 106547871A CN 201610942287 A CN201610942287 A CN 201610942287A CN 106547871 A CN106547871 A CN 106547871A
Authority
CN
China
Prior art keywords
search results
search
feature vector
feature
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610942287.9A
Other languages
English (en)
Other versions
CN106547871B (zh
Inventor
姜迪
石磊
陈泽裕
蒋佳军
连荣忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201610942287.9A priority Critical patent/CN106547871B/zh
Publication of CN106547871A publication Critical patent/CN106547871A/zh
Priority to US15/625,379 priority patent/US10621185B2/en
Application granted granted Critical
Publication of CN106547871B publication Critical patent/CN106547871B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Abstract

本发明提出一种基于神经网络的搜索结果的召回方法和装置,该方法包括接收搜索信息,并采集与搜索信息对应的多个搜索结果;获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值;根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果。通过本发明能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。

Description

基于神经网络的搜索结果的召回方法和装置
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于神经网络的搜索结果的召回方法和装置。
背景技术
随着互联网技术的快速发展,搜索引擎的功能也日趋强大。目前搜索引擎可以根据用户输入的搜索信息,召回全部或者部分命中搜索信息的搜索结果,且搜索结果为多个。相关技术中,在召回搜索结果后,通过将搜索信息在搜索结果中的命中的位置(例如,标题、内容、标签等)、命中词数的比例,以及搜索结果的内容质量、搜索结果的权威性等特征数值化,之后再将命中的特征数值进行线性加和处理,从而为召回多个搜索结果中的每个搜索结果与搜索信息的匹配关系赋一个评分值,并以此评分值对多个搜索结果进行排序。
这种方式下,由于搜索信息召回的搜索结果严重依赖于搜索信息的命中情况,而一些命中情况差,但实际语义符合用户搜索意图的搜索结果被现有的打分方法过滤,搜索结果和用户输入的搜索信息在语义上匹配程度较低。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的一个目的在于提出一种基于神经网络的搜索结果的召回方法,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
本发明的另一个目的在于提出一种基于神经网络的搜索结果的召回装置。
本发明的又一个目的在于提出一种基于神经网络的搜索结果的召回装置。
本发明的另一个目的在于提出一种非临时性计算机可读存储介质。
本发明的另一个目的在于提出一种计算机程序产品。
为达到上述目的,本发明第一方面实施例提出的基于神经网络的搜索结果的召回方法,包括:接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
本发明第一方面实施例提出的基于神经网络的搜索结果的召回方法,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
为达到上述目的,本发明第二方面实施例提出的基于神经网络的搜索结果的召回装置,包括:接收模块,用于接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;第一获取模块,用于获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;第二获取模块,用于获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;第一处理模块,用于根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
本发明第二方面实施例提出的基于神经网络的搜索结果的召回装置,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
为达到上述目的,本发明第三方面实施例提出的基于神经网络的搜索结果的召回装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;
获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;
获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;
根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
本发明第三方面实施例提出的基于神经网络的搜索结果的召回装置,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
为达到上述目的,本发明第四方面实施例提出的非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器被执行时,使得移动终端能够执行一种基于神经网络的搜索结果的召回方法,所述方法包括:
接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;
获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;
获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;
根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
本发明第四方面实施例提出的非临时性计算机可读存储介质,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
为达到上述目的,本发明第五方面实施例提出的计算机程序产品,当所述计算机程序产品中的指令处理器执行时,执行一种基于神经网络的搜索结果的召回方法,所述方法包括:
接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;
获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;
获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;
根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
本发明第五方面实施例提出的计算机程序产品,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明一实施例提出的基于神经网络的搜索结果的召回方法的流程示意图;
图2是本发明另一实施例提出的基于神经网络的搜索结果的召回方法的流程示意图;
图3是本发明另一实施例提出的基于神经网络的搜索结果的召回方法的流程示意图;
图4是本发明另一实施例提出的基于神经网络的搜索结果的召回方法的流程示意图;
图5是本发明另一实施例提出的基于神经网络的搜索结果的召回方法的流程示意图;
图6是本发明一实施例提出的基于神经网络的搜索结果的召回装置的结构示意图;
图7是本发明另一实施例提出的基于神经网络的搜索结果的召回装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
图1是本发明一实施例提出的基于神经网络的搜索结果的召回方法的流程示意图。
本实施例以该基于神经网络的搜索结果的召回方法被配置为基于神经网络的搜索结果的召回装置中来举例说明。
该基于神经网络的搜索结果的召回方法可以应用在电子设备的搜索引擎中。
搜索引擎是指能够接收用户输入的搜索信息,并从互联网上搜集与搜索信息相关信息,在对信息进行组织和处理后,为用户提供检索服务,将与搜索信息相关信息展示给用户的系统。
其中,电子设备例如为个人电脑(Personal Computer,PC),云端设备或者移动设备,移动设备例如智能手机,或者平板电脑等。
参见图1,该基于神经网络的搜索结果的召回方法包括:
S11:接收搜索信息,并采集与搜索信息对应的多个搜索结果。
在本发明的实施例中,用户可以在搜索引擎的搜索框中输入搜索信息,与搜索信息对应的搜索结果为搜索引擎根据一定的策略、运用特定的计算机程序从云服务端上搜集到的与搜索信息相关的搜索结果。
搜索结果的条数可以为一条或者多条,可以理解的是,由于互联网资讯的种类繁多,搜索结果的条数一般为多条。
在用户输入搜索信息后,该搜索信息可以由搜索引擎传输给后台系统,后台系统具体可以是指搜索引擎的服务器。
搜索引擎的服务器中接收到搜索信息后,可以在云服务端的数据库中查找与该搜索信息相关的搜索结果,或者,搜索引擎的服务器在接收到搜索信息后,可以在预先指定的网站进行爬取获得,对此不作限制。
其中,云服务端的数据库是预先建立的,具体可以采用统计的方式建立数据库。
例如,由后台人员对用户在搜索引擎上的搜索行为进行统计,将搜索次数较多的搜索结果保存在数据库中。
或者,也可以采用机器学习的方式建立数据库,例如,用网页相关技术,例如爬虫技术等从网页上得到用户搜索次数较多的搜索结果保存在数据库中。
一些实施例中,参见图2,在步骤S11之前,通过以下步骤建立所述预设特征模型:
S201:采集多个样本搜索信息,并采集多个样本搜索信息对应的多个样本搜索结果的标题。
可选地,在实际搜索过程中,语义匹配关系通常表现为用户在搜索引擎中输入的搜索信息与搜索结果标题的关系。
例如,搜索信息为:12306,搜索信息对应的搜索结果的标题为:中国铁路客户服务中心,那么可以认为“12306”和“中国铁路客户服务中心”是存在一定的语义关系的。
因此,可以采集多个样本搜索信息,并采集多个样本搜索信息对应的多个样本搜索结果的标题,以便于后续建立预设特征模型,学习句子的语义特征,即计算搜索信息对应的第一特征向量和多个搜索结果中每个搜索结果的标题对应的第二特征向量。
S202:分别对样本搜索信息和每个样本搜索结果的标题进行分词处理,以获取与样本搜索信息对应的多个分词作为第三分词,以及与每个标题对应的多个分词作为第四分词。
可选地,可以采用相关技术对样本搜索信息和每个样本搜索结果的标题进行分词处理,获取与样本搜索信息对应的多个分词作为第三分词,以及与每个标题对应的多个分词作为第四分词。
S203:确定每个第三分词的第三特征子向量,并将用户所点击的第四分词的特征向量作为第四特征子向量,以及将用户未点击的第四分词的特征向量作为第五特征子向量。
例如,可以根据预设特征模型对每个分词的初始特征子向量进行训练,并将训练后的特征向量作为特征子向量。其中,每个分词的初始特征子向量具体可以采用相关技术获得。
S204:对多个第三特征子向量进行向量加和处理,得到加和处理后的特征子向量作为与样本搜索信息对应的第三中间特征向量。
可选地,可以对多个第三特征子向量中的每个元素,按元素进行加和处理,得到加和处理后的特征子向量作为与样本搜索信息对应的第三中间特征向量。
S205:对每个标题的多个第四特征子向量进行加和处理,得到加和处理后的特征子向量作为与用户所点击的第四分词对应的第四中间特征向量。
可选地,可以对每个标题的多个第四特征子向量中的每个元素,按元素进行加和处理,得到加和处理后的特征子向量作为与用户所点击的第四分词对应的第四中间特征向量。
S206:对每个标题的多个第五特征子向量进行加和处理,得到加和处理后的特征子向量作为与用户未点击的第五分词对应的第五中间特征向量。
可选地,可以对每个标题的多个第五特征子向量中的每个元素,按元素进行加和处理,得到加和处理后的特征子向量作为与用户未点击的第五分词对应的第五中间特征向量。
S207:根据第三中间特征向量、第四中间特征向量,以及第五中间特征向量获取预设算法输出的与样本搜索信息对应的第三特征向量、与用户所点击的第四分词对应的第四特征向量,以及与用户未点击的第四分词对应的第五特征向量。
在本发明的实施例中,预设算法可以由搜索引擎内置程序预先设定的。
可选地,预设算法可以包括第一算法和第二算法,其中,第一算法用于对特征向量中的每个元素作非线性变换处理,第二算法用于将全连通矩阵与非线性变换后的特征向量作乘积。
具体地,采用预设算法对第三中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第三中间特征向量;采用预设算法中的全连通矩阵与非线性变换后的第三中间特征向量作乘积,并将乘积得到的特征向量作为与样本搜索信息对应的第三特征向量。
采用预设算法对第四中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第四中间特征向量;采用预设算法中的全连通矩阵与非线性变换后的第四中间特征向量作乘积,并将乘积得到的特征向量作为与用户所点击的第四分词对应的第四特征向量。
采用预设算法对第五中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第五中间特征向量;采用预设算法中的全连通矩阵与非线性变换后的第五中间特征向量作乘积,并将乘积得到的特征向量作为与用户未点击的第四分词对应的第五特征向量。
S208:将第三特征向量与第四特征向量之间的相似度作为第一相似度,并将第三特征向量与第五特征向量之间的相似度作为第二相似度。
在本发明的实施例中,相似度可以为余弦相似度。
可选地,将第三特征向量与第四特征向量之间的相似度作为第一相似度,例如为Positive title,将第三特征向量与第五特征向量之间的相似度作为第二相似度,例如为Negative title。
S209:将第一相似度与第二相似度作差,得到差值,并通过调整第三特征向量、第四特征向量,以及第五特征向量中元素的权重以对差值进行调节。
可选地,将将第一相似度与第二相似度作差,得到差值。
例如为Positive title-Negative title,通过调整第三特征向量、第四特征向量,以及第五特征向量中元素的权重以对差值进行调节,以使差值|Positive title-Negative title|最大化,即将用户所点击的第四分词对应的第四特征向量与用户未点击的第四分词对应的第五特征向量的区分度尽可能最大化。
S210:确定使差值取得目标数值的权重对应的第三特征向量、第四特征向量,以及第五特征向量,以建立预设特征模型。
在本发明的实施例中,可以将第一相似度与第二相似度之间的差值进行调节,以使差值最大化,目标数值即为最大化的差值。
可以根据使差值取得目标数值的权重对应的第三特征向量、第四特征向量,以及第五特征向量,以建立预设特征模型,能够加强搜索结果和搜索信息的语义匹配程度。
本实施例中,通过预先建立预设特征模型,能够加强搜索结果和搜索信息的语义匹配程度。
S12:获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量。
在本发明的实施例中,可以分别对搜索信息和每个搜索结果的标题进行分词处理,以获取与搜索信息对应的多个分词并作为第一分词,以及与每个标题对应的多个分词并作为第二分词;根据预设特征模型确定每个第一分词的第一特征子向量,并根据预设特征模型确定每个第二分词的第二特征子向量;对多个第一特征子向量进行向量加和处理,并将加和处理后的特征子向量作为与搜索信息对应的第一中间特征向量;对每个标题的多个第二特征子向量进行加和处理,并将与每个标题对应的加和处理后的特征子向量作为与每个标题对应的第二中间特征向量;根据第一中间特征向量和第二中间特征向量获取预设算法输出的与搜索信息对应的第一特征向量,以及与多个搜索结果中每个搜索结果的标题对应的第二特征向量。
一些实施例中,参见图3,步骤S12具体包括:
S31:分别对搜索信息和每个搜索结果的标题进行分词处理,以获取与搜索信息对应的多个分词并作为第一分词,以及与每个标题对应的多个分词并作为第二分词。
可选地,可以采用相关技术对搜索信息和每个搜索结果的标题进行分词处理,获取与搜索信息对应的多个分词并作为第一分词,以及与每个标题对应的多个分词并作为第二分词。
S32:根据预设特征模型确定每个第一分词的第一特征子向量,并根据预设特征模型确定每个第二分词的第二特征子向量。
其中,预设特征模型为预先建立的。
S33:对多个第一特征子向量进行向量加和处理,并将加和处理后的特征子向量作为与搜索信息对应的第一中间特征向量。
可选地,可以对多个第一特征子向量中的每个元素,按元素进行加和处理,得到加和处理后的特征子向量作为与搜索信息对应的第一中间特征向量。
S34:对每个标题的多个第二特征子向量进行加和处理,并将与每个标题对应的加和处理后的特征子向量作为与每个标题对应的第二中间特征向量。
可选地,可以对每个标题的多个第二特征子向量中的每个元素,按元素进行加和处理,得到加和处理后的特征子向量作为与每个标题对应的第二中间特征向量。
S35:采用预设算法对第一中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第一中间特征向量。
在本发明的实施例中,预设算法可以由搜索引擎内置程序预先设定的。
S36:采用预设算法中的全连通矩阵与非线性变换后的第一中间特征向量作乘积,并将乘积得到的特征向量作为第一特征向量。
在本发明的实施例中,通过采用预设算法中的全连通矩阵与非线性变换后的第一中间特征向量作乘积,并将乘积得到的特征向量作为第一特征向量,其中,可以通过第一特征向量来表征该第一中间特征向量对应的搜索信息基于语义维度的表征,而不仅仅基于文字维度进行表征,增强可参考性。
S37:采用预设算法对第二中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第二中间特征向量。S38:采用预设算法中的全连通矩阵与非线性变换后的第二中间特征向量作乘积,并将乘积得到的特征向量作为第二特征向量。
在本发明的实施例中,通过采用预设算法中的全连通矩阵与非线性变换后的第二中间特征向量作乘积,并将乘积得到的特征向量作为第二特征向量,其中,可以通过第二特征向量来表征该第二中间特征向量对应的每个标题基于语义维度的表征,而不仅仅基于文字维度进行表征,增强可参考性。
本实施例中,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,以便于根据第一特征向量与每个第二特征向量之间的相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度。
S13:获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值。
在本发明的实施例中,可以计算第一特征向量与每个第二特征向量之间的相似度;将相似度作为搜索信息与每个搜索结果的语义匹配评分值。
一些实施例中,参见图4,步骤S13具体包络:
S41:计算第一特征向量与每个第二特征向量之间的相似度。
可选地,计算第一特征向量与每个第二特征向量之间的相似度,得到计算结果,例如分别为:F_neural_1、F_neural_2,…,F_neural_n,其中,n为第二特征向量的个数。
S42:将相似度作为搜索信息与每个搜索结果的语义匹配评分值。
可选地,搜索信息与每个搜索结果的语义匹配评分值例如分别为:F_neural_1、F_neural_2,…,F_neural_n。
本实施例中,通过计算第一特征向量与每个第二特征向量之间的相似度,将相似度作为搜索信息与每个搜索结果的语义匹配评分值,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度。
S14:根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果。
在本发明的实施例中,将语义匹配评分值作为排序模型的输入,获取排序模型输出的与每个搜索结果对应的评分值;根据对应的评分值对多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为目标搜索结果。
一些实施例中,参见图5,步骤S14具体包络:
S51:将语义匹配评分值作为排序模型的输入,获取排序模型输出的与每个搜索结果对应的评分值。
可选地,可以根据传统的搜索信息在每个搜索结果中命中的相关特征数值(例如为:F_1、F_2,…,F_n),和搜索信息与每个搜索结果的语义匹配评分值(例如,分别为:F_neural_1、F_neural_2,…,F_neural_n),获取排序模型输出的与每个搜索结果对应的评分值。
例如,可根据下述公式获取排序模型输出的与每个搜索结果对应的评分值:
New_Scorei=α1*F_1+α2*F_2+…+αn*F_n+βi*F_neural_i;
其中,New_Scorei为排序模型输出的与每个搜索结果对应的评分值,i=1,2,…,n,α1,α2,…,αn分别为F_neural_1、F_neural_2,…,F_neural_n对应的权重,βi为F_neural_i对应的权重。
S52:根据对应的评分值对多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为目标搜索结果。
在本发明的实施例中,预设个数可以由用户进行预先设置,根据自身需求提前设置搜索结果的个数,能够有效提升该基于神经网络的搜索结果的召回方法的适用性及灵活性。
作为一种示例,传统网页召回的搜索结果与经本发明处理后的召回的搜索结果的对比(仅对比网页中搜索结果的第一条)如表1所示。
表1
由表1可知,根据对应的评分值对多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为目标搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求,提升用户的搜索体验。
本实施例中,通过将语义匹配评分值作为排序模型的输入,获取排序模型输出的与每个搜索结果对应的评分值,根据对应的评分值对多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为目标搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
本实施例中,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
图6是本发明一实施例提出的基于神经网络的搜索结果的召回装置的结构示意图。该基于神经网络的搜索结果的召回装置60可以通过软件、硬件或者两者的结合来实现。
参见图6,该基于神经网络的搜索结果的召回装置60包括:接收模块601、第一获取模块602、第二获取模块603,以及第一处理模块604。其中,
接收模块601,用于接收搜索信息,并采集与搜索信息对应的多个搜索结果。
第一获取模块602,用于获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量。
第二获取模块603,用于获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值。
可选地,相似度为余弦相似度。
第一处理模块604,用于根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果。
一些实施例中,参见图7,该基于神经网络的搜索结果的召回装置60还包括:
可选地,第一获取模块602包括:
分词子模块6021,用于分别对搜索信息和每个搜索结果的标题进行分词处理,以获取与搜索信息对应的多个分词并作为第一分词,以及与每个标题对应的多个分词并作为第二分词。
确定子模块6022,用于根据预设特征模型确定每个第一分词的第一特征子向量,并根据预设特征模型确定每个第二分词的第二特征子向量。
第一处理子模块6023,用于对多个第一特征子向量进行向量加和处理,并将加和处理后的特征子向量作为与搜索信息对应的第一中间特征向量。
第二处理子模块6024,用于对每个标题的多个第二特征子向量进行加和处理,并将与每个标题对应的加和处理后的特征子向量作为与每个标题对应的第二中间特征向量。
获取子模块6025,用于根据第一中间特征向量和第二中间特征向量获取预设算法输出的与搜索信息对应的第一特征向量,以及与多个搜索结果中每个搜索结果的标题对应的第二特征向量。
可选地,获取子模块6025包括:
第一处理单元60251,用于采用预设算法对第一中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第一中间特征向量。
第一乘积单元60252,用于采用预设算法中的全连通矩阵与非线性变换后的第一中间特征向量作乘积,并将乘积得到的特征向量作为第一特征向量。
第二处理单元60253,用于采用预设算法对第二中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第二中间特征向量。
第二乘积单元60254,用于采用预设算法中的全连通矩阵与非线性变换后的第二中间特征向量作乘积,并将乘积得到的特征向量作为第二特征向量。
可选地,第二获取模块603包括:
计算子模块6031,用于计算第一特征向量与每个第二特征向量之间的相似度。
第三处理子模块6032,用于将相似度作为搜索信息与每个搜索结果的语义匹配评分值。
可选地,第一处理模块604包括:
第四处理子模块6041,用于将语义匹配评分值作为排序模型的输入,获取排序模型输出的与每个搜索结果对应的评分值。
排序子模块6042,用于根据对应的评分值对多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为目标搜索结果。
采集模块605,用于采集多个样本搜索信息,并采集多个样本搜索信息对应的多个样本搜索结果的标题。
第二处理模块606,用于分别对样本搜索信息和每个样本搜索结果的标题进行分词处理,以获取与样本搜索信息对应的多个分词作为第三分词,以及与每个标题对应的多个分词作为第四分词。
第一确定模块607,用于确定每个第三分词的第三特征子向量,并将用户所点击的第四分词的特征向量作为第四特征子向量,以及将用户未点击的第四分词的特征向量作为第五特征子向量。
第三处理模块608,用于对多个第三特征子向量进行向量加和处理,得到加和处理后的特征子向量作为与样本搜索信息对应的第三中间特征向量。
第四处理模块609,用于对每个标题的多个第四特征子向量进行加和处理,得到加和处理后的特征子向量作为与用户所点击的第四分词对应的第四中间特征向量。
第五处理模块610,用于对每个标题的多个第五特征子向量进行加和处理,得到加和处理后的特征子向量作为与用户未点击的第四分词对应的第五中间特征向量。
第三获取模块611,用于根据第三中间特征向量、第四中间特征向量,以及第五中间特征向量获取预设算法输出的与样本搜索信息对应的第三特征向量、与用户所点击的第四分词对应的第四特征向量,以及与用户未点击的第四分词对应的第五特征向量。
第六处理模块612,用于将第三特征向量与第四特征向量之间的相似度作为第一相似度,并将第三特征向量与第五特征向量之间的相似度作为第二相似度。
作差模块613,用于将第一相似度与第二相似度作差,得到差值,并通过调整第三特征向量、第四特征向量,以及第五特征向量中元素的权重以对差值进行调节。
第二确定模块614,用于确定使差值取得目标数值的权重对应的第三特征向量、第四特征向量,以及第五特征向量,以建立预设特征模型。
需要说明的是,前述图1-图5实施例中对基于神经网络的搜索结果的召回方法实施例的解释说明也适合用于该实施例的基于神经网络的搜索结果的召回装置60,其实现原理类似,此处不再赘述。
本实施例中,通过获取与搜索信息对应的特征向量并作为第一特征向量,并获取与多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,获取第一特征向量与每个第二特征向量之间的相似度,并根据相似度获取搜索信息与每个搜索结果之间的语义匹配评分值,根据语义匹配评分值,从多个搜索结果中确定目标搜索结果,并将目标搜索结果作为搜索信息召回的搜索结果,能够加强搜索结果和搜索信息的语义匹配程度,提高召回的搜索结果和用户输入的搜索信息的相关度,满足用户的搜索需求。
需要说明的是,在本发明的描述中,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。
例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (14)

1.一种基于神经网络的搜索结果的召回方法,其特征在于,包括以下步骤:
接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;
获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;
获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;
根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
2.如权利要求1所述的基于神经网络的搜索结果的召回方法,其特征在于,所述获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量,包括:
分别对所述搜索信息和所述每个搜索结果的标题进行分词处理,以获取与所述搜索信息对应的多个分词并作为第一分词,以及与每个标题对应的多个分词并作为第二分词;
根据预设特征模型确定每个所述第一分词的第一特征子向量,并根据所述预设特征模型确定每个所述第二分词的第二特征子向量;
对多个所述第一特征子向量进行向量加和处理,并将加和处理后的特征子向量作为与所述搜索信息对应的第一中间特征向量;
对所述每个标题的多个所述第二特征子向量进行加和处理,并将与所述每个标题对应的加和处理后的特征子向量作为与所述每个标题对应的第二中间特征向量;
根据所述第一中间特征向量和所述第二中间特征向量获取所述预设算法输出的与所述搜索信息对应的第一特征向量,以及与所述多个搜索结果中每个搜索结果的标题对应的第二特征向量。
3.如权利要求1所述的基于神经网络的搜索结果的召回方法,其特征在于,所述根据所述第一中间特征向量和所述第二中间特征向量获取所述预设算法输出的与所述搜索信息对应的第一特征向量,以及与所述多个搜索结果中每个搜索结果的标题对应的第二特征向量,包括:
采用所述预设算法对所述第一中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第一中间特征向量;
采用所述预设算法中的全连通矩阵与所述非线性变换后的第一中间特征向量作乘积,并将乘积得到的特征向量作为所述第一特征向量;
采用所述预设算法对所述第二中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第二中间特征向量;
采用所述预设算法中的全连通矩阵与所述非线性变换后的第二中间特征向量作乘积,并将乘积得到的特征向量作为所述第二特征向量。
4.如权利要求2所述的基于神经网络的搜索结果的召回方法,其特征在于,还包括:
在所述接收搜索信息之前,通过以下步骤建立所述预设特征模型:
采集多个样本搜索信息,并采集所述多个样本搜索信息对应的多个样本搜索结果的标题;
分别对所述样本搜索信息和所述每个样本搜索结果的标题进行分词处理,以获取与所述样本搜索信息对应的多个分词作为第三分词,以及与每个标题对应的多个分词作为第四分词;
确定每个第三分词的第三特征子向量,并将用户所点击的第四分词的特征向量作为第四特征子向量,以及将用户未点击的第四分词的特征向量作为第五特征子向量;
对多个第三特征子向量进行向量加和处理,得到加和处理后的特征子向量作为与所述样本搜索信息对应的第三中间特征向量;
对所述每个标题的多个第四特征子向量进行加和处理,得到加和处理后的特征子向量作为与所述用户所点击的第四分词对应的第四中间特征向量;
对所述每个标题的多个第五特征子向量进行加和处理,得到加和处理后的特征子向量作为与所述用户未点击的第四分词对应的第五中间特征向量;
根据所述第三中间特征向量、所述第四中间特征向量,以及所述第五中间特征向量获取所述预设算法输出的与所述样本搜索信息对应的第三特征向量、与所述用户所点击的第四分词对应的第四特征向量,以及与所述用户未点击的第四分词对应的第五特征向量;
将所述第三特征向量与所述第四特征向量之间的相似度作为第一相似度,并将所述第三特征向量与所述第五特征向量之间的相似度作为第二相似度;
将所述第一相似度与所述第二相似度作差,得到差值,并通过调整所述第三特征向量、所述第四特征向量,以及所述第五特征向量中元素的权重以对所述差值进行调节;
确定使所述差值取得目标数值的权重对应的第三特征向量、第四特征向量,以及第五特征向量,以建立所述预设特征模型。
5.如权利要求1所述的基于神经网络的搜索结果的召回方法,其特征在于,所述获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值,包括:
计算所述第一特征向量与所述每个第二特征向量之间的相似度;
将所述相似度作为所述搜索信息与所述每个搜索结果的语义匹配评分值。
6.如权利要求1所述的基于神经网络的搜索结果的召回方法,其特征在于,所述根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,包括:
将所述语义匹配评分值作为排序模型的输入,获取所述排序模型输出的与所述每个搜索结果对应的评分值;
根据所述对应的评分值对所述多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为所述目标搜索结果。
7.如权利要求1或4或5所述的基于神经网络的搜索结果的召回方法,其特征在于,所述相似度为余弦相似度。
8.一种基于神经网络的搜索结果的召回装置,其特征在于,包括:
接收模块,用于接收搜索信息,并采集与所述搜索信息对应的多个搜索结果;
第一获取模块,用于获取与所述搜索信息对应的特征向量并作为第一特征向量,并获取与所述多个搜索结果中每个搜索结果的标题对应的特征向量并作为第二特征向量;
第二获取模块,用于获取所述第一特征向量与每个第二特征向量之间的相似度,并根据所述相似度获取所述搜索信息与所述每个搜索结果之间的语义匹配评分值;
第一处理模块,用于根据所述语义匹配评分值,从所述多个搜索结果中确定目标搜索结果,并将所述目标搜索结果作为所述搜索信息召回的搜索结果。
9.如权利要求8所述的基于神经网络的搜索结果的召回装置,其特征在于,所述第一获取模块包括:
分词子模块,用于分别对所述搜索信息和所述每个搜索结果的标题进行分词处理,以获取与所述搜索信息对应的多个分词并作为第一分词,以及与每个标题对应的多个分词并作为第二分词;
确定子模块,用于根据预设特征模型确定每个所述第一分词的第一特征子向量,并根据所述预设特征模型确定每个所述第二分词的第二特征子向量;
第一处理子模块,用于对多个所述第一特征子向量进行向量加和处理,并将加和处理后的特征子向量作为与所述搜索信息对应的第一中间特征向量;
第二处理子模块,用于对所述每个标题的多个所述第二特征子向量进行加和处理,并将与所述每个标题对应的加和处理后的特征子向量作为与所述每个标题对应的第二中间特征向量;
获取子模块,用于根据所述第一中间特征向量和所述第二中间特征向量获取所述预设算法输出的与所述搜索信息对应的第一特征向量,以及与所述多个搜索结果中每个搜索结果的标题对应的第二特征向量。
10.如权利要求8所述的基于神经网络的搜索结果的召回装置,其特征在于,所述获取子模块包括:
第一处理单元,用于采用所述预设算法对所述第一中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第一中间特征向量;
第一乘积单元,用于采用所述预设算法中的全连通矩阵与所述非线性变换后的第一中间特征向量作乘积,并将乘积得到的特征向量作为所述第一特征向量;
第二处理单元,用于采用所述预设算法对所述第二中间特征向量中的每个元素作非线性变换处理,并根据多个处理后的元素生成非线性变换后的第二中间特征向量;
第二乘积单元,用于采用所述预设算法中的全连通矩阵与所述非线性变换后的第二中间特征向量作乘积,并将乘积得到的特征向量作为所述第二特征向量。
11.如权利要求9所述的基于神经网络的搜索结果的召回装置,其特征在于,还包括:
采集模块,用于采集多个样本搜索信息,并采集所述多个样本搜索信息对应的多个样本搜索结果的标题;
第二处理模块,用于分别对所述样本搜索信息和所述每个样本搜索结果的标题进行分词处理,以获取与所述样本搜索信息对应的多个分词作为第三分词,以及与每个标题对应的多个分词作为第四分词;
第一确定模块,用于确定每个第三分词的第三特征子向量,并将用户所点击的第四分词的特征向量作为第四特征子向量,以及将用户未点击的第四分词的特征向量作为第五特征子向量;
第三处理模块,用于对多个第三特征子向量进行向量加和处理,得到加和处理后的特征子向量作为与所述样本搜索信息对应的第三中间特征向量;
第四处理模块,用于对所述每个标题的多个第四特征子向量进行加和处理,得到加和处理后的特征子向量作为与所述用户所点击的第四分词对应的第四中间特征向量;
第五处理模块,用于对所述每个标题的多个第五特征子向量进行加和处理,得到加和处理后的特征子向量作为与所述用户未点击的第四分词对应的第五中间特征向量;
第三获取模块,用于根据所述第三中间特征向量、所述第四中间特征向量,以及所述第五中间特征向量获取所述预设算法输出的与所述样本搜索信息对应的第三特征向量、与所述用户所点击的第四分词对应的第四特征向量,以及与所述用户未点击的第四分词对应的第五特征向量;
第六处理模块,用于将所述第三特征向量与所述第四特征向量之间的相似度作为第一相似度,并将所述第三特征向量与所述第五特征向量之间的相似度作为第二相似度;
作差模块,用于将所述第一相似度与所述第二相似度作差,得到差值,并通过调整所述第三特征向量、所述第四特征向量,以及所述第五特征向量中元素的权重以对所述差值进行调节;
第二确定模块,用于确定使所述差值取得目标数值的权重对应的第三特征向量、第四特征向量,以及第五特征向量,以建立所述预设特征模型。
12.如权利要求8所述的基于神经网络的搜索结果的召回装置,其特征在于,所述第二获取模块包括:
计算子模块,用于计算所述第一特征向量与所述每个第二特征向量之间的相似度;
第三处理子模块,用于将所述相似度作为所述搜索信息与所述每个搜索结果的语义匹配评分值。
13.如权利要求8所述的基于神经网络的搜索结果的召回装置,其特征在于,所述第一处理模块包括:
第四处理子模块,用于将所述语义匹配评分值作为排序模型的输入,获取所述排序模型输出的与所述每个搜索结果对应的评分值;
排序子模块,用于根据所述对应的评分值对所述多个搜索结果进行排序,并根据排序结果选定预设个数的搜索结果作为所述目标搜索结果。
14.如权利要求8或11或12所述的基于神经网络的搜索结果的召回装置,其特征在于,所述相似度为余弦相似度。
CN201610942287.9A 2016-10-31 2016-10-31 基于神经网络的搜索结果的召回方法和装置 Active CN106547871B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610942287.9A CN106547871B (zh) 2016-10-31 2016-10-31 基于神经网络的搜索结果的召回方法和装置
US15/625,379 US10621185B2 (en) 2016-10-31 2017-06-16 Method and apparatus for recalling search result based on neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610942287.9A CN106547871B (zh) 2016-10-31 2016-10-31 基于神经网络的搜索结果的召回方法和装置

Publications (2)

Publication Number Publication Date
CN106547871A true CN106547871A (zh) 2017-03-29
CN106547871B CN106547871B (zh) 2020-04-07

Family

ID=58392345

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610942287.9A Active CN106547871B (zh) 2016-10-31 2016-10-31 基于神经网络的搜索结果的召回方法和装置

Country Status (2)

Country Link
US (1) US10621185B2 (zh)
CN (1) CN106547871B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491518A (zh) * 2017-08-15 2017-12-19 北京百度网讯科技有限公司 一种搜索召回方法和装置、服务器、存储介质
CN108595620A (zh) * 2018-04-23 2018-09-28 百度在线网络技术(北京)有限公司 转义识别方法、装置、计算机设备及存储介质
CN110674292A (zh) * 2019-08-27 2020-01-10 腾讯科技(深圳)有限公司 一种人机交互方法、装置、设备及介质
WO2020056647A1 (zh) * 2018-09-19 2020-03-26 华为技术有限公司 一种ai模型的开发方法及装置
CN111259271A (zh) * 2018-12-03 2020-06-09 阿里巴巴集团控股有限公司 评论信息的展示方法、装置、电子设备及计算机可读介质
CN111291069A (zh) * 2018-12-07 2020-06-16 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备
CN111488512A (zh) * 2019-01-25 2020-08-04 深信服科技股份有限公司 一种待收集目标获取方法、装置、设备及存储介质
CN111782975A (zh) * 2020-06-28 2020-10-16 北京百度网讯科技有限公司 一种检索方法、装置和电子设备
CN112328890A (zh) * 2020-11-23 2021-02-05 北京百度网讯科技有限公司 搜索地理位置点的方法、装置、设备及存储介质
CN112989177A (zh) * 2019-12-12 2021-06-18 阿里巴巴集团控股有限公司 信息处理方法、装置、电子设备及计算机存储介质
CN113204697A (zh) * 2021-04-29 2021-08-03 五八有限公司 一种搜索方法、装置、电子设备及存储介质
CN113961765A (zh) * 2021-10-21 2022-01-21 北京百度网讯科技有限公司 基于神经网络模型的搜索方法、装置、设备和介质
CN114768986A (zh) * 2022-06-20 2022-07-22 江苏中腾石英材料科技股份有限公司 高纯熔融石英粉的精细化研磨装置及其研磨方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347776A (zh) * 2019-07-17 2019-10-18 北京百度网讯科技有限公司 兴趣点名称匹配方法、装置、设备及存储介质
US10761839B1 (en) 2019-10-17 2020-09-01 Globant España S.A. Natural language search engine with a predictive writing tool for coding
CN113762301A (zh) * 2020-07-01 2021-12-07 北京沃东天骏信息技术有限公司 信息匹配模型的训练、信息匹配方法和装置
CN112115233B (zh) * 2020-09-27 2024-03-26 北京百度网讯科技有限公司 关系网络生成方法、装置、电子设备及存储介质
CN112395426B (zh) * 2020-11-16 2023-04-21 四川大学 语义匹配模型训练方法及系统、检索系统、装置、介质
EP4336376A1 (en) * 2021-11-04 2024-03-13 Samsung Electronics Co., Ltd. Electronic device and method for providing search result related to query statement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090259651A1 (en) * 2008-04-11 2009-10-15 Microsoft Corporation Search results ranking using editing distance and document information
CN104462327A (zh) * 2014-12-02 2015-03-25 百度在线网络技术(北京)有限公司 语句相似度的计算、搜索处理方法及装置
US20150293976A1 (en) * 2014-04-14 2015-10-15 Microsoft Corporation Context-Sensitive Search Using a Deep Learning Model
CN105975639A (zh) * 2016-07-04 2016-09-28 北京百度网讯科技有限公司 搜索结果排序方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090259651A1 (en) * 2008-04-11 2009-10-15 Microsoft Corporation Search results ranking using editing distance and document information
US20150293976A1 (en) * 2014-04-14 2015-10-15 Microsoft Corporation Context-Sensitive Search Using a Deep Learning Model
CN104462327A (zh) * 2014-12-02 2015-03-25 百度在线网络技术(北京)有限公司 语句相似度的计算、搜索处理方法及装置
CN105975639A (zh) * 2016-07-04 2016-09-28 北京百度网讯科技有限公司 搜索结果排序方法和装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11182445B2 (en) 2017-08-15 2021-11-23 Beijing Baidu Netcom Science And Technology Co., Ltd. Method, apparatus, server, and storage medium for recalling for search
CN107491518B (zh) * 2017-08-15 2020-08-04 北京百度网讯科技有限公司 一种搜索召回方法和装置、服务器、存储介质
CN107491518A (zh) * 2017-08-15 2017-12-19 北京百度网讯科技有限公司 一种搜索召回方法和装置、服务器、存储介质
CN108595620A (zh) * 2018-04-23 2018-09-28 百度在线网络技术(北京)有限公司 转义识别方法、装置、计算机设备及存储介质
CN108595620B (zh) * 2018-04-23 2022-04-26 百度在线网络技术(北京)有限公司 转义识别方法、装置、计算机设备及存储介质
WO2020056647A1 (zh) * 2018-09-19 2020-03-26 华为技术有限公司 一种ai模型的开发方法及装置
CN111259271A (zh) * 2018-12-03 2020-06-09 阿里巴巴集团控股有限公司 评论信息的展示方法、装置、电子设备及计算机可读介质
CN111259271B (zh) * 2018-12-03 2023-04-25 阿里巴巴集团控股有限公司 评论信息的展示方法、装置、电子设备及计算机可读介质
CN111291069A (zh) * 2018-12-07 2020-06-16 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备
CN111291069B (zh) * 2018-12-07 2024-03-22 北京搜狗科技发展有限公司 一种数据处理方法、装置和电子设备
CN111488512A (zh) * 2019-01-25 2020-08-04 深信服科技股份有限公司 一种待收集目标获取方法、装置、设备及存储介质
CN110674292A (zh) * 2019-08-27 2020-01-10 腾讯科技(深圳)有限公司 一种人机交互方法、装置、设备及介质
CN112989177A (zh) * 2019-12-12 2021-06-18 阿里巴巴集团控股有限公司 信息处理方法、装置、电子设备及计算机存储介质
CN112989177B (zh) * 2019-12-12 2024-05-03 阿里巴巴集团控股有限公司 信息处理方法、装置、电子设备及计算机存储介质
CN111782975A (zh) * 2020-06-28 2020-10-16 北京百度网讯科技有限公司 一种检索方法、装置和电子设备
CN112328890A (zh) * 2020-11-23 2021-02-05 北京百度网讯科技有限公司 搜索地理位置点的方法、装置、设备及存储介质
CN112328890B (zh) * 2020-11-23 2024-04-12 北京百度网讯科技有限公司 搜索地理位置点的方法、装置、设备及存储介质
CN113204697A (zh) * 2021-04-29 2021-08-03 五八有限公司 一种搜索方法、装置、电子设备及存储介质
CN113961765A (zh) * 2021-10-21 2022-01-21 北京百度网讯科技有限公司 基于神经网络模型的搜索方法、装置、设备和介质
CN113961765B (zh) * 2021-10-21 2023-12-19 北京百度网讯科技有限公司 基于神经网络模型的搜索方法、装置、设备和介质
CN114768986A (zh) * 2022-06-20 2022-07-22 江苏中腾石英材料科技股份有限公司 高纯熔融石英粉的精细化研磨装置及其研磨方法
CN114768986B (zh) * 2022-06-20 2022-09-16 江苏中腾石英材料科技股份有限公司 高纯熔融石英粉的精细化研磨装置及其研磨方法

Also Published As

Publication number Publication date
US10621185B2 (en) 2020-04-14
CN106547871B (zh) 2020-04-07
US20180121434A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
CN106547871A (zh) 基于神经网络的搜索结果的召回方法和装置
CN105893609B (zh) 一种基于加权混合的移动app推荐方法
CN105701216B (zh) 一种信息推送方法及装置
CN106649760A (zh) 基于深度问答的提问型搜索词搜索方法及装置
CN105095187A (zh) 一种搜索意图识别方法及装置
CN106844530A (zh) 一种问答对分类模型的训练方法和装置
CN106407311A (zh) 获取搜索结果的方法和装置
CN109582969A (zh) 实体匹配方法、装置及电子设备
CN110633407B (zh) 信息检索方法、装置、设备及计算机可读介质
CN104133817A (zh) 网络社区交互方法、装置及网络社区平台
CN106649761A (zh) 基于深度问答的搜索结果展现方法和装置
CN103902597A (zh) 确定目标关键词所对应的搜索相关性类别的方法和设备
CN106570197A (zh) 基于迁移学习的搜索排序方法和装置
CN110288350A (zh) 用户价值预测方法、装置、设备及存储介质
CN112380421A (zh) 简历的搜索方法、装置、电子设备及计算机存储介质
CN103577547A (zh) 网页类型识别方法及装置
CN111723287A (zh) 一种基于大规模机器学习的内容和服务推荐方法及其系统
CN108509588B (zh) 一种基于大数据的律师评估方法及推荐方法
CN111881264B (zh) 一种开放领域问答任务中长文本检索的方法和电子设备
CN112100509B (zh) 信息推荐方法、装置、服务器和存储介质
CN110851708B (zh) 负样本的抽取方法、装置、计算机设备和存储介质
CN112579729A (zh) 文档质量评价模型的训练方法、装置、电子设备和介质
CN108920492B (zh) 一种网页分类方法、系统、终端及存储介质
CN110825930A (zh) 基于人工智能自动识别社区问答论坛中的正确回答的方法
CN107992524B (zh) 一种专家信息搜索及领域评分计算方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant