CN111221952A - 建立排序模型的方法、查询自动补全的方法及对应装置 - Google Patents
建立排序模型的方法、查询自动补全的方法及对应装置 Download PDFInfo
- Publication number
- CN111221952A CN111221952A CN202010011383.8A CN202010011383A CN111221952A CN 111221952 A CN111221952 A CN 111221952A CN 202010011383 A CN202010011383 A CN 202010011383A CN 111221952 A CN111221952 A CN 111221952A
- Authority
- CN
- China
- Prior art keywords
- poi
- query
- prefix
- vector representation
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012163 sequencing technique Methods 0.000 title claims description 23
- 239000013598 vector Substances 0.000 claims abstract description 235
- 238000012549 training Methods 0.000 claims abstract description 57
- 238000013528 artificial neural network Methods 0.000 claims description 75
- 125000004122 cyclic group Chemical group 0.000 claims description 55
- 230000006870 function Effects 0.000 claims description 25
- 238000013527 convolutional neural network Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 13
- 239000000126 substance Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3322—Query formulation using system suggestions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/909—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Library & Information Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种建立排序模型的方法、查询自动补全的方法及对应装置,涉及智能搜索技术领域。具体实现方案为:从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中的各POI以及查询补全建议中被用户选择的POI;利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对;利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型;训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
Description
技术领域
本申请涉及计算机应用技术领域,特别涉及智能搜索技术领域的一种建立排序模型的方法、查询自动补全的方法及对应装置。
背景技术
QAC(Query Auto-Completion,查询自动补全)目前已被主流的通用搜索引擎和垂直搜索引擎广泛采用。例如,在地图类应用中,当用户输入query(查询)以搜索某个POI(Point of Interest,兴趣点)时,从用户输入不完整query开始(在本申请中将用户输入的不完整query称为查询前缀),搜索引擎可以在候选列表中实时向用户推荐一系列候选的POI以供用户选择作为query的补全结果(在本申请中将候选列表中推荐的query称为查询补全建议)。一旦用户在候选列表中发现其意向的POI,则通过从候选列表中选择该POI即可补全query,从而发起该POI的检索。
举个例子,如图1中所示,当用户在地图类应用的检索框中输入查询前缀“百度”时,能够以候选列表的形式向用户推荐诸如“百度大厦”、“百度大厦-C座”、“百度科技园”等等候选POI以供用户选择,一旦用户从中选择了“百度大厦”,则完成query的补全,发起针对“百度大厦”的检索。
然而,现有的查询自动补全方案中,针对相同的查询前缀提供的建议均是相同的,例如均是在候选列表中基于各POI的检索热度进行排序,并没有考虑到用户对查询前缀的输入习惯。例如,用户习惯性地在输入查询前缀“ba”时,从查询补全建议中点击“百度大厦A座”进行检索。但由于查询补全建议中各POI是按照检索热度排序的,因此热门的“八达岭长城”、“八达岭奥特莱斯”、“八大处”、“百度大厦”等热门POI总排在前面,用户每次都需要从查询补全建议中找到排在靠后的“百度大厦A座”,或者进一步多输入一些字符来选择“百度大厦A座”。显然对于用户而言,输入代价较高,效率低下。
发明内容
有鉴于此,本申请提供了一种建立排序模型的方法、查询自动补全的方法及对应装置、设备和计算机存储介质,使得推荐的查询补全建议更好地符合用户对查询前缀的输入习惯,减小用户的输入代价。
第一方面,本申请提供了一种建立用于查询自动补全的排序模型的方法,该方法包括:
从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中的各POI以及查询补全建议中被用户选择的POI;
利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对;
利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型;
所述排序模型的训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
根据本申请一优选实施方式,所述排序模型包括前缀嵌入网络、POI嵌入网络以及排序网络;
所述前缀嵌入网络用于获得查询前缀的向量表示,所述POI嵌入网络用于获得各POI的向量表示,所述排序网络用于确定查询前缀的向量表示与对应POI的向量表示之间的相似度。
根据本申请一优选实施方式,所述前缀嵌入网络包括循环神经网络;
所述获得查询前缀的向量表示包括:
将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
根据本申请一优选实施方式,所述获得各POI的向量表示包括:
对POI的属性信息进行编码,得到POI的向量表示。
根据本申请一优选实施方式,所述POI嵌入网络包括:卷积神经网络、前馈神经网络和全连接层;
所述对POI的属性信息进行编码包括:
将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
根据本申请一优选实施方式,在训练所述排序模型的过程中,利用所述排序网络的输出确定三元组损失函数,利用三元组损失函数进行前向反馈以更新所述前缀嵌入网络、POI嵌入网络以及排序网络的模型参数,直至所述三元组损失函数满足预设要求,或者达到预设的模型参数更新次数。
第二方面,本申请提供了一种查询自动补全的方法,该方法包括:
获取用户当前输入的查询前缀,以及确定与所述查询前缀对应的候选兴趣点POI;
将所述查询前缀与所述候选POI输入排序模型,得到所述排序模型对各候选POI的评分,所述候选POI的评分依据所述查询前缀的向量表示与候选POI的向量表示之间的相似度得到的;
依据各候选POI的评分确定向所述用户推荐的查询补全建议;
其中,所述排序模型采用如上所述的方法预先训练得到。
根据本申请一优选实施方式,所述查询前缀的向量表示采用如下方式得到:
在所述排序模型中,将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
在所述排序模型中,将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
根据本申请一优选实施方式,所述各POI的向量表示采用以下方式确定:
在所述排序模型中,各POI的属性信息进行编码,得到POI的向量表示。
根据本申请一优选实施方式,所述对POI的属性信息进行编码包括:
在所述排序模型中,将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
第三方面,本申请提供了一种建立用于查询自动补全的排序模型的装置,该装置包括:
第一获取单元,用于从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中的各POI以及查询补全建议中被用户选择的POI;
第二获取单元,用于利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对;
模型训练单元,用于利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型;
所述排序模型的训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
根据本申请一优选实施方式,所述排序模型包括前缀嵌入网络、POI嵌入网络以及排序网络;
所述前缀嵌入网络用于获得查询前缀的向量表示,所述POI嵌入网络用于获得各POI的向量表示,所述排序网络用于确定查询前缀的向量表示与对应POI的向量表示之间的相似度。
根据本申请一优选实施方式,所述前缀嵌入网络包括循环神经网络;
所述模型训练单元在训练排序模型过程中,具体用于:
将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
根据本申请一优选实施方式,所述模型训练单元在训练排序模型过程中,具体用于通过所述POI嵌入网络对POI的属性信息进行编码,得到POI的向量表示。
根据本申请一优选实施方式,所述POI嵌入网络包括:卷积神经网络、前馈神经网络和全连接层;
所述模型训练单元在通过所述POI嵌入网络对POI的属性信息进行编码时,具体用于:
将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
根据本申请一优选实施方式,所述模型训练单元在训练所述排序模型的过程中,利用所述排序网络的输出确定三元组损失函数,利用三元组损失函数进行前向反馈以更新所述前缀嵌入网络、POI嵌入网络以及排序网络的模型参数,直至所述三元组损失函数满足预设要求,或者达到预设的模型参数更新次数。
第四方面,本申请提供了一种查询自动补全的装置,该装置包括:
获取单元,用于获取用户当前输入的查询前缀,以及确定与所述查询前缀对应的候选兴趣点POI;
评分单元,用于将所述查询前缀与所述候选POI输入排序模型,得到所述排序模型对各候选POI的评分,所述候选POI的评分依据所述查询前缀的向量表示与候选POI的向量表示之间的相似度得到的;
查询补全单元,用于依据各候选POI的评分确定向所述用户推荐的查询补全建议;
其中,所述排序模型由如上所述的装置预先训练得到。
根据本申请一优选实施方式,所述评分单元具体用于:
在所述排序模型中,将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
在所述排序模型中,将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
根据本申请一优选实施方式,所述评分单元具体用于:
在所述排序模型中,对各POI的属性信息进行编码,得到POI的向量表示。
根据本申请一优选实施方式,所述评分单元具体用于:
在所述排序模型中,将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
第五方面,本申请还提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的方法。
第六方面,本申请还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行如上所述的方法。
由以上技术方案可以看出,本申请中将用户输入的查询前缀融入排序模型进行POI的排序学习,使得排序模型能够学习到用户在选择查询补全建议中的POI时输入的个性化的查询前缀。基于此排序模型进行的查询自动补全,能够更好地符合用户对查询前缀的输入习惯,减小用户的输入代价。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是查询自动补全的界面示例图;
图2示出了可以应用本发明实施例的示例性系统架构;
图3为本申请实施例提供的建立排序模型的方法流程图;
图4为本申请实施例提供的训练排序模型的结构示意图;
图5为本申请实施例提供的获取POI向量表示的示意图;
图6为本申请实施例提供的查询自动补全的方法流程图;
图7为本申请实施例提供的排序模型的工作原理示意图;
图8为本申请实施例提供的建立排序模型的装置结构图;
图9为本申请实施例提供的查询自动补全的装置结构图;
图10是用来实现本申请实施例的方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图2示出了可以应用本发明实施例的示例性系统架构。如图2所示,该系统架构可以包括终端设备101和102,网络103和服务器104。网络103用以在终端设备101、102和服务器104之间提供通信链路的介质。网络103可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101和102通过网络103与服务器104交互。终端设备101和102上可以安装有各种应用,例如语音交互应用、网页浏览器应用、通信类应用等。
终端设备101和102可以是各种电子设备,包括但不限于智能手机、平板电脑、PC、智能电视等等。本发明所提供的查询自动补全的装置可以设置并运行于服务器104上。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块,在此不做具体限定。
例如,当用户通过在终端设备101上的浏览器或客户端提供的检索界面上输入查询前缀时,浏览器或客户端将该查询前缀实时提供给服务器端104,由服务器端采用本申请提供的方法向终端设备101返回用户当前输入的查询前缀对应的查询补全建议。如果用户从该查询补全建议中发现意愿的POI,则可以通过选择该POI发起针对该POI的检索。如果用户从查询补全建议中未发现意愿的POI,则可以继续进行输入,然后浏览器或客户端再将查询前缀实时提供给服务器端104,由服务器端104返回用户输入的查询前缀对应的查询补全建议。从而形成这样一种效果:在用户输入query的过程中,随着用户输入的查询前缀实时向用户推荐查询补全建议。
服务器104可以是单一服务器,也可以是多个服务器构成的服务器群组。应该理解,图2中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
本申请的技术实质在于建立用户与POI之间的关联,其使用场景可以为:当用户使用地图类数据进行POI检索的过程中,随着用户输入的查询前缀实时向用户推荐查询补全建议。其中查询补全建议是在确定出用户输入的查询前缀对应的候选POI后,利用排序模型对各候选POI进行排序后得到的。在本申请中提供了一种全新的排序模型结构以及训练方式,使得基于此排序模型的查询自动补全能够更好地符合用户对查询前缀的输入习惯,减小输入代价。为了方便对本申请的理解,首先结合实施例对建立排序模型的方法进行详细描述。
实施例一、
图3为本申请实施例提供的建立排序模型的方法流程图,如图3所示,该方法可以包括以下步骤:
在301中,从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中各POI以及查询补全建议中被用户选择的POI。
例如,某用户user_A在逐一输入字符形成各查询前缀的过程中,在输入“ba”时,从查询补全建议中点击了POI“百度大厦A座”,那么获取用户标识user_A、查询前缀“ba”、对应的查询补全建议中的各POI,以及被用户选择的POI“百度大厦A座”,作为一条数据。采用同样方式可以从大规模用户的POI查询日志中获取很多条数据用于排序模型的训练。
在302中,利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对。
接续上例,对于步骤301得到的其中一条数据:用户标识user_A、查询前缀“ba”、对应的查询补全建议中的各POI,以及被用户选择的POI“百度大厦A座”。对于同一查询前缀“ba”而言,其对应的被用户选择的POI“百度大厦A座”作为正例,查询补全建议中未被用户选择的POI“八达岭长城”作为负例,因此“ba”与“百度大厦A座”构成正例对,“ba”和“八达岭长城”构成负例对。由于查询补全建议中还存在其他未被用户选择的POI,例如“百度大厦”、“百度科技园”等等,因此“ba”也可以和“百度大厦”构成负例对,“ba”也可以和“百度科技园”构成负例对。
在303中,利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型,其中排序模型的训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
传统的用于查询自动补全的排序模型而言,其输入并不包含查询前缀,查询前缀仅仅用于进行候选POI的召回,排序模型依据候选POI的热度以及用户属性信息等输出对各候选POI的评分。而本申请实施例中,排序模型的输入为查询前缀和POI,查询前缀的向量表示以及POI的向量表示均在排序模型内部获得,并基于两者向量表示之间的相似度输出对各POI的评分。相应地,本申请实施例中排序模型在训练时,获取查询前缀的向量表示以及POI的向量表示的部分以及确定两者向量表示之间相似度的部分是统一进行训练的。
具体地,本实施例中排序模型可以具体包括三个部分:前缀嵌入网络、POI嵌入网络以及排序网络,如图4中所示。其中前缀嵌入网络用于获得查询前缀的向量表示,POI嵌入网络用于获得各POI的向量表示,排序网络用于确定查询前缀的向量表示与对应POI的向量表示之间的相似度。
即在训练过程中,对于一条训练数据:查询前缀、该查询前缀对应的正例POI以及该查询前缀对应的负例POI而言,将查询前缀输入前缀嵌入网络,前缀嵌入网络输出该查询前缀的向量表示u。将查询前缀对应的正例POI和负例POI分别输入POI嵌入网络,POI嵌入网络输出正例POI的向量表示v+和负例POI的向量表示v-。排序网络分别计算查询前缀的向量表示u和正例POI的向量表示v+之间的相似度S+,查询前缀的向量表示u和正例POI的向量表示v-之间的相似度S-。整个排序模型的训练目标为:最大化S+和S-之间的差值。
下面分别对排序模型中的各网络进行详细描述。
前缀嵌入网络:
前缀嵌入网络可以包括循环神经网络,例如可以采用Bi-LSTM(Bi-directionalLSTM,双向长短时记忆网络)。将查询前缀中各字符对应的字符向量依次输入Bi-LSTM,例如用户输入查询前缀“ba”的过程中是先输入“b”再输入“a”,因此将“b”的字符向量和“a”的字符向量按顺序依次输入Bi-LSTM。Bi-LSTM首先针对“b”输出一个向量表示,再针对“a”输出一个向量表示。其中针对“a”输出的向量表示会参考之前记忆的上下文信息,因此将Bi-LSTM输出的针对最后一个字符“a”的向量表示作为查询前缀的向量表示。
另外,除了查询前缀之外,用户的属性特征也会对用户会选择的POI带来影响。因此作为一种优选的实施方式,在确定查询前缀的向量表示时,前缀嵌入网络可以进一步考虑用户的属性特征。具体地,可以将用户的属性特征向量与查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用循环神经网络输出的最后一个字符对应的特征向量得到查询前缀的特征向量表示。
其中用户的属性特征可以是诸如用户的年龄、性别、工作、收入等级、所在城市等信息,用户属性特征的向量表示可以对这些信息进行编码后得到。上述的字符对应的字符向量可以是将字符映射到字符向量空间后得到。仍以用户输入查询前缀“ba”为例,首先将用户的属性特征向量与字符“b”的字符向量进行拼接,然后将拼接后得到的向量输入循环神经网络;再将用户的属性特征向量与字符“a”的字符向量进行拼接,然后将拼接后得到的向量输入循环神经网络。将循环神经网络输出的“a”对应的特征向量作为查询前缀“ba”的向量表示。
POI嵌入网络:
在本实施例中POI嵌入网络是对POI的属性信息进行编码,得到POI的向量表示。其中涉及的属性信息可以包括但不限于POI的标识、名称、类别、地址、标签等信息。
作为一种优选的实施方式,POI嵌入网络可以包括卷积神经网络、前馈神经网络和全连接层。其中可以将POI的名称和地址信息采用卷积神经网络进行编码,将POI的其他属性信息采用前馈神经网络进行编码。然后,将同一POI的编码结果进行拼接后得到的向量经过全连接层的映射,得到该POI的向量表示,如图5中所示。
排序网络:
排序网络主要是计算查询前缀的向量表示与POI的向量表示之间的相似度,在训练过程中会分别针对一个正负例对中,查询前缀与正例POI的相似度以及查询前缀与负例POI的相似度进行计算。在本申请中计算相似度的方式可以采用诸如L2范式,要求查询前缀的向量表示与POI的向量表示维度一致。
在模型训练过程中,上述的训练目标可以体现为最小化三元组损失函数LΔ,例如采用如下公式:
LΔ=∑max(s+-s-+τ,0)
其中,τ为超参数。
每一轮迭代均利用排序网络的输出确定上述三元组损失函数,然后利用三元组损失函数进行前向反馈以更新前缀嵌入网络、POI嵌入网络以及排序网络的模型参数,直至三元组损失函数满足预设要求,或者达到预设的模型参数更新次数(即迭代次数)等。
至此,训练得到排序模型。
实施例二、
图6为本申请实施例提供的查询自动补全的方法流程图,如图6中所示,该方法可以包括以下步骤:
在601中,获取用户当前输入的查询前缀,以及确定与该查询前缀对应的候选POI。
在本申请适用于各种形式的输入内容,可以是汉字、拼音、首字母简称,等等,但输入的查询前缀均可以看成是字符串。随着用户输入查询前缀,实时获取用户当前输入的查询前缀。例如,用户想输入“百度大厦”的过程中,会经历输入“百”、“百度”、“百度大”等多个查询前缀,则针对每一个查询前缀都执行本申请所提供的方法。即用户输入“百”时,当前输入的查询前缀为“百”,针对该查询前缀执行本申请的方法为用户推荐查询补全建议。当用户输入“百度”时,当前输入的查询前缀为“百度”,针对该查询前缀执行本申请的方法为用户推荐查询补全建议。当用户输入“百度大”时,当前输入的查询前缀为“百度大”,针对该查询前缀执行本申请的方法为用户推荐查询补全建议。
确定与当前输入的查询前缀对应的候选POI的方式可以采用现有的实现方式,目的是找到以该查询前缀为文本开头的POI,或者找到与该查询前缀强相关的POI。
例如可以在POI库中预先针对POI以各种对应的查询前缀建立倒排索引。当用户输入query时,针对当前输入的查询前缀查询POI库,命中的所有POI作为候选POI。
再例如可以在POI库中预先建立POI与各种查询前缀之间的关联,该关联可以是从用户检索历史中获得。例如用户曾经输入过“浙大”后,从搜索结果中选择“浙江大学”的POI。该关联也可以是利用同义POI词表获得,例如“故宫”又称“紫禁城”,则预先建立查询前缀“紫禁”、“zijin”等与“故宫”POI的关联。该关联也可以由人工添加。
在602中,将用户当前输入的查询前缀和候选POI输入排序模型,得到排序模型对各候选POI的评分,其中候选POI的评分依据查询前缀的向量表示与候选POI的向量表示之间的相似度得到。
与实施例一中类似的,用户当前输入的查询前缀和候选POI分别输入排序模型中的前缀嵌入网络和POI嵌入网络,得到查询前缀的向量表示u和候选POI的向量表示v,然后由排序网络确定查询前缀的向量表示u与各候选POI的向量表示v之间的相似度S,依据该相似度对各候选POI进行评分,如图7所示。
具体地,在排序模型的前缀嵌入网络中实现时,可以将查询前缀中各字符对应的字符向量依次输入循环神经网络,利用循环神经网络输出的针对最后一个字符的特征向量得到查询前缀的向量表示。
作为一种优选的实施方式,在排序模型的前缀嵌入网络的实现中,可以将用户的属性特征向量与查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用循环神经网络输出的最后一个字符对应的特征向量得到查询前缀的向量表示。
其中用户的属性特征可以是诸如用户的年龄、性别、工作、收入等级、所在城市等信息,用户属性特征的向量表示可以对这些信息进行编码后得到。上述的字符对应的字符向量可以是将字符映射到字符向量空间后得到。
在POI嵌入网络中,候选POI输入POI嵌入网络,POI嵌入网络对候选POI的属性信息进行编码,得到候选POI的向量表示。其中涉及的属性信息可以包括但不限于候选POI的标识、名称、类别、地址、标签等信息。
POI嵌入网络可以包括卷积神经网络、前馈神经网络和全连接层。其中可以将候选POI的名称和地址信息采用卷积神经网络进行编码,将候选POI的其他属性信息采用前馈神经网络进行编码。然后,将同一候选POI的编码结果进行拼接后得到的向量经过全连接层的映射,得到该候选POI的向量表示。
排序网络在计算用户输入的查询前缀的向量表示和候选POI的向量表示之间的相似度时,可以采用诸如L2范式的方式。
在603中,依据各候选POI的评分确定向用户推荐的查询补全建议。
本步骤中,可以将评分值大于或等于预设评分阈值的候选POI作为查询补全建议,也可以将评分值排在前P个的POI作为查询补全建议,等等,其中P为预设的正整数。在向用户推荐查询补全建议时,依据各POI的评分在候选列表中进行排序。推荐方式可以沿用现有的在检索框附近的下拉框的形式,也可以采用其他形式。
通过本实施例中的方式,将用户输入的查询前缀融入排序模型进行POI的排序学习,使得排序模型能够学习到用户在选择查询补全建议中的POI时输入的个性化的查询前缀。基于此排序模型进行的查询自动补全,能够更好地符合用户对查询前缀的输入习惯,减小用户的输入代价。举个例子,假设用户习惯性地在输入查询前缀“ba”时,从查询补全建议中点击“百度大厦A座”进行检索。通过本申请提供的方式,排序模型能够学习到用户的该输入习惯,使得用户在输入查询前缀“ba”时,能够在查询补全建议中提高“百度大厦A座”的排名,使得用户能够轻松地从查询补全建议中选择“百度大厦A座”。而不必因为“百度大厦A座”这一POI的热度较低而需要从排名靠后的位置中查找,甚至需要输入更多的字符来使得查询补全建议中出现“百度大厦A座”。显然提高了用户的输入效率,减小了输入代价。
另外,本申请对于一些独特的输入习惯也能够很好地进行学习。例如一个用户习惯用“thu”作为查询前缀去检索“清华大学”这一POI。通过本申请提供的方式,排序模型就能够学习到用户的该输入习惯,当该用户或者其他用户输入“thu”的时候,能够快速地给出“清华大学”这一查询补全建议,从而提升用户的使用体验。
以上是对本申请提供的方法进行的详细描述,下面结合实施例对本申请提供的装置进行详细描述。
实施例三、
图8为本申请实施例提供的建立排序模型的装置结构图,如图8中所示,该装置包括:第一获取单元01、第二获取单元02和模型训练单元03,其中各组成单元的主要功能如下:
第一获取单元01负责从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中的各POI以及查询补全建议中被用户选择的POI。
第二获取单元02负责利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对。
模型训练单元03负责利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型。
其中排序模型包括前缀嵌入网络、POI嵌入网络以及排序网络;前缀嵌入网络用于获得查询前缀的向量表示,POI嵌入网络用于获得各POI的向量表示,排序网络用于确定查询前缀的向量表示与对应POI的向量表示之间的相似度;排序模型的训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
具体地,前缀嵌入网络可以包括循环神经网络。模型训练单元03在训练排序模型过程中,可以将查询前缀中各字符对应的字符向量依次输入循环神经网络,利用循环神经网络输出的针对最后一个字符的特征向量得到查询前缀的向量表示。
作为一种优选的实施方式,模型训练单元03在训练排序模型过程中,可以将用户的属性特征向量与查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用循环神经网络输出的最后一个字符对应的特征向量得到查询前缀的向量表示。
具体地,模型训练单元03在训练排序模型过程中,可以通过POI嵌入网络对POI的属性信息进行编码,得到POI的向量表示。
作为一种优选的实施方式,POI嵌入网络可以包括:卷积神经网络、前馈神经网络和全连接层。模型训练单元03在通过POI嵌入网络对POI的属性信息进行编码时,可以将POI的名称和地址信息采用卷积神经网络进行编码;将POI的其他属性信息采用前馈神经网络进行编码;将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
具体地,模型训练单元03在训练排序模型的过程中,利用排序网络的输出确定损失函数,利用损失函数进行前向反馈以更新前缀嵌入网络、POI嵌入网络以及排序网络的模型参数,直至损失函数满足预设要求,或者达到预设的模型参数更新次数。
实施例四、
图9为本申请实施例提供的查询自动补全的装置结构图,本装置中使用的排序模型可以由图8所示装置预先训练得到。如图9中所示,该装置包括:获取单元11、评分单元12和查询补全单元13。其中各组成单元的主要功能如下:
获取单元11负责获取用户当前输入的查询前缀,以及确定与查询前缀对应的候选兴趣点POI。
评分单元12负责将查询前缀与候选POI输入排序模型,得到排序模型对各候选POI的评分,候选POI的评分依据查询前缀的向量表示与候选POI的向量表示之间的相似度得到的。
具体地,评分单元12可以在排序模型中,将查询前缀中各字符对应的字符向量依次输入循环神经网络,利用循环神经网络输出的针对最后一个字符的特征向量得到查询前缀的向量表示。
作为一种优选的实施方式,评分单元12可以在排序模型中,将用户的属性特征向量与查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用循环神经网络输出的最后一个字符对应的特征向量得到查询前缀的向量表示。
具体地,评分单元12可以在排序模型中,对各POI的属性信息进行编码,得到POI的向量表示。
作为一种优选的实施方式,评分单元12可以在排序模型中,将POI的名称和地址信息采用卷积神经网络进行编码;将POI的其他属性信息采用前馈神经网络进行编码;将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
排序网络在计算用户输入的查询前缀的向量表示和候选POI的向量表示之间的相似度时,可以采用诸如L2范式的方式。
查询补全单元13负责依据各候选POI的评分确定向用户推荐的查询补全建议。
具体地,查询补全单元13可以将评分值大于或等于预设评分阈值的候选POI作为查询补全建议,也可以将评分值排在前P个的POI作为查询补全建议,等等,其中P为预设的正整数。在向用户推荐查询补全建议时,依据各POI的评分在候选列表中进行排序。推荐方式可以沿用现有的在检索框附近的下拉框的形式,也可以采用其他形式。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图10所示,是根据本申请实施例的建立排序模型或查询自动补全的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,该电子设备包括:一个或多个处理器1001、存储器1002,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器1001为例。
存储器1002即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的建立排序模型或查询自动补全的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的建立排序模型或查询自动补全的方法。
存储器1002作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的建立排序模型或查询自动补全的方法对应的程序指令/模块。处理器1001通过运行存储在存储器1002中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的建立排序模型或查询自动补全的方法。
存储器1002可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据该电子设备的使用所创建的数据等。此外,存储器1002可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器1002可选包括相对于处理器1001远程设置的存储器,这些远程存储器可以通过网络连接至该电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
该电子设备还可以包括:输入装置1003和输出装置1004。处理器1001、存储器1002、输入装置1003和输出装置1004可以通过总线或者其他方式连接,图10中以通过总线连接为例。
输入装置1003可接收输入的数字或字符信息,以及产生与该电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置1004可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
由以上描述可以看出,本申请实施例提供的上述方法、装置、设备和计算机存储介质可以具备以下优点:
1)将用户输入的个性化的查询前缀融入排序模型进行POI的排序学习,使得排序模型能够学习到用户在选择查询补全建议中的POI时输入的个性化的查询前缀。基于此排序模型进行的查询自动补全,能够更好地符合用户对查询前缀的输入习惯,减小用户的输入代价。
2)在获取查询前缀的向量表示时,采用循环神经网络使得查询前缀的向量表示能够更加符合文本的上下文约束。
3)本申请中在对各POI的属性信息进行编码时,充分考虑了POI作为一个多源信息的聚合体,融合POI的名称、地址、类别、标识等信息,从而使得对POI的表示更加准确。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (22)
1.一种建立用于查询自动补全的排序模型的方法,其特征在于,该方法包括:
从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中的各POI以及查询补全建议中被用户选择的POI;
利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对;
利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型;
所述排序模型的训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
2.根据权利要求1所述的方法,其特征在于,所述排序模型包括前缀嵌入网络、POI嵌入网络以及排序网络;
所述前缀嵌入网络用于获得查询前缀的向量表示,所述POI嵌入网络用于获得各POI的向量表示,所述排序网络用于确定查询前缀的向量表示与对应POI的向量表示之间的相似度。
3.根据权利要求2所述的方法,其特征在于,所述前缀嵌入网络包括循环神经网络;
所述获得查询前缀的向量表示包括:
将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
4.根据权利要求2所述的方法,其特征在于,所述获得各POI的向量表示包括:
对POI的属性信息进行编码,得到POI的向量表示。
5.根据权利要求4所述的方法,其特征在于,所述POI嵌入网络包括:卷积神经网络、前馈神经网络和全连接层;
所述对POI的属性信息进行编码包括:
将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
6.根据权利要求2所述的方法,其特征在于,在训练所述排序模型的过程中,利用所述排序网络的输出确定三元组损失函数,利用三元组损失函数进行前向反馈以更新所述前缀嵌入网络、POI嵌入网络以及排序网络的模型参数,直至所述三元组损失函数满足预设要求,或者达到预设的模型参数更新次数。
7.一种查询自动补全的方法,其特征在于,该方法包括:
获取用户当前输入的查询前缀,以及确定与所述查询前缀对应的候选兴趣点POI;
将所述查询前缀与所述候选POI输入排序模型,得到所述排序模型对各候选POI的评分,所述候选POI的评分依据所述查询前缀的向量表示与候选POI的向量表示之间的相似度得到的;
依据各候选POI的评分确定向所述用户推荐的查询补全建议;
其中,所述排序模型采用如权利要求1至6中任一项所述的方法预先训练得到。
8.根据权利要求7所述的方法,其特征在于,所述查询前缀的向量表示采用如下方式得到:
在所述排序模型中,将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
在所述排序模型中,将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
9.根据权利要求1所述的方法,其特征在于,所述各POI的向量表示采用以下方式确定:
在所述排序模型中,各POI的属性信息进行编码,得到POI的向量表示。
10.根据权利要求9所述的方法,其特征在于,所述对POI的属性信息进行编码包括:
在所述排序模型中,将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
11.一种建立用于查询自动补全的排序模型的装置,其特征在于,该装置包括:
第一获取单元,用于从POI查询日志中获取用户从查询补全建议中选择POI时已输入的查询前缀、该查询前缀对应的查询补全建议中的各POI以及查询补全建议中被用户选择的POI;
第二获取单元,用于利用同一查询前缀对应的查询补全建议中被用户选择的POI以及未被用户选择的POI构成正例负例对;
模型训练单元,用于利用查询前缀以及查询前缀对应的正例负例对训练得到排序模型;
所述排序模型的训练目标为:最大化查询前缀的向量表示与对应的正例POI的向量表示的相似度以及查询前缀的向量表示与对应负例POI的向量表示的相似度之间的差值。
12.根据权利要求11所述的装置,其特征在于,所述排序模型包括前缀嵌入网络、POI嵌入网络以及排序网络;
所述前缀嵌入网络用于获得查询前缀的向量表示,所述POI嵌入网络用于获得各POI的向量表示,所述排序网络用于确定查询前缀的向量表示与对应POI的向量表示之间的相似度。
13.根据权利要求12所述的装置,其特征在于,所述前缀嵌入网络包括循环神经网络;
所述模型训练单元在训练排序模型过程中,具体用于:
将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
14.根据权利要求12所述的装置,其特征在于,所述模型训练单元在训练排序模型过程中,具体用于通过所述POI嵌入网络对POI的属性信息进行编码,得到POI的向量表示。
15.根据权利要求14所述的装置,其特征在于,所述POI嵌入网络包括:卷积神经网络、前馈神经网络和全连接层;
所述模型训练单元在通过所述POI嵌入网络对POI的属性信息进行编码时,具体用于:
将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
16.根据权利要求12所述的装置,其特征在于,所述模型训练单元在训练所述排序模型的过程中,利用所述排序网络的输出确定三元组损失函数,利用三元组损失函数进行前向反馈以更新所述前缀嵌入网络、POI嵌入网络以及排序网络的模型参数,直至所述三元组损失函数满足预设要求,或者达到预设的模型参数更新次数。
17.一种查询自动补全的装置,其特征在于,该装置包括:
获取单元,用于获取用户当前输入的查询前缀,以及确定与所述查询前缀对应的候选兴趣点POI;
评分单元,用于将所述查询前缀与所述候选POI输入排序模型,得到所述排序模型对各候选POI的评分,所述候选POI的评分依据所述查询前缀的向量表示与候选POI的向量表示之间的相似度得到的;
查询补全单元,用于依据各候选POI的评分确定向所述用户推荐的查询补全建议;
其中,所述排序模型由如权利要求11至16中任一项所述的装置预先训练得到。
18.根据权利要求17所述的装置,其特征在于,所述评分单元具体用于:
在所述排序模型中,将所述查询前缀中各字符对应的字符向量依次输入循环神经网络,利用所述循环神经网络输出的针对最后一个字符的特征向量得到所述查询前缀的向量表示;或者,
在所述排序模型中,将所述用户的属性特征向量与所述查询前缀中各字符对应的字符向量分别进行拼接后依次输入循环神经网络,利用所述循环神经网络输出的最后一个字符对应的特征向量得到所述查询前缀的向量表示。
19.根据权利要求17所述的装置,其特征在于,所述评分单元具体用于:
在所述排序模型中,对各POI的属性信息进行编码,得到POI的向量表示。
20.根据权利要求19所述的装置,其特征在于,所述评分单元具体用于:
在所述排序模型中,将POI的名称和地址信息采用卷积神经网络进行编码;
将POI的其他属性信息采用前馈神经网络进行编码;
将同一POI的编码结果进行拼接后,经过全连接层的映射,得到该POI的向量表示。
21.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010011383.8A CN111221952B (zh) | 2020-01-06 | 2020-01-06 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
US17/311,772 US11847147B2 (en) | 2020-01-06 | 2020-09-24 | Method for building ranking model, query auto-completion method and corresponding apparatuses |
JP2021568806A JP2022530688A (ja) | 2020-01-06 | 2020-09-24 | ソートモデルの構築方法、クエリ自動補完の方法及び対応装置 |
EP20894908.1A EP3879413A4 (en) | 2020-01-06 | 2020-09-24 | SORT PATTERN ESTABLISHMENT METHOD, SELF-COMPLETE QUERY METHOD AND RELATED DEVICES |
PCT/CN2020/117561 WO2021139222A1 (zh) | 2020-01-06 | 2020-09-24 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
KR1020217029693A KR20210126110A (ko) | 2020-01-06 | 2020-09-24 | 소트 모델의 구축 방법, 쿼리 자동 완성 방법 및 대응 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010011383.8A CN111221952B (zh) | 2020-01-06 | 2020-01-06 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111221952A true CN111221952A (zh) | 2020-06-02 |
CN111221952B CN111221952B (zh) | 2021-05-14 |
Family
ID=70831280
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010011383.8A Active CN111221952B (zh) | 2020-01-06 | 2020-01-06 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11847147B2 (zh) |
EP (1) | EP3879413A4 (zh) |
JP (1) | JP2022530688A (zh) |
KR (1) | KR20210126110A (zh) |
CN (1) | CN111221952B (zh) |
WO (1) | WO2021139222A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528157A (zh) * | 2020-12-24 | 2021-03-19 | 北京百度网讯科技有限公司 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
CN112800314A (zh) * | 2021-01-26 | 2021-05-14 | 浙江香侬慧语科技有限责任公司 | 搜索引擎询问自动补全的方法、系统、存储介质及设备 |
CN113051368A (zh) * | 2021-03-24 | 2021-06-29 | 北京百度网讯科技有限公司 | 双塔模型训练方法、检索方法、装置及电子设备 |
WO2021139222A1 (zh) * | 2020-01-06 | 2021-07-15 | 百度在线网络技术(北京)有限公司 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
CN113343132A (zh) * | 2021-06-30 | 2021-09-03 | 北京三快在线科技有限公司 | 一种模型训练的方法、信息展示的方法及装置 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230237053A1 (en) * | 2022-01-27 | 2023-07-27 | Intuit Inc. | Intelligent query auto-completion systems and methods |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649605A (zh) * | 2016-11-28 | 2017-05-10 | 百度在线网络技术(北京)有限公司 | 一种推广关键词的触发方法及装置 |
CN107507054A (zh) * | 2017-07-24 | 2017-12-22 | 哈尔滨工程大学 | 一种基于循环神经网络的推荐算法 |
CN107862004A (zh) * | 2017-10-24 | 2018-03-30 | 科大讯飞股份有限公司 | 智能排序方法及装置、存储介质、电子设备 |
CN108427756A (zh) * | 2018-03-16 | 2018-08-21 | 中国人民解放军国防科技大学 | 基于同类用户模型的个性化查询词补全推荐方法和装置 |
US20190057036A1 (en) * | 2018-10-15 | 2019-02-21 | Amrita MATHURIYA | Programmable interface to in-memory cache processor |
CN109670161A (zh) * | 2017-10-13 | 2019-04-23 | 北京京东尚科信息技术有限公司 | 商品相似度计算方法及装置、存储介质、电子设备 |
EP3557505A1 (en) * | 2018-04-20 | 2019-10-23 | Facebook, Inc. | Contextual auto-completion for assistant systems |
CN110377706A (zh) * | 2019-07-25 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 基于深度学习的搜索语句挖掘方法及设备 |
US10468142B1 (en) * | 2018-07-27 | 2019-11-05 | University Of Miami | Artificial intelligence-based system and methods for corneal diagnosis |
CN110442689A (zh) * | 2019-06-25 | 2019-11-12 | 平安科技(深圳)有限公司 | 一种问答关系排序方法、装置、计算机设备及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10049149B2 (en) | 2015-09-29 | 2018-08-14 | Oath Inc. | Computerized system and method for search query auto-completion |
US10055414B2 (en) * | 2015-11-13 | 2018-08-21 | Google Llc | Access points for maps |
US11366866B2 (en) * | 2017-12-08 | 2022-06-21 | Apple Inc. | Geographical knowledge graph |
CN111221952B (zh) | 2020-01-06 | 2021-05-14 | 百度在线网络技术(北京)有限公司 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
-
2020
- 2020-01-06 CN CN202010011383.8A patent/CN111221952B/zh active Active
- 2020-09-24 KR KR1020217029693A patent/KR20210126110A/ko active Search and Examination
- 2020-09-24 JP JP2021568806A patent/JP2022530688A/ja active Pending
- 2020-09-24 EP EP20894908.1A patent/EP3879413A4/en not_active Ceased
- 2020-09-24 US US17/311,772 patent/US11847147B2/en active Active
- 2020-09-24 WO PCT/CN2020/117561 patent/WO2021139222A1/zh unknown
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106649605A (zh) * | 2016-11-28 | 2017-05-10 | 百度在线网络技术(北京)有限公司 | 一种推广关键词的触发方法及装置 |
CN107507054A (zh) * | 2017-07-24 | 2017-12-22 | 哈尔滨工程大学 | 一种基于循环神经网络的推荐算法 |
CN109670161A (zh) * | 2017-10-13 | 2019-04-23 | 北京京东尚科信息技术有限公司 | 商品相似度计算方法及装置、存储介质、电子设备 |
CN107862004A (zh) * | 2017-10-24 | 2018-03-30 | 科大讯飞股份有限公司 | 智能排序方法及装置、存储介质、电子设备 |
CN108427756A (zh) * | 2018-03-16 | 2018-08-21 | 中国人民解放军国防科技大学 | 基于同类用户模型的个性化查询词补全推荐方法和装置 |
EP3557505A1 (en) * | 2018-04-20 | 2019-10-23 | Facebook, Inc. | Contextual auto-completion for assistant systems |
US10468142B1 (en) * | 2018-07-27 | 2019-11-05 | University Of Miami | Artificial intelligence-based system and methods for corneal diagnosis |
US20190057036A1 (en) * | 2018-10-15 | 2019-02-21 | Amrita MATHURIYA | Programmable interface to in-memory cache processor |
CN110442689A (zh) * | 2019-06-25 | 2019-11-12 | 平安科技(深圳)有限公司 | 一种问答关系排序方法、装置、计算机设备及存储介质 |
CN110377706A (zh) * | 2019-07-25 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 基于深度学习的搜索语句挖掘方法及设备 |
Non-Patent Citations (2)
Title |
---|
MILAD SHOKOUHI: "Learning to Personalize Query Auto-Completion", 《SIGIR "13: PROCEEDINGS OF THE 36TH INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION RETRIEVAL》 * |
田萱,等: "时间敏感查询词补全关键技术研究综述", 《电子学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021139222A1 (zh) * | 2020-01-06 | 2021-07-15 | 百度在线网络技术(北京)有限公司 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
US11847147B2 (en) | 2020-01-06 | 2023-12-19 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method for building ranking model, query auto-completion method and corresponding apparatuses |
CN112528157A (zh) * | 2020-12-24 | 2021-03-19 | 北京百度网讯科技有限公司 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
CN112528157B (zh) * | 2020-12-24 | 2024-04-26 | 北京百度网讯科技有限公司 | 建立排序模型的方法、查询自动补全的方法及对应装置 |
CN112800314A (zh) * | 2021-01-26 | 2021-05-14 | 浙江香侬慧语科技有限责任公司 | 搜索引擎询问自动补全的方法、系统、存储介质及设备 |
CN113051368A (zh) * | 2021-03-24 | 2021-06-29 | 北京百度网讯科技有限公司 | 双塔模型训练方法、检索方法、装置及电子设备 |
CN113051368B (zh) * | 2021-03-24 | 2023-09-22 | 北京百度网讯科技有限公司 | 双塔模型训练方法、检索方法、装置及电子设备 |
CN113343132A (zh) * | 2021-06-30 | 2021-09-03 | 北京三快在线科技有限公司 | 一种模型训练的方法、信息展示的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
EP3879413A4 (en) | 2022-02-23 |
JP2022530688A (ja) | 2022-06-30 |
WO2021139222A1 (zh) | 2021-07-15 |
US20220327151A1 (en) | 2022-10-13 |
US11847147B2 (en) | 2023-12-19 |
CN111221952B (zh) | 2021-05-14 |
KR20210126110A (ko) | 2021-10-19 |
EP3879413A1 (en) | 2021-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111221952B (zh) | 建立排序模型的方法、查询自动补全的方法及对应装置 | |
CN111222058B (zh) | 查询自动补全的方法、装置、设备和计算机存储介质 | |
CN111984689B (zh) | 信息检索的方法、装置、设备以及存储介质 | |
CN111125335B (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN111241427B (zh) | 查询自动补全的方法、装置、设备和计算机存储介质 | |
KR20220003085A (ko) | 검색 결과를 결정하는 방법, 장치, 기기 및 컴퓨터 기록 매체 | |
US11907671B2 (en) | Role labeling method, electronic device and storage medium | |
CN113553414B (zh) | 智能对话方法、装置、电子设备和存储介质 | |
CN111797216B (zh) | 检索项改写方法、装置、设备以及存储介质 | |
CN111666292B (zh) | 用于检索地理位置的相似度模型建立方法和装置 | |
CN111523007B (zh) | 用户感兴趣信息确定方法、装置、设备以及存储介质 | |
CN112541362B (zh) | 一种泛化处理的方法、装置、设备和计算机存储介质 | |
CN111737559A (zh) | 资源排序方法、训练排序模型的方法及对应装置 | |
CN111274407A (zh) | 知识图谱中三元组置信度计算方法和装置 | |
EP3876563A1 (en) | Method and apparatus for broadcasting configuration information of synchronizing signal block, and method and apparatus for receiving configuration information of synchronizing signal block | |
CN111984774B (zh) | 搜索方法、装置、设备以及存储介质 | |
CN112528001A (zh) | 一种信息查询方法、装置及电子设备 | |
CN111126061A (zh) | 对联信息生成方法和装置 | |
KR20210145811A (ko) | 지리적 위치를 검색하는 방법, 장치, 기기 및 컴퓨터 기록 매체 | |
CN111475614B (zh) | 知识推理对话方法、装置、电子设备和存储介质 | |
CN112528156A (zh) | 建立排序模型的方法、查询自动补全的方法及对应装置 | |
CN111274497A (zh) | 社区推荐及模型训练方法、装置、电子设备及存储介质 | |
CN112528157B (zh) | 建立排序模型的方法、查询自动补全的方法及对应装置 | |
CN113595874B (zh) | 即时通讯群组的搜索方法、装置、电子设备和存储介质 | |
CN113254715A (zh) | 视频与兴趣点关联关系构建方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |