CN113821723B - 搜索方法、装置及电子设备 - Google Patents
搜索方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113821723B CN113821723B CN202111106362.5A CN202111106362A CN113821723B CN 113821723 B CN113821723 B CN 113821723B CN 202111106362 A CN202111106362 A CN 202111106362A CN 113821723 B CN113821723 B CN 113821723B
- Authority
- CN
- China
- Prior art keywords
- search
- module
- click
- sample data
- live
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 239000013598 vector Substances 0.000 claims description 86
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000010365 information processing Effects 0.000 abstract description 2
- 238000012545 processing Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000006399 behavior Effects 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003416 augmentation Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002407 reforming Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了一种搜索方法、装置及电子设备,属于信息处理技术领域。该方法包括:获取正在直播的主播信息和用户输入的第一搜索词;根据搜索词和主播信息的搜索模型,确定第一搜索词和正在直播的主播信息的高阶交叉特征;基于该高阶交叉特征与每个直播对应的点击权重,对该正在直播的主播信息进行排序并显示;其中,高阶交叉特征,与高阶交叉特征和每个直播对应的点击权重,为基于点击样本数据和无点击样本数据学习得到的。基于本公开实施例提供的技术方案,能够解决搜索结果与用户意图的匹配度低的问题。
Description
技术领域
本公开属于信息处理技术领域,具体涉及一种搜索方法、装置及电子设备。
背景技术
随着信息技术的发展,搜索服务可以应用于越来越多的场景中。用户可以根据显示的搜索结果确定是否继续操作。
目前,直播客户端通过ES(elastic search)搜索引擎提供搜索功能,该ES搜索引擎是基于文本匹配实现搜索功能。用户可以输入搜索词搜索正在进行的直播/主播,在用户使用ES搜索引擎搜索直播时,若用户搜索意图明确,例如,明确输入了gametype中文或者主播昵称等直接文本信息时,ES搜索引擎可以将最相关的直播/主播排在首位。
然而,在基于ES搜索引擎搜索的情况下,除了显示文本信息完全匹配的主播以外,其他靠前显示的主播是按照字或者词的粒度匹配的,即根据两个文本信息的字面重合程度进行匹配,会出现很多单字或者单词匹配的结果。若用户搜索的主播不在线,则会将部分匹配的结果置顶,用户搜索意图之外的搜索结果展示在搜索结果靠前的位置,导致显示的搜索结果与用户实际意图的匹配度低。
发明内容
本公开实施例的目的是提供一种搜索方法、装置及电子设备,能够解决搜索结果与用户意图的匹配度低的问题。
为了解决上述技术问题,本公开是这样实现的:
第一方面,本公开实施例提供了一种搜索方法,该方法包括:获取正在直播的主播信息和用户输入的第一搜索词;根据搜索词和主播信息的搜索模型,确定第一搜索词和每个直播的主播信息的高阶交叉特征,并基于该高阶交叉特征,与该高阶交叉特征和对应的点击权重,排序并显示所述正在直播的主播信息;其中,每个高阶交叉特征与对应的点击权重,为基于点击样本数据和无点击样本数据学习得到的。
第二方面,本公开实施例提供了一种搜索装置,搜索装置包括:获取模块、计算模块和显示模块;获取模块,用于获取正在直播的主播信息和用户输入的第一搜索词;计算模块,用于根据搜索词和主播信息的搜索模型,确定第一搜索词和每个直播的主播信息的高阶交叉特征,并基于该高阶交叉特征,与该高阶交叉特征与每个直播的重要性权重,排序所述正在直播的主播信息;显示模块,用于显示排序后的正在直播的主播信息;其中,每个高阶交叉特征对应的点击权重,为基于点击样本数据和无点击样本数据学习得到的。
第三方面,本公开实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如第一方面所述的搜索方法的步骤。
第四方面,本公开实施例提供了一种可读存储介质,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如第一方面所述的搜索方法的步骤。
第五方面,本公开实施例提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现如第一方面所述的搜索方法。
在本公开实施例中,电子设备在获取到正在直播的主播信息和用户输入的搜索词之后,由于在搜索是采用搜索词和主播信息的搜索模型对搜索结果排序,即可以根据搜索词和每个主播信息的高阶交叉特征,与根据机器学习的高阶交叉特征对应的点击权重,将接近用户意图的搜索结果排列在靠前位置,避免仅根据搜索词和主播相关文本信息的字面重合度排序,导致主播不在线时将不接近用户搜索意图的直播显示在靠前位置,例如搜索词和主播信息的搜索模型根据机器学习到,大部分用户在搜索第一搜索词的时候是期望搜索到第一分类中的第一用户的直播,在第一用户未在线直播的情况下是期望搜索第一分类中的其他类似的用户的直播,则在用户输入第一搜索词的情况下,将直播的第一用户显示在首位,将其他与第一分类的直播排列在搜索结果靠前的显示位置;若搜索词对应的第一未上播,则可以将其他与第一分类的正在进行直播的主播或者直播间信息显示在搜索结果靠前的显示位置。
附图说明
图1为本公开实施例提供的一种搜索方法的流程示意图;
图2为本公开实施例提供的一种搜索模型的示意图;
图3为本公开实施例提供的一种Cross模块的示意图;
图4为本公开实施例提供的一种BiGraph-Bert模型的示意图;
图5为本公开实施例提供的一种点击二部图示意图;
图6为本公开实施例提供的一种辅助损失处理的逻辑示意图;
图7为本公开实施例提供的一种搜索性能比对示意图;
图8为本公开实施例提供的一种搜索装置可能的结构示意图;
图9为本公开实施例提供的一种电子设备可能的结构示意图;
图10为本公开实施例提供的一种电子设备的硬件示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
本公开的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本公开实施例提供的搜索方法进行详细地说明。
图1为本公开实施例提供的一种搜索方法的流程示意图,如图1中所示,该搜索方法包括下述的S101至S103:
S101、电子设备获取正在直播的主播信息和用户输入的第一搜索词。
示例性地,电子设备可以接收用户在直播客户端中的搜索输入,该搜索的输入可以为用户输入的、也可以为用户选择的。
例如,用户可以在直播客户端中输入“晨时微凉”,以搜索与“晨时微凉”相关的直播。
S102、电子设备根据搜索词和主播信息的搜索模型,确定第一搜索词和正在直播的主播信息的高阶交叉特征。
S103、电子设备基于第一搜索词和每个直播的主播信息的高阶交叉特征,与该高阶交叉特征对应的点击权重,排序并显示正在直播的主播信息。
其中,每个高阶交叉特征对应的点击权重,为基于点击样本和无点击样本数据学习得到的。
示例性地,图2为本公开实施例提供的一种搜索模型的结构示意图。如图2中所示,该搜索模型200包括:嵌入向量编码模块201、Cross模块202、Transformer模块203和概率输出模块204。其中,Cross模块202位于嵌入向量编码模块201和Transformer模块203之间。
需要说明的是,该搜索模型中存储有搜索词与每个主播信息的高阶交叉特征对应点击权重。
需要说明的是,在本公开实施例中,Transformer模块203为传统Bert模型中除嵌入向量编码模块和概率输出模块之外的模块。
可以理解,电子设备在接收到用户在直播客户端中输入的搜索词之后,首先,电子设备获取直播客户端中正在直播的主播信息;然后电子设备将搜索词和正在直播的主播信息输入搜索模型200的嵌入向量编码模块201处理;之后电子设备再将经过嵌入向量编码模块201的处理之后的搜索词和上述正在直播的主播信息输入Cross模块,以确定搜索词和正在直播的主播信息的高阶交叉特征;最后电子设备根据高阶交叉特征对应点击权重,将搜索词和正在直播的主播信息的高阶交叉特征,经过Transformer模块203和概率输出模块204处理,得到搜索词和各个主播的得分排名。
可选地,在本公开实施例中主播信息可以包括以下至少一项:主播昵称、直播标题、CCID(直播的ID号)、RoomID(直播间的ID号)。
需要说明的是,主播信息中不仅可以包括主播的基本信息,还可以包括主播直播的类型、直播的场景等信息,例如是目标游戏的直播、是卖货的直播、是科普法律的直播、是热点新闻分析的直播等。
需要说明的是,在本公开实施例中,搜索词和直播信息的高阶交叉特征,指示的是,一个搜索词和该直播的主播信息中的多个信息的特征交叉。
示例性地,假设用户输入一个搜索词,假设计算时采用的主播信息包括“主播昵称和主播标题”,则电子设备先根据搜索词特征与主播昵称和主播标题确定高阶的交叉特征。以确定二阶的交叉特征为例:根据“搜索词特征、主播昵称和主播标题”确定二阶的交叉特征为“搜索词×主播昵称+搜索词×主播标题”。
可以理解,用户可以输入上述任意一个主播信息作为搜索词,然后电子设备可以确定搜索词特征和主播信息中的特征的高阶交叉特征,然后基于学习到的每个高阶交叉特征对应的点击权重(即根据高阶交叉特征对搜索的直播的主播点击的重要程度和不点击的重要程度),确定每个主播的得分,从而将与用户实际意图匹配的靠前的主播显示在搜索结果靠前的位置。
示例性地,本公开实施例中,计算每个交叉特征和主播信息的评分可以采用常规的交叉特征和搜索对象信息的评分计算方式,本公开实施例对此不作具体限定。
示例性地,电子设备显示按照评分从高到低排序的前K个直播的信息,K为正整数。
示例性地,假设词1,通常会对应词1对应的主播,按照传统的搜索方式,是确定词1和主播信息的字或词粒度匹配情况,文本匹配度越高,在搜索结果中显示位置越靠前,比如搜索词为“晨时微凉”,则昵称中包括“晨”、“时”、“微”、“凉”这四个字越多个字的主播昵称,与搜索词“晨时微凉”匹配度越高。在实际搜索过程中,假设昵称为“晨时微凉”的主播为直播游戏A的主播,在用户搜索词为“晨时微凉”的情况下,若昵称为“晨时微凉”主播不在线,大部分的用户可能是期望匹配到游戏A中的其他主播,然而,按照传统的搜索方式,搜索结果中排列在搜索结果靠前位置的主播是昵称中包括“晨”、“时”、“微”、“凉”这四个字的主播,若游戏A中的其他主播中不包括这四个字,则在搜索结果中显示的概率偏低,导致靠前位置显示的直播与用户实际意图的匹配度较低,用户体验差。
而本公开实施例中,搜索模型中学习到了搜索词和各个主播信息的高阶交叉特征,对应点击权重,即可以确定出一个搜索词和用户实际意图的关联关系,因此基于该点击权重可以计算搜索词和每个直播的直播信息的得分,从而可以得到更加符合用户意图的排序结果。
可以理解,若用户搜索的昵称对应的主播未直播,本公开实施例提供的搜索方式,可以匹配到用户意图的其他主播,避免仅根据文本匹配没有匹配到其他包括用户输入的昵称中的字的情况下,搜索结果为空的情况,搜索更加灵活。
需要说明的是,可以通过微服务框架,在直播平台中部署本公开实施例提供的搜索模型,用户在使用直播应用输入搜索词搜索直播时,可以通过微服务框架实现用户数据转化、搜索模型调用、产生搜索结果等功能。
具体地,电子设备通过数据转化将微服务接收到的用户搜索行为数据(例如:搜索词、用户特征、主播特征)映射成模型输入,然后调用搜索服务,计算分数,然后将候选的主播或者直播排序并返回到直播应用中进行展示。
本公开实施例提供一种搜索方法,电子设备在获取到正在直播的主播信息和用户输入的搜索词之后,由于在搜索是采用搜索词和主播信息的搜索模型对搜索结果排序,即可以根据搜索词和每个主播信息的高阶交叉特征,与根据机器学习的高阶交叉特征对应的点击权重,将接近用户意图的搜索结果排列在靠前位置,避免仅根据搜索词和主播相关文本信息的字面重合度排序,导致主播不在线时将不接近用户搜索意图的直播显示在靠前位置,例如搜索词和主播信息的搜索模型根据机器学习到,大部分用户在搜索第一搜索词的时候是期望搜索到第一分类中的第一用户的直播,在第一用户未在线直播的情况下是期望搜索第一分类中的其他类似的用户的直播,则在用户输入第一搜索词的情况下,将直播的第一用户显示在首位,将其他与第一分类的直播排列在搜索结果靠前的显示位置;若搜索词对应的第一未上播,则可以将其他与第一分类的正在进行直播的主播或者直播间信息显示在搜索结果靠前的显示位置。
可选地,在本公开实施例提供的搜索方法中,上述的S102具体可以通过下述的S102a执行:
S102a、电子设备基于搜索词和主播信息的搜索模型的Cross模块,确定第一搜索词和每个正在直播的主播信息的高阶交叉特征。
具体地,首先,电子设备先将搜索词和主播信息输入嵌入向量编码模块处理,得到搜索词和主播信息的嵌入向量,该嵌入向量包括经过预训练向量的特征向量。然后,电子设备将嵌入向量编码模块处理后的搜索词和主播信息对应的嵌入向量输入Cross模块,电子设备通过Cross模块根据搜索词和主播信息对应的嵌入向量,确定搜索词和主播信息的高阶交叉特征,最后电子设备将搜索词和主播信息的高阶交叉特征输入Transformer模块进行处理,得到不同的高阶交叉特征的得分。
需要说明的是,电子设备通过Cross模块,搜索词和主播信息的嵌入向量拼接为一维向量,以便于特征间的交叉。
具体地,假设Cross模块的初始输入向量为x0,Cross模块中的每一层的输出向量均与初始输入向量x0进行外积交叉,得到一个方向矩阵,然后在于一维权重向量进行矩阵相乘,从而得到一个一维向量,然后加上一维偏置向量和上一次的输入,从而输出一个一维向量。
示例性,图3为本公开实施例提供的一种Cross模块的结构示意图。如图3中所示,Cross模块中包括多个cross函数,第l层的cross函数处理的结果输入第l+1层的cross函数继续处理。其中,Cross模块的处理可以基于下述的公式(1)进行。
其中,xl+1表示第l+1层的输入向量,xl表示第l层的输入向量,bl表示l层的一维偏置向量,x0表示初始输入向量,表示第l层的输入向量的转置,w为一维的权重向量。
可以理解,电子设备在基于搜索模型的Cross模块计算时,可以根据用户实时输入的搜索词和实时在线的直播信息,自动生成有效地交叉特征,可以使得搜索模型在计算排序时使用各个交叉特征进行最终分数的计算,可以准确的确定出用户的真实搜索意图。
基于该方案,在进行搜索时,电子设备可以先基于搜索模型中的Cross模块确定搜索词和主播信息的高阶交叉特征,从而为后续计算搜索词和每个直播的得分情况提供数据支持。
需要说明的是,在本公开实施例中,执行搜索方法的电子设备和进行搜索模型的学习的电子设备可以为相同的电子设备,也可以为不同的电子设备,本公开实施例对此不作具体限定。
下面介绍本公开实施例提供的搜索方法中的搜索模型的学习步骤,其中,搜索模型为基于BiGraph-Bert模型学习得到的。
示例性地,上述图2中所示的搜索词和主播信息的搜索模型200,为基于BiGraph-Bert模型学习得到的。BiGraph-Bert模型的嵌入向量编码模块和Transformer模块之间连接Cross模块。需要说明的是,本公开实施例中的BiGraph-Bert模型是基于传统的Bert模型改进后的机器学习模型。
图4为本公开实施例提供的一种BiGraph-Bert模型的示意图。如图4中所示,BiGraph-Bert模型400包括:BiGraph(bipartite graph,二部图)模块401、嵌入向量编码模块402、Cross模块403、Transformer模块404、Triplet Loss(三重态损失)辅助损失模块405,以及概率输出模块406。
可以理解的是,在本公开实施例中,是基于Bert模型进行的优化,首先BiGraph模块与嵌入向量编码模块连接,可以将增强的样本数据也作为模型学习的样本数据。在嵌入向量编码模块和Transformer模块之间嵌入Cross模块,用于学习高阶交叉特征对应的点击权重;将Transformer模块与Triplet Loss辅助损失模块连接,在处理的过程中将样本数据输入Triplet Loss模块进行辅助损失,然后返回到Transformer模块继续学习,学习一个搜索词曝光的直播中,哪些直播是不会被用户点击的。
可选地,在本公开实施例中,电子设备采用BiGraph-Bert模型进行机器学习的样本数据包括三部分数据,分别为:
(1)基于直播客户端的曝光日志和点击日志拼接的第一样本数据,第一样本包括点击样本和无点击样本。
需要说明的是,直播客户端的曝光日志和点击日志中分别存储了用户根据输入的关键词的搜索行为信息。在本公开实施例中,电子设备可以预先采集各个用户的直播客户端中存储的曝光日志和点击日志。
通常,在电子设备获取到采集的第一样本数据之后,可以对第一样本数据进行预处理(数据精加工处理)。例如异常值处理、缺失值处理、归一化处理和格式转换处理。
电子设备对样本数据的异常值处理是指:通过数据分布信息过滤、改造存在问题的样本数据。可选地,存在问题的样本可以包括:错误样本、矛盾样本和边界样本。例如,特征记录存在问题的样本可以为错误样本,同一个用户对同一个物品在同一时间点点击行为记录不一致的样本为矛盾样本,样本中的一个特征值超过总体分位数的样本为边界样本。
缺失值处理是指:电子设备可以通过统计信息或者差值算法,对点击正样本和无点击负样本中缺失的特征值进行填充,提高点击正样本和无点击负样本的完整度。其中,统计信息可以包括以下至少一项:均值、分位数、极值等。
归一化处理处理是指:电子设备可以对样本数据中的特征数值进行重映射。可以理解,归一化处理可以保证同一个特征下的值保持在预设的范围内,从而可以避免数值溢出(例如上溢或下溢)影响模型的训练。
格式转化处理是指:电子设备可以在采用模型对数据训练之前,将第一样本数据的数据格式转化为模型需要的数据格式。
(2)构造的搜索词和主播信息的第二样本数据。
需要说明的是,可以结合第一样本数据中的点击正样本数据,构造文本相关搜索词-主播数据对。
可以基于文本相似度,构造搜索词和主播信息的第二样本数据。
示例性地,自定义搜索词为主播文本信息,建立主播文本信息指定主播的主播ID。主播文本信息可以包括:主播昵称、直播标题、CCID、roomID。
示例性地,可以预先构造搜索词-主播数据对,例如构造搜索词为主播的文本信息,例如昵称、直播标题、CCID、roomID等,则构造搜索词为一个主播的上述信息,点击行为定义为“点击”,即表征输入构造的搜索词,会点击主播,例如输入主播昵称1,指定主播为主播ID 1。
可以理解的是,该部分数据为构造的数据,采样得到真实的样本数据中并不一定存在构造的数据。
(3)基于直播客户端的曝光日志和点击日志召回的第三样本数据。
需要说明的是,真实数据中存在一些样本中输入搜索词1,点击了直播1和直播2,输入了搜索词2,点击了直播1,但是搜索词2也可能点击直播2,第三样本数据即为已有的样本数据召回对于搜索词可能发生点击行为的直播。
可以理解,在本公开实施例中,采用三组不同的样本数据进行机器学习,第一样本数据为真实的用户点击行为的样本数据,第二样本数据为构造的搜索词和主播的点击数据,第三样本数据为根据用户真实的点击行为召回的一些搜索词也存在点击可能的样本数据。用于学习的样本的多样性,可以使得机器学习得到的搜索模型的搜索结果更加接近用户真实的搜索意图。
可选地,本公开实施例提供的搜索方法,在上述的S101之前,还可以包括下述的S104:
S104、电子设备基于BiGraph-Bert模型的样本数据,和BiGraph-Bert模型,学习得到搜索词和主播信息的搜索模型。
其中,搜索词和主播信息的搜索模型,包括搜索词和主播信息的高阶交叉特征对应的点击权重。
具体地,可以将第一样本数据、第二样本数据和第三样本数据输入到BiGraph-Bert模型中进行学习,先获取搜索词和主播信息的高阶交叉特征,然后学习各个高阶交叉特征对应点击权重,从而学习到搜索词和主播信息的搜索模型。
需要说明的是,在开始学习的过程中,可以为每个高阶交叉特征对应的主播随机配置一个重要性权重(对计算概率的正向影响和负向影响),然后基于机器学习中的反向传播,学习哪些高阶交叉特征对概率的计算存在正向影响(例如,存在这个特征,用户会点击),哪些高阶交叉特征对概率的计算存在负向影响(例如,存在这个特征,用户不会点击),最终学习到每个高阶交叉特征对应的主播被点击的权重。
需要说明的是,电子设备可以基于BiGraph-Bert模型学习不同的交叉特征对用户产生点击行为的重要性,即学习不同高阶交叉特征对应的点击权重,若一个高阶交叉特征对应点击权重越高,则该高阶交叉特征越重要,用户点击该高阶交叉特征对应的直播的可能性越高。
基于该方案,电子设备可以基于本公开实施例提供的BiGraph-Bert模型的样本数据,以及本公开实施例提供的BiGraph-Bert模型进行机器学习,学习搜索词和主播信息的高阶交叉特征对应的点击权重,确定搜索词对应的用户的真实意图,从而可以使得在搜索直播间时,可以将与用户意图匹配的直播间或者主播显示在搜索结果中靠前的位置。
可选地,本公开实施例提供的搜索方法,在上述的S104之前,还可以包括下述的S105和S106:
S105、电子设备获取直播客户端的曝光日志和点击日志。
示例性地,各个直播客户端可以将曝光日志和点击日志上传到电子设备中,电子设备也可以从各个直播客户端中直接采集曝光日志和点击日志,本公开实施例对此不作具体限定。
S106、电子设备根据曝光日志和点击日志,拼接得到第一样本数据。
示例性地,电子设备可以根据曝光日志和点击日志进行拼接,通过特征日志进行进一步的拼接,得到点击正样本和无点击负样本。
可以理解,样本分类包括正样本和负样本。其中,正样本表示当前搜索词下曝光被点击的主播,当前主播可以根据对应的主播信息表示,并与向量编码模块的输入共享权重。负样本表示当前搜索词下曝光未被点击的主播,当前主播被对应的主播信息所表示,并且与向量编码模块的输入共享权重。示例性地,以query-doc格式构建正样本,其中搜索词为query,主播信息(即主播的特征)为doc。对于不同主播信息中的相同的特征,输入对应的权重是相同的。
示例性地,曝光日志中在时间1记录的曝光词为词1,点击日志中记录的时间1用户点击了主播1,以拼接一条正样本为词1-主播1;在时间1记录的曝光词为词2,点击日志中未记录用户点击主播,则记录一条负样本为词2。
可以理解,在将曝光日志和点击日志拼接得到第一样本数据之后,可以先对第一样本数据进行处理,处理为BiGraph-Bert模型使用的数据格式,以作为BiGraph-Bert模型的机器学习的输入样本之一。
具体地,在构建样本时,还包括对样本的采样。例如,可以采用降采样的方式处理样本,使得点击样本和无点击负样本的数量接近,避免点击样本数量远小于无点击样本的数量导致学习偏离方向。
基于该方案,电子设备可以获取直播客户端的曝光日志和点击日志进行拼接,以获取点击正样本和无点击负样本,从而得到第一样本数据,该第一样本数据为真实的样本数据,因此可以真实的表征用户的搜索意图。
可选地,本公开实施例提供的搜索方法,在上述的S106之后,还可以包括下述的S107:
S107、电子设备根据第一样本数据,召回第三样本数据。
可以理解的是,第一样本数据为采样的真实数据,第三样本数据为根据第一样本数据处理预估的数据。
示例性地,曝光了搜索词1,有用户点击直播1、有用户点击了直播2;曝光了搜索词2,存在用户点击了直播1,可以根据上述的数据预测是否存在曝光搜索词2,存在用户点击直播2的可能。若存在曝光搜索词2有用户点击搜索词2可能性较大,则可以生成一条搜索词2和直播2的样本数据。
基于该方案,可以基于真实的第一样本数据,召回第三样本数据,以扩充样本数据的多样性,从而使得训练的数据更加丰富,将这部分数据也作为训练数据,可以使得训练得到的搜索词的对应的搜索意图更加接近用户实际的搜索意图。
可选地,结合上述的图4,BiGraph-Bert模型还包括:BiGraph模块;BiGraph模块与嵌入向量编码模块连接;上述的S107具体可以通过下述的S107a和S107b执行:
S107a、电子设备将第一样本数据输入BiGraph模块,构造搜索词-主播的点击二部图。
示例性地,电子设备可以基于第一样本数据,建立搜索词和主播(或直播)的点击二部图。首先电子设备先根据第一样本数据获取二部图中的节点,分别为表示搜索词的搜索节点和表示直播/主播实体的主播节点。若曝光第一搜索词存在点击第一主播的点击行为,则在点击二部图中连接第一搜索词节点和第一主播节点,构成第一边。
其中,电子设备可以根据曝光的搜索词对应的主播的点击次数或者点击之后的历史观看直播的时间确定边的权重。
示例性地,边的权重可以归一化,边的权重的取值范围为[0,1]。
图5为本公开实施例提供的一种二部图的结构示意图。其中,黑色填充的节点表示主播/直播实体,白色填充的节点表示搜索词实体。其中,一个黑色节点可以指向一个或多个白色节点,可以表示一个搜索词可以对应一个或多个主播/直播实体,多个黑色节点可以指向一个白色节点,表示多个搜索词可以对应同一个主播/直播实体。
需要说明的是,若黑色节点1和白色节点a连接,则表示黑色节点1对应的搜索词存在用户根据该搜索词点击了白色节点a对应的直播或主播实体;若黑色节点1和白色节点a和白色节点b连接,则表示有的用户根据该黑色节点1对应的搜索词点击了白色节点a对应的直播或主播实体,有的用户根据该黑色节点1对应的搜索词点击了白色节点b对应的直播或主播实体。
S107b、电子设备根据点击二部图,召回第三样本数据。
其中,嵌入向量编码模块的输入包括BiGraph模块输出的第三样本数据。
可以理解,电子设备先通过BiGraph模块和第一样本数据学习得到第三样本数据,然后电子设备将第三样本数据输入嵌入向量编码模块进行特征提取,得到对应的嵌入向量。
假设,在根据第一样本数据构造的点击二部图中,第二搜索词节点并未和第一主播(直播)节点连接,可以使用二部图的增广功能,确定第二搜索词节点可以和第一主播节点连接,则根据第二搜索词节点和第一主播节点的边,生成第一搜索词和第一主播的关联数据。
具体地,可以计算搜索词节点和主播节点的最完备匹配,从而得到未在二部图中存在连线的搜索词节点和主播节点是否可能存在点击关系。
示例性地,搜索词1节点和直播1节点、直播2节点均有连线,搜索词2和直播1节点存在连接,可以通过二部图增广算法,预测出用户输入搜索词2也存在点击直播2的可能。
其中,电子设备可以基于BiGrap模块(用于预训练)对根据采集的数据构建点击二部图,然后根据点击二部图,召回关键词、主播信息和点击行为的样本数据,并将召回的关键词、主播信息和点击行为的样本数据,训练为主播(用户)/搜索词向量,传输到嵌入向量编码模块进行特征提取。
具体地,在召回第三样本数据之后,BiGrap模块可以将第三样本数据中的搜索和直播/主播进行向量编码,然后计算内积相似度,并根据连接的归一化权重进行差值损失的计算,然后采用梯度下降法对搜索词以及直播/主播的嵌入向量进行学习得到预训练向量,BiGrap模块将预训练向量输入到嵌入向量编码层进行向量初始化。
基于该方案,可以基于第一样本数据,构造搜索词-直播/主播的点击二部图,然后根据点击二部图召回可能存在的搜索词点击主播的样本数据,从而使得BiGraph-Bert模型学习的样本数据更加完备,可以使得学习到的搜索词和搜索意图更加接近用户真实的搜索意图。
在本公开实施例中,在进行机器学习的过程中,在电子设备将样本数据输入嵌入向量编码模块处理之后,可以再通过Cross模块进行样本交叉处理。
具体地,电子设备可以基于Cross模块自动组合用户搜索特征(搜索词)和直播特征(直播信息),然后对繁多的交叉特征进行筛选,针对真实的用户行为数据学习组合特征对最终的排序结果的影响程度(即组合特征对最终的排序结果的重要性),基于影响程度针对性地包括对搜索排序有积极作用的交叉类特征,不再需要人工构造特征,减少了人工筛选交叉特征的工作量。
可选地,结合图4,BiGraph-Bert模型还包括:Triplet loss辅助损失模块;Triplet loss辅助损失模块与Transformer模块连接。在本公开实施例中,在进行机器学习时,还可以学习负样本和用户意图的关联关系,比如,在搜索关键词1的情况下,显示了10个主播,假设用户只点击了其中一个主播,则可以根据大量的样本数据学习哪些主播在某个搜索词下显示不会被点击。
进而,在本公开实施例中,还可以包括下述的S108和S109:
S108、电子设备在BiGraph-Bert模型的样本数据经过Transformer模块处理之后,根据正样本-负样本对间的余弦相似度,确定辅助损失值,并将辅助损失值输入所述Transformer模块。
其中,Triplet loss的三元组格式包括三个样本,分别为同一个搜索词点击过的2个正样本和未点击过的1个负样本。其中p1表示第一个正样本、p2表示第二个正样本,n1表示负样本。
Triplet loss辅助损失模块,通过对经过Transformer模块处理之后的样本数据中的正样本数据和负样本数据,基于下述的公式(2)计算辅助损失值L。
l=max[d(p1,p2)-d(p1,n1)+margin,0] 公式(2)
其中,d表示向量间的余弦相似的,margin表示设定阈值。
通常,一个向量空间中,若两个向量夹角间的余弦值可以用于衡量两个个体之间的差异的大小,例如余弦值越接近1,则两个向量的夹角越接近0度,表示该两个向量越相似,余弦值越接近0,则两个向量的夹角越接近90度,表示该两个向量越不相似。
S109、电子设备通过Transformer模块和辅助损失值,学习正样本和负样本的区别。
其中,Triplet loss辅助损失模块可以使得搜索词接近正样本、远离样本。
示例性地,图6为本公开实施例提供的一种计算辅助损失的逻辑示意图。Tripletloss辅助损失模块接收Transformer模块传输的输出向量,Triplet loss辅助损失模块根据将输出向量分类为正样本向量和负样本向量,然后分别计算正样本的损失、负样本的损失,最后计算总辅助损失。
需要说明的是,电子设备通过模型中的Transformer模块对样本处理后得到样本对应的向量,然后再通过正负样本对间的余弦相似度,结合上述的公式(2)可以计算辅助损失,从而使得Transformer模块可以学习到样本之间的联系,比如可以学习到正样本和负样本之间的区别。
具体地,可以将Transformer模块的输出作为Triplet loss辅助损失模块的输入,在Triplet loss辅助损失模块基于正样本和负样本计算出辅助损失值之后,可以将该辅助损失值汇聚到损失函数中。
需要说明的是,由于在损失计算中引入负样本对损失的影响,即,在计算正样本损失中增加搜索行为中的负反馈数据,即增加了负样本损失的影响,可以使得在学习点击行为的同时,对非点击行为也进行学习;即学习正样本数据的损失的情况下远离负样本,相比于原始损失函数的处理方式,可以进一步压缩搜索模型的参数的收敛方向,减少无效的参数探索过程,即可以增强BiGraph-Bert模型的学习能力,促进学习的搜索模型的参数快速收敛,加速模型训练的效率,在更准确的收敛方向中训练出精准的搜索模型,也就是说可以提高学习到的搜索模型判断用户搜索意图的准确率,例如使得学习到的搜索模型可以在使用的过程中能够将用户搜索后最可能点击的直播靠前排序,还可以对一些无关的直播进行靠后排序。
基于该方案,在进行搜索模型训练时,还可以将负样本数据输入到BiGraph-Bert模型中进行学习,通过向量的关系,学习在一个搜索词下曝光的多个直播/主播中,用户不会点击哪些直播/主播,使得最终学习的用户意图更加准确的反应用户真实意图,避免显示过多非用户意图的搜索结果,导致用户搜索体验差的问题。
为了便于理解本公开实施例提供的技术方案,下面介绍一下传统的Transformer网络结构。传统的Transformer网络结构的结构为BERT(bidirectional encoderrepresentations from transformers,双向Transformer的Encoder的一种预训练模型)模型的基本结构,包括Encoder和Decoder,在本公开实施例中,采用Encoder的基本结构。Encoder的基本结构的数据处理模块包括:嵌入向量编码模块、多头自注意力模块、残差与批正则模块、DNN(deep neural network,深度神经网络)模块和概率输出模块。
具体地,假设电子设备向嵌入向量编码模块输入的向量序列长度为L,向量的维度为K,则电子设备经过嵌入向量编码模块向多头自注意力模块输入L*K的矩阵M。嵌入向量编码模块主要是为了衡量输入序列的之间的内积相似度,然后基于归一化后的相似度作为权重,进行向量加权求和产生多头自注意力模块的输入向量。若电子设备向多头自注意力模块输入ML×K(即,L*K的矩阵M),则电子设备可以基于多头自注意力模块采用不同维数的投影矩阵WK×P计算MP,根据维数P的不同产生不同的矩阵MP(即多头的意义),然后通过下述的公式(3)计算各个MP的attention值,然后进行拼接得到堆叠的向量。
其中,上述的softmax函数是针对矩阵中的每一行向量进行softmax函数映射,输入向量v=[v1,v2,...,vn],输出向量为v'=[v1',v2',...,vn']。
电子设备可以将该堆叠的向量输入残差与批正则模块。其中,残差与批正则模块包括:残差模块和批正则模块。电子设备使用加法为组成算法,可以将残差模块的输入加上残差模块的输出作为残差模块新的输入。电子设备可以基于下述的公式(5)、输入数据的均值和输入数据的方差通过批正则模块进行数据的归一化。
其中,avg表示同一批数据的方差,std表示同一批数据的均值。
在对数据归一化之后,电子设备可以将归一化后的数据输入DNN模块(即深度网络全连接层),通过权重矩阵W进行输入X映射,得到输出向量O=WX,最终通过softmax函数将输出向量转化为概率形式(所有的输出值的和为1),其中,权重矩阵W为随机初始化的一组函数,可以通过梯度下降学习得到。
图7为本公开实施例提供的一种搜索性能比对示意图,如图7中的(a)所示,为ES方案和本公开方案的次均CTR(click through rate,点击通过率)对比度,从图7中的(a)中曲线的走势可以看出,本公开实施例提供的搜索方法的次均CTR高于ES的搜索方法的次均CTR。如图7中的(b)所示,为ES方案和本公开方案的人均CTR对比度,从图7中的(a)中曲线的走势可以看出,本公开实施例提供的搜索方法的人均CTR高于ES的搜索方法的人均CTR。
需要说明的是,本公开实施例提供的搜索方法,执行主体可以为搜索装置,或者该搜索装置中的用于执行的搜索方法的控制模块。本公开实施例中以搜索装置执行的方法为例,说明本公开实施例提供的搜索的装置。
图8为本公开实施例提供的一种搜索装置,如图8中所示,该搜索装置800包括:获取模块801、计算模块802和显示模块803;获取模块801,用于获取正在直播的主播信息和用户输入的第一搜索词;计算模块802,用于根据搜索词和主播信息的搜索模型,确定第一搜索词和每个直播的主播信息的高阶交叉特征,并基于高阶交叉特征,与该高阶交叉特征对应的点击权重,排序正在直播的主播信息;显示模块803,用于显示排序后的直播的主播信息;其中,其中,每个高阶交叉特征对应的点击权重,为基于点击样本和无点击样本数据学习得到的。
可选地,搜索词和主播信息的搜索模型,为基于BiGraph-Bert模型学习得到的,BiGraph-Bert模型的嵌入向量编码模块和Transformer模块之间连接Cross模块;计算模块,具体用于搜索词和主播信息的搜索模型的Cross模块,确定第一搜索词和每个正在直播的主播信息的高阶交叉特征。
可选地,BiGraph-Bert模型的样本数据包括:基于直播客户端的曝光日志和点击日志拼接的第一样本数据,第一样本包括点击样本和无点击样本;构造的搜索词和主播信息的第二样本数据;基于直播客户端的曝光日志和点击日志召回的第三样本数据。
可选地,电子设备还包括:机器学习模块;机器学习模块,用于基于BiGraph-Bert模型的样本数据,和BiGraph-Bert模型,学习得到搜索词和主播信息的搜索模型;其中,搜索词和主播信息的搜索模型包括:搜索词和主播信息的高阶交叉特征对应的点击权重。
可选地,电子设备还包括:采集模块和拼接模块;采集模块,用于采集直播客户端的曝光日志和点击日志;拼接模块,用于根据曝光日志和点击日志,拼接得到第一样本数据。
可选地,电子设备还包括:召回模块;召回模块,用于根据第一样本数据,召回第三样本数据。
可选地,BiGraph-Bert模型还包括:BiGraph模块;BiGraph模块与嵌入向量编码模块连接;召回模块,具体用于将第一样本数据输入BiGraph模块,构造搜索词-主播的点击二部图;根据点击二部图,召回第三样本数据;其中,嵌入向量编码模块的输入包括BiGraph模块输出的第三样本数据。
可选地,BiGraph-Bert模型还包括:Triplet loss辅助损失模块;Triplet loss辅助损失模块与Transformer模块连接;计算模块,还用于在Bigraph-Bert模型的样本数据经过Transformer模块处理之后,根据正样本-负样本对间的余弦相似度,确定辅助损失值,并将辅助损失值输入Transformer模块;通过Transformer模块和辅助损失值,学习正样本和负样本的区别。
本公开实施例提供的搜索装置,搜索装置在获取到正在直播的主播信息和用户输入的搜索词之后,由于在搜索是采用搜索词和主播信息的搜索模型对搜索结果排序,即可以根据搜索词和每个主播信息的高阶交叉特征,与根据机器学习的高阶交叉特征对应的点击权重,将接近用户意图的搜索结果排列在靠前位置,避免仅根据搜索词和主播相关文本信息的字面重合度排序,导致主播不在线时将不接近用户搜索意图的直播显示在靠前位置,例如搜索词和主播信息的搜索模型根据机器学习到,大部分用户在搜索第一搜索词的时候是期望搜索到第一分类中的第一用户的直播,在第一用户未在线直播的情况下是期望搜索第一分类中的其他类似的用户的直播,则在用户输入第一搜索词的情况下,将直播的第一用户显示在首位,将其他与第一分类的直播排列在搜索结果靠前的显示位置;若搜索词对应的第一未上播,则可以将其他与第一分类的正在进行直播的主播或者直播间信息显示在搜索结果靠前的显示位置。
本公开实施例中的搜索装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、UMPC(ultra-mobilepersonal computer,超级移动个人计算机)、上网本或者PDA(personal digitalassistant,个人数字助理)等,非移动电子设备可以为服务器、NAS(Network AttachedStorage,网络附属存储器)、PC(personal computer,个人计算机)、TV(television,电视机)、柜员机或者自助机等,本公开实施例不作具体限定。
本公开实施例提供的搜索装置能够实现图1至图7的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图9所示,本公开实施例还提供一种电子设备900,包括处理器901,存储器902,存储在存储器902上并可在所述处理器901上运行的程序或指令,该程序或指令被处理器901执行时实现上述搜索方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本公开实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
图10为实现本公开实施例的一种电子设备的硬件结构示意图。
该电子设备1000包括但不限于:射频单元1001、网络模块1002、音频输出单元1003、输入单元1004、传感器1005、显示单元1006、用户输入单元1007、接口单元1008、存储器1009、以及处理器1010等部件。
本领域技术人员可以理解,电子设备1000还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1010逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图10中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
本公开实施例提供一种电子设备,电子设备在获取到正在直播的主播信息和用户输入的搜索词之后,由于在搜索是采用搜索词和主播信息的搜索模型对搜索结果排序,即可以根据搜索词和每个主播信息的高阶交叉特征,与根据机器学习的高阶交叉特征对应的点击权重,将接近用户意图的搜索结果排列在靠前位置,避免仅根据搜索词和主播相关文本信息的字面重合度排序,导致主播不在线时将不接近用户搜索意图的直播显示在靠前位置,例如搜索词和主播信息的搜索模型根据机器学习到,大部分用户在搜索第一搜索词的时候是期望搜索到第一分类中的第一用户的直播,在第一用户未在线直播的情况下是期望搜索第一分类中的其他类似的用户的直播,则在用户输入第一搜索词的情况下,将直播的第一用户显示在首位,将其他与第一分类的直播排列在搜索结果靠前的显示位置;若搜索词对应的第一未上播,则可以将其他与第一分类的正在进行直播的主播或者直播间信息显示在搜索结果靠前的显示位置。
应理解的是,本公开实施例中,输入单元1004可以包括GPU(Graphics ProcessingUnit,图形处理器)1041和麦克风1042,图形处理器1041对在视频捕获模式或图像捕获模式中由图像捕获装置(如摄像头)获得的静态图片或视频的图像数据进行处理。显示单元1006可包括显示面板1061,可以采用液晶显示器、有机发光二极管等形式来配置显示面板1061。用户输入单元1007包括触控面板1071以及其他输入设备1072。触控面板1071,也称为触摸屏。触控面板1071可包括触摸检测装置和触摸控制器两个部分。其他输入设备1072可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆,在此不再赘述。存储器1009可用于存储软件程序以及各种数据,包括但不限于应用程序和操作系统。处理器1010可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器1010中。
本公开实施例还提供一种可读存储介质,所述可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述搜索方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,所述处理器为上述实施例中所述的电子设备中的处理器。所述可读存储介质,包括计算机可读存储介质,如ROM(Read-Only Memory,计算机只读存储器)、RAM(RandomAccess Memory,随机存取存储器)、磁碟或者光盘等。
本公开实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述搜索方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本公开实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
本公开实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如上述的搜索方法的步骤,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本公开实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本公开各个实施例所述的方法。
上面结合附图对本公开的实施例进行了描述,但是本公开并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本公开的启示下,在不脱离本公开宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本公开的保护之内。
Claims (10)
1.一种搜索方法,其特征在于,所述方法包括:
获取正在直播的主播信息和用户输入的第一搜索词;根据搜索词和主播信息的搜索模型,确定所述第一搜索词和每个直播的主播信息的高阶交叉特征,其中,所述搜索模型为基于BiGraph-Bert模型学习得到的,所述BiGraph-Bert模型包括BiGraph模块、嵌入向量编码模块、Cross模块、Transformer模块、Triplet Loss辅助损失模块以及概率输出模块,所述BiGraph-Bert模型的所述嵌入向量编码模块和所述Transformer模块之间连接所述Cross模块,所述BiGraph模块与所述嵌入向量编码模块连接,所述Transformer模块与所述Triplet Loss辅助损失模块连接;
基于所述高阶交叉特征,与所述高阶交叉特征对应的点击权重,排序并显示所述正在直播的主播信息;
其中,每个高阶交叉特征对应的点击权重,为基于点击样本数据和无点击样本数据学习得到的;所述BiGraph-Bert模型的样本数据包括:
基于直播客户端的曝光日志和点击日志拼接的第一样本数据,所述第一样本包括点击样本和无点击样本;
构造的搜索词和主播信息的第二样本数据;
基于直播客户端的曝光日志和点击日志召回的第三样本数据。
2.根据权利要求1所述的方法,其特征在于,所述根据搜索词和主播信息的搜索模型,确定所述第一搜索词和正在直播的主播信息的高阶交叉特征,包括:
基于所述搜索词和主播信息的搜索模型的Cross模块,确定所述第一搜索词和每个正在直播的主播信息的高阶交叉特征。
3.根据权利要求2所述的方法,其特征在于,所述获取正在直播的主播信息和用户输入的第一搜索词之前,所述方法还包括:
基于BiGraph-Bert模型的样本数据,和所述BiGraph-Bert模型,学习得到搜索词和主播信息的搜索模型;
其中,所述搜索词和主播信息的搜索模型包括:搜索词和主播信息的高阶交叉特征对应的点击权重。
4.根据权利要求3所述的方法,其特征在于,所述基于BiGraph-Bert模型的样本数据,和BiGraph-Bert模型,学习得到搜索词和主播信息的搜索模型之前,所述方法还包括:
获取直播客户端的曝光日志和点击日志;
根据所述曝光日志和所述点击日志,拼接得到所述第一样本数据。
5.根据权利要求3所述的方法,其特征在于,所述拼接得到第一样本数据之后,所述方法还包括:
根据所述第一样本数据,召回第三样本数据。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一样本数据,召回第三样本数据,包括:
将所述第一样本数据输入所述BiGraph模块,构造搜索词-主播的点击二部图;
根据所述点击二部图,召回所述第三样本数据;
其中,所述嵌入向量编码模块的输入包括所述BiGraph模块输出的所述第三样本数据。
7.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在所述Bigraph-Bert模型的样本数据经过Transformer模块处理之后,根据正样本-负样本对间的余弦相似度,确定辅助损失值,并将所述辅助损失值输入所述Transformer模块;
通过所述Transformer模块和所述辅助损失值,学习正样本和负样本的区别。
8.一种搜索装置,其特征在于,所述搜索装置包括:获取模块、计算模块和显示模块;
所述获取模块,用于获取正在直播的主播信息和用户输入的第一搜索词;
所述计算模块,用于根据搜索词和主播信息的搜索模型,确定所述第一搜索词和每个直播的主播信息的高阶交叉特征,并基于所述高阶交叉特征,与所述高阶交叉特征对应的点击权重,排序所述正在直播的主播信息,其中,所述搜索模型为基于BiGraph-Bert模型学习得到的,所述BiGraph-Bert模型包括BiGraph模块、嵌入向量编码模块、Cross模块、Transformer模块、Triplet Loss辅助损失模块以及概率输出模块,所述BiGraph-Bert模型的所述嵌入向量编码模块和所述Transformer模块之间连接所述Cross模块,所述BiGraph模块与所述嵌入向量编码模块连接,所述Transformer模块与所述Triplet Loss辅助损失模块连接;
所述显示模块,用于显示排序后的所述正在直播的主播信息;
其中,每个高阶交叉特征对应的点击权重,为基于点击样本数据和无点击样本数据学习得到的;所述BiGraph-Bert模型的样本数据包括:
基于直播客户端的曝光日志和点击日志拼接的第一样本数据,所述第一样本包括点击样本和无点击样本;
构造的搜索词和主播信息的第二样本数据;
基于直播客户端的曝光日志和点击日志召回的第三样本数据。
9.一种电子设备,其特征在于,包括处理器,存储器及存储在所述存储器上并可在所述处理器上运行的程序或指令,所述程序或指令被所述处理器执行时实现如权利要求1至7中任一项所述的搜索方法的步骤。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储程序或指令,所述程序或指令被处理器执行时实现如权利要求1至7中任一项所述的搜索方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111106362.5A CN113821723B (zh) | 2021-09-22 | 2021-09-22 | 搜索方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111106362.5A CN113821723B (zh) | 2021-09-22 | 2021-09-22 | 搜索方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113821723A CN113821723A (zh) | 2021-12-21 |
CN113821723B true CN113821723B (zh) | 2024-04-12 |
Family
ID=78915079
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111106362.5A Active CN113821723B (zh) | 2021-09-22 | 2021-09-22 | 搜索方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113821723B (zh) |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106792242A (zh) * | 2017-02-22 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN109388693A (zh) * | 2018-09-13 | 2019-02-26 | 武汉斗鱼网络科技有限公司 | 一种确定分区意图的方法以及相关设备 |
CN111160110A (zh) * | 2019-12-06 | 2020-05-15 | 北京工业大学 | 基于人脸特征和声纹特征识别主播的方法及装置 |
CN111177575A (zh) * | 2020-04-07 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 一种内容推荐方法、装置、电子设备和存储介质 |
CN111339774A (zh) * | 2020-02-07 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 文本的实体关系抽取方法和模型训练方法 |
CN111563164A (zh) * | 2020-05-07 | 2020-08-21 | 成都信息工程大学 | 一种基于图神经网络的特定目标情感分类方法 |
CN111563158A (zh) * | 2020-04-26 | 2020-08-21 | 腾讯科技(深圳)有限公司 | 文本排序方法、排序装置、服务器和计算机可读存储介质 |
CN111814471A (zh) * | 2020-07-21 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、电子设备及存储介质 |
CN112529153A (zh) * | 2020-12-03 | 2021-03-19 | 平安科技(深圳)有限公司 | 基于卷积神经网络的bert模型的微调方法及装置 |
CN112560049A (zh) * | 2020-12-28 | 2021-03-26 | 苏州极光无限信息技术有限公司 | 一种漏洞检测方法、装置和存储介质 |
CN112579899A (zh) * | 2020-12-21 | 2021-03-30 | 杭州米络星科技(集团)有限公司 | 一种主播的搜索方法和装置 |
CN112685648A (zh) * | 2021-01-21 | 2021-04-20 | 深圳市欢太科技有限公司 | 一种资源推荐方法、电子设备及计算机可读存储介质 |
CN112905906A (zh) * | 2021-01-25 | 2021-06-04 | 浙江大学 | 一种融合局部协同与特征交叉的推荐方法及系统 |
CN113343126A (zh) * | 2021-08-06 | 2021-09-03 | 四川大学 | 基于事件与传播结构的谣言检测方法 |
CN116010681A (zh) * | 2022-12-30 | 2023-04-25 | 拉扎斯网络科技(上海)有限公司 | 一种召回模型的训练及检索方法、装置及电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11526808B2 (en) * | 2019-05-29 | 2022-12-13 | The Board Of Trustees Of The Leland Stanford Junior University | Machine learning based generation of ontology for structural and functional mapping |
-
2021
- 2021-09-22 CN CN202111106362.5A patent/CN113821723B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106792242A (zh) * | 2017-02-22 | 2017-05-31 | 百度在线网络技术(北京)有限公司 | 用于推送信息的方法和装置 |
CN109388693A (zh) * | 2018-09-13 | 2019-02-26 | 武汉斗鱼网络科技有限公司 | 一种确定分区意图的方法以及相关设备 |
CN111160110A (zh) * | 2019-12-06 | 2020-05-15 | 北京工业大学 | 基于人脸特征和声纹特征识别主播的方法及装置 |
CN111339774A (zh) * | 2020-02-07 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 文本的实体关系抽取方法和模型训练方法 |
CN111177575A (zh) * | 2020-04-07 | 2020-05-19 | 腾讯科技(深圳)有限公司 | 一种内容推荐方法、装置、电子设备和存储介质 |
CN111563158A (zh) * | 2020-04-26 | 2020-08-21 | 腾讯科技(深圳)有限公司 | 文本排序方法、排序装置、服务器和计算机可读存储介质 |
CN111563164A (zh) * | 2020-05-07 | 2020-08-21 | 成都信息工程大学 | 一种基于图神经网络的特定目标情感分类方法 |
CN111814471A (zh) * | 2020-07-21 | 2020-10-23 | 腾讯科技(深圳)有限公司 | 一种信息处理方法、装置、电子设备及存储介质 |
CN112529153A (zh) * | 2020-12-03 | 2021-03-19 | 平安科技(深圳)有限公司 | 基于卷积神经网络的bert模型的微调方法及装置 |
CN112579899A (zh) * | 2020-12-21 | 2021-03-30 | 杭州米络星科技(集团)有限公司 | 一种主播的搜索方法和装置 |
CN112560049A (zh) * | 2020-12-28 | 2021-03-26 | 苏州极光无限信息技术有限公司 | 一种漏洞检测方法、装置和存储介质 |
CN112685648A (zh) * | 2021-01-21 | 2021-04-20 | 深圳市欢太科技有限公司 | 一种资源推荐方法、电子设备及计算机可读存储介质 |
CN112905906A (zh) * | 2021-01-25 | 2021-06-04 | 浙江大学 | 一种融合局部协同与特征交叉的推荐方法及系统 |
CN113343126A (zh) * | 2021-08-06 | 2021-09-03 | 四川大学 | 基于事件与传播结构的谣言检测方法 |
CN116010681A (zh) * | 2022-12-30 | 2023-04-25 | 拉扎斯网络科技(上海)有限公司 | 一种召回模型的训练及检索方法、装置及电子设备 |
Non-Patent Citations (2)
Title |
---|
cqu_shuai.Graph-Bert:无所不能的Bert在图上也能发光发热?.《https://blog.csdn.net/ beilizhang/article/details/ 111027283? ops_request_misc=& request_id=&biz_id=102&utm_term=graph,bert,cross&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-111027283.142^v91^control,239^v3^control&spm=1018.2226.3001.4187》.2020,1-2. * |
Weifeng Ge 等.Deep Metric Learning with Hierarchical Triplet Loss.《Computer Vision – ECCV 2018》.2018,272–288. * |
Also Published As
Publication number | Publication date |
---|---|
CN113821723A (zh) | 2021-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444428B (zh) | 基于人工智能的信息推荐方法、装置、电子设备及存储介质 | |
CN111931062B (zh) | 一种信息推荐模型的训练方法和相关装置 | |
CN111581510A (zh) | 分享内容处理方法、装置、计算机设备和存储介质 | |
CN113301442B (zh) | 确定直播资源的方法、设备、介质及程序产品 | |
CN110234018B (zh) | 多媒体内容描述生成方法、训练方法、装置、设备及介质 | |
CN111783903B (zh) | 文本处理方法、文本模型的处理方法及装置、计算机设备 | |
CN110597962A (zh) | 搜索结果展示方法、装置、介质及电子设备 | |
CN112989212B (zh) | 媒体内容推荐方法、装置和设备及计算机存储介质 | |
CN113722478B (zh) | 多维度特征融合相似事件计算方法、系统及电子设备 | |
CN110147494A (zh) | 信息搜索方法、装置,存储介质及电子设备 | |
CN112183881A (zh) | 一种基于社交网络的舆情事件预测方法、设备及存储介质 | |
CN113254684A (zh) | 一种内容时效的确定方法、相关装置、设备以及存储介质 | |
CN116186326A (zh) | 视频推荐方法、模型训练方法、电子设备及存储介质 | |
CN115775349A (zh) | 基于多模态融合的假新闻检测方法和装置 | |
WO2023231753A1 (zh) | 一种神经网络的训练方法、数据的处理方法以及设备 | |
CN116910357A (zh) | 一种数据处理方法及相关装置 | |
CN113821723B (zh) | 搜索方法、装置及电子设备 | |
CN116977701A (zh) | 视频分类模型训练的方法、视频分类的方法和装置 | |
CN116956183A (zh) | 多媒体资源推荐方法、模型训练方法、装置及存储介质 | |
CN116958852A (zh) | 视频与文本的匹配方法、装置、电子设备和存储介质 | |
CN114282094A (zh) | 一种资源排序方法、装置、电子设备和存储介质 | |
CN115878839A (zh) | 一种视频推荐方法、装置、计算机设备和计算机程序产品 | |
CN113486142A (zh) | 一种基于义原的词语语义的预测方法及计算机设备 | |
WO2020151318A1 (zh) | 基于爬虫模型的语料构建方法、装置及计算机设备 | |
CN118035945B (zh) | 一种标签识别模型的处理方法和相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |