CN110532469B - 一种信息推荐方法、装置、设备及存储介质 - Google Patents
一种信息推荐方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN110532469B CN110532469B CN201910791483.4A CN201910791483A CN110532469B CN 110532469 B CN110532469 B CN 110532469B CN 201910791483 A CN201910791483 A CN 201910791483A CN 110532469 B CN110532469 B CN 110532469B
- Authority
- CN
- China
- Prior art keywords
- information
- user
- model
- data
- characteristic data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种信息推荐方法、装置、设备及存储介质。其中,该方法包括:获取目标用户的特征数据;根据用户的特征数据和包括注意力机制网络层的第一模型确定目标用户的目标信息;将目标信息推荐给目标用户。这样在向用户推荐信息时,可以考虑到用户兴趣的多样化,从而可以全面的衡量信息与用户之间的关联性,更加精准地向用户推荐信息。
Description
技术领域
本发明实施例涉及信息处理技术,尤其涉及一种信息推荐方法、装置、设备及存储介质。
背景技术
在信息推荐系统中,经常采用深度学习模型向用户推荐信息,例如,常见的深度矩阵分解(Deep Matrix Factorization,DMF)模型。该模型主要根据用户的历史播放数据的平均值确定用户对某信息感兴趣的程度。
但是,用户的兴趣是多样化的,例如,用户既喜欢信息A又喜欢信息B,但当信息A和信息B的相关性比较弱时,现有模型通过计算信息A和信息B之间的向量平均值来判断用户对信息A和信息B感兴趣的程度,并不能全面、准确地衡量这些信息与用户之间的关联性。
发明内容
本发明提供一种信息推荐方法、装置、设备及存储介质,能够考虑到用户兴趣的多样化,从而可以全面的衡量信息与用户之间的关联性,更加精准地向用户推荐信息。
第一方面,本发明实施例提供了一种信息推荐方法,该方法包括:
获取目标用户的特征数据;
根据特征数据和第一模型确定目标用户的目标信息;
其中,第一模型包括注意力机制网络层;
将目标信息推荐给目标用户。
第二方面,本发明实施例还提供了一种信息推荐装置,该装置包括:
获取模块,用于获取目标用户的特征数据;
确定模块,用于根据特征数据和第一模型确定目标用户的目标信息;
其中,第一模型包括注意力机制网络层;
推荐模块,用于将目标信息推荐给目标用户。
第三方面,本发明实施例还提供了一种信息推荐设备,该设备包括:
存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,当处理器执行计算机程序时,实现如本发明第一方面提供的信息推荐方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,当该计算机程序被处理器执行时,实现如本发明第一方面提供的信息推荐方法。
本发明实施例提供了一种信息推荐方法、装置、设备及存储介质,通过获取的目标用户的特征数据和包括有注意力机制网络层的第一模型,确定目标用户的目标信息,并将该目标信息推荐给目标用户。这样在向用户推荐信息时,可以考虑到用户兴趣的多样化,从而可以全面的衡量信息与用户之间的关联性,更加精准地向用户推荐信息。
附图说明
图1是本发明实施例一中的信息推荐方法流程图;
图2是本发明实施例二中的信息推荐装置结构示意图;
图3是本发明实施例三中的信息推荐设备结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
另外,在本发明实施例中,“可选地”或者“示例性地”等词用于表示作例子、例证或说明。本发明实施例中被描述为“可选地”或者“示例性地”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“可选地”或者“示例性地”等词旨在以具体方式呈现相关概念。
实施例一
本发明实施例提供了一种信息推荐方法,其具体实现方式如图1所示,包括:
S101、获取目标用户的特征数据。
当用户在某个对象上有访问痕迹时,例如,用户在某网站上浏览了论文,或者在某播放平台播放了电影、专辑等,可以通过后台的数据库获取该用户的特征数据,该用户也即为目标用户。
示例性地,用户的特征数据可以为用户的年龄、性别、用户搜索词等,本发明实施例对此不作限定。
需要说明的是,上述获取用户特征数据的方式可以采用现有技术中的任意一种实现方式,本发明实施例对此不作限定。
S102、根据特征数据和第一模型确定目标用户的目标信息。
在获取到目标用户的特征数据之后,可以根据该用户的特征数据与第一模型确定该用户的目标信息。
其中,第一模型包括注意力机制网络层,该注意力机制网络层用于对重要信息进行重点关注,并进行学习吸收,以衡量当前信息与用户历史关注信息之间的相关程度。
示例性地,该注意力机制网络层可以为自然语言处理(Natural LanguageProcess,NLP)中的一种注意力(Attention)机制。
另外,第一模型可以根据从数据库中提取的特征数据训练获得。
可选地,本发明实施例提供一种获得第一模型的实现方式为;
第一步、构建第二模型。
示例性地,构建的第二模型可以为深度矩阵分解(Deep Matrix Factorization,DMF)模型,该DMF模型包括用户网络和信息网络两部分。
另外,第二模型还包括注意力机制网络层。
当然,本领域技术人员也可以选用其他模型,但选用的模型同样需包括有用户网络和信息网络两部分以及注意力机制网络层。
第二步、根据历史播放日志生成训练数据。
其中,训练数据包括有至少一个用户标识(Identification,ID)和至少两个信息ID。
例如,可以根据用户的历史播放日志获取该用户的历史播放数据,其中,历史播放数据可以为用户注册某网站的ID、访问对象(即信息)的ID等,进而基于这些历史播放数据生成该用户的训练数据。
可以理解的是,当多个用户访问了多个对象,例如播放了多部电影或者收听了多个专辑时,可以获取到多个用户的历史播放日志,进而生成多个用户和多个信息的训练数据。
第三步、根据训练数据从数据库中提取用户的特征数据和信息的特征数据。
在获取到训练数据之后,可以根据该训练数据中的用户ID和信息ID从数据库中提取与用户ID对应的用户的特征数据和与信息ID对应的信息的特征数据。
上述用户的特征数据可以包括用户的年龄、性别、用户搜索词、用户访问列表等,信息的特征数据可以包括信息类别、标题等。
第四步、对用户的特征数据和信息的特征数据进行处理,获得用户输入特征数据和信息输入特征数据。
可选地,本发明实施例提供一种获得信息输入特征数据的实现方式为:
对从数据库中依次提取的至少两个信息中最后一个信息的特征数据进行独热(one-hot)编码。
具体地,可以是对从数据库中提取的最后一个信息的特征数据中的离散特征(例如,信息类别等)进行one-hot编码。
进而,将经过one-hot编码后的离散特征进行拼接得到信息输入特征数据。
另外,本发明实施例提供一种获得用户输入特征数据的可选实现方式为:
对从数据库中依次提取的至少两个信息的特征数据进行one-hot编码;
示例性地,可以对上述至少两个信息的特征数据中的离散特征进行one-hot编码。
将经过one-hot编码的其余信息的离散特征进行拼接,并输入第二模型中,得到信息的特征向量序列。
具体地,可以将拼接后的特征数据输入第二模型的信息网络中,得到信息的特征向量序列。
进而,将该信息的特征向量序列中最后一个特征向量分别与除最后一个特征向量的其余特征向量做内积计算,并将得到的至少一个内积计算结果进行函数处理,得到权重序列。
示例性地,可以将至少一个内积计算结果进行归一化指数函数(softmax)处理,得到权重序列。
其中,权重序列中包含有各个信息的特征向量的权重。
进一步地,根据权重序列计算信息的特征向量序列中所有信息的特征向量的加权平均值,将得到的加权平均值确定为第一特征数据。
对用户的特征数据进行one-hot编码。
具体地,可以是对用户的特征数据中的离散特征(例如,用户的年龄、性别等)进行编码。
将编码后的用户的特征数据与第一特征数据进行拼接,得到用户输入特征数据。
第五步、根据用户输入特征数据和信息输入特征数据训练第二模型。
在经过第四步的处理之后,将得到的信息输入特征数据与用户输入特征数据作为输入数据,分别输入至第二模型的信息网络和用户网络中,对第二模型进行训练。
第六步、将训练后的第二模型确定为第一模型。
在训练过程中,本领域技术人员可以根据实际需求对模型参数进行设置。例如,测试的用户数量、输入的样本个数等。
在第二模型训练达到预期要求时,将该训练后的第二模型确定为第一模型。
可以理解的是,由于第一模型是经过对第二模型的训练得到的。因此,第二模型与第一模型的网络结构相同。
S103、将目标信息推荐给目标用户。
基于训练好的第一模型确定用户的目标信息,例如,用户喜欢观看的某部电影,或者喜欢收听的某个专辑等,将该目标信息推荐给用户。
本发明实施例提供了一种信息推荐方法,通过获取的目标用户的特征数据和包括有注意力机制网络层的第一模型,确定目标用户的目标信息,并将该目标信息推荐给目标用户。这样在向用户推荐信息时,可以考虑到用户兴趣的多样化,从而可以全面的衡量信息与用户之间的关联性,更加精准地向用户推荐信息。
实施例二
本发明实施例提供了一种信息推荐装置,如图2所示,该装置包括:获取模块201、确定模块202、推荐模块203。
其中,获取模块201,用于获取目标用户的特征数据;
确定模块202,用于根据特征数据和第一模型确定目标用户的目标信息,其中,第一模型包括注意力机制网络层;
推荐模块203,用于将目标信息推荐给目标用户。
进一步地,确定上述第一模型,包括:
构建第二模型,其中,该第二模型可以为包括用户网络和信息网络两部分的模型;
另外,第二模型还包括注意力机制网络层。
根据历史播放日志生成训练数据,其中,训练数据包括至少一个用户ID和至少两个信息ID;
根据训练数据从数据库中提取用户的特征数据和信息的特征数据;
对用户的特征数据和信息的特征数据进行处理,获得用户输入特征数据和信息输入特征数据;
根据用户输入特征数据和信息输入特征数据训练第二模型;
进一步地,可以将用户输入特征数据和信息输入特征数据分别输入到第二模型的用户网络和信息网络中,对第二模型进行训练。
将训练后的第二模型确定为第一模型。
可以理解的是,由于第一模型是基于用户输入特征数据和信息输入特征数据对第二模型训练获得的,因此,第二模型与第一模型的网络结构相同。
其中,上述对信息的特征数据进行处理,获得信息输入特征数据,包括:
对从数据库中依次提取的至少两个信息中最后一个信息的特征数据进行one-hot编码;
示例性地,上述编码过程可以为对最后一个信息的特征数据中的离散特征进行编码,例如,信息的信息类别等。
将经过one-hot编码的信息的特征数据进行拼接得到信息输入特征数据。
上述对用户的特征数据进行处理,获得用户输入特征数据,包括:
对从数据库中依次提取的至少两个信息的特征数据进行one-hot编码;
示例性地,可以对至少两个信息的特征数据中的离散特征进行one-hot编码。
将经过one-hot编码的信息的特征数据进行拼接;
将拼接后的信息的特征数据输入第二模型的信息网络中,得到信息的特征向量序列;
将信息的特征向量序列中最后一个特征向量分别与除最后一个特征向量的其余特征向量做内积计算,并将得到的至少一个内积计算结果进行函数处理,得到权重序列。
示例性地,上述函数处理可以采用归一化指数函数(softmax)进行处理。
根据权重序列中与各个信息的特征向量所对应的权重,计算信息的特征向量序列中所有信息的特征向量的加权平均值,将得到的加权平均值确定为第一特征数据。
对用户的特征数据中的离散特征进行one-hot编码;
将第一特征数据与经过独热编码的用户的特征数据进行拼接得到用户输入特征数据。
本发明实施例所提供的信息推荐装置可执行本发明实施例一所提供的信息推荐方法,具备执行方法相应的功能模块和有益效果。
实施例三
图3为本发明实施例3提供的一种信息推荐设备的结构示意图,如图3所示,该设备包括处理器301、存储器302、输入装置303和输出装置304;设备中处理器301的数量可以是一个或多个,图3中以一个处理器301为例;设备中的处理器301、存储器302、输入装置303和输出装置304可以通过总线或其他方式连接,图3中以通过总线连接为例。
存储器302作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例一中的信息推荐方法对应的程序指令/模块(例如,信息推荐装置中的获取模块201、确定模块202、推荐模块203)。处理器301通过运行存储在存储器302中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的信息推荐方法。
存储器302可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器302可进一步包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至设备/终端/服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。
实施例四
本发明实施例四还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种信息推荐方法,该方法包括:
获取目标用户的特征数据;
根据特征数据和第一模型确定目标用户的目标信息;
其中,第一模型包括时序网络层;
将目标信息推荐给所述目标用户。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的信息推荐方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述信息推荐装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (9)
1.一种信息推荐方法,其特征在于,包括:
获取目标用户的特征数据;
根据所述特征数据和第一模型确定所述目标用户的目标信息;
其中,所述第一模型包括注意力机制网络层;
将所述目标信息推荐给所述目标用户;
获取所述第一模型,包括:
构建第二模型,所述第二模型与所述第一模型的网络结构相同;
根据播放日志生成训练数据;
根据所述训练数据从所述数据库中提取用户的特征数据和信息的特征数据;
对所述用户的特征数据和信息的特征数据进行处理,获得用户输入特征数据和信息输入特征数据;
根据所述用户输入特征数据和信息输入特征数据训练所述第二模型;
将训练后的第二模型确定为所述第一模型;
所述第二模型为深度矩阵分解模型,所述第二模型包括用户网络和信息网络以及注意力机制网络层。
2.根据权利要求1所述的信息推荐方法,其特征在于,所述训练数据包括至少一个用户标识ID和至少两个信息ID;
所述根据所述训练数据从数据库中提取用户的特征数据和信息的特征数据,包括:
根据所述至少一个标签从数据库中依次提取与所述至少一个用户ID对应的用户的特征数据和与所述至少一个信息ID对应的信息的特征数据。
3.根据权利要求1所述的信息推荐方法,其特征在于,对所述信息的特征数据进行处理,获得信息输入特征数据,包括:
对从数据库中依次提取的至少两个信息中最后一个信息进行独热编码;
将经过独热编码的信息的特征数据进行拼接得到信息输入特征数据。
4.根据权利要求1所述的信息推荐方法,其特征在于,对所述用户的特征数据进行处理,获得用户输入特征数据,包括:
对用户的特征数据进行独热编码;
将第一特征数据与经过独热编码的用户的特征数据进行拼接得到用户输入特征数据,所述第一特征数据在注意力机制网络层中计算获得。
5.根据权利要求4所述的信息推荐方法,其特征在于,在注意力机制网络层中计算获得第一特征数据,包括:
将信息的特征向量序列中最后一个特征向量分别与除最后一个特征向量的其余特征向量做内积计算;
将得到的至少一个内积计算结果进行函数处理,得到权重序列;
根据所述权重序列,计算所述信息的特征向量序列中各个特征向量的加权平均值,将所述加权平均值确定为所述第一特征数据。
6.根据权利要求5所述的信息推荐方法,其特征在于,获取信息的特征向量序列,包括:
对从数据中依次提取的至少两个信息的特征数据进行独热编码;
将经过独热编码后的信息的特征数据进行拼接;
将拼接后的信息的特征数据输入第二模型中,得到信息的特征向量序列。
7.一种信息推荐装置,其特征在于,包括:
获取模块,用于获取目标用户的特征数据;
确定模块,用于根据所述特征数据和第一模型确定目标用户的目标信息;
其中,所述第一模型包括注意力机制网络层;
推荐模块,用于将所述目标信息推荐给所述目标用户;
所述装置包括,模型确定模块,用于构建第二模型,所述第二模型与所述第一模型的网络结构相同;
根据播放日志生成训练数据;
根据所述训练数据从所述数据库中提取用户的特征数据和信息的特征数据;
对所述用户的特征数据和信息的特征数据进行处理,获得用户输入特征数据和信息输入特征数据;
根据所述用户输入特征数据和信息输入特征数据训练所述第二模型;
将训练后的第二模型确定为所述第一模型;
所述第二模型为深度矩阵分解模型,所述第二模型包括用户网络和信息网络以及注意力机制网络层。
8.一种信息推荐设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时,实现如权利要求1-6任一项所述的信息推荐方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时,实现如权利要求1-6中任一项所述的信息推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791483.4A CN110532469B (zh) | 2019-08-26 | 2019-08-26 | 一种信息推荐方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910791483.4A CN110532469B (zh) | 2019-08-26 | 2019-08-26 | 一种信息推荐方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110532469A CN110532469A (zh) | 2019-12-03 |
CN110532469B true CN110532469B (zh) | 2023-06-27 |
Family
ID=68664400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910791483.4A Active CN110532469B (zh) | 2019-08-26 | 2019-08-26 | 一种信息推荐方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110532469B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112925963B (zh) * | 2019-12-06 | 2022-11-22 | 杭州海康威视数字技术股份有限公司 | 数据推荐方法和装置 |
CN111046285B (zh) * | 2019-12-11 | 2023-04-25 | 拉扎斯网络科技(上海)有限公司 | 一种推荐排序确定方法、装置、服务器及存储介质 |
CN113365115B (zh) * | 2020-03-03 | 2022-11-04 | 北京达佳互联信息技术有限公司 | 特征编码的确定方法、装置、服务器和存储介质 |
CN111400594B (zh) * | 2020-03-13 | 2023-05-09 | 喜丈(上海)网络科技有限公司 | 一种信息向量确定方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109087130A (zh) * | 2018-07-17 | 2018-12-25 | 深圳先进技术研究院 | 一种基于注意力机制的推荐系统及推荐方法 |
CN110008409A (zh) * | 2019-04-12 | 2019-07-12 | 苏州市职业大学 | 基于自注意力机制的序列推荐方法、装置及设备 |
US20190222899A1 (en) * | 2017-04-21 | 2019-07-18 | Tencent Technology (Shenzhen) Company Limited | Media content recommendation method, server, client, and storage medium |
-
2019
- 2019-08-26 CN CN201910791483.4A patent/CN110532469B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190222899A1 (en) * | 2017-04-21 | 2019-07-18 | Tencent Technology (Shenzhen) Company Limited | Media content recommendation method, server, client, and storage medium |
CN109087130A (zh) * | 2018-07-17 | 2018-12-25 | 深圳先进技术研究院 | 一种基于注意力机制的推荐系统及推荐方法 |
CN110008409A (zh) * | 2019-04-12 | 2019-07-12 | 苏州市职业大学 | 基于自注意力机制的序列推荐方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110532469A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110532469B (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN107451199B (zh) | 问题推荐方法及装置、设备 | |
CN111061946A (zh) | 场景化内容推荐方法、装置、电子设备及存储介质 | |
WO2016044028A1 (en) | Query rewriting using session information | |
CN111125521A (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN109388743B (zh) | 语言模型的确定方法和装置 | |
CN110991187A (zh) | 一种实体链接的方法、装置、电子设备及介质 | |
CN111209477B (zh) | 一种信息推荐的方法及装置、电子设备、存储介质 | |
CN103761254A (zh) | 多领域服务主题匹配推荐方法 | |
CN110597962A (zh) | 搜索结果展示方法、装置、介质及电子设备 | |
CN110598109A (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN110781396A (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN112328778A (zh) | 确定用户特征和模型训练的方法、装置、设备及介质 | |
CN114239805A (zh) | 跨模态检索神经网络及训练方法、装置、电子设备、介质 | |
CN110909258B (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN110516162A (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN110827078B (zh) | 一种信息推荐方法、装置、设备及存储介质 | |
CN111368195B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN113705792A (zh) | 基于深度学习模型的个性化推荐方法、装置、设备及介质 | |
CN113836390B (zh) | 资源推荐方法、装置、计算机设备及存储介质 | |
CN113392321A (zh) | 一种信息推荐方法、装置、电子设备及存储介质 | |
CN111507471B (zh) | 一种模型训练方法、装置、设备及存储介质 | |
CN116956183A (zh) | 多媒体资源推荐方法、模型训练方法、装置及存储介质 | |
CN113704452B (zh) | 基于Bert模型的数据推荐方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |