CN114676307A - 基于用户检索的排序模型训练方法、装置、设备及介质 - Google Patents
基于用户检索的排序模型训练方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114676307A CN114676307A CN202210423251.5A CN202210423251A CN114676307A CN 114676307 A CN114676307 A CN 114676307A CN 202210423251 A CN202210423251 A CN 202210423251A CN 114676307 A CN114676307 A CN 114676307A
- Authority
- CN
- China
- Prior art keywords
- document
- vector
- search
- participles
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
Abstract
本发明涉及模型构建领域,揭露一种基于用户检索的排序模型训练方法,包括:对训练检索词和多个公共文档进行分词处理,利用第一排序模型对处理后的分词排序,得到排序集合;将训练检索词分别与排序集合中的文档及检索文档进行文本拼接和向量化,得到多个拼接排序文档向量和拼接检索文档向量;利用第二排序模型计算得到多个拼接排序文档向量对应的第一输出结果和拼接检索文档向量对应的第二输出结果,根据第一输出结果和第二输出结果计算得到的损失值优化第二排序模型,将优化的第二排序模型和第一排序模型作为标准排序模型输出。本发明还提出一种基于用户检索的排序模型训练装置、设备以及介质。本发明可以提高文档排序结果的相关性和准确性。
Description
技术领域
本发明涉及模型构建领域领域,尤其涉及一种基于用户检索的排序模型训练方法、装置、设备及介质。
背景技术
目前,很多应用平台都具有搜索功能,平台根据用户输入的搜索语句(Query)返回搜索结果时,通常会呈现出排序后的搜索结果。其中这些搜索结果可以为新闻、网页、广告等文档。现有技术中,一般采用倒排索引或者语义相似度计算对文档进行检索,虽然该方法可以解决大多数的检索需求,但是仍然存在着文档内容相关程度与检索排名不够匹配,检索呈现的排序结果不够准确的问题;在依靠用户点击率进行文档排序、搜索系统冷启动的情况下,基于搜索内容的文档排序呈现的结果相关性和准确性较低。
发明内容
本发明提供一种基于用户检索的排序模型训练方法、装置、设备及介质,其主要目的在于解决基于搜索内容的文档排序呈现的结果相关性和准确性较低的问题。
为实现上述目的,本发明提供的一种基于用户检索的排序模型训练方法,包括:
获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
可选地,所述对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词,包括:
利用分词器对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到所述训练检索词对应的第一分词以及多个所述公共文档对应的第二分词;
根据预设的词性表和停用词表删除所述第一分词和多个所述第二分词的特定分词,得到所述训练检索词对应的第一目标分词以及多个所述公共文档对应的第二目标分词;
删除所述第一目标分词和所述多个第二目标分词中的标点符号,得到检索分词及多个公共文档分词。
可选地,所述根据预设的词性表和停用词表删除所述第一分词和多个所述第二分词的特定分词,得到所述训练检索词对应的第一目标分词以及多个所述公共文档对应的第二目标分词,包括:
获取需删除的词性标签,并根据所述需删除的词性标签提取所述词性表中对应的分词;
提取所述停用词表中对应的分词;
从所述第一分词和多个所述第二分词中删除与所述词性表中对应的分词及所述停用词表中对应的分词相同的分词,得到所述第一目标分词和所述多个第二目标分词。
可选地,所述利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵,包括:
对所述检索分词和多个所述公共文档分词进行向量转换,得到第一向量集和多个第二向量集,并分别对所述第一向量集和多个所述第二向量集中的向量进行位置编码,得到所述检索分词对应的第一定位向量集以及多个所述公共文档分词对应的第二定位向量集;
对所述第一定位向量集及多个所述第二定位向量集进行矩阵转换,并根据矩阵转换的结果、所述第一定位向量集及多个所述第二定位向量集计算,得到检索矩阵及多个公共文档矩阵。
可选地,所述分别对所述第一向量集和多个所述第二向量集中的向量进行位置编码,包括:
提取所述第一向量集和多个所述第二向量集中的向量,从所述第一向量集和多个所述第二向量集中分别选取预设位置的向量作为坐标原点;
根据所述坐标原点,建立每个向量的位置向量,利用所述位置向量对所述第一向量集和多个所述第二向量集执行位置编码。
可选地,所述对所述第一定位向量集及多个所述第二定位向量集进行矩阵转换,并根据矩阵转换的结果、所述第一定位向量集及多个所述第二定位向量集计算,得到检索矩阵及多个公共文档矩阵,包括:
将所述第一定位向量集及多个所述第二定位向量集转换为第一定位向量矩阵及多个第二定位向量矩阵,并根据所述第一定位向量矩阵及多个所述第二定位向量矩阵的维度,生成第一分类迭代转换矩阵和多个第二分类迭代转换矩阵;
利用预构建的指数归一化函数、所述第一定位向量矩阵和所述第一分类迭代转换矩阵计算,得到与所述第一定位向量集对应的第一原始向量相关矩阵;
利用所述指数归一化函数、多个所述第二定位向量矩阵和多个所述第二分类迭代转换矩阵计算,得到与多个所述第二定位向量集对应的第二原始向量相关矩阵;
利用所述第一原始向量相关矩阵和所述第一定位向量矩阵,调节预构建的前馈神经网络中的迭代权重因子,得到检索矩阵;
利用多个所述第二原始向量相关矩阵和对应的多个所述第二定位向量矩阵,调节所述迭代权重因子,得到多个公共文档矩阵。
可选地,所述将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,包括:
从所述排序文档中选取一个文档作为目标文档,将所述目标文档划分为多个文本片段;
获取文本片段的平均句长,并根据预设的语义模型和所述训练检索词对多个所述文本片段进行打分;
根据所述平均句长、打分的结果对所述目标文档和所述训练检索词进行拼接,得到目标拼接文档;
对多个所述文本片段进行词频统计,根据词频统计的结果和打分的结果设置多个所述文本片段中的分词的权值,并根据所述权值生成多个所述文本片段的向量矩阵。
为了解决上述问题,本发明还提供一种基于用户检索的排序模型训练装置,所述装置包括:
分词生成模块,用于获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
向量矩阵生成模块,用于利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
第一排序模型计算模块,用于将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
拼接检索文档向量生成模块,用于将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
第二排序模型计算模块,用于分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
标准排序模块生成模块,用于利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述所述的基于用户检索的排序模型训练方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的基于用户检索的排序模型训练方法。
本发明实施例通过第一排序模型根据检索词和文档集合中的公共文档进行第一次计算,实现了文档集合中文档的初次排序,以及通过第二排序模型根据检索词、检索文档和排序后的文档进行第二次计算,再根据第二次计算的结果计算损失值,优化排序模型,提高了文档排序的准确性;通过优化后的模型可以实现根据检索词的两次排序,保证了在用户正常检索过程中以及在无用户点击或系统冷启动情况下,文档排序结果的相关性和准确性。因此本发明提出的基于用户检索的排序模型训练方法、装置、电子设备及计算机可读存储介质,可以解决进行基于搜索内容的文档排序呈现的结果相关性和准确性较低的问题。
附图说明
图1为本发明一实施例提供的基于用户检索的排序模型训练方法的流程示意图;
图2为本发明一实施例提供的生成检索分词及多个公共文档分词的流程示意图;
图3为本发明一实施例提供的删除第一分词和多个第二分词的特定分词的流程示意图;
图4为本发明一实施例提供的生成检索矩阵及多个公共文档矩阵的流程示意图;
图5为本发明一实施例提供的对向量集进行位置编码的流程示意图;
图6为本发明一实施例提供的对向量集进行矩阵转换的流程示意图;
图7为本发明一实施例提供的对训练检索词和排序文档进行文本拼接和向量化的流程示意图;
图8为本发明一实施例提供的基于用户检索的排序模型训练装置的功能模块图;
图9为本发明一实施例提供的实现所述基于用户检索的排序模型训练方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种基于用户检索的排序模型训练方法。所述基于用户检索的排序模型训练方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述基于用户检索的排序模型训练方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDeliveryNetwork,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的基于用户检索的排序模型训练方法的流程示意图。在本实施例中,所述基于用户检索的排序模型训练方法包括以下步骤S1-S6:
S1、获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词。
本发明实施例中,所述训练检索词可以为搜索关键词或者搜索语句,所述训练检索词对应的检索文档可以为所述训练检索词对应的契合文档或最优文档。
本发明实施例中,可以利用具有抓取功能的计算机语句(如java语句、python语句等)从预先构建的用于存储各类训练检索词和对应的检索文档的存储区域中获取所述训练检索词和所述检索文档,所述存储区域包括但不限于图像库、区块链节点、网络缓存等。
本发明实施例中,请参阅图2所示,所述对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词,包括以下步骤S21-S23:
S21、利用分词器对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到所述训练检索词对应的第一分词以及多个所述公共文档对应的第二分词;
S22、根据预设的词性表和停用词表删除所述第一分词和多个所述第二分词的特定分词,得到所述训练检索词对应的第一目标分词以及多个所述公共文档对应的第二目标分词;
S23、删除所述第一目标分词和所述多个第二目标分词中的标点符号,得到检索分词及多个公共文档分词。
具体地,请参阅图3所示,所述根据预设的词性表和停用词表删除所述第一分词和多个所述第二分词的特定分词,得到所述训练检索词对应的第一目标分词以及多个所述公共文档对应的第二目标分词,包括以下步骤S31-S33:
S31、获取需删除的词性标签,并根据所述需删除的词性标签提取所述词性表中对应的分词;
S32、提取所述停用词表中对应的分词;
S33、从所述第一分词和多个所述第二分词中删除与所述词性表中对应的分词及所述停用词表中对应的分词相同的分词,得到所述第一目标分词和所述多个第二目标分词。
本发明实施例中,所述分词器包括但不限于结巴分词器;所述词性表中的词性包括形容词、副词等。
S2、利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵。
本发明实施例中,所述第一排序模包括但不限于神经网络模型、BERT模型;通过所述第一排序模型对所述检索分词和多个所述公共文档进行编码和矩阵转换,从而进一步实现对多个公共文档的初次排序。
本发明实施例中,请参阅图4所示,所述利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵,包括以下步骤S41-S42:
S41、对所述检索分词和多个所述公共文档分词进行向量转换,得到第一向量集和多个第二向量集,并分别对所述第一向量集和多个所述第二向量集中的向量进行位置编码,得到所述检索分词对应的第一定位向量集以及多个所述公共文档分词对应的第二定位向量集;
S42、对所述第一定位向量集及多个所述第二定位向量集进行矩阵转换,并根据矩阵转换的结果、所述第一定位向量集及多个所述第二定位向量集计算,得到检索矩阵及多个公共文档矩阵。
具体地,本发明实施例可采用Word2vec算法,将所述检索分词和多个所述公共文档分词中的所有分词进行向量转换。
进一步地,请参阅图5所示,所述分别对所述第一向量集和多个所述第二向量集中的向量进行位置编码,包括以下步骤S51-S52:
S51、提取所述第一向量集和多个所述第二向量集中的向量,从所述第一向量集和多个所述第二向量集中分别选取预设位置的向量作为坐标原点;
S52、根据所述坐标原点,建立每个向量的位置向量,利用所述位置向量对所述第一向量集和多个所述第二向量集执行位置编码。
具体地,本发明实施例中向量离预设位置的向量越远,则所述向量对应的位置向量的模越大。
本发明实施例中,请参阅图6所示,所述对所述第一定位向量集及多个所述第二定位向量集进行矩阵转换,并根据矩阵转换的结果、所述第一定位向量集及多个所述第二定位向量集计算,得到检索矩阵及多个公共文档矩阵,包括以下步骤S61-S65:
S61、将所述第一定位向量集及多个所述第二定位向量集转换为第一定位向量矩阵及多个第二定位向量矩阵,并根据所述第一定位向量矩阵及多个所述第二定位向量矩阵的维度,生成第一分类迭代转换矩阵和多个第二分类迭代转换矩阵;
S62、利用预构建的指数归一化函数、所述第一定位向量矩阵和所述第一分类迭代转换矩阵计算,得到与所述第一定位向量集对应的第一原始向量相关矩阵;
S63、利用所述指数归一化函数、多个所述第二定位向量矩阵和多个所述第二分类迭代转换矩阵计算,得到与多个所述第二定位向量集对应的第二原始向量相关矩阵;
S64、利用所述第一原始向量相关矩阵和所述第一定位向量矩阵,调节预构建的前馈神经网络中的迭代权重因子,得到检索矩阵;
S65、利用多个所述第二原始向量相关矩阵和对应的多个所述第二定位向量矩阵,调节所述迭代权重因子,得到多个公共文档矩阵。
本发明实施例中,分类迭代转换矩阵与定位向量矩阵的维度一样,例如定位向量矩阵的维度为m×n,则生成的分类迭代矩阵的维度也为m×n,本发明实施例中,可采用随机方法,生成分类迭代矩阵。
本发明实施例中,可以将所述第一原始向量相关矩阵和所述第一定位向量矩阵进行求和归一,得到归一向量相关矩阵;将所述归一向量相关矩阵输入预构建的前馈神经网络,利用所述前馈神经网络中的迭代权重因子对所述归一向量相关矩阵进行权重调节,得到所述检索矩阵。
具体地,所述求和归一是指将所述第一原始向量相关矩阵和所述第一定位向量矩阵进行叠加,并对叠加后的向量矩阵执行归一化处理,将向量矩阵中的数值映射到0-1的区间,方便所述前馈神经网络进行调节。
本发明实施例中,所述归一向量相关矩阵是将所述第一原始向量相关矩阵和所述第一定位向量矩阵,进行求和后再进行归一化,可采用Layer Normalization函数进行所述归一化操作。
本发明实施例中,利用多个所述第二原始向量相关矩阵和对应的多个所述第二定位向量矩阵,调节所述迭代权重因子,得到多个公共文档矩阵的过程可以与利用所述第一原始向量相关矩阵和所述第一定位向量矩阵,调节预构建的前馈神经网络中的迭代权重因子,得到检索矩阵的过程类似,在此不过多赘述。
S3、将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合。
本发明实施例中,在进行向量内积之前,可以将所述检索矩阵和所述问答矩阵通过补零或者补一的方式转换成相同维度的矩阵,进而通过预设的内积运算方法(例如,点乘运算),计算得到每一个文档矩阵与检索矩阵内积的结果。
进一步地,本发明实施例通过内积结果可以进一步表示公共文档与检索词的相关程度;通过预设的排序方法,例如,比较内积结果的大小,进而实现对文档集合中公共文档的初次排序。
S4、将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量。
本发明实施例中,请参阅图7所示,所述将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,包括以下步骤S71-S74:
S71、从所述排序文档中选取一个文档作为目标文档,将所述目标文档划分为多个文本片段;
S72、获取文本片段的平均句长,并根据预设的语义模型和所述训练检索词对多个所述文本片段进行打分;
S73、根据所述平均句长、打分的结果对所述目标文档和所述训练检索词进行拼接,得到目标拼接文档;
S74、对多个所述文本片段进行词频统计,根据词频统计的结果和打分的结果设置多个所述文本片段中的分词的权值,并根据所述权值生成多个所述文本片段的向量矩阵。
进一步地,所述根据所述平均句长、打分的结果对所述目标文档和所述训练检索词进行拼接,可以通过根据所述平均句长对所述目标文档中的文本片段进行长度统一化处理,得到处理文本片段;获取打分的结果中分数最高所对应的处理文本片段;将所述处理文本片段与所述训练检索词进行拼接,得到目标拼接文档。
本发明实施例中,所述语音模型包括但不限于深度语义匹配模型(DeepStructured Semantic Models,DSSM)、自然语言处理模型(Natural Language ProcessingModels,NPL)。
本发明实施例中,为了使得文本片段的长度控制在一个合理的范围内,可以根据平均句长来确定当前文本片段对应的标点符号的类型。其中,标点符号的类型可以分为第一类标点符号和第二类标点符号两种。当平均句长较长时,可以考虑为当前文本片段设置一个第二类标点符号,避免后续句长出现长难句;当平均句长较短时,可以考虑为当前文本片段确定一个第一类标点符号。第一类标点符号可以包括:问号、句号、感叹号和省略号;第二类标点符号可以包括:逗号、顿号、分号、冒号、单引号和双引号。
本发明实施例中,通过将训练检索词和排序文档进行文本拼接,使进行第二次排序的文本内容的与训练检索词的相关性更高,进而使后续第二排序模型排序后的结果更加准确。
S5、分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果。
本发明实施例中,通过所述第二排序模型对多个所述拼接排序文档向量和所述拼接检索文档向量计算的步骤与上述S1-S3中通过第一排序模型对所述训练检索词和预设的文档集合中的所有公共文档计算的步骤相似,在此不过多赘述。
S6、利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
本发明实施例中,通过所述损失函数计算多个所述第一输出结果和所述第二输出结果的损失值可以通过以下公式所表示:
其中,LOSS为损失值,τ为预设的超参数,ti为第i个第一输出结果,s为第二输出结果。
本发明实施例中,所述根据所述联合损失值优化所述疾病分析模型,可以通过判断所述损失值是否小于预设损失阈值;当所述损失值大于或等于预设损失阈值时,利用梯度下降算法对所述第二排序模型的超参数进行更新,在返回计算损失值并判断的步骤;当所述联合损失值小于预设损失阈值时,将所述第二排序模型和所述第一排序模型作为标准排序模型输出。
本发明实施例通过第一排序模型根据检索词和文档集合中的公共文档进行第一次计算,实现了文档集合中文档的初次排序,以及通过第二排序模型根据检索词、检索文档和排序后的文档进行第二次计算,再根据第二次计算的结果计算损失值,优化排序模型,提高了文档排序的准确性;通过优化后的模型可以实现根据检索词的两次排序,保证了在用户正常检索过程中以及在无用户点击或系统冷启动情况下,文档排序结果的相关性和准确性。因此本发明提出的基于用户检索的排序模型训练方法,可以解决进行基于搜索内容的文档排序呈现的结果相关性和准确性较低的问题。
如图8所示,是本发明一实施例提供的基于用户检索的排序模型训练装置的功能模块图。
本发明所述基于用户检索的排序模型训练装置100可以安装于电子设备中。根据实现的功能,所述基于用户检索的排序模型训练装置100可以包括分词生成模块101、向量矩阵生成模块102、第一排序模型计算模块103、拼接检索文档向量生成模块104、第二排序模型计算模块105及标准排序模块生成模块106。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述分词生成模块101,用于获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
所述向量矩阵生成模块102,用于利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
所述第一排序模型计算模块103,用于将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
所述拼接检索文档向量生成模块104,用于将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
所述第二排序模型计算模块105,用于分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
所述标准排序模块生成模块106,用于利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
详细地,本发明实施例中所述基于用户检索的排序模型训练装置100中所述的各模块在使用时采用与上述图1至图7中所述的基于用户检索的排序模型训练方法一样的技术手段,并能够产生相同的技术效果,这里不再赘述。
如图9所示,是本发明一实施例提供的实现基于用户检索的排序模型训练方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11、通信总线12以及通信接口13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如基于用户检索的排序模型训练程序。
其中,所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing Unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(ControlUnit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行基于用户检索的排序模型训练程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(Secure Digital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如基于用户检索的排序模型训练程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述通信总线12可以是外设部件互连标准(Peripheral ComponentInterconnect,简称PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
所述通信接口13用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
图9仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图9示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的基于用户检索的排序模型训练程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种基于用户检索的排序模型训练方法,其特征在于,所述方法包括:
获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
2.如权利要求1所述的基于用户检索的排序模型训练方法,其特征在于,所述对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词,包括:
利用分词器对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到所述训练检索词对应的第一分词以及多个所述公共文档对应的第二分词;
根据预设的词性表和停用词表删除所述第一分词和多个所述第二分词的特定分词,得到所述训练检索词对应的第一目标分词以及多个所述公共文档对应的第二目标分词;
删除所述第一目标分词和所述多个第二目标分词中的标点符号,得到检索分词及多个公共文档分词。
3.如权利要求2所述的基于用户检索的排序模型训练方法,其特征在于,所述根据预设的词性表和停用词表删除所述第一分词和多个所述第二分词的特定分词,得到所述训练检索词对应的第一目标分词以及多个所述公共文档对应的第二目标分词,包括:
获取需删除的词性标签,并根据所述需删除的词性标签提取所述词性表中对应的分词;
提取所述停用词表中对应的分词;
从所述第一分词和多个所述第二分词中删除与所述词性表中对应的分词及所述停用词表中对应的分词相同的分词,得到所述第一目标分词和所述多个第二目标分词。
4.如权利要求1所述的基于用户检索的排序模型训练方法,其特征在于,所述利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵,包括:
对所述检索分词和多个所述公共文档分词进行向量转换,得到第一向量集和多个第二向量集,并分别对所述第一向量集和多个所述第二向量集中的向量进行位置编码,得到所述检索分词对应的第一定位向量集以及多个所述公共文档分词对应的第二定位向量集;
对所述第一定位向量集及多个所述第二定位向量集进行矩阵转换,并根据矩阵转换的结果、所述第一定位向量集及多个所述第二定位向量集计算,得到检索矩阵及多个公共文档矩阵。
5.如权利要求4所述的基于用户检索的排序模型训练方法,其特征在于,所述分别对所述第一向量集和多个所述第二向量集中的向量进行位置编码,包括:
提取所述第一向量集和多个所述第二向量集中的向量,从所述第一向量集和多个所述第二向量集中分别选取预设位置的向量作为坐标原点;
根据所述坐标原点,建立每个向量的位置向量,利用所述位置向量对所述第一向量集和多个所述第二向量集执行位置编码。
6.如权利要求4所述的基于用户检索的排序模型训练方法,其特征在于,所述对所述第一定位向量集及多个所述第二定位向量集进行矩阵转换,并根据矩阵转换的结果、所述第一定位向量集及多个所述第二定位向量集计算,得到检索矩阵及多个公共文档矩阵,包括:
将所述第一定位向量集及多个所述第二定位向量集转换为第一定位向量矩阵及多个第二定位向量矩阵,并根据所述第一定位向量矩阵及多个所述第二定位向量矩阵的维度,生成第一分类迭代转换矩阵和多个第二分类迭代转换矩阵;
利用预构建的指数归一化函数、所述第一定位向量矩阵和所述第一分类迭代转换矩阵计算,得到与所述第一定位向量集对应的第一原始向量相关矩阵;
利用所述指数归一化函数、多个所述第二定位向量矩阵和多个所述第二分类迭代转换矩阵计算,得到与多个所述第二定位向量集对应的第二原始向量相关矩阵;
利用所述第一原始向量相关矩阵和所述第一定位向量矩阵,调节预构建的前馈神经网络中的迭代权重因子,得到检索矩阵;
利用多个所述第二原始向量相关矩阵和对应的多个所述第二定位向量矩阵,调节所述迭代权重因子,得到多个公共文档矩阵。
7.如权利要求1至6中任一项所述的基于用户检索的排序模型训练方法,其特征在于,所述将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,包括:
从所述排序文档中选取一个文档作为目标文档,将所述目标文档划分为多个文本片段;
获取文本片段的平均句长,并根据预设的语义模型和所述训练检索词对多个所述文本片段进行打分;
根据所述平均句长、打分的结果对所述目标文档和所述训练检索词进行拼接,得到目标拼接文档;
对多个所述文本片段进行词频统计,根据词频统计的结果和打分的结果设置多个所述文本片段中的分词的权值,并根据所述权值生成多个所述文本片段的向量矩阵。
8.一种基于用户检索的排序模型训练装置,其特征在于,所述装置包括:
分词生成模块,用于获取训练检索词及所述训练检索词对应的检索文档,对所述训练检索词和预设的文档集合中的所有公共文档进行分词处理,得到检索分词及多个公共文档分词;
向量矩阵生成模块,用于利用预设的第一排序模型对所述检索分词和多个所述公共文档分词进行编码及矩阵转换,得到检索矩阵及多个公共文档矩阵;
第一排序模型计算模块,用于将所述检索矩阵分别与所述多个文档矩阵进行向量内积,得到多个内积结果,并根据所述内积结果对多个所述公共文档进行排序,得到排序集合;
拼接检索文档向量生成模块,用于将所述训练检索词与所述排序集合中的排序文档进行文本拼接和向量化,得到多个拼接排序文档向量,并将所述训练检索词与所述检索文档进行文本拼接和向量化,得到拼接检索文档向量;
第二排序模型计算模块,用于分别将多个所述拼接排序文档向量和所述拼接检索文档向量输入第二排序模型,得到多个所述拼接排序文档向量对应的第一输出结果和所述拼接检索文档向量对应的第二输出结果;
标准排序模块生成模块,用于利用预设的损失函数对多个所述第一输出结果和所述第二输出结果进行计算,得到损失值,并根据所述损失值优化所述第二排序模型,将优化的第二排序模型和所述第一排序模型作为标准排序模型输出。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的基于用户检索的排序模型训练方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的基于用户检索的排序模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210423251.5A CN114676307A (zh) | 2022-04-21 | 2022-04-21 | 基于用户检索的排序模型训练方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210423251.5A CN114676307A (zh) | 2022-04-21 | 2022-04-21 | 基于用户检索的排序模型训练方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114676307A true CN114676307A (zh) | 2022-06-28 |
Family
ID=82079946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210423251.5A Pending CN114676307A (zh) | 2022-04-21 | 2022-04-21 | 基于用户检索的排序模型训练方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114676307A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116167336A (zh) * | 2023-04-22 | 2023-05-26 | 拓普思传感器(太仓)有限公司 | 基于云计算的传感器数据加工方法、云服务器及介质 |
-
2022
- 2022-04-21 CN CN202210423251.5A patent/CN114676307A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116167336A (zh) * | 2023-04-22 | 2023-05-26 | 拓普思传感器(太仓)有限公司 | 基于云计算的传感器数据加工方法、云服务器及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115002200B (zh) | 基于用户画像的消息推送方法、装置、设备及存储介质 | |
CN113378970B (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN113627797A (zh) | 入职员工画像生成方法、装置、计算机设备及存储介质 | |
CN113344125B (zh) | 长文本匹配识别方法、装置、电子设备及存储介质 | |
CN114416939A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN113918704A (zh) | 基于机器学习的问答方法、装置、电子设备及介质 | |
CN114676307A (zh) | 基于用户检索的排序模型训练方法、装置、设备及介质 | |
WO2021042529A1 (zh) | 文章摘要自动生成方法、装置及计算机可读存储介质 | |
CN116628162A (zh) | 语义问答方法、装置、设备及存储介质 | |
CN116450916A (zh) | 基于定段分级的信息查询方法、装置、电子设备及介质 | |
CN114708073B (zh) | 一种围标串标智能检测方法、装置、电子设备及存储介质 | |
CN116340516A (zh) | 实体关系的聚类提取方法、装置、设备及存储介质 | |
CN112560427B (zh) | 问题扩展方法、装置、电子设备及介质 | |
CN112529743B (zh) | 合同要素抽取方法、装置、电子设备及介质 | |
CN114385815A (zh) | 基于业务需求的新闻筛选方法、装置、设备及存储介质 | |
CN115221323A (zh) | 基于意图识别模型的冷启动处理方法、装置、设备及介质 | |
CN114219367A (zh) | 用户评分方法、装置、设备及存储介质 | |
CN114610854A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN113468421A (zh) | 基于向量匹配技术的产品推荐方法、装置、设备及介质 | |
CN113343102A (zh) | 基于特征筛选的数据推荐方法、装置、电子设备及介质 | |
CN112632264A (zh) | 智能问答方法、装置、电子设备及存储介质 | |
CN112988963B (zh) | 基于多流程节点的用户意图预测方法、装置、设备及介质 | |
CN114969385B (zh) | 基于文档属性赋值实体权重的知识图谱优化方法及装置 | |
CN113157865B (zh) | 跨语言词向量生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |