CN117951359A - 一种目标检索方法、装置、电子设备及存储介质 - Google Patents
一种目标检索方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN117951359A CN117951359A CN202410122238.5A CN202410122238A CN117951359A CN 117951359 A CN117951359 A CN 117951359A CN 202410122238 A CN202410122238 A CN 202410122238A CN 117951359 A CN117951359 A CN 117951359A
- Authority
- CN
- China
- Prior art keywords
- text
- vector
- sparse
- dense
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 431
- 238000012545 processing Methods 0.000 claims abstract description 133
- 238000012549 training Methods 0.000 claims abstract description 92
- 230000006870 function Effects 0.000 claims description 34
- 238000004590 computer program Methods 0.000 claims description 17
- 230000002452 interceptive effect Effects 0.000 claims description 12
- 230000004927 fusion Effects 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000005094 computer simulation Methods 0.000 abstract description 2
- 238000004364 calculation method Methods 0.000 description 17
- 241000220225 Malus Species 0.000 description 8
- 238000003062 neural network model Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 235000013399 edible fruits Nutrition 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 235000021016 apples Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请涉及计算机模型技术领域,提供了一种目标检索方法和装置、电子设备及存储介质。该方法通过获取目标查询文本;将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;获取文本处理模型生成的目标查询文本对应的目标描述信息;该目标描述信息丰富了目标查询文本的语义信息,根据目标描述信息进行目标检索,得到目标检索结果,由于目标描述信息丰富了目标查询文本的语义信息,因此,根据目标描述信息进行目标检索的步骤中达到了提高向量检索能力的效果,进而提高了目标检索结果的准确性和可靠性。
Description
技术领域
本申请涉及计算机模型技术领域,尤其涉及一种目标检索方法和装置、电子设备及存储介质。
背景技术
随着计算机技术的发展,各式各样的数据量也随之猛增,形成了有百万、千万级别记录。在用户有检索需求时,计算机需要根据用户提供的检索条件为用户在百万、千万级别记录中搜索出符合用户需求的内容。
相关技术中,无法根据用户的检索需求,精准高效的从记录中确定用户需求的目标。
发明内容
有鉴于此,本申请实施例提供了一种目标检索方法和装置、电子设备及存储介质,以解决现有技术中,无法根据检索需求,精准高效的从记录中确定目标的问题。
本申请实施例的第一方面,提供了一种目标检索方法,该方法包括:获取目标查询文本;将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;获取文本处理模型生成的目标查询文本对应的目标描述信息;根据目标描述信息进行目标检索,得到目标检索结果。
本申请实施例的第二方面,提供了一种目标检索装置,该装置包括:获取模块,用于获取目标查询文本;输入模块,用于将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;生成模块,用于获取文本处理模型生成的目标查询文本对应的目标描述信息;检索模块,用于根据目标描述信息进行目标检索,得到目标检索结果。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请实施例中通过获取目标查询文本;将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;获取文本处理模型生成的目标查询文本对应的目标描述信息;该目标描述信息丰富了目标查询文本的语义信息,根据目标描述信息进行目标检索,得到目标检索结果,由于目标描述信息丰富了目标查询文本的语义信息,因此,根据目标描述信息进行目标检索的步骤中达到了提高向量检索能力的效果,进而提高了目标检索结果的准确性和可靠性,避免了相关技术中,无法根据检索需求,精准高效的从记录中确定目标的问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例的应用场景的场景示意图;
图2是申请实施例提供的一种目标检索方法的流程示意图;
图3是本申请实施例提供的还一种目标检索方法的流程示意图;
图4是本申请实施例提供的另一种目标检索方法的流程示意图;
图5是本申请实施例提供的再一种目标检索方法的流程示意图;
图6是本申请实施例提供的又一种目标检索方法的流程示意图;
图7是本申请实施例提供的还一种可选的目标检索方法的流程示意图;
图8是本申请实施例提供的另一种可选的目标检索方法的流程示意图;
图9是本申请实施例提供的一种目标检索装置的结构示意图;
图10是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
下面将结合附图详细说明根据本申请实施例的一种目标检索方法和装置。
图1是本申请实施例的应用场景的场景示意图。该应用场景可以包括终端设备1、2和3、服务器4以及网络5。
终端设备1、2和3可以是硬件,也可以是软件。当终端设备1、2和3为硬件时,其可以是具有显示屏且支持与服务器4通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等;当终端设备1、2和3为软件时,其可以安装在如上的电子设备中。终端设备1、2和3可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本申请实施例对此不作限制。进一步地,终端设备1、2和3上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
服务器4可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器4可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本申请实施例对此不作限制。
需要说明的是,服务器4可以是硬件,也可以是软件。当服务器4为硬件时,其可以是为终端设备1、2和3提供各种服务的各种电子设备。当服务器4为软件时,其可以是为终端设备1、2和3提供各种服务的多个软件或软件模块,也可以是为终端设备1、2和3提供各种服务的单个软件或软件模块,本申请实施例对此不作限制。
网络5可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near FieldCommunication,NFC)、红外(Infrared)等,本申请实施例对此不作限制。
用户可以通过终端设备1、2和3经由网络5与服务器4建立通信连接,以接收或发送信息等。
需要说明的是,终端设备1、2和3、服务器4以及网络5的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本申请实施例对此不作限制。
下面将结合附图详细说明根据本申请实施例的一种目标检索方法和装置。
图2是本申请实施例提供的一种目标检索方法的流程示意图,如图2所示,该目标检索方法包括:
S201、获取目标查询文本;
S202、将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;
S203、获取文本处理模型生成的目标查询文本对应的目标描述信息;
S204、根据目标描述信息进行目标检索,得到目标检索结果。
具体地,上述目标检索方法应用于服务器和/或终端,也即,上述目标检索方法可以由服务器单独执行,也可以由终端单独执行,上述目标检索方法还可以由服务器和终端共同执行,本实施例并不对此进行限定,后续为了更好的说明,本示例以目标检索方法应用于终端进行说明。
能够理解的是,上述目标查询文本为基于用户的检索需求所确定的,用户的检索需求可以由语音、文字或是图片等形式呈现,例如,本示例提供的目标检索方法提供有一需求接收接口,该需求接收接口能够接收语音、文字、图片或是文件,当用户通过需求接收接口输入文字时,直接将用户输入的文字作为上述目标查询文本;当用户通过需求接收接口输入语音时,对用户输入的语音进行语音-文本转换,得到目标查询文本;当用户通过需求接收接口输入图片时,对用户输入的图片进行图片识别,得到目标查询文本;当用户通过需求接收接口输入文件时,对用户输入的文件进行内容识别,并将识别结果作为目标查询文本。
在一些示例中,终端在获取到目标查询文本后,将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的。
承接上例,该文本处理模型为双塔模型,该文本处理模型中设置有两个独立的神经网络模型,其中一独立的神经网络模型(后续记为查询文本处理模型)用于基于训练查询文本获取对应的第一稠密文本向量和第一稀疏文本向量,另一独立的神经网络模型(后续记为样本处理模型)用于基于样本信息获取对应的样本稠密文本向量和样本稀疏文本向量。本示例并不限制每一独立的神经网络模型的类型,例如,相关人员根据实际需求可以采用MLP、CNN、LSTM、Transformer等神经网络模型。
能够理解的是,在训练得到上述文本处理模型后,基于双塔模型的原理,该文本处理模型中存储有样本信息对应的样本向量;在一些示例中,后续输入添加其他的内容信息到该文本处理模型中,则该文本处理模型在存储有其他内容信息对应的内容向量;具体地,以训练查询文本为样本商品查询文本,样本信息为样本商品信息为例,则该文本处理模型中包含有样本商品信息对应的样本商品向量,若添加其他的商品内容信息到该文本处理模型中,则该文本处理模型中还包含了其他的商品内容向量。
能够理解的是,文本处理模型在接收到目标查询文本后,会对目标查询文本进行预处理,如分词、去停用词、转换为索引等,然后将目标查询文本输入到查询文本处理模型,进而获取目标查询文本对应的目标查询向量,然后将目标查询向量与文本处理模型内包含的向量进行相似度计算,得到最终的匹配结果,并将最终的匹配结果作为目标查询文本对应的目标描述信息;例如,将目标查询向量与文本处理模型内包含的向量进行相似度计算,然后将排名靠前的N个向量作为目标描述信息,进而实现了对目标查询文本的描述丰富,也即,目标描述信息丰富了目标查询文本的语义信息。
在一些示例中,终端获取文本处理模型生成的目标查询文本对应的目标描述信息后,根据目标描述信息进行目标检索,得到目标检索结果,其中,根据目标描述信息进行目标检索,得到目标检索结果包括但不限于:直接使用目标描述信息进行目标检索,得到目标检索结果;或获取目标查询文本,基于目标查询文本进行目标检索,得到第一目标检索结果,使用目标描述信息进行目标检索,得到第二目标检索结果,基于第一目标检索结果和第二目标检索结果确定目标检索结果。
承接上例,在直接使用目标描述信息进行目标检索,得到目标检索结果的步骤中,由于目标描述信息丰富了目标查询文本的语义信息,达到了提高向量检索的效果,进而提高了目标检索结果的准确性和可靠性,同时,利用目标描述信息的多样性,返回多种检索结果,可以提供更多的选择和信息,进而实现满足用户的查询需求和偏好;在基于目标查询文本进行目标检索,得到第一目标检索结果,使用目标描述信息进行目标检索,得到第二目标检索结果,基于第一目标检索结果和第二目标检索结果确定目标检索结果的步骤中,该步骤实现了同时利用目标查询文本和目标描述信息对数据进行查询,进一步地提高了目标检索结果的准确性和可靠性。
能够理解的是,本实施例并不限制根据目标描述信息进行目标检索时所使用的检索模型,相关技术中可以采用BERT等神经网络模型作为检索模型。具体地,检索模型在获取到目标描述信息后,将目标描述信息与数据库中包含的向量进行相似度匹配,并将匹配程度最高(或是匹配度靠前的N个,或是匹配程度阈值超过预设阈值的)的向量对应的目标作为目标检索结果。
为了更好的理解本发明,本示例提供一种更为具体的示例进行说明,例如,目标查询文本为“iphone14pro”,将其输入到文本处理模型后,得到的目标描述信息包括“手机、苹果、iphone,14pro”等词语对应的向量,然后基于“手机、苹果、iphone,14pro”等词语的向量以及目标查询文本“iphone14pro”进行目标检索,进而提升检索的准确性和多样性。
根据本申请实施例提供的技术方案,通过获取目标查询文本;将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;获取文本处理模型生成的目标查询文本对应的目标描述信息;该目标描述信息丰富了目标查询文本的语义信息,根据目标描述信息进行目标检索,得到目标检索结果,由于目标描述信息丰富了目标查询文本的语义信息,因此,根据目标描述信息进行目标检索的步骤中达到了提高向量检索能力的效果,进而提高了目标检索结果的准确性和可靠性,避免了相关技术中,无法根据检索需求,精准高效的从记录中确定目标的问题。
在一些实施例中,样本稠密文本向量包括:第一稠密文本向量、第二稠密文本向量以及第三稠密文本向量,样本稀疏文本向量包括:第一稀疏文本向量、第二稀疏文本向量以及第三稀疏文本向量;如图3所示,将目标查询文本输入至文本处理模型之前,方法还包括:
S301、获取训练查询文本,以及训练查询文本对应的正样本信息和多个负样本信息;
S302、根据训练查询文本获取第一稠密文本向量和第一稀疏文本向量;
S303、根据正样本信息获取第二稠密文本向量和第二稀疏文本向量,并根据多个负样本信息获取多个第三稠密文本向量和多个第三稀疏文本向量;
S304、根据第一稠密文本向量和第一稀疏文本向量、第二稠密文本向量和第二稀疏文本向量,以及多个第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,得到文本处理模型。
具体的,上述正样本信息和负样本信息为相关人员根据使用场景和训练查询文本所灵活确定的,在确定训练查询文本后,相关人员选取与训练查询文本最相关的样本信息作为正样本信息,然后选取出N个与训练查询文本无关的样本信息作为负样本信息。
在确定出训练查询文本后,本示例进一步的根据训练查询文本获取第一稠密文本向量和第一稀疏文本向量,该第一稠密文本向量指训练查询文本中特征值大部分为非零的特征,该第一稠密文本向量能够保留训练查询文本的完整性和丰富性不会损失信息,进而增加特征的多样性和鲁棒性;具体的,对训练查询文本进行稠密向量编码,得到第一稠密文本向量,对训练查询文本进行稀疏向量编码,得到第一稀疏文本向量,该第一稀疏文本向量是指训练查询文本中特征值大部分为零的特征,后续通过第一稀疏文本向量对文本处理模型进行训练,能够节省存储空间和计算资源,提高对文本处理模型的效率和速度,降低文本处理模型的复杂度和过拟合风险。
同样地,对正样本信息进行稠密向量编码,得到第二稠密文本向量,对正样本信息进行稀疏向量编码,得到第二稀疏文本向量;对每一负样本信息进行稠密向量编码,得到每一个负样本信息对应的第三稠密文本向量,对每一个负样本信息进行稀疏向量编码,得到每一个负样本信息对应的第三稀疏文本向量。
在获取到上述向量后,根据第一稠密文本向量和第一稀疏文本向量、第二稠密文本向量和第二稀疏文本向量,以及多个第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,得到文本处理模型。能够理解的是,该初始文本处理模型中包含待训练的查询文本处理模型和样本处理模型,在对初始文本处理模型进行训练的过程中,对待训练的查询文本处理模型和样本处理模型的参数进行调整,得到训练完成的查询文本处理模型和样本处理模型,进而得到文本处理模型。
根据本申请实施例提供的技术方案,通过获取训练查询文本,以及训练查询文本对应的正样本信息和多个负样本信息;根据训练查询文本获取第一稠密文本向量和第一稀疏文本向量;根据正样本信息获取第二稠密文本向量和第二稀疏文本向量,并根据多个负样本信息获取多个第三稠密文本向量和多个第三稀疏文本向量;根据第一稠密文本向量和第一稀疏文本向量、第二稠密文本向量和第二稀疏文本向量,以及多个第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,得到文本处理模型,其中,上述多种稠密文本向量能够增加获取特征的多样性和鲁棒性,通过稠密文本向量保留了上述训练查询文本和正样本信息和负样本信息的完整性和丰富性,进而使得后续对初始文本训练模型进行训练时,提高了模型的表达能力和准确性,进而增加了模型输出的多样性和鲁棒性,上述多种稀疏文本向量能够节省模型的存储空间和计算资源,提高对文本处理模型的效率和速度,降低文本处理模型的复杂度和过拟合风险。
在一些实施例中,初始文本处理模型包括:第一稠密向量编码器和第一稀疏向量编码器,如图4所示,根据训练查询文本获取第一稠密文本向量和第一稀疏文本向量,包括:
S401、通过第一稠密向量编码器对训练查询文本进行稠密向量编码,得到第一稠密文本向量;
S402、通过第一稀疏向量编码器对训练查询文本进行稀疏向量编码,得到第一稀疏文本向量。
具体的,查询文本处理模型由第一稠密向量编码器和第一稀疏向量编码器组成;在一些示例中,该第一稠密向量编码器采用6层的transformer结构,用于将训练查询文本编码为第一稠密文本向量,该第一稀疏向量编码器采用6层的transformer结构,用于将训练查询文本编码为第一稀疏文本向量。
在一些示例中,样本处理模型由第二稠密向量编码器和第二稀疏向量编码器组成,该第二稠密向量编码器采用6层的transformer结构,用于将正样本信息编码为第二稠密文本向量,将每一负样本信息编码为对应的第三稠密文本向量,该第二稀疏向量编码器采用6层的transformer结构,用于将正样本信息编码为第二稀疏文本向量,将每一负样本信息编码为对应的第三稀疏文本向量。
能够理解的是,本实施例并不用于限制第一稠密向量编码器、第一稀疏向量编码器、第二稠密向量编码器以及第二稀疏向量编码器的具体结构,相关人员可以根据实际需求灵活选取。
根据本申请实施例提供的技术方案,通过第一稠密向量编码器对训练查询文本进行稠密向量编码,得到第一稠密文本向量;通过第一稀疏向量编码器对训练查询文本进行稀疏向量编码,得到第一稀疏文本向量,进而实现了准确获取第一稠密文本向量和第一稀疏文本向量,进而提高了模型训练的准确性。
在一些实施例中,如图5所示,根据第一稠密文本向量和第一稀疏文本向量、第二稠密文本向量和第二稀疏文本向量,以及多个第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,包括:
S501、计算第一稠密文本向量和第一稀疏文本向量,以及第二稠密文本向量和第二稀疏文本向量之间的第一相似度;
S502、计算第一稠密文本向量和第一稀疏文本向量,以及每个第三稠密文本向量和第三稀疏文本向量之间的第二相似度;
S503、根据第一相似度和多个第二相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
具体的,对第一稠密文本向量和第一稀疏文本向量进行特征合并,得到样本查询向量,能够理解的是,将第一稠密文本向量和第一稀疏文本向量进行特征合并是指将第一稠密文本向量和第一稀疏文本向量拼接在一起,形成一个更大的特征向量,进而增加了样本查询向量中特征的维度和多样性;同样地,对第二稠密文本向量和第二稀疏文本向量进行特征合并,得到正样本向量;将每一个负样本信息对应的第三稠密文本向量和第三稀疏文本进行融合,得到每一个负样本信息对应的负样本向量。
承接上例,然后通过向量相似度计算方法,计算样本查询向量和正样本向量之间的第一相似度;通过向量相似度计算方法,计算样本查询向量和每一负样本向量之间的第二相似度;本示例并不限制向量相似度计算方法的具体类型,相关人员可以根据实际需求灵活选取具体的向量相似度计算方法。例如,使用余弦相似度计算方式作为向量相似度计算方法,将第一稠密文本向量和第一稀疏文本向量特征合并后的得到的样本查询向量记为qi,将第二稠密文本向量和第二稀疏文本向量进行特征合并,得到正样本向量记为di,将每一个负样本信息对应的第三稠密文本向量和第三稀疏文本进行融合,得到每一个负样本信息对应的负样本向量记为dj,则样本查询向量和正样本向量之间的第一相似度记为cos(qi,di),样本查询向量和每一负样本向量之间的第二相似度记为cos(qi,dj)。
在一些示例中,根据第一相似度和多个第二相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型,其中,具体计算方式如下:
其中,lossi为模型损失函数,B为所有负样本向量的数量,s(scale)为调节参数,s的取值范围为15-20,scale的具体取值可以由相关人员根据实际需求灵活设置。
能够理解的是,上述模型损失函数能够用来衡量文本处理模型预测的结果和正样本向量之间的差异,因此,在确定出模型损失函数后,能够基于上述模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
根据本申请实施例提供的技术方案,通过计算第一稠密文本向量和第一稀疏文本向量,以及第二稠密文本向量和第二稀疏文本向量之间的第一相似度;计算第一稠密文本向量和第一稀疏文本向量,以及每个第三稠密文本向量和第三稀疏文本向量之间的第二相似度;根据第一相似度和多个第二相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型,进而实现了基于样本查询向量、正样本向量以及所有的负样本向量共同构建模型损失函数,使得训练中的初始文本处理模型能够快速区分出负样本向量,进而提升了初始文本处理模型的收敛速度,进而提升了模型的训练效率。
在一些示例中,如图6所示,根据第一稠密文本向量和第一稀疏文本向量、第二稠密文本向量和第二稀疏文本向量,以及多个第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,包括:
S601、计算第一稠密文本向量和第一稀疏文本向量,以及第二稠密文本向量和第二稀疏文本向量之间的第一相似度;
S602、计算第一稠密文本向量和第一稀疏文本向量,以及每个第三稠密文本向量和第三稀疏文本向量之间的第二相似度,并从多个第二相似度中确定出目标相似度;
S603、根据第一相似度和目标相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
具体的,对第一稠密文本向量和第一稀疏文本向量进行特征合并,得到样本查询向量,能够理解的是,将第一稠密文本向量和第一稀疏文本向量进行特征合并是指将第一稠密文本向量和第一稀疏文本向量拼接在一起,形成一个更大的特征向量,进而增加了样本查询向量中特征的维度和多样性;同样地,对第二稠密文本向量和第二稀疏文本向量进行特征合并,得到正样本向量;将每一个负样本信息对应的第三稠密文本向量和第三稀疏文本进行融合,得到每一个负样本信息对应的负样本向量。
承接上例,然后通过向量相似度计算方法,计算样本查询向量和正样本向量之间的第一相似度;通过向量相似度计算方法,计算样本查询向量和每一负样本向量之间的第二相似度;本示例并不限制向量相似度计算方法的具体类型,相关人员可以根据实际需求灵活选取具体的向量相似度计算方法。例如,使用余弦相似度计算方式作为向量相似度计算方法,将第一稠密文本向量和第一稀疏文本向量特征合并后的得到的样本查询向量记为qi,将第二稠密文本向量和第二稀疏文本向量进行特征合并,得到正样本向量记为di,将每一个负样本信息对应的第三稠密文本向量和第三稀疏文本进行融合,得到每一个负样本信息对应的负样本向量记为dj,则样本查询向量和正样本向量之间的第一相似度记为cos(qi,di),样本查询向量和每一负样本向量之间的第二相似度记为cos(qi,dj)。
在一些示例中,从多个第二相似度中确定出目标相似度的步骤中,本示例将第二相似度中最高的相似度记为目标相似度,具体地,本示例将与样本查询向量最为相似的负样本向量记为则目标相似度为/>
承接上例,在确定出目标相似度后,本示例进一步地根据第一相似度和目标相似度构建模型损失函数,具体构建方式如下:
其中,lossi为模型损失函数,cos(qi,di)为第一相似度,为目标相似度,margin为一个超参数,用来控制类间差异的阈值,通常取0.1到0.2之间的值,margin的具体取值可以由相关人员根据实际需求灵活设置。
根据本申请实施例提供的技术方案,计算第一稠密文本向量和第一稀疏文本向量,以及第二稠密文本向量和第二稀疏文本向量之间的第一相似度;计算第一稠密文本向量和第一稀疏文本向量,以及每个第三稠密文本向量和第三稀疏文本向量之间的第二相似度,并从多个第二相似度中确定出目标相似度;根据第一相似度和目标相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型,其中,基于上述方法确定出目标相似度后,后续对初始文本处理模型的训练过程中,使得初始文本处理模型能够识别出与样本查询向量相似度最高的负样本向量,进而使得训练得到的文本处理模型具有困难负样本识别能力。
在一些示例中,如图7所示,根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型,包括:
S701、对第一稠密文本向量和第一稀疏文本向量进行融合,得到样本查询向量;将第二稠密文本向量和第二稀疏文本向量进行特征融合,得到正样本向量;
S702、根据样本查询向量、正样本向量以及模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
具体的,对第一稠密文本向量和第一稀疏文本向量进行融合,得到样本查询向量;将第二稠密文本向量和第二稀疏文本向量进行特征融合,得到正样本向量的步骤可以参见上述实施例的步骤,在此不再赘述。
能够理解的是,两个不同的向量进行融合可以采用特征融合编码器实现,该特征融合编码采用6层的transformer结构进行融合。
在一些示例中,根据样本查询向量、正样本向量以及模型损失函数对初始文本处理模型进行训练,基于样本查询向量和正样本向量的特点,使得后续对初始文本训练模型进行训练时,提高了模型的表达能力和准确性,增加了模型输出的多样性和鲁棒性,同时节省了模型的存储空间和计算资源,提高对文本处理模型的效率和速度,降低文本处理模型的复杂度和过拟合风险。
根据本申请实施例提供的技术方案,对第一稠密文本向量和第一稀疏文本向量进行融合,得到样本查询向量;将第二稠密文本向量和第二稀疏文本向量进行特征融合,得到正样本向量;根据样本查询向量、正样本向量以及模型损失函数对初始文本处理模型进行训练,得到文本处理模型,基于样本查询向量和正样本向量的特点,使得后续对初始文本训练模型进行训练时,提高了模型的表达能力和准确性,增加了模型输出的多样性和鲁棒性,同时节省了模型的存储空间和计算资源,提高对文本处理模型的效率和速度,降低文本处理模型的复杂度和过拟合风险。
在一些示例中,如图8所示,根据目标描述信息进行目标检索,得到目标检索结果之后,方法还包括:
S801、通过可视化界面展示目标检索结果,并接收针对目标检索结果的交互操作;
S802、基于交互操作调整目标检索结果。
具体的,通过可视化界面展示目标检索结果,然后通过上述可视化面(或是其他的操作工具)接收用户基于目标检索结果的交互操作,上述交互操作包括但不限于:点击、屏蔽操作、评论以及购买,上述交互操作能够反映用户对目标检索结果的满意程度。
在获取到上述交互操作后,本示例进一步地基于交互操作调整目标检索结果,进而使得目标检索结果能够更加符合用户的需求,例如,用户搜索苹果,目标检索结果中包括苹果手机、水果苹果,当用户选择屏蔽水果苹果时,则增加检索出的苹果手机,减少水果苹果,进而使得目标检索结果更加符合用户的需求。
根据本申请实施例提供的技术方案,通过可视化界面展示目标检索结果,并接收针对目标检索结果的交互操作;基于交互操作调整目标检索结果,进而使得目标检索结果更加符合用户的需求,提高了用户的满意度。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
本实施例还提供一种目标检索装置,如图9所示,该装置包括:
获取模块901,用于获取目标查询文本;
输入模块902,用于将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;
生成模块903,用于获取文本处理模型生成的目标查询文本对应的目标描述信息;
检索模块904,用于根据目标描述信息进行目标检索,得到目标检索结果。
在一些示例中,样本稠密文本向量包括:第一稠密文本向量、第二稠密文本向量以及第三稠密文本向量,样本稀疏文本向量包括:第一稀疏文本向量、第二稀疏文本向量以及第三稀疏文本向量;生成模块903还用于获取训练查询文本,以及训练查询文本对应的正样本信息和多个负样本信息;根据训练查询文本获取第一稠密文本向量和第一稀疏文本向量;根据正样本信息获取第二稠密文本向量和第二稀疏文本向量,并根据多个负样本信息获取多个第三稠密文本向量和多个第三稀疏文本向量;根据第一稠密文本向量和第一稀疏文本向量、第二稠密文本向量和第二稀疏文本向量,以及多个第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,得到文本处理模型。
在一些示例中,初始文本处理模型包括:第一稠密向量编码器和第一稀疏向量编码器;生成模块903还用于通过第一稠密向量编码器对训练查询文本进行稠密向量编码,得到第一稠密文本向量;通过第一稀疏向量编码器对训练查询文本进行稀疏向量编码,得到第一稀疏文本向量。
在一些示例中,生成模块903还用于计算第一稠密文本向量和第一稀疏文本向量,以及第二稠密文本向量和第二稀疏文本向量之间的第一相似度;计算第一稠密文本向量和第一稀疏文本向量,以及每个第三稠密文本向量和第三稀疏文本向量之间的第二相似度;根据第一相似度和多个第二相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
在一些示例中,生成模块903还用于计算第一稠密文本向量和第一稀疏文本向量,以及第二稠密文本向量和第二稀疏文本向量之间的第一相似度;计算第一稠密文本向量和第一稀疏文本向量,以及每个第三稠密文本向量和第三稀疏文本向量之间的第二相似度,并从多个第二相似度中确定出目标相似度;根据第一相似度和目标相似度构建模型损失函数,并根据模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
在一些示例中,生成模块903还用于对第一稠密文本向量和第一稀疏文本向量进行融合,得到样本查询向量;将第二稠密文本向量和第二稀疏文本向量进行特征融合,得到正样本向量;根据样本查询向量、正样本向量以及模型损失函数对初始文本处理模型进行训练,得到文本处理模型。
在一些示例中,检索模块904还用于通过可视化界面展示目标检索结果,并接收针对目标检索结果的交互操作;基于交互操作调整目标检索结果。
根据本申请实施例提供的技术方案,上述装置通过获取目标查询文本;将目标查询文本输入至文本处理模型,文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;获取文本处理模型生成的目标查询文本对应的目标描述信息;该目标描述信息丰富了目标查询文本的语义信息,根据目标描述信息进行目标检索,得到目标检索结果,由于目标描述信息丰富了目标查询文本的语义信息,因此,根据目标描述信息进行目标检索的步骤中达到了提高向量检索能力的效果,进而提高了目标检索结果的准确性和可靠性,避免了相关技术中,无法根据检索需求,精准高效的从记录中确定目标的问题。
图10是本申请实施例提供的电子设备10的示意图。如图10所示,该实施例的电子设备10包括:处理器1001、存储器1002以及存储在该存储器1002中并且可在处理器1001上运行的计算机程序1003。处理器1001执行计算机程序1003时实现上述各个方法实施例中的步骤。或者,处理器1001执行计算机程序1003时实现上述各装置实施例中各模块/单元的功能。
电子设备10可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备10可以包括但不仅限于处理器1001和存储器1002。本领域技术人员可以理解,图10仅仅是电子设备10的示例,并不构成对电子设备10的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器1001可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器1002可以是电子设备10的内部存储单元,例如,电子设备10的硬盘或内存。存储器1002也可以是电子设备10的外部存储设备,例如,电子设备10上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。存储器1002还可以既包括电子设备10的内部存储单元也包括外部存储设备。存储器1002用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种目标检索方法,其特征在于,所述方法包括:
获取目标查询文本;
将所述目标查询文本输入至文本处理模型,所述文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;
获取所述文本处理模型生成的所述目标查询文本对应的目标描述信息;
根据所述目标描述信息进行目标检索,得到目标检索结果。
2.根据权利要求1所述的方法,其特征在于,所述样本稠密文本向量包括:第一稠密文本向量、第二稠密文本向量以及第三稠密文本向量,所述样本稀疏文本向量包括:第一稀疏文本向量、第二稀疏文本向量以及第三稀疏文本向量;将所述目标查询文本输入至文本处理模型之前,所述方法还包括:
获取所述训练查询文本,以及所述训练查询文本对应的正样本信息和多个负样本信息;
根据所述训练查询文本获取所述第一稠密文本向量和第一稀疏文本向量;
根据所述正样本信息获取所述第二稠密文本向量和第二稀疏文本向量,并根据多个所述负样本信息获取多个第三稠密文本向量和多个第三稀疏文本向量;
根据所述第一稠密文本向量和第一稀疏文本向量、所述第二稠密文本向量和第二稀疏文本向量,以及多个所述第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,得到所述文本处理模型。
3.根据权利要求2所述的方法,其特征在于,所述初始文本处理模型包括:第一稠密向量编码器和第一稀疏向量编码器;根据所述训练查询文本获取所述第一稠密文本向量和第一稀疏文本向量,包括:
通过所述第一稠密向量编码器对所述训练查询文本进行稠密向量编码,得到所述第一稠密文本向量;
通过所述第一稀疏向量编码器对所述训练查询文本进行稀疏向量编码,得到所述第一稀疏文本向量。
4.根据权利要求2所述的方法,其特征在于,根据所述第一稠密文本向量和第一稀疏文本向量、所述第二稠密文本向量和第二稀疏文本向量,以及多个所述第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,包括:
计算所述第一稠密文本向量和所述第一稀疏文本向量,以及所述第二稠密文本向量和所述第二稀疏文本向量之间的第一相似度;
计算所述第一稠密文本向量和所述第一稀疏文本向量,以及每个所述第三稠密文本向量和所述第三稀疏文本向量之间的第二相似度;
根据所述第一相似度和多个所述第二相似度构建模型损失函数,并根据所述模型损失函数对所述初始文本处理模型进行训练,得到所述文本处理模型。
5.根据权利要求2所述的方法,其特征在于,根据所述第一稠密文本向量和第一稀疏文本向量、所述第二稠密文本向量和第二稀疏文本向量,以及多个所述第三稠密文本向量和第三稀疏文本向量对初始文本处理模型进行训练,包括:
计算所述第一稠密文本向量和所述第一稀疏文本向量,以及所述第二稠密文本向量和所述第二稀疏文本向量之间的第一相似度;
计算所述第一稠密文本向量和所述第一稀疏文本向量,以及每个所述第三稠密文本向量和所述第三稀疏文本向量之间的第二相似度,并从多个所述第二相似度中确定出目标相似度;
根据所述第一相似度和所述目标相似度构建模型损失函数,并根据所述模型损失函数对所述初始文本处理模型进行训练,得到所述文本处理模型。
6.根据权利要求4或5所述的方法,其特征在于,根据所述模型损失函数对所述初始文本处理模型进行训练,得到所述文本处理模型,包括:
对所述第一稠密文本向量和所述第一稀疏文本向量进行融合,得到样本查询向量;将所述第二稠密文本向量和所述第二稀疏文本向量进行特征融合,得到正样本向量;
根据所述样本查询向量、所述正样本向量以及所述模型损失函数对所述初始文本处理模型进行训练,得到所述文本处理模型。
7.根据权利要求1所述的方法,其特征在于,根据所述目标描述信息进行目标检索,得到目标检索结果之后,所述方法还包括:
通过可视化界面展示所述目标检索结果,并接收针对所述目标检索结果的交互操作;
基于所述交互操作调整所述目标检索结果。
8.一种目标检索装置,其特征在于,所述装置包括:
获取模块,用于获取目标查询文本;
输入模块,用于将所述目标查询文本输入至文本处理模型,所述文本处理模型是基于训练查询文本对应的第一稠密文本向量和第一稀疏文本向量,以及样本信息对应的样本稠密文本向量和样本稀疏文本向量训练得到的;
生成模块,用于获取所述文本处理模型生成的所述目标查询文本对应的目标描述信息;
检索模块,用于根据所述目标描述信息进行目标检索,得到目标检索结果。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410122238.5A CN117951359A (zh) | 2024-01-29 | 2024-01-29 | 一种目标检索方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410122238.5A CN117951359A (zh) | 2024-01-29 | 2024-01-29 | 一种目标检索方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117951359A true CN117951359A (zh) | 2024-04-30 |
Family
ID=90792946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410122238.5A Pending CN117951359A (zh) | 2024-01-29 | 2024-01-29 | 一种目标检索方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117951359A (zh) |
-
2024
- 2024-01-29 CN CN202410122238.5A patent/CN117951359A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377740B (zh) | 情感极性分析方法、装置、电子设备及存储介质 | |
WO2022041982A1 (zh) | 数据推荐方法、装置、计算机设备以及存储介质 | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN112650841A (zh) | 信息处理方法、装置和电子设备 | |
US11763204B2 (en) | Method and apparatus for training item coding model | |
CN113407851A (zh) | 基于双塔模型的确定推荐信息的方法、装置、设备和介质 | |
JP2022541832A (ja) | 画像を検索するための方法及び装置 | |
CN109472028B (zh) | 用于生成信息的方法和装置 | |
CN114861064A (zh) | 基于双塔模型的对象推荐方法及装置 | |
CN117951359A (zh) | 一种目标检索方法、装置、电子设备及存储介质 | |
CN116911304B (zh) | 一种文本推荐方法及装置 | |
CN116911954B (zh) | 基于兴趣和流行度推荐物品的方法及装置 | |
CN112148865A (zh) | 信息推送方法和装置 | |
CN111897910A (zh) | 信息推送方法和装置 | |
CN117392379B (zh) | 目标检测的方法和装置 | |
CN116578693B (zh) | 一种文本检索方法及装置 | |
CN111814483B (zh) | 用于分析情感的方法和装置 | |
CN117952213A (zh) | 一种目标数据确定方法、装置、电子设备及存储介质 | |
CN113283115B (zh) | 图像模型生成方法、装置和电子设备 | |
CN117435739B (zh) | 图像文本分类的方法及装置 | |
CN118070900A (zh) | 一种目标数据确定方法、装置、电子设备及存储介质 | |
CN117392260B (zh) | 一种图像生成方法及装置 | |
CN117540015A (zh) | 文本语义确定方法、装置、电子设备及存储介质 | |
CN117540846A (zh) | 项目预测方法、装置、电子设备及计算机可读存储介质 | |
CN117874269A (zh) | 一种图像的推送方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |