CN117391824B - 基于大语言模型和搜索引擎推荐物品的方法及装置 - Google Patents
基于大语言模型和搜索引擎推荐物品的方法及装置 Download PDFInfo
- Publication number
- CN117391824B CN117391824B CN202311686397.XA CN202311686397A CN117391824B CN 117391824 B CN117391824 B CN 117391824B CN 202311686397 A CN202311686397 A CN 202311686397A CN 117391824 B CN117391824 B CN 117391824B
- Authority
- CN
- China
- Prior art keywords
- search
- search word
- user
- article
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000012512 characterization method Methods 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 26
- 238000010845 search algorithm Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 17
- 230000006399 behavior Effects 0.000 claims description 15
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 230000003993 interaction Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000004927 fusion Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 1
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Economics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Development Economics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开涉及数据处理技术领域,提供了一种基于大语言模型和搜索引擎推荐物品的方法及装置,该方法包括:根据用户的历史物品数据,确定待识别的物品序列;通过大语言模型对待识别的物品序列进行用户表征学习,得到物品序列对应的搜索词集合;通过搜索引擎对物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合;根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合。本公开的技术方案可以通过充分利用物品内容信息和NLP语言建模能力,解释用户兴趣,提高物品相关性和多样性,以及个性化推荐,提升推荐系统的准确性、个性化程度和用户体验。
Description
技术领域
本公开涉及数据处理技术领域,尤其涉及一种基于大语言模型和搜索引擎推荐物品的方法及装置。
背景技术
随着互联网技术的迅猛发展,各种互联网平台都开始利用推荐模型向用户推荐物品。利用推荐模型分析用户过去交互过的商品,来为用户推荐。例如,将用户在过去一段时间的历史数据输入至推荐模型,该推荐模型可以对该历史数据进行分析处理,并输出推荐结果。但是,现有的推荐模型主要存在以下不足:未能充分利用物品的内容信息和NLP模型的语言建模能力;无法解释用户兴趣,从而无法提高物品相关性和多样性。
发明内容
有鉴于此,本公开实施例提供了一种基于大语言模型和搜索引擎推荐物品的方法、装置、电子设备及计算机可读存储介质,以解决现有技术中推荐模型未能充分利用物品的内容信息和NLP模型的语言建模能力;无法解释用户兴趣,从而无法提高物品相关性和多样性的技术问题。
本公开实施例的第一方面,提供了一种基于大语言模型和搜索引擎推荐物品的方法,该方法包括:根据用户的历史物品数据,确定待识别的物品序列;通过大语言模型对待识别的物品序列进行用户表征学习,得到物品序列对应的搜索词集合;通过搜索引擎对物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合;根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合。
本公开实施例的第二方面,提供了一种基于大语言模型和搜索引擎推荐物品的装置,该装置包括:确定模块,用于根据用户的历史物品数据,确定待识别的物品序列;学习模块,用于通过大语言模型对待识别的物品序列进行用户表征学习,得到物品序列对应的搜索词集合;召回模块,用于通过搜索引擎对物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合;推荐模块,用于根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合。
本公开实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本公开实施例的第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本公开实施例与现有技术相比存在的有益效果是:本公开实施例可以通过使用大语言模型对用户的历史物品数据进行学习,能够充分利用物品的内容信息和NLP语言建模能力,这样可以更好地理解物品的特征和用户的偏好,从而提高推荐的准确性和个性化程度。通过搜索引擎对物品序列对应的搜索词集合进行查询处理,得到各个搜索词召回的物品集合,这样可以解释推荐结果的来源和依据,向用户提供推荐的原因和解释,用户能够更好地理解为什么会得到这些推荐物品,增加对推荐结果的信任感。通过根据各个搜索词召回的物品集合确定向用户推荐的目标物品集合,这样可以综合考虑多个搜索词的召回结果,从而提高推荐的物品相关性和多样性,进而用户可以获得更加相关和多样化的推荐物品,满足不同的兴趣和需求。
附图说明
为了更清楚地说明本公开实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了可以应用本发明实施例的技术方案的示例性系统架构的示意图;
图2是本公开实施例提供的一种基于大语言模型和搜索引擎推荐物品的方法的流程示意图;
图3是本公开实施例提供的另一种基于大语言模型和搜索引擎推荐物品的方法的流程示意图;
图4是本公开实施例提供的基于大语言模型和搜索引擎推荐物品的方法的场景示意图;
图5是本公开实施例提供的一种基于大语言模型和搜索引擎推荐物品的装置的结构示意图;
图6是本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本公开实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本公开。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本公开的描述。
需要说明的是,本公开所涉及的用户信息(包括但不限于终端设备信息、用户个人信息等)和数据(包括但不限于用于展示的数据、分析的数据等),均为经用户授权或者经过各方充分授权的信息和数据。
图1示出了可以应用本发明实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构100可以包括第一终端设备101、第二终端设备102、第三终端设备103中的一种或多种,网络104和服务器105。网络104用以在第一终端设备101、第二终端设备102、第三终端设备103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用第一终端设备101、第二终端设备102、第三终端设备103通过网络104与服务器105交互,以接收或发送数据等。第一终端设备101、第二终端设备102、第三终端设备103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器。例如服务器105可以从第一端设备103(也可以是第二终端设备102或第三终端设备103)获取用户的历史物品数据,通过使用大语言模型对用户的历史物品数据进行学习,能够充分利用物品的内容信息和NLP语言建模能力,这样可以更好地理解物品的特征和用户的偏好,从而提高推荐的准确性和个性化程度。通过搜索引擎对物品序列对应的搜索词集合进行查询处理,得到各个搜索词召回的物品集合,这样可以解释推荐结果的来源和依据,向用户提供推荐的原因和解释,用户能够更好地理解为什么会得到这些推荐物品,增加对推荐结果的信任感。通过根据各个搜索词召回的物品集合确定向用户推荐的目标物品集合,这样可以综合考虑多个搜索词的召回结果,从而提高推荐的物品相关性和多样性,进而用户可以获得更加相关和多样化的推荐物品,满足不同的兴趣和需求。
在一些实施例中,本发明实施例所提供的基于大语言模型和搜索引擎推荐物品的方法一般由服务器105执行,相应地,基于大语言模型和搜索引擎推荐物品的装置一般设置于服务器105中。在另一些实施例中,某些终端设备可以具有与服务器相似的功能从而执行本方法。因此,本发明实施例所提供的基于大语言模型和搜索引擎推荐物品的方法不限定在服务器端执行。
下面将结合附图详细说明根据本公开实施例的基于大语言模型和搜索引擎推荐物品的方法和装置。
图2是本公开实施例提供的一种基于大语言模型和搜索引擎推荐物品的方法的流程示意图。本公开实施例提供的方法可以由任意具备计算机处理能力的电子设备执行,例如电子设备可以是图1示出的服务器。
如图2所示,该基于大语言模型和搜索引擎推荐物品的方法包括步骤S210至步骤S240。
在步骤S210中,根据用户的历史物品数据,确定待识别的物品序列。
步骤S220,通过大语言模型对待识别的物品序列进行用户表征学习,得到物品序列对应的搜索词集合。
在步骤S230中,通过搜索引擎对物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合。
在步骤S240中,根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合。
该方法可以通过使用大语言模型对用户的历史物品数据进行学习,能够充分利用物品的内容信息和NLP语言建模能力,这样可以更好地理解物品的特征和用户的偏好,从而提高推荐的准确性和个性化程度。通过搜索引擎对物品序列对应的搜索词集合进行查询处理,得到各个搜索词召回的物品集合,这样可以解释推荐结果的来源和依据,向用户提供推荐的原因和解释,用户能够更好地理解为什么会得到这些推荐物品,增加对推荐结果的信任感。通过根据各个搜索词召回的物品集合确定向用户推荐的目标物品集合,这样可以综合考虑多个搜索词的召回结果,从而提高推荐的物品相关性和多样性,进而用户可以获得更加相关和多样化的推荐物品,满足不同的兴趣和需求。
在本公开一些实施例中,用户的历史物品数据可以指用户在过去的交互中与物品相关的数据记录。这些数据记录可以包括用户的购买历史、浏览历史、评分和评论、收藏或加入购物车等行为。例如,购买历史可以是用户过去购买过的物品列表,包括购买日期、物品名称、物品属性、价格等信息。浏览历史:用户在网站或应用中浏览过的物品列表,包括浏览日期、物品名称、物品属性等信息。评分和评论可以是用户对物品进行评分和撰写评论的记录,包括评分、评论内容、评价日期等信息。收藏或加入购物车可以是用户收藏或将物品加入购物车的记录,包括收藏或加入购物车的日期、物品名称、物品属性等信息。这些历史物品数据反映了用户与物品之间的交互行为和偏好。通过对这些数据进行分析和学习,推荐系统可以了解用户的兴趣、喜好和购买行为模式,从而提供个性化的推荐建议。这些历史物品数据是推荐系统中重要的输入信息,用于训练模型、生成用户的兴趣表征和预测用户可能感兴趣的物品。
在本公开一些实施例中,根据用户的历史物品数据,确定待识别的物品序列包括:根据用户的历史物品数据,确定针对各个历史物品的交互行为类型;根据预设提示词、针对各个历史物品的交互行为类型、以及历史物品数据,确定待识别的物品序列。对于每个历史物品,系统会根据相关的数据记录来判断用户与该物品的交互行为类型。例如,如果用户购买了某个物品,那么该物品的交互行为类型就是购买;如果用户只是浏览了某个物品,那么该物品的交互行为类型就是浏览。根据预设提示词、针对各个历史物品的交互行为类型、以及历史物品数据,确定待识别的物品序列,可以指在确定了每个历史物品的交互行为类型后,根据预设的提示词和历史物品数据,确定待识别的物品序列。预设提示词可以是为了引导系统在历史物品数据中识别出特定类型的物品序列。例如,如果预设提示词是 “最近购买的”,那么系统将根据用户的历史物品数据中的购买行为类型来确定最近购买的物品序列。通过上述方式确定的待识别的物品序列可以是“之前这个用户已经购买了<商品标题1><商品标题2>…之后,这个用户还想买…”。
通过结合预设提示词、各个历史物品的交互行为类型以及历史物品数据,系统可以确定待识别的物品序列。这个物品序列可以用于后续的用户表征学习、搜索词生成和推荐目标物品集合的确定。这样,系统可以根据用户的历史行为和交互行为类型来推断用户的兴趣和需求,从而更好地进行个性化推荐。
在本公开一些实施例中,通过大语言模型对待识别的物品序列进行用户表征学习,得到物品序列对应的搜索词集合包括:将待识别的物品序列输入至大语言模型, 通过大语言模型中的束搜索算法和打分函数对物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词;根据各个物品数据对应的搜索词,确定物品序列对应的搜索词集合。例如,在处理物品序列时,束搜索算法可以在模型生成的文本中进行搜索,找到最符合要求的结果。束搜索算法会考虑多个候选词,并根据打分函数对这些候选词进行排序。打分函数可以根据不同的需求和任务进行设计,例如语言模型的困惑度、生成文本的流畅性、与上下文的一致性等。通过束搜索算法和打分函数,系统可以对物品序列中的各个物品数据进行处理,并生成与每个物品数据相关的搜索词。这些搜索词可以是描述物品特征、属性或类别的关键词,可以帮助进一步理解和推断物品的性质和特点。根据各个物品数据对应的搜索词,确定物品序列对应的搜索词集合。例如,将各个物品数据对应的搜索词收集起来,形成一个搜索词集合。这个搜索词集合可以用于后续的搜索引擎查询、关键词匹配、物品分类或用于推荐系统的相关性匹配等任务。通过将物品序列转化为搜索词集合,系统可以更好地理解和表征物品的特征,从而提供更准确、个性化的搜索和推荐结果。这种方法可以通过结合大语言模型的语义理解和生成能力,将物品序列转化为更具表达力和语义准确性的搜索词,提高推荐系统的效果和用户体验。
在本公开一些实施例中,通过大语言模型中的束搜索算法和打分函数对物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词包括:针对一个物品数据,通过束搜索算法对物品数据进行处理,得到候选字符集合,并通过打分函数对候选字符集合中各个候选字符进行打分,得到各个候选字符的分数,以及根据各个候选字符的分数,确定物品数据对应的搜索词;通过循环的方式,获取各个物品数据对应的搜索词。例如,对于一个特定的物品数据,将其输入到大语言模型中。大语言模型可以是基于循环神经网络(RNN)或者是Transformer模型等。使用束搜索算法对物品数据进行处理,生成候选字符集合。束搜索算法可以在模型生成的文本中进行搜索,并保留多个候选字符序列作为候选结果。对于候选字符集合中的每个候选字符序列,通过打分函数对其进行打分。打分函数可以根据不同的标准和目标进行设计,例如语言模型的困惑度、生成文本的流畅性、与上下文的一致性等。根据各个候选字符的分数,确定物品数据对应的搜索词。可以选择分数最高的候选字符作为物品数据的搜索词,或者根据一定的阈值筛选出分数高于阈值的候选字符作为搜索词。
通过循环的方式,对每个物品数据重复上述步骤,获取各个物品数据对应的搜索词。通过这个过程,系统可以将每个物品数据转化为对应的搜索词,从而更好地理解和表征物品的特征。这种方法结合了大语言模型的语义理解和生成能力,通过束搜索算法和打分函数对候选字符进行选择和评估,得到最符合物品数据的搜索词。循环地处理每个物品数据,可以获取它们各自的搜索词,用于后续的搜索引擎查询、关键词匹配、物品分类或推荐系统的相关性匹配等任务。
基于前述实施例,预设配置束搜索算法的beam size(束的大小)为m,定义一个打分函数S,S可以确定当前已生成的词语与用户的相关性。假设搜索词的长度为L,使用大模型的解码器逐字生成搜索词。生成搜索词的过程可以基于循环神经网络(RNN)或者是Transformer模型等。在生成搜索词的过程中,当生成第一个字时,可以有若干个候选字符可供选择。这些候选字符可以是根据模型的初始状态和输入条件生成的。使用打分函数S计算所有候选字符与用户的相关性。打分函数S可以根据多个因素进行评估,例如用户的历史行为、兴趣偏好等。打分函数S会为每个候选字符分配一个相关性分数。在第一个字生成的过程中,从所有候选字符中选择与用户相关性最高的m个候选字符。这些候选字符将作为第一个字的生成结果。基于选择的m个候选字符,继续生成第二个字。在生成第二个字时,可以有多个候选字符可供选择,这些候选是基于前一个字的生成结果生成的。使用打分函数S计算所有候选字符与用户的相关性,并从中选择与用户相关性最高的m个候选字符。重复上述步骤,直到生成的搜索词的长度达到L为止。通过这个过程,系统可以根据用户的相关性评估选择与用户相关性最高的候选,以生成搜索词的每个字。这样可以确保生成的搜索词更符合用户的兴趣和需求。束搜索算法的使用可以帮助限制候选的数量,减少计算开销,并在搜索词的生成过程中选择与用户相关性最高的候选。这种方法可以提高搜索词的相关性和用户满意度,并在生成搜索词的过程中保持多样性和探索性。
在本公开一些实施例中,通过搜索引擎对物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合包括:将物品序列对应的搜索词集合中的各个搜索词输入到搜索引擎;通过搜索引擎遍历各个搜索词,针对各个搜索词从搜索引擎中召回各个搜索词对应的多个相关物品;根据各个搜索词对应的多个相关物品中的各个相关物品对应的分数,确定各个搜索词召回的物品集合。例如,对于给定的物品序列,根据之前的步骤生成了一组搜索词集合,每个搜索词与物品序列中的一个或多个物品相关。将这些搜索词逐个输入到搜索引擎进行查询。搜索引擎可以是常见的Web搜索引擎,或者是专门针对特定领域的搜索引擎。针对每个搜索词,搜索引擎会返回一组与该搜索词相关的搜索结果。搜索结果可以包括网页、文章、产品等多种类型的内容。对于每个搜索词,从搜索引擎返回的搜索结果中召回多个相关物品。这些相关物品可以是搜索结果中的链接、商品、文档等。对于每个搜索词召回的多个相关物品,根据各个相关物品对应的分数进行排序和筛选。分数可以是搜索引擎根据物品的相关性、排名等因素计算得出的。根据各个搜索词召回的多个相关物品中的各个相关物品对应的分数,确定各个搜索词召回的物品集合。可以选择使用分数最高的物品作为每个搜索词的召回结果,或者根据一定的阈值筛选出分数高于阈值的物品作为召回结果。通过这个过程,系统可以利用搜索引擎的功能和搜索词的相关性,从搜索引擎中召回与搜索词相关的物品。根据搜索结果中物品的相关性分数,可以确定每个搜索词召回的物品集合,这些物品集合可以用于后续的推荐系统、排序算法或者展示给用户的相关内容。这种方法可以扩展推荐系统的物品范围,引入搜索引擎的相关性计算和排序能力,从而提供更丰富和准确的推荐结果。
基于前述实施例,将每个搜索词召回出来的结果作为一路召回,并使用多路召回融合的方式进行结果合并,以平衡检索出来的商品的相关性和多样性的步骤可以详细描述如下:假设需要推荐的商品总数为K,搜索词的总个数为m。首先定义每个搜索词召回的商品数量为20。遍历所有生成的搜索词。对于每个搜索词,从搜索引擎中召回20个相关的商品。每个商品都有一个相似性得分,该相似性得分可以使用BM25等相似性计算方法进行计算。对于每个商品的相似性得分,使用最小最大归一化方法(Min-Max)将其归一化到[0, 1]之间。归一化可以将不同搜索词召回的商品的相似性得分统一到相同的范围内,方便后续的融合。通过上述步骤,我们获得了m * 20个商品,每个商品都有一个归一化后的相似性得分。进行多路召回结果的融合。从m个召回路中选出分数最高的K个不重复的商品作为最终推荐的商品集合。这里的融合策略可以是简单地选择分数最高的K个商品,也可以根据一定的规则进行加权融合。通过这个过程,系统可以平衡检索出来的商品的相关性和多样性。每个搜索词召回的商品都有一个相似性得分,并经过归一化处理后进行融合。选择分数最高的K个商品作为最终推荐的商品集合,可以保证推荐结果具有较高的相关性,并且在多个搜索词的召回结果中保持一定的多样性。这种方法可以提高推荐系统的准确性和用户满意度,同时提供丰富的推荐结果。
图3是本公开实施例提供的另一种基于大语言模型和搜索引擎推荐物品的方法的流程示意图。
如图3所示,在根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合之前,上述方法还包括步骤S310和步骤S320。
在步骤S310中,遍历各个搜索词对应的多个相关物品中的各个相关物品,确定各个搜索词对应的多个相关物品之间是否存在相同的相关物品。
在步骤S320中,如果各个搜索词对应的多个相关物品之间存在相同的相关物品,基于多个相同的相关物品对应的分数,确定相同的相关物品的目标分数。
该方法可以遍历各个搜索词对应的多个相关物品中的各个相关物品,确定各个搜索词对应的多个相关物品之间是否存在相同的相关物品,如果各个搜索词对应的多个相关物品之间存在相同的相关物品,基于多个相同的相关物品对应的分数,确定相同的相关物品的目标分数,这样可以保证相同的相关物品在推荐结果中具有一致的重要性,避免重复推荐相同的物品,并提升推荐系统的准确性和用户满意度。
在本公开一些实施例中,遍历各个搜索词对应的多个相关物品中的各个相关物品,确定各个搜索词对应的多个相关物品之间是否存在相同的相关物品,如果各个搜索词对应的多个相关物品之间存在相同的相关物品,基于多个相同的相关物品对应的分数,确定相同的相关物品的目标分数。例如,对于每个搜索词,遍历其对应的多个相关物品。这些相关物品可以是之前从搜索引擎召回的物品,每个物品都有一个对应的分数。在遍历的过程中,记录下每个搜索词对应的多个相关物品中的相同物品。如果某个物品在多个搜索词的相关物品中都存在,即被多个搜索词召回,可以称之为相同的相关物品。对于存在相同的相关物品,基于多个相同的相关物品对应的分数,确定相同的相关物品的目标分数。可以基于多个相同的相关物品对应的分数求和来确定该相同的相关物品目标分数。
在本公开一些实施例中,根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合包括:按照分数由高到低的顺序,对各个物品集合中各个相关物品对应的分数进行排序,各个相关物品对应的分数包含相同的相关物品的目标分数;根据排序结果,确定向用户推荐的K个相关商品,K大于0。例如,将对各个物品集合中各个相关物品汇总成一个集合,然后按照分数由高到低的顺序,对该集合中物品的分数进行排序,从排序结果中取topk个物品向用户推荐。在本实施例中,汇总后的集合可以包含上述基于多个相同的相关物品对应的分数求和确定的目标分数的物品,有助于提高该物品的推荐概率,有效地避免由于该物品存在于每个搜索词召回出来的结果中的部分召回结果,在部分召回结果中的该物品的分数可能较低,而导致无法对该物品进行推荐的情况发生。
参考图4,待识别的物品序列为多个商品标题,例如,多个商品标题可以为商品标题1、商品标题2、商品标题3、……、商品标题N。将多个商品标题输入至大大规模预训练语言模型(即上述大语言模型)。通过大语言模型中的束搜索算法和打分函数对物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词,例如,搜索词1、搜索词2、……、搜索词N。将搜索词1、搜索词2、……、搜索词N输入至搜索引擎,通过搜索引擎遍历各个搜索词,针对各个搜索词从搜索引擎中召回各个搜索词对应的多个相关物品各个搜索词对应的多个相关物品可以为搜索词1对应的多个相关物品、搜索词2对应的多个相关物品、……、搜索词N对应的多个相关物品。然后根据各个搜索词对应的多个相关物品中的各个相关物品对应的分数,确定各个搜索词召回的物品集合,然后将各个搜索词召回的物品集合汇总成一个集合向用户推荐,即汇总后的集合为最终推荐结果。这样可以综合考虑多个搜索词的召回结果,从而提高推荐的物品相关性和多样性,进而用户可以获得更加相关和多样化的推荐物品,满足不同的兴趣和需求。
下述为本公开装置实施例,可以用于执行本公开方法实施例。下文描述的基于大语言模型和搜索引擎推荐物品的装置与上文描述的基于大语言模型和搜索引擎推荐物品的方法可相互对应参照。对于本公开装置实施例中未披露的细节,请参照本公开方法实施例。
图5是本公开实施例提供的一种基于大语言模型和搜索引擎推荐物品的装置的结构示意图。
如图5所示,该基于大语言模型和搜索引擎推荐物品的装置500包括确定模块510、学习模块520、召回模块530和推荐模块540。
具体地,确定模块510,用于根据用户的历史物品数据,确定待识别的物品序列。
学习模块520,用于通过大语言模型对待识别的物品序列进行用户表征学习,得到物品序列对应的搜索词集合。
召回模块530,用于通过搜索引擎对物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合。
推荐模块540,用于根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合。
该基于大语言模型和搜索引擎推荐物品的装置500可以通过使用大语言模型对用户的历史物品数据进行学习,能够充分利用物品的内容信息和NLP语言建模能力,这样可以更好地理解物品的特征和用户的偏好,从而提高推荐的准确性和个性化程度。通过搜索引擎对物品序列对应的搜索词集合进行查询处理,得到各个搜索词召回的物品集合,这样可以解释推荐结果的来源和依据,向用户提供推荐的原因和解释,用户能够更好地理解为什么会得到这些推荐物品,增加对推荐结果的信任感。通过根据各个搜索词召回的物品集合确定向用户推荐的目标物品集合,这样可以综合考虑多个搜索词的召回结果,从而提高推荐的物品相关性和多样性,进而用户可以获得更加相关和多样化的推荐物品,满足不同的兴趣和需求。
在本公开一些实施例中,确定模块510被配置为:根据用户的历史物品数据,确定针对各个历史物品的交互行为类型;根据预设提示词、针对各个历史物品的交互行为类型、以及历史物品数据,确定待识别的物品序列。
在本公开一些实施例中,学习模块520被配置为:将待识别的物品序列输入至大语言模型, 通过大语言模型中的束搜索算法和打分函数对物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词;根据各个物品数据对应的搜索词,确定物品序列对应的搜索词集合。
在本公开一些实施例中,通过大语言模型中的束搜索算法和打分函数对物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词包括:针对一个物品数据,通过束搜索算法对物品数据进行处理,得到候选字符集合,并通过打分函数对候选字符集合中各个候选字符进行打分,得到各个候选字符的分数,以及根据各个候选字符的分数,确定物品数据对应的搜索词;通过循环的方式,获取各个物品数据对应的搜索词。
在本公开一些实施例中,召回模块530被配置为:将物品序列对应的搜索词集合中的各个搜索词输入到搜索引擎;通过搜索引擎遍历各个搜索词,针对各个搜索词从搜索引擎中召回各个搜索词对应的多个相关物品;根据各个搜索词对应的多个相关物品中的各个相关物品对应的分数,确定各个搜索词召回的物品集合。
在本公开一些实施例中,在根据各个搜索词召回的物品集合,确定向用户推荐的目标物品集合之前,上述基于大语言模型和搜索引擎推荐物品的装置500还用于:遍历各个搜索词对应的多个相关物品中的各个相关物品,确定各个搜索词对应的多个相关物品之间是否存在相同的相关物品;如果各个搜索词对应的多个相关物品之间存在相同的相关物品,基于多个相同的相关物品对应的分数,确定相同的相关物品的目标分数。
在本公开一些实施例中,推荐模块540被配置为:按照分数由高到低的顺序,对各个物品集合中各个相关物品对应的分数进行排序,各个相关物品对应的分数包含相同的相关物品的目标分数;根据排序结果,确定向用户推荐的K个相关商品,K大于0。
图6是本公开实施例提供的电子设备6的示意图。如图6所示,该实施例的电子设备6包括:处理器601、存储器602以及存储在该存储器602中并且可在处理器601上运行的计算机程序603。处理器601执行计算机程序603时实现上述各个方法实施例中的步骤。或者,处理器601执行计算机程序603时实现上述各装置实施例中各模块的功能。
电子设备6可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备6可以包括但不仅限于处理器601和存储器602。本领域技术人员可以理解,图6仅仅是电子设备6的示例,并不构成对电子设备6的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器601可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器602可以是电子设备6的内部存储单元,例如,电子设备6的硬盘或内存。存储器602也可以是电子设备6的外部存储设备,例如,电子设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器602还可以既包括电子设备6的内部存储单元也包括外部存储设备。存储器602用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本公开实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、电载波信号、电信信号以及软件分发介质等。需要说明的是,计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如,在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
以上实施例仅用以说明本公开的技术方案,而非对其限制;尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本公开各实施例技术方案的精神和范围,均应包含在本公开的保护范围之内。
Claims (8)
1.一种基于大语言模型和搜索引擎推荐物品的方法,其特征在于,所述方法包括:
根据用户的历史物品数据,确定待识别的物品序列;
通过所述大语言模型对所述待识别的物品序列进行用户表征学习,得到所述物品序列对应的搜索词集合;
通过所述搜索引擎对所述物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合;
根据各个搜索词召回的物品集合,确定向所述用户推荐的目标物品集合;
通过所述大语言模型对所述待识别的物品序列进行用户表征学习,得到所述物品序列对应的搜索词集合包括:将所述待识别的物品序列输入至所述大语言模型, 通过所述大语言模型中的束搜索算法和打分函数对所述物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词;根据各个物品数据对应的搜索词,确定所述物品序列对应的搜索词集合;
通过所述大语言模型中的束搜索算法和打分函数对所述物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词包括:针对一个物品数据,通过所述束搜索算法对所述物品数据进行处理,得到候选字符集合,并通过所述打分函数对所述候选字符集合中各个候选字符进行打分,得到各个候选字符的分数,以及根据各个候选字符的分数,确定所述物品数据对应的搜索词;通过循环的方式,获取各个物品数据对应的搜索词。
2.根据权利要求1所述的方法,其特征在于,根据所述用户的历史物品数据,确定所述待识别的物品序列包括:
根据所述用户的历史物品数据,确定针对各个历史物品的交互行为类型;
根据预设提示词、所述针对各个历史物品的交互行为类型、以及所述历史物品数据,确定所述待识别的物品序列。
3.根据权利要求1所述的方法,其特征在于,通过所述搜索引擎对所述物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合包括:
将所述物品序列对应的搜索词集合中的各个搜索词输入到所述搜索引擎;
通过所述搜索引擎遍历各个搜索词,针对各个搜索词从所述搜索引擎中召回各个搜索词对应的多个相关物品;
根据各个搜索词对应的多个相关物品中的各个相关物品对应的分数,确定各个搜索词召回的物品集合。
4.根据权利要求3所述的方法,其特征在于,在根据各个搜索词召回的物品集合,确定向所述用户推荐的目标物品集合之前,所述方法还包括:
遍历各个搜索词对应的多个相关物品中的各个相关物品,确定各个搜索词对应的多个相关物品之间是否存在相同的相关物品;
如果各个搜索词对应的多个相关物品之间存在相同的相关物品,基于多个相同的相关物品对应的分数,确定相同的相关物品的目标分数。
5.根据权利要求4所述的方法,其特征在于,根据各个搜索词召回的物品集合,确定向所述用户推荐的目标物品集合包括:
按照分数由高到低的顺序,对各个物品集合中各个相关物品对应的分数进行排序,所述各个相关物品对应的分数包含相同的相关物品的目标分数;
根据排序结果,确定向所述用户推荐的K个相关商品,K大于0。
6.一种基于大语言模型和搜索引擎推荐物品的装置,其特征在于,所述装置包括:
确定模块,用于根据用户的历史物品数据,确定待识别的物品序列;
学习模块,用于通过所述大语言模型对所述待识别的物品序列进行用户表征学习,得到所述物品序列对应的搜索词集合;
召回模块,用于通过所述搜索引擎对所述物品序列对应的搜索词集合中的各个搜索词进行查询处理,得到各个搜索词召回的物品集合;
推荐模块,用于根据各个搜索词召回的物品集合,确定向所述用户推荐的目标物品集合;
通过所述大语言模型对所述待识别的物品序列进行用户表征学习,得到所述物品序列对应的搜索词集合包括:将所述待识别的物品序列输入至所述大语言模型, 通过所述大语言模型中的束搜索算法和打分函数对所述物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词;根据各个物品数据对应的搜索词,确定所述物品序列对应的搜索词集合;
通过所述大语言模型中的束搜索算法和打分函数对所述物品序列中的各个物品数据进行处理,得到各个物品数据对应的搜索词包括:针对一个物品数据,通过所述束搜索算法对所述物品数据进行处理,得到候选字符集合,并通过所述打分函数对所述候选字符集合中各个候选字符进行打分,得到各个候选字符的分数,以及根据各个候选字符的分数,确定所述物品数据对应的搜索词;通过循环的方式,获取各个物品数据对应的搜索词。
7.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至5中任一项所述方法的步骤。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311686397.XA CN117391824B (zh) | 2023-12-11 | 2023-12-11 | 基于大语言模型和搜索引擎推荐物品的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311686397.XA CN117391824B (zh) | 2023-12-11 | 2023-12-11 | 基于大语言模型和搜索引擎推荐物品的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117391824A CN117391824A (zh) | 2024-01-12 |
CN117391824B true CN117391824B (zh) | 2024-04-12 |
Family
ID=89465095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311686397.XA Active CN117391824B (zh) | 2023-12-11 | 2023-12-11 | 基于大语言模型和搜索引擎推荐物品的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117391824B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117743950B (zh) * | 2024-02-20 | 2024-05-28 | 浙江口碑网络技术有限公司 | 相关性判断方法及基于llm的相关性判断模型构建方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119765A (zh) * | 2019-04-18 | 2019-08-13 | 浙江工业大学 | 一种基于Seq2seq框架的关键词提取方法 |
CN116071119A (zh) * | 2022-08-16 | 2023-05-05 | 电子科技大学 | 一种基于多行为推荐模型的模型不可知反事实解释方法 |
CN116595150A (zh) * | 2023-06-16 | 2023-08-15 | 上海微盟企业发展有限公司 | 一种对话推荐方法、装置、设备及存储介质 |
CN116610853A (zh) * | 2022-02-08 | 2023-08-18 | 中兴通讯股份有限公司 | 搜索推荐方法、搜索推荐系统、计算机设备及存储介质 |
CN116610858A (zh) * | 2023-05-17 | 2023-08-18 | 北京字跳网络技术有限公司 | 一种信息分发方法、装置、电子设备以及存储介质 |
CN116628346A (zh) * | 2023-07-19 | 2023-08-22 | 深圳须弥云图空间科技有限公司 | 搜索词推荐模型的训练方法及装置 |
CN116911312A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 一种任务型对话系统及其实现方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9535897B2 (en) * | 2013-12-20 | 2017-01-03 | Google Inc. | Content recommendation system using a neural network language model |
EP4088229A4 (en) * | 2020-01-07 | 2024-02-14 | Servicenow Canada Inc | RECOMMENDATION METHOD AND SYSTEM |
-
2023
- 2023-12-11 CN CN202311686397.XA patent/CN117391824B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119765A (zh) * | 2019-04-18 | 2019-08-13 | 浙江工业大学 | 一种基于Seq2seq框架的关键词提取方法 |
CN116610853A (zh) * | 2022-02-08 | 2023-08-18 | 中兴通讯股份有限公司 | 搜索推荐方法、搜索推荐系统、计算机设备及存储介质 |
CN116071119A (zh) * | 2022-08-16 | 2023-05-05 | 电子科技大学 | 一种基于多行为推荐模型的模型不可知反事实解释方法 |
CN116610858A (zh) * | 2023-05-17 | 2023-08-18 | 北京字跳网络技术有限公司 | 一种信息分发方法、装置、电子设备以及存储介质 |
CN116595150A (zh) * | 2023-06-16 | 2023-08-15 | 上海微盟企业发展有限公司 | 一种对话推荐方法、装置、设备及存储介质 |
CN116628346A (zh) * | 2023-07-19 | 2023-08-22 | 深圳须弥云图空间科技有限公司 | 搜索词推荐模型的训练方法及装置 |
CN116911312A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 一种任务型对话系统及其实现方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117391824A (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kluver et al. | Rating-based collaborative filtering: algorithms and evaluation | |
US11514333B2 (en) | Combining machine-learning and social data to generate personalized recommendations | |
CN110263265B (zh) | 用户标签生成方法、装置、存储介质和计算机设备 | |
CN108959603B (zh) | 基于深度神经网络的个性化推荐系统及方法 | |
Singh et al. | A novel deep neural-based music recommendation method considering user and song data | |
CN110717098A (zh) | 基于元路径的上下文感知用户建模方法、序列推荐方法 | |
CN117391824B (zh) | 基于大语言模型和搜索引擎推荐物品的方法及装置 | |
Hashemzadeh et al. | Using a data mining tool and fp-growth algorithm application for extraction of the rules in two different dataset | |
CN116823410B (zh) | 数据处理方法、对象处理方法、推荐方法及计算设备 | |
Nazari et al. | Scalable and data-independent multi-agent recommender system using social networks analysis | |
Salampasis et al. | Comparison of RNN and Embeddings Methods for Next-item and Last-basket Session-based Recommendations | |
Thomas et al. | A novel framework for an intelligent deep learning based product recommendation system using sentiment analysis (SA) | |
Tomeo et al. | Addressing the cold start with positive-only feedback through semantic-based recommendations | |
Martina et al. | A Virtual Assistant for the Movie Domain Exploiting Natural Language Preference Elicitation Strategies | |
Almu et al. | Incorporating preference Changes through users’ input in collaborative filtering movie recommender system | |
Ghanwat et al. | Improved personalized recommendation system with better user experience | |
CN112949852B (zh) | 训练模型的方法、装置、电子设备及可读存储介质 | |
Khalique et al. | A deterministic model for determining degree of friendship based on Mutual Likings and recommendations on OTT platforms | |
Xu | BanditMF: Multi-Armed Bandit Based Matrix Factorization Recommender System | |
Guan | On reducing the data sparsity in collaborative filtering recommender systems | |
Martina et al. | Narrative Recommendations based on Natural Language Preference Elicitation for a Virtual Assistant for the Movie Domain. | |
Tyagi et al. | Improving Accuracy of Recommendation Systems with Deep Learning Models | |
DHARMA | Aspect Based Sentiment Analysis For Extracting Kansei Word Using Spacy Library (A Case Study On Smartphone Product) | |
CN117540078A (zh) | 一种推荐理由生成模型的优化方法及装置 | |
Sharma et al. | ADOPTION OF BOOKS RECOMMENDATIONS TECHNIQUES WHILE USING FILTERING METHOS FOR UPHOLDING ACADEMICS IN THE EDUCATIONAL INSTITUTIONS. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |