CN110457452B - 推荐理由生成方法、装置、电子设备及可读存储介质 - Google Patents

推荐理由生成方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN110457452B
CN110457452B CN201910610508.6A CN201910610508A CN110457452B CN 110457452 B CN110457452 B CN 110457452B CN 201910610508 A CN201910610508 A CN 201910610508A CN 110457452 B CN110457452 B CN 110457452B
Authority
CN
China
Prior art keywords
recommendation
sample
data
user
question
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910610508.6A
Other languages
English (en)
Other versions
CN110457452A (zh
Inventor
富饶
兰田
陆源源
侯培旭
张弓
王仲远
王金刚
张富峥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hanhai Information Technology Shanghai Co Ltd
Original Assignee
Hanhai Information Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hanhai Information Technology Shanghai Co Ltd filed Critical Hanhai Information Technology Shanghai Co Ltd
Priority to CN201910610508.6A priority Critical patent/CN110457452B/zh
Publication of CN110457452A publication Critical patent/CN110457452A/zh
Priority to PCT/CN2020/095896 priority patent/WO2021004228A1/zh
Priority to US17/524,899 priority patent/US20220147845A1/en
Application granted granted Critical
Publication of CN110457452B publication Critical patent/CN110457452B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种推荐理由生成方法,包括:根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;根据所述目标用户的搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的第一机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。解决了成本较高、个性化不足的技术问题。取得了降低推荐理由生成成本的同时提高推荐理由的个性化程度的有益效果。

Description

推荐理由生成方法、装置、电子设备及可读存储介质
技术领域
本发明涉及计算机技术领域,具体涉及一种推荐理由生成方法、装置、电子设备及可读存储介质。
背景技术
随着AI(Artificial Intelligence,人工智能)技术的发展,与此相关的应用正在产生越来越重要的商业价值和社会影响力,如何解决其决策过程中的信任机制是促进人工智能进一步发展的关键因素。例如,对于搜索系统而言,评定主体是其面对的用户,而用户的主观性较强,因此结果的可解释性不仅会直接影响搜索系统的效果,也会影响用户对系统的信任度和接受程度。近年来可解释的搜索系统越来越受到关注,给用户展示商品或内容的同时透出推荐理由,这样不仅能提升系统的透明度,还能提高用户对平台的信任和接受程度。
目前业内推荐理由主要有以下四种生成方法:人工运营:由运营人员或专员针对每一个商户写出一句合适的文本内容;规则模板:由专家设定若干模板,根据模板拼接出合适的内容;抽取评论数据:抽取用户撰写的对商户的部分评论内容作为推荐理由;内容生成:利用NLP(Natural Language Processing,自然语言处理)技术,训练生成模型让模型生成合适的文本。
但是上述目前推荐理由生成主流的四种方法,都有一定的缺陷与局限性。其中,对于人工运营方式,虽然人工撰写的句子质量高且内容丰富,然而成本高,数量有限且更新慢,且无法满足个性化的生成内容;对于规则模板方式,比起人工运营能够降低一定成本,然而内容单调,可介绍的维度覆盖面低,且没有通用性,同样也不能满足个性化的需求;对于抽取评论数据的方式,严格依赖评论数据供给,拥有一定的局限性;对于内容生成方式,首先在推荐理由的场景下,缺乏很好的样本,其次对于单个商户,无法满足个性化的生成内容。由此可见,现有的推荐理由生成方案存在成本较高、个性化不足等技术问题。
发明内容
本发明提供一种推荐理由生成方法、装置、电子设备及可读存储介质,以部分或全部解决现有技术中推荐理由生成过程相关的上述问题。
依据本发明第一方面,提供了一种推荐理由生成方法,包括:
根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;
根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;
其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。
根据本发明的第二方面,提供了一种推荐理由生成装置,包括:
召回结果获取模块,用以根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;
推荐理由生成模块,用以根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;
其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。
根据本发明的第三方面,提供了一种电子设备,包括:
处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现前述的推荐理由生成方法。
根据本发明的第四方面,提供了一种可读存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行前述的推荐理由生成方法。
根据本发明的推荐理由生成方法,可以根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。由此解决了成本较高、个性化不足的技术问题。取得了降低推荐理由生成成本的同时提高推荐理由的个性化程度的有益效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明实施例的一种推荐理由生成方法的步骤流程图之一;
图2A示出了根据本发明实施例的一种召回结果的列表页展示示意图之一;
图2B示出了根据本发明实施例的一种召回结果的列表页展示示意图之二;
图2C示出了根据本发明实施例的一种召回结果的列表页展示示意图之三;
图3示出了根据本发明实施例的一种推荐理由生成方法的步骤流程图之二;
图4示出了根据本发明实施例的一种智能问答模型的示意图;
图5示出了根据本发明实施例的一种Context Gate的结构示意图;
图6示出了根据本发明实施例的一种推荐理由生成装置的结构示意图之一;以及
图7示出了根据本发明实施例的一种推荐理由生成装置的结构示意图之二。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
实施例一
详细介绍本发明实施例提供的一种推荐理由生成方法。
参照图1,示出了本发明实施例中一种推荐理由生成方法的步骤流程图。
步骤110,根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果。
在点评、搜索等网络平台,可能包含海量的备选对象以供各个用户进行点评、浏览、消费等行为操作,但是由于不同用户的需求不同,甚至同一用户在不同时刻的需求也会发生变化,因此用户需要录入其当前的搜索数据,以从海量的备选对象中初步筛选出满足其当前需求的目标对象,此时获取得到的目标对象则可以理解为针对目标用户当前的搜索数据的召回结果。
在本发明实施例中,可以通过任何可用方法获取针对目标用户的搜索数据的至少一个召回结果,对此本发明实施例不加以限定。例如,可以在获取得到目标用户的搜索数据之后,通过任何可用方式获取各个备选对象与搜索数据的匹配程度,进而将匹配程序超过预设匹配阈值的备选对象作为召回结果,等等。
其中的搜索数据可以包括但不限于搜索关键词、搜索时间、搜索地点、搜索场景,等等。
步骤120,根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的第一机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。
在点评搜索等场景中,推荐理由主要可以产生以下作用:
1、解释召回:向用户解释搜索结果。如图2A所示,当搜索“辣”这个关键词时,列表页展示的召回结果并不能说明其与“辣”这个搜索词的关联性,这时通过推荐理由展示的相关信息点“辣的很爽,喜欢吃辣的一定不要错过”可以起到解释召回的作用。
2、亮点推荐:介绍每个召回结果的特色。在同一列表页上展示的各个召回结果,往往不能体现各自的特色与差异性,这时推荐理由可以展示每个召回结果的亮点从而辅助用户决策。如图2B所示的推荐理由“老板是顶级厨师第一季的亚军”则可以展示相应召回结果的厨师亮点。
3、场景化承载:根据用户所处搜索场景制定内容。用户所处的搜索场景很大程度影响用户的需求,比如当用户处在异地旅游场景下,往往希望能够体验一下当地特色,此时推荐理由展示当地人爱去的餐厅更为合理,如图2C中的推荐理由“食客95.24%是本地人”。
4、体现个性化:根据用户画像对应生成千人千面的推荐理由内容。每个召回结果的推荐理由不是唯一的,随着用户偏好、历史行为数据不同,展示最贴合当前用户的推荐理由,最大化满足用户需求。
本申请提出的基于智能问答模型生成推荐理由的方案,可以实时动态生成推荐理由,根据包括但不限于目标用户的目标用户画像,搜索关键词、搜索场景、搜索时间等搜索数据等各维度信息智能理解目标用户的“问题”,针对当前的召回结果完成相应主题的推荐理由自动撰写。
之所以建模为智能问答模型,是因为推荐理由的首要目的是满足用户需求,当目标用户处于某个搜索场景搜索某个搜索数据的时候,推荐理由需要能够响应目标用户的需求。那么用户的需求(包括其偏好、搜索关键词、搜索场景等搜索数据,以及与相应的搜索数据对应的召回结果)就可以理解为是目标用户所抛出的“问题”,而各个召回结果的推荐理由就可以作为“答案”反馈至目标用户。
因此,在本发明实施例中,可以根据目标用户的搜索数据、针对相应搜索数据的召回结果以及目标用户的目标用户画像,通过预设的智能问答模型获取各个召回结果的推荐理由;其中,智能问答模型为通过至少一个样本问答数据组合训练得到的第一机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。
其中,搜索数据可以包括但不限于搜索场景、搜索关键词、搜索时间中的至少一种,而历史搜索数据则可以理解为在当前时刻之前的搜索数据。目标用户画像即为目标用户的用户画像,用户画像是根据用户的社会属性、生活习惯和消费行为等信息而抽象出的一个标签化的用户模型,构建用户画像的核心工作即是给用户贴“标签”,而标签是通过对用户信息分析而来的高度精炼的特征标识。用户画像可以包括但不限于用户名称、用户性别、用户年龄、用户职业、用户兴趣爱好,等等。
在实际应用中,用户的行为数据可以在一定程序上反映用户的需求,例如用户的评论内容与用户所关注的内容及需求点具有一定的关联性。即用户在处于某个搜索场景和拥有某种搜索需求的时候来到搜索平台,其点击或浏览并最终产生消费行为后撰写的评论可以一定程度上代表他所关注的需求点。那么我们可以通过回溯样本用户的历史评价数据、历史搜索数据等历史行为数据,以及与相应的历史行为数据对应的推荐对象,构建相应样本用户对应的样本问答数据组合,进而可以通过至少一个样本问答数据组合训练得到智能问答模型。
其中,智能问答模型可以为任意一种可用的机器学习模型,具体的均可以根据需求进行预先设置,对此本发明实施例不加以限定。
在训练智能问答模型时,则可以从样本用户的历史行为数据中获取相应样本用户的历史评价数据,相应历史评价数据所评价的推荐对象,以及相应样本用户针对相应推荐对象的历史搜索数据,以及相应的样本用户的用户画像,也即样本用户画像,进而根据相应的历史评价数据、历史搜索数据、样本用户画像和相应的推荐对象训练智能问答模型。
其中,样本用户针对相应推荐对象的历史搜索数据可以包括样本用户在预设历史时间段内针对推荐对象的历史搜索数据,或者可以包括与历史评价数据对应的历史搜索数据,等等。具体的可以根据需求进行预设设置,对此本发明实施例不加以限定。
例如,对于样本用户A,假设其历史行为数据中包括针对推荐对象B的历史评价数据C,且在预设历史时间段内样本用户A进行了N次搜索行为,且其中有M次搜索行为的推荐对象中包含了推荐对象B,也即在预设历史时间段内样本用户A针对推荐对象B进行了M次搜索行为,且每次搜索行为所对应的历史搜索数据依次为D1、D2…Dm。
假设样本用户A在输入历史搜索数据D1后得到的推荐对象B,进而针对推荐对象B发生了消费行为,并且在消费行为之后评价了推荐对象B,且此时的评价数据为上述的历史评价数据C。那么此时,对应于历史评价数据C,样本用户A针对推荐对象B的历史搜索数据可以包括上述的历史搜索数据D1;当然,对应于历史评价数据C,样本用户A针对推荐对象B的历史搜索数据可以包括上述的历史搜索数据D1、D2…Dm;等等。
在训练得到智能问答模型之后,则可以根据目标用户的搜索数据、针对搜索数据的召回结果以及目标用户的目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由。
在获取得到各个召回结果的推荐理由之后,则可以将推荐理由与相应的召回结果都返回至目标用户,而且在向目标用户展示召回结果时,可以同时展示各个召回结果的推荐理由,从而可以辅助目标用户选定满足其需求的召回结果。具体的显示方式可以根据需求进行预先设置,对此本发明实施例不加以限定。
在本发明实施例中,根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的第一机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。取得了降低推荐理由生成成本的同时提高推荐理由的个性化程度的有益效果。
实施例二
详细介绍本发明实施例提供的一种推荐理由生成方法。
参照图3,示出了本发明实施例中一种推荐理由生成方法的步骤流程图。
步骤210,根据所述样本用户的所述历史评价数据和所述样本用户画像,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据,构建所述样本问答数据组合。
为了对智能问答模型进行训练,则需要构建用以训练智能问答模型的样本问答数据组合。如前述,当用户进行搜索时,需要输入能够满足其自身需求的搜索数据,而且搜索平台也会根据用户的搜索请求返回相应的推荐对象至相应用户。而在历史行为数据中即包括相应用户的历史搜索数据、历史评价数据,等等。而且,样本用户画像则可以表征相应样本用户的用户特征。因此在本发明实施例中,可以根据选定的样本用户的历史评价数据和样本用户画像,以及与相应的历史评价数据对应的推荐对象、相应样本用户针对相应推荐对象的历史搜索数据,构建所述样本问答数据组合。
可选地,在本发明实施例中,所述步骤210,进一步可以包括:
子步骤211,根据所述样本用户的历史行为数据,以及与所述历史行为数据对应的推荐对象,获取所述样本用户已评价的目标推荐对象。
用户的历史行为数据可能包括样本用户的全部历史行为数据,但是在本发明实施例中,为了训练智能问答模型,需要保证样本问答数据组合中的每一个“问题”对应有相应的“答案”。其中的“答案”可以包括样本用户对某一推荐对象的历史评价数据等;而“问题”则可以包括相应推荐对象,以及相应样本用户针对相应推荐对象的历史搜索数据等。由此可见,同一样本问答数据组合对应的“问题”和“答案”对应于同一推荐对象。
在实际应用中,针对用户的某一搜索行为所返回的各个推荐对象,相应用户并不一定会针对其中的至少一个推荐对象进行评价;但是一般而言,如果用户针对某一对象进行了评价,那么该对象一般是用户某一搜索行为返回的其中一个推荐对象。
由此可见,为了获取得到样本用户对应的样本问答数据组合,则可以先获取样本问答数据组合对应的推荐对象,进而根据推荐对象,从用户历史行为数据中获取得到相应的“答案”和“问题”。因此,在本发明实施例中,可以先基于样本用户的历史行为数据与推荐对象,获取样本用户已评价的目标推荐对象。
例如,通过回溯样本用户a1的历史行为数据,发现其在过去某一年情人节19:00的时候,搜索关键词“美食”,并在返回的推荐对象b1中进行了消费行为,而且在消费后针对推荐对象b1进行了评价,评价内容为“这是一家适合情侣约会的小资餐厅”,且用户a1的用户画像包括:小资。此时,则可以获取得到样本用户a1已评价的目标推荐对象b1。
子步骤212,根据所述样本用户针对所述目标推荐对象的历史评价数据,获取所述样本用户针对所述目标推荐对象的样本推荐理由。
在确定了样本用户已评价的目标推荐对象之后,则可以根据样本用户的历史行为数据中针对相应目标推荐对象的历史评价数据,获取相应样本用户针对相应目标推荐对象的样本推荐理由。
例如,对于上述的样本用户a1和目标推荐对象b1,此时可以获取上述的“这是一家适合情侣约会的小资餐厅”作为样本用户a1针对目标推荐对象b1的样本推荐理由。
子步骤213,根据所述样本用户的所述样本用户画像、所述目标推荐对象,以及与所述历史评价数据对应的历史搜索数据,获取所述样本用户针对所述目标推荐对象的样本问题数据。
在确定了样本问答数据组合对应的目标推荐对象之后,则可以根据样本用户的样本用户画像,以及样本用户的历史行为数据中与相应的历史评价数据对应的历史搜索数据,获取相应样本用户针对相应目标推荐对象的样本问题数据。其中,样本问题数据可以包括但不限于样本用户的样本用户画像、与相应的历史评价数据对应的历史搜索时间、历史搜索地点、历史搜索场景、历史搜索关键词等等历史搜索数据、样本用户的用户画像,也即样本用户画像、相应的目标推荐对象。
如前述,历史行为数据中针对目标推荐对象的历史搜索数据,具体可以包括历史行为数据中相应样本用户针对目标推荐对象的全部历史搜索数据,或者是在预设历史时间段内的历史搜索数据;或者也可以仅包括与相应的历史评价数据对应的历史搜索数据。
例如,对于上述的样本用户a1以及推荐对象b1。假设在样本用户a1的用户历史行为数据中,除上述的行为数据之外,还包括该样本用户a1在同一年的端午节18:00针对关键词“西餐”的搜索行为,且本次搜索的返回结果中也包括推荐对象b1,但是针对本次搜索行为的返回结果,样本用户a1并没有针对推荐对象b1进行消费以及评价。但是基于上述的样本用户a1的历史行为数据,仍然可以确定得到样本用户a1已评价的目标推荐对象b1。
如果此时设置历史行为数据中针对所述目标推荐对象的历史搜索数据,具体可以包括历史行为数据中相应样本用户针对目标推荐对象的全部历史搜索数据,那么则可以获取得到样本用户a1针对目标推荐对象b1的历史搜索数据包括如下内容:
历史搜索时间:19:00,历史搜索场景:情人节,历史搜索关键词:美食;
历史搜索时间:18:00,历史搜索场景:端午节,历史搜索关键词:西餐。
而如果此时设置历史行为数据中针对所述目标推荐对象的历史搜索数据,仅包括与相应的历史评价数据对应的历史搜索数据,那么则可以获取得到样本用户a1针对目标推荐对象b1的历史搜索数据包括如下内容:
历史搜索时间:19:00;历史搜索场景:情人节;历史搜索关键词:美食。
在实际应用中,同一用户在不同时间的需求可能并不一致,那么输入的搜索数据也可以有所不同,但是针对不完全相同的搜索数据可能返回同样的推荐对象,而用户可能会在某一次搜索时根据需求针对返回的某一推荐对象进行消费并评价,但是在另一次搜索时不针对相应的推荐对象进行消费和评价,而如果用户选择在某一推荐对象中进行了消费并评价,则说明此时该推荐对象更能满足用户在当前搜索时的需求,那么当前相应用户在消费后的评价数据与相应用户当前的搜索数据以及相应推荐对象的匹配程度更高。
因此,在本发明实施例中,优选地可以根据样本用户针对目标推荐对象的历史评价数据,获取与相应的历史评价数据对应的历史搜索数据、相应样本用户的样本用户画像、相应的目标推荐对象,获取样本用户针对目标推荐对象的样本问题数据。
例如对于前述的样本用户a1和目标推荐对象b1,获取得到样本用户a1针对目标推荐对象b1的历史搜索数据包括如下内容:
历史搜索时间:19:00;历史搜索场景:情人节;历史搜索关键词:美食。
在本发明实施例中,子步骤213也可以在子步骤212之前执行,或者是与子步骤212同时执行,对此本发明实施例不加以限定。
子步骤214,以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。
在获取得到样本用户针对某已评价推荐对象的样本问题数据、样本推荐理由之后,则可以以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。
那么在训练智能问答模型时,则可以将样本问答数据组合中的样本问题数据作为智能问答模型的模型输入,将相应样本问答数据组合中的样本推荐理由作为智能问答模型的模型输出,训练智能问答模型中的参数。
步骤220,根据所述样本问答数据组合训练所述智能问答模型。
步骤230,根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果。
步骤240,根据所述目标用户的所述搜索数据以及所述目标用户画像,通过所述智能问答模型获取各个所述召回结果的初始推荐理由。
步骤250,根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由。
根据输入的信息点不同,智能问答模型会产生不同的推荐理由,比如:
输入:召回结果为商户A、喜欢新潮的用户、搜索西餐=>输出:潮人都来这家西餐店吃饭;
输入:召回结果为商户A、情人节、晚上的搜索=>输出:情人节晚餐好去处。
但是基于训练后的智能问答模型输出的推荐理由可能并不符合一般的表述原则,导致语句不通顺,或者不符合相应召回结果的实时状态。因此,在本发明实施例中,为了进一步提高生成的推荐理由的可靠性,可以设定基于所述目标用户的搜索数据以及目标用户画像,通过所述智能问答模型获取各个所述召回结果的推荐理由为初始推荐理由,进而根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由。
其中,知识图谱是通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。在本发明实施例中的知识图谱可以包括但不限于不同召回结果的实时状态、语法、句法、不同召回结果对应的不同对象的名称、各个对象之间的依存关系,等等。知识图谱内存有大量的结构化信息与关系链,根据这些关系与知识,可以发现一些内容不合理的地方。
例如,对于召回结果:XXXX酒店,通过智能问答模型得到的初始推荐理由中包括了“舒适又性价比高的五星级酒店!”。但是根据知识图谱,可以得到该XXXX酒店不是五星级酒店,而是四星级酒店。则可以对初始推荐理由进行修正,得到该召回结果的最终推荐理由为“舒适又性价比高的四星级酒店!”。
对于召回结果:XX餐厅:通过智能问答模型得到的初始推荐理由中包括了“黑松露虾饺皇是这家店的招牌”。该餐厅近期已下架该菜,不应该再用这个信息点引导用户。
对于召回结果:XXXX广场,通过智能问答模型得到的初始推荐理由中包括了“不太大的一个商场”。该初始推荐理由的情感倾向较负面,不适合露出。
对于召回结果:酒店c1,通过智能问答模型得到的初始推荐理由中包括了“c2酒店的咖啡厅环境优雅”。由于c1酒店与c2酒店的语义空间向量较相似,模型预测时产生了偏差,导致推荐理由的内容产生语义飘移,需要修正。对于这种内容可以通过对句子进行命名实体识别后修正。
在本发明实施例中,对初始推荐理由的修正方式可以包括上述的对初始推荐理由中的部分字段进行调整,也可以包括对初始推荐理由中的全部字段进行替换,或者是直接将初始推荐理由删除,等等。具体的修正方式可以根据需求进行预先设置,对此本发明实施例不加以限定。
例如,对于智能问答模型而言,其可能根据当前的输入内容输出多条推荐理由文案,以及每个推荐理由文案的得分,进而选定得分最高的推荐理由文案作为初始推荐理由。那么如果当前的初始推荐理由不符合知识图谱,那么则可以将当前的初始推荐理由过滤掉,进而重复选定得分最高的推荐理由文案作为初始推荐理由,直至确定得到当前的最终推荐理由。而如果当前的初始推荐理由符合知识图谱,则可以不对其进行修正,而直接确定其为最终推荐理由。
可选地,在本发明实施例中,所述步骤250进一步可以包括:
子步骤251,对所述初始推荐理由进行预处理,所述预处理包括命名实体识别、句法分析、依存分析中的至少一种;
子步骤252,根据所述知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的所述最终推荐理由。
如前述的内容可知,对初始推荐理由进行修正之前,需要检测初始推荐理由中需要进行修正的部分,那么为了更加准确地确定需要修正的部分,可以先对初始推荐理由进行预处理。其中的预处理可以包括但不限于命名实体识别、句法分析、依存分析中的至少一种。
其中,命名实体识别(Named Entity Recognition,NER),又称作"专名识别",是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。句法分析(Parsing)就是指对句子中的词语语法功能进行分析,比如"我来晚了",这里"我"是主语,"来"是谓语,"晚了"是补语。依存语法的结构没有非终结点,词与词之间直接发生依存关系,构成一个依存对,其中一个是核心词,也叫支配词,另一个叫修饰词,也叫从属词。依存分析通过分析语言单位内成分之间的依存关系解释其句法结构,主张句子中核心动词是支配其他成分的中心成分。而它本身却不受其他任何成分的支配,所有受支配成分都以某种关系从属于支配者。
在本发明实施例中,可以通过任何可用方法进行命名实体识别、句法分析、依存分析,对此本发明实施例不加以限定。
进而则可以根据知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的最终推荐理由。从而可以提高推荐理由修正的效率以及准确性。
可选地,在本发明实施例中,所述子步骤252进一步可以包括:
子步骤2521,基于预设的分类模型,获取所述预处理后的初始推荐理由中的可替换字段;其中,所述分类模型为基于所述知识图谱训练得到的第二机器学习模型。
子步骤2522,针对所述可替换字段进行修正处理,得到所述召回结果的所述最终推荐理由。
另外,在本发明实施例中,为了进一步提高修正效率以及准确性。还可以预先根据知识图谱训练一分类模型,该分类模型可以为任意一种可用的机器学习模型,对此本发明实施例不加以限定。此处,为了区分于上述的智能问答模型对应的第一机器学习模型,可以定义分类模型为基于所述知识图谱训练得到的第二机器学习模型。但是第二机器学习模型可以与前述的第一机器学习模型为同一类型的机器学习模型,也可以为不同类的机器学习模型,对此本发明实施例也不加以限定。
进而可以基于预设的分类模型,获取所述预处理后的初始推荐理由中的可替换字段,从而针对所述可替换字段进行修正处理,得到所述召回结果的最终推荐理由。
可选地,在本发明实施例中,所述智能问答模型包括结合注意力机制的seq2seq框架模型,所述注意力机制包括覆盖注意力机制(coverage Attention Mechanism),所述智能问答模型的预测方式包括集束搜索方式,所述seq2seq框架的解码层通过Context Gate决定在获取所述解码层本次解码步骤的输入时,所述解码层的前一解码步骤的输出针对本次解码步骤的输入的权重。
在实际应用中,推荐理由可以理解为一个文本信息,搜索数据也可以理解为文本信息,因此在设置智能问答模型时,可以选择在文本生成领域常用的seq2seq框架,同时结合注意力机制。例如图4所示。其中,Seq2Seq框架包含了三个部分,即Encoder(编码层)、Decoder(解码层)以及连接两者的中间状态向量,Encoder通过学习输入,将其编码成一个固定大小的状态向量S,继而将S传给Decoder,Decoder再通过对状态向量S的学习来进行输出。
例如,假设智能问答模型当前的输入内容包括上述的召回结果为商户A、喜欢新潮的用户、搜索西餐。Encoder通过学习输入,将其编码成一个固定大小的状态向量S,继而将S传给Decoder。Decoder再通过对状态向量S的学习来进行输出,而且解码层可能对状态向量S进行多次解码,以学习并生成最终的推荐理由并输出。
那么针对每次的解码步骤,本次解码步骤的输入可以包括前一次解码步骤的输出的加权,那么则需要确认前一次解码步骤的输出针对本次解码步骤输入的权重。在本发明实施例中,则可以在seq2seq框架的解码层通过Context Gate机制,在获取所述解码层本次解码步骤的输入时,决定所述解码层的前一解码步骤输出针对本次解码步骤输入的权重。
形式上,Context Gate由一个sigmoid神经网络层(sigmoid neural networklayer)和一个基于元素的乘法(Element-wise Multiplication)操作构成,如图5所示。Context Gate可以为输入信号分配一个元素权重,元素权重的计算公式可以为:zi=σ(Wze(yi-1)+Uzti-1+Czsi),
其中,i表示解码步骤序列,σ(·)是一个逻辑乙状函数(logistic sigmoidfunction),Wz∈Rn×m、Uz∈Rn×n和Cz∈Rn×n′都是权重矩阵,n、m和n′分别是字嵌入、解码状态和源表示的维数,zi与输入信号具有相同的维数,因此输入向量中的每个元素都有自己的权重。此时的输入向量可以包括上述前一次解码步骤的输出向量。
而且,作为模型优化点,在本发明实施例中,在注意力机制的基础上引入了覆盖注意力机制,通过覆盖机制(Coverage Mechanism)在原有的注意力机制(AttentionMechanism)上额外添加了记忆信息,增加信息被重复使用的代价,进而在建模过程中提升所有表示信息的使用覆盖度,可以避免模型“过译”的问题。在其他模型优化上,预测时采用beam search(集束搜索)的方式,最大程度保证句子通顺性。在Decoder阶段还可以利用Context gate,Context gate的原理是决定在获取所述解码层本次解码步骤的输入时,所述解码层的前一解码步骤的输出针对本次解码步骤的输入的权重,从而优化句子信息点与流畅度。
在本发明实施例中,可以根据所述样本用户的所述历史评价数据和所述样本用户画像,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据,构建所述样本问答数据组合,进而根据所述样本问答数据组合训练所述智能问答模型。并且,根据所述样本用户的历史行为数据,以及与所述历史行为数据对应的推荐对象,获取所述样本用户已评价的目标推荐对象;根据所述样本用户的所述样本用户画像、所述目标推荐对象,以及与所述历史评价数据对应的历史搜索数据,获取所述样本用户针对所述目标推荐对象的样本问题数据;根据所述样本用户针对所述目标推荐对象的历史评价数据,获取所述样本用户针对所述目标推荐对象的样本推荐理由;以及以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。通过用户的历史行为数据构建样本问答数据组合,可以方便地获取得到训练数据,同时还可以满足个性化的性能要求。
而且,在本发明实施例中,还可以根据所述目标用户的搜索数据以及所述目标用户画像,通过所述智能问答模型获取各个所述召回结果的初始推荐理由;以及根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由。并且,对所述初始推荐理由进行预处理,所述预处理包括命名实体识别、句法分析、依存分析中的至少一种;根据所述知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的所述最终推荐理由。以及,基于预设的分类模型,获取所述预处理后的初始推荐理由中的可替换字段;针对所述可替换字段进行修正处理,得到所述召回结果的所述最终推荐理由;其中,所述分类模型为基于所述知识图谱训练得到的第二机器学习模型。可以进一步提高推荐理由的有效性,以及对推荐理由进行修正时的效率和准确性。
另外,在本发明实施例中,所述智能问答模型包括结合注意力机制的seq2seq框架模型,所述注意力机制包括覆盖注意力机制,可以避免模型“过译”的问题。所述智能问答模型的预测方式包括集束搜索方式,以最大程度保证句子通顺性。所述seq2seq框架的解码层通过Context Gate在获取所述解码层本次解码步骤的输入时,所述解码层的前一解码步骤输出针对本次解码步骤输入的权重,从而优化句子信息点与流畅度。
对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
实施例三
详细介绍本发明实施例提供的一种推荐理由生成装置。
参照图6,示出了本发明实施例中一种推荐理由生成装置的结构示意图。
召回结果获取模块310,用以根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果。
推荐理由生成模块320,用以根据所述目标用户的搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。
在本发明实施例中,根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;根据所述目标用户的搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的第一机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。取得了降低推荐理由生成成本的同时提高推荐理由的个性化程度的有益效果。
实施例四
详细介绍本发明实施例提供的一种推荐理由生成装置。
参照图7,示出了本发明实施例中一种推荐理由生成装置的结构示意图。
训练数据构建模块410,用于根据所述样本用户的所述历史评价数据和所述样本用户画像,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据,构建所述样本问答数据组合。
可选地,在本发明实施例中,所述训练数据构建模块410,进一步可以包括:
推荐对象获取子模块,用于根据所述样本用户的历史行为数据,以及与所述历史行为数据对应的推荐对象,获取所述样本用户已评价的目标推荐对象。
样本推荐理由获取子模块,用于根据所述样本用户针对所述目标推荐对象的历史评价数据,获取所述样本用户针对所述目标推荐对象的样本推荐理由。
样本问题数据获取子模块,用于根据所述样本用户的所述样本用户画像、所述目标推荐对象,以及与所述历史评价数据对应的历史搜索数据,获取所述样本用户针对所述目标推荐对象的样本问题数据。
训练数据构建子模块,用于以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。
模型训练模块420,用于根据所述样本问答数据组合训练所述智能问答模型。
召回结果获取模块430,用以根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果。
推荐理由生成模块440,用以根据所述目标用户的搜索数据、所述召回结果以及所述目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据。
其中,在本发明实施例中,所述推荐理由生成模块440,进一步可以包括:
初始推荐理由获取子模块441,用于根据所述目标用户的所述搜索数据以及所述目标用户画像,通过所述智能问答模型获取各个所述召回结果的初始推荐理由。
初始推荐理由修正子模块442,用于根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由。
可选地,在本发明实施例中,所述初始推荐理由修正子模块442,进一步可以包括:
预处理单元,用于对所述初始推荐理由进行预处理,所述预处理包括命名实体识别、句法分析、依存分析中的至少一种。
修正单元,用于根据所述知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的所述最终推荐理由。
可选地,在本发明实施例中,所述修正单元,进一步可以包括:
可替换字段获取子单元,用于基于预设的分类模型,获取所述预处理后的初始推荐理由中的可替换字段;其中,所述分类模型为基于所述知识图谱训练得到的第二机器学习模型。
可替换字段修正子单元,用于针对所述可替换字段进行修正处理,得到所述召回结果的所述最终推荐理由。
可选地,在本发明实施例中,所述智能问答模型包括结合注意力机制的seq2seq框架模型,所述注意力机制包括覆盖注意力机制,所述智能问答模型的预测方式包括集束搜索方式,所述seq2seq框架的解码层通过Context Gate在获取所述解码层本次解码步骤的输入时,所述解码层的前一解码步骤输出针对本次解码步骤输入的权重。
在本发明实施例中,可以根据所述样本用户的所述历史评价数据和所述样本用户画像,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据,构建所述样本问答数据组合,进而根据所述样本问答数据组合训练所述智能问答模型。并且,根据所述样本用户的历史行为数据,以及与所述历史行为数据对应的推荐对象,获取所述样本用户已评价的目标推荐对象;根据所述样本用户的所述样本用户画像、所述目标推荐对象,以及与所述历史评价数据对应的历史搜索数据,获取所述样本用户针对所述目标推荐对象的样本问题数据;根据所述样本用户针对所述目标推荐对象的历史评价数据,获取所述样本用户针对所述目标推荐对象的样本推荐理由;以及以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。通过用户的历史行为数据构建样本问答数据组合,可以方便地获取得到训练数据,同时还可以满足个性化的性能要求。
而且,在本发明实施例中,还可以根据所述目标用户的搜索数据以及所述目标用户画像,通过所述智能问答模型获取各个所述召回结果的初始推荐理由;以及根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由。并且,对所述初始推荐理由进行预处理,所述预处理包括命名实体识别、句法分析、依存分析中的至少一种;根据所述知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的所述最终推荐理由。以及,基于预设的分类模型,获取所述预处理后的初始推荐理由中的可替换字段;针对所述可替换字段进行修正处理,得到所述召回结果的所述最终推荐理由;其中,所述分类模型为基于所述知识图谱训练得到的第二机器学习模型。可以进一步提高推荐理由的有效性,以及对推荐理由进行修正时的效率和准确性。
另外,在本发明实施例中,所述智能问答模型包括结合注意力机制的seq2seq框架模型,所述注意力机制包括覆盖注意力机制,可以避免模型“过译”的问题。所述智能问答模型的预测方式包括集束搜索方式,以最大程度保证句子通顺性。所述seq2seq框架的解码层通过Context Gate在获取所述解码层本次解码步骤的输入时,所述解码层的前一解码步骤输出针对本次解码步骤输入的权重,从而优化句子信息点与流畅度。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在本发明实施例中还提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现前述的任意一种推荐理由生成方法。
在本发明实施例中还提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现前述的任意一种推荐理由生成方法的步骤。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的推荐理由生成设备中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (9)

1.一种推荐理由生成方法,其特征在于,包括:
根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;
根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;
其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的第一机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据;
所述样本问答数据组合通过下述方式构建:
根据所述样本用户的历史行为数据,以及与所述历史行为数据对应的推荐对象,获取所述样本用户已评价的目标推荐对象;
根据所述样本用户针对所述目标推荐对象的历史评价数据,获取所述样本用户针对所述目标推荐对象的样本推荐理由;
根据所述样本用户的所述样本用户画像、所述目标推荐对象,以及与所述历史评价数据对应的历史搜索数据,获取所述样本用户针对所述目标推荐对象的样本问题数据;以及
以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。
2.根据权利要求1所述的方法,其特征在于,在所述根据所述目标用户的搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由的步骤之前,还包括:
根据所述样本问答数据组合训练所述智能问答模型。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标用户的搜索数据、所述召回结果以及所述目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由的步骤,包括:
根据所述目标用户的所述搜索数据以及所述目标用户画像,通过所述智能问答模型获取各个所述召回结果的初始推荐理由;以及
根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由。
4.根据权利要求3所述的方法,其特征在于,所述根据知识图谱对所述初始推荐理由进行修正,得到各个所述召回结果的最终推荐理由的步骤,包括:
对所述初始推荐理由进行预处理,所述预处理包括命名实体识别、句法分析、依存分析中的至少一种;以及
根据所述知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的所述最终推荐理由。
5.根据权利要求4所述的方法,其特征在于,所述根据所述知识图谱对预处理后的初始推荐理由进行修正,得到所述召回结果的所述最终推荐理由的步骤,包括:
基于预设的分类模型,获取所述预处理后的初始推荐理由中的可替换字段;
针对所述可替换字段进行修正处理,得到所述召回结果的所述最终推荐理由;
其中,所述分类模型为基于所述知识图谱训练得到的第二机器学习模型。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述智能问答模型包括结合注意力机制的seq2seq框架模型,所述注意力机制包括覆盖注意力机制,所述智能问答模型的预测方式包括集束搜索方式,所述seq2seq框架的解码层通过Context Gate决定在获取所述解码层本次解码步骤的输入时,所述解码层的前一解码步骤输出针对本次解码步骤输入的权重。
7.一种推荐理由生成装置,其特征在于,包括:
召回结果获取模块,用以根据目标用户的搜索数据,获取针对所述搜索数据的至少一个召回结果;
推荐理由生成模块,用以根据所述目标用户的所述搜索数据、所述召回结果以及目标用户画像,通过预设的智能问答模型获取各个所述召回结果的推荐理由;
其中,所述智能问答模型为通过至少一个样本问答数据组合训练得到的机器学习模型,所述样本问答数据组合包括:至少一个样本用户的样本用户画像和历史评价数据,以及与所述历史评价数据对应的推荐对象、所述样本用户针对所述推荐对象的历史搜索数据;
所述样本问答数据组合通过下述方式构建:
根据所述样本用户的历史行为数据,以及与所述历史行为数据对应的推荐对象,获取所述样本用户已评价的目标推荐对象;
根据所述样本用户针对所述目标推荐对象的历史评价数据,获取所述样本用户针对所述目标推荐对象的样本推荐理由;
根据所述样本用户的所述样本用户画像、所述目标推荐对象,以及与所述历史评价数据对应的历史搜索数据,获取所述样本用户针对所述目标推荐对象的样本问题数据;以及
以所述样本问题数据作为所述智能问答模型的输入问题,以所述样本推荐理由作为所述智能问答模型的输出答案,构建所述样本问答数据组合。
8.一种电子设备,其特征在于,包括:
处理器、存储器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-6中的任一项所述的推荐理由生成方法。
9.一种可读存储介质,其特征在于,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1-6中的任一项所述的推荐理由生成方法。
CN201910610508.6A 2019-07-08 2019-07-08 推荐理由生成方法、装置、电子设备及可读存储介质 Active CN110457452B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910610508.6A CN110457452B (zh) 2019-07-08 2019-07-08 推荐理由生成方法、装置、电子设备及可读存储介质
PCT/CN2020/095896 WO2021004228A1 (zh) 2019-07-08 2020-06-12 推荐理由的生成
US17/524,899 US20220147845A1 (en) 2019-07-08 2021-11-12 Generation of recommendation reason

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910610508.6A CN110457452B (zh) 2019-07-08 2019-07-08 推荐理由生成方法、装置、电子设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN110457452A CN110457452A (zh) 2019-11-15
CN110457452B true CN110457452B (zh) 2022-06-14

Family

ID=68482383

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910610508.6A Active CN110457452B (zh) 2019-07-08 2019-07-08 推荐理由生成方法、装置、电子设备及可读存储介质

Country Status (3)

Country Link
US (1) US20220147845A1 (zh)
CN (1) CN110457452B (zh)
WO (1) WO2021004228A1 (zh)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110457452B (zh) * 2019-07-08 2022-06-14 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质
CN111046138B (zh) * 2019-11-15 2023-06-27 北京三快在线科技有限公司 推荐理由生成方法、装置、电子设备及存储介质
CN111143543A (zh) * 2019-12-04 2020-05-12 北京达佳互联信息技术有限公司 一种对象推荐方法、装置、设备及介质
CN110990600B (zh) * 2019-12-04 2023-04-18 腾讯科技(深圳)有限公司 多媒体文件推荐、参数调整方法、装置、介质及电子设备
CN111831902A (zh) * 2020-05-26 2020-10-27 北京三快在线科技有限公司 推荐理由筛选方法、装置、电子设备
CN111753198B (zh) * 2020-06-22 2024-01-12 北京百度网讯科技有限公司 信息推荐方法和装置、以及电子设备和可读存储介质
CN112308650B (zh) * 2020-07-01 2022-09-30 北京沃东天骏信息技术有限公司 推荐理由生成方法、装置、设备及存储介质
CN112685637B (zh) * 2020-12-30 2023-04-14 青岛海信智慧生活科技股份有限公司 一种智能设备的智能交互方法及智能设备
CN113763102A (zh) * 2021-01-15 2021-12-07 北京沃东天骏信息技术有限公司 推荐理由信息生成方法、装置、电子设备和可读介质
US11625446B2 (en) * 2021-05-03 2023-04-11 Oracle International Corporation Composing human-readable explanations for user navigational recommendations
CN113327133A (zh) * 2021-06-15 2021-08-31 北京百度网讯科技有限公司 数据推荐方法、数据推荐装置、电子设备及可读存储介质
CN113420215B (zh) * 2021-06-23 2023-08-29 东北大学 一种面向兴趣点推荐的可解释生成方法
CN113434763B (zh) * 2021-06-28 2022-10-14 平安科技(深圳)有限公司 搜索结果的推荐理由生成方法、装置、设备及存储介质
CN113449927B (zh) * 2021-07-13 2022-09-30 广东电网有限责任公司 基于自然语言故障抢修的评价方法、设备及存储介质
CN113688309B (zh) * 2021-07-23 2022-11-29 北京三快在线科技有限公司 一种生成模型的训练方法及推荐理由的生成方法和装置
CN113657382B (zh) * 2021-08-24 2024-03-01 凌云光技术股份有限公司 一种目标检测任务中最佳检测模型的选取方法及装置
CN115952270B (zh) * 2023-03-03 2023-05-30 中国海洋大学 冰箱的智能问答方法、装置和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649761A (zh) * 2016-12-27 2017-05-10 北京百度网讯科技有限公司 基于深度问答的搜索结果展现方法和装置
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030106058A1 (en) * 2001-11-30 2003-06-05 Koninklijke Philips Electronics N.V. Media recommender which presents the user with rationale for the recommendation
JP2005196469A (ja) * 2004-01-07 2005-07-21 Sony Corp データ表示サーバ,データ表示方法,およびそのプログラム
CN105095433B (zh) * 2015-07-22 2019-07-05 百度在线网络技术(北京)有限公司 实体推荐方法及装置
CN108920515B (zh) * 2018-05-31 2023-07-28 腾讯科技(深圳)有限公司 网页显示过程的信息推荐方法、装置、设备及存储介质
CN108920521B (zh) * 2018-06-04 2021-07-09 上海财经大学 基于伪本体的用户画像-项目推荐系统及方法
CN110457452B (zh) * 2019-07-08 2022-06-14 汉海信息技术(上海)有限公司 推荐理由生成方法、装置、电子设备及可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106649761A (zh) * 2016-12-27 2017-05-10 北京百度网讯科技有限公司 基于深度问答的搜索结果展现方法和装置
CN107609960A (zh) * 2017-10-18 2018-01-19 口碑(上海)信息技术有限公司 推荐理由生成方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
面向搜索引擎的实体推荐综述;黄际洲等;《计算机学报》;20190322;全文 *

Also Published As

Publication number Publication date
CN110457452A (zh) 2019-11-15
WO2021004228A1 (zh) 2021-01-14
US20220147845A1 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
CN110457452B (zh) 推荐理由生成方法、装置、电子设备及可读存储介质
US11216738B2 (en) Cognitive attribution
CN110717017B (zh) 一种处理语料的方法
US11748555B2 (en) Systems and methods for machine content generation
US20220293107A1 (en) Multi-service business platform system having conversation intelligence systems and methods
US20210117617A1 (en) Methods and systems for summarization of multiple documents using a machine learning approach
US9280525B2 (en) Method and apparatus for forming a structured document from unstructured information
US20200394539A1 (en) Artificial intelligence assisted hybrid enterprise/candidate employment assistance platform
US20220343250A1 (en) Multi-service business platform system having custom workflow actions systems and methods
US20180232659A1 (en) Ranked Insight Machine Learning Operation
US20230252224A1 (en) Systems and methods for machine content generation
US20210050000A1 (en) Multimodal video system for generating a personality assessment of a user
CN111383042A (zh) 房源推荐方法和装置
KR102111658B1 (ko) 사업 보조 서비스를 제공하기 위한 소셜 마케팅 방법
US11257100B2 (en) Product optimization crawler and monitor
US11645095B2 (en) Generating and utilizing a digital knowledge graph to provide contextual recommendations in digital content editing applications
Lee et al. Understanding customer opinions from online discussion forums: A design science framework
Sonam et al. TagStack: Automated system for predicting tags in stackoverflow
Dogra A Framework for an automatic evaluation of image description based on an image accessibility guideline
US12008064B1 (en) Systems and methods for a website generator that utilizes artificial intelligence
US11983553B2 (en) Conversational interface for content creation and editing using large language models
CN113221534B (zh) 一种文本情感分析方法、装置、电子设备及存储介质
Kalbande et al. A Survey of Sentimental Analysis on Zomato Restaurant Reviews
US20240020538A1 (en) Systems and methods for real-time search based generative artificial intelligence
Luong et al. A rich task-oriented dialogue corpus in Vietnamese

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant