CN111782956A - 一种基于用户行为和关键词分类的搜索方法 - Google Patents
一种基于用户行为和关键词分类的搜索方法 Download PDFInfo
- Publication number
- CN111782956A CN111782956A CN202010650363.5A CN202010650363A CN111782956A CN 111782956 A CN111782956 A CN 111782956A CN 202010650363 A CN202010650363 A CN 202010650363A CN 111782956 A CN111782956 A CN 111782956A
- Authority
- CN
- China
- Prior art keywords
- user
- search
- keyword
- record
- portrait
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
- G06Q30/0202—Market predictions or forecasting for commercial activities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Databases & Information Systems (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Entrepreneurship & Innovation (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Economics (AREA)
- Game Theory and Decision Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于用户行为和关键词分类的搜索方法,包括如下步骤,首先对用户平日的习惯记录画像和增加权重,对用户输入的即时关键词进行分词处理,通过用户的搜索的关键词确定用户画像。再将对应的用户画像和即时关键词合并作为搜索关键词集合,最后采样全文索引的方式进行搜索,通过搜索关键词的权重对结果集进行推荐排序。本方法通过将用户的搜索内容和用户日常的浏览习惯进行整合得到用户画像,再利用即时关键词集合和用户画像作为输入进行搜索,使得到的搜索结果更加符合该用户的日常习惯,并根据权重值对搜索结果进行排序,使搜索结果更符合用户的期望。
Description
技术领域
本发明涉及互联网搜索的技术领域,尤其涉及一种基于用户行为和关键词分类的搜索方法。
背景技术
现有的搜索方法主要包括关键词搜索,搜索引擎依据用户输入的查询词(query)提供相应的搜索结果。在给出搜索结果之前,都会对搜索结果进行排序处理,用于优化搜索结果,提高用户体验。现有技术中,一般是依据用户点击行为对搜索结果进行排序,如果一个搜索结果被越多的用户选择,表示这个搜索结果越能满足用户的搜索需求,那么这个搜索结果就会在所有搜索结果中排序靠前;最后依据权重对搜索结果排序,排序后的搜索结果才会被推送给用户。
但是,搜索结果页中除了提供URL之外,还会同时提供可直接满足用户搜索需求的摘要文本,例如在搜索结果页中直接提供词语的释义、问题的答复、特定图片等,对于这种搜索结果,用户不需要点击搜索结果的URL就可以直接获得满意的答复,如果仅仅依据用户是否点击搜索结果的URL来对搜索结果进行排序,将不能向用户提供满意的搜索结果,用户需要在搜索结果页中浏览、筛选后才能找到满意的搜索结果,因此导致搜索效率较低,给搜索引擎带来不必要的负担,用户体验较差。
发明内容
针对现有技术存在的上述问题,本发明的要解决的技术问题是:设计一种能够向用户提供有针对性和个性化搜索结果的搜索方法。
为解决上述技术问题,本发明采用如下技术方案。一种基于用户行为和关键词分类的搜索方法,包括如下步骤;
S100:用户画像
S111:记录用户平时的浏览记录,记录用户平时的搜索内容记录,记录最新的和热门的搜索关键词;
S112:获取S111记录的内容,并让用户选择最感兴趣的领域,从而得到每个用户画像,每个用户画像为代表用户搜索习惯的关键词集合;
S113:对用户画像中的画像关键词增加权重;
S200:用户利用搜索引擎进行搜索,对用户输入的搜索内容采用分词处理的方式进行关键词提取,得到即时关键词集,该即时关键词集合包括多个即时关键词;
设C表示用户的即时关键词集,C={c1,c2...cj...cJ},cj表示用户的第j个即时关键词,J表示用户的即时关键词的个数;
S300:通过S200中用户的即时关键词集确定该用户的用户画像,将用户的即时关键词集和对应的用户画像合并成新的搜索关键词集合S,S={s1,s2...st...sT}
T=J+Q;
S400:搜索引擎将S300得到的搜索关键词集合作为输入,采用全文索引的方式进行查询,将查询结果在搜索结果页中展现;
根据每个搜索关键词的权重对对应的搜索结果进行排序,按照权重从大到小方式,将对应的搜索结果按照由前到后的顺序在搜索结果页中展现。
作为优选,所述S111中用户日常的浏览记录包括商品浏览记录、资讯信息浏览记录、视频浏览记录和搜索记录。
作为优选,所述S111中记录用户日常的浏览记录是指,根据商品浏览记录对用户浏览的商品名称和商品介绍内容进行记录,根据资讯信息浏览记录对用户浏览的资讯信息的标题内容进行记录,根据视频浏览记录对用户浏览的视频名称进行记录,根据搜索记录对用户搜索的内容进行记录。
作为优选,所述S113中对用户画像中的画像关键词增加权重的方法为:
1)对用户的每条浏览记录和每条搜索内容记录分别保存一个出现频率的频率记录值;
2)判断每条浏览记录和每条搜索记录是否与是用户的兴趣领域,如果是,则在兴趣记录值加1;
3)判断每条浏览记录和搜索记录是否与是当下热门的搜索内容,如果是,则在热门记录值加1;
搜索画像关键词的权重=频率记录值+兴趣记录值+热门记录值。
作为优选,所述S200中的分词处理包括字符串匹配分词方法或词义分词法或统计分词方法。
作为优选,所述通过S200中用户的即时关键词集确定该用户的用户画像的方法为:
S211:令j=1;
S212:令i=1;
S215:令i=i+1;
S216:当i>I时,执行下一步,否则返回S213;
S217:令j=j+1;
S218:当j>J时,执行下一步,否则返回S212;
作为优选,所述S400中每个搜索关键词权重的确定方法为:
当搜索关键词来自即时关键词集时,该搜索关键词的权重为对应的即时关键词在该用户画像中的权重值,当搜索关键词来自用户画像时,该搜索关键词的权重为对应的画像关键词的权重值。
相对于现有技术,本发明至少具有如下优点:
1.本方法通过将用户的搜索内容和用户日常的浏览习惯进行整合得到用户画像,再利用即时关键词集合和用户画像作为输入进行搜索,使得到的搜索结果更加符合该用户的日常习惯,并根据权重值对搜索结果进行排序,使搜索结果更符合用户的期望。
2.通过分词方法可以更精准的提取到用户日常浏览记录的关键词和用户输入内容的关键词。
3.通过全局索引可以快速得到每个关键词在搜索结果中出现的频率和位置,使权重值的统计更加准确。
4.通过获取用户日常的浏览记录,用户日常的浏览记录包括商品浏览记录、资讯信息浏览记录、视频浏览记录和搜索记录,使提取关键词得到的用户关键词集合更贴近用户的日常习惯,使通过本方法得到的搜索结果对用户具有针对性,使搜索结果更符合用户的需求。
附图说明
图1为本发明的整体流程框图。
图2为本发明中用户浏览记录的框图。
图3为本发明中得到搜索关键词集合的流程图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
参见图1-3,一种基于用户行为和关键词分类的搜索方法,包括如下步骤;
S100:用户画像
S111:记录用户平时的浏览记录,记录用户平时的搜索内容记录,记录最新的和热门的搜索关键词;
S112:获取S111记录的内容,并让用户选择最感兴趣的领域,从而得到每个用户画像,每个用户画像为代表用户搜索习惯的关键词集合;
S113:对用户画像中的画像关键词增加权重;
S200:用户利用搜索引擎进行搜索,对用户输入的搜索内容采用分词处理的方式进行关键词提取,得到即时关键词集,该即时关键词集合包括多个即时关键词;对用户输入的关键词进行分词处理,通过自定义的分词方法更精准的提取到用户输入的关键词的核心内容;
设C表示用户的即时关键词集,C={c1,c2...cj...cJ},cj表示用户的第j个即时关键词,J表示用户的即时关键词的个数;
S300:通过S200中用户的即时关键词集确定该用户的用户画像,将用户的即时关键词集和对应的用户画像合并成新的搜索关键词集合S,S={s1,s2...st...sT}
T=J+Q;
S400:搜索引擎将S300得到的搜索关键词集合作为输入,采用全文索引的方式进行查询,将查询结果在搜索结果页中展现;
根据每个搜索关键词的权重对对应的搜索结果进行排序,按照权重从大到小方式,将对应的搜索结果按照由前到后的顺序在搜索结果页中展现。
进一步地,所述S111中用户日常的浏览记录包括商品浏览记录、资讯信息浏览记录、视频浏览记录和搜索记录。如图2所示。
进一步地,所述S113中对用户画像中的画像关键词增加权重的方法为:
1)对用户的每条浏览记录和每条搜索内容记录分别保存一个出现频率的频率记录值;
2)判断每条浏览记录和每条搜索记录是否与是用户的兴趣领域,如果是,则在兴趣记录值加1;
3)判断每条浏览记录和搜索记录是否与是当下热门的搜索内容,如果是,则在热门记录值加1;
搜索画像关键词的权重=频率记录值+兴趣记录值+热门记录值。
通过该三个方面的限定来给画像关键词添加权重,后期将该画像关键词的权重值作为影响搜索结果的一个重要因素,增强用户个性化对其搜索结果的影响,使搜索结果的排序更符合用户的期望,使搜索结果对用户具有针对性。
进一步地,所述S200中的分词处理包括字符串匹配分词方法或词义分词法或统计分词方法。通过选择字符串匹配分词方法、词义分词法和统计分词方法,使关键词的提取更为准确有效。
具体的,本发明的搜索装置,通过提供包括搜索框和位于搜索框之上的展示区域的搜索界面,可在用户激活搜索框时在搜索框之下的输入区域提供键盘,并可根据用户在搜索框中的输入词在展示区域提供推荐内容,还可根据用户的触发指令隐藏键盘并在输入区域提供推荐功能。
用分词方法对需要搜索的内容进行分词处理,并保存到新的数据库里面,分词方法的思路如下:(1)字符串匹配的分词方法首先来看正向最大匹配法,就是把一个词从左至右来分词。举个例子:“不知道你在说什么”,这句话采用正向最大匹配法是如何分的呢?“不知道,你,在,说什么”与正向最大匹配法相对应的是反向最大匹配发。这是第二种分词方法。其次是反向最大匹配法,来分上面我举的例子是如何分的呢“不知道你在说什么”。反向最大匹配法来分上面这段是如何分的。“不,知道,你在,说,什么”,这个就分的比较多了,反向最大匹配法就是从右至左。最后是最短路径分词法。这个什么理解呢,就是说我一段话里面要求切出的词数是最少的。还是上面哪句话“不知道你在说什么”最短路径分词法就是指,我把上面哪句话分成的词要是最少的。不知道,你在,说什么,这就是最短路径分词法,分出来就只有2个词了。好了,当然还有上面三种可以相互结合组成一些分词方法。比如正向最大匹配法和反向最大匹配法组合起来就可以叫做双向最大匹配法。(2)词义分词法这种其实就是一种机器语音判断的分词方法。很简单,进行句法、语义分析,利用句法信息和语义信息来处理歧义现象来分词,这种分词方法,现在还不成熟。处在测试阶段。(3)统计的分词方法这个很简单,就是根据词组的统计,就会发现两个相邻的字出现的频率最多,那么这个词就很重要。就可以作为用户提供字符串中的分隔符。这样来分词。比如,“我的,你的,许多的,这里,这一,那里”。等等,这些词出现的比较多,就从这些词里面分开来。
具体的,所述通过S200中用户的即时关键词集确定该用户的用户画像的方法为:
S211:令j=1;
S212:令i=1;
S215:令i=i+1;
S216:当i>I时,执行下一步,否则返回S213;
S217:令j=j+1;
S218:当j>J时,执行下一步,否则返回S212;
所述S400中每个搜索关键词权重的确定方法为:
当搜索关键词来自即时关键词集时,该搜索关键词的权重为对应的即时关键词在该用户画像中的权重值,当搜索关键词来自用户画像时,该搜索关键词的权重为对应的画像关键词的权重值。所述对用户日常的浏览记录进行关键词具体为,根据商品浏览记录对用户浏览的商品名称和商品介绍内容进行关键词提取,根据资讯信息浏览记录对用户浏览的资讯信息的标题内容进行关键词提取,根据视频浏览记录对用户浏览的视频名称进行关键词提取,根据搜索记录对用户搜索的内容进行关键词提取。通过对将商品浏览记录、资讯信息浏览记录、视频浏览记录和搜索记录进行关键词提取,使得到的用户关键词集合更贴近用户的日常习惯,使用户关键词集合更具有用户针对性,从而使后期得到的搜索结果更符合用户的期望。
本发明限定的一种基于用户行为和关键词分类的搜索方法的工作原理如下:
本方法通过将用户的搜索内容和用户日常的浏览习惯进行整合得到搜索关键词集合,利用搜索关键词集合进行搜索,使得到的搜索结果更加符合用户的日常习惯,并根据权重值对搜索结果进行排序,使搜索结果更符合用户的期望。通过获取用户日常的浏览记录,用户日常的浏览记录包括商品浏览记录、资讯信息浏览记录、视频浏览记录和搜索记录,使提取关键词得到的用户关键词集合更贴近用户的日常习惯,使通过本方法得到的搜索结果对用户具有针对性,使搜索结果更符合用户的需求。
本发明方法,1.通过方法可以更精准的提取到用户输入的关键词的核心内容,通过全局索引的方式可以更快的查询到与之相匹配的内容;2.通过对用户行为的画像可以更好的搜索到用户感兴趣的点、再加上权重,通过不同的权重占比来为用户推荐其更感兴趣的内容;3.通过对用户的画像的权重计算,也可以不定时的给用户推送一些他感兴趣的内容。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (8)
1.一种基于用户行为和关键词分类的搜索方法,其特征在于:包括如下步骤;
S100:用户画像
S111:记录用户平时的浏览记录,记录用户平时的搜索内容记录,记录最新的和热门的搜索关键词;
S112:获取S111记录的内容,并让用户选择最感兴趣的领域,从而得到每个用户画像,每个用户画像为代表用户搜索习惯的关键词集合;
S113:对用户画像中的画像关键词增加权重;
S200:用户利用搜索引擎进行搜索,对用户输入的搜索内容采用分词处理的方式进行关键词提取,得到即时关键词集,该即时关键词集合包括多个即时关键词;
设C表示用户的即时关键词集,C={c1,c2...cj...cJ},cj表示用户的第j个即时关键词,J表示用户的即时关键词的个数;
S300:通过S200中用户的即时关键词集确定该用户的用户画像,将用户的即时关键词集和对应的用户画像合并成新的搜索关键词集合S,S={s1,s2...st...sT}
T=J+Q;
S400:搜索引擎将S300得到的搜索关键词集合作为输入,采用全文索引的方式进行查询,将查询结果在搜索结果页中展现;
根据每个搜索关键词的权重对对应的搜索结果进行排序,按照权重从大到小方式,将对应的搜索结果按照由前到后的顺序在搜索结果页中展现。
2.如权利要求1所述的一种基于用户行为和关键词分类的搜索方法,其特征在于:所述S111中用户日常的浏览记录包括商品浏览记录、资讯信息浏览记录、视频浏览记录和搜索记录。
3.如权利要求1所述的一种基于用户行为和关键词分类的搜索方法,其特征在于:所述S111中记录用户日常的浏览记录是指,根据商品浏览记录对用户浏览的商品名称和商品介绍内容进行记录,根据资讯信息浏览记录对用户浏览的资讯信息的标题内容进行记录,根据视频浏览记录对用户浏览的视频名称进行记录,根据搜索记录对用户搜索的内容进行记录。
4.如权利要求1所述的一种基于用户行为和关键词分类的搜索方法,其特征在于:所述S113中对用户画像中的画像关键词增加权重的方法为:
1)对用户的每条浏览记录和每条搜索内容记录分别保存一个出现频率的频率记录值;
2)判断每条浏览记录和每条搜索记录是否与是用户的兴趣领域,如果是,则在兴趣记录值加1;
3)判断每条浏览记录和搜索记录是否与是当下热门的搜索内容,如果是,则在热门记录值加1;
搜索画像关键词的权重=频率记录值+兴趣记录值+热门记录值。
5.如权利要求1所述的一种基于用户行为和关键词分类的搜索方法,其特征在于:所述S200中的分词处理包括字符串匹配分词方法或词义分词法或统计分词方法。
8.如权利要求6所述的一种基于用户行为和关键词分类的搜索方法,其特征在于:所述S400中每个搜索关键词权重的确定方法为:
当搜索关键词来自即时关键词集时,该搜索关键词的权重为对应的即时关键词在该用户画像中的权重值,当搜索关键词来自用户画像时,该搜索关键词的权重为对应的画像关键词的权重值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010650363.5A CN111782956A (zh) | 2020-07-08 | 2020-07-08 | 一种基于用户行为和关键词分类的搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010650363.5A CN111782956A (zh) | 2020-07-08 | 2020-07-08 | 一种基于用户行为和关键词分类的搜索方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111782956A true CN111782956A (zh) | 2020-10-16 |
Family
ID=72759317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010650363.5A Pending CN111782956A (zh) | 2020-07-08 | 2020-07-08 | 一种基于用户行为和关键词分类的搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111782956A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112632394A (zh) * | 2020-12-31 | 2021-04-09 | 启业云大数据(南京)有限公司 | 基于企业用户搜索行为特征的企业级搜索方法及搜索引擎 |
CN113312541A (zh) * | 2021-07-30 | 2021-08-27 | 深圳市思特克电子技术开发有限公司 | 语音搜索方法、装置及存储介质 |
CN113837842A (zh) * | 2021-09-29 | 2021-12-24 | 浪潮卓数大数据产业发展有限公司 | 一种基于用户行为数据的商品推荐方法及设备 |
CN114329111A (zh) * | 2021-11-26 | 2022-04-12 | 北京基智科技有限公司 | 一种市场新兴行业的规划分类方法 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521251A (zh) * | 2011-11-16 | 2012-06-27 | 北京搜狗科技发展有限公司 | 个性化搜索直达的方法、实现该方法的装置和搜索服务器 |
CN103577490A (zh) * | 2012-08-08 | 2014-02-12 | 百度在线网络技术(北京)有限公司 | 一种网页浏览历史展现方法及装置 |
CN105046531A (zh) * | 2015-08-07 | 2015-11-11 | 百度在线网络技术(北京)有限公司 | 一种在线投放信息展示方法及装置 |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
CN106708817A (zh) * | 2015-07-17 | 2017-05-24 | 腾讯科技(深圳)有限公司 | 信息搜索方法及装置 |
CN107368572A (zh) * | 2017-07-13 | 2017-11-21 | 张勇 | 多功能智能人机交互方法及系统 |
CN107844580A (zh) * | 2017-11-10 | 2018-03-27 | 北京酷我科技有限公司 | 一种搜索词匹配方法 |
CN108288229A (zh) * | 2018-03-02 | 2018-07-17 | 北京邮电大学 | 一种用户画像构建方法 |
CN108509499A (zh) * | 2018-02-27 | 2018-09-07 | 北京三快在线科技有限公司 | 一种搜索方法及装置,电子设备 |
CN108810577A (zh) * | 2018-06-15 | 2018-11-13 | 深圳市茁壮网络股份有限公司 | 一种用户画像的构建方法、装置及电子设备 |
CN109189904A (zh) * | 2018-08-10 | 2019-01-11 | 上海中彦信息科技股份有限公司 | 个性化搜索方法及系统 |
CN109871483A (zh) * | 2019-01-22 | 2019-06-11 | 珠海天燕科技有限公司 | 一种推荐信息的确定方法及装置 |
CN110781376A (zh) * | 2019-08-30 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备及存储介质 |
CN110929021A (zh) * | 2018-08-31 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 文本信息生成方法和文本信息生成装置 |
CN110968782A (zh) * | 2019-10-15 | 2020-04-07 | 东北大学 | 一种面向学者的用户画像构建及应用方法 |
-
2020
- 2020-07-08 CN CN202010650363.5A patent/CN111782956A/zh active Pending
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102521251A (zh) * | 2011-11-16 | 2012-06-27 | 北京搜狗科技发展有限公司 | 个性化搜索直达的方法、实现该方法的装置和搜索服务器 |
CN103577490A (zh) * | 2012-08-08 | 2014-02-12 | 百度在线网络技术(北京)有限公司 | 一种网页浏览历史展现方法及装置 |
CN106708817A (zh) * | 2015-07-17 | 2017-05-24 | 腾讯科技(深圳)有限公司 | 信息搜索方法及装置 |
CN105046531A (zh) * | 2015-08-07 | 2015-11-11 | 百度在线网络技术(北京)有限公司 | 一种在线投放信息展示方法及装置 |
CN105068661A (zh) * | 2015-09-07 | 2015-11-18 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
CN107368572A (zh) * | 2017-07-13 | 2017-11-21 | 张勇 | 多功能智能人机交互方法及系统 |
CN107844580A (zh) * | 2017-11-10 | 2018-03-27 | 北京酷我科技有限公司 | 一种搜索词匹配方法 |
CN108509499A (zh) * | 2018-02-27 | 2018-09-07 | 北京三快在线科技有限公司 | 一种搜索方法及装置,电子设备 |
CN108288229A (zh) * | 2018-03-02 | 2018-07-17 | 北京邮电大学 | 一种用户画像构建方法 |
CN108810577A (zh) * | 2018-06-15 | 2018-11-13 | 深圳市茁壮网络股份有限公司 | 一种用户画像的构建方法、装置及电子设备 |
CN109189904A (zh) * | 2018-08-10 | 2019-01-11 | 上海中彦信息科技股份有限公司 | 个性化搜索方法及系统 |
CN110929021A (zh) * | 2018-08-31 | 2020-03-27 | 阿里巴巴集团控股有限公司 | 文本信息生成方法和文本信息生成装置 |
CN109871483A (zh) * | 2019-01-22 | 2019-06-11 | 珠海天燕科技有限公司 | 一种推荐信息的确定方法及装置 |
CN110781376A (zh) * | 2019-08-30 | 2020-02-11 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备及存储介质 |
CN110968782A (zh) * | 2019-10-15 | 2020-04-07 | 东北大学 | 一种面向学者的用户画像构建及应用方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112632394A (zh) * | 2020-12-31 | 2021-04-09 | 启业云大数据(南京)有限公司 | 基于企业用户搜索行为特征的企业级搜索方法及搜索引擎 |
CN113312541A (zh) * | 2021-07-30 | 2021-08-27 | 深圳市思特克电子技术开发有限公司 | 语音搜索方法、装置及存储介质 |
CN113837842A (zh) * | 2021-09-29 | 2021-12-24 | 浪潮卓数大数据产业发展有限公司 | 一种基于用户行为数据的商品推荐方法及设备 |
CN114329111A (zh) * | 2021-11-26 | 2022-04-12 | 北京基智科技有限公司 | 一种市场新兴行业的规划分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103678576B (zh) | 基于动态语义分析的全文检索系统 | |
US10157233B2 (en) | Search engine that applies feedback from users to improve search results | |
US8527506B2 (en) | Media discovery and playlist generation | |
CN106709040B (zh) | 一种应用搜索方法和服务器 | |
CN111782956A (zh) | 一种基于用户行为和关键词分类的搜索方法 | |
CA2833359C (en) | Analyzing content to determine context and serving relevant content based on the context | |
CN103838833A (zh) | 基于相关词语语义分析的全文检索系统 | |
US20070022072A1 (en) | Text differentiation methods, systems, and computer program products for content analysis | |
US20090300046A1 (en) | Method and system for document classification based on document structure and written style | |
KR20080031262A (ko) | 관계 네트워크 | |
KR101355945B1 (ko) | 온라인 문맥기반 광고 장치 및 방법 | |
CN104050243B (zh) | 一种将搜索与社交相结合的网络搜索方法及其系统 | |
JP2006134183A (ja) | 情報分類方法及び装置及びプログラム及びプログラムを格納した記憶媒体 | |
CN111966899A (zh) | 搜索排序方法、系统及计算机可读存储介质 | |
Ramirez et al. | ACE: improving search engines via Automatic Concept Extraction | |
Bollegala et al. | Extracting key phrases to disambiguate personal name queries in web search | |
CN111831922B (zh) | 一种基于互联网信息的推荐系统与方法 | |
CN111831884B (zh) | 一种基于信息查找的匹配系统与方法 | |
JP4428703B2 (ja) | 情報検索方法及びそのシステム並びにコンピュータプログラム | |
CN113792225B (zh) | 一种多数据类型分层排序方法和装置 | |
CN112487302A (zh) | 一种基于用户行为的档案资源精准推送方法 | |
CN114911834A (zh) | 一种基于多意图判断的多路召回搜索重排方法、系统、计算机设备及计算机可读存储介质 | |
CN115186065A (zh) | 一种目标词语的检索方法及装置 | |
Farahmand et al. | Optimizing title and meta tags based on distribution of keywords; lexical and semantic approaches | |
ボッレーガラダヌシカ | Extracting Key Phrases to Disambiguate Personal Names on the Web |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |