CN103942272B - 图片搜索方法和装置 - Google Patents
图片搜索方法和装置 Download PDFInfo
- Publication number
- CN103942272B CN103942272B CN201410120404.4A CN201410120404A CN103942272B CN 103942272 B CN103942272 B CN 103942272B CN 201410120404 A CN201410120404 A CN 201410120404A CN 103942272 B CN103942272 B CN 103942272B
- Authority
- CN
- China
- Prior art keywords
- picture
- search
- user
- author
- search term
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种图片搜索方法和装置。该方法包括:接收用户输入的搜索词;确定搜索词的搜索频次,并确定搜索频次是否在预设范围内,搜索频次根据搜索引擎记录的历史搜索数据确定;当确定搜索频次在预设范围内时,在预先建立的第一图片库中获取与搜索词匹配的第一图片,第一图片库中包括搜索引擎从UGC网站中获得的图片;向用户展现图片搜索结果,图片搜索结果包括第一图片。本发明实施例的图片搜索方法,可以在提供冷门的图片搜索需求时,为用户提供具有更强实时性、更高相关性、更高质量的图片搜索结果。
Description
技术领域
本发明涉及搜索技术领域,尤其涉及一种图片搜索方法和装置。
背景技术
图片搜索是垂直搜索引擎的一个重要方向。参照图1,是相关技术中搜索引擎提供图片搜索的一个示例效果图,如图1所示,用户在搜索引擎提供的搜索框中输入“中国中文信息学会青年工委”,搜索引擎给用户提供中国中文信息学会青年工委相关的图片,但是,搜索引擎提供的图片相关度、时效性差,而且图片质量也不高。因此,在相关技术中,对于“中国中文信息学会青年工委”这类冷门需求的图片搜索无论是相关度、时效性还是图片质量都较差,搜索效果不佳。
发明内容
本发明旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本发明的第一个目的在于提出一种图片搜索方法。该方法在提供冷门的图片搜索需求时,能够为用户提供具有更强实时性、更高相关性、更高质量的图片搜索结果。
本发明的第二个目的在于提出一种图片搜索装置。
为了实现上述目的,本发明第一方面实施例的图片搜索方法,包括:接收用户输入的搜索词;确定所述搜索词的搜索频次,并确定所述搜索频次是否在预设范围内,所述搜索频次根据搜索引擎记录的历史搜索数据确定;当确定所述搜索频次在所述预设范围内时,在预先建立的第一图片库中获取与所述搜索词匹配的第一图片,所述第一图片库中包括所述搜索引擎从用户原创内容UGC网站中获得的图片;向所述用户展现图片搜索结果,所述图片搜索结果包括所述第一图片。
本发明实施例的图片搜索方法,利用第一图片库补充图片搜索引擎在向用户提供冷门的图片搜索需求时的图片不足的问题,利用第一图片库,图片搜索引擎可以在提供冷门的图片搜索需求时,为用户提供具有更强实时性、更高相关性、更高质量的图片搜索结果,提升用户体验。
为了实现上述目的,本发明第二方面实施例的图片搜索装置,包括:接收模块,用于接收用户输入的搜索词;确定模块,用于确定所述搜索词的搜索频次,并确定所述搜索频次是否在预设范围内,所述搜索频次根据搜索引擎记录的历史搜索数据确定;第一获取模块,用于当确定所述搜索频次在所述预设范围内时,在预先建立的第一图片库中获取与所述搜索词匹配的第一图片,所述第一图片库中包括所述搜索引擎从用户原创内容UGC网站中获得的图片;展现模块,用于向所述用户展现图片搜索结果,所述图片搜索结果包括所述第一图片。
本发明实施例的图片搜索装置,利用第一图片库补充图片搜索引擎在向用户提供冷门的图片搜索需求时的图片不足的问题,利用第一图片库,图片搜索引擎可以在提供冷门的图片搜索需求时,为用户提供具有更强实时性、更高相关性、更高质量的图片搜索结果,提升用户体验。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中,
图1是相关技术中搜索引擎提供图片搜索的一个示例效果图;
图2是根据本发明一个实施例的图片搜索方法的流程图;
图3是根据本发明实施例的图片搜索方法的一种示例性的效果图;
图4是根据本发明另一个实施例的图片搜索方法的流程图;
图5是根据本发明实施例的图片搜索方法的另一种示例性的效果图;
图6是根据本发明一个实施例的图片搜索方法装置的结构框图;
图7是根据本发明另一个实施例的图片搜索方法装置的结构框图;以及
图8是根据本发明又一个实施例的图片搜索方法装置的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
在本发明的描述中,需要理解的是,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性。在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。此外,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
目前,对于用户的冷门的图片搜索需求,图片搜索引擎为用户提供的图片无论是相关度、时效性还是图片质量都较差,搜索效果都不佳。其主要原因在于,图片搜索引擎索引的图片往往来自各个网站,而这些网站往往是专人编辑和维护的,因此难以保证图片的覆盖性。为此,需要利用其他图片源来补充图片搜索引擎索引的图片不足的问题,而微博、微信、人人网等用户原创内容UGC(User Generated Content)网站上的图片都是普通网民发表的,可涵盖至方方面面,包括小众冷门的图片,而且具有较强的时效性,图片质量也高。由此,可利用微博、微信、人人网等UGC网站上的图片来补充图片搜索引擎索引的图片不足的问题。因此,本发明的实施例公开了一种图片搜索方法和装置。
下面参考附图描述根据本发明实施例的图片搜索方法和装置。
图2是根据本发明一个实施例的图片搜索方法的流程图。
如图2所示,该图片搜索方法包括:
S101,接收用户输入的搜索词。
具体地,在本发明的实施例中,用户可在图片搜索引擎提供的输入框中输入当前搜索词,用户还可在各种快捷搜索输入框中输入搜索词,对此,本方法的实施例不进行限定。
S102,确定搜索词的搜索频次,并确定搜索频次是否在预设范围内,搜索频次根据搜索引擎记录的历史搜索数据确定。
具体地,根据搜索频次可以确定搜索词的搜索热度,如果搜索频次相对高,则说明搜索词属于热门搜索,如,杨幂、长城、奔驰等,对应的图片比较丰富,图片搜索引擎能够提供实时性强、相关度高、质量高的图片,而没有必要补充图片,如果补充图片源,反而会增加计算负担。如果搜索频次相对低,则说明搜索词属于冷门搜索,对应的图片较为匮乏,此时需要补充图片。
S103,当确定搜索频次在预设范围内时,在预先建立的第一图片库中获取与搜索词匹配的第一图片,第一图片库中包括搜索引擎从UGC网站中获得的图片。
在本发明的一个实施例中,UGC网站包括微博、微信、人人网等中的至少一种。应理解,微博、微信、人人网等仅为了说明本发明实施例的第一图片库的特性,本领域的技术人员很容易将其他具有相同功能网站中的图片使用至本发明的实施例中,对此本发明的实施例不进行限定。
具体地,预先建立的第一图片库即为从UGC网站中获得的图片。此时,需要UGC网站为图片搜素引擎提供架构、接口和功能上支持,UGC网站上的图片能够实时地存储到第一图片库中,即新产生的图片能够实时地存入第一图片库中,并且图片与其对应的文本、转发、回复、评论、作者信息等相关数据之间具有完备的关联关系,便于查询。
S104,向用户展现图片搜索结果,图片搜索结果包括第一图片。
图3是根据本发明实施例的图片搜索方法的一种示例性的效果图。如图3所示,同样用户输入“中国中文信息学会青年工委”进行查询,在微博上可以搜索到中国中文信息学会青年工委近期的活动宣传海报和学术活动现场图片,无论是相关度、时效性还是图片质量,都明显优于图片搜索引擎所得到的结果(如图2)。
本发明实施例的图片搜索方法,利用第一图片库补充图片搜索引擎在向用户提供冷门的图片搜索需求时的图片不足的问题,利用第一图片库,图片搜索引擎可以在提供冷门的图片搜索需求时,为用户提供具有更强实时性、更高相关性、更高质量的图片搜索结果,提升用户体验。
图4是根据本发明另一个实施例的图片搜索方法的流程图。
如图4所示,该图片搜索方法包括:
S201,接收用户输入的搜索词。
具体地,在本发明的实施例中,用户可在图片搜索引擎提供的输入框中输入当前搜索词,用户还可在各种快捷搜索输入框中输入搜索词,对此,本方法的实施例不进行限定。
S202,确定搜索词的搜索频次,并确定搜索频次是否大于第一预设阈值且小于第二预设阈值,其中,第一预设阈值小于第二预设阈值,搜索频次根据搜索引擎记录的历史搜索数据确定。
具体地,根据搜索频次可以确定搜索词的搜索热度,如果搜索频次相对高,图片搜索引擎能够提供实时性强、相关度高、质量高的图片,而没有必要补充图片,如果补充图片源,反而会增加计算负担。如果搜索频次过低,对应的搜索词可能不合理或者拼写错误等,也需要对这种情况进行筛选。因此,对于搜索词q的搜索频次f(q),需要满足以下条件:
F1<f(q)<F2 (1)
其中,F1、F2为两个正整数,分别表示第一预设阈值和第二预设阈值。
因此,通过上述条件的筛选,可以确定搜索词是否为低频小众的搜索,例如,非热门的人名(如某大学老师)、地名(如某县城)、机构名(如上例中的“中国中文信息学会青年工委”)等。
S203,当确定搜索频次大于第一预设阈值且小于第二预设阈值时,在预先建立的第一图片库中获取与搜索词匹配的第一图片,第一图片库中包括搜索引擎从UGC网站中获得的图片。
在本发明的一个实施例中,UGC网站包括微博、微信、人人网等中的至少一种。应理解,微博、微信、人人网等仅为了说明本发明实施例的第一图片库的特性,本领域的技术人员很容易将其他具有相同功能网站中的图片使用至本发明的实施例中,对此本发明的实施例不进行限定。
具体地,预先建立的第一图片库即为从UGC网站中获得的图片。此时,需要UGC网站为图片搜素引擎提供架构、接口和功能上支持,UGC网站上的图片能够实时地存储到第一图片库中,即新产生的图片能够实时地存入第一图片库中,并且图片与其对应的文本、转发、回复、评论、作者信息等相关数据之间具有完备的关联关系,便于查询。
S204,向用户展现图片搜索结果,图片搜索结果包括第一图片。
本发明实施例的图片搜索方法,利用第一预设阈值和第二预设阈值可以将热门搜索词、不合理搜索词或者错误搜索词等筛除掉,可以保证效率。
在本发明的一个实施例中,上述在预先建立的第一图片库中获取与搜索词匹配的第一图片,包括(图中未示出):将第一图片库中满足如下项中任意一项的图片作为第一图片:文本内容与搜索词匹配的图片;转发文本或者回复文本与搜索词匹配的图片;作者名称或者作者个人描述或者作者标签与搜索词匹配的图片。具体地,对于用户输入的搜索词q,将文本内容t(w)与搜索词q匹配的图片,w表示图片;或,转发文本f(w)或者回复文本r(w)与搜索词q匹配的图片;作者名称an(w)或者作者个人描述ad(w)或者作者标签at(w)与搜索词q匹配的图片召回。在上述三个条件中,任意两个字符串s1和s2(如,t(w)和q等)之间的匹配可基于词重叠率来计算,即首先将s1和s2进行切词,得到词向量V(s1)和V(s2),进而基于下述公式(2)计算匹配度:
其中|.|表示一个向量所含的元素的个数,当s1和s2基于上述公式计算的匹配度大于事先设定的阈值T1(0<T1<1)时,即认为二者匹配。需要说明的是,这里的字匹配计算方法并不唯一,除了上述的词重叠率之外,还可以采用余弦相似度、编辑距离等相似度计算方法,或者BM25等经典的信息检索模型。对此,本发明的实施例不进行限定。
在本发明的一个实施例中,在上述的在预先建立的第一图片库中获取与述搜索词匹配的第一图片后,图片搜索方法还包括(图中未示出):对第一图片进行排序,以向用户展现排序后的第一图片。其中,排序能够将相关度高的图片优先展现。具体地,在本发明的一个实施例中,上述的对第一图片进行排序,包括:获取至少一种的特征分值;根据至少一种的特征分值和LTR算法,对第一图片进行排序。
其中,在本发明的一个实施例中,特征分值包括如下项中的至少一项:正文匹配特征值,转发文本匹配特征值,回复文本匹配特征值,作者名称匹配特征值,作者描述匹配特征值,作者标签匹配特征值。
具体地,对于召回的任意图片w,可以计算正文匹配特征值,转发文本匹配特征值,回复文本匹配特征值,作者名称匹配特征值,作者描述匹配特征值,作者标签匹配特征值等中的至少一项。下面具体说明,应当理解的是,下述的匹配特征值仅为举例说明本发明实施例的实现过程,不能作为对本发明保护范围的限定。
正文t(w)匹配特征值包括如下几个特征:基于上述示例所述匹配度计算方法计算出的匹配度sim(t(w),q);查询q在t(w)中是否出现在“##”、“【】”等特殊符号中,是则该特征值取1,否则取0;查询q在t(w)中的匹配位置是否位于t(w)的前n个词以内,是则该特征值取1,否则取0,其中n为事先预设的正整数阈值。
转发文本f(w)匹配特征值:将所有转发文本连接起来以形成转发文本f(w)。其匹配特征值是基于上述示例所述匹配度计算方法计算出的匹配度sim(f(w),q)。
回复文本r(w)匹配特征值:将所有回复文本连接起来以形成回复文本r(w)。其匹配特征值是基于上述示例所述匹配度计算方法计算出的匹配度sim(r(w),q)。
作者名称an(w)匹配特征值:其匹配特征值基于上述示例所述匹配度计算方法计算出的匹配度sim(an(w),q)。
作者描述ad(w)匹配特征值:其匹配特征值基于上述示例所述匹配度计算方法计算出的匹配度sim(ad(w),q)。
作者标签at(w)匹配特征值:将作者的所有标签连接起来以形成的作者标签文本at(w)。其匹配特征值基于上述示例所述匹配度计算方法计算出的匹配度sim(at(w),q)。
之后,可以基于信息检索领域通用的排序学习(Learning-To—Rank,LTR)算法,使用上述特征分值,训练一个排序模型,来对所有从第一图片库中搜索到的图片进行排序。需要说明的是,LTR算法在学术界和工业界有多种不同的实现方法,在本发明中我们并不限定某一种特定的LTR实现方法。
在本发明的一个实施例中,本发明实施例的图片搜索方法还包括:获取与搜索词匹配的第二图片,第二图片为搜索引擎采用传统方式抓取的图片;向用户展现的图片搜索结果中还包括第二图片。具体地,在本发明的一个实施例中,本发明实施例的图片搜索方法还包括:在向用户展现图片搜索结果时,将第一图片和第二图片分区域展现。
图5是根据本发明实施例的图片搜索方法的另一种示例性的效果图。如图5所示,同样用户输入“中国中文信息学会青年工委”进行查询,在微博上可以搜索到中国中文信息学会青年工委近期的活动宣传海报和学术活动现场图片,还可以采用传统方式抓取图片,在图5中,上半部显示传统方式抓取的图片,下半部显示在第一图片库中查询到的图片。
为了实现上述实施例,本发明的实施例还提出一种图片搜索方法装置。
图6是根据本发明一个实施例的图片搜索方法装置的结构框图。
如图6所示,该图片搜索方法装置100包括:接收模块110、确定模块120、第一获取模块130和展现模块140。
具体地,接收模块110用于接收用户输入的搜索词,在本发明的实施例中,用户可在图片搜索引擎提供的输入框中输入当前搜索词,用户还可在各种快捷搜索输入框中输入搜索词,对此,本方法的实施例不进行限定。
确定模块120用于确定搜索词的搜索频次,并确定搜索频次是否在预设范围内,搜索频次根据搜索引擎记录的历史搜索数据确定。更具体地,根据搜索频次可以确定搜索词的搜索热度,如果搜索频次相对高,则说明搜索词属于热门搜索,如,杨幂、长城、奔驰等,对应的图片比较丰富,图片搜索引擎能够提供实时性强、相关度高、质量高的图片,而没有必要补充图片,如果补充图片源,反而会增加计算负担。如果搜索频次相对低,则说明搜索词属于冷门搜索,对应的图片较为匮乏,此时需要补充图片。
第一获取模块130用于当确定搜索频次在预设范围内时,在预先建立的第一图片库中获取与搜索词匹配的第一图片,第一图片库中包括搜索引擎从UGC网站中获得的图片。
在本发明的一个实施例中,UGC网站包括微博、微信、人人网等中的至少一种。应理解,微博、微信、人人网等仅为了说明本发明实施例的第一图片库的特性,本领域的技术人员很容易将其他具有相同功能网站中的图片使用至本发明的实施例中,对此本发明的实施例不进行限定。
更具体地,预先建立的第一图片库即为从UGC网站中获得的图片。此时,需要UGC网站为图片搜素引擎提供架构、接口和功能上支持,UGC网站上的图片能够实时地存储到第一图片库中,即新产生的UGC网站上的图片能够实时地存入第一图片库中,并且图片与其对应的文本、转发、回复、评论、作者信息等相关数据之间具有完备的关联关系,便于查询。
展现模块140用于向用户展现图片搜索结果,图片搜索结果包括第一图片。其中,展现效果可参考方法实施例所述,在此不再赘述。
本发明实施例的图片搜索装置,利用第一图片库补充图片搜索引擎在向用户提供冷门的图片搜索需求时的图片不足的问题,利用第一图片库,图片搜索引擎可以在提供冷门的图片搜索需求时,为用户提供具有更强实时性、更高相关性、更高质量的图片搜索结果,提升用户体验。
在本发明的一个实施例中,确定模块120具体用于:确定搜索频次是否大于第一预设阈值且小于第二预设阈值,其中,第一预设阈值小于第二预设阈值。更具体地,根据搜索频次可以确定搜索词的搜索热度,如果搜索频次相对高,图片搜索引擎能够提供实时性强、相关度高、质量高的图片,而没有必要补充图片,如果补充图片源,反而会增加计算负担。如果搜索频次过低,对应的搜索词可能不合理或者拼写错误等,也需要对这种情况进行筛选。因此,对于搜索词q的搜索频次f(q),需要满足以下条件:
F1<f(q)<F2 (1)
其中,F1、F2为两个正整数,分别表示第一预设阈值和第二预设阈值。
因此,通过上述条件的筛选,可以确定搜索词是否为低频小众的搜索,例如,非热门的人名(如某大学老师)、地名(如某县城)、机构名(如上例中的“中国中文信息学会青年工委”)等。
在本发明的一个实施例中,第一获取模块130具体用于:将第一图片库中满足如下项中任意一项的图片作为第一图片:文本内容与搜索词匹配的图片;转发文本或者回复文本与搜索词匹配的图片;作者名称或者作者个人描述或者作者标签与搜索词匹配的图片。其具体的过程可参考上述方法实施例所述,在此不再赘述。
图7是根据本发明另一个实施例的图片搜索方法装置的结构框图。
如图7所示,该图片搜索方法装置100包括:接收模块110、确定模块120、第一获取模块130、展现模块140、排序模块150,其中排序模块150包括获取单元151和排序单元152。
具体地,排序模块150用于对第一图片进行排序,以向用户展现排序后的第一图片。其中,排序能够将相关度高的图片优先展现。
更具体地,在本发明的一个实施例中,获取单元151用于获取至少一种的特征分值;排序单元152用于根据至少一种的特征分值和排序学习LTR算法,对第一图片进行排序。其中,在本发明的一个实施例中,特征分值包括如下项中的至少一项:正文匹配特征值,转发文本匹配特征值,回复文本匹配特征值,作者名称匹配特征值,作者描述匹配特征值,作者标签匹配特征值。
具体地排序实现过程可参考方法实施例所述,在此不再赘述。
图8是根据本发明又一个实施例的图片搜索方法装置的结构框图。
如图8所示,该图片搜索方法装置100包括:接收模块110、确定模块120、第一获取模块130、展现模块140、排序模块150和第二获取模块160,其中排序模块150包括获取单元151和排序单元152。
具体地,第二获取模块160用于获取与搜索词匹配的第二图片,第二图片为搜索引擎采用传统方式抓取的图片,其中,展现模块140向用户展现的图片搜索结果中还包括第二图片。
在本发明的一个实施例中,展现模块140还用于在向用户展现图片搜索结果时,将第一图片和第二图片分区域展现。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (16)
1.一种图片搜索方法,其特征在于,包括:
接收用户输入的搜索词;
确定所述搜索词的搜索频次,并确定所述搜索频次是否大于第一预设阈值且小于第二预设阈值,其中,所述第一预设阈值小于所述第二预设阈值,所述搜索频次根据搜索引擎记录的历史搜索数据确定;
当确定所述搜索频次大于所述第一预设阈值且小于所述第二预设阈值时,在预先建立的第一图片库中获取与所述搜索词匹配的第一图片,所述第一图片库中包括所述搜索引擎从用户原创内容UGC网站中获得的图片,所述搜索引擎将UGC图片实时存储在所述第一图片库中,并且建立所述UGC图片和UGC图片对应的相关数据之间的关联关系;
向所述用户展现图片搜索结果,所述图片搜索结果包括所述第一图片。
2.根据权利要求1所述的方法,其特征在于,所述在预先建立的第一图片库中获取与所述搜索词匹配的第一图片,包括:
将所述第一图片库中满足如下项中任意一项的图片作为所述第一图片:
文本内容与所述搜索词匹配的图片;
转发文本或者回复文本与所述搜索词匹配的图片;
作者名称或者作者个人描述或者作者标签与所述搜索词匹配的图片。
3.根据权利要求2所述的方法,其特征在于,在所述在预先建立的第一图片库中获取与所述搜索词匹配的第一图片后,所述方法还包括:
对所述第一图片进行排序,以向所述用户展现排序后的所述第一图片。
4.根据权利要求3所述的方法,其特征在于,所述对所述第一图片进行排序,包括:
获取至少一种的特征分值;
根据所述至少一种的特征分值和排序学习LTR算法,对所述第一图片进行排序。
5.根据权利要求4所述的方法,其特征在于,所述特征分值包括如下项中的至少一项:
正文匹配特征值,转发文本匹配特征值,回复文本匹配特征值,作者名称匹配特征值,作者描述匹配特征值,作者标签匹配特征值。
6.根据权利要求1所述的方法,其特征在于,还包括:
获取与所述搜索词匹配的第二图片,所述第二图片为所述搜索引擎采用传统方式抓取的图片;
所述向所述用户展现的图片搜索结果中还包括所述第二图片。
7.根据权利要求6所述的方法,其特征在于,还包括:
在向所述用户展现图片搜索结果时,将所述第一图片和所述第二图片分区域展现。
8.根据权利要求1所述的方法,其特征在于,所述UGC网站包括微博、微信、人人网中的至少一种。
9.一种图片搜索装置,其特征在于,包括:
接收模块,用于接收用户输入的搜索词;
确定模块,用于确定所述搜索词的搜索频次,并确定所述搜索频次是否在预设范围内,所述搜索频次根据搜索引擎记录的历史搜索数据确定,其中,所述确定模块具体用于:确定所述搜索频次是否大于第一预设阈值且小于第二预设阈值,其中,所述第一预设阈值小于所述第二预设阈值;
第一获取模块,用于当确定所述搜索频次在所述预设范围内时,在预先建立的第一图片库中获取与所述搜索词匹配的第一图片,所述第一图片库中包括所述搜索引擎从用户原创内容UGC网站中获得的图片,所述搜索引擎将UGC图片实时存储在所述第一图片库中,并且建立所述UGC图片和UGC图片对应的相关数据之间的关联关系;
展现模块,用于向所述用户展现图片搜索结果,所述图片搜索结果包括所述第一图片。
10.根据权利要求9所述的装置,其特征在于,所述第一获取模块具体用于:
将所述第一图片库中满足如下项中任意一项的图片作为所述第一图片:
文本内容与所述搜索词匹配的图片;
转发文本或者回复文本与所述搜索词匹配的图片;
作者名称或者作者个人描述或者作者标签与所述搜索词匹配的图片。
11.根据权利要求10所述的装置,其特征在于,还包括:
排序模块,用于对所述第一图片进行排序,以向所述用户展现排序后的所述第一图片。
12.根据权利要求11所述的装置,其特征在于,所述排序模块包括:
获取单元,用于获取至少一种的特征分值;
排序单元,用于根据所述至少一种的特征分值和排序学习LTR算法,对所述第一图片进行排序。
13.根据权利要求12所述的装置,其特征在于,所述特征分值包括如下项中的至少一项:
正文匹配特征值,转发文本匹配特征值,回复文本匹配特征值,作者名称匹配特征值,作者描述匹配特征值,作者标签匹配特征值。
14.根据权利要求9所述的装置,其特征在于,还包括:
第二获取模块,用于获取与所述搜索词匹配的第二图片,所述第二图片为所述搜索引擎采用传统方式抓取的图片;
其中,所述展现模块向所述用户展现的图片搜索结果中还包括所述第二图片。
15.根据权利要求14所述的装置,其特征在于,所述展现模块还用于在向所述用户展现图片搜索结果时,将所述第一图片和所述第二图片分区域展现。
16.根据权利要求14所述的装置,其特征在于,所述UGC网站包括微博、微信、人人网中的至少一种。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410120404.4A CN103942272B (zh) | 2014-03-27 | 2014-03-27 | 图片搜索方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410120404.4A CN103942272B (zh) | 2014-03-27 | 2014-03-27 | 图片搜索方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103942272A CN103942272A (zh) | 2014-07-23 |
CN103942272B true CN103942272B (zh) | 2017-08-18 |
Family
ID=51189940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410120404.4A Active CN103942272B (zh) | 2014-03-27 | 2014-03-27 | 图片搜索方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103942272B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361109B (zh) * | 2014-11-27 | 2019-05-10 | 北京奇虎科技有限公司 | 确定图片筛选结果的方法和装置 |
CN104504110B (zh) | 2014-12-30 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 搜索方法和装置 |
CN104765885A (zh) * | 2015-04-29 | 2015-07-08 | 北京奇艺世纪科技有限公司 | 一种ugc内容库扩充方法及装置 |
CN107305566B (zh) * | 2016-04-21 | 2019-10-18 | 北京搜狗科技发展有限公司 | 一种为搜索信息匹配图片的方法及装置 |
CN105930485A (zh) * | 2016-04-28 | 2016-09-07 | 深圳市金立通信设备有限公司 | 一种音频媒体播放方法、通信设备及网络系统 |
CN107967271A (zh) * | 2016-10-19 | 2018-04-27 | 北京搜狗科技发展有限公司 | 一种信息搜索方法及装置 |
CN106777212A (zh) * | 2016-12-23 | 2017-05-31 | 北京奇虎科技有限公司 | 基于景点名称搜索的搜索结果展现方法及装置 |
CN107807979A (zh) * | 2017-10-27 | 2018-03-16 | 朱秋华 | 一种相似图片的搜索方法及装置 |
CN110110121A (zh) * | 2018-01-19 | 2019-08-09 | 北京盛世光明软件股份有限公司 | 一种便于实现图片浏览的系统和方法 |
CN110532411B (zh) * | 2019-07-22 | 2024-07-02 | 平安科技(深圳)有限公司 | 图片搜索热度获取方法、装置、计算机设备及存储介质 |
CN110852069A (zh) * | 2019-10-24 | 2020-02-28 | 大唐融合通信股份有限公司 | 一种文本相关性评分方法及系统 |
CN113821712A (zh) * | 2021-09-24 | 2021-12-21 | 作业帮教育科技(北京)有限公司 | 一种扫描搜题的方法、智能扫描笔及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1783638A1 (en) * | 2005-09-08 | 2007-05-09 | Samsung Electronics Co., Ltd. | Method and mobile communication terminal for searching for user data in same |
CN101308508A (zh) * | 2008-07-10 | 2008-11-19 | 北京搜狗科技发展有限公司 | 处理图片的方法、装置以及搜索图片的方法 |
CN102385578A (zh) * | 2010-08-27 | 2012-03-21 | 腾讯科技(深圳)有限公司 | 图片搜索的方法和装置 |
CN102982178A (zh) * | 2012-12-17 | 2013-03-20 | 北京奇虎科技有限公司 | 一种图片搜索方法、装置和系统 |
US8429154B2 (en) * | 2007-07-12 | 2013-04-23 | Oki Data Corporation | Document search device, imaging forming apparatus, and document search system |
CN103164449A (zh) * | 2011-12-15 | 2013-06-19 | 腾讯科技(深圳)有限公司 | 一种搜索结果的展现方法与装置 |
-
2014
- 2014-03-27 CN CN201410120404.4A patent/CN103942272B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1783638A1 (en) * | 2005-09-08 | 2007-05-09 | Samsung Electronics Co., Ltd. | Method and mobile communication terminal for searching for user data in same |
US8429154B2 (en) * | 2007-07-12 | 2013-04-23 | Oki Data Corporation | Document search device, imaging forming apparatus, and document search system |
CN101308508A (zh) * | 2008-07-10 | 2008-11-19 | 北京搜狗科技发展有限公司 | 处理图片的方法、装置以及搜索图片的方法 |
CN102385578A (zh) * | 2010-08-27 | 2012-03-21 | 腾讯科技(深圳)有限公司 | 图片搜索的方法和装置 |
CN103164449A (zh) * | 2011-12-15 | 2013-06-19 | 腾讯科技(深圳)有限公司 | 一种搜索结果的展现方法与装置 |
CN102982178A (zh) * | 2012-12-17 | 2013-03-20 | 北京奇虎科技有限公司 | 一种图片搜索方法、装置和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103942272A (zh) | 2014-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103942272B (zh) | 图片搜索方法和装置 | |
CN112015949B (zh) | 视频生成方法和装置、存储介质及电子设备 | |
Shahaf et al. | Trains of thought: Generating information maps | |
CN105389329B (zh) | 一种基于群体评论的开源软件推荐方法 | |
MX2019003096A (es) | Presentacion de fotogramas clave de video en redes sociales en linea. | |
US20140355907A1 (en) | Photo and video search | |
CN105893419A (zh) | 一种多媒体照片生成方法、装置、设备及手机 | |
WO2013170587A1 (zh) | 一种多媒体问答系统及方法 | |
CN103207906B (zh) | 搜索结果的提供方法和搜索引擎 | |
JP6159989B2 (ja) | シナリオ生成システム、シナリオ生成方法およびシナリオ生成プログラム | |
US10685680B2 (en) | Generating videos of media items associated with a user | |
KR101174213B1 (ko) | 인맥에 기초한 검색 결과 제공 시스템 및 방법 | |
US20150134664A1 (en) | Experience graph | |
CN104408099A (zh) | 搜索方法和装置 | |
US20240037142A1 (en) | Systems and methods for filtering of computer vision generated tags using natural language processing | |
CN115114395A (zh) | 内容检索及模型训练方法、装置、电子设备和存储介质 | |
CN115374189B (zh) | 基于区块链的食品安全溯源方法、装置及设备 | |
WO2015139457A1 (zh) | 搜索推荐方法和装置 | |
KR20110019131A (ko) | 소셜 관계를 이용한 정보 검색 장치 및 방법 | |
JP7315321B2 (ja) | 生成装置、生成方法および生成プログラム | |
CN104504110A (zh) | 搜索方法和装置 | |
KR20120079630A (ko) | 멀티 모달리티 데이터 색인 및 검색 방법, 그 시스템 | |
JP2012252694A (ja) | オントロジースキーマーに基づくインスタンス経路の探索方法及び装置 | |
WO2014092537A1 (en) | A system and method for automated generation of learning object from online social content | |
Mayr et al. | Bibliometric-enhanced Information Retrieval: 2nd International BIR Workshop |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |