CN104541269A - 基于比较的主动搜索/学习 - Google Patents

基于比较的主动搜索/学习 Download PDF

Info

Publication number
CN104541269A
CN104541269A CN201380028023.7A CN201380028023A CN104541269A CN 104541269 A CN104541269 A CN 104541269A CN 201380028023 A CN201380028023 A CN 201380028023A CN 104541269 A CN104541269 A CN 104541269A
Authority
CN
China
Prior art keywords
node
net
target
parts
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380028023.7A
Other languages
English (en)
Inventor
E.约安尼迪斯
L.马索利
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN104541269A publication Critical patent/CN104541269A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2453Query optimisation
    • G06F16/24534Query rewriting; Transformation
    • G06F16/24535Query rewriting; Transformation of sub-queries or views
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/178Techniques for file synchronisation in file systems
    • G06F16/1794Details of file format conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/41Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Complex Calculations (AREA)

Abstract

提供一种用于执行通过比较的内容搜索的方法,其中向用户呈现两个候选对象并且揭示哪一个更接近用户想要的目标对象。所公开的原理提供用于使用较少比较找到用户的目标的主动策略。描述了用于非噪声用户反馈的所谓的排名网策略。对于具有有界加倍常数的目标分布,排名网在接近目标分布的熵并且因此最优的多个步骤中找到目标。还考虑了噪声用户反馈的情况。在该上下文中,还描述了各种排名网的变型,其中找到最优的缓慢增长函数(双对数)内的性能界限。对电影数据集的数值评估表明排名网与通用二进制搜索的搜索效率匹配,同时招致较小的计算成本。

Description

基于比较的主动搜索/学习
相关申请的交叉引用
本申请要求2012年5月9日提交的美国临时申请第61/644519号的权益,其通过引用整体合并于此。
技术领域
本原理涉及基于比较的主动搜索和学习。
背景技术
通过比较的内容搜索是其中用户以下列迭代方式定位大数据库中的目标对象的方法。在每一个步骤中,数据库向用户呈现两个对象,并且用户在这对对象中选择最接近她头脑中的目标的对象。在下一次迭代中,数据库基于用户的较早的选择呈现新的一对对象。该过程继续,直到基于用户的回答,数据库可以唯一地识别她头脑中的目标。
该类型的交互导航,也被称为探索搜索,具有许多现实生活中的应用。一个示例是在不受控制的环境中拍摄的人的图片的数据库中导航,例如Fickr或Picasa。自动方法可能无法从这些照片中提取有意义的特征。此外,在许多实践情形中,呈现类似低级别描述符(例如SIFT(尺度不变特征变换)特征)的图像可以具有非常不同的语义内容和高级别描述,并且因此被用户不同地理解。另一方面,搜索特定的人的人类可以容易地从图片列表中选择最类似于她头脑中的人的主体(subject)。
考虑由集合N表示并且被赋予距离度量(metric)d的对象的数据库,其捕捉不同对象之间的“距离”或“相异度”。给定具体对象t∈N,“比较语句(oracle)”是可以回答下列类型的问题的语句:
“在N中的两个对象x和y之间,在度量d之下哪一个最接近t?”
形式上,人类用户的行为可以通过这种比较语句来建模。具体地,假设对象的数据库是由集合N表示并且被赋予距离度量d的图片。
通过比较的交互式内容搜索的目的是找到对语句/人类呈现的提出的对象对的序列,导致以尽可能少的询问识别目标对象。
通过比较的内容搜索是最接近邻居搜索(NNS)的特殊情况,并且可以视为考虑对嵌入在度量空间中的对象的NNS问题的工作的延伸。还假设该嵌入具有小的固有维度,该假设在实践中受到支持。具体地,现有技术方式引入导航网,其是用于在加倍(doubling)度量空间中支持NNS的确定数据结构。对于嵌入在满足特定球形填充属性(sphere-packing property)的空间中的对象考虑类似技术,而其他工作依赖于增长受限度量;全部上面的假设都与这里考虑的加倍常数有关,在全部上述现有技术方式中,目标对象上的需求被假设为均匀的(homogeneous)。
在若干现有工作中引入了具有对比较语句的访问的NNS。这些工作的相当大的优势在于消除了对象先验地嵌入在度量空间中的假设;除了要求对象之间的相似度由距离度量捕捉,这些现有工作仅假设任何两个对象可以通过比较语句关于它们与任何目标的相似度而排名。然而,这些工作也假设均匀需求,并且本原理可以视为使用不均匀的比较的搜索的扩展。在该方面中,另一现有方式也假设不均匀需求分布。然而,在度量空间存在并且搜索算法知道它的假设之下,使用本原理提供在平均搜索成本方面更好的结果。上述方式的主要问题在于该方式是无记忆的,即其不利用先前的比较,而在本解决方案中,该问题通过部署E网数据结构而解决。
发明内容
现有技术的这些和其他缺陷和缺点通过本原理而解决,其涉及用于基于比较的主动搜索的方法。
根据本原理的一方面,提供用于在数据库内搜索内容的若干方法和若干装置。第一方法包括用于在数据库内搜索目标的步骤,其中通过首先构造具有包含至少一个目标的大小的节点的网,在网内选定节点的集合,并且比较目标与节点的集合内的每一个节点的距离。所述方法还包括根据比较步骤在节点的集合内选择最接近目标的节点,并且响应于选择步骤将网的大小减小为仍然包含目标的大小。所述方法还包括重复选定、比较、选择和减小步骤,直到网的大小足够小到仅包含目标。
根据本原理的另一方面,提供第一装置。所述装置包括用于构造具有包含至少一个目标的大小的网的部件,以及用于在网内选定节点的集合的部件。所述装置还包括比较目标与节点的集合内的每一个节点的距离的比较器部件,以及根据比较器部件在节点的集合内找到最接近目标的节点的用于选择的部件。所述装置还包括响应于选择部件将网的大小减小为仍然包含目标的大小的电路,以及用于使得选定部件、比较器部件、选择部件和减小部件重复它们的操作,直到网的大小足够小到仅包含目标的控制部件。
根据本原理的另一方面,提供第二方法。所述方法包括构造具有包含至少一个目标的大小的网并且在网内选定至少一对节点的步骤。所述方法还包括多次重复地比较目标与至少一对节点的每一个内的每一个节点的距离,并且根据比较步骤在至少一对节点的每一个内选择最接近目标的节点。所述方法还包括响应于选择步骤将网的大小减小为仍然包含目标的大小,并且重复选定、比较、选择和减小步骤,直到网的大小足够小到仅包含目标。
根据本原理的另一方面,提供第二装置。所述装置包括用于构造具有包含至少一个目标的大小的节点的网的部件,以及用于在网内选定至少一对节点的部件。所述装置还包括多次重复地比较目标与至少一对节点内的每一个节点的距离的比较器部件,以及用于响应于比较器部件在至少一对节点内选择最接近目标的节点的部件。所述装置还包括用于响应于选择部件将网的大小减小为仍然包含目标的大小的部件,以及用于使得选定部件、比较器部件、选择部件和减小部件重复它们的操作,直到网的大小足够小到仅包含目标的控制部件。
根据结合附图阅读的示例实施例的下列详细描述,本原理的这些和其他方面、特征和优点将变得清楚。
附图说明
图1示出(a)对于每一个样本数据集构造的大小、维度以及排名网树形层次的大小的表(b)期望询问复杂度以及(c)期望计算复杂度。
图2示出(a)询问和(b)作为数据集大小的函数的五个算法的计算复杂度,以及(c)在错误语句之下的作为n的函数的询问复杂度。
图3示出由本原理实现的示例算法。
图4示出在本原理之下的方法的第一实施例。
图5示出在本原理之下的装置的第一实施例。
图6示出在本原理之下的方法的第二实施例。
图7示出在本原理之下的装置的第二实施例。
具体实施方式
本原理针对用于基于比较的主动搜索的方法和装置。所述方法被称为“主动搜索”是因为存在使用先前阶段的结果的比较的重复阶段。所述方法在对象(例如,对象、图片、电影、文章等)的数据库中导航,并且向比较语句呈现一对对象,所述比较语句确定两个对象中的哪一个是最接近目标(例如,图片或电影或文章等)的对象。在下一次迭代中,数据库基于用户较早的选择呈现新的一对对象。该过程继续,直到基于用户的回答,数据库可以唯一地识别用户头脑中的目标。在每一个阶段中,呈现小的对象列表用于比较。列表中的一个对象被选择作为最接近目标的对象;然后基于较早的选择呈现新的对象列表。该过程继续,直到目标被包括在呈现的列表中,在该点处找到目标并且搜索结束。
这里描述的方式在不均匀需求的情景之下考虑问题,其中从概率分布μ对目标对象t∈N进行采样。在该设置中,通过比较的迭代内容搜索具有与经典的“二十个问题游戏”问题的强关系。具体地,成员语句是可以回答下列形式的询问的语句:
“给定子集t属于A吗?”
已知为了找到目标t,平均需要向成员语句提交至少H(μ)次询问,其中H(μ)是μ的熵。此外,存在平均仅使用H(μ)+1次询问找到目标的算法(霍夫曼编码)。
通过比较的内容搜索在假设数据库N被赋予度量d方面背离上面的设置。成员语句比比较语句更强,因为如果已知距离度量d,则比较询问可以通过成员询问来模拟。另一方面,成员语句在实践中更难实现:除非A可以被表示为余弦方式,用户将在|A|中在线性时间中回答成员询问。这与可以在常数时间中给出回答的比较语句形成对比。简而言之,通过比较的搜索的这里解决的问题对于(a)更容易实现的语句和(b)在关于数据库的结构的额外假设(即其被赋予距离度量)之下寻求与经典设置类似的性能范围(bound)。
直观地,通过比较搜索对象的性能将不仅取决于目标分布的熵,而且取决于目标集合N的拓扑结构,如由度量d描述的。具体地,已确定预计需要Ω(cH(μ))次询问来使用比较语句定位目标,其中c为所谓的度量d的加倍常数。此外,发明人先前提供了预计在O(c3Hlog(1/μ*))次询问中定位目标的方法,其中μ*=minx∈Nμ(X)。在本原理之下,预计使用利用O(c5H(μ))次询问定位目标的方法实现对先前的范围的改进。
通过比较的搜索
考虑被赋予距离度量d的大小n:=|N|的对象N的大的有限集合,其捕捉对象之间的“相异度”。用户从现有分布μ中选择目标t∈N。本原理的目的将为设计为了以尽可能少的询问发现t的目的使用对象对询问用户的交互方法。
比较语句是给定两个对象x、y和目标t,返回与t最接近的对象的语句。更正式地,
虽然假设存在度量d,距离的角度被限制为仅遵守对象之间的顺序关系。更精确地,仅存在对可以通过比较语句获得的信息的访问。给定对象z,比较语句Oz接收排序的对(x,y)∈N2作为询问,并且回答“与y相比,z更接近x吗?”的问题,即,
O z ( x , y ) = + 1 if d ( x , z ) < d ( y , z ) , - 1 if d ( x , z ) &GreaterEqual; d ( y , z ) - - - ( 1 )
这里描述的用于确定未知目标t的方法向比较语句Ot(即,用户)提交询问。实际上,假设用户可以关于它们与t的距离对对象进行排序,但不需要公开(或甚至知道)这些距离的准确值。
然后,假设语句总是给出正确的答案;稍后,通过考虑具有概率ε<0.5的错误语句而放宽该假设。
本原理的焦点在于确定向不要求知道距离度量d的Ot提交哪一次询问。呈现的方法仅依赖于(a)μ的分布(b)映射OZ:N2→{-1,+1}的值,每一个z∈N的先验知识。这符合虽然距离度量d存在,但是其不能被直接观察到的假设。
先前的μ可以作为对象在过去是目标的频率的函数而经验地估计。可以通过向比较语句提交θ{n2log n)次询问,并且对于每一个可能的目标z∈N要求θ{n2)的空间而离线地计算顺序关系,N中的对象可以关于它们离z的距离使用向OZ的θ{n log n)次询问而排序。
该排序的结果存储在(a)链表中,该链表的元素是与z距离相同的对象的集合,以及(b)哈希映射中,其在排序的列表中将每一个元素y与其排名相关联。注意通过关于它们与z的距离而比较x和y的相对排名,可以因此在O(1)时间中获取Oz(x,y)。
本原理的焦点在于自适应算法,该算法关于下一次提交N2中的哪一个询问的决定通过语句的先前答案而确定。一种方法的性能可以通过两种度量来测量。第一种是通过该方法需要向语句提交以确定目标的询问的期望次数而确定的该方法的询问复杂度。第二种是通过在每一个步骤确定向语句提交的询问的时间复杂度而确定的该方法的计算复杂度。
下限
记得μ的熵被定义为H(μ)=∑x∈supp(μ)μ(x)log(1/μ(x)),其中supp(μ)是μ的支持度(support)。给定对象x∈N,使得Bx(r)={y∈N:d{x,y)≤r},x周围的半径r≥0的封闭的球。给定集合使得μ(A)=∑x∈Aμ(x)。分布μ的加倍常数c(μ)为c>0的最小值,其中对于任何x∈supp(μ)和任何R≥O,μ(Bx(2R))≤cμ(Bx(R))。
加倍常数具有与由距离d确定的数据集的潜在维度的自然关联。熵和加倍常数两者也都与通过比较的内容搜索有固有的关联。已示出用于定位目标t的任何自适应机制预计必须向语句Ot提交至少Ω(c(μ)H(μ))次询问。此外,先前的工作已描述了用于在O(c3H(μ)Hmax(μ))次询问中确定目标的算法,其中Hmax(μ)=maxx∈supp(μ)log(1/μ(x))。
主动学习
通过比较的搜索可以被视为主动学习的特殊情况。在主动学习中,假设空间H是在有限集合Q上定义的二进制值函数的集合,被称为询问空间。每一个假设h∈H对于每一次询问q∈Q从{-I,+I}生成标签。根据一些先前的μ,从H中采样目标假设h*;提问询问q相当于揭示h*(q)的值,从而限制可能的候选假设。目标在于通过提问尽可能少的询问以自适应方式唯一地确定h*。
对于本原理,假设空间H是对象N的集合,并且询问空间Q是排序的对N2的集合。从μ采样的目标假设正是t。通过被假设为先验已知的映射OZ:N2→{-1,+I}唯一地确定每一个假设/对象z∈N。
用于确定通用主动学习设置中的真实假设的已知算法是所谓的通用二进制搜索(GBS)或分割算法。将版本空间定义为符合至今观察到的询问答案的可能的假设的集合。在每一个步骤中,GBS选择使得|∑h∈vμ(h)h(q)|最小化的询问q∈Q。换句话说,GBS选择将当前版本空间分为大致相等(概率)的块的两个集合的询问;预计这将导致版本空间的块的尽可能最大的减小,使得GBS可以被视为贪婪询问选择策略。
通过下列定理给出GBS的询问复杂度的界限:
定理1.GBS预计最多进行OPT·(Hmax(μ)+1)次询问以识别假设h*∈N,其中OPT是由任何自适应策略进行的最小期望次数。
通过比较的搜索中的GBS
对于本原理,版本空间V包括符合至今给出的语句答案的z∈N中的全部可能对象。换句话说,如果对于至今向语句提交的全部询问(x,y),Oz(x,y)=Ot(x,y),则Z∈V。因此,选择下一次询问相当于找到一对(x,y)∈N2,使得最小化
f(x,y)=|∑z∈Vμ(z)Oz(x,y)|.    (2)
仿真示出GBS的询问复杂度在实践中非常优异。这暗示该上限在通过比较的搜索的具体上下文中可能被改进。
然而,GBS的计算复杂度为每次询问θ(n2|V|)次操作,因为其在N2中的全部对上需要最小化f(x,y)。对于大的集合N,这可以是非常令人望而却步的。这促成我们提出一种新的算法,RANKNETSEARCH,其计算复杂度为0(1),并且其询问复杂度距离最优在O(c5(μ))个因子(factor)之内。
高效的自适应算法
使用本原理的方法由ε网启发,ε网是先前在最接近邻居搜索(NNS)的上下文中引入的结构。主要的前提为使用由具有较少重叠的球组成的网覆盖版本空间(即,当前有效的假设/可能的目标)。通过关于其与目标的距离而比较每一个球的中心,该方法可以识别目标属于的球。该搜索通过将版本空间限制到该球并且重复该过程使用更精细的网覆盖该球而继续。所面临的主要挑战在于与标准NNS相反,对于潜在的距离度量不存在访问。此外,由ε网进行的比较的次数的界限是最坏情况(即,先前没有(prior-free));使用该方法的结构考虑到先前的μ以提供预计的界限。
排名网
为了解决上面的问题,本方法引入排名网的概念,在该设置中其将充当ε网。对于某一x∈N,考虑球对于任何y∈E,定义
dy(p,E)=inf{r:μ(By(r))≥pμ(E)}    (3)
为维持pμ(E)以上的块的y周围的最小球的半径。使用该定义,如下定义p排名网。
定义1。对于某一p<1,的p排名网为点RcE的最大集合,使得对于任何两个不同的y,y′∈R
d(y,y′)>min{dy(p,E),dy′(p,E)}.    (4)
对于任何y∈R,考虑Voronoi单元(cell)
V y = { z &Element; E : d ( y , z ) &le; d ( y &prime; , z ) , &ForAll; y &prime; &Element; R , y &prime; &NotEqual; y } .
此外,将Voronoi单元Vy的半径ry定义为
对于这里的目的来说极为重要的是,可以仅使用排序信息计算排名网及其定义的Voronoi镶嵌单元(tesselation)两者:
引理1。可以在O(|E|(log|E|+|R|))个步骤中构造E的p排名网,并且围绕R周围的Voronoi单元的球可以仅使用(a)μ和(b)映射Oz:N2→{-1,+1},对于每一个z∈E,在O(|E||R|)个步骤中构造。
利用该结果,焦点变为p的选择如何影响网的大小以及其周围的Voronoi球的块。下一个引理限制|R|。
引理2。网R的大小至多为c3/p.
下列引理确定网中Voronoi球的块。
引理3。如果ry>0,则μ(By(ry))≤c3pμ(E)。
注意,引理3不限制半径0的Voronoi球的块。该引理实际上暗示了高概率对象y(其中μ(y)>c3pμ(E))必定被包括在R中,并且对应的球By(ry)是单元素集合(singleton)。
排名网数据结构和算法
排名网可以用于使用如在算法1中描述的比较语句Ot识别目标t。初始地,构造覆盖N的网R;关于节点与t的距离比较节点y∈R,并且确定最接近目标者,例如y*。注意,这需要向语句提交|R|-1次询问。版本空间V(可能的假设的集合)因此为Voronoi单元Vy*并且为球By*(ry*)的子集。然后,该方法通过将搜索限制为By*(ry*)并且重复上述过程而继续。注意,版本空间总是被包括在被网覆盖的当前的球中。当该球变为通过构造必须包含目标的单元素集合时,该过程结束
上面的方法中的一个问题是如何选择p:通过引理3,小的值导致Voronoi球的块从一个级别到另一级别的急剧下降,因此使用较少的迭代到达目标。另一方面,通过引理2,小的值也暗示较大的网,导致在每一次迭代对语句的更多次询问。如在算法2的伪码中指示的,这里的方法以迭代的方式选择p。该方法重复将p二等分,直到得到的网的全部非单元素集合Voronoi球By*(ry*)具有由0.5μ(E)限制的块。该选择导致对应询问和RANKNETSEARCH的计算复杂度上的下列界限:
定理2。RANKNETSEARCH预计通过对比较语句进行4c6(1+H(μ))次询问而定位目标。确定下一次提交哪一个询问的成本为O(n(log n+c6)log c)。
根据Ω(cH(μ))的询问复杂度的下限,本方法,RANKNETSEARCH,在询问复杂度方面在最优算法的O(c5)个因子之内,并且因此对于常数c是顺序最优的。此外,与GBS算法的立方成本相比,每次询问的计算复杂度为O(n(log n+c6)。与GBS相比,这导致计算复杂度的显著减小。
注意,上面的计算成本实际上可以通过分期(amortization)而减小为0(1)。具体地,容易看出RANKNETSEARCH遵循的可能的路径定义层次结构,由此每一个对象作为覆盖其Voronoi球的对象的父对象。该树可以是预先构造的,并且搜索可以被实现为该树上的后代。
噪声比较语句
现在,考虑噪声语句,其中对任何给定询问O(x,y,t)的答案为准确的概率为1-px,y,t,否则为错误的,并且这对于不同的询问是独立的。假设在后续中,错误概率px,y,t被限制为远离1/2,即存在pe<1/2,使得对于全部(x,y,t),px,y,t≤pe
在该上下文中,本原理的另一实施例提出询问复杂度被限制的先前的算法的修改。该过程仍然依赖于如前面构造的排名网层次。然而,该实施例在每一轮使用重复,以便当向下移动一级层次时限制选择排名网的错误元素的概率。
具体地,对于给定级别l和排名网大小m,通过下列表达式定义重复因子其中β>1和l0是两个设计参数,
R l 0 , &beta; ( l , m ) : = 2log ( ( l + l 0 ) &beta; [ log 2 ( m ) ] ) ( 1 - p e ) 2 . - - - ( 5 )
在顶级(l=0)开始的修改后的算法随后对于层次向下继续。当处于具有对应的排名网中的节点的集合A的级别l时,继续如下进行。在初始配对的排名网成员之间组织比赛。多对竞争的成员比较次。来自给定对的赢得最大次数的比赛的“比赛者”移动到下一阶段,其中其将再次与第一轮的另一获胜者配对,并且这样进行直到仅剩下一个比赛者。注意,重复的次数R仅随着级别l对数地增加。
询问复杂度和准确目标识别的对应概率的界限将通过利用以下导出:
引理4。给定固定目标t以及具有错误概率的上限为pe的噪声语句,具有重复的集合A的元素之间的比赛返回以至少1-(l+l0)的概率最接近目标t的集合A中的元素。
为了简单,这可以通过假设不存在平局而得到证明,即假设在A中存在最接近t的唯一点。存在平局的情况可以类似地推导。首先,限制在重复R次询问O(x,y,t)时,在x和y中赢得大部分比较的不最接近t的概率p(R)。因为错误概率的上限pe,得到(忽略平局的可能性)
p(R)≤Pr(Bin(R,pe)≥R/2)
Azuma-Hoeffding不等式确保上面的不等式的右手侧不大于exp(-R(1/2-pe)2/2)。在使用表达式(5)代替重复的次数R时,可以发现对应的错误概率的上限如下
现在考虑由A内最接近t的元素进行的比赛。最多存在个这种比赛。如推论的,通过合并(union)界限,最接近的元素在这些比赛中的任何一个中失败的概率不小于(l+l0)
备注1。为了使用无噪声(noiseless)语句找到最接近目标t的对象,显然需要O(|A|)次的询问。提出的算法通过进行至多因子次的更多的比较而以高概率实现相同目的。
在该上下文中,刚才提出的算法证明以下内容:
定理3,使用重复和比赛的算法以至少 1 - &Sigma; l &GreaterEqual; l 0 l - &beta; in O ( &Sigma; i &Element; N p i log 1 p i log log 1 p i ) 次询问的概率输出正确的目标。
备注2。注意通过选择β>1和足够大的l0,错误概率可以变为任意小。还注意,对于均匀分布pi≡1/n,除了顺序的项H(μ)=log(n),还有额外的因子log log(n)。
由于通过合并界限和先前的引理,有条件地对于的任何目标t∈N,因此这可以得到证明。比较的次数给出目标为T=t至多为
其中O项仅取决于加倍常数c、错误概率pe以及设计参数l0和β。通过在t∈N上求平均来遵循询问的期望次数的界限。
图1(a)示出大小、维度(特征的数目)以及对于每一个数据集构造的排名网树形层次的大小的表。图1(b)示出应用于每一个数据集的五种算法的每次搜索的期望询问复杂度。因为RANKNET和T-RANKNET具有相同询问复杂度,因此仅示出一种。图1(c)示出应用于每一个数据集的五种算法的每次搜索的期望计算复杂度。对于MEMORYLESSE和T-RANKNET,该期望计算复杂度等于询问复杂度。
评估
在本原理之下提出的方法可以在六个可公开获得的数据集上进行评估;iris、abalone、ad、faces、swiss roll(isomap)和netflix(netflix)。可以对后两者进行子采样,从swiss roll取得1000个随机选择的数据点,以及netflix中的1000个最多评分的电影。
这些数据集被映射到欧几里德空间Rd(分类变量以标准方式映射到二进制值);在图1(a)的表中示出维度d。对于netflix,通过经由SVD获得用户/电影评分矩阵的低排名近似将电影映射到50维向量。然后,使用l2作为对象之间的距离度量,使用α=0.4从幂律之前(power-law prior)选择目标。
RankNetSearch的两种实现方式的性能:如在算法1中对其中在线确定排名网的一个进行评估,并且由T-RANKNETSEARCH表示的另一个,其中预先计算排名网的整个层次并且将其存储为树。两种算法向语句提出完全相同的询问,因此具有相同的询问复杂度;然而,T-RANKNETSEARCH每次询问仅具有0(1)的计算复杂度。对于每一个数据集由T-RANKNETSEARCH预先计算的树的大小在图1(a)的表中示出。
这些算法将与(a)由一种现有技术方法提出的无记忆策略和(b)基于GBS的两种启发式方法进行比较。每次询问GBS的θ(n3)计算成本使得其在这里考虑的数据集上难以处理。
类似GBS,第一种启发式方法,被称为快速GBS的F-GBS,选择最小化等式(2)的询问。然而,其通过将询问限制为当前版本空间V中的对象对而这样做。这将每次询问的计算成本减小为θ(|V|3),而非θ(n2|V|).当然,对于初始询问仍然是θ(n3)。第二启发式方法,被称为稀疏GBS的S-GBS,以下列方式利用排名网。首先,如在T-RANKNETSEARCH中,在数据集上构造排名网层次。然后,在最小化等式(2)中,询问被仅限制为出现在相同网中的对象对之间的询问。直观地,S-GBS假设在这些对中可以找到“良好”(即合理)部分的对象。
询问对计算复杂度
图1(b)中示出被表示为每次搜索的平均询问次数的不同算法的询问复杂度。虽然对于F-GBS或S-GBS都不存在已知保证,但是两种算法在全部数据集上的询问复杂度方面都非常优异,预计在10次询问之内找到目标。由于GBS应表现得如这些算法中任一算法一样好,因此这些意味着其还应表现得比定理1预测的更好。RANKNETSEARCH的询问复杂度在2到10倍更高的询问复杂度之间;影响对于高维度数据集更大,如通过排名网大小对c加倍常数的依赖性所预计的。最后,与全部其他算法相比MEMORYLESS表现更差。
如图1中所示,关于作为每次搜索执行的操作的总数而测量的计算复杂度,上面的顺序是完全相反的。从一种算法到下一算法的差异在50到100数量级之间的范围内。F-GBS对于一些数据集预计需要接近109次操作;相反,RANKNETSEARCH在100和1000次操作的范围内。可扩展性和健壮性
为了研究上面的算法如何随着数据集大小扩展,该算法可以在包括在R3随机均匀放置的对象的综合数据集上评估。图2(a)和(b)中示出五种算法的询问和计算复杂度。图2示出作为数据集大小的函数的五种算法的(a)询问和(b)计算复杂度。从半径1的l1球中随机均匀选择数据集。图2(c)示出在错误语句之下作为n的函数的询问复杂度。
在图1中提到的算法之间存在相同差异。以log n线性增长暗示对于全部方法关于熵H(μ)的复杂度的两种测量之间的线性关系。图2(b)示出健壮RANKNETSEARCH算法的询问复杂度的图表。
图4中示出用于使用本原理在数据库内搜索目标的第一方法400的一个实施例。开始块401将控制传递到功能块410。功能块410构造具有包含目标的大小的节点的网。功能块410将控制传递到从网内选择节点的集合的功能块420。在块420之后,控制被传递到比较目标与节点的集合内的每一个节点的距离的功能块430。控制从功能块430被传递到根据功能块430的比较执行最接近目标的节点的选择的功能块440。控制从功能块440被传递到根据在功能块440期间发生的选择将网减小到仍包含目标的大小的功能块450。控制从功能块450被传递到使得功能块420、430、440和450重复直到网的大小足够小到仅包含目标的控制块460。当网仅包含目标时,该方法停止。
用于使用本原理在数据库内搜索目标的第一装置的一个实施例在图5中示出,并且总地由参考标号500指示。该装置可以被实现为独立的硬件,或由计算机执行。该装置包括用于构造具有包含至少一个目标的大小的节点的网的部件510。部件510的输出与用于在网内选择节点的集合的部件520的输入端信号通信。选择部件520的输出端与比较目标与节点的集合内的每一个节点的距离的比较器部件530的输入端信号通信。比较器部件530的输出端与响应于比较器部件530在节点的集合内选择最接近目标的节点的选择部件540的输入端信号通信。选择部件540的输出端与用于响应于选择部件540将网减小为仍然包含目标的大小的部件550信号通信。减小部件550的输出端与控制部件560信号通信。控制部件560将使得选择部件520、比较器部件530、选择部件540和减小部件550重复它们的操作,直到网的大小足够小到仅包含目标。
图6中示出用于使用本原理在数据库内搜索目标的第二方法600的实施例。开始块601将控制传递到功能块610。功能块610构造具有包含目标的大小的节点的网。功能块610将控制传递到从网内选择至少一对节点的功能块620。在块620之后,控制被传递到多次重复比较目标与至少一对节点的每一个内的每一个节点的距离的功能块630。控制从功能块630被传递到在多次重复的路线上根据功能块630的比较执行至少一对节点的每一个内最接近目标的节点的选择的功能块640。控制从功能块640被传递到根据在功能块640期间发生的选择将网减小到仍包含目标的大小的功能块650。控制从功能块650被传递到重复功能块620、630、640和650直到网的大小足够小到仅包含目标的控制块660。当网仅包含目标时,该方法停止。
用于使用本原理在数据库内搜索目标的第二装置的实施例在图7中示出,并且总地由参考标号700指示。该装置可以被实现为独立的硬件,或由计算机执行。该装置包括用于构造具有包含至少一个目标的大小的节点的网的部件710。部件710的输出端与用于在网内选择至少一对节点的部件720的输入端信号通信。选定部件720的输出端与多次重复比较目标与至少一对节点内的每一个节点的距离的比较器部件730的输入端信号通信。比较器部件730的输出端与响应于比较器部件730在至少一对节点内选择最接近目标的节点的选择部件740的输入端信号通信。选择部件740的输出端与用于响应于选择部件740将网减小为仍然包含目标的大小的部件750信号通信。减小部件750的输出端与控制部件760信号通信。控制部件760将使得选定部件720、比较器部件730、选择部件740和减小部件750重复它们的操作,直到网的大小足够小到仅包含目标。
已提供具有本发明的当前优选实施例的特定特征和方面的一个或多个实现方式。然而,描述的实现方式的特征和方面还可以适用于其他实现方式。例如,这些实现方式和特征可以在其他视频设备或系统的上下文中使用。实现方式和特征不需要标准地使用。
说明书中的提及的本原理的“一个实施例”或“实施例”或“一种实现方式”或“实现方式”以及其其他变化意指关于该实施例描述的特定特征、结构和特性以此类推被包括在本原理的至少一个实施例中。因此,在整个说明书中的各个地方出现的词组“一个实施例”或“实施例”或“一种实现方式”或“实现方式”的出现以及任何其他变化不一定全部指代相同实施例。
这里描述的实现方式可以被实现为例如方法或过程、装置、软件程序、数据流或信号。即使仅在单一形式的实现方式的上下文中讨论(例如,仅作为方法讨论),讨论的特征的实现方式也可以被实现为其他形式(例如,装置或计算机软件程序)。装置可以被实现在例如适当的硬件、软件和固件中。该方法可以被实现在例如处理器的装置中,处理器总地指代处理设备,包括例如计算机、微处理器、集成电路或可编程逻辑设备。处理器还可以包括通信设备,例如计算机、蜂窝电话、便携式/个人数字助理(“PDA”)以及帮助终端用户之间的信息的通信的其他设备。
这里描述的各种过程和特征的实现方式可以被实现在各种不同设备或应用中。这种设备的示例包括web服务器、笔记本计算机、个人计算机、蜂窝电话、PDA和其他通信设备。应该清楚,设备可以是移动的并且甚至安装在移动车辆中。
此外,该方法可以由处理器执行的指令实现,并且这种指令(和/或通过实现产生的数据值)可以存储在处理器可读介质上,例如集成电路、软件载体或其他存储设备,例如硬盘、光盘、随机存取存储器(“RAM”)或只读存储器(“ROM”)。该指令可以形成有形地实现在处理器可读介质上的应用程序。指令可以在例如硬件、固件、软件或其组合中。指令可以在例如操作系统、单独的应用或两者的组合中找到。因此,处理器可以被表征为例如被配置为进行处理的设备和包括具有应用进行处理的指令的处理器可读介质(例如存储介质)的设备两者。此外,除了或代替指令,处理器可读介质可以存储通过实现产生的数据值。
本领域技术人员将清楚,实现方式可以使用这里描述的全部或部分方式。实现方式可以包括例如用于实现方法的指令、或由描述的实施例之一产生的数据。
已描述了许多实现方式。然而,将理解可以进行各种修改。例如,可以组合、补充、修改或删除不同实现方式的元素以产生其他实现方式。此外,本领域普通技术人员将理解其他结构和过程可以代替所公开的结构和过程,并且得到的实现方式将与公开的实现方式相同地以至少基本上相同的一个或多个方式执行至少基本上相同的一个或多个功能以实现至少基本上相同的一个或多个结果。因此,这些和其他实现方式被本公开预计到并且在这些原理的范围内。

Claims (24)

1.一种用于在数据库内搜索目标的方法,包括:
构造具有包含至少一个目标的大小的节点的网;
在网内选定节点的集合;
比较目标与节点的集合内的每一个节点的距离;
根据所述比较步骤在节点的集合内选择最接近目标的节点;
根据所述选择步骤将网减小为仍然包含目标的大小;以及
重复所述选定、比较、选择和减小步骤,直到网的大小足够小到仅包含所述目标。
2.如权利要求1所述的方法,其中所述减小步骤将网减小,使得网以最接近目标的所述节点为中心,并且网具有不大于最接近目标的所述节点的距离的半径。
3.如权利要求2所述的方法,其中网由Voronoi单元定义。
4.如权利要求3所述的方法,Voronoi单元具有使用关于节点的距离的排序信息计算的镶嵌单元。
5.如权利要求1所述的方法,其中距离的比较使用欧几里德距离。
6.如权利要求1所述的方法,其中对于至少两次迭代执行所述重复步骤。
7.一种用于在数据库内搜索内容的计算机,包括:
用于构造具有包含至少一个目标的大小的节点的网的部件;
用于在网内选定节点的集合的部件;
用于比较目标与节点的集合内的每一个节点的距离的比较器部件;
用于响应于所述比较器部件在节点的集合内选择最接近目标的节点的部件;
响应于所述选择部件将网减小为仍然包含目标的大小的部件;
以及
用于使得用于选定的所述部件、所述比较器部件、所述选择部件和用于减小的所述部件重复它们的操作,直到网的大小足够小到仅包含目标的控制部件。
8.如权利要求7所述的装置,其中用于减小网的大小的所述部件将网减小,使得网以最接近目标的所述节点为中心,并且网具有不大于最接近目标的所述节点的距离。
9.如权利要求8所述的装置,其中网由Voronoi单元定义。
10.如权利要求9所述的装置,Voronoi单元具有只使用关于节点的距离的排序信息计算的镶嵌单元。
11.如权利要求7所述的装置,其中比较器部件使用欧几里德距离。
12.如权利要求7所述的装置,其中所述控制电路使得对于至少两次迭代执行所述重复操作。
13.一种用于在数据库内搜索目标的方法,包括:
构造具有包含至少一个目标的大小的网;
在网内选定至少一对节点;
多次重复比较目标与至少一对节点的每一个内的每一个节点的距离;
根据所述比较步骤在至少一对节点的每一个内选择最接近目标的节点;
响应于所述选择步骤将网减小为仍然包含目标的大小;
重复所述选定、比较、选择和减小步骤,直到网的大小足够小到仅包含目标。
14.如权利要求13所述的方法,其中所述减小步骤将网减小,使得网以最接近目标的所述节点为中心,并且网具有不大于最接近目标的所述节点的距离的半径。
15.如权利要求14所述的方法,其中网由Voronoi单元定义。
16.如权利要求15所述的方法,Voronoi单元具有使用关于节点的距离的排序信息计算的镶嵌单元。
17.如权利要求13所述的方法,其中距离的比较使用欧几里德距离。
18.如权利要求13所述的方法,其中对于至少两次迭代执行所述重复步骤。
19.一种用于在数据库内搜索内容的计算机,包括:
用于构造具有包含至少一个目标的大小的节点的网的部件;
用于在网内选定至少一对节点的部件;
多次重复比较目标与至少一对节点内的每一个节点的距离的比较器部件;
用于响应于所述比较器部件在至少一对节点内选择最接近目标的节点的部件;
用于响应于所述选择部件将网的大小减小为仍然包含目标的大小的部件;
以及
用于使得所述选定部件、所述比较器部件、所述选择部件和所述减小部件重复它们的操作,直到网的大小足够小到仅包含目标的控制部件。
20.如权利要求7所述的装置,其中用于减小网的所述部件将网减小,使得网以最接近目标的所述节点为中心,并且网具有不大于最接近目标的所述节点的距离的半径。
21.如权利要求8所述的装置,其中网由Voronoi单元定义。
22.如权利要求9所述的装置,Voronoi单元具有只使用关于节点的距离的排序信息计算的镶嵌单元。
23.如权利要求7所述的装置,其中比较器部件使用欧几里德距离。
24.如权利要求7所述的装置,其中所述控制部件使得对于至少两次迭代执行重复操作。
CN201380028023.7A 2012-05-09 2013-05-09 基于比较的主动搜索/学习 Pending CN104541269A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261644519P 2012-05-09 2012-05-09
US61/644,519 2012-05-09
PCT/US2013/040248 WO2013169968A1 (en) 2012-05-09 2013-05-09 Comparison-based active searching/learning

Publications (1)

Publication Number Publication Date
CN104541269A true CN104541269A (zh) 2015-04-22

Family

ID=48468832

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380028023.7A Pending CN104541269A (zh) 2012-05-09 2013-05-09 基于比较的主动搜索/学习

Country Status (9)

Country Link
US (1) US20150120762A1 (zh)
EP (1) EP2847691A1 (zh)
JP (1) JP2015516102A (zh)
KR (1) KR20150008461A (zh)
CN (1) CN104541269A (zh)
AU (1) AU2013259555A1 (zh)
BR (1) BR112014027881A2 (zh)
HK (1) HK1208538A1 (zh)
WO (1) WO2013169968A1 (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011009964A1 (fr) * 2009-07-24 2011-01-27 Bionext Procédé de caractérisation d'une molécule
JP2011043626A (ja) * 2009-08-20 2011-03-03 Ntt Docomo Inc 逆ジオコーディング装置、及び逆ジオコーディング方法
CN102253961A (zh) * 2011-05-17 2011-11-23 复旦大学 基于Voronoi图的路网k聚集最近邻居节点查询方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101210613B1 (ko) * 2010-11-30 2012-12-11 주식회사 케이티 모바일 p2p 서비스를 제공하는 시스템 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011009964A1 (fr) * 2009-07-24 2011-01-27 Bionext Procédé de caractérisation d'une molécule
JP2011043626A (ja) * 2009-08-20 2011-03-03 Ntt Docomo Inc 逆ジオコーディング装置、及び逆ジオコーディング方法
CN102253961A (zh) * 2011-05-17 2011-11-23 复旦大学 基于Voronoi图的路网k聚集最近邻居节点查询方法

Also Published As

Publication number Publication date
AU2013259555A1 (en) 2014-11-13
HK1208538A1 (zh) 2016-03-04
EP2847691A1 (en) 2015-03-18
KR20150008461A (ko) 2015-01-22
JP2015516102A (ja) 2015-06-04
BR112014027881A2 (pt) 2017-06-27
WO2013169968A1 (en) 2013-11-14
US20150120762A1 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
Yamada et al. Efficient passage retrieval with hashing for open-domain question answering
Raginsky et al. Locality-sensitive binary codes from shift-invariant kernels
US8676725B1 (en) Method and system for entropy-based semantic hashing
Lin et al. Hadamard matrix guided online hashing
CN111445020B (zh) 一种基于图的卷积网络训练方法、装置及系统
Anuranji et al. A supervised deep convolutional based bidirectional long short term memory video hashing for large scale video retrieval applications
CN111506821B (zh) 推荐模型、方法、装置、设备及存储介质
CN111506820A (zh) 推荐模型、方法、装置、设备及存储介质
CN112417313A (zh) 一种基于知识图卷积网络的模型混合推荐方法
CN112131261B (zh) 基于社区网络的社区查询方法、装置和计算机设备
Liu et al. Spline regression hashing for fast image search
CN114329029A (zh) 对象检索方法、装置、设备及计算机存储介质
Ng et al. Incremental hash-bit learning for semantic image retrieval in nonstationary environments
Kan et al. Zero-shot learning to index on semantic trees for scalable image retrieval
Djenouri et al. Deep learning based decomposition for visual navigation in industrial platforms
Mohammadian et al. An initialization method to improve the training time of matrix factorization algorithm for fast recommendation
Qi et al. Life-long cross-media correlation learning
Li et al. A rank aggregation framework for video multimodal geocoding
Chen et al. Deep voice-visual cross-modal retrieval with deep feature similarity learning
CN116541592A (zh) 向量生成方法、信息推荐方法、装置、设备及介质
Guo et al. Parametric and nonparametric residual vector quantization optimizations for ANN search
CN103377381A (zh) 识别图像的内容属性的方法和装置
CN104541269A (zh) 基于比较的主动搜索/学习
Dedeoglu et al. Continual learning of generative models with limited data: From wasserstein-1 barycenter to adaptive coalescence
Chandra et al. A novel approach for distance-based semi-supervised clustering using functional link neural network

Legal Events

Date Code Title Description
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150422