CN105144164A - 使用深度网络对概念术语评分 - Google Patents
使用深度网络对概念术语评分 Download PDFInfo
- Publication number
- CN105144164A CN105144164A CN201480023391.7A CN201480023391A CN105144164A CN 105144164 A CN105144164 A CN 105144164A CN 201480023391 A CN201480023391 A CN 201480023391A CN 105144164 A CN105144164 A CN 105144164A
- Authority
- CN
- China
- Prior art keywords
- resource
- feature
- concept
- training
- concept term
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/353—Clustering; Classification into predefined classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Information Transfer Between Computers (AREA)
- Business, Economics & Management (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
一种使用深度网络对概念术语进行评分的方法、系统和装置,包括计算机存储介质上编码的计算机程序。方法中的一个包括接收包括资源的多个特征的输入,其中每个特征是资源的相应属性的值;使用相应嵌入函数处理每个特征,以生成一个或多个数值;处理数值,以生成资源的特征的替选表示,其中处理所述数值包括将一个或多个非线性变换应用到所述数值;以及处理输入的替选表示,以生成预定概念术语组中的每个概念术语的相应相关分值,其中每个相应相关分值测量对应的概念术语与资源的预测相关性。
Description
背景技术
互联网资源(例如,网页、图像、文本文档、多媒体内容)可以包括描述任何各种各样概念的内容。
发明内容
本说明书涉及使用深度网络识别与资源相关的概念术语。
在一般性方面1,一种由一个或多个计算机执行的方法,所述方法包括:接收包括资源的多个特征的输入,其中每个特征是资源的相应属性的值;使用相应嵌入函数处理每个特征,以生成一个或多个数值;处理数值,以生成资源的特征的替选表示,其中处理所述数值包括将一个或多个非线性变换应用到所述数值;以及处理输入的替选表示,以生成预定概念术语组中的每个概念术语的相应相关性分值,其中每个相应相关性分值测量对应概念术语与资源的预测相关性。
根据方面1的方面2,其中,每个嵌入函数特定于相应特征类型的特征,其中,每个嵌入函数接收相应类型的特征,并且将变换应用到特征,根据嵌入函数参数组将特征映射到数值表示。
根据方面1或2中的任何一个的方面3,进一步包括:响应于接收将要进行在线广告拍卖以选择用于包括在资源的特定呈现中的一个或多个广告的指示,获得资源的多个特征。
根据方面1至3中的任何一个的方面4,进一步包括:基于相关性分值选择概念术语中的一个或多个作为在选择参与在线广告拍卖的候选广告时使用的广告关键字。
根据方面1至4中的任何一个的方面5,进一步包括:过滤与资源不是相同语言的概念术语。
根据方面1至5中的任何一个的方面6,进一步包括:过滤具有超过阈值的词频逆文档频率(TF-IDF)分值的概念术语。
根据方面1至6中的任何一个的方面7,其中,所述数值是浮点值。
根据方面1至7中的任何一个的方面8,其中,所述数值是量化整数值,并且其中,量化整数值的编码表示浮点值。
在一般性方面9中,一种用于训练系统预测预定概念术语组中的每一个与资源的相关性的计算机实现的方法,其中,所述系统包括嵌入函数层、一个或多个神经网络层和分类器,其中,所述方法包括:获得识别训练资源的数据和用于每个训练资源的一个或多个相应关联概念术语;对于每个训练资源指定用于分类器生成的相应预测输出的输出标准;以及基于每个训练资源的相应特征和指定的输出标准来训练嵌入函数层、神经网络层和分类器,其中每个特征是资源的相应属性的值。
根据方面9的方面10,其中,指定输出标准包括:对于每个训练资源,指定为与训练资源相关联的概念术语生成的相关性分值应超过为多个概念术语中与训练资源不相关联的其他概念术语的随机样本生成的相关性分值。
根据方面9或10中的任何一个的方面11,进一步包括:获得识别用户查看的训练资源的数据;获得识别用户在查看训练资源的阈值时间窗口内选择的第一资源中的广告的数据;以及将在第一资源中放置广告所使用的关键字与用户查看的训练资源相关联作为概念术语。
这些方面的其他实施例包括相应的计算机系统、装置和在一个或多个计算机存储设备上记录的计算机程序,每个都被配置为执行方法的动作。
在本说明书中描述的主题的特定实施例可以实现为达到下述优点中的一个或多个。深度网络可以有效并可靠地用于预测与资源相关的概念术语。一旦训练完,深度网络可以用于预测新资源(即,深度网络先前未知的资源)的相关概念术语。深度网络可以由此利用机器学习方案更快更有效地处理新数据资源。例如,深度网络可以用于选择与资源相关的关键字(例如,广告关键字)。使用深度网络来选择关键字可以导致更相关的搜索结果(例如,广告)被包括在资源中,例如,通过增加为参与将一个或多个结果(例如,广告)放置到资源中进行的在线内容选择过程(例如,广告拍卖)选择的结果(例如,广告)与资源的相关性。
在附图和以下描述中阐述了本说明书的主题的一个或多个实施例的细节。本主题的其它特征,方面和优点将从说明书、附图和权利要求变得显而易见。
附图说明
图1是示例概念术语评分系统的框图。
图2是用于对概念术语评分的示例过程的流程图。
图3是训练概念术语评分系统的示例过程的流程图。
在各个附图中,相同的参考标号和标记指示相同的元素。
具体实施方式
图1是示例概念术语评分系统100的框图。概念术语评分系统100是在一个或多个位置的一个或多个计算机上被实现为计算机程序的系统的示例,其中可以实现下面描述的系统、组件和技术。
概念术语评分系统100接收输入,并且基于接收的输入生成预测输出。具体地,输入是资源的一组特征,并且概念术语评分系统100基于输入生成的输出是一组概念术语中的每一个的相应分值。该组概念术语是预定的,并且表示已经被确定为与系统相关的或资源集合的概念。为概念术语生成的分值是概念术语的每一个与资源的相关程度的预测。例如,概念术语可以是用于选择参与在线广告拍卖的广告的关键字。
资源的特征是资源的相应属性的值,其以某种方式表征资源,并且可以包括多个相应明确区分的特征类型的特征。特定类型的特征是从特征类型的可能活动特征元素的词汇表选择的一个或多个活动特征元素的列表,即令牌或令牌值对的列表。例如,令牌可以是自然语言,例如英语,特征类型的词汇表可以是自然语言中已知的词。特征类型的词汇表可以重叠或不重叠,并且给定特征类型的列表可以有序或无序。
例如,概念术语评分系统100可以从特征数据存储102接收特征120。例如,特征120可以是响应于接收将要进行在线广告拍卖以选择将被包括在资源的特定呈现中的一个或多个广告的指示而已经从特定资源提取的各种特征类型的特征。例如,资源的特征可以包括任何下述的:资源的统一资源定位符(URL)、资源的域名、资源的发布者的标识符、由识别与资源相关的类别或实体类型的概念评分系统100获得的数据、资源中出现最频繁的术语等。资源的特征也可以包括从汇总资源的内容或效用的其它系统或服务获得的特征,例如,尝试识别资源中的最重要术语的系统,识别与资源相关的实体的系统等。
概念术语评分系统100使用接收的输入特性来预测输出。输出可以存储在评分的概念术语数据存储114中或用于一些直接的目的。具体地,输出是分值的向量,其包括概念术语组中的每一个的相应分值。在在线广告的上下文中,例如,在输入特征是将要对其进行在线广告拍卖的资源的特征的情况下,概念术语评分系统100可以生成用于概念术语组中的每一个的分值,所述概念术语可以用作用于选择参与拍卖的广告的广告关键字。
概念术语评分系统100包括深度网络106和分类器112。深度网络使用一组机器学习算法,其尝试通过使用由一个或多个非线性变换构成的体系结构对数据中的结构或抽象建模或模拟。具体地,深度网络是机器学习系统,其包括输入和输出层之间的一个或多个隐藏层。每个隐藏层根据参数组对从深度网络中的先前层接收的输入应用相应的非线性变换,并且将非线性变换的结果提供给深度网络中的下一层。隐藏层提供抽象的水平,从而增加深度网络的建模能力。深度网络106包括一组嵌入函数108和一个或多个隐藏人工神经网络层110,每一个都具有相应的一组参数。每个嵌入函数108接收相应类型的相应特征,并且根据参数组对特征应用变换,其将特征映射到数值表示。例如,嵌入函数108可以对特征120应用变换,以将特征映射到浮点表示122。下面将参照图2更加详细地描述嵌入函数。
神经网络层110的初始层接收嵌入函数生成的输入特征的浮点表示作为输入,并且神经网络层110每个对浮点表示应用一个或多个相应的非线性变换,以生成输入的替选表示。替选表示是通过对输入的初始数值表示应用一个或多个非线性变换生成的输入的数值表示,例如,通过嵌入函数108生成的表示。例如,神经网络层110可以从自嵌入函数108接收的特征120的浮点表示122生成替选表示124。每个神经网络层是人工节点的集合,其接收输入并且从输入计算输出,即,根据参数组通过对输入应用非线性变换从输入计算输出。输出随后被馈送到其他神经网络层或深度网络的其它组件。代替或除神经网络层110,深度网络106可以包括另一组层,其在嵌入函数108生成的浮点表示的部分或全部上应用连续线性或非线性变换。
分类器112接收深度网络106生成的替选表示,并且根据分类器112的参数值预测概念分值向量的每个字段的值。概念分值向量中的每个字段对应于概念术语组中的相应概念术语。例如,分类器112可以从替选表示124生成概念分值向量126。分类器112可以是任何多类或者多标记分类器,例如,多类逻辑回归分类器、多类支持向量机分类器、贝叶斯分类器等。在一些实施方式中,代替分类器112,概念术语评分系统100可以包括排名函数,其基于替选表示124对概念术语进行排名。例如,排名函数可以是铰链损失排名函数、成对排名函数等。
图2是用于对概念术语评分的示例过程200的流程图。为了方便,过程200将被描述为通过位于一个或多个位置的一个或多个计算机的系统来执行。例如,适当编程的概念术语评分系统(例如,图1的概念术语评分系统100)可以执行过程200。
系统获得资源的特征(步骤202)。如上所述,特征是令牌或令牌值对的有序或无序列表。每个特征是相应的特征类型,即从特征类型的可能活动特征元素的词汇表选择的构成特征的令牌或令牌值对的列表。
系统使用用于特征的特征类型的嵌入函数对每个特征进行处理(步骤204),以生成特征的浮点向量表示。根据特征类型和实现方式,用于给定特征类型的嵌入函数可以是各种嵌入功能中的任何一个。系统通过解析由系统为每个资源接收的原始输入数据来确定特征的类型。例如,如果给定资源的原始输入数据的一部分是“URL:www.examplesite.com”,则系统可以解析输入数据,以确定资源特征中的一个是www.examplesite.com,并且特征是URL特征类型。
例如,对于特征由单个令牌构成的特征类型,嵌入功能可以是简单的嵌入函数。简单的嵌入函数将单个令牌映射到浮点向量,即浮点值的向量。例如,简单的嵌入函数可以基于嵌入函数的当前参数值,例如,存储在查找表中,将令牌“cat”映射到向量[0.1,0.5,0.2],以及将令牌“tablet”映射到[0.3,0.9,0.0]。
作为另一示例,对于特征可能由两个或多个令牌的列表构成的特征类型,嵌入函数可以是并行嵌入函数。并行嵌入函数将令牌列表中的每个令牌映射到相应的浮点向量,并且输出单个向量,该单个向量是相应浮点向量的串联。例如,对于令牌的有序列表{"Atlanta","Hotel"},并行嵌入函数可以将"Atlanta"映射到向量[0.1,0.2,0.3],将"Hotel"映射到[0.4,0.5,0.6],然后输出[0.1,0.2,0.3,0.4,0.5,0.6]。为了获得相应的浮点向量,并行嵌入函数可以使用单个查找表或多个不同的查找表。
作为另一示例,对于特征可能由两个或多个令牌的列表构成的特征类型,嵌入函数可以是组合嵌入函数。组合嵌入函数将列表中的每个令牌映射到相应的浮点向量,然后将相应的浮点向量合并成单个合并向量。组合嵌入函数可以使用线性函数(例如求和,平均、或者相应浮点向量的加权线性组合),或使用非线性函数,例如,组件按位最大或规范约束的线性组合,合并相应浮点向量。为了识别相应的浮点向量,并行嵌入函数可以使用单个查找表或多个不同的查找表。例如,对于有序列表{"Atlanta","Hotel"},并行嵌入函数可以将"Atlanta"映射到向量[0.1,0.2,0.3],将"Hotel"映射到[0.4,0.5,0.6],然后输出两个向量的和,即,[0.5,0.7,0.9]。
作为另一示例,对于特征可能由两个或更多个令牌的列表构成的特征类型,嵌入函数可以是混合嵌入函数。混合嵌入函数将令牌的列表中的每个令牌映射到相应的浮点向量,并且生成初始向量,该初始向量是相应浮点向量的串联。然后混合嵌入函数将相应的浮点向量合并成合并的向量,并且将合并的向量与初始向量串联。例如,对于有序列表{"Atlanta","Hotel"},混合嵌入函数可以输出并行嵌入函数和组合嵌入函数输出的向量串,即[0.1,0.2,0.3,0.4,0.5,0.6,0.5,0.7,0.9]。
根据实现方式,系统可以对于两种不同的特征类型利用两种不同类型的嵌入函数,并且两个嵌入函数可以共享参数或可以不共享参数。例如,系统可以对于第一特征类型利用组合嵌入函数以及对于第二特征类型利用混合嵌入函数。
如果资源的一个或多个特征不是离散的,则在使用嵌入函数处理特征之前,系统使用散列函数来散列每个非离散特征。然后,系统可以将每个散列的特征划分成预定的分区组中的一个,并且使用用于特征的嵌入函数处理与分区对应的值。此外,如果对于给定资源不能获得特定特征,则系统可以将该特征映射到预先确定的值。
在一些实现方式中,代替浮点值,给定的嵌入函数可以生成不同种类的数值。例如,嵌入函数可以生成量化的整数值,其编码表示浮点值。
系统使用一个或多个神经网络层处理浮点向量表示(步骤206)。一个或多个神经网络层包括非线性变换的一个或多个层,基于相应的参数组的值来定义每个变换。通常,一个或多个神经网络层基于输入的特征的浮点向量表示来生成输入的替选表示。可选地,系统然后可以使用稀疏二进制输出层,例如在每个位置上输出是0或1的向量的层,来处理替选表示。在RuslanSalakhutdinov和GeoffreyHinton,Semantichashing的InternationalJournalofApproximateReasoning50(2009)969-978中描述了使用神经网络层处理浮点表示的示例技术。然而,可以使用许多不同的用于使用神经网络层来处理表示的技术和机制。
系统使用分类器处理输入的替选表示(步骤208),以预测概念术语组中的每一个的输出。分类器基于参数组的值和替选表示来预测输出。给定概念术语的输出是对应于概念术语的变量的值的预测,即,表示通过术语描述的概念与资源的预测相关性的概念术语的分值。在一些实现方式中,系统可以使用排名函数代替分类器来处理输入的替选表示,以根据与概念的预测相关性来预测概念的排名。
一旦生成概念术语的分值,系统可以在数据存储中存储分值,或者使用分值用于另一个直接目的。在一些实现方式中,即,在在线广告的上下文中,系统可以选择指定数量的一个或多个最高评分的概念术语,或者具有满足阈值的分值的每个概念术语,作为在选择参与在线广告拍卖的候选广告中使用的广告关键字。在一些实现方式中,选择的关键字与使用其他技术生成的关键字组合使用来选择候选广告。
可选地,在利用选择的概念术语之前,系统可以过滤不满足一个或多个选择标准的任何概念术语。例如,系统可以过滤与资源的语言不匹配的语言的概念术语,例如,通过将识别资源的语言的数据与识别概念术语的语言的数据进行比较,并且当数据指示不匹配时过滤概念术语。作为另一示例,系统可以过滤具有超过阈值的词频逆文档频率(TF-IDF)分值的概念术语。也就是说,系统可以过滤具有因为它们是流行术语而不是因为它们与资源特征特别相关而被选择的高可能性的概念术语。
可以执行过程200以预测期望的分值是未知的输入的概念术语的分值。
也可以对一组训练数据(即,应该由系统预测的输出是已知的一组输入)中的输入执行过程200,以训练系统,即确定分类器和深度网络的参数的最佳值。例如,可以对从一组训练数据选择的输入重复执行过程200,作为确定每个参数的最佳值的反向传播训练技术的一部分。下面参照图3更加详细地描述训练概念术语评分系统
图3是用于训练概念术语评分系统的示例过程300的流程图。为了方便,过程300将被描述为通过位于一个或多个位置的一个或多个计算机的系统来执行。例如,适当编程的概念术语评分系统(例如图1的概念术语评分系统100)可以执行过程300。
系统获得识别训练资源的数据和用于每个训练资源的相关联的概念术语(步骤302)。例如,概念术语可以基于识别在浏览资源的预定时间窗口内接收用户选择的广告的数据与资源相关联。对于每个识别的广告,将广告放置到被呈现给用户的广告的拍卖所使用的广告关键字可以与资源相关联作为概念术语。
系统基于参数指定用于每个训练资源的预测输出的标准(步骤304)。也就是说,对于每个资源,系统基于参数指定用于系统生成的概念术语分值的标准。例如,对于任何训练资源,参数可以指定与资源相关联的概念术语的分值应该高于概念术语组中的任何其他概念术语或者概念术语组中的其他概念术语的随机选择样本的任何分值。可选地,参数可以要求与资源相关联的概念术语的分值超过其他分值达阈值。作为另一示例,对于任何训练资源,参数可以指定与资源相关联的概念术语的分值应该都高于指定的阈值。作为另一示例,参数可以指定与资源相关联的概念术语应该都处于指定数量的最高评分的概念术语中。用于生成标准的参数可以被提供给系统,例如由系统管理员,并且可以是静态的,即在训练开始是预定的,或者动态的,即在系统的整个训练中可以自动调整。例如,在训练期间可以放宽参数,直到系统的性能下降,然后使其更严格。
对于参数和训练数据组,系统使用指定的标准和训练资源的特征来执行训练过程以训练分类器(步骤306)。此外,训练过程使用反向传播的方法来调整深度网络(例如,图1的深度网络106)的所有组件的参数。
作为训练过程的一部分,如果分类器为特定训练资源预测的标签与该特定训练资源的已知期望标签不同,即,分类器生成的概念分值不满足用于训练资源的标准,则分类器将调整其参数,以使用常规基于梯度的方法对该特定输入减小预期误差。另外,作为反向传播方法的一部分,分类器向深度网络发送错误信号,其允许深度网络调整其内部组件的参数和反向传播的连续阶段的嵌入函数组的参数。
在一些情况下,例如,对于大训练数据组,可以以多种方式中的任何一种并行训练过程。例如,可以使用并行"LargeScaleDistributedDeepNetworks,"JeffreyDean,etal.,NeuralInformationProcessingSystemsConference.2012中描述的机器学习模型的训练的一种或多种技术来并行训练过程。
主题的实施例和本说明书中描述的功能操作可以被实现在数字电子电路中、有形实现的计算机软件或固件中、计算机硬件中,包括本说明书中公开的结构及其结构等同物,或者它们中的一个或多个的组合中。本说明书中描述的主题的实施例可以被实现为一个或多个计算机程序,即编码在有形的非临时性程序载体上的计算机程序指令的一个或多个模块,用于由数据处理装置执行,或者控制数据处理装置的操作。替选地或另外地,程序指令可以编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,其被生成以对用于传输到适当的接收器装置的信息进行编码,用于由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基片、随机或串行存取存储器设备、或它们中的一个或多个的组合。
术语“数据处理装置”涵盖用于处理数据的各种装置、设备和机器,例如包括可编程处理器、计算机、或多个处理器或计算机。该装置可以包括专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。除了硬件之外,该装置还可以包括用于创建讨论的计算机程序的执行环境的代码,例如构成处理器固件、协议栈、数据库管理系统、操作系统、或它们中的一个或多个的组合的代码。计算机程序(其也可以被称为或被描述为程序、软件、软件应用、模块、软件模块、脚本或代码)可以用任何形式的编程语言编写,包括编译或解释语言或者声明或过程语言,并且其可以以任何形式部署,包括作为独立程序或作为模块、组件、子程序或适于在计算环境中使用的其它单元。计算机程序可以但不必对应于文件系统中的文件。可以将程序存储在保持其它程序或数据的文件的一部分中,例如标记语言文档中存储的一个或多个脚本、专用于所讨论的程序的单个文件中、或存储在多个协同的文件中,例如存储一个或多个模块、子程序或代码的一部分的文件。计算机程序可以被部署为在一个计算机或在位于一个地点或分布在多个地点并通过通信网络互连的多个计算机上执行。
本说明书中描述的过程和逻辑流可以通过执行一个或多个计算机程序的一个或多个可编程计算机来执行,以通过对输入数据操作和生成输出来执行功能。还可以通过专用逻辑电路来执行过程和逻辑流,并且装置也可以实现为专用逻辑电路,所述专用逻辑电路例如FPGA(现场可编程门阵列)或ASIC(专用集成电路)。
适合于计算机程序的执行的计算机包括、例如可以基于通用或专用的微处理器或二者,或任何其他类型的中央处理单元。通常,中央处理单元从只读存储器或随机存取存储器或两者接收指令和数据。计算机的主要元件是用于执行或运行指令的中央处理单元和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括或者可操作地耦合以从用于存储数据的一个或多个大容量存储设备接收数据或向其传送数据或两者,所述一个或多个大容量存储设备例如磁光盘或光盘。然而,计算机不必具有这样的设备。此外,计算机可以被嵌入另一设备,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏控制台、全球定位系统(GPS)接收器或便携式存储设备,例如通用串行总线(USB)闪存驱动器,仅举几例。
适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,例如包括半导体存储设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内部硬盘或可移动盘;磁光盘;以及CDROM和DVD-ROM盘。处理器和存储器可以被补充或并入专用逻辑电路。
为了提供与用户的交互,本说明书中描述的主题的实施例可以实现在具有用于向用户显示信息的显示设备(例如,CRT(阴极射线管)或LCD(液晶显示器)监视器)以及键盘和指示设备(例如,鼠标或轨迹球)的计算机上,用户利用键盘和指示设备可以提供到计算机的输入。其他种类的设备也可以用于提供与用户的互动;例如,提供给用户的反馈可以是任何形式的感知反馈,例如视觉反馈、听觉反馈或触觉反馈;以及来自用户的输入可以以任何形式被接收,包括声音、语音或触觉输入。此外,计算机可以通过向用户使用的设备发送文档和从用户使用的设备接收文档与用户交互;例如,通过响应于从web浏览器接收的请求向用户的客户端设备上的web浏览器发送网页。
本说明书中描述的主题的实施例可以实现在计算系统中,该计算系统包括后端组件,例如作为数据服务器,或该计算系统包括中间件组件,例如应用服务器,或该计算系统包括前端组件,例如具有图形用户界面或Web浏览器的客户端计算机,通过图形用户界面或Web浏览器,用户可以与本说明书中描述的主题的实现方式交互,或该计算系统包括一个或多个这样的后端组件、中间件组件和前端组件的任意组合。系统的组件可以通过任何形式或介质的数字数据通信互连,例如通信网络。通信网络的示例包括局域网(“LAN”)和广域网(“WAN”),例如互联网。
计算系统可以包括客户端和服务器。客户端和服务器通常彼此远程,并且通常通过通信网络交互。客户端和服务器的关系依靠在相应计算机上运行并且彼此具有客户端-服务器关系的计算机程序产生。
虽然本说明书包含许多特定实现方式细节,但是这些不应被解释为限制可以主张的任何发明的范围,而是作为可以特定于特定发明的特定实施例的特征的描述。在本说明书中在分立实施例的上下文中描述的某些特征也可以组合在单个实施例中实现。相反地,在单个实施例的上下文中描述的各种特征也可以分立地在多个实施例或在任何合适的子组合中实现。此外,虽然特征在上面被描述为在特定组合中起作用,甚至最初主张如此,但是,来自所要求组合的一个或多个特征在某些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变体。
类似地,虽然在附图中以特定的顺序描述操作,但是这不应被理解为需要以所示的特定顺序或以连续顺序执行这样的操作,或者需要执行所有图示的操作才能达到期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品或封装到多个软件产品中。
已经描述本主题的具体实施例。其他实施例在所附权利要求的范围内。例如,权利要求中记载的动作可以以不同顺序来执行并且仍然获得期望的结果。作为一个示例,在附图中描绘的过程不要求所示的特定顺序或连续顺序才能达到期望的结果。在某些实现方式中,多任务和并行处理可能是有利的。
Claims (24)
1.一种系统,包括:
在定义非线性操作的多个层的一个或多个计算机中实现的深度网络,其中所述深度网络包括:
嵌入函数层,所述嵌入函数层被配置为:
接收包括资源的多个特征的输入,其中每个特征是所述资源的相应属性的值,以及
使用相应嵌入函数来处理每个特征,以生成一个或多个数值,以及
一个或多个神经网络层,所述一个或多个神经网络层被配置为:
接收所述数值,以及
处理所述数值,以生成所述资源的特征的替选表示,其中处理浮点值包括将一个或多个非线性变换应用到浮点值;以及
分类器,所述分类器被配置为:
处理所述输入的替选表示,以为预定概念术语组中的每个概念术语生成相应相关性分值,其中每个相应相关性分值测量对应的概念术语与所述资源的预测相关性。
2.如权利要求1所述的系统,其中,每个所述嵌入函数特定于相应特征类型的特征,其中,每个所述嵌入函数接收相应类型的特征,并且将根据嵌入函数参数组将特征映射到数值表示的变换应用到特征。
3.如权利要求1所述的系统,其中,所述系统进一步包括一个或多个计算机以及存储指令的一个或多个存储设备,所述指令在被所述一个或多个计算机执行时使所述一个或多个计算机执行包括以下的操作:
响应于接收将要进行在线广告拍卖以选择用于包括在所述资源的特定呈现中的一个或多个广告的指示,获得所述资源的所述多个特征。
4.如权利要求3所述的系统,所述操作进一步包括:
基于所述相关性分值选择所述概念术语中的一个或多个作为在选择参与所述在线广告拍卖的候选广告时使用的广告关键字。
5.如权利要求4所述的系统,所述操作进一步包括:
过滤与所述资源不是相同语言的概念术语。
6.如权利要4所述的系统,所述操作进一步包括:
过滤具有超过阈值的词频逆文档频率(TF-IDF)分值的概念术语。
7.如权利要求1所述的系统,其中,所述数值是浮点值。
8.如权利要求1所述的系统,其中,所述数值是量化的整数值,其中,所述量化的整数值的编码表示浮点值。
9.一种训练用于预测预定概念术语组中的每一个与资源的相关性的系统的方法,其中所述系统包括嵌入函数层、一个或多个神经网络层和分类器,其中所述方法包括:
获得识别训练资源的数据和用于每个所述训练资源的一个或多个相应关联的概念术语;
对于每个所述训练资源,指定用于由所述分类器生成的相应预测输出的输出标准;以及
基于每个所述训练资源的相应特征和所指定的输出标准,训练所述嵌入函数层、所述神经网络层和所述分类器,其中每个特征是所述资源的相应属性的值。
10.如权利要求9所述的方法,其中,指定所述输出标准包括:
对于每个训练资源,指定为与所述训练资源相关联的概念术语生成的相关性分值应该超过为所述多个概念术语中与所述训练资源不相关联的其他概念术语的随机样本生成的相关性分值。
11.如权利要求9所述的方法,进一步包括:
获得识别用户查看的训练资源的数据;
获得识别用户在查看所述训练资源的阈值时间窗口内选择的第一资源中的广告的数据;以及
将在所述第一资源中放置广告所使用的关键字与用户查看的训练资源相关联作为概念术语。
12.一种由一个或多个计算机执行的方法,所述方法包括:
接收包括资源的多个特征的输入,其中每个特征是所述资源的相应属性的值;
使用相应嵌入函数来处理每个特征,以生成一个或多个数值;
处理所述数值,以生成所述资源的特征的替选表示,其中处理所述数值包括将一个或多个非线性变换应用到所述数值;以及
处理所述输入的替选表示以生成预定概念术语组中的每个概念术语的相应相关性分值,其中每个所述相应相关性分值测量对应的概念术语与所述资源的预测相关性。
13.如权利要求12所述的方法,其中,每个所述嵌入函数特定于相应特征类型的特征,其中,每个所述嵌入函数接收相应类型的特征,并且将根据嵌入函数参数组将特征映射到数值表示的变换应用到特征。
14.如权利要求12所述的方法,进一步包括:响应于接收将要进行在线广告拍卖以选择用于包括在所述资源的特定呈现中的一个或多个广告的指示,获得所述资源的所述多个特征。
15.如权利要求14所述的方法,进一步包括:
基于相关性分值选择所述概念术语中的一个或多个作为在选择参与所述在线广告拍卖的候选广告时使用的广告关键字。
16.如权利要求15所述的方法,进一步包括:
过滤与所述资源不是相同语言的概念术语。
17.如权利要求15所述的方法,进一步包括:
过滤具有超过阈值的词频逆文档频率(TF-IDF)分值的概念术语。
18.如权利要求12所述的方法,其中,所述数值是浮点值。
19.如权利要求12所述的方法,其中,所述数值是量化的整数值,其中,所述量化的整数值的编码表示浮点值。
20.一种包括一个或多个计算机和存储指令的一个或多个存储设备的系统,其中所述方法包括:
获得识别训练资源的数据和用于每个所述训练资源的一个或多个相应关联的概念术语;
对于每个所述训练资源,指定用于由分类器生成的相应预测输出的输出标准;以及
训练概念术语评分系统以用于预测预定概念术语组中的每一个与资源的相关性,其中,所述概念术语评分系统包括嵌入函数层、一个或多个神经网络层和分类器,并且其中,训练所述概念术语评分系统包括基于每个所述训练资源的相应特征和所指定的输出标准来训练所述嵌入函数层、所述神经网络层和所述分类器,其中,每个特征是所述资源的相应属性的值。
21.如权利要求20所述的系统,其中,指定所述输出标准包括:
对于每个训练资源,指定为与所述训练资源相关联的概念术语生成的相关性分值应该超过为所述多个概念术语中与所述训练资源不相关联的其他概念术语的随机样本生成的相关性分值。
22.如权利要求20所述的系统,所述操作进一步包括:
获得识别用户查看的训练资源的数据;
获得识别用户在查看所述训练资源的阈值时间窗口内选择的第一资源中的广告的数据;以及
将在所述第一资源中放置广告所使用的关键字与用户查看的所述训练资源相关联作为概念术语。
23.一种编码有计算机程序的计算机存储介质,所述程序包括指令,所述指令在被一个或多个计算机执行时使所述一个或多个计算机执行包括以下的操作:
接收包括资源的多个特征的输入,其中每个特征是所述资源的相应属性的值;
使用相应嵌入函数来处理每个特征,以生成一个或多个数值;
处理所述数值,以生成所述资源的特征的替选表示,其中处理所述数值包括将一个或多个非线性变换应用到所述数值;以及
处理所述输入的替选表示以生成预定概念术语组中的每个概念术语的相应相关性分值,其中每个所述相应相关性分值测量对应的概念术语与所述资源的预测相关性。
24.一种编码有计算机程序的计算机存储介质,所述程序包括指令,所述指令在被一个或多个计算机执行时使所述一个或多个计算机执行包括以下的操作:
获得识别训练资源的数据和用于每个所述训练资源的一个或多个相应关联的概念术语;
对于每个所述训练资源,指定用于由分类器生成的相应预测输出的输出标准;以及
训练概念术语评分系统以用于预测预定概念术语组中的每一个与资源的相关性,其中,所述概念术语评分系统包括嵌入函数层、一个或多个神经网络层和分类器,并且其中,训练所述概念术语评分系统包括基于每个所述训练资源的相应特征和所指定的输出标准来训练所述嵌入函数层、所述神经网络层和所述分类器,其中,每个特征是所述资源的相应属性的值。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/802,184 | 2013-03-13 | ||
US13/802,184 US9141906B2 (en) | 2013-03-13 | 2013-03-13 | Scoring concept terms using a deep network |
PCT/US2014/026352 WO2014160344A1 (en) | 2013-03-13 | 2014-03-13 | Scoring concept terms using a deep network |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105144164A true CN105144164A (zh) | 2015-12-09 |
CN105144164B CN105144164B (zh) | 2020-10-27 |
Family
ID=50478596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480023391.7A Active CN105144164B (zh) | 2013-03-13 | 2014-03-13 | 使用深度网络对概念术语评分 |
Country Status (5)
Country | Link |
---|---|
US (2) | US9141906B2 (zh) |
EP (1) | EP2973023A1 (zh) |
CN (1) | CN105144164B (zh) |
AU (1) | AU2014201827B2 (zh) |
WO (1) | WO2014160344A1 (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106528647A (zh) * | 2016-10-15 | 2017-03-22 | 北京语联炉火信息技术有限公司 | 一种基于cedar双数组字典树算法进行术语匹配的方法 |
CN108431832A (zh) * | 2015-12-10 | 2018-08-21 | 渊慧科技有限公司 | 利用外部存储器扩增神经网络 |
CN109285263A (zh) * | 2018-10-17 | 2019-01-29 | 重庆扬升信息技术有限公司 | 一种基于大数据无纸化会议投票预测方法 |
CN109478222A (zh) * | 2016-07-20 | 2019-03-15 | 西门子保健有限责任公司 | 保护服务使用者和服务提供者之间交换的数据的方法 |
CN110175857A (zh) * | 2019-03-25 | 2019-08-27 | 阿里巴巴集团控股有限公司 | 优选业务确定方法及装置 |
CN112289342A (zh) * | 2016-09-06 | 2021-01-29 | 渊慧科技有限公司 | 使用神经网络生成音频 |
CN112446483A (zh) * | 2019-08-30 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 一种基于机器学习的计算方法和计算单元 |
US11948066B2 (en) | 2016-09-06 | 2024-04-02 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
Families Citing this family (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9150450B2 (en) | 2005-12-06 | 2015-10-06 | Corning Incorporated | System and method for frit sealing glass packages |
US11048765B1 (en) | 2008-06-25 | 2021-06-29 | Richard Paiz | Search engine optimizer |
US10936687B1 (en) | 2010-04-21 | 2021-03-02 | Richard Paiz | Codex search patterns virtual maestro |
US11423018B1 (en) | 2010-04-21 | 2022-08-23 | Richard Paiz | Multivariate analysis replica intelligent ambience evolving system |
US11379473B1 (en) | 2010-04-21 | 2022-07-05 | Richard Paiz | Site rank codex search patterns |
US9141916B1 (en) * | 2012-06-29 | 2015-09-22 | Google Inc. | Using embedding functions with a deep network |
US11741090B1 (en) | 2013-02-26 | 2023-08-29 | Richard Paiz | Site rank codex search patterns |
US11809506B1 (en) | 2013-02-26 | 2023-11-07 | Richard Paiz | Multivariant analyzing replicating intelligent ambience evolving system |
US9147154B2 (en) | 2013-03-13 | 2015-09-29 | Google Inc. | Classifying resources using a deep network |
US9141906B2 (en) | 2013-03-13 | 2015-09-22 | Google Inc. | Scoring concept terms using a deep network |
US9519859B2 (en) | 2013-09-06 | 2016-12-13 | Microsoft Technology Licensing, Llc | Deep structured semantic model produced using click-through data |
US9535960B2 (en) * | 2014-04-14 | 2017-01-03 | Microsoft Corporation | Context-sensitive search using a deep learning model |
US10089580B2 (en) | 2014-08-11 | 2018-10-02 | Microsoft Technology Licensing, Llc | Generating and using a knowledge-enhanced model |
US9563825B2 (en) * | 2014-11-20 | 2017-02-07 | Adobe Systems Incorporated | Convolutional neural network using a binarized convolution layer |
US9418319B2 (en) | 2014-11-21 | 2016-08-16 | Adobe Systems Incorporated | Object detection using cascaded convolutional neural networks |
US10339440B2 (en) * | 2015-02-19 | 2019-07-02 | Digital Reasoning Systems, Inc. | Systems and methods for neural language modeling |
US9632999B2 (en) | 2015-04-03 | 2017-04-25 | Klangoo, Sal. | Techniques for understanding the aboutness of text based on semantic analysis |
US11188844B2 (en) | 2015-09-10 | 2021-11-30 | International Business Machines Corporation | Game-based training for cognitive computing systems |
US10896377B2 (en) | 2015-09-10 | 2021-01-19 | International Business Machines Corporation | Categorizing concept terms for game-based training in cognitive computing systems |
US20170126484A1 (en) * | 2015-10-29 | 2017-05-04 | International Business Machines Corporation | Providing recommended resolutions for events |
EP3188086B1 (en) * | 2015-12-30 | 2020-02-19 | Facebook, Inc. | Identifying entities using a deep-learning model |
US10402750B2 (en) | 2015-12-30 | 2019-09-03 | Facebook, Inc. | Identifying entities using a deep-learning model |
US10685281B2 (en) | 2016-02-12 | 2020-06-16 | Microsoft Technology Licensing, Llc | Automated predictive modeling and framework |
US10909450B2 (en) | 2016-03-29 | 2021-02-02 | Microsoft Technology Licensing, Llc | Multiple-action computational model training and operation |
US11461919B2 (en) | 2016-04-21 | 2022-10-04 | Ramot At Tel Aviv University Ltd. | Cascaded neural network |
GB2549554A (en) * | 2016-04-21 | 2017-10-25 | Ramot At Tel-Aviv Univ Ltd | Method and system for detecting an object in an image |
KR102648770B1 (ko) * | 2016-07-14 | 2024-03-15 | 매직 립, 인코포레이티드 | 홍채 식별을 위한 딥 뉴럴 네트워크 |
EP3516566A1 (en) | 2016-09-22 | 2019-07-31 | nference, inc. | Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities |
WO2018064794A1 (en) * | 2016-10-05 | 2018-04-12 | Intel Corporation | General purpose input/output data capture and neural cache system for autonomous machines |
US10068557B1 (en) * | 2017-08-23 | 2018-09-04 | Google Llc | Generating music with deep neural networks |
CN108764339B (zh) * | 2018-05-29 | 2022-04-15 | 北京理工大学 | 一种基于知识库的产品概念可行性判定方法 |
US11593657B2 (en) * | 2018-06-05 | 2023-02-28 | Samsung Electronics Co., Ltd. | Machine learning device and machine learning method of machine learning device |
US11106859B1 (en) * | 2018-06-26 | 2021-08-31 | Facebook, Inc. | Systems and methods for page embedding generation |
US11514313B2 (en) * | 2018-09-27 | 2022-11-29 | Google Llc | Sampling from a generator neural network using a discriminator neural network |
US11074266B2 (en) | 2018-10-11 | 2021-07-27 | International Business Machines Corporation | Semantic concept discovery over event databases |
TWI706334B (zh) * | 2018-12-13 | 2020-10-01 | 鴻海精密工業股份有限公司 | 圖像分類方法、電子裝置和存儲介質 |
EP3987426A4 (en) | 2019-06-21 | 2023-07-26 | nference, inc. | SYSTEMS AND METHODS FOR COMPUTING WITH PRIVATE HEALTH CARE DATA |
US11487902B2 (en) | 2019-06-21 | 2022-11-01 | nference, inc. | Systems and methods for computing with private healthcare data |
US20210224610A1 (en) * | 2020-01-17 | 2021-07-22 | Insurance Services Office, Inc. | Systems and Methods for Disentangling Factors of Variation in Computer Vision Systems Using Cycle-Consistent Variational Auto-Encoders |
US11748776B2 (en) * | 2020-02-19 | 2023-09-05 | Stackadapt Inc. | Systems and methods of generating context specification for contextualized searches and content delivery |
US11663273B2 (en) | 2020-06-30 | 2023-05-30 | International Business Machines Corporation | Cognitive horizon surveillance |
DE102021101356A1 (de) | 2021-01-22 | 2022-07-28 | Amazonen-Werke H. Dreyer SE & Co. KG | Verfahren zum Auswerten eines auf einer landwirtschaftlichen Nutzfläche ausgeführten Bearbeitungsvorgangs |
US11694018B2 (en) * | 2021-01-29 | 2023-07-04 | Salesforce, Inc. | Machine-learning based generation of text style variations for digital content items |
EP4079384A1 (en) | 2021-04-22 | 2022-10-26 | Morai Sp. z o.o. | A method of creating ranking, a system for creating ranking and a ranking |
US11409800B1 (en) | 2021-07-23 | 2022-08-09 | Bank Of America Corporation | Generating search queries for database searching |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1637744A (zh) * | 2004-01-09 | 2005-07-13 | 微软公司 | 为在大量电子文档中搜索而确定文档相关性的机器学习方法 |
US20100121706A1 (en) * | 2008-11-12 | 2010-05-13 | Yahoo! Inc. | Method and system for selecting advertisements |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6044375A (en) | 1998-04-30 | 2000-03-28 | Hewlett-Packard Company | Automatic extraction of metadata using a neural network |
US20030225763A1 (en) | 2002-04-15 | 2003-12-04 | Microsoft Corporation | Self-improving system and method for classifying pages on the world wide web |
AU2003263736A1 (en) * | 2002-05-10 | 2003-11-11 | Pharmacia Corp | Peptide compounds and their use as protease substrates |
US7716225B1 (en) * | 2004-06-17 | 2010-05-11 | Google Inc. | Ranking documents based on user behavior and/or feature data |
US7694188B2 (en) * | 2007-02-05 | 2010-04-06 | Microsoft Corporation | Disk failure prevention and error correction |
US7895148B2 (en) | 2007-04-30 | 2011-02-22 | Microsoft Corporation | Classifying functions of web blocks based on linguistic features |
US8180754B1 (en) | 2008-04-01 | 2012-05-15 | Dranias Development Llc | Semantic neural network for aggregating query searches |
US20100057717A1 (en) | 2008-09-02 | 2010-03-04 | Parashuram Kulkami | System And Method For Generating A Search Ranking Score For A Web Page |
US8725660B2 (en) | 2009-07-30 | 2014-05-13 | Hewlett-Packard Development Company, L.P. | Applying non-linear transformation of feature values for training a classifier |
US8473439B2 (en) * | 2010-12-08 | 2013-06-25 | International Business Machines Corporation | Integrate and fire electronic neurons |
US20130066814A1 (en) | 2011-09-12 | 2013-03-14 | Volker Bosch | System and Method for Automated Classification of Web pages and Domains |
US8873813B2 (en) * | 2012-09-17 | 2014-10-28 | Z Advanced Computing, Inc. | Application of Z-webs and Z-factors to analytics, search engine, learning, recognition, natural language, and other utilities |
US9218573B1 (en) * | 2012-05-22 | 2015-12-22 | Google Inc. | Training a model using parameter server shards |
US9141916B1 (en) * | 2012-06-29 | 2015-09-22 | Google Inc. | Using embedding functions with a deep network |
US9037464B1 (en) * | 2013-01-15 | 2015-05-19 | Google Inc. | Computing numeric representations of words in a high-dimensional space |
US9141906B2 (en) * | 2013-03-13 | 2015-09-22 | Google Inc. | Scoring concept terms using a deep network |
US9147154B2 (en) * | 2013-03-13 | 2015-09-29 | Google Inc. | Classifying resources using a deep network |
US9372914B1 (en) * | 2014-01-14 | 2016-06-21 | Google Inc. | Determining computing device characteristics from computer network activity |
-
2013
- 2013-03-13 US US13/802,184 patent/US9141906B2/en active Active
-
2014
- 2014-03-13 CN CN201480023391.7A patent/CN105144164B/zh active Active
- 2014-03-13 WO PCT/US2014/026352 patent/WO2014160344A1/en active Application Filing
- 2014-03-13 EP EP14716710.0A patent/EP2973023A1/en not_active Ceased
- 2014-03-13 AU AU2014201827A patent/AU2014201827B2/en active Active
-
2015
- 2015-09-21 US US14/860,462 patent/US9514405B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1637744A (zh) * | 2004-01-09 | 2005-07-13 | 微软公司 | 为在大量电子文档中搜索而确定文档相关性的机器学习方法 |
US20100121706A1 (en) * | 2008-11-12 | 2010-05-13 | Yahoo! Inc. | Method and system for selecting advertisements |
Non-Patent Citations (2)
Title |
---|
RENQIANG MIN 等: "A Deep Non-Linear Feature Mapping for Large-Margin kNN Classification", 《2009 IEEE INTERNATIONAL CONFERENCE ON DATA MINING》 * |
涂新辉、何婷婷、李芳、王建文: "《基于排序学习的文本概念标注方法研究》", 《北京大学学报(自然科学版)》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108431832A (zh) * | 2015-12-10 | 2018-08-21 | 渊慧科技有限公司 | 利用外部存储器扩增神经网络 |
US10528763B2 (en) | 2016-07-20 | 2020-01-07 | Siemens Healthcare Gmbh | Method of protecting data exchanged between a service user and a service provider |
CN109478222A (zh) * | 2016-07-20 | 2019-03-15 | 西门子保健有限责任公司 | 保护服务使用者和服务提供者之间交换的数据的方法 |
CN112289342A (zh) * | 2016-09-06 | 2021-01-29 | 渊慧科技有限公司 | 使用神经网络生成音频 |
CN112289342B (zh) * | 2016-09-06 | 2024-03-19 | 渊慧科技有限公司 | 使用神经网络生成音频 |
US11948066B2 (en) | 2016-09-06 | 2024-04-02 | Deepmind Technologies Limited | Processing sequences using convolutional neural networks |
CN106528647B (zh) * | 2016-10-15 | 2019-07-23 | 传神语联网网络科技股份有限公司 | 一种基于cedar双数组字典树算法进行术语匹配的方法 |
CN106528647A (zh) * | 2016-10-15 | 2017-03-22 | 北京语联炉火信息技术有限公司 | 一种基于cedar双数组字典树算法进行术语匹配的方法 |
CN109285263A (zh) * | 2018-10-17 | 2019-01-29 | 重庆扬升信息技术有限公司 | 一种基于大数据无纸化会议投票预测方法 |
CN110175857A (zh) * | 2019-03-25 | 2019-08-27 | 阿里巴巴集团控股有限公司 | 优选业务确定方法及装置 |
CN110175857B (zh) * | 2019-03-25 | 2023-06-02 | 创新先进技术有限公司 | 优选业务确定方法及装置 |
CN112446483A (zh) * | 2019-08-30 | 2021-03-05 | 阿里巴巴集团控股有限公司 | 一种基于机器学习的计算方法和计算单元 |
CN112446483B (zh) * | 2019-08-30 | 2024-04-23 | 阿里巴巴集团控股有限公司 | 一种基于机器学习的计算方法和计算单元 |
Also Published As
Publication number | Publication date |
---|---|
US20140279773A1 (en) | 2014-09-18 |
CN105144164B (zh) | 2020-10-27 |
AU2014201827B2 (en) | 2015-03-26 |
US9514405B2 (en) | 2016-12-06 |
US20160012331A1 (en) | 2016-01-14 |
WO2014160344A1 (en) | 2014-10-02 |
US9141906B2 (en) | 2015-09-22 |
AU2014201827A1 (en) | 2014-10-02 |
EP2973023A1 (en) | 2016-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105144164A (zh) | 使用深度网络对概念术语评分 | |
US11954597B2 (en) | Using embedding functions with a deep network | |
US11868724B2 (en) | Generating author vectors | |
US9449271B2 (en) | Classifying resources using a deep network | |
US10762422B2 (en) | Wide and deep machine learning models | |
CN110168575B (zh) | 用于信息检索评分的动态张量注意力 | |
US10387531B1 (en) | Processing structured documents using convolutional neural networks | |
US11475227B2 (en) | Intelligent routing services and systems | |
KR20160117516A (ko) | 문서들의 벡터 표현들 생성하기 | |
US20220083742A1 (en) | Man-machine dialogue method and system, computer device and medium | |
US11665121B2 (en) | Determining topic cohesion between posted and linked content | |
CN107408125A (zh) | 用于查询答案的图像 | |
CN113590948A (zh) | 信息推荐方法、装置、设备以及计算机存储介质 | |
US10755171B1 (en) | Hiding and detecting information using neural networks | |
CN113704620A (zh) | 基于人工智能的用户标签更新方法、装置、设备及介质 | |
CN117312518A (zh) | 一种智能问答方法、装置、计算机设备及存储介质 | |
CN114595377A (zh) | 词汇推荐方法、装置、终端及可读存储介质 | |
KR102574784B1 (ko) | Esg 문서를 자동 완성하는데 적합한 텍스트를 추천하는 방법 및 이를 수행하는 esg 서비스 제공 시스템 | |
CN113837216B (zh) | 数据分类方法、训练方法、装置、介质及电子设备 | |
KR20230072600A (ko) | 인공지능 기반 기업 고객 대상 자동 정보 알람 방법, 장치 및 시스템 | |
JP2023164347A (ja) | 関連商品を推薦するための方法、コンピュータ装置、およびコンピュータプログラム | |
CN115795158A (zh) | 物料排序和神经网络训练方法、装置、设备及存储介质 | |
US9589228B1 (en) | Automated content generation | |
CN116306624A (zh) | 客诉文本分类方法、装置、计算机设备和存储介质 | |
CN116955756A (zh) | 检索项的生成方法和装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |