CN106055549B - 利用加速器的概念分析操作的方法和系统 - Google Patents
利用加速器的概念分析操作的方法和系统 Download PDFInfo
- Publication number
- CN106055549B CN106055549B CN201610220609.9A CN201610220609A CN106055549B CN 106055549 B CN106055549 B CN 106055549B CN 201610220609 A CN201610220609 A CN 201610220609A CN 106055549 B CN106055549 B CN 106055549B
- Authority
- CN
- China
- Prior art keywords
- matrix
- vector
- host system
- concept
- corpus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 132
- 238000000034 method Methods 0.000 title claims description 94
- 239000011159 matrix material Substances 0.000 claims abstract description 370
- 239000013598 vector Substances 0.000 claims abstract description 344
- 230000004044 response Effects 0.000 claims abstract description 16
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000015654 memory Effects 0.000 claims description 67
- 238000012545 processing Methods 0.000 claims description 64
- 238000003860 storage Methods 0.000 claims description 44
- 238000000605 extraction Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 9
- 230000000750 progressive effect Effects 0.000 claims description 8
- 238000012805 post-processing Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 claims description 4
- 238000002620 method output Methods 0.000 claims 1
- 230000007246 mechanism Effects 0.000 abstract description 80
- 230000008569 process Effects 0.000 description 56
- 230000014509 gene expression Effects 0.000 description 44
- 238000004422 calculation algorithm Methods 0.000 description 41
- 230000008707 rearrangement Effects 0.000 description 33
- 230000006870 function Effects 0.000 description 24
- 238000009833 condensation Methods 0.000 description 18
- 230000005494 condensation Effects 0.000 description 18
- 230000006835 compression Effects 0.000 description 13
- 238000007906 compression Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 238000003058 natural language processing Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 230000008521 reorganization Effects 0.000 description 9
- 238000013480 data collection Methods 0.000 description 8
- 206010028980 Neoplasm Diseases 0.000 description 7
- 230000008901 benefit Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000006855 networking Effects 0.000 description 7
- 230000036961 partial effect Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 6
- 229940079593 drug Drugs 0.000 description 6
- 239000003814 drug Substances 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000013179 statistical model Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 208000036864 Attention deficit/hyperactivity disease Diseases 0.000 description 4
- 241001269238 Data Species 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 208000035231 inattentive type attention deficit hyperactivity disease Diseases 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- 238000000638 solvent extraction Methods 0.000 description 4
- 208000024891 symptom Diseases 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 238000004870 electrical engineering Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- KWTSXDURSIMDCE-QMMMGPOBSA-N (S)-amphetamine Chemical compound C[C@H](N)CC1=CC=CC=C1 KWTSXDURSIMDCE-QMMMGPOBSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 229940047812 adderall Drugs 0.000 description 2
- 229940025084 amphetamine Drugs 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 235000013399 edible fruits Nutrition 0.000 description 2
- 244000144992 flock Species 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000001737 promoting effect Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 201000005505 Measles Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000005056 compaction Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010921 in-depth analysis Methods 0.000 description 1
- 238000011221 initial treatment Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- QWXYZCJEXYQNEI-OSZHWHEXSA-N intermediate I Chemical compound COC(=O)[C@@]1(C=O)[C@H]2CC=[N+](C\C2=C\C)CCc2c1[nH]c1ccccc21 QWXYZCJEXYQNEI-OSZHWHEXSA-N 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000003739 neck Anatomy 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 230000010181 polygamy Effects 0.000 description 1
- 238000006116 polymerization reaction Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000452 restraining effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/24569—Query processing with adaptation to specific hardware, e.g. adapted for using GPUs or SSDs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及利用加速器的概念分析操作。提供了在包括主机系统和至少一个加速器设备的系统中用于执行概念分析操作的机制。主机系统从信息源提取具有一个或多个概念的集合,并将具有一个或多个概念的集合提供给加速器设备。主机系统还提供至少一个矩阵表示数据结构,其代表语料库中的概念和概念之间关系的图。加速器设备在加速器设备内部执行所述概念分析操作,以生成标识所述语料库中的概念的输出向量,所述输出向量在所述至少一个矩阵表示数据结构中被标识并与从所述信息源提取的具有一个或多个概念的集合相关。加速器设备将所述输出向量输出到主机系统,主机系统利用所述输出向量响应提交给所述主机系统并与所述信息源关联的请求。
Description
技术领域
本申请一般地涉及改进的数据处理装置和方法,更具体地说,涉及用于利用加速器执行概念分析操作的机制。
背景技术
用于从数据集合获得信息和知识的信息技术和系统在日常生活中占据主导地位。例如,搜索引擎针对大数据集合运行以便获得与搜索查询相关的信息。问答(QA)系统(例如可从位于纽约阿蒙克的国际商业机器(IBM)公司获得的IBM WatsonTM QA系统)针对文档语料库或其它信息部分运行以便回答自然语言问题。此外,许多社交网络服务将其用户、通信等表示为大数据集。通常,重要的是针对这些大型数据集执行知识提取、推理和各种其它分析以便促进系统的操作,例如在社交网络服务中回答问题、返回搜索结果或提供功能。例如,许多社交网络服务帮助个人标识他们可能知道或具有联系的其它注册用户。此类功能需要分析表示社交网络服务用户的大数据集。
当促进在大文档集中搜索信息(例如在因特网(或“Web”)上搜索网页)时,采用搜索引擎,这些搜索引擎基于各种因素对结果进行分级。一个此类搜索引擎是GoogleTM搜索引擎,其使用称为“PageRank(页面分级)”的分级算法。PageRank利用Web的链接结构计算全局“重要性”得分,这些得分可以用于影响搜索结果的分级。
最近,斯坦福大学作为其斯坦福全球信息库项目的一项工作已开发一种算法,该算法用于允许用户针对每个个体查询定义他们自己的重要性概念。该算法(称为个性化PageRank)使用基于私有个性化简档的个性化PageRank变型,提供在线个性化Web搜索。
发明内容
在一个示例性实施例中,提供一种在包括具有处理器和存储器的主机系统以及至少一个加速器设备的系统中用于执行概念分析操作的方法。所述方法包括由所述主机系统从信息源提取具有一个或多个概念的集合,并且由所述主机系统将所述具有一个或多个概念的集合提供给所述加速器设备。此外,所述方法包括由所述主机系统提供至少一个矩阵表示数据结构,所述矩阵表示数据结构代表语料库中的概念和概念之间关系的图。此外,所述方法包括由所述加速器设备在所述加速器设备内部执行所述概念分析操作,以便生成标识所述语料库中的概念的输出向量,所述输出向量在所述至少一个矩阵表示数据结构中被标识并且与从所述信息源提取的所述具有一个或多个概念的集合相关。所述方法还包括由所述加速器设备将所述输出向量输出到所述主机系统,其中所述主机系统利用所述输出向量来响应提交给所述主机系统并与所述信息源关联的请求。
在其它示例性实施例中,提供一种计算机程序产品,其包括具有计算机可读程序的计算机可用或可读介质。当在计算设备上执行时,所述计算机可读程序使得所述计算设备执行上面针对方法示例性实施例描述的各种操作和操作组合。
在另一个示例性实施例中,提供一种系统/装置。所述系统/装置可以包括具有一个或多个处理器和存储器的主机系统以及加速器设备,所述存储器耦合到所述一个或多个处理器。所述存储器可以包括指令,当由所述一个或多个处理器执行时,所述指令使得所述一个或多个处理器执行上面针对方法示例性实施例描述并且由所述主机系统产生的各种操作和操作组合。在所述加速器设备内部执行由所述加速器设备产生的其它操作,并且所述加速器设备将输出向量输出到所述主机系统。
将在以下对本发明的实例实施例的详细说明中描述本发明的这些和其它特性和优点,并且鉴于以下详细说明,这些和其它特性和优点对于所属技术领域的普通技术人员来说将变得显而易见。
附图说明
当结合附图阅读时,通过参考以下对示例性实施例的详细说明,将最佳地理解本发明及其优选使用方式、进一步的目的和优点,这些附图是:
图1示出计算机网络中的问/答创建(QA)系统的一个示例性实施例的示意图;
图2是其中实现示例性实施例的各个方面的实例数据处理系统的框图;
图3示出根据一个示例性实施例的用于处理输入问题的QA系统流水线;
图4是示出用于使用主机系统和主机系统存储装置执行概念分析操作的一种方法的实例图;
图5是示出根据一个示例性实施例的使用一个或多个加速器设备执行的概念分析操作的实例图;
图6是示出根据一个示例性实施例的通过使用基于集群的矩阵重新排序操作获得的矩阵条目排序的实例图;
图7是示出根据一个示例性实施例的基于集群的实例矩阵重新排序操作的流程图;
图8A示出使用矩阵的紧凑稀疏行(CSR)格式化数据结构执行的矩阵向量乘法运算以及用于执行部分矩阵向量乘法运算的示例伪代码;
图8B示出使用矩阵的紧凑稀疏列(CSC)格式化数据结构执行的矩阵向量乘法运算以及用于执行部分矩阵向量乘法运算的示例伪代码;
图9是示出根据一个示例性实施例的实例混合表示矩阵向量乘法运算的流程图;
图10是示出根据一个示例性实施例的用于基于使用混合矩阵表示机制确定输入向量的稀疏度/密度,动态修改用于矩阵运算迭代的压缩矩阵表示的实例操作的流程图;以及
图11是示出根据一个示例性实施例的用于使用一个或多个加速器设备执行概念分析操作的实例操作的流程图。
具体实施方式
如上面讨论的,现代计算系统通常参与针对大型数据集执行知识提取、推理和各种其它分析操作。搜索引擎、问答系统、自然语言处理(NLP)系统、关系分析引擎等只是这些类型的现代计算系统的一些实例,它们针对大型数据集运行以便促进其操作。通常这些系统针对信息部分中的已标识概念运行,这些信息部分例如包括电子文档、网页、数据文件等,统称为信息语料库。
这些概念可以被表示为包括节点和边的网络或图,其中节点表示概念本身,并且边表示在语料库中标识的概念之间的关系。边可以是单向或双向的,并且可以具有关联的权重或强度,它们表示与边关联的一个概念(节点)被确定为如何强烈地与边所关联的另一个概念(节点)相关。在一个示例性实施例中,源于节点的每个外出边的所有权重的总和是1。还应该注意,对于此类图,可以具有“自边”或“自链接”,它们是指回到其所源自的节点的边。可以认识到,如果例如具有大信息语料库(例如WikipediaTM网站),则此类网络/图的复杂性和大小也变得非常大。
为了针对此类大型数据集(即,网络/图)执行知识提取、推理和其它分析操作,这些网络/图通常被表示为矩阵,其中矩阵的索引表示网络/图的节点,并且矩阵的行/列处的条目表示节点是否具有将它们彼此连接的边,即,节点彼此是否具有关系。行/列的交叉点处的条目中的非0值指示对应于索引的概念之间存在关系,而0值指示概念之间没有关系。概念之间关系的强度通过条目的值来衡量,例如,较高值指示由交叉行/列索引表示的概念之间的较强关系。边的权重或强度可以在针对矩阵执行的矩阵运算期间恒定,但可以由于在矩阵运算之间实时发生的动态事件或更新而变化。
如可以认识到的,对于大型数据集和对应大型网络/图,表示这些网络/图的矩阵是大稀疏矩阵,它们可以具有数百万或者甚至数十亿个节点和对应边。这些矩阵是稀疏的,因为矩阵中的大多数条目具有0值(稠密矩阵的大多数值为非0)。在一个示例性实施例中,此类矩阵的属性如下:
-节点对应于感兴趣的概念、实体、信息、搜索术语等。
-图中的边是单向的,并且列j、行i中的条目对应于从节点j到节点i的边的权重(或强度)。
-所有外出边(包括自边)的总和是1.0,并且因此,对应矩阵中的每个列的总和是1.0。
-矩阵是正方形的和稀疏的。
应认识到,这些仅是可以针对其运行示例性实施例的机制的一个实例大稀疏矩阵的属性,而并非旨在限制可以针对其运行示例性实施例的矩阵的类型。相反,如所属技术领域的普通技术人员鉴于本说明将显而易见的是,示例性实施例的机制可以使用其它类型的矩阵实现并且可以针对这些矩阵运行,这些矩阵具有不同于在上面的实例属性集中提及的属性。
针对这些大型矩阵执行矩阵运算以提取矩阵中的条目之间的关系,以便收集知识,执行推理操作等。例如,如果过程想要知道什么概念与概念A(例如,搜索术语概念或信息源中的概念,例如在线百科全书等)相关,则概念A可以被表示为矩阵中的索引(列和/或行)(并且例如可以通过输入向量指定),并且其它概念可以被表示为矩阵中组织成行和列的其它索引。矩阵中的行和列的交叉点具有值,如果概念A与另一个概念相关,则将这些值设置为非0值,例如,如果概念A被表示为行中的索引,则沿着列的索引可以表示其它概念,并且每个列与概念A的交叉点表示概念A是否与另一个概念相关(如果概念A与另一个概念相关,则为非0,并且如果概念A与另一个概念不相关,则为0)。此外,概念之间的“关系”在图中通过边和边的关联权重/强度来表示,以使得矩阵中的0或非0值是概念A与另一个概念之间的边的权重/强度。
用于知识提取、信息提取、概念分析或其它分析操作(旨在使用矩阵表示标识图的节点之间的关系)的大多数矩阵运算涉及矩阵向量乘法运算,其中矩阵乘以向量,这导致指示向量与矩阵的交叉点的输出,例如,向量中的非0值与矩阵中的非0值相乘导致输出中的非0值,这些非0值指示对应向量元素与矩阵索引之间的关系。由于高速缓冲存储器的有限大小,矩阵的稀疏度和向量的稀疏度都影响完成该矩阵向量乘法运算的效率。
因为这些大型矩阵往往非常稀疏,所以针对这些稀疏矩阵执行的过程通常涉及许多运行时资源密集型大稀疏矩阵运算,每个运算包括矩阵向量乘法运算。当执行矩阵向量乘法运算时,以推测方式加载矩阵的各个部分以便执行矩阵向量乘法。矩阵/向量的一部分被加载到高速缓冲存储器中,并且用于执行矩阵/向量的部分乘积乘法。当矩阵中的特定条目或单元被加载到高速缓存中时,与选定条目/单元极为靠近的其它条目或单元也被加载,以便推测下一个矩阵向量乘法将针对与选定条目/单元极为靠近的条目或单元。但是,在稀疏矩阵中,高速缓冲存储器的这种推测性加载通常导致高速缓存未命中,即,感兴趣的非0条目或单元未存在于高速缓冲存储器中并且必须从主存储器或存储装置加载。因此,稀疏矩阵/向量连同有限大小的高速缓冲存储器导致影响性能的高速缓存未命中。
因此,可以认识到,用于标识相关概念或者针对大型数据集执行其它知识或信息提取的过程可以是资源非常密集的过程,随着矩阵的大小和矩阵的稀疏度增加,该过程涉及大量高速缓存未命中,并且因此从主存储器或存储装置加载。当向量稀疏时也是这种情况,因为矩阵向量乘法运算基本上是在矩阵中查找与向量的非0元素相乘的非0条目,并且如果向量和矩阵是稀疏的,则当加载到高速缓冲存储器中时,大多数条目/元素将是0。因此,提供系统功能的效率可以受限于针对这些大型数据集执行矩阵运算的效率和速度。
此外,因为矩阵大小较大,所以变得难以在存储器中维护整个矩阵以便用于矩阵运算。因此,已设计各种机制以便以压缩格式表示矩阵。例如,已设计用于基于矩阵中的非0值表示矩阵的格式,这显著减少维护有关矩阵的信息需要的存储器大小。例如,紧凑稀疏行(CSR)和紧凑稀疏列(CSC)存储格式提供此类实例。但是,这些格式的每一种对于不同类型的输入向量稀疏度(或密度)都具有更高或更低的效率。
位于纽约阿蒙克的国际商业机器(IBM)公司已开发用于解决以下问题的机制:这些问题有关大稀疏矩阵运算期间的高速缓存效率和大型矩阵对不同存储格式的利用。
这些机制旨在通过修改在矩阵运算中表示或使用矩阵的方式,改进执行矩阵运算本身的方式。这些机制可以与在此给出的示例性实施例提供的其它机制结合使用,以便提供更有效的概念分析机制以分析在大型稀疏矩阵中表示的概念之间的关系,从而实现执行知识提取、推理操作、概念分析操作或其它分析操作的目的。即,尽管上述机制通过重新组织矩阵的非0值以便减少高速缓存未命中并且针对矩阵运算的不同迭代使用不同压缩格式表示矩阵,专注于表示矩阵的方式以便在处理矩阵运算中实现更高效率,但以下给出的示例性实施例通过使用一个或多个加速器设备提供用于促进端到端概念分析过程的加速的机制,进一步改进矩阵运算的整体性能。机制用于使用海量数据并行性并且执行大量并行线程,加速矩阵运算的核心计算,每个线程针对大稀疏矩阵的一部分执行运算。由于加速器设备的存储器限制,利用批量执行,该执行使能针对对应于加速器设备的固定存储器限制的多批数据(例如,输入向量)执行运算。在加速器设备的存储器中(而不是在主机系统处)初始化向量数据结构,以便减少所需的数据传输量。使用单个功能合并加速器设备中的运算结果,从而不需要将结果存储到主机系统的主存储器。因此,可以在加速器设备中完全执行矩阵运算而不必访问主机系统资源。
在操作中,主机系统为加速器设备提供从信息源(例如,文档、输入自然语言问题,或者任何其它概念源)提取的一组概念。在一个示例性实施例中,信息源是具有一个或多个嵌入式概念的输入文档,并且概念分析操作设法标识与嵌入在输入文档中的那些概念相关的概念,从而将相关概念的向量与输入文档相关联。该结果向量可以用于标识具有相关概念的其它文档,以便提供一个文档相对于另一个文档的分级。在某些示例性实施例中,信息源可以包括用户简档(单独或与文档、搜索查询、自然语言问题或用户对内容的其它请求组合),然后用户简档用于提供针对其执行概念分析操作的一组输入概念。例如,这可以用于执行个性化PageRank操作,其中对内容的请求指定用户希望访问的内容,并且用户简档指定用户的个人偏好,这些偏好可以用于修改返回到用户的结果内容的分级。在某些示例性实施例中,用户简档可以用作在问答系统中修改用于提供自然语言问题答案的文档的分级的方式。简言之,涉及基于指定相关概念的信息语料库的网络/图来标识相关概念的任何概念分析操作都可以利用示例性实施例的机制。
使用示例性实施例的机制,主机系统对信息源执行某种初始处理以便标识这些概念,其中此类处理通常在所属技术领域中已知,并且因此在此不提供更详细的说明。例如,在自然语言处理系统、搜索引擎或问答(QA)系统上下文中,可以使用自然语言处理、搜索引擎解析或其它文本分析技术,从输入到QA系统的自然语言问题或者从电子文档或搜索引擎提取概念。将得到的一组概念输入可以作为专用处理器、服务处理器等提供的加速器设备(以下简称为“加速器”)。在一个示例性实施例中,加速器是图形处理单元(GPU),其被集成在主机系统中或耦合到主机系统,并且其主要功能是处理以便呈现图形,但其被动态重用以便执行示例性实施例的概念分析操作。除了标准GPU内核之外,GPU可以具备不同GPU内核以用于图形呈现、执行根据示例性实施例的概念分析操作,并且当需要并通过以下方式被指示时可以动态切换GPU内核:将作业从主机系统提交给GPU、将指令从主机系统发送到GPU、在从主机系统到GPU的通信中设置预定义位、或者可针对切换GPU操作模式实现的任何其它机制。
除了从信息源提取的概念之外,主机系统为加速器提供大稀疏矩阵的表示以便用于执行概念分析操作。大稀疏矩阵本身表示已经通过信息语料库的处理被标识的概念及其关系的网络/图。例如,在QA系统环境(例如可以由IBM WatsonTM QA系统提供)中,例如可以将文档语料库(例如标识各种概念并且在可标识的概念之间具有链接的WikipediaTM网页)提供给QA系统,以便用于回答提交给QA系统的问题。在医疗保健应用中,此类QA系统可以获取包括以下各项的文档语料库:医学期刊、医学试验文档、包括旨在描述药物和疗程的文本的医学资源、医学字典、患者记录,或者被认为与医学领域相关的任何其它文档。在其它领域中,可以提供类似的电子文档集合作为语料库以便由QA系统获取。可以使用已知或以后开发的获取过程(这可以包括自然语言处理、特性提取等)处理语料库,以便标识在语料库中指定的概念和概念之间的关系,以及在语料库中指定的这些关系的强度。结果是概念的网络或图,其中节点表示概念并且边表示概念之间的关系,并且边具有表示所连接的概念之间的关系强度的权重。
在搜索引擎上下文中,信息语料库可以是各种领域的大网页集,例如因特网。因此,网络/图可以包括数千个表示概念的节点和节点之间的边、其关系以及这些关系的强度,如上面讨论的那样。
网络/图可以被表示为大稀疏矩阵,如上面讨论的那样。可以使用集群重新组织大稀疏矩阵,并且可以使用多个压缩表示来表示产生的重新组织后的矩阵,这些压缩表示可以用于混合方法中以便在加速器中执行矩阵运算。在一个示例性实施例中,主机系统可以执行矩阵的重新组织,连同重新组织后的矩阵的多个压缩格式表示的生成。然后可以将产生的重新组织后的矩阵的压缩格式表示提供给加速器以便与其内部概念分析操作一起使用,这涉及使用矩阵运算,例如矩阵向量乘法运算。加速器可以包括内部逻辑,当执行概念分析操作的迭代时,该逻辑实施混合方法以便执行矩阵运算。
应认识到,处理大稀疏矩阵以生成重新组织后的矩阵和重新组织后的矩阵的压缩格式表示可能极少被执行。即,只要大稀疏矩阵没有显著变化,就不需要重新计算重新组织后的矩阵和压缩格式表示。但是,当矩阵显著变化(例如由于语料库的更新)时,可以启动矩阵的重新计算,并且可以生成已更新的重新组织后的矩阵和压缩格式表示。这可以响应于系统管理员或其它授权用户请求,或者响应于发生定义的事件(例如语料库的更新)而定期进行。因此,尽管主机系统的计算资源可能偶尔参与生成重新组织矩阵和对应压缩格式表示,但对于对加速器的大多数操作,除了从信息源提取概念并将它们作为输入提供给加速器之外,不使用系统资源。
在接收从信息源提取的概念(由主机系统提供)时,加速器针对提取的概念运行以生成一个或多个向量以便与概念分析操作一起使用。将一个或多个向量提供给概念分析操作逻辑,该逻辑使用由加速器生成的向量(多个)和由主机系统作为输入提供给加速器的压缩格式矩阵表示,执行概念分析操作。然后概念分析操作的结果被规范化为正态分布并被提供给加速器的后处理逻辑,该逻辑借助在向量(多个)中指定的概念来计算矩阵中的概念关系的分级,即关系强度。结果是包括非0向量元素的输出向量,其中向量(多个)的概念与矩阵中的非0条目交叉。输出向量元素的值指示向量(多个)中的概念与矩阵中的概念之间的关系强度。
因此,示例性实施例的机制使加速器基于提取的概念和由主机系统提供的矩阵表示,在主机系统外部执行概念分析操作。加速器不需要在计算最终结果之前将概念分析操作的结果存储在主存储器或外部存储装置中,而是提供单个功能,该单个功能直接输出最终结果而不将中间结果存储到主存储器或外部存储装置。这最小化主机系统与加速器之间以及加速器与主存储器或外部存储装置之间的数据交换。因此,执行此类概念分析操作的速度显著增加。
在开始更详细地讨论示例性实施例的各方面之前,首先应认识到,在本说明中术语“机制”将用于指本发明的执行各种操作、功能等的元素。“机制”作为在此使用的术语,可以是示例性实施例的功能或方面以装置、过程或计算机程序产品形式的实现。在过程的情况下,过程由一个或多个设备、装置、计算机、数据处理系统等实现。在计算机程序产品的情况下,由一个或多个硬件设备执行由嵌入在计算机程序产品之中或之上的计算机代码或指令表示的逻辑,以便实现功能或者执行与特定“机制”关联的操作。因此,在此描述的机制可以实现为专用硬件、在通用硬件上执行的软件、存储在介质上以使得指令可以容易地由专用或通用硬件执行的软件指令、用于执行功能的过程或方法,或者上述任意组合。
本说明书和权利要求可以针对示例性实施例的特定特性和元素使用术语“一个”、“至少一个”和“一个或多个”。应认识到,这些术语和短语旨在声明具有存在于特定示例性实施例中的至少一个特定特性或元素,但还可以存在多个特性或元素。即,这些术语/短语并非旨在将说明书或权利要求限于存在的单个特性/元素,或者要求存在多个此类特性/元素。相反,这些术语/短语仅需要至少单个特性/元素,并且具有多个此类特性/元素在说明书和权利要求的范围内的可能性。
此外,应认识到,以下说明针对示例性实施例的各种元素使用多个不同实例,以便进一步示出示例性实施例的实例实现,并且帮助理解示例性实施例的机制。这些实例并非旨在限制和穷举用于实现示例性实施例机制的各种可能性。所属技术领域的普通技术人员鉴于本说明将显而易见的是,这些不同元素具有许多其它备选实现,除了在此提供的实例或替代在此提供的实例,可以使用这些备选实现而不偏离本发明的精神和范围。
应该认识到本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是—但不限于—电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其它自由传播的电磁波、通过波导或其它传输介质传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机可读程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其它设备以特定方式工作,从而,存储有指令的计算机可读存储介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的不同实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
示例性实施例可以用于包括搜索引擎、QA系统、自然语言处理系统等的许多不同类型的数据处理环境。为了针对示例性实施例的特定元素和功能的说明提供上下文,以下提供图1-3作为其中可以实现示例性实施例的各个方面的实例环境。应认识到,图1-3只是实例并且并非旨在断言或暗示有关其中可以实现本发明的各个方面或实施例的环境的任何限制。在不偏离本发明的精神和范围的情况下可以对所示环境做出许多修改。
图1-3旨在描述实现示例性实施例的机制所使用的实例问答(QA)系统(也称为问/答系统或问答系统)、方法和计算机程序产品。如以下更详细地讨论的,示例性实施例可以被集成在这些QA机制中,增强和扩展这些QA机制有关执行概念分析操作的功能,这些概念分析操作例如可以用于标识其中发现与在输入问题中指定的概念相关的概念的语料库的各个部分,或者用于当计算与输入问题的候选答案关联的置信度值时,标识语料库中的证据段落。此外,可以通过考虑由用户简档(其可以与输入问题一起输入,并且向用户标识感兴趣的概念)指定的用户的个人偏好,基于使用示例性实施例的机制执行的概念分析操作,修改证据段落的分级,从而增强用作标识相关概念的基础的输入概念。
因为将针对示例性实施例的机制在QA系统中的实现描述这些机制,所以在描述示例性实施例的机制如何被集成在此类QA系统中并且增强这些系统之前,重要的是首先理解如何实现QA系统中的问答处理。应认识到,图1-3中描述的QA机制只是实例并且并非旨在声明或暗示有关实现示例性实施例所使用的QA机制类型的任何限制。在不偏离本发明的精神和范围的情况下,可以在本发明的不同实施例中实现对图1-3中所示实例QA系统的许多修改。
作为概述,问答系统(QA系统)是在数据处理硬件上执行的人工智能应用,其回答有关以自然语言提出的给定主题领域的问题。QA系统从各种源接收输入,这些源包括通过网络的输入、电子文档或其它数据语料库、来自内容创建者的数据、来自一个或多个内容用户的信息,以及来自其它可能输入源的其它此类输入。数据存储设备存储数据语料库。内容创建者在文档中创建内容,以便作为数据语料库的一部分与QA系统一起使用。文档可以包括任何文件、文本、文章或数据源以便用于QA系统。例如,QA系统访问有关领域或主题领域(例如,金融领域、医学领域、法律领域等)的知识体系,其中可以以各种配置组织知识体系(知识库),例如,领域特定信息的结构化存储库(例如本体),或者与领域相关的非结构化数据,或者有关领域的自然语言文档集合。
内容用户将问题输入到QA系统,QA系统然后通过评估文档、文档的各个部分、语料库中的各个数据部分等,使用数据语料库中的内容回答输入问题。当过程评估文档的给定部分以查找语义内容时,该过程可以使用各种约定以便从QA系统查询此类文档,例如,将查询作为格式良好的问题发送到QA系统,QA系统然后解释该问题,并且提供包含该问题的一个或多个答案的响应。语义内容是基于意符(signifier)之间关系的内容,这些意符例如包括单词、短语、记号和符号,以及它们代表的内容,其外延或内涵。换言之,语义内容是例如通过使用自然语言处理解释表达的内容。
如以下将更详细地描述的,QA系统接收输入问题,解析问题以便提取问题的主要特性(包括输入问题中的已标识概念),使用所提取的特性形成查询,并且然后将这些查询应用于数据语料库。基于将查询应用于数据语料库,QA系统通过在数据语料库中查找有可能包含对输入问题的有价值响应的数据语料库的各个部分,生成输入问题的一组假设或候选答案。QA系统然后使用各种推理算法,针对输入问题的语言和在查询应用期间发现的数据语料库的每个部分中使用的语言执行深度分析,例如英语槽语法(ESG)和谓词论元结构(PAS)构造器(例如,参见McCord等人的“Deep Parsing in Watson(深入解析Watson)”(IBMJ.Res.&Dev.,第56卷,第3/4期,2012年5月/7月)以获得有关IBM WatsonTM中的深入分析的更多信息)。可以应用数百种或者甚至数千种推理算法,每种算法执行不同分析(例如,比较、自然语言分析、词法分析等),并且生成得分。例如,某些推理算法可以着眼于输入问题的语言和发现的数据语料库部分中的术语和同义词的匹配。其它推理算法可以着眼于语言中的时间或空间特性,而其它推理算法可以评估数据语料库部分的来源并且评估其真实性。
从各种推理算法获得的得分指示基于该推理算法的特定焦点领域,通过输入问题推断可能响应的程度。然后对照统计模型对每个产生的得分进行加权。在QA系统的训练期间内,统计模型捕获推理算法在特定领域的两个类似段落之间建立推断时的执行程度如何。统计模型用于概述QA系统关于通过问题推断可能响应(即,候选答案)的证据而具有的置信度级别。针对每个候选答案重复该过程,直到QA系统标识表现为明显强于其它候选答案的候选答案,并且因此针对输入问题生成最终答案或一组分级答案。
如上所述,QA系统和机制通过以下操作运行:从数据或信息语料库(也称为内容语料库)访问信息,分析信息,并且然后基于对该数据的分析而生成答案结果。从数据语料库访问信息通常包括:数据库查询,其回答有关结构化记录集合中有什么的问题;以及搜索,其响应于对非结构化数据(文本、标记语言等)集合的查询,提供文档链接集合。常规问答系统能够基于数据语料库和输入问题生成答案,针对数据语料库检验问题集合的答案,使用数据语料库纠正数字文本中的错误,以及从可能答案(即,候选答案)池中选择问题答案。
诸如文章作者、电子文档创建者、网页作者、文档数据库创建者之类的内容创建者在编写其内容之前,确定在此类内容中描述的产品、解决方案和服务的用例。因此,内容创建者知道内容旨在回答由内容解决的特定主题中的什么问题。在数据语料库的每个文档中,例如按照与问题关联的角色、信息类型、任务等对问题进行分类允许QA系统更快速和有效地标识包含与特定查询相关的内容的文档。内容还可以回答内容创建者未构想的可能对内容用户有用的其它问题。问题和答案可以由内容创建者检验以便被包含在给定文档的内容中。这些能力有助于改进QA系统的准确性、系统性能、机器学习和置信度。内容创建者、自动化工具等注释或以其它方式生成元数据以便提供可由QA系统使用的信息,从而标识内容的这些问题和答案属性。
针对此类内容工作时,QA系统使用多个密集分析机制生成输入问题的答案,这些机制评估内容以便针对输入问题标识最可能答案(即,候选答案)。根据示例性实施例的机制,这些密集分析机制可以利用表示语料库文档中的概念及其关系的大稀疏矩阵,作为用于以下操作的手段:标识与在输入问题中指定的概念相关的概念、用户简档(例如在个性化分级过程中)、被访问以便包括在语料库中的文档,或者基于概念分析的任何其它操作。
如上所述,概念分析操作通常使用大稀疏矩阵,该大稀疏矩阵表示从知识源获得的概念及其关系的网络/图。“知识源”是任何充当信息源的电子系统或数据结构,以及关于已知概念及其关系的知识。该“知识源”可以是以自然语言格式或预定义结构化格式提供的文档语料库、来自各种文本源的各文本部分,这些文本源例如包括网站帖子、电子邮件消息,或者任何其它文本内容源、网页等。在某些情况下,这些“知识源”可以包括以结构化格式提供的信息数据库。提供可以用于生成概念和关系的网络/图的信息的任何信息和知识源旨在在术语“知识源”的精神和范围内。
作为在此使用的术语,“信息源”指概念源,针对该源查找关系信息,并且其概念是用于生成在矩阵运算中使用的至少一个向量的源。“信息源”可以是具有自然语言或结构化文本的输入文档或输入文档集、输入自然语言问题、短语、搜索查询、用户简档等。在一个示例性实施例中,“信息源”是QA系统的输入问题。在另一个示例性实施例中,“信息源”是要添加到QA系统针对其运行的信息语料库的文档。在其它示例性实施例中,“信息源”是任何其它文本输入源,例如搜索查询。无论哪种特定实现,“信息源”都提供文本,可以从该文本提取一个或多个概念以便用于生成至少一个向量,该至少一个向量要用于执行作为在加速器中执行的概念分析操作的一部分的矩阵运算。
一般而言,概念分析操作涉及两个主要阶段:索引建立和相关概念标识。对于索引建立阶段,例如假设知识源是包括大量网页的在线百科全书,例如Wikipedia。从该知识源,提取一系列概念N并且计算稀疏关系矩阵N*N,其中如果概念i与概念j相关,则矩阵中的条目(行i,列j)为非0,例如“1”。例如,概念“信息论”是“电气工程”的一个分支,以使得在网络/图中,边将“信息论”连接到“电气工程”,并且相应地,将对应于“信息论”和“电气工程”的(i,j)中的条目设置为1。针对知识源中的每个概念执行该过程导致由N*N矩阵表示的索引后的知识源,其中非0条目表示概念之间的关系。可以将条目中的值设置为指示概念之间关系强度的值,其中基于各种准则以许多不同方式计算这些强度。
在相关概念标识阶段内,对于每个信息源,概念分析提取具有M个概念的集合。使用在索引建立阶段中生成的知识源关系矩阵,计算每个输入概念M的相关概念。这通常使用以下讨论的矩阵向量乘法运算或其它稀疏矩阵(N*N)-稠密矩阵(N*M)乘法运算进行(其中“稠密矩阵”是矩阵形式的一组向量,并且可以分别处理每个向量以便生成部分乘积,随后可以组合部分乘积)。在某些实施例中,该信息源可以包括用户的个人简档,个人简档指示用户的概念偏好以使得执行个性化分级过程作为该相关概念标识阶段的一部分,即,通过涉及矩阵向量乘法运算的概念分析操作,标识用户感兴趣的概念。该概念分析可以涉及这些乘法运算的多次迭代,其中对结果矩阵进行后处理以便生成N元素向量,该N元素向量表示来自信息源的概念如何与知识源中的所有其它概念相关。
应认识到,M的值可以显著变化,例如从数十个概念到数千个概念。中间数据(即,矩阵向量乘法的结果)的大小取决于M的值。为了限制中间数据大小,如以下讨论的,示例性实施例利用批,例如在某些实施例中批大小为32(32个输入向量),但可以具有不同批大小,具体取决于需要的实现。
示例性实施例的机制例如在概念分析操作的相关概念标识阶段,通过使用一个或多个加速器执行概念分析操作,加速标识相关概念的过程,如以下描述的那样。由一个或多个加速器生成的相关概念输出向量可以用于生成候选答案,并且在QA系统中对这些候选答案分级,或者在诸如搜索引擎之类的其它实现中,例如对返回到用户的搜索查询的搜索结果分级。在某些示例性实施例中,该过程可以用于提供如上所述的个性化分级操作,其中标识由用户简档(其可以作为信息源的一部分提供)指定的特定用户感兴趣的概念。最可能的答案被输出作为分级后的候选答案列表(根据在候选答案的评估期间计算的其相对得分或置信度量进行分级),作为单个最终答案(其具有最高分级得分或置信度量,或者其与输入问题最匹配),或者作为分级列表和最终答案的组合。
图1示出计算机网络102中的问/答创建(QA)系统100的一个示例性实施例的示意图。在第2011/0125734号美国专利申请公开(在此全部引入作为参考)中描述了可以与在此描述的原理结合使用的问/答生成的一个实例。QA系统100在连接到计算机网络102的一个或多个计算设备104(包括一个或多个处理器和一个或多个存储器,并且可能包括所属技术领域公知的任何其它计算设备,包括总线、存储设备、通信接口等)上实现。网络102包括多个计算设备104,这些计算设备104经由一个或多个有线和/或无线数据通信链路彼此通信并且与其它设备或组件通信,其中每个通信链路包括导线、路由器、交换机、发送器、接收器等中的一个或多个。QA系统100和网络102针对一个或多个QA系统用户,经由其相应计算设备110-112启用问/答(QA)生成功能。QA系统100的其它实施例可以与不同于在此示出的组件、系统、子系统和/或设备一起使用。
QA系统100被配置为实现从各种源接收输入的QA系统流水线108。例如,QA系统100从网络102、电子文档语料库106、QA系统用户和/或其它数据和其它可能输入源接收输入。在一个实施例中,到QA系统100的部分或全部输入通过网络102路由。网络102上的各种计算设备104包括用于内容创建者和QA系统用户的接入点。某些计算设备104包括用于存储数据语料库106(仅为了示例性目的,其在图1中被示出为单独实体)的数据库的设备。数据语料库106的各个部分还可以在一个或多个其它网络附加存储设备上提供,在一个或多个数据库或者图1中未明确示出的其它计算设备中提供。在不同实施例中,网络102包括局部网络连接和远程连接,以使得QA系统100可以在任何大小(包括局部和全球,例如因特网)的环境中操作。
在一个实施例中,内容创建者在数据语料库106的文档中创建内容以便作为数据语料库的一部分与QA系统100一起使用。文档包括任何文件、文本、文章或数据源以便用于QA系统100。QA系统用户经由到网络102的网络连接或因特网连接访问QA系统100,并且将问题输入到QA系统100,这些问题通过数据语料库106中的内容回答。在一个实施例中,使用自然语言形成问题。QA系统100解析和解释问题,并且向QA系统用户(例如,QA系统用户110)提供包含问题的一个或多个答案的响应。在某些实施例中,QA系统100以分级候选答案列表向用户提供响应,而在其它示例性实施例中,QA系统100提供单个最终答案或者最终答案和分级其它候选答案列表的组合。
QA系统100实现QA系统流水线108,其包括用于处理输入问题和数据语料库106的多个阶段。QA系统流水线108基于输入问题和数据语料库106的处理,针对输入问题生成答案。将在以下针对图3更详细地描述QA系统流水线108。
在某些示例性实施例中,QA系统100可以是可从位于纽约阿蒙克的国际商业机器公司获得的IBM WatsonTM QA系统,该系统使用以下描述的示例性实施例的机制进行增强。如前所述,IBM WatsonTM QA系统接收输入问题,然后解析该问题以便提取问题的主要特性,这些特性然后转而用于形成应用于数据语料库的查询。基于将查询应用于数据语料库,通过在数据语料库中查找有可能包含对输入问题的有价值响应的数据语料库的各个部分,生成输入问题的一组假设或候选答案。IBM WatsonTM QA系统然后使用各种推理算法,针对输入问题的语言和在查询应用期间发现的数据语料库的每个部分使用的语言执行深度分析。然后对照统计模型对从各种推理算法获得的得分进行加权,该统计模型概述IBM WatsonTMQA系统关于通过问题推断可能响应(即,候选答案)的证据而具有的置信度级别。针对每个候选答案重复该过程以便生成分级候选答案列表,然后可以将该分级候选答案列表提供给提交输入问题的用户,或者从中选择最终答案并且提供给用户。有关IBM WatsonTM QA系统的更多信息例如可以从IBM公司网站、IBM Redbooks等获得。例如,可以在Yuan等人的“Watson and Healthcare(Watson和医疗保健)”(IBM developerWorks,2011年)和RobHigh的“The Era of Cognitive Systems:An Inside Look at IBM Watson and How itWorks(认知系统时代:IBM Watson揭秘及其工作方式)”(IBM Redbooks,2012年)中发现有关IBM WatsonTM QA系统的信息。
如图1中所示,QA系统100利用一个或多个加速器120,它们加速由QA系统100执行的概念分析操作。优选地提供一个或多个加速器120,以使得它们与由QA系统流水线执行的操作结合以及并行运行。加速器120包括在主要QA系统100处理器外部的处理器和存储器,并且加速器120作为现有QA系统100处理器的专用处理器或服务处理器操作。在某些示例性实施例中,加速器120是图形处理单元(GPU),其具备专用内核以便代表QA系统100执行概念分析操作。因此,GPU可以通过响应于QA系统100将概念分析操作任务提交给GPU而切换内核并且因此切换操作模式,在图形处理与概念分析操作之间动态切换。可以通过以下各项促进这种切换:来自QA系统100的指令、设置由GPU校验的位,或者可以用于将GPU的操作模式从图形处理切换到另一种操作模式的任何其它机制。
在操作中,在概念分析操作模式下,一个或多个加速器120均接收矩阵122的一个或多个表示,矩阵122代表通过QA系统100的语料库获取操作,先前从语料库提取的已知概念和概念之间的关系。这种从自然语言内容生成概念和概念之间关系的网络/图的过程通常在所属技术领域中已知,并且因此在此不提供更详细的说明。此外,然后以通常在所属技术领域中已知的方式将网络/图表示为矩阵。如果给出矩阵,则利用机制重新组织矩阵以便沿着矩阵的对角线集中矩阵的非0值。该过程可以使用公知的矩阵重新组织算法(例如Cuthill-McKee算法),以便执行此类重新组织。
QA系统100可以预先生成和存储提供给加速器120的矩阵表示,以使得QA系统100每次处理输入问题时不重新计算矩阵表示。仅当响应于授权用户以周期性间隔的请求而使QA系统100针对其运行的语料库发生变化时,或者当发生另一个指定事件时,才重新计算矩阵表示122。加速器120可以接收矩阵的多个表示,这些表示针对加速器120中在其上执行矩阵运算的向量的不同稀疏度(或密度)而优化。例如,矩阵的CSR和CSC表示可以具备矩阵运算的不同迭代,基于作为矩阵向量乘法运算的一部分而使矩阵与其相乘的向量的稀疏度(或密度),使用这些表示中的不同表示在加速器中执行该矩阵运算。当执行迭代时,向量的密度可以增加,从而使得需要从一个表示切换到另一个表示以便最大化运算效率。
加速器120还从QA系统100接收输入到QA系统100的概念列表124,该概念列表124提取自自然语言问题或其它信息源,其它信息源例如用于包括在语料库中的文档、作为个性化分级操作的一部分的用户简档等。将概念列表124输入到加速器120,加速器120针对概念列表操作以构造已提取概念的输入向量以在执行概念分析操作中使用。在某些示例性实施例中,该概念分析操作涉及矩阵向量乘法的多次迭代,其中初始地,由加速器生成的输入向量被乘以矩阵表示(例如CSC表示),并且产生的向量输出被用作下一次迭代的输入向量。基于与矩阵相乘的向量的稀疏度(或密度),可以选择矩阵表示以便最大化操作效率,例如,从在最初一组迭代期间使用CSC表示切换到在后续一组迭代期间使用CSR表示。迭代继续直到确定输出向量已收敛,即,输出向量的变化低于指定阈值变化量。在收敛之后,得到的输出向量表示与从输入问题提取的概念以及关系强度(由输出向量的向量元素中的值表示)相关的一组概念。
因此,将以下工作卸载到与主机QA系统100并行操作的加速器120:该工作用于生成相关概念到已提取概念(来自输入问题或其它信息源)的输出向量。主机QA系统100只需要从输入问题或其它信息源(为了示例目的,假设其是输入问题)提取概念(这是QA系统100已经执行的操作),并且将这些概念提供给加速器120。作为获取过程或其它预处理器处理过程的一部分,主机QA系统100偶尔生成一个或多个概念矩阵表示,其频率相对很小,因为语料库的不频繁变化需要概念矩阵表示的更新。因此,主机QA系统100被卸载,以使得加速器120加速生成相关概念的输出向量的过程。
因为加速器120具有有限的存储器大小,所以可以以批量方式执行概念分析操作的处理,其中多批输入向量表示来自输入问题、用户简档或其它信息源的一个或多个已提取概念,以使得加速器利用各种线程以便针对表示输入向量的各个部分的批执行概念分析操作。每个批可以具有大小(输入向量数量),该大小例如基于加速器120的存储器大小来设置。在一个示例性实施例中,加速器120是GPU,其具有能够处理批大小为32个输入向量的存储器大小。在一个示例性实施例中,每个输入向量具有一个非0条目,其对应于来自信息源的一个已提取概念。在其它示例性实施例中,批中的每个输入向量可以具有一个或多个非0条目。在输入向量中利用单个非0条目的好处在于,它极大地简化针对该向量执行的矩阵-向量乘法运算,以使得仅在矩阵中的对应列/行中进行非0条目的列或行查找。
加速器120可以在内部组合批的执行结果,以便生成相关概念的结果输出向量。组合矩阵-向量乘法的部分乘积通常在所属技术领域中已知,并且因此不需要进一步详细地解释。但是,值得注意的是,加速器120不将任何中间结果存储到主机QA系统100存储器或外部存储系统,而是在加速器120内部维护数据,直到将相关概念的输出向量输出回到QA系统100以便由QA系统流水线使用。
应认识到,在某些示例性实施例中,可以利用多个加速器120,其中每个加速器针对概念矩阵表示122和/或概念列表124的一部分运行。在此类实施例中,处理的组合阶段可以在加速器120之一(主加速器)、加速器的外部机构(未示出)或主机QA系统100中,组合来自不同加速器120的结果。
图2是其中实现示例性实施例的各个方面的实例数据处理系统的框图。数据处理系统200是计算机的一个实例,例如图1中的服务器104或客户机110,实现本发明示例性实施例的过程的计算机可用代码或指令位于其中。在一个示例性实施例中,图2表示服务器计算设备,例如服务器104,其实现增强的QA系统100和QA系统流水线108以便包括以下描述的示例性实施例的其它机制。
在示出的实例中,数据处理系统200采用集线器架构,其包括北桥及存储控制器集线器(NB/MCH)202和南桥及输入/输出(I/O)控制器集线器(SB/ICH)204。处理单元206、主存储器208和图形处理器210连接到NB/MCH 202。图形处理器210通过图形加速端口(AGP)连接到NB/MCH 202。图形处理器210例如可以是GPU,其可以在本说明的上下文中用作加速器。
在示出的实例中,局域网(LAN)适配器212连接到SB/ICH 204。音频适配器216、键盘及鼠标适配器220、调制解调器222、只读存储器(ROM)224、硬盘驱动器(HDD)226、CD-ROM驱动器230、通用串行总线(USB)端口及其它通信端口232以及PCI/PCIe设备234通过总线238和总线240连接到SB/ICH 204。PCI/PCIe设备例如可以包括以太网适配器、附加卡,以及用于笔记本计算机的PC卡。PCI使用卡总线控制器,而PCIe则不使用。ROM 224例如可以是闪存基本输入/输出系统(BIOS)。
HDD 226和CD-ROM驱动器230通过总线240连接到SB/ICH 204。HDD 226和CD-ROM驱动器230例如可以使用集成驱动电子设备(IDE)或串行高级技术附件(SATA)接口。超级I/O(SIO)设备236连接到SB/ICH 204。
操作系统在处理单元206上运行。操作系统协调和提供对图2中的数据处理系统200中的不同组件的控制。作为客户机,操作系统是可从市面上购买的操作系统,例如诸如JavaTM编程系统之类的面向对象的编程系统可以与操作系统结合运行,并且从在数据处理系统200上执行的JavaTM程序或应用来提供对操作系统的调用。
作为服务器,数据处理系统200例如可以是eServerTM System计算机系统,其运行Advanced Interactive Executive操作系统或操作系统。数据处理系统200可以是对称多处理器(SMP)系统,其在处理单元206中包括多个处理器。备选地,可以采用单处理器系统。
用于操作系统、面向对象的编程系统的指令以及应用或程序位于诸如HDD 226之类的存储设备上,并且被加载到主存储器208中以便由处理单元206执行。本发明示例性实施例的过程由处理单元206使用计算机可用程序代码执行,计算机可用程序代码例如位于诸如主存储器208、ROM 224之类的存储器中,或者位于一个或多个外围设备226和230中。
总线系统(例如图2中示出的总线238或总线240)包括一个或多个总线。当然,总线系统可以使用任何类型的通信结构或架构实现,该结构或架构用于在连接到结构或架构的不同组件或设备之间传输数据。通信单元(例如图2的调制解调器222或网络适配器212)包括一个或多个用于发送和接收数据的设备。存储器例如可以是主存储器208、ROM 224或高速缓存,例如在图2中的NB/MCH 202中发现的高速缓存。
所属技术领域的普通技术人员将认识到,图1和2中示出的硬件根据实现而有所不同。除了图1-2中示出的硬件或替代图1-2中示出的硬件,还可以使用其它内部硬件或外围设备,例如闪存、等效非易失性存储器或光盘驱动器等。此外,示例性实施例的过程可以应用于不同于前面提及的SMP系统的多处理器数据处理系统,而不偏离本发明的精神和范围。
此外,数据处理系统200可以采取多个不同数据处理系统中的任意一个的形式,包括客户机计算设备、服务器计算设备、平板计算机、膝上型计算机、电话或其它通信设备、个人数字助理(PDA)等。在某些示例性实例中,数据处理系统200可以是便携式计算设备,其具备闪存以提供非易失性存储器以便例如存储操作系统文件和/或用户生成的数据。基本上,数据处理系统200可以是没有架构限制的任何已知或以后开发的数据处理系统。
图3示出根据一个示例性实施例的用于处理输入问题的QA系统流水线。图3的QA系统流水线例如可以实现为图1中的QA系统100的QA系统流水线108。应认识到,图3中示出的QA系统流水线的各个阶段被实现为一个或多个软件引擎、组件等,它们具备用于实现由特定阶段产生的功能的逻辑。使用此类软件引擎、组件等中的一个或多个实现每个阶段。软件引擎、组件等在一个或多个数据处理系统或设备的一个或多个处理器上执行,并且使用存储在一个或多个数据处理系统上的一个或多个数据存储设备、存储器等中的数据或者针对该数据运行。图3的QA系统流水线例如在一个或多个阶段中被增强以便实现以下描述的示例性实施例的改进机制,可以提供附加阶段以便实现改进机制,或者可以提供来自流水线300的单独逻辑以便与流水线300对接并且实现示例性实施例的改进功能和操作。
如图3中所示,QA系统流水线300包括多个阶段310-380,QA系统通过这些阶段操作以便分析输入问题并且生成最终响应。在初始问题输入阶段310,QA系统接收以自然语言格式提出的输入问题。即,用户可以经由用户接口输入用户希望针对其获得答案的输入问题,例如,“Who are Washington’s closest advisors?(谁是华盛顿的最亲近顾问?)”。响应于接收输入问题,QA系统流水线300的下一个阶段(即,问题和主题分析阶段320)使用自然语言处理(NLP)技术解析输入问题以便从输入问题提取主要特性,并且根据类型(例如,名称、日期,或者多个其它已定义主题中的任何一个)对主要特性进行分类。例如,在上面的实例问题中,术语“who(谁)”可以与用于指示正在寻求某人的身份的“persons(人)”的主题关联,“Washington(华盛顿)”可以被标识为与问题所关联的人的正确姓名,“closest(最亲近)”可以被标识为指示接近度或关系的单词,并且“advisors(顾问)”可以指示名词或其它语言主题。
此外,提取的主要特性包括分类成问题特征的关键字和短语,这些问题特征例如包括问题的焦点、问题的词法答案类型(LAT)等。如在此所指的,词法答案类型(LAT)是输入问题中的单词或者从输入问题推断的单词,其指示答案类型并且独立于为该单词指定语义。例如,在问题“What maneuver was invented in the 1500s to speed up the gameand involves two pieces of the same color?(16世纪发明了什么策略以加快游戏并且涉及同一颜色的两块?)”中,LAT是字符串“maneuver(策略)”。问题的焦点是这样的问题部分:如果由答案替换,则使问题成为独立语句。例如,在问题“What drug has been shownto relieve the symptoms of ADD with relatively few side effects?(什么药物已表明可缓解ADD症状并具有相对较小的副作用?)”中,焦点是“drug(药物)”,因为如果使用答案替换该单词,则例如答案“Adderall(安非他明)”可以用于替换术语“drug”以便生成句子“Adderall has been shown to relieve the symptoms of ADD with relatively fewside effects.(安非他明已表明可缓解ADD症状并具有相对较小的副作用。)”。焦点通常但并非始终包含LAT。另一方面,在许多情况下,可能不能从焦点推断有意义的LAT。
再次参考图3,然后在问题分解阶段330中使用所标识的主要特性以便将问题分解成一个或多个查询,这些查询应用于数据/信息语料库345以便生成一个或多个假设。以任何已知或以后开发的查询语言(例如结构查询语言(SQL)等)生成查询。将查询应用于一个或多个数据库,这些数据库存储有关构成数据/信息语料库345的电子文本、文档、文章、网站等的信息。即,这些不同源本身、不同源集合等表示语料库345中的不同语料库347。可以存在不同语料库347,它们基于取决于特定实现的不同准则针对不同文档集合被定义。例如,可以针对不同主题、主旨类别、信息源等建立不同语料库。作为一个实例,第一语料库可以与医疗保健文档关联,而第二语料库可以与金融文档关联。备选地,一个语料库可以是由美国能源部发布的文档,而另一个语料库可以是IBM Redbooks文档。具有某种类似属性的任何内容集合可以被视为语料库345中的一个语料库347。
将查询应用于一个或多个数据库,这些数据库存储有关构成数据/信息语料库(例如,图1中的数据语料库106)的电子文本、文档、文章、网站等的信息。在假设生成阶段340将查询应用于数据/信息语料库,以便生成标识用于回答输入问题的可能假设的结果,然后可以对这些结果进行评估。即,应用查询导致提取与特定查询准则匹配的数据/信息语料库的各个部分。然后在假设生成阶段340中分析和使用语料库的这些部分,以便生成用于回答输入问题的假设。这些假设在此也称为输入问题的“候选答案”。对于任何输入问题,在该阶段340,可以具有数百个生成的假设或候选答案,可能需要对它们进行评估。
在阶段350,QA系统流水线300然后执行深度分析和输入问题的语言与每个假设或“候选答案”的语言的比较,以及执行证据评分以便评估特定假设是输入问题的正确答案的可能性。如上所述,这涉及使用多种推理算法,每种推理算法对输入问题的语言和/或提供支持或不支持假设的证据的语料库内容执行单独类型的分析。每种推理算法基于它执行的分析生成得分,该得分指示通过应用查询提取的数据/信息语料库的个体部分的相关性度量,以及对应假设的正确性度量,即假设中的置信度量。具有生成此类得分的各种方式,具体取决于执行的特定分析。但是,一般来说,这些算法查找指示感兴趣的术语、短语或模式的特定术语、短语或文本模式,并且确定匹配度,其中与较低匹配度相比,为较高匹配度提供相对较高的得分。
因此,例如,算法可以被配置为从输入问题查找精确术语或者在输入问题中查找该术语的同义词(例如,术语“movie(电影)”的精确术语或同义词),并且基于这些精确术语或同义词的使用频率生成得分。在此类情况下,将为精确匹配提供最高得分,而可以基于同义词的相对分级为同义词提供较低得分,这种相对分级可以由主题专家(具有特定领域和所用术语的知识的人)指定,或者从同义词在对应于领域的语料库中的使用频率自动确定。因此,例如,为语料库内容(也称为证据或证据段落)中的术语“movie”的精确匹配提供最高得分。可以为电影的同义词(例如“motion picture(电影)”)提供较低得分,但仍然高于类型“film(电影)”或“moving picture show(电影)”的同义词。可以编辑每个证据段落的精确匹配和同义词的实例并且将其用于定量函数,以便针对证据段落与输入问题的匹配度生成得分。
因此,例如,输入问题“What was the first movie?(第一部电影是什么?)”的假设或候选答案是“The Horse in Motion(奔马)”。如果证据段落包含语句“The firstmotion picture ever made was‘The Horse in Motion’in 1878by EadweardMuybridge.It was a movie of a horse running(有史以来的第一部电影是EadweardMuybridge在1878年出品的“奔马”。这是关于奔跑的马的一部电影)”,并且算法查找输入问题焦点(即“movie”)的精确匹配或同义词,则在证据段落的第二个句子中发现“movie”的精确匹配,并且在证据段落的第一个句子中发现“movie”的高得分同义词(即“motionpicture”)。这可以与证据段落的进一步分析组合,以便标识候选答案的文本也存在于证据段落中,即“The Horse in Motion”。可以组合这些因素以便为该证据段落提供相对高的得分,作为候选答案“The Horse in Motion”是正确答案的支持证据。
应认识到,这只是如何可以执行评分的一个简单实例。可以使用具有不同复杂性的许多其它算法来针对候选答案和证据生成得分,而不偏离本发明的精神和范围。
在合成阶段360,将由各种推理算法生成的大量得分合成为各种假设的置信度得分或置信度量。该过程涉及将权重应用于各种得分,其中权重已通过训练由QA系统采用的统计模型而确定和/或被动态更新。例如,与评估证据段落的发布日期的其它算法相比,可以将用于由标识精确匹配术语和同义词的算法生成的得分的权重设置为相对较高。权重本身可以由主题专家指定或者通过机器学习过程获得,这些机器学习过程评估特征证据段落的意义及其相对于整体候选答案生成的重要性。
根据通过训练QA系统生成的统计模型处理加权得分,该统计模型标识这样一种方式:该方式可以用于组合这些得分以便针对个体假设或候选答案生成置信度得分或度量。该置信度得分或度量概述QA系统关于通过输入问题推断候选答案(即,候选答案是输入问题的正确答案)的证据而具有的置信度级别。
通过最终置信度合并和分级阶段370处理得到的置信度得分或度量,该阶段将置信度得分和度量彼此比较、对照预定阈值比较它们、或者针对置信度得分执行任何其它分析以便确定哪些假设/候选答案最可能是输入问题的正确答案。根据这些比较对假设/候选答案进行分级以便生成分级假设/候选答案列表(以下简称为“候选答案”)。在阶段380,从分级候选答案列表,生成最终答案和置信度得分,或者最终一组候选答案和置信度得分,并且经由图形用户接口或用于输出信息的其它机制,将它们输出到原始输入问题的提交者。
如图3中所示,QA系统流水线300可以将已提取概念392的处理卸载到一个或多个加速器390,这些已提取概念是作为阶段320的一部分生成的已提取特性的一部分。一个或多个加速器390也从主机QA系统接收语料库矩阵表示394。这些语料库矩阵表示394是先前由QA系统作为语料库获取操作的一部分生成的概念和概念之间关系的表示。在一个示例性实施例中,语料库矩阵表示394包括CSC和CSR表示。尽管在示例性实施例中使用多个表示,但应认识到,不需要针对向量的不同密度使用不同表示进行优化,而是可以使用单个概念矩阵表示。
加速器390基于从输入问题310接收的已提取概念392生成输入向量,并且使用输入向量针对一个或多个语料库矩阵表示394执行概念分析操作。加速器390将具有相关概念和关系强度的输出向量输出到假设生成阶段340,该阶段340利用输出向量生成输入问题310的候选答案。例如,输出向量指定什么是输入问题和/或用户简档(如果执行个性化分级操作)中的概念的相关概念,并且因此,可以分析与语料库中的文档关联的类似向量以便标识它们是否针对与当前信息源的输出向量相同的概念具有非0值。如果是,则可以根据非0值对这些文档进行分级,以使得当生成候选答案时,对于信息源,输入向量中相关概念的较高值(和较强相关)文档具有较高分级。
应该注意,尽管针对将概念分析操作与由示例性实施例的加速器提供的加速一起使用以便标识矩阵(语料库的网络/图)中与从输入问题提取的概念相关的概念,描述了上面的示例性实施例,但本发明并不限于此。而是,其中使用矩阵运算进行概念分析和相关概念标识的任何操作都可以实现示例性实施例的机制,而不偏离示例性实施例的精神和范围。例如,可以从其它文档、网页、电子自然语言内容的各个部分等获得提取的概念和产生的输入向量,而不是将表示从输入问题提取的概念的输入向量提交给QA系统。作为一个实例,当获取文档或者将文档添加到语料库时,可以使用示例性实施例的机制从这些文档提取概念并分析概念、标识已经存在于矩阵中的相关概念、并且扩展矩阵和网络/图以便包括将新文档添加到语料库,例如方式为添加节点和边,修改边权重等。此外,在获取过程中,可以针对每个文档、网页、自然语言内容部分等执行相关概念向量的这种标识,以便将相关概念向量与知识源的该部分关联。然后可以使用与知识源的各个部分关联的向量快速标识与知识源的这些部分对应的概念以选择这些部分,以便通过标识具有对应于在搜索查询、输入问题或请求中指定的概念的非0值的向量,处理搜索查询、输入问题或对信息的其它请求(例如个性化分级操作)。可以根据与在关联向量中指定的相关概念的关系强度,使用向量修改知识源的这些部分的分级或基于知识源的这些部分返回的答案/结果的分级。当然,在各个部分被标识为与从信息源提取的那些概念关联的概念相关之后,可以对知识源的各个部分执行其它处理,例如进一步自然语言处理以便评估在知识源的各个部分中处理概念的方式等。
如上所述,加速器390通过卸载主机QA系统并且与由主机QA系统执行的其它操作并行执行这些概念分析操作,加速概念分析操作的执行。应认识到,在卸载主机QA系统中,加速器390最小化主机QA系统与加速器390之间的数据通信。为了进一步示出益处以及根据示例性实施例的机制的加速器的用户与这些加速器与基于主机系统的概念分析操作之间的操作差异,现在参考图4和5。
图4是示出用于使用主机系统和主机系统存储装置执行概念分析操作的一种方法的实例图。如图4中所示,对于执行概念分析操作的基于主机的系统,主机系统执行用于执行概念分析操作的所有操作,并且必须在执行后处理之前将中间结果存储到主存储器或主机系统存储装置以便生成输出向量。即,如图4中所示,主机系统400从信息源410(例如,输入问题、文档等)执行初始概念提取,并且生成初始输入向量412,初始输入向量412作为输入被提供给概念分析操作引擎420。此外,主机系统400针对语料库生成或检索矩阵数据结构414,并且也将矩阵数据结构414输入到概念分析操作引擎420。概念分析操作引擎420包括以下逻辑:其针对输入向量412和矩阵数据结构414运行以便执行概念分析操作(其涉及矩阵向量乘法运算的迭代)以便标识矩阵数据结构414中与在输入向量412中指定的概念相关的概念。
应认识到,输入向量412可以包括任何数量的已标识概念,并且一般而言范围可以从20到超过3000个已标识概念。在某些示例性实施例中,输入向量412可以是同时包括N*M输入矩阵的多个输入向量412中的一个。例如,在概念分析操作期间,N*M输入矩阵的每个输入向量412可以作为单独矩阵向量乘法运算分别处理。矩阵数据结构414优选地表示N*N正方稀疏矩阵,其可以包括数百万个概念及其关系(边)。
已观察到,概念分析操作引擎420可能需要多次迭代以便执行概念分析操作。一般而言,概念分析操作大约使用矩阵向量乘法运算的5次迭代来获得收敛结果,然而在某些情况下可以使用更多或更少的迭代。在矩阵数据结构414表示数百万个概念及其关系,并且输入向量(多个)412表示数千个已提取概念的情况下,执行这些多次迭代需要的处理资源相当可观。
由概念分析操作引擎420生成的结果包括一个或多个输出向量,这些输出向量指定矩阵中与输入向量中的概念相关的概念。一个或多个输出向量中的每个非0值指示相关概念。值本身指示概念之间关系的强度。输出向量(多个)中的这些值由规范化引擎430规范化,其中将结果存储在主机系统存储装置440的文件系统中。将结果存储在主机系统存储装置440的文件系统中,因为现有机制未被设计为与有限大小的存储器一起使用,并且由概念分析操作生成的中间数据结构可以由于大型输入矩阵和向量(多个)而非常大。
作为后处理的一部分,后处理引擎450检索存储在主机系统存储装置440中的规范化后的输出向量结果,并且针对输出向量结果执行分级操作。分级操作基本上根据输出向量中的概念强度值对概念进行分级,以使得最高分级的概念比其它概念具有更高分级。后处理引擎450然后输出最终N元素输出向量460,其表示与从信息源检索的概念相关的分级概念列表。该N元素输出向量460可以与以下信息源关联:该信息源例如在与信息源关联的元数据数据结构中、集成到信息源的数据结构中、存储在与信息源链接的单独数据结构中等。例如,如果信息源是添加到文档语料库的文档,则由加速器生成的N元素向量可以与该文档关联地存储,以供随后当搜索语料库以查找具有某些相关概念的文档时使用。
应认识到,在某些示例性实施例中,可以针对信息语料库中的每个信息部分执行该概念分析操作,以使得每个部分可以具有关联的N元素向量(N是概念数量)。这促进用于使用N元素向量标识相关信息部分并对语料库执行搜索的不同操作。例如,可以针对语料库中的不同信息部分(例如,文档)的N元素向量执行计算,以便确定哪些部分高度类似于彼此。例如,可以评估两个文档的N元素向量中的非0强度概念的类似度的计算,以便判定这些文档是否旨在描述类似的概念。关于肿瘤患者治疗的一个文档可以具有针对肿瘤概念具有高强度值的N元素向量,而涉及加利福尼亚州麻疹爆发的另一个文档可能在其N元素向量中没有肿瘤概念的高强度值,并且因此,通过比较N元素向量,可以判定这些文档是否类似(即,处理类似的概念)。同样,涉及一流大学的癌症研究的文档可以具有包含许多肿瘤概念的N元素向量,这些肿瘤概念具有的非0值对应于肿瘤患者治疗文档的肿瘤概念的那些非0值,并且因此,将基于N元素向量的比较被确定为类似。还可以在输入问题、搜索查询、用户简档等的相关概念输出向量与语料库中的各个信息部分之间执行这种方式的类似性,以便例如回答输入问题,返回搜索结果,或者执行个性化分级操作。
图5是示出根据一个示例性实施例的使用一个或多个加速器设备执行的概念分析操作的实例图。如图5中所示,与图4中示出的操作相反,主机系统500不生成输入向量(多个),并且不执行概念分析操作、规范化操作或后处理操作。此外,不将中间结果存储到主机系统存储装置。相反,在加速器中执行和维护这些操作和中间结果。
如图5中所示,主机系统500负责从信息源510提取概念列表512,并且将概念列表512和一个或多个矩阵表示数据结构514提供给加速器520。加速器520包括初始化引擎522,其针对概念列表512运行以便生成一个或多个向量523,这些向量又可以是共同构成从信息源510提取的概念的N*M矩阵的一组输入向量523。将生成的输入向量(多个)523提供给概念分析操作引擎524。概念分析操作引擎524针对输入向量(多个)523和矩阵表示数据结构514运行以便执行矩阵向量乘法运算的迭代,矩阵向量乘法运算标识矩阵中与输入向量(多个)523中的概念相关的概念。
应认识到,针对来自输入向量(多个)523和/或矩阵表示数据结构514的多批数据执行由初始化引擎522、概念分析操作引擎524和规范化引擎526执行的操作,其中批大小由加速器520的存储器限制确定,加速器520包括存储器521,其用于在处理数据时存储数据。因此,每个批可以由单独线程处理,其中所有批的总和等于矩阵和输入向量的总大小。在一个示例性实施例中,将批大小设置为32个向量,这些向量从来自信息源的已提取概念的输入向量生成。例如,输入向量可以指定从信息源提取的数十到数千个概念,并且可以将这些概念分解成个体向量,它们具有由通过在加速器中执行线程处理的已提取概念中的一个或一个小子集。因此,可以利用多个线程,每个线程处置从输入向量生成的一批向量中的不同向量处理。可以以这种方式执行多个批,其中将处理每个批中的每个向量的结果与该批中的其它向量的结果组合,并且组合每个批的结果以便生成最终结果。例如,如果输入向量表示1000个已提取概念,则第一批可以具有前32个已提取概念(批的每个向量中的一个非0值),而第二批可以包括概念33-65,第三批可以包括概念66-98等。因此,对于大型矩阵和输入向量,使用海量数据并行性执行元素522-526的操作,并且可能针对基于已提取概念的输入向量生成的多批向量运行数千个线程。
由概念分析操作引擎524将概念分析操作的结果输出到规范化引擎526,规范化引擎526规范化结果并且直接将规范化后的结果输出到后处理引擎528。后处理引擎528编辑规范化后的结果并且执行分级操作,以便对结果进行分级并生成被输出到主机系统500的N元素输出向量530。结果分级可以根据由针对每个批生成的输出向量中的非0值指定的强度对结果进行分级,以便生成单个分级后的N元素输出向量530。
应认识到,在上面的操作中,矩阵表示数据结构514只需加载到加速器中一次,并且可以用作所有线程批量执行的基础。此外,在由于矩阵变化(并且因此,表示语料库的网络/图的变化)而需要更新或修改矩阵表示数据结构514之前,加载的矩阵表示数据结构514可以用于其它信息源510的后续处理。因此,对于由加速器执行的大多数操作,仅需来自主机系统500的输入是来自信息源510的已提取概念列表512。此外,来自加速器520的输出是N元素向量。因此,主机系统500与加速器520之间的数据传输被最小化。此外,因为在加速器内部执行所有操作而不必利用主机系统资源,并且这些操作与由主机系统500执行的操作并行执行,所以增加执行概念分析操作的速度。
如上所述,可被执行以便改进概念分析操作的性能的一种优化是重新组织大稀疏矩阵,以使得非0条目彼此靠近集中。这最小化由于将矩阵的各个部分推测性地加载到存储器中而导致的高速缓存未命中。在示例性实施例中,可以通过在生成矩阵表示之前使用此类矩阵重新排序而获得类似的性能改进,因为将矩阵的各个部分加载到加速器的存储器中以便每个线程针对其运行。存在于加载到存储器中的部分中的非0条目越多,操作越有效。用于执行此类非0条目集中的一种方式是利用非0条目的集群。图6和7示出这种基于集群的矩阵重新排序操作,其可以与示例性实施例的机制一起使用以便将矩阵表示数据结构514提供给加速器520。
图6是示出根据一个示例性实施例的通过使用基于集群的矩阵重新排序操作获得的矩阵条目排序的实例图。如图6中所示,作为示例性实施例机制的操作结果生成的重新排序矩阵具有集中到对角线附近的集群610中的非0条目或元素(例如,集群612-616),并且远离对角线的那些非0条目(例如,集群622-624)被紧密地共同布置到对角线外的集群620中。每个集群610、620(在图6中表示为矩阵的阴影区域)具有彼此松散关联的非0条目,这意味着对应于这些条目或元素的节点与同一集群610、620中的其它节点具有的连接数量大于节点与集群610、620外部节点具有的连接数量,例如,电影明星与其它电影明星具有的连接多于与公众具有的连接,并且因此,电影明星将是集群。允许矩阵的非阴影区域630包括少量的非0条目或元素(以下称为“元素”)。
即使针对具有接近无标度(near-scale-free)图拓扑的大型矩阵,也会实现图6中示出的矩阵排序。如图6中所示,没有由于矩阵重新排序操作生成的显著非0元素块。因此,已知重新排序算法(例如Cuthill-McKee和分割算法)遇到的高速缓存效率和运行时执行方面的改进限制对于示例性实施例的矩阵重新排序机制而言并不是问题。相反,矩阵重新排序机制针对大型接近无标度图拓扑矩阵实现了Cuthill-McKee算法寻求的理想重新排序,其中仅存在一些对角线外的集群620,但这些集群被集中到它们自己的集群620中。
这种沿着对角线组织非0元素的集群610、620的益处是在矩阵运算期间减少了高速缓存未命中。即,当执行矩阵乘法运算时,矩阵乘法运算通常在矩阵中查找非0元素。因为这些非0元素被集中到集群610、620中,所以当集群被加载到高速缓冲存储器中时,发生更多高速缓存命中,而高速缓存未命中更少。对于沿着重新排序后的矩阵的对角线定位的集群610而言尤为如此,其中即使当额外集群被加载到高速缓冲存储器中时,集群也彼此接近。即使对于远离对角线的那些非0元素,这些非0元素中的大多数也被聚集在对角线外的集群620中,以使得当这些集群被加载到加速器520的高速缓冲存储器中时,当访问输入/输出向量中的对应条目时存在更少的高速缓存未命中。尽管某些非0元素未在集群610、620中(即,位于重新排序后的矩阵的非阴影区域630中),但通过集群获得的效率增加超过未位于集群610、620中的相对较少的非0元素。
示例性实施例的机制的集群方法将非0元素集中到紧密关联的集群610、620中,这与已知的Cuthill-McKee算法相反,该算法更多地涉及图距离,如由Cuthill-McKee算法中使用的各种级别所表示的那样。因为Cuthill-McKee更多地涉及图距离,所以可能具有大型非0元素块,它们不会改进高速缓存效率,如上面讨论的那样。此外,对于分割算法,问题是查找分离的数据集,以使得如果从矩阵中取出数据集,则其余数据将被连接。再次地,这可以导致大型非0元素块,它们不会改进高速缓存效率,如上面讨论的那样。因为示例性实施例的机制使用紧密关联的集群610、620,所以大型非0元素块的可能性显著降低。此外,因为示例性实施例的机制组织集群610、620以便减少跨集群连接和跨集群连接长度,所以集群610、620以紧凑配置被组织在重新排序后的矩阵中,导致更有效地将非0元素加载到高速缓冲存储器中,从而减少高速缓存未命中。
为了例示通过实现示例性实施例的机制获得的效率增加量,考虑以下表1,表1示出稀疏矩阵与向量乘法基准的结果,其用于评估具有和没有示例性实施例的矩阵重新排序机制的Intel Nehalem处理器上的高速缓存未命中数量。
表1–稀疏矩阵与向量乘法基准
该表的每行表示硬件计数器。第一行是指令总数。第二行是存储器加载指令的数量。第三行是L2高速缓存未命中的数量。第四行是L3高速缓存未命中的数量,它们最昂贵并且在运行时中占据主要地位。应该注意,通过使用示例性实施例的重新排序机制,L3高速缓存未命中减少了几乎一半。通过示例性实施例的重新排序机制,测量的运行时执行也减少了几乎一半,这远优于通过Cuthill-McKee或分割算法实现的10%改进。
示出通过示例性实施例的基于集群的矩阵重新排序机制获得的结果之后,以下是这些机制和作为这种基于集群的矩阵重新排序的一部分执行的操作的更详细讨论。应认识到,以下讨论涉及用于实现基于集群的矩阵重新排序的一个示例性实施例并且并非旨在作为限制,而是例示用于执行这种重新排序的一种实例方法和机制。如所属技术领域的普通技术人员鉴于本说明将显而易见的是,可以对示例性实施例做出许多修改而不偏离本发明的精神和范围。
图7是示出根据一个示例性实施例的基于集群的实例矩阵重新排序操作的流程图。图7中示出的基于集群的矩阵重新排序操作可以以专门配置的硬件(其被配置为实现以下描述的操作)、在硬件上执行并且被配置为实现这些操作的软件,或者专门配置的硬件和在硬件上执行的软件的任意组合来实现。在一个示例性实施例中,图7中示出的操作在主机系统中作为语料库获取或预处理操作的一部分执行,以便重新组织表示语料库中的概念及其关系的矩阵,从而实现图6中示出的组织。这种重新组织后的矩阵然后可以用于生成一个或多个矩阵表示数据结构,将这些数据结构提供给示例性实施例的加速器以便加速概念分析操作,如先前讨论的那样。
为了与图7中给出的操作说明关联地示出示例性实施例的操作,将使用其中矩阵M包括对应于社交网络服务用户的索引或节点的一个实例,其中对应于索引或节点的非0元素指示由索引或节点表示的用户之间的关系。应认识到,这只是一个实例,并且示例性实施例的机制可以与针对具有接近无标度图拓扑的任何大型矩阵执行的任何矩阵运算一起使用。例如,代替社交网络服务用户,矩阵M可以具有节点和边,节点表示在信息语料库中发现的概念,边表示这些概念之间的已标识关系。
如图7中所示,操作开始于分析输入矩阵M以便标识矩阵M中的团(clique)(步骤710)。输入矩阵M可以是一组收集的数据,该数据表示特定信息对象、概念、实体等之间的连接或关系,这些信息对象、概念、实体等被指定为矩阵M的索引。例如,在社交网络环境中,矩阵M的索引可以表示社交网络服务用户、其属性、在用户之间交换的通信等。在问答环境或因特网搜索环境中,矩阵M的索引可以表示信息语料库中的文档的特性(概念),该信息语料库被用作执行问答或因特网搜索的基础。因此,输入矩阵M中的索引表示适合于执行知识提取、推理或其它分析操作的任何信息、概念或实体。两个索引的交叉点处的条目存储值,该值指示由交叉的索引表示的信息、概念或实体之间存在或不存在关系。
团被定义为矩阵的一组行和列索引(或节点),以使得它们的子矩阵包括所有非0条目。例如,如果在矩阵M中表示的第一用户连接到第二用户并且反之亦然,则两个用户可以构成团。可以通过以下操作标识团:使用起始节点或索引,并且标识矩阵M中连接到该起始节点或索引的其它节点或索引并反之亦然,即,索引的交集标识矩阵M中的非0值元素。可以针对连接到起始节点或索引的每个节点或索引重复该过程,其中某些连接的节点或索引(以下简称为“节点”)可以是团的一部分,而其它则不是。即,例如,如果John Smith(约翰·史密斯)是起始节点并且与Pete Johnson(皮特·约翰逊)具有“friend(朋友)”连接,并且Pete Johnson与John Smith具有“friend”连接,则John Smith和Pete Johnson可以构成团。如果Pete Johnson与John Smith没有连接,则Pete Johnson不被包括在团中,尽管如以下讨论的那样,他可能被包括在后续生成的团中。
可以针对输入矩阵M中的每个节点重复生成团的过程,以使得生成多个团。可以在配置参数中指定最小大小要求,其指示对于要维护的团,必须存在于团中的最小节点数量,以便进一步用作图7中的其它操作的起始点,例如,团必须具有至少20个节点,其中丢弃具有少于20个节点的较小大小的团。
生成团作为矩阵的已连接节点的初始集群之后,执行集群发展操作以便从每个团发展集群(步骤720)。在将团发展成集群中,将已经不是团一部分的矩阵节点指定给集群。节点到集群的指定基于对应行/列与已经在集群中的节点具有的连接数量。即,将节点添加到该节点与其具有最多连接的集群,即,非0值元素与集群的其它节点关联。这可以使某些节点没有集群,前提是节点与其它节点没有任何连接或者与其它节点具有相对较少的连接。随着节点加入集群,更新表示该集群的数据结构并且将新添加的节点用作添加额外节点的基础,例如,如果将John Smith添加到表示Mary Monroe(玛丽·梦露)的朋友的用户集群,则John Smith的朋友可以进一步用作判定是否应该将这些朋友中的任意一个添加到Mary Monroe的朋友集群的基础。
这样,集群从初始的团发展成较大集群。可以在基于集群的矩阵重新排序机制的配置参数中设置集群的最大集群大小。可以根据其中实现基于集群的矩阵重新排序机制的计算架构中的存储层次结构参数(例如,高速缓存大小)设置最大集群大小。例如,可以将集群最大大小设置为等于架构中的特定高速缓存大小的某一比例的大小,例如,L3高速缓存大小的X%,或者作为另一个实例,加速器520的存储器大小。
在已处理矩阵的每个非0元素并且以上述方式将对应节点添加到集群之后,可以通过允许将节点重新指定给其它集群而完善集群(步骤730)。例如,可以分析每个集群的节点,以便判定它们与其它集群的节点具有的连接是否多于与其当前指定的集群中的节点具有的连接。如果集群A中的某个节点与集群B中的节点具有更多连接(非0元素),则可以将该节点重新指定给集群B。响应于确定重新指定将导致跨集群连接(或边)的总数减少而不违反集群最大大小限制,基于集群的矩阵重新排序机制可以允许重新指定。因此,如果集群B已经处于最大大小,则可以拒绝重新指定。此外,如果重新指定未减少跨集群连接总数,则可以拒绝重新指定。可以针对在步骤720中生成的每个集群的每个节点执行这种完善。
在步骤730中完善节点的集群之后,对产生的集群进行排序以便最小化跨集群连接(或边)的总长度,即,最小化节点条目距矩阵的对角线的远离程度(步骤740)。此外,作为该操作的一部分,根据跨集群连接的两端节点分布来串接该连接,即,最小化该连接的两个节点之间的连接长度。该操作可以实现为动态编程算法,所述动态编程算法每次优化一个部分解,并且逐集群地递增该部分解,直到所有集群均被排序为止。
尽管不是必需而是可选操作,但可以在集群中对有序集群中的节点本身进行局部排序(步骤750)。集群的这种局部排序移动非0条目以使其更接近集群中的对角线,并且移动具有跨集群连接的节点以使其更接近集群的边界。即,当在集群中排序时,如果集群中的矩阵节点与在该集群之前排序的其它集群的节点具有连接(非0元素),则节点位于该集群中的前面位置(朝向“前端”),以使得节点的跨集群非0更接近重新排序后的矩阵的对角线。以同样的方式,如果节点与在该集群之后排序的其它集群具有连接(非0元素),则节点位于该集群中的后面位置(朝向“后端”)。在局域级别,可以通过执行如上讨论的相同操作(步骤710-740)但针对局域集群执行,实现集群中的此类重新排序,或者可以使用其它已知算法对非0元素进行重新排序,例如Cuthill-McKee或分割算法。应该注意,可以针对个体集群使用已知算法以便实现集群内重新组织,因为集群是相对较小并且更强烈连接的子图(并非如稀疏填充的那样),以使得高速缓存效率在重新排序算法之间没有大的差异。
应认识到,当执行该重新排序过程或者在完成该重新排序过程之后,更新查找表中的向量以便表示已移动的元素的新位置。例如,查找表可以包括具有原始矩阵M的索引位置的第一向量以及具有在执行重新排序之后的新位置的第二向量,其中指针从一个向量条目到另一个向量条目以便允许将元素的原始位置映射到其在重新排序后的矩阵中的新位置。可以输出该查找表和重新排序后的矩阵以便用于执行矩阵运算,并且最后,执行知识提取操作、推理操作或其它分析操作(步骤760)。
在运行时操作期间,输出查找表和重新排序后的矩阵可以用于生成矩阵表示,以便用于执行矩阵运算作为知识操作(即,知识提取、推理、分析等)的一部分,在上面加速器520的情况下,知识操作可以是在加速器520中执行的概念分析操作(步骤770)。然后可以输出该知识操作的结果(步骤780),例如可以由加速器输出N元素向量。因此,示例性实施例的机制专门配置在其上实现这些机制的计算设备,以便专门执行这种基于集群的矩阵排序操作,该操作不由通用计算设备执行,并且其改进计算设备的操作和功能。此外,示例性实施例的机制通过在矩阵运算期间增加计算设备的高速缓存效率,修改在其上实现这些机制的计算设备的功能和性能。
应认识到,可以在运行时矩阵运算期间使用重新排序后的矩阵和查找表之前,实现步骤710-760。即,这些步骤710-760可以用于矩阵的预处理,其中将得到的重新排序后的矩阵和查找表输出到运行时系统组件以便用于执行其运行时操作。这样,每次在运行时期间执行矩阵运算(其被表示为步骤770-780)时,不需要对矩阵进行重新排序。将此应用于图5中的加速器520,主机系统500可以将步骤710-760作为预处理操作执行,而基于输入到加速器520的矩阵表示,在加速器520中执行步骤770-780,基于重新排序后的矩阵生成该矩阵表示。
也如上所述,加速器520可以接收一个或多个矩阵表示数据结构作为输入,这些数据结构以压缩格式表示矩阵。压缩格式专注于表示矩阵中的非0值,而假设矩阵中未以压缩格式表示的任何条目是矩阵中的0条目。存在可以使用的各种类型的格式,包括Yale(耶鲁)稀疏矩阵格式、CSR、CSC等。可以通过根据被乘数向量的稀疏度(或密度),动态修改用于执行构成概念分析操作的矩阵向量乘法运算的迭代的表示,实现概念分析操作的有效执行。因此,在某些示例性实施例中,可以使用单个矩阵表示,其针对矩阵表示实现单一压缩格式,例如Yale、CSR、CSC或另一种已知或以后开发的压缩格式。在其它示例性实施例中,可以将具有不同压缩格式的多个矩阵表示数据结构提供给加速器520,以使得加速器基于确定的被乘数向量稀疏度(或密度),动态选择矩阵表示数据结构。
例如,已认识到,CSR格式化矩阵更适合于稠密向量(即,具有的非0值多于0值的向量)的矩阵向量乘法运算的并行执行。这是因为CSR逐行对矩阵的非0值进行排序,并且允许将行的非0值和与行相乘的向量的值分组在一起。因此,可以将行与向量元素的每个乘法分配给不同工作方(worker),例如加速器520中的不同线程。
例如,图8A示出使用矩阵的紧凑稀疏行(CSR)格式化数据结构执行的矩阵向量乘法运算以及用于执行部分矩阵向量乘法运算的示例伪代码。如图8A中所示,矩阵A 810乘以向量X 820以使得矩阵向量乘法运算的核心是y(i)=y(i)+(A(i,j)*x(j)),其中再次i是行索引,j是列索引,y是矩阵向量乘法运算的部分结果,A(i,j)是矩阵A中i,j处的条目,并且x(j)是向量X中对应于列索引j的值。
如图8A中所示,矩阵A 810的数据结构表示830包括值(val)数组或向量832、列索引(ind)数组或向量834,以及行指针(ptr)数组或向量836。val数组832存储矩阵A中非0条目的值(从左到右,然后从上到下)。因此,矩阵A的行0中的非0值首先出现(如由阴影图案所示),然后出现行1、行2等中的非0值。ind数组834存储val数组832中的对应值的列索引。ptr数组836存储指向针对ind数组834中的值开始行的位置的指针。
如用于执行部分矩阵向量乘法运算的伪代码中所示,对于每行i,并且对于ptr数组836中的每个指针值k,部分矩阵向量乘法运算结果被生成为y[i]=y[i]+val[k]*x[ind[k]],基本上针对矩阵A的每行计算上述矩阵向量相乘核心。结果是加权行的总和。应该注意,与每行关联的计算可以基本上同时并行执行,并且因此,可以分配给不同工作方。
图8B示出使用矩阵的紧凑稀疏列(CSC)格式化数据结构执行的矩阵向量乘法运算以及用于执行部分矩阵向量乘法运算的示例伪代码。如图8B中所示,矩阵A 840乘以向量X850以使得矩阵向量乘法运算的核心再次是y(i)=y(i)+(A(i,j)*x(j)),其中再次i是行索引,j是列索引,y是矩阵向量乘法运算的部分结果,A(i,j)是矩阵A中i,j处的条目,并且x(j)是向量X中对应于列索引j的值。
如图8B中所示,矩阵A 840的数据结构表示860包括值(val)数组或向量862、行索引(ind)数组或向量864,以及列指针(ptr)数组或向量866。val数组862存储矩阵A中非0条目的值(从左到右,然后从上到下)。因此,矩阵A的行0中的非0值首先出现(如由阴影图案所示),然后出现行1、行2等中的非0值。ind数组864存储val数组862中的对应值的行索引。ptr数组866存储指向针对ind数组864中的值开始列的位置的指针。
如用于执行部分矩阵向量乘法运算的伪代码中所示,对于每列i,并且对于ptr数组866中的每个指针值k,部分矩阵向量乘法运算结果被生成为y[ind[k]]=y[ind[k]]+val[k]*x[k],基本上针对矩阵A的每列计算上述矩阵向量相乘核心。这导致加权列的总和。应该注意,可以分配与每个向量值x[k]关联的计算以便少量非0x[k]值利用叠加。因为x向量可以由许多单条目向量的总和表示,所以可以简单地将这些向量的对应输出(y[])相加在一起以便获得最终输出向量。
因此,尽管CSR和CSC格式化数据结构可以用于在存储器中以紧凑方式表示大型稀疏矩阵,但基于在矩阵向量乘法运算中与矩阵相乘的向量的稀疏度,这些格式的每一种针对数据处理系统中的并行执行提供不同的效率级别。矩阵的CSR表示适合于稠密向量X的并行执行并且更有效,而矩阵的CSC表示适合于稀疏向量X并且更有效。示例性实施例可以利用格式效率方面的这种差异提供一种用于执行矩阵向量乘法运算的混合方法。可以根据被乘数向量的稀疏度(或密度),选择在示例性实施例中用于加速器520中的概念分析操作的特定迭代的矩阵表示。
因为用于从大型网络或矩阵获得信息的知识提取、信息提取、关系分析和其它复杂过程利用矩阵运算(其包括矩阵向量乘法运算)的多次迭代,所以矩阵与其相乘的向量的密度往往随着后续迭代而增加。因此,向量X在过程的初始迭代中可以相当稀疏,而在随后迭代中向量X可以变得更稠密。例如,初始迭代可以确定“what concepts are related toconcept A(什么概念与概念A相关)”,这可以通过矩阵M乘以向量X来确定,其中向量中非0值的条目是对应于概念A的条目。该操作可以输出结果作为具有多个非0元素的输出向量Y。为了确定何种其它概念可以与概念A相关,需要矩阵M乘以向量Y以便确定何种概念与向量Y中的概念相关。因此,可以生成输出向量Z,其包括甚至更大的一组非0元素。这可以一直继续,直到输出向量与前一个输出向量的非0元素数量的差收敛,即,不超过预定阈值(在该点过程完成),并且结果是向量输出的组合。因此,可以看到,随着向量X、Y和Z等随着过程的每次后续迭代而变得更稠密,不同矩阵表示可以更有效用于后续迭代的并行执行。
在某些示例性实施例中,示例性实施例通过提供预定迭代次数(其中使用第一矩阵表示,并且随后在后续迭代期间切换到第二矩阵表示),或者提供用于评估在过程迭代期间执行的矩阵向量乘法运算的向量稀疏度的机制(其中使用阈值稀疏度值判定是否应该执行矩阵表示的切换),动态修改在针对大型矩阵运行的概念分析操作的迭代期间使用的矩阵表示。做出矩阵表示的选择,以便最大化被执行的部分矩阵向量乘法运算的并行执行。但在以下流程图中概述这种动态选择以便例示可如何在示例性实施例的加速器520中实现该过程。
图9是示出根据一个示例性实施例的实例混合表示矩阵向量乘法运算的流程图。应认识到,使用图9中示出的过程,操作910-920可以由主机系统500执行,其中操作的其余部分由一个或多个加速器520代表主机系统执行。
如图9中所示,操作开始于接收矩阵,该矩阵是执行矩阵向量乘法运算的基础(步骤910)。该矩阵是大型数据集的表示,该大型数据集又可以表示实体、概念、信息等之间的许多不同类型的关系,具体取决于其中实现示例性实施例的机制的特定系统。例如,在文档语料库的一个或多个电子文档中,矩阵可以表示概念和概念之间关系,问答(QA)系统(例如可从位于纽约阿蒙克的国际商业机器(IBM)公司获得的IBM WatsonTM QA系统)针对该文档语料库运行。在此类情况下,矩阵可以作为获取操作的一部分生成,在该获取操作中QA系统获取语料库以便用于执行问答操作。概念及其关系的网络或图可以具有表示概念的节点和表示概念之间关系的边,其中这些关系的强度由与边关联的特定值来指示。然后可以将该网络或图转换为矩阵表示,其中概念(节点)是矩阵的索引,而边被表示为矩阵中位置处的值。
接收该矩阵作为输入之后,示例性实施例的机制生成该矩阵的多个压缩表示数据结构,每个压缩表示数据结构用于该矩阵的不同类型压缩表示(步骤920)。压缩表示以压缩方式表示矩阵,优选地通过将表示专注于指定矩阵中的非0值,并且假设未由压缩表示所表示的任何值是0值。例如,在一个示例性实施例中,多个压缩表示包括CSR表示和CSC表示。还可以使用其它表示,例如包括但不限于Yale稀疏矩阵表示。在某些示例性实施例中,压缩表示将矩阵表示为多个数组或向量,这些数组或向量专注于输入矩阵中存在的非0值。
基于诸如文档、输入问题之类的信息源生成向量,其中向量指定感兴趣的实体、概念、信息等(步骤930)。例如,向量可以针对不同概念具有多个条目,这些条目可以是评估矩阵的基础,其中将这些条目中的一个设置为非0值以便指示感兴趣的特定概念,例如图9中的概念。例如,如果过程是标识可以与矩阵中的概念i相关的所有概念,则可以将概念i的向量条目设置为非0值,以使得当向量乘以矩阵时,仅矩阵中与概念i关联的那些非0值将在输出向量中生成非0输出,即,仅那些概念直接与概念i相关,并且因此,与概念i具有边或关系将导致输出非0值。
对于过程的一组初始迭代,选择第一矩阵表示数据结构以便用于执行部分矩阵向量乘法运算(步骤940)。在一个示例性实施例中,该第一矩阵表示可以是CSC矩阵表示数据结构,如上讨论的,其对于稀疏向量是高效的。例如,对于在向量中具有单个非0值(例如,概念i)的向量输入,在过程的第一次迭代942期间,可以选择CSC矩阵表示数据结构,并且可以执行基于CSC的稀疏矩阵乘法运算以便生成部分矩阵向量乘法输出。备选地,因为向量仅具有单个非0值,所以可以在CSC形成数据结构中执行查找以便获得第i个向量,然后使用该向量作为第一次迭代的部分矩阵向量乘法运算的输出。
对于过程的第二次迭代944,CSC表示数据结构可以再次用于通过使用第一次迭代的向量输出作为与该第二次迭代的矩阵相乘的向量,针对第二次迭代执行部分矩阵向量乘法运算。在该迭代期间,生成CSC表示数据结构(其基于第一次迭代的输出向量)的列的加权总和。如上面针对图8B的CSC表示说明中所述,可以针对x[k]中的少量非0分配x[k]评估,其中结果是加权列的总和。因此,可以使用多个工作方并行化第二次迭代944。
如图9中所示,在其中使用第一矩阵表示数据结构执行部分矩阵向量乘法运算(步骤940)的一组初始迭代之后,使用第二矩阵表示数据结构(针对不同工作方将该结构分为多个部分)以分布/并行方式执行矩阵向量乘法运算(步骤950)。例如,在一个示例性实施例中,第二矩阵表示数据结构可以是矩阵的CSR表示。如上面针对图8A讨论的,可以将矩阵的不同行的部分矩阵向量乘法运算分配给大量工作方,以使得可以基本上同时执行针对多个行的计算。
在此,除了上面步骤940的并行化之外,也可以使用多个工作方(线程)并行执行步骤950。因此,通过选择适合于矩阵向量乘法运算迭代和整体过程中涉及的向量的特定稀疏度的压缩矩阵表示,最大化矩阵向量乘法运算的并行化。工作方可以是同一加速器520中的单独线程,或者当使用多个加速器时,可以是不同加速器520中的不同线程。
可以重复并行部分矩阵向量乘法运算950直到过程的迭代收敛(步骤960)。基于监视输出向量的变化,迭代通常收敛(步骤960)。如果输出向量变化在相对术语和大小方面变得很小,则迭代被视为收敛,并且系统生成输出向量(步骤970)。基于通常表示测试例的基准集,还可以将迭代收敛设置为固定迭代次数。例如,可以基于基准测试将迭代次数设置为5,其中在执行第五次迭代时生成最终输出向量。
然后输出从迭代收敛生成的结果向量输出作为过程的最终结果(步骤970)。例如,如果过程尝试发现与概念A相关的概念,则产生的向量输出将在向量(其对应于直接或间接与概念A相关的概念)中的每个条目中具有非0值,如从矩阵向量乘法运算的多次迭代确定的那样。如先前讨论的,针对示例性实施例的加速器520,可以将由该过程生成的最终结果输出提供给规范化引擎526以便规范化,并且可以将产生的规范化后的输出提供给后处理引擎528以便在将N元素向量530结果返回到主机系统500之前进一步处理。
尽管图9示出其中固定次数的初始迭代使用第一压缩矩阵表示数据结构,而后续迭代使用第二压缩矩阵表示的示例性实施例,但示例性实施例并不限于此。相反,可以基于输入向量稀疏度的评估,动态执行从一个压缩矩阵表示到另一个压缩矩阵表示的切换。应认识到,在迭代的矩阵向量乘法运算中,输入向量是前一次迭代的输出向量。因此,当随着每次迭代而使输入向量稀疏度减小并且输入向量变得更稠密时,压缩矩阵表示可以动态从一个压缩矩阵表示切换到另一个压缩矩阵表示。从向量密度的角度来看,当随着每次迭代而使输入向量密度增加时,可以动态切换压缩矩阵表示。
图10是示出根据一个示例性实施例的用于基于使用混合矩阵表示机制确定输入向量的稀疏度/密度,动态修改用于矩阵运算迭代的压缩矩阵表示的实例操作的流程图。如图10中所示,操作再次开始于接收是执行矩阵向量乘法运算的基础的矩阵(步骤1010)。再次生成和存储矩阵的多个压缩表示数据结构(每个压缩表示数据结构用于矩阵的不同类型的压缩表示)以便用于执行矩阵运算(步骤1020)。在初始迭代期间,以类似于上面图9中的步骤930的方式生成输入向量(步骤1030)。
然后启动矩阵运算的下一次迭代(步骤1040)。在矩阵运算的开始,“下一次迭代”是第一次迭代并且使用在步骤1030中输入的向量。在后续迭代中,输入向量将是从矩阵运算的前一次迭代生成的输出向量。
计算输入向量的稀疏度(或备选地密度)并且将其与一个或多个稀疏度(或密度)阈值相比较(步骤1050)。应认识到,稀疏度和密度是相同特征的两个相对方面。它们均衡量输入向量中的0值与非0值之间的关系。当输入向量中的0值数量大于非0值数量时,输入向量更稀疏或不太稠密。当输入向量中的0值数量小于输入向量中的非0值数量时,则输入向量不太稀疏或更稠密。因此,可以在该运算中评估稀疏度或密度。以下,为了示例目的,将假设使用稀疏度。
基于比较结果,选择对应压缩矩阵表示数据结构以便与当前迭代一起使用(步骤1060)。例如,如果输入向量的稀疏度等于或大于稀疏度阈值(即,向量足够稀疏),则选择第一压缩矩阵表示数据结构(例如,CSC)以便在本迭代期间使用。但是,如果输入向量的稀疏度小于稀疏度阈值(即,输入向量稠密),则选择第二压缩矩阵表示数据结构(例如,CSR)以便在本迭代期间使用。当然,这可以基于其它阈值扩展到其它类型的压缩矩阵表示,以使得当密度继续增加时,可以选择适合于在更高密度输入向量处的并行化执行的其它压缩矩阵表示。
然后使用选定压缩矩阵表示数据结构,以并行方式执行矩阵运算的迭代(步骤1070)。判定迭代是否已收敛(步骤1080),并且如果未收敛,则操作返回到步骤1040,其中输入向量现在是前一次迭代的输出向量。否则,如果迭代已收敛,则输出向量被生成为在迭代期间执行的部分矩阵向量乘法运算的输出向量的聚合(步骤1090)。因此,示例性实施例可以进一步利用基于混合压缩矩阵表示的矩阵向量乘法运算机制,其极大地增加并行执行矩阵向量乘法运算的可能性,并且因此,增加执行整体矩阵运算或处理的效率。
图11是示出根据一个示例性实施例的用于使用一个或多个加速器设备执行概念分析操作的实例操作的流程图。出于本说明的目的,假设矩阵已经被预处理以便生成矩阵的一个或多个压缩格式表示,例如CSC格式化表示和CSR格式化表示。如上所述,相对不太频繁地执行此操作。
如图11中所示,操作开始于接收信息源并且提取在信息源中标识的概念列表(步骤1110)。将概念列表与一个或多个矩阵表示数据结构一起发送到加速器(如果加速器尚未加载矩阵表示数据结构)(步骤1120)。由加速器的初始化引擎处理概念列表以便生成一个或多个输入向量(步骤1130)。将一个或多个输入向量与一个或多个矩阵表示数据结构一起使用以便执行概念分析操作(步骤1140)。如上面讨论的,该概念分析操作可以涉及矩阵向量乘法运算的多次迭代,其中初始迭代可以利用一个或多个输入向量以及所述矩阵表示数据结构之一,并且后续迭代可以利用从前一次迭代产生的向量以及同一或另一个矩阵表示数据结构,具体取决于所使用的向量的密度。可以以并行方式,通过多个线程使用批处理执行该概念分析操作。
由加速器的规范化引擎规范化由概念分析操作生成的结果(步骤1150)。然后由加速器的后处理引擎处理规范化后的结果(步骤1160),以便生成和输出N元素向量(步骤1170)。将N元素向量输出到主机系统,主机系统利用N元素向量在主机系统中执行知识提取、推理或其它分析操作(步骤1180)。操作然后结束。
因此,示例性实施例提供了用于改进概念分析操作的执行的机制,以便与自然语言处理(NLP)系统、知识提取系统等一起使用。具体地说,在某些示例性实施例中,所述机制用作问答(QA)系统(例如IBM WatsonTM QA系统)的一部分,以便当获取文档和/或回答输入问题时,有助于被执行的概念分析操作。示例性实施例的机制提供了这样的能力:将概念分析操作(旨在标识大型稀疏矩阵中的相关概念)的处理卸载到一个或多个加速器,其中最小化主机系统与加速器之间的数据传输。在每个加速器中使用海量数据并行性和多个线程进行批处理还增加执行概念分析操作的效率和速度。此外,使用基于集群的矩阵重新排序和混合矩阵存储格式进一步改进加速器的概念分析操作的效率。
如上所述,应认识到,示例性实施例可以采取完全硬件实施例、完全软件实施例或包含硬件和软件元素两者的实施例的形式。在一个实例实施例中,示例性实施例的机制以软件或程序代码实现,所述软件或程序代码包括但不限于固件、驻留软件、微代码等。
适合于存储和/或执行程序代码的数据处理系统将包括至少一个通过系统总线直接或间接连接到存储器元件的处理器。存储器元件可以包括在程序代码的实际执行期间采用的本地存储器、大容量存储装置以及提供至少某些程序代码的临时存储以减少必须在执行期间从大容量存储装置检索代码的次数的高速缓冲存储器。
输入/输出或I/O设备(包括但不限于键盘、显示器、指点设备等)可以直接或通过中间I/O控制器与系统相连。网络适配器也可以被连接到系统以使所述数据处理系统能够通过中间专用或公共网络变得与其它数据处理系统或远程打印机或存储设备相连。调制解调器、电缆调制解调器和以太网卡只是当前可用的网络适配器类型中的少数几种。
出于示例和说明目的给出了对本发明的描述,并且所述描述并非旨在是穷举的或是将本发明限于所公开的形式。在不偏离所述实施例的范围和精神的情况下,对于所属技术领域的技术人员来说许多修改和变化都将是显而易见的。实施例的选择和描述是为了最佳地解释本发明的原理、实际应用,并且当适合于所构想的特定使用时,使得所属技术领域的其它技术人员能够理解本发明的具有各种修改的各种实施例。在此使用的术语的选择,旨在最好地解释实施例的原理、实际应用或对市场中的技术的技术改进,或者使所属技术领域的其它技术人员能理解在此所公开的实施例。
Claims (12)
1.一种在包括具有处理器和存储器的主机系统以及至少一个加速器设备的系统中用于执行概念分析操作的方法,所述方法包括:
由所述主机系统从信息源提取具有一个或多个概念的集合;
由所述主机系统将所述具有一个或多个概念的集合提供给所述加速器设备;
由所述主机系统提供第一矩阵表示数据结构,和第二矩阵表示数据结构代表电子文档语料库中一个或者多个电子文档的概念和概念之间关系的图;
由所述加速器设备在所述加速器设备内部执行所述概念分析操作,以便生成标识所述电子文档语料库中的概念的输出向量,所述输出向量与从所述信息源提取的所述具有一个或多个概念的集合相关,其中所述执行所述概念分析操作包括:
在加速器设备中生成标识一个或多个概念的列表内的提取概念的输入向量;
通过执行部分矩阵向量乘法运算来执行概念分析操作的第一次迭代,以将输入向量与第一矩阵表示数据结构相乘以生成第一部分矩阵向量乘法输出,其中第一矩阵表示数据结构包括紧凑稀疏列格式化数据结构;
通过使用第二矩阵表示数据结构并行执行部分矩阵向量乘法运算来执行概念分析操作的后续迭代,以形成后续的部分矩阵向量乘法输出,其中第二矩阵表示数据结构包括紧凑的稀疏行格式化数据结构;
响应于确定随后的部分矩阵矢量乘法输出不收敛,使用随后的部分矩阵向量乘法输出和第二矩阵表示数据结构重复概念分析操作的后续迭代;以及
响应于确定随后的部分矩阵向量乘法输出收敛,提供随后的部分矩阵向量多重输出作为输出向量;以及
由所述加速器设备将所述输出向量输出到所述主机系统,其中所述主机系统利用所述输出向量来响应提交给所述主机系统并与所述信息源关联的请求。
2.如权利要求1所述的方法,其中所述加速器设备是具备内核的图形处理单元GPU,所述内核包括用于执行所述概念分析操作的逻辑。
3.如权利要求1所述的方法,其中在所述加速器设备内部执行所述概念分析操作包括:通过执行部分矩阵向量乘法运算来执行概念分析操作的第二次迭代,以将第一矩阵向量乘法输出与第一矩阵表示数据结构相乘,以生成第一矩阵数据结构的列的加权和。
4.如权利要求3所述的方法,其中在所述加速器设备内部执行所述概念分析操作进一步包括在所述加速器设备中对所述输入向量进行批处理,其中所述批处理包括处理多批输入向量,每个批包括对应于所述加速器设备的存储器限制的一组输入向量,并且所述一组输入向量中的每个输入向量包括所述具有一个或多个概念的集合中的至少一个概念。
5.如权利要求1所述的方法,其中在所述加速器设备内部执行所述概念分析操作包括执行所述概念分析操作而不将中间结果存储到主机系统存储装置。
6.如权利要求1所述的方法,其中在所述加速器设备内部执行所述概念分析操作进一步包括规范化所述矩阵向量乘法运算的结果,以及根据在所述输出向量中指定的非0值来执行后处理分级操作以对概念分级。
7.如权利要求1所述的方法,还包括:
在所述主机系统中从与所述信息源关联的用户接收所述请求,其中所述信息源包括所述用户的个人简档;以及
由所述主机系统基于输出到所述主机系统的所述输出向量来响应来自所述用户的所述请求,其中所述主机系统通过基于所述输出向量,根据所述用户的所述个人简档对所述语料库中的概念执行个性化分级来响应所述请求。
8.如权利要求1所述的方法,还包括:
在所述主机系统中接收所述请求;
由所述主机系统存储与所述信息源关联的所述输出向量,其中所述语料库中的每个信息部分具有关联向量,所述关联向量指定与从所述信息部分提取的概念相关的概念;以及
由所述主机系统基于输出到所述主机系统的所述输出向量来响应所述请求,其中所述主机系统通过将所述输出向量与所述语料库中的信息部分所关联的向量相比较以标识所述语料库中与所述信息源相似的信息部分来响应所述请求。
9.如权利要求1所述的方法,其中所述主机系统是问答QA系统,所述信息源是由用户提交给所述QA系统的自然语言问题,并且所述QA系统利用所述输出向量生成所述输入问题的候选答案并对所述候选答案分级。
10.如权利要求1所述的方法,其中所述请求是以下之一:输入到所述主机系统以便由所述主机系统回答的自然语言问题、输入到所述主机系统以请求搜索所述语料库以查找与搜索概念相关的电子文档的搜索请求、或用于在所述语料库中添加文档的请求。
11.一种包括计算机可读存储介质的计算机程序产品,所述计算机可读存储介质具有存储在其中的计算机可读程序,其中当在包括主机系统和加速器设备的数据处理系统上执行时,所述计算机可读程序使得所述数据处理系统执行权利要求1-10之一中的步骤。
12.一种装置,包括:
主机系统,其包括至少一个处理器和耦合到所述处理器的存储器;以及
加速器设备,其耦合到所述主机系统,其中所述存储器包括指令,当由所述主机系统的所述至少一个处理器执行时,所述指令使得所述主机系统执行权利要求1-10之一中的步骤。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/682,676 US10373057B2 (en) | 2015-04-09 | 2015-04-09 | Concept analysis operations utilizing accelerators |
US14/682676 | 2015-04-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106055549A CN106055549A (zh) | 2016-10-26 |
CN106055549B true CN106055549B (zh) | 2019-09-13 |
Family
ID=57111847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610220609.9A Active CN106055549B (zh) | 2015-04-09 | 2016-04-11 | 利用加速器的概念分析操作的方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (2) | US10373057B2 (zh) |
CN (1) | CN106055549B (zh) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10169467B2 (en) * | 2015-03-18 | 2019-01-01 | Microsoft Technology Licensing, Llc | Query formulation via task continuum |
US10007879B2 (en) * | 2015-05-27 | 2018-06-26 | International Business Machines Corporation | Authoring system for assembling clinical knowledge |
US9977808B2 (en) * | 2015-06-22 | 2018-05-22 | Sap Se | Intent based real-time analytical visualizations |
US11017301B2 (en) | 2015-07-27 | 2021-05-25 | International Business Machines Corporation | Obtaining and using a distributed representation of concepts as vectors |
US9798818B2 (en) | 2015-09-22 | 2017-10-24 | International Business Machines Corporation | Analyzing concepts over time |
US10628749B2 (en) | 2015-11-17 | 2020-04-21 | International Business Machines Corporation | Automatically assessing question answering system performance across possible confidence values |
US10282678B2 (en) * | 2015-11-18 | 2019-05-07 | International Business Machines Corporation | Automated similarity comparison of model answers versus question answering system output |
US10785496B2 (en) * | 2015-12-23 | 2020-09-22 | Sony Corporation | Video encoding and decoding apparatus, system and method |
US9558265B1 (en) * | 2016-05-12 | 2017-01-31 | Quid, Inc. | Facilitating targeted analysis via graph generation based on an influencing parameter |
US10885131B2 (en) * | 2016-09-12 | 2021-01-05 | Ebrahim Bagheri | System and method for temporal identification of latent user communities using electronic content |
US10902342B2 (en) | 2016-09-16 | 2021-01-26 | International Business Machines Corporation | System and method for scoring the geographic relevance of answers in a deep question answering system based on geographic context of an input question |
US10552461B2 (en) * | 2016-09-16 | 2020-02-04 | International Business Machines Corporation | System and method for scoring the geographic relevance of answers in a deep question answering system based on geographic context of a candidate answer |
US10540398B2 (en) * | 2017-04-24 | 2020-01-21 | Oracle International Corporation | Multi-source breadth-first search (MS-BFS) technique and graph processing system that applies it |
US10186011B2 (en) * | 2017-04-28 | 2019-01-22 | Intel Corporation | Programmable coarse grained and sparse matrix compute hardware with advanced scheduling |
US10574777B2 (en) | 2017-06-06 | 2020-02-25 | International Business Machines Corporation | Edge caching for cognitive applications |
TW201926147A (zh) * | 2017-12-01 | 2019-07-01 | 阿比特電子科技有限公司 | 電子裝置、加速器、適用於神經網路運算的加速方法及神經網路加速系統 |
US11170158B2 (en) | 2018-03-08 | 2021-11-09 | Adobe Inc. | Abstractive summarization of long documents using deep learning |
US11012423B2 (en) | 2018-09-25 | 2021-05-18 | International Business Machines Corporation | Maximizing resource utilization through efficient component communication in disaggregated datacenters |
US10671557B2 (en) | 2018-09-25 | 2020-06-02 | International Business Machines Corporation | Dynamic component communication using general purpose links between respectively pooled together of like typed devices in disaggregated datacenters |
US11650849B2 (en) | 2018-09-25 | 2023-05-16 | International Business Machines Corporation | Efficient component communication through accelerator switching in disaggregated datacenters |
US11163713B2 (en) | 2018-09-25 | 2021-11-02 | International Business Machines Corporation | Efficient component communication through protocol switching in disaggregated datacenters |
US10831698B2 (en) | 2018-09-25 | 2020-11-10 | International Business Machines Corporation | Maximizing high link bandwidth utilization through efficient component communication in disaggregated datacenters |
US10802988B2 (en) | 2018-09-25 | 2020-10-13 | International Business Machines Corporation | Dynamic memory-based communication in disaggregated datacenters |
US11182322B2 (en) | 2018-09-25 | 2021-11-23 | International Business Machines Corporation | Efficient component communication through resource rewiring in disaggregated datacenters |
US10915493B2 (en) | 2018-09-25 | 2021-02-09 | International Business Machines Corporation | Component building blocks and optimized compositions thereof in disaggregated datacenters |
US10637733B2 (en) | 2018-09-25 | 2020-04-28 | International Business Machines Corporation | Dynamic grouping and repurposing of general purpose links in disaggregated datacenters |
CN111078283B (zh) * | 2018-10-19 | 2021-02-09 | 中科寒武纪科技股份有限公司 | 运算方法、装置及相关产品 |
US11068797B2 (en) * | 2018-10-31 | 2021-07-20 | International Business Machines Corporation | Automatic correction of indirect bias in machine learning models |
JP6991431B2 (ja) * | 2019-01-04 | 2022-01-12 | バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド | ホストシステムとデータ処理アクセラレータの間の通信を保護するための方法およびシステム |
CN111435409B (zh) * | 2019-01-11 | 2024-05-07 | 国际商业机器公司 | 动态查询处理和文档检索 |
US11216459B2 (en) * | 2019-03-25 | 2022-01-04 | Microsoft Technology Licensing, Llc | Multi-layer semantic search |
US11636173B2 (en) * | 2019-03-28 | 2023-04-25 | SK Hynix Inc. | Method for candidate selection and accelerator for performing candidate selection |
CN110110063B (zh) * | 2019-04-30 | 2023-07-18 | 南京大学 | 一种基于哈希学习的问答系统构建方法 |
CN110727695B (zh) * | 2019-09-29 | 2022-05-03 | 浙江大学 | 面向新型供电城轨列车数据运维的自然语言查询解析方法 |
US11222166B2 (en) | 2019-11-19 | 2022-01-11 | International Business Machines Corporation | Iteratively expanding concepts |
CN111049887A (zh) * | 2019-11-29 | 2020-04-21 | 天脉聚源(杭州)传媒科技有限公司 | 基于动态搜索策略的下载控制方法、系统及存储介质 |
US11411934B2 (en) * | 2019-12-10 | 2022-08-09 | Baidu Usa Llc | System and method to securely broadcast a message to accelerators with switch |
CN111538825B (zh) * | 2020-07-03 | 2020-10-16 | 支付宝(杭州)信息技术有限公司 | 知识问答方法、装置、系统、设备及存储介质 |
CN112667679B (zh) * | 2020-12-17 | 2024-02-13 | 中国工商银行股份有限公司 | 数据关系的确定方法、装置和服务器 |
CN114697326B (zh) * | 2022-03-17 | 2024-04-30 | 浪潮云信息技术股份公司 | 一种边缘计算场景下多边通信的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737112A (zh) * | 2012-04-25 | 2012-10-17 | 北京航空航天大学 | 基于表现语义分析的概念相关度计算方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3870491B2 (ja) * | 1997-07-02 | 2007-01-17 | 松下電器産業株式会社 | 画像間対応検出方法およびその装置 |
US8775495B2 (en) | 2006-02-13 | 2014-07-08 | Indiana University Research And Technology | Compression system and method for accelerating sparse matrix computations |
US7688748B2 (en) | 2006-09-22 | 2010-03-30 | The Hong Kong Polytechnic University | Methods and apparatus for ranking a node in a network having a plurality of interconnecting nodes |
US8627330B2 (en) * | 2008-01-03 | 2014-01-07 | Hewlett-Packard Development Company, L.P. | Workload manager managing a workload of an enterprise data warehouse |
US8275803B2 (en) | 2008-05-14 | 2012-09-25 | International Business Machines Corporation | System and method for providing answers to questions |
US8250069B2 (en) | 2008-10-14 | 2012-08-21 | University Of Washington | Green's function formulations for pagerank algorithm using helmholtz wave equation representations of internet interactions |
US8392789B2 (en) * | 2009-07-28 | 2013-03-05 | Texas Instruments Incorporated | Method and system for decoding low density parity check codes |
US8280838B2 (en) | 2009-09-17 | 2012-10-02 | International Business Machines Corporation | Evidence evaluation system and method based on question answering |
US20110125734A1 (en) | 2009-11-23 | 2011-05-26 | International Business Machines Corporation | Questions and answers generation |
WO2011156247A2 (en) | 2010-06-11 | 2011-12-15 | Massachusetts Institute Of Technology | Processor for large graph algorithm computations and matrix operations |
US9396162B2 (en) * | 2010-07-22 | 2016-07-19 | John APPLEYARD | Method and apparatus for estimating the state of a system |
WO2012047541A1 (en) | 2010-09-28 | 2012-04-12 | International Business Machines Corporation | Providing answers to questions using multiple models to score candidate answers |
WO2012047557A1 (en) | 2010-09-28 | 2012-04-12 | International Business Machines Corporation | Evidence diffusion among candidate answers during question answering |
WO2012142186A2 (en) * | 2011-04-11 | 2012-10-18 | Child Timothy | Database acceleration using gpu and multicore cpu systems and methods |
US8601030B2 (en) | 2011-09-09 | 2013-12-03 | International Business Machines Corporation | Method for a natural language question-answering system to complement decision-support in a real-time command center |
US9069844B2 (en) * | 2011-11-02 | 2015-06-30 | Sap Se | Facilitating extraction and discovery of enterprise services |
US8594217B2 (en) * | 2011-12-06 | 2013-11-26 | The Mathworks, Inc. | Parallel implementation of maximum a posteriori probability decoder |
US9317482B2 (en) | 2012-10-14 | 2016-04-19 | Microsoft Technology Licensing, Llc | Universal FPGA/ASIC matrix-vector multiplication architecture |
JP6083300B2 (ja) * | 2013-03-29 | 2017-02-22 | 富士通株式会社 | プログラム、並列演算方法および情報処理装置 |
US9396164B2 (en) | 2013-10-21 | 2016-07-19 | International Business Machines Corporation | Sparsity-driven matrix representation to optimize operational and storage efficiency |
US9632729B2 (en) | 2014-05-07 | 2017-04-25 | Seagate Technology Llc | Storage compute device with tiered memory processing |
US9697176B2 (en) | 2014-11-14 | 2017-07-04 | Advanced Micro Devices, Inc. | Efficient sparse matrix-vector multiplication on parallel processors |
-
2015
- 2015-04-09 US US14/682,676 patent/US10373057B2/en not_active Expired - Fee Related
-
2016
- 2016-04-11 CN CN201610220609.9A patent/CN106055549B/zh active Active
-
2019
- 2019-08-02 US US16/530,206 patent/US10963794B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102737112A (zh) * | 2012-04-25 | 2012-10-17 | 北京航空航天大学 | 基于表现语义分析的概念相关度计算方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106055549A (zh) | 2016-10-26 |
US20160299975A1 (en) | 2016-10-13 |
US20190354878A1 (en) | 2019-11-21 |
US10963794B2 (en) | 2021-03-30 |
US10373057B2 (en) | 2019-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106055549B (zh) | 利用加速器的概念分析操作的方法和系统 | |
CN105843781B (zh) | 用于提高缓存效率的矩阵排序的方法和系统 | |
Bavishi et al. | AutoPandas: neural-backed generators for program synthesis | |
Chen et al. | Alchemy: A quantum chemistry dataset for benchmarking ai models | |
Djeddi et al. | XMap: results for OAEI 2015. | |
CN103221915A (zh) | 在开域类型强制中使用本体信息 | |
CN101436206A (zh) | 基于本体推理的旅游问答系统答案抽取方法 | |
Megdiche et al. | An extensible linear approach for holistic ontology matching | |
CN106796600A (zh) | 相关项目的计算机实现的标识 | |
Bordawekar et al. | Cognitive database: A step towards endowing relational databases with artificial intelligence capabilities | |
Chen et al. | Web question answering with neurosymbolic program synthesis | |
Nikhath et al. | Feature selection, optimization and clustering strategies of text documents | |
Niu et al. | Scaling inference for markov logic via dual decomposition | |
Paulheim | Machine learning with and for semantic web knowledge graphs | |
Zhang et al. | A survey on graph neural network acceleration: Algorithms, systems, and customized hardware | |
Nashipudimath et al. | An efficient integration and indexing method based on feature patterns and semantic analysis for big data | |
Zoupanos et al. | Efficient comparison of sentence embeddings | |
KR20240023535A (ko) | 텍스트 데이터의 자동 라벨링 | |
Talwalkar et al. | Mlbase: A distributed machine learning wrapper | |
Nguyen et al. | EmbNum+: Effective, efficient, and robust semantic labeling for numerical values | |
Nguyen et al. | An evolutionary approach to class disjointness axiom discovery | |
CN113626574B (zh) | 一种信息查询方法及系统及装置及介质 | |
Chowdhury et al. | A new method for extractive text summarization using neural networks | |
Khurana et al. | A Survey on Semantics in Automated Data Science | |
Wang et al. | Information Classification and Extraction on Official Web Pages of Organizations. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |