CN1869965A - 经由神经网络选择网格执行器的方法和设备 - Google Patents

经由神经网络选择网格执行器的方法和设备 Download PDF

Info

Publication number
CN1869965A
CN1869965A CNA2006100678049A CN200610067804A CN1869965A CN 1869965 A CN1869965 A CN 1869965A CN A2006100678049 A CNA2006100678049 A CN A2006100678049A CN 200610067804 A CN200610067804 A CN 200610067804A CN 1869965 A CN1869965 A CN 1869965A
Authority
CN
China
Prior art keywords
grid
executors
neural network
working cell
computer configuration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2006100678049A
Other languages
English (en)
Inventor
朗达尔·P.·巴特曼
史蒂文·J.·勃兰达
瑟亚·V.·杜吉瑞拉
约翰·J.·斯特切
罗伯特·温斯涅维斯基
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of CN1869965A publication Critical patent/CN1869965A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Debugging And Monitoring (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

提供了这样一种方法、设备、系统、和信号承载介质,它们在一个实施例中将工作单元发送给网格执行器,基于网格执行器的性能创建训练数据,并且经由该训练数据训练神经网络。训练数据包括输入和输出数据对,其中输入数据是工作单元的类型,而输出数据是网格执行器的服务强度。一旦已经训练了神经网络,则后续的工作单元通过将工作单元的类型输入到神经网络中并且接收作为输出来自神经网络的服务强度,来选择它们的网格执行器。然后基于来自神经网络的输出服务强度选择网格执行器。以这种方法,在一个实施例中,可以提高网格性能。

Description

经由神经网络选择网格执行器的方法和设备
技术领域
这个发明通常涉及网格计算机系统,并且尤其涉及经由神经网络选择网格执行器。
背景技术
1948年EDVAC计算机系统的研制经常被引证为计算机时代的开始。从那个时间以来,计算机系统已经逐渐发展成非常复杂的设备,而且可以找到具有许多不同的设置的计算机系统。计算机系统一般包括诸如半导体和电路板之类的硬件以及也称为计算机程序的软件的组合。
多年前,计算机系统是不相互进行通信的独立的设备。但是今天,计算机正越来越多地经由诸如Internet之类的网络相连接。当经由网络连接时,一台经常称作客户机的计算机可以从经常称为服务器的另一台计算机请求服务。此外,在一种情形下起客户机作用的计算机可能在另一种情形下起服务器作用。除了上述的Internet示例之外,公司经常具有将它们的各种计算机连接在一起的内部网络。具有几十万雇员的大公司可以具有几十万台全部经由网络连接的计算机。这些计算机中的许多计算机在大部分时间是空闲的。例如,典型的办公室人员在他们的办公桌上具有计算机,他们每天使用这些计算机达几个小时以检查电子邮件、偶尔编写文档、或者从服务器计算机请求服务。在每天的剩余时间内,在不使用计算机或者计算机空闲时,办公室人员在打电话、开会或者在家中。因此,许多公司把数以亿计的美元投资在未充分利用的计算机上。
这些公司自然想要找出一种使用这个巨大的、未充分利用但是广泛分布的计算机性能的方法。一种使用空闲计算机性能的技术称为网格计算。在网格计算中,网格控制器将在一台计算机中的任务分解为多个较小的工作单元(unit of work,UOW)。网格控制器经由网络并行地将每个工作单元发送给多个接收计算机用于执行。这些接收计算机中的某些计算机快速地执行工作单元并且发送回结果。其它接收计算机较缓慢地执行工作单元并且发送回结果。还有其它的接收计算机从不接收工作单元、接收工作单元但从不执行它、或者执行工作单元但从不发回结果。网格控制器使用为特定工作单元返回的第一个结果并且忽略其它稍后的结果。除通过使用未充分利用的计算机资源而省钱的益处之外,网格计算还通过把大任务分解成为许多较小的工作单元并且并行地执行它们而具有性能益处的优点。
为了提高性能益处,一些网格控制器追踪网络中计算机的可用性,并且将具有最高优先级的工作单元发送给网络中具有最高可用性的计算机。类似地,网格控制器将具有较低优先级的工作单元发送给网络中具有较低可用性的计算机。虽然追踪计算机可用性的技术确实提高了性能,但仍然存在有对更近一步提高网格性能的更先进技术的需要。
发明内容
提供了这样的方法、设备、系统、和信号承载介质,它们在一个实施例中将工作单元发送给网格执行器,基于网格执行器的性能创建训练数据,并且经由该训练数据训练神经网络。该训练数据包括输入和输出数据对,其中输入数据是工作单元的类型,而输出数据是网格执行器的服务强度。一旦已经训练了神经网络,则后续的工作单元通过将工作单元的类型输入到神经网络中并且接收作为输出来自神经网络的服务强度来选择它们的网格执行器。然后基于来自神经网络的输出服务强度选择网格执行器。以这种方法,在一个实施例中,可以提高网格性能。
附图说明
在下文中结合附图描述本发明的各种实施例。
图1描述了用于实现本发明实施例的示例系统的高级框图。
图2描述了根据本发明实施例的示例系统的选定部件的框图。
图3描述了根据本发明的实施例、用于登记网格执行器的处理的流程图。
图4描述了根据本发明的实施例、在训练模式下处理工作单元的流程图。
图5描述了根据本发明的实施例、在性能模式下处理工作单元的流程图。
然而应当理解,附图仅仅说明了本发明的示例实施例,而且因此其不被认为是对本发明的范围的限制,因为本发明可以容许其它相同效果的实施例。
具体实施方式
参见附图,其中在几个附图中自始至终以类似的数字表示类似的部分,图1描述了根据本发明的实施例、经由网络130连接到服务器132的计算机系统100的高级框图表示。在一个实施例中,计算机系统100硬件部件可以由可从纽约Armonk的国际商业机器公司获得的eServer iSeries计算机系统实现。然而,本领域的技术人员应当理解:本发明实施例中的机制和设备同样适用于任何适当的计算系统。计算机系统100对于服务器132起客户机的作用,但是仅仅是为了方便而使用术语“服务器”和“客户机”,而且在其它实施例中,在一种情形下用作服务器的电子设备可以在另一种情形下用作客户机,并且反之亦然。
计算机系统100的主要部件包括一个或多个处理器101、主存储器102、终端接口111、存储设备接口112、I/O(输入/输出)设备接口113、和通信/网络接口114,所有这些部件经由存储器总线103、I/O总线104、和I/O总线接口单元105相连接用于部件间通信。
计算机系统100包含一个或多个通用可编程中央处理单元(CPU)101A、101B、101C、和101D,此处它们通常称为处理器101。在一个实施例中,计算机系统100包含多个处理器,其一般为相对大的系统;然而在另一个实施例中,做为选择,计算机系统100可以是单CPU系统。每个处理器101执行存储在主存储器102中的指令,并且可以包括一或多级的机载(on-board)高速缓存。
主存储器102是用于储存数据和程序的随机存取半导体存储器。在另一个实施例中,主存储器102表示计算机系统100的整个虚拟存储器,而且还可以包括连接到计算机系统100或者经由网络130连接的其它计算机系统的虚拟存储器。主存储器102在概念上是单个单片实体,但是在其它实施例中,主存储器102为更复杂的配置,诸如高速缓存和其它存储器设备的分级结构。例如,主存储器102可以存在于多极高速缓存中,而且这些高速缓存可以进一步由功能划分,以便一个高速缓存保持指令而另一个高速缓存保持由一个或者多个处理器使用的非指令数据。如在任意各种所谓的不均匀存储器存取(NUMA)计算机体系结构中所知的那样,主存储器102可以进一步分布以及与不同的CPU或者CPU集相关联。
主存储器102包括网格管理器150、神经网络152、网格应用154、和网格数据156。虽然将管理器150、神经网络152、网格应用154、和网格数据156举例说明为包含在计算机系统100中的存储器102内,但是在其它实施例中,它们中的一些或者全部可以在不同的计算机系统上,而且可以例如经由网络130远程访问。计算机系统100可以使用虚拟寻址机制,其允许计算机系统100中的程序好象它们仅仅访问大的单个存储实体而不是访问多个较小的存储实体那样进行动作。因此,虽然将网格管理器150、神经网络152、网格应用154、和网格数据156举例说明为包含在主存储器102内,但是这些单元没有必要同时全部完全包含在相同的存储设备中。此外,虽然将网格管理器150、神经网络152、网格应用154、和网格数据156举例说明为是单独的实体,但是在其它实施例中,它们中的某些、或者它们中某些中的部分可以封装在一起。
网格管理器150将由网格应用154生成的任务分解成多个工作单元,并且将这些工作单元发送到服务器132用于执行。在各种实施例中,网格应用154可以是用户应用、第三方应用、操作系统、其中的任何一部分、或者任何其它适当的可执行或者可解释的代码或者语句。网格管理器150使用网格数据156和神经网络152来选择适当的服务器132以接收工作单元。
神经网络152是模拟人的大脑的并行计算模型,其包含多个由自适应的权重相连接的简单处理单元(处理器或者代码)。在各种实施例中,可以监督或者不监督神经网络152。受到监督的神经网络不同于传统的程序之处在于,程序员不用编写算法代码以告知神经网络如何处理数据。作为替代,通过向神经网络给出具有期望的输入/输出关系的训练数据来训练该神经网络。不受监督的神经网络可以从输入数据中提取统计学上重要的特征。这不同于受到监督的神经网络之处在于,在训练期间向神经网络仅仅给出输入数据。神经网络152具有学习机制,其通过在每次训练迭代之后更新自适应权重而进行操作。一旦已经由神经网络152实现了足够的训练水平,例如,神经网络152产生了由训练数据所指定的期望输入/输出关系,则神经网络152的训练停止,而且神经网络152不再更新它的自适应权重。作为替代,神经网络152进入性能模式,在该模式下神经网络152接收输入数据并且使用已训练的自适应权重产生输出数据。
存在有许多不同类型的落入“神经网络”中的计算模型。这些不同的模型具有独特的网络拓扑和学习机制。已知神经网络模型的示例包括反向传播模型、自适应共振理论模型、自组织特征地图模型、自组织TSP网络模型、以及双向关联记忆模型,但是在其它实施例中可以使用任何适当的模型。
在一个实施例中,网格管理器150包括能够在处理器101上执行的指令或者能够由在处理器101上执行的指令解释的语句,以便执行以下参考图3、4、和5进一步描述的功能。在另一个实施例中,网格管理器150可以以微码的形式实现。在另一个实施例中,代替或者除了基于处理器的系统之外,网格管理器150可以经由逻辑门和/或其它适当硬件技术以硬件的形式实现。
存储器总线103提供了数据通信路径,以便在处理器101、主存储器102、和I/O总线接口单元105之间传输数据。I/O总线接口单元105还连接到系统I/O总线104,以便往返于各个I/O单元传输数据。I/O总线接口单元105通过系统I/O总线104与又被称为I/O处理器(IOP)或者I/O适配器(IOA)的多个I/O接口单元111、112、113、和114进行通信。系统I/O总线104可以是例如工业标准PCI总线,或者任何其它适当的总线技术。
I/O接口单元支持与各种存储设备和I/O设备的通信。例如,终端接口单元111支持一个或多个用户终端121、122、123、和124的附连。存储设备接口单元112支持一个或多个直接存取存储设备(DASD)125、126、和127的附连(它们一般为旋转磁盘驱动器存储设备,但是做为选择它们可以是包括被配置为表现为到主机的单个大存储设备的盘驱动器阵列在内的其它设备)。根据需要,可以将主存储器102的内容存储到直接存取存储设备125、126、和127中,并且从中取得主存储器102的内容。
I/O及其它设备接口113提供了到任何各种其它输入/输出设备或者其它类型设备的接口。在图1的示例实施例中示出了两个这样的设备,即打印机128和传真机129,但是在其它的实施例中,可以存在具有不同类型的许多其它这样的设备。网络接口114提供了从计算机系统100到其它数字设备和计算机系统的一条或多条通信路径;这样的路径可以包括例如一个或多个网络130。
虽然图1中将存储器总线103显示为相对简单的单条总线结构,其提供了在处理器101、主存储器102、和I/O总线接口105之间的直接通信路径,但是事实上存储器总线103可以包含多条不同的总线或者通信路径,其可以以诸如分级的点到点链接、星形或者网状配置、多分级总线、平行以及冗余路径、或者任何其它适当类型的配置之类的各种形式中的任意方式进行布置。此外,虽然I/O总线接口105和I/O总线104被示为单个相应的单元,但是计算机系统100实际上可以包含多个I/O总线接口单元105和/或多条I/O总线104。虽然示出了多个I/O接口单元,其把系统I/O总线104和到各个I/O设备的各种通信路径分离开来,但是在其它实施例中,一些或者全部I/O设备直接连接到一条或者多条系统I/O总线。
图1所示的计算机系统100具有多个附连的终端121、122、123、和124,诸如可以是多用户“大型机”计算机系统的典型。通常,在这种情况下,虽然本发明不局限于任何特定大小的系统,但是所附连的设备的实际数目大于图1所示的那些设备的数目。做为选择,计算机系统100可以是单用户系统,其通常仅仅包含单个用户显示器和键盘输入,或者可以是具有少量或者没有直接用户接口、但是从其它计算机系统(客户机)接收请求的服务器或者类似设备。在其它实施例中,计算机系统100可以实现为个人计算机、便携式计算机、膝上型或者笔记本计算机、PDA(个人数字助理)、写字板式计算机、袖珍计算机、电话、传呼机、汽车、远程会议系统、仪器、或者任何其它适当类型的电子设备。
网络130可以是任何适当的网络或者网络的组合,并且可以支持任何适于往返于计算机系统100进行数据和/或代码通信的适当协议。在各种实施例中,网络130可以表示直接或者间接地连接到计算机系统100的存储设备或者存储设备的组合。在一个实施例中,网络130可以支持Infiniband。在另一个实施例中,网络130可以支持无线通信。在另一个实施例中,网络130可以支持诸如电话线或者电缆之类的硬接线通信。在另一个实施例中,网络130可以支持以太网IEEE(电气与电子工程师协会)802.3x规范。在其它实施例中,网络130可以是Internet并且可以支持IP(网际协议)。
在另一个实施例中,网络130可以是局域网(LAN)或者广域网(WAN)。在另一个实施例中,网络130可以是热点服务供应商网络。在另一个实施例中,网络130可以是企业内部网。在另一个实施例中,网络130可以是GPRS(通用分组无线业务)网络。在另一个实施例中,网络130可以是FRS(家庭无线业务)网络。在另一个实施例中,网络130可以是任何适当的蜂窝式数据网络或者基于小区的无线电网络技术。在另一个实施例中,网络130可以是IEEE 802.11B无线网络。在还有的另一个实施例中,网络130可以是任何适当的网络或者网络的组合。虽然示出了一个网络130,但是在其它实施例中,可以存在任何数量(包括零个)(相同或者不同类型)的网络。
服务器132包括网格执行器134,并且还可以包括一些或者全部已经为计算机系统100所描述的硬件部件。在另一个实施例中,服务器132的功能可以实现为在计算机系统100中的应用。
应当理解:图1意图在高级别处描述计算机系统100、网络130、和服务器132的代表性主要部件,其中的单个部件可以具有比图1所表示的部件更大的复杂度,而且可以存在不同于图1所示的那些部件或者除图1所示的那些部件之外的部件,而且这样的部件的数目、类型、和配置可以改变。此处公开了具有这样的额外复杂度或者额外变化的几个具体的示例;应当理解:这些仅仅是示例的方式,而且不一定仅仅有这样的变化。
图1中说明的并且实现了本发明的各种实施例的各种软件组件可以以多种方式实现,包括使用在下文中被称为“计算机程序”或者简单地称为“程序”的各种计算机软件应用、例程、组件、程序、对象、模块、数据结构等。计算机程序一般包含在各个时间驻留在计算机系统100的各个存储器和存储设备中的一条或多条指令,而且当其由计算机系统100中的一个或多个处理器101读取和执行时,导致计算机系统100执行为执行组成本发明的实施例的各个方面的步骤或者单元所必需的步骤。
此外,虽然本发明的实施例已经并且在下文中仍将在完全起作用的计算机系统的环境中进行描述,但是本发明的各个实施例能够以各种形式作为程序产品进行分配,而且本发明可以同样地应用,而与用于实际执行该分配的信号承载介质的具体类型无关。定义这个实施例的功能的程序可以经由各种有形的信号承载介质存储、编码在计算机系统100中以及传递给计算机系统100,该信号承载介质包括但不局限于以下的计算机可读介质:
(1)信息永久地存储在不可重写的存储介质中,该不可重写存储介质例如为诸如CD-ROM、DVD-R、或者DVD+R之类的、附连于计算机系统或者在计算机系统内的只读存储器或者存储设备;
(2)可变信息存储在例如硬盘驱动器(例如,DASD 125、126、或者127)、CD-RW、DVD-RW、DVD+RW、DVD-RAM、或者盘之类的可重写存储介质上;或者
(3)信息由通信或者传输介质、诸如通过例如网络130的计算机或者电话网络传送。
这样的有形信号承载介质,当携带或者编码了指导或者控制本发明中的功能的计算机可读、处理器可读、或者机器可读的指令或者语句时,表示了本发明的实施例。
本发明的实施例还可以作为与客户公司、非营利组织、政府实体、内部组织机构等的服务约定的一部分来实现。这些实施例的方面可以包括将计算机系统配置为执行此处描述的一些或者全部方法,以及部署实现此处描述的一些或全部方法的软件系统以及web服务。这些实施例的方面还可以包括分析客户公司、响应于该分析创建建议、生成实现该建议的各个部分的软件、将该软件集成到现有的处理和基础设施中、计量此处描述的方法和系统的使用、向用户分配费用、以及对于用户使用这些方法和系统而向他们开出帐单。
此外,在下文中描述的各种程序可以基于在本发明的特定实施例中这些程序所实现的应用进行标识。但是,随后的任何特定程序术语仅仅是为了方便起见而使用的,而且因此本发明的实施例不应当局限于仅在由这样的术语标识和/或暗示的特定应用中使用。
图1所示的示例环境不是用于限制本发明的。实际上,可以使用其它替换的硬件和/或软件环境而没有背离本发明的范围。
图2描述了根据本发明实施例的示例系统的选定部件的框图。在举例说明的系统中,计算机系统100经由网络130连接到服务器132-1、服务器132-2、和服务器132-3。每个服务器132-1、132-2、和132-3是如先前参考图1所述的服务器132的示例。服务器132-1包括网格执行器A 134-1,服务器132-2包括网格执行器B 134-2,而且服务器132-3包括网格执行器C 134-3。
计算机系统100包括网格数据156,其包括示例记录205、210、和215,但是在其它实施例中,可以存在具有任何适当数据的任何数量的记录。每个示例记录包括网格执行器标识符字段220、服务强度字段225、可用服务字段230、工作单元类型字段235、工作单元优先级字段240、和性能统计字段245。
网格执行器标识符字段220标识诸如网格执行器A 134-1、网格执行器B 134-2、或者网格执行器C 134-3之类的网格执行器134之一。服务强度225指示相关联的网格执行器220所执行的、比该网格执行器220提供的其它服务更快的一个或者多个服务。可用服务230指示在网格执行器220处可用的服务,而与网格执行器220执行它们的速度无关。对于具体的网格执行器220,服务强度225是可用服务230的子集。
工作单元类型235指示网格管理器150已经发送给网格执行器220的工作单元的类型。工作单元优先级240指示工作单元类型235的优先级,其由网格应用154报告或者由网格管理器150指定。性能统计245指示当发给网格执行器220时、具有工作单元类型235的工作单元的先前性能。在各种实施例中,性能统计245可以包括用于处理工作单元类型235的响应时间,或者网格执行器220可用于处理工作单元类型235的时间的百分比。
图3描述了根据本发明的实施例、用于登记网格执行器134的处理的流程图。控制从块300开始。控制然后继续到块305,其中网格管理器150从网格执行器134接收服务强度和可用服务。控制然后继续到块310,其中网格管理器150在网格数据156中创建记录(诸如记录205、210、或者215),并且存储网格执行器标识符220、所报告的网格执行器134的服务强度225、以及所报告的网格执行器134的可用服务230。控制然后继续到块399,其中图3中的逻辑返回。
图4描述了根据本发明的实施例、在训练模式下处理工作单元的流程图。控制从块400开始。控制然后继续到块405,其中网格管理器150基于网格应用154创建工作单元。在各种实施例中,网格管理器150可以基于和/或响应于网格应用154的任务、功能、请求、消息、中断、或者动作而创建工作单元。网格管理器150还确定所创建的工作单元的类型和所创建的工作单元的优先级。网格管理器可以基于工作单元所基于的网格应用154的优先级、基于工作单元所基于的网格应用154所报告的优先级、或者基于任何其它的技术来确定工作单元的优先级。
控制然后继续到块410,其中网格管理器150基于网格执行器134的服务强度225、网格执行器134的可用服务230、所创建的工作单元的类型、以及所创建的工作单元的优先级来选择网格执行器134。在一个实施例中,网格管理器150可以选择具有与工作单元类型相匹配的服务强度225的网格执行器134。在另一个实施例中,网格管理器150可以取决于工作单元的优先级,使用网格执行器134的可用服务230或者服务强度225来选择网格执行器134。例如,如果工作单元的优先级高(超过阈值),则网格管理器150可以选择其服务强度225与工作单元类型匹配的网格执行器134,但是如果工作单元的优先级低(低于该阈值),则网格管理器150使用可用服务230来选择网格执行器134。因此,网格管理器150选择网格管理器150从其中接收服务强度225和可用服务230的网格执行器134的子集。
网格管理器150将所创建的工作单元的工作单元类型存储到与选定的网格执行器134相关联的网格数据156中的记录的工作单元类型字段235中。网格管理器150还将与所创建的工作单元相关联的工作单元优先级设置到在与选定的网格执行器134相关联的记录中的工作单元优先级字段240中。
控制然后继续到块415,其中网格管理器150并行地将所创建的工作单元发送到选定的网格执行器134,这意味着将工作单元发送给多个选定的网格执行器134而不等待来自任何一个特定网格执行器134的响应。至少一个网格执行器134执行该工作单元并且将响应返回到网格应用154。
控制然后继续到块420,其中网格管理器150取得与工作单元的并行执行相关联的性能统计数据,并且将该性能统计数据存储到与执行该工作单元的网格执行器220相关联的记录的性能统计字段245中。
控制然后继续到块425,其中网格管理器150基于服务强度225、工作单元类型、和性能统计245创建训练数据。在一个实施例中,网格管理器150为每种工作单元类型235选择那些具有最佳性能统计245、例如最低响应时间或者最高可用性的网格执行器220(在网格数据156中的那些记录)。网格管理器150然后创建包括工作单元类型235和服务强度225对的训练数据。控制然后继续到块430,其中网格管理器150利用工作单元类型235作为到神经网络152的输入以及利用相应成对的服务强度225作为来自神经网络152的输出,来训练该神经网络152。也就是说,网格管理器150重复地将工作类型235输入到神经网络152中,直到神经网络152至少以一个时间百分比阈值产生成对的相应服务强度225作为输出为止。控制然后继续到块499,其中图4中的逻辑返回。
图5描述了根据本发明的实施例、在训练模式完成之后在性能模式下处理工作单元的流程图。控制从块500开始。控制然后继续到块505,其中如先前参考图4中的块405所述的那样,网格管理器150基于网格应用154创建工作单元。
控制然后继续到块510,其中网格管理器150将工作单元类型235输入到神经网络152中。控制然后继续到块515,其中神经网络152生成服务强度225作为输出。控制然后继续到块520,其中网格管理器150基于从神经网络152输出的服务强度225,从网格数据156中选择网格执行器134。在一个实施例中,网格管理器150选择具有与来自神经网络152的输出服务强度相匹配的服务强度225的那些网格执行器134。
控制然后继续到块525,其中网格管理器150并行地将工作单元发送到由网格执行器标识符220标识的选定的网格执行器134。控制然后继续到块530,其中至少一个选定的网格执行器134执行该工作单元,并且向网格应用154返回响应。
在本发明的示例实施例的先前详细说明中,对形成本发明的一部分、并且以说明方式示出其中可以实践本发明的特定示例实施例的附图(其中,相似的数字表示相似的单元)进行了参考。对这些实施例进行了足够详细的描述以允许本领域技术人员实践本发明,但是可以使用其它实施例而且可以进行逻辑的、机械的、电的及其他改变而没有背离本发明的范围。在这个说明书中使用的词语“实施例”的不同实例不一定是指相同的实施例,但是它们也可以是指相同的实施例。因此,先前的详细说明不是以限制的意义使用的,而且本发明的范围仅仅由附加权利要求所定义。
在先前的描述中,为了提供对本发明实施例的彻底理解而阐述了许多的细节。但是,没有这些具体细节也可以实践本发明。在其它实例中,没有详细地示出众所周知的电路、结构、和技术以便不会使本发明模糊。

Claims (15)

1、一种方法,包含:
并行地将第一多个工作单元发送到第一多个网格执行器;
基于该第一多个网格执行器的性能创建训练数据;
经由该训练数据训练神经网络;以及
经由该神经网络选择第二多个网格执行器。
2、如权利要求1所述的方法,还包含:
并行地将第二工作单元发送到第二多个网格执行器。
3、如权利要求1所述的方法,还包含:
从第一多个网格执行器的每一个中接收服务强度。
4、如权利要求3所述的方法,其中创建训练数据的步骤还包含:
基于所述性能创建多个输入数据和输出数据对,其中输入数据包含第一多个工作单元的多种类型,而输出数据包含第一多个网格执行器的服务强度。
5、如权利要求4所述的方法,其中创建训练数据的步骤还包含:
基于在第一多个网格执行器处用于所述多种类型的响应时间,选择所述多种类型。
6、如权利要求2所述的方法,其中选择步骤还包含:
将第二工作单元的类型输入到神经网络中;以及
从神经网络中接收第二服务强度。
7、如权利要求6所述的方法,其中选择步骤还包含:
基于来自神经网络的第二服务强度选择第二多个网格执行器。
8、一种编码有指令的信号承载介质,所述指令用于实现先前方法权利要求中的任何一种方法。
9、一种用于选择网格执行器的设备,包含用于实现先前方法权利要求中的任一种方法的装置。
10、一种用于配置计算机的方法,包含:
将计算机配置为从第一多个网格执行器的每一个中接收服务强度和可用服务;
将计算机配置为基于优先级以及服务强度和可用服务之一选择第一多个网格执行器的子集;
将计算机配置为并行地将第一多个工作单元发送到第一多个网格执行器的子集;
将计算机配置为基于第一多个网格执行器的子集的性能创建训练数据;
将计算机配置为经由该训练数据训练神经网络;以及
将计算机配置为经由该神经网络选择第二多个网格执行器。
11、如权利要求10所述的方法,还包含:
将计算机配置为并行地将第二工作单元发送到第二多个网格执行器。
12、如权利要求10所述的方法,其中,配置计算机以创建训练数据的步骤还包含:
将计算机配置为基于所述性能创建多个输入数据和输出数据对,其中输入数据包含第一多个工作单元的多种类型,而输出数据包含第一多个网格执行器的子集的服务强度。
13、如权利要求12所述的方法,其中将计算机配置为创建训练数据的步骤还包含:
将计算机配置为基于在第一多个网格执行器的子集处用于所述多种类型的响应时间,选择所述多种类型。
14、如权利要求11所述的方法,其中将计算机配置为进行选择的步骤还包含:
将计算机配置为将第二工作单元的类型输入到神经网络中;以及
将计算机配置为从神经网络接收第二服务强度。
15、如权利要求14所述的方法,其中将计算机配置为进行选择的步骤还包含:
将计算机配置为基于来自神经网络的第二服务强度选择第二多个网格执行器。
CNA2006100678049A 2005-05-26 2006-03-13 经由神经网络选择网格执行器的方法和设备 Pending CN1869965A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/138,938 2005-05-26
US11/138,938 US20070005530A1 (en) 2005-05-26 2005-05-26 Selecting grid executors via a neural network

Publications (1)

Publication Number Publication Date
CN1869965A true CN1869965A (zh) 2006-11-29

Family

ID=37443633

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2006100678049A Pending CN1869965A (zh) 2005-05-26 2006-03-13 经由神经网络选择网格执行器的方法和设备

Country Status (3)

Country Link
US (1) US20070005530A1 (zh)
JP (1) JP2006331425A (zh)
CN (1) CN1869965A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203619A (zh) * 2015-05-29 2016-12-07 三星电子株式会社 数据优化的神经网络遍历
CN106462802A (zh) * 2014-11-14 2017-02-22 谷歌公司 生成映像的自然语言描述
CN108369661A (zh) * 2015-11-12 2018-08-03 谷歌有限责任公司 神经网络编程器

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10922363B1 (en) * 2010-04-21 2021-02-16 Richard Paiz Codex search patterns
US11048765B1 (en) 2008-06-25 2021-06-29 Richard Paiz Search engine optimizer
KR101827289B1 (ko) * 2011-11-08 2018-03-23 한국전자통신연구원 실시간 운영체제에서 태스크 스케줄링 방법
US9633315B2 (en) * 2012-04-27 2017-04-25 Excalibur Ip, Llc Method and system for distributed machine learning
US11809506B1 (en) 2013-02-26 2023-11-07 Richard Paiz Multivariant analyzing replicating intelligent ambience evolving system
US11741090B1 (en) 2013-02-26 2023-08-29 Richard Paiz Site rank codex search patterns
US10643384B2 (en) * 2018-02-08 2020-05-05 Google Llc Machine learning-based geometric mesh simplification
EP3850762A1 (en) * 2018-09-13 2021-07-21 Nokia Solutions and Networks Oy Apparatus and method for designing a grid-of-beams using machine learning
US11526746B2 (en) 2018-11-20 2022-12-13 Bank Of America Corporation System and method for incremental learning through state-based real-time adaptations in neural networks
JP7339063B2 (ja) * 2019-08-19 2023-09-05 ファナック株式会社 作業工程に関する学習を行う機械学習プログラム及び機械学習装置
WO2021215906A1 (en) * 2020-04-24 2021-10-28 Samantaray Shubhabrata Artificial intelligence-based method for analysing raw data

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7805756B2 (en) * 1996-11-29 2010-09-28 Frampton E Ellis Microchips with inner firewalls, faraday cages, and/or photovoltaic cells

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462802A (zh) * 2014-11-14 2017-02-22 谷歌公司 生成映像的自然语言描述
CN106462802B (zh) * 2014-11-14 2019-08-06 谷歌有限责任公司 生成映像的自然语言描述
US10417557B2 (en) 2014-11-14 2019-09-17 Google Llc Generating natural language descriptions of images
US10832124B2 (en) 2014-11-14 2020-11-10 Google Llc Generating natural language descriptions of images
CN106203619A (zh) * 2015-05-29 2016-12-07 三星电子株式会社 数据优化的神经网络遍历
CN108369661A (zh) * 2015-11-12 2018-08-03 谷歌有限责任公司 神经网络编程器

Also Published As

Publication number Publication date
US20070005530A1 (en) 2007-01-04
JP2006331425A (ja) 2006-12-07

Similar Documents

Publication Publication Date Title
CN1869965A (zh) 经由神经网络选择网格执行器的方法和设备
Mens et al. Challenges in software evolution
Lin et al. Optimal placement of replicas in data grid environments with locality assurance
CN1610311A (zh) 通过把推理用于it系统进行自动建模的方法和设备
CN1955932A (zh) 用于在分布式计算系统中的性能和策略分析的方法和装置
CN107908536B (zh) Cpu-gpu异构环境中对gpu应用的性能评估方法及系统
Rivera Scalable parallel genetic algorithms
CN1900932A (zh) 生成用于自动化系统管理的领域知识的系统和方法
CN1492323A (zh) 多处理器地址转换的高效仿真方法和系统
CN111768096A (zh) 基于算法模型的评级方法、装置、电子设备及存储介质
Jiang et al. A uniform compact genetic algorithm for matching bibliographic ontologies
CN1976299A (zh) 用于对应用日志配置设置进行管理的方法和系统
CN112214602A (zh) 基于幽默度的文本分类方法、装置、电子设备及存储介质
CN111639916A (zh) 一种基于区块链技术及深度学习的在线审计方法、系统和可读存储介质
da Silva et al. Running data mining applications on the grid: A bag-of-tasks approach
CN115687050A (zh) 一种sql语句的性能分析方法及装置
Cornebize et al. Fast and faithful performance prediction of MPI applications: the HPL case study
Zeliu et al. MapReduce rationality verification based on object Petri net
CN111767344A (zh) 提高数据处理能力的新型联盟链
CN112000389A (zh) 一种配置推荐方法、系统、装置及计算机存储介质
CN1932760A (zh) 开发和执行平台
Del Rosso Reducing internal fragmentation in segregated free lists using genetic algorithms
Taufer et al. A roadmap to robust science for high-throughput applications: the scientists’ perspective
US7809735B2 (en) Infrastructure for more efficient processing to generate of ad-hoc reports
CN101075324A (zh) 数据处理系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20061129

C20 Patent right or utility model deemed to be abandoned or is abandoned