CN104732274A - 一种智能计算机 - Google Patents
一种智能计算机 Download PDFInfo
- Publication number
- CN104732274A CN104732274A CN201510104128.7A CN201510104128A CN104732274A CN 104732274 A CN104732274 A CN 104732274A CN 201510104128 A CN201510104128 A CN 201510104128A CN 104732274 A CN104732274 A CN 104732274A
- Authority
- CN
- China
- Prior art keywords
- network
- layer
- neural network
- data
- interface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明公开了一种智能计算机,包括混合神经网络应用层、HnetCP接口层、LabGrid中间件层、软件和硬件资源层,在所述混合神经网络应用层中,客户通过HnetCP接口层的接口实现混合神经网络系统和开发出可视化的混合神经网络应用开发环境;所述HnetCP接口层定义各种操作混合神经网络的接口,所述的顶层应用为混合神经网络应用层中的应用,所述的底层网络中间件为LabGrid中间件层;所述LabGrid中间件层为上层的应用提供网格运行环境;所述软件和硬件资源层位于底层,软件资源包括各种支持上层应用的软件。本发明的智能计算机,将存于计算机中的知识与人的经验知识集成起来,发挥计算机系统的整体优势。
Description
技术领域
本发明涉及数据处理领域,特别涉及一种智能计算机。
背景技术
传统的计算机所能够完成的工作大都停留在计算这个概念上,难以达到智能层面。到底什么是智能,怎么样才算有智能?究竟通过什么样的途径才能使计算机具有智能或表现出智能行为?简而言之,智能的实现在于模仿人类大脑思维的实现。当智能实现时,计算机的整个架构都将实现智能化,计算机的数据、硬件、软件、存储、计算、通信、应用等都将附上智能属性。
一台计算机表现出某种智能行为并不一定被认为它本身就具有了智能。为了判定计算机是否具有智能,“人工智能之父”图灵曾设计了一种测试方法——图灵试验。他设想一个测试者用计算机终端分别与被测试的人及计算机联系(测试者不能直接看到被测试的人和计算机),如果测试者从被测试的人和计算机回答问题的信息中,不能正确地区分被测者是计算机还是被测试的人,即把计算机当成了被测试的人,那就可以认为计算机具有智能。这是一种关于计算机是否具有智能的行为主义观点。但是,以回答问题的能力来作为计算机是否具有智能的判据有一定局限性,因为人的智能涉及许多方面,有些智能如形象思维就不可以言传。这种测试也难以反映自学习和自适应能力。人们一方面追求用计算机来实现智能,另一方面又不大相信计算机中电子器件的自动开或关能实现人的思维。因此当一种实现智能应用的方法很有效时,往往认为这是一种已知的技术,与其他计算机程序运行没什么不同。人们对于计算机模拟人类思维的矛盾心理趋向于认为一个能工作的计算机系统是有用的,但不是真正的智能计算机。
实际上,智能是一个动态的和发展的概念,它始终处于不断向前推进的计算机技术的前沿。人工智能的权威学者M·明斯基定义人工智能的任务是研究还没有解决的计算机问题。这一观点反映了人工智能与计算机研究有别于其他学科的显著特点。智能应用问题往往没有确定的求解算法,而要采用搜索的办法。一旦人们对某一问题掌握了足够丰富的知识,即已找到了不需要搜索的确定型算法,可以预见其行为与效果时,这个问题一般就不再认为是一个智能问题了。从应用的角度看,如果一项人工智能的研究成果已经成熟并被广泛的采用,人们已经了解它的运行机制,就不再把它视为智能技术了。因此,智能计算机与其看成是与传统计算机完全不同的一种机器,还不如看成是带动计算机不断发展的一项高新技术。
尽管各国学者为研制智能计算机进行了长期不懈的努力,但究竟通过什么途径才能使计算机具有智能或者说表现出智能行为?概括来说,已经提出的主要途径有以下几条,它们分别以认知心理学、神经生理学、人类社会学及生物进化论为模拟的基础。
①符号处理与知识处理。把智能问题当成是符号处理与知识处理问题是人工智能的主流。纽威尔和西蒙教授在1975年的图灵奖演说中提出物理符号系统假设:物理符号系统是智能行为的充分必要条件。这个假设把符号处理技术摆到了智能计算机研制的关键位置。上个世纪60年代关于推理机制和问题求解技术的研究使人们认识到一个智能系统的能力主要在于它包含的知识而不是它的推理机制,这就是E·费根鲍姆教授倡导的知识原则。根据这一原则,构造智能计算机的关键是建立包含大量常识和专门知识的知识库,其技术难点在于知识的自动获取和自动维护,以及知识共享等。这个途径的基础是逻辑理论与认知心理学。
②人工神经网络。构造智能计算机的另一个途径根源于神经生理学的研究成果,即用大量相对简单的处理单元(人工神经元)通过复杂的互连构成人工神经网络(也即与人脑的神经网结构类似)。这个途径强调大规模并行、分布式的表示与处理、非线性的动力学系统行为、系统的训练与学习以及模拟量的处理等等。尽管目前已经提出的人工神经网模型和研制的各种人工神经网系统与人脑的神经网结构相距甚远,但这种以整体的统计行为取代逻辑推理,以样本训练与学习取代执行某种算法的新思路对传统的唯理论与还原论是一种冲击。基于人工神经网的计算机在模式识别和低层次感知模拟方面有发展潜力,但也有一定的局限性。它与传统的符号处理与知识处理有某种互补关系。这两者的结合可以发挥各自的优势。
③层次化的智力社会模型。错综复杂的人类社会是由许许多多的个人和不同层次的团体组成。与此类似,智能行为也可看成是许多在不同层次上相互影响的并行操作进程。层次越低,智力越差,最底层的处理应该是非智能的。按照这种思路,实现智能计算机的关键是要弄明白非智能活动的联合如何才能够浮现出智能行为,其奥秘应该在层次间的相互联系之中。这就是明斯基教授主张的所谓“智力社会”模型,强调智能的层次和智能系统中各部分的联系,即从人类社会的行为来看待智能,其实现上侧重于分布式的人工智能和复杂的巨系统。
④生物进化。人类的智能是通过极其漫长的生物进化产生的,进化是智能的源泉。若把智能计算机的智能提高也当成是一种进化过程,则其进化速度将比人的智能形成快得多。生物进化的关键是在动态环境中的适应能力。基于此点,布鲁克斯教授提出了研制智能系统(计算机)的另一种途径:建立在现实世界中具有真正感知和行动能力的智能系统,由简单到复杂逐步地提高其智能水平。该方法强调自适应控制,主张无需表示和无需推理的实现。
上述途径都有各自的理论背景和应用前景。鉴于人脑的功能是成千上万个具有不同功能的子系统相互协作和上百万条生物进化缠绕组合的结果。人类智能的本质不可能归结为几个像波函数或运动学三定律那样规整、简洁、漂亮的基本原理,因此智能计算机也不可能按某种固定模式实现。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种智能计算机。
本发明的目的通过以下的技术方案实现:
一种智能计算机,包括混合神经网络应用层、HnetCP接口层、LabGrid中间件层、软件和硬件资源层,其中
在所述混合神经网络应用层中,客户通过使用下层的HnetCP接口层的接口实现各种具体的混合神经网络系统和开发出可视化的混合神经网络应用开发环境;
所述HnetCP接口层定义了各种操作混合神经网络的接口,从而为顶层应用隐藏了底层网络中间件的实现细节,所述的顶层应用为混合神经网络应用层中的应用,所述的底层网络中间件为LabGrid中间件层;
所述LabGrid中间件层为上层的应用提供网格运行环境;
所述软件和硬件资源层位于底层,软件资源主要包括各种支持上层应用的软件,如为Web Service提供支撑的Apache网络服务器,为索引服务提供信息存储的数据库服务器和各种XML文件,包括XMLSchema元数据描述文件和XML数据存储文件;硬件资源主要包括网格中的各种个人PC机、计算机集群和网络。
LabGrid中间件层中,所述的网格运行环境即网格服务,所述的LabGrid中间件层提供CRAM服务、索引服务和数据服务等三种网格服务:CRAM服务提供网格环境中作业的执行管理功能,包含客户端的管理模块LabGridClient和服务端的CramServer模块;索引服务存储网格中可使用的计算资源信息和相关运行作业的信息,用户可以使用索引服务提供的接口添加、修改、删除和查询计算资源的相关信息,匹配合适的计算资源给相关的作业;数据服务提供文件传输功能,同时提供各种XML文件的解释功能,用于保存和读取XML文件。
所述的数据服务,使用TCP/IP协议进行文件传输。以后可以根据实际应用的需要使用更加高效的文件传输协议。
所述的HNetCP接口层,包含神经网络库NNLib,神经网络库NNLib提供多种不同的神经网络实现(目前有BP、RBF),各种基本的神经网络都实现统一的神经网络操作接口,采用相同的神经网络数据存储格式。HNetCP利用NNLib实现了执行各种混合神经网络的接口,如训练、测试和评估混合神经网络的方法。利用NNLib也实现了需要提交到远程执行的各种神经网络可执行程序,当用户调用操作接口后,HNetCP就会根据用户的输入参数传输神经网络可执行程序和相关的XML数据文件、XML元数据Schema文件到合适的计算资源中运行,用户也可根据自己设计的系统需要提交自定义的神经网络可执行程序。此外,该层还提供了设计混合神经网络结构和处理神经网络相关数据的接口。
混合神经网络应用层中,所述的具体的混合神经网络系统为远程的神经网络运行监视器、神经网络设计器、应用数据浏览器、终端用户操作神经网络的各种界面接口中一个或一个以上,或者具体的混合神经网络系统为用户自定义的单元模块,或者具体的混合神经网络系统为用户在Web浏览器上构建相关的混合神经网络应用。
所述的混合神经网络应用层,在HNetCP的神经网络库NNLib库上添加了多种网络模型,包括BP网络、RBF网络、SOFM网络、LVQ网络、LAM网络、Hopfield网络、ART网络和遗传算法。用户可以将几种神经网络组合起来形成一个大规模混合神经网络,可以克服单一网络存在的不足,有效提高神经网络的性能。
所述的HNetCP的神经网络库NNLib库采用工厂模式设计,每个神经网络类的对象都由一个工厂类NeuralNetFactory负责创建和销毁,定义一个负责处理神经网络数据的类CNeural Data,该类提供对神经网络的输入输出数据的通用操作:从文件读取网络输入数据、保存网络输出数据到文件,读取网络输入数据维数和目标输出维数,读取训练样本数、测试样本数,所有数据采用XML文件存储。定义一个负责处理神经网络数据的类CNeural Data是为了便于在不同的网络模型之间传递数据。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明采取综合集成的方法,将定性与定量、数字与模拟、逻辑与统计、电子与非电子等互补技术综合集成起来,特别是将存于计算机中的知识与人的经验知识集成起来,发挥计算机系统的整体优势与综合优势。
2、本发明的智能计算机相当于是一个人造“大脑”,它可以模拟或取代人脑进行思维、学习、判断、推理、情感、记忆、语言、视觉、触觉、听觉、味觉、嗅觉、运动、协作,并且能在任意的时间、地点和条件下自律地代替或者帮助人类去完成机械制造、化工生产、农机操作、交通运输、抢险救灾、建筑施工、科学研究、军事战斗、医疗手术、核电维修、家务劳动、教育娱乐等各项工作。
附图说明
图1为神经网络计算平台体系架构图;
图2为智能机器人网格计算平台架构示意图;
图3为GT4的组件结构图;
图4为智能计算机运作方式示意图;
图5为LabGrid V1.0体系架构图;
图6为CramJob生命周期和通信流程图;
图7为智能计算机多作业功能结构图;
图8为CramJob的XML文件对应的Schema定义图;
图9为CramMultiJob的XML文件对应的Schema定义图;
图10为LabGrid V1.0CRAM协议图;
图11为HNetCP分层体系架构图;
图12为人工神经元模型图;
图13-1、13-2、13-3、13-4为常见的4种激励函数;
图14为MP模型图;
图15为具有一层和两个隐藏层的BP网络结构示意图;
图16为SOFM网络结构示意图;
图17为LVQ网络结构示意图;
图18为Hopfield网络结构示意图;
图19为NNLib类图;
图20为NNData的XML文件对应的Schema定义图;
图21为混合神经网络的层次结构图;
图22为混合神经网络分类系统的分类过程示意图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
1 智能计算机
人工神经网络是由大量神经元广泛互连而成的和复杂的非线性运算网络,它是对人脑或自然神经网络若干基本特性的抽象和模拟,其目的在于模拟大脑的某些机理与机制,实现某方面的特定功能。目前,许多神经网络专家已经提出了上百种神经网络模型,它们在模式识别、信号处理、知识工程、专家系统、优化组合、自动控制等许多领域里得到了广泛的应用。但是,由于现实情况的复杂性以及神经网络理论尚未成熟,每一种神经网络都具有各自的缺陷或只适用于解决某一特点领域的问题,不可能找出一种通用的模型以适应各种应用。如果能够将不同的几种或所有的神经网络组合起来形成一个大规模混合神经网络的话,就可以克服单个神经网络的不足,有效地提高神经网络的性能,以更好地适应于各种不同的应用场合。然而,计算大规模混合神经网络不能由单台计算机完成,而是需要超强的智能计算能力、智能存储能力、智能通信能力、智能应用软件的智能计算机。
为此,本发明提出了一个智能计算机(也即网格系统Laboratory Grid Computing System,LabGrid),它使用它可以方便地向网格中注册新的计算节点来提高计算能力,充分利用大量廉价、不同性能、处于不同地域甚至异构的和闲置的各种计算机等资源。相比原来仅仅使用一台固定的计算机进行计算有很大的优势。利用智能计算机,普通的计算机用户也可以进行复杂的计算。本发明提出在智能计算机上构建了一个具有超强的智能计算能力、智能存储能力、智能通信能力、智能应用软件的大规模混合神经网络计算平台HNetCP(Computing Platform Based on Grid for Hybrid Neural Networks),目前HNetCP的神经网络库NNLib(Neutary Network Library)提供了多种常用神经网络的实现。本发明利用HNetCP提供的方法和NNLib,用户可以根据需要方便地使用各种神经网络模型,还可以将各种神经网络组合起来形成一个大规模混合神经网络,以更好地适应各种不同的应用场合。同时,通过HNetCP可以将混合神经网络的计算任务提交到智能计算机上并行分布式地处理,比起在单台计算机运算具有很高的效率。利用HNetCP提供的丰富的神经网络程序,还可方便地构建神经网络的应用,利用神经网络的自组织、自适应和自学习能力解决许多传统方法难以解决或不能解决的问题。
1.1 智能计算机的体系架构
为了满足大规模混合神经网络对计算能力的要求,人们开始考虑将网络技术应用到大规模混合神经网络的计算中。有关学者尝试了使用Globus去构建一个基于网格的神经网络计算平台(也即智能计算机),其架构如附图1所示,但目前只是实现了单个神经网络的远程计算,而并没有充分发挥网格并行分布式处理的优势。国内也同样尝试使用Globus去构建智能计算机,但同样只是实现了对单个神经网络的远程计算,简单地分析了如何对单个神经网络进行并行计算,没有具体地考虑如何将智能计算机应用到由多个神经网络组成的大规混合神经网络中。
要将网格充分地利用到神经网络的计算中去,就必须建立大型的混合神经网络。将各个神经网络分配给网格中不同的节点分别处理可以实现并行分布式计算,从而大大提高运算速度。目前,对混合神经网络的研究主要有两个方面:一种是串联式混合神经网络,即将多个不同类型的神经网络串联在一起,首先由第一级神经网络对输入数据进行大体的分类(粗分),然后把结果数据传递给后面的神经网络进行更加细致的分类(细分);另一种是并联式混合神经网络,并行地利用不同的神经网络对输入数据进行分类,然后再根据各个神经网络的分类结果采用某种算法(例如少数服从多数)产生最终的分类结果。如果并联起来的神经网络是同一种网络模型时,也称神经网络集成(Neural Network Ensemble)。
神经网络集成是目前被证明比较有效的一种由多个神经网络组成的大规模神经网络系统,它用有限个神经网络对同一个问题进行学习,输出结果由构成神经网络集成的各神经网络在对应的输入示例下的输出结果共同决定。目前国内国外对该神经网络集成研究得非常多,有关学者提出的Bagging Predictors是较早的一种集成神经网络算法,它首先从训练集产生出多个训练子集,利用这些训练子集分别训练多个神经网络,然后根据不同网络得到的结果计算出最终的分类结果,并通过实验证明了该种神经网络集成比单个神经网络分类的精确度要高。另一个比较常见的神经网络集成分类方法是Boosting。神经网络集成的精度由成员网络的精度、成员网络之间的相关程度决定。成员网络的精度越高(即泛化误差越小)、成员网络之间的相关程度越低(即差异度越大),越有利于集成神经网络泛化误差的降低。有关学者通过实验证明了这个结论的正确性,并提出了一种基于改进的K-Means算法的集成神经网络训练方法。使用K-Means算法可以对原始训练样本集进行分类,使每个成员网络的训练样本集差异度达到最大,从而使成员网络的差异度也相应地最大化。智能计算机要模仿人的思维,各种人工智能方法需要庞大的计算。网格环境下的各种计算资源,如大型计算设备MPP、高性能集群,各种软件、算法等都以网格服务的形式呈现在智能计算机面前。利用网格可以为智能计算机提供了强大的计算资源。如附图2所示是本发明提出的将网格应用于智能计算机的架构。
本发明提出的是一种轻量型智能计算机,它将高效率和低消耗作为首要目标,致力于动态异构条件下计算资源的整合与共享。它可以集合分散资源而形成强大的计算能力,满足智能计算机的各种分布式计算需求。当智能计算机的某台PC需要计算支持时,首先向索引服务查询,获得满足条件的计算资源(网络中其他计算节点)的列表与它们连接,启动远程计算;期间各个计算节点为将自身负载及其它信息更新到索引服务器。智能计算机的计算方式是:用户程序以任务的形式提交到本地的运行管理服务,运行管理服务根据用户指定的方式将任务拆分成子任务再提交到其它计算机运行,每个子任务为单一进程。本发明提出的轻量型智能计算机总共由8个cluster组成,其中4个cluster由RBF神经网络组成,4个cluster由BP神经网络组成,每个cluster有50个成员网络。每个cluster的成员网络是并行连接,而cluster之间是串行连接。所采用的数据集是UCI数据库中的5个经典数据集:iris、glass、ionosphere、breast-cancer和soybean-large。本发明提出的轻量型智能计算机通过实验证明运行情况良好、容错性强,也验证了它能够模仿人脑的可行性和有效性。
1.2 智能计算机的系统软件
如附图3所示,网格中间件Globus Toolkit 4是由Globus Alliance开发的工具包,目前己经成为网格基础设施的标准,是国际公认的用于网格构建最好的中间件之一。虽然Globus Toolkit 4已经非常成熟,功能也很完备,但是由于它主要面向网络环境和计算环境都非常复杂的大规模应用,因此结构非常庞大并容易造成较大的资源开销。本发明提出的智能计算机,其目标是通过中低配置PC计算资源的共享形成一台虚拟的高性能计算机,它以OGSA架构和Globus Toolkit等网格中间件作为基础,从中除去一些工作环境中不必要的安全性和认证等功能,得到一个功能简化、性能优越的轻量级网格系统(智能计算机的系统软件)。在此对智能计算机的工作原理进行简要说明。
1.2.1 智能计算机的工作原理
智能计算机的运作方式与典型网格十分相似,如附图4所示。整个网格环境中的计算机构成一个对等网络,每台PC既可以是计算资源的使用者,也可以是计算资源的提供者。智能计算机通过信息服务维持网络并保证负载均衡。PC通过子网广播发现信息服务,不同子网间可以简单地通过人工配置确定位置。此外,通过定期同步实现全局信息的统一。当客户端(某PC)有计算作业需要其他计算资源的支持时,按以下步骤获取:①向索引服务查询满足条件的计算资源的列表;②索引服务器返回符合条件的计算资源;③与该计算资源连接,通过网络传输可执行程序、输入数据文件,然后启动远程计算开始执行作业;在此期间,网格中所有的计算节点将自身负载及其它信息定期更新到索引服务器;④客户端查询计算资源中作业的的完成情况,如果未完成则等待;⑤远程计算完毕,客户端从计算资源获取输出数据;
在智能计算机中,有一个计算资源分配和管理模块CRAM(Computing Resource Allocation AndManagement)负责客户端作业管理,如附图5所示,将底层的调用细节封装进CramJob的操作之中,对用户来说是透明的。客户端的用户程序以作业(CramJob)的形式提交到本地的管理器,构成CramJob队列。管理器负责在已提交的作业(CramJob)队列中取出作业,根据用户指定的方式将整个任务拆分成一些可以独立运行的子任务,再提交到其远程计算机运行。CramJob描述了对计算资源的性能要求,管理器通过索引服务匹配合适的计算资源,匹配成功后调用LabGridClient中的CRAM服务客户端接口来提交作业。在CramServer模块中,CRAM服务接受远程客户提出的服务请求,将作业(执行程序和输入文件)传递给CRAM进程管理器进行处理,CRAM进程管理器接收完相关的执行程序和输入文件后创建Cram进程运行作业。
1.2.2 智能计算机的各个功能模块
①CRAM服务。CRAM服务是连接管理器和CRAM进程管理器的桥梁,它为管理器和CRAM进程管理器提供一系列方法进行通信。如附图5所示是CRAM服务提供的操作。一个CramJob的生命周期是从客户把作业提交到管理器的作业队列开始,管理器为CramJob找到匹配的计算资源后,通过CRAM服务规定的通信流程完成计算任务。如附图6所示,显示了一个CramJob的整个生命周期和通信流程。
②索引服务。本发明提出的智能计算机采用SQL Server2005作为索引服务器。在索引服务器对应的数据库中有两个computingResource和cramJob,computingResource表存储了计算资源相关的信息,cramJob表存储了在计算资源上运行的作业的信息。如附图7所示分别是这两个表的说明。
③多作业执行功能。为了要进行多作业的并行执行,实现大规模的高性能计算,智能计算机参考Condor-G的有向无环图管理器实现了的多作业并行计算功能,用户可以根据需要设计好DAG图,然后创建多作业CramMultiJob对象,再调用管理器提交多作业的方法,即可以根据DAG图并行或串行执行各个作业,执行过程如附图7所示。DAG图的每个节点就是一个独立的CramJob,每个CramJob间用有方向的弧进行连接。每当一个作业执行完毕后,由它所指向的CramJob的入度就相应地减1。当某个CramJob的入度为0时,即表示在它之前需要执行的作业已经完成,因此可以将它提交到管理器的CramJob队列中等待执行。
④数据的定义和存储格式。为了使智能计算机与网格的服务架构保持一致和兼容,便于各个不同模块和功能之间进行数据交换,同时方便用户阅读,智能计算机的相关数据均采用XML文件存储。CramJob的XML Schema定义如附图8所示,CramMultiJob的XML Schema定义如附图9所示,用户既可以通过智能计算机提供的函数方法来设置作业的XML描述文件,也可根据相应XML Schema的规范设置。
⑤可靠的客户端。智能计算机的系统软件作为网格计算的中间件必需提供可靠的性能。在程序在出现异常错误的情况下,应该能够自动恢复并继续执行下去。在某种程度上,客户端的可靠性比服务端更为重要。因为对当前执行的作业来说客户端只有一个,而服务端可能有多个,即使某个服务端已经崩溃掉了客户端也能不受影响。为了达到客户端的稳定的性能,CRAM协议遵循附图10所示的过程。在远程计算机中执行作业前,先给该作业分配一个jobID,并将作业ID返回给客户端。然后开始传输该作业需要的执行文件和输入文件,传输完毕后返回确认信息。接着在选程计算机中开始作业的运行。如此,在start指令发出之后出现错误都能够根据jobID进行作业的销毁,并使计算任务恢复到原来的状态。除此之外,客户端定时向服务端发送hello消息,hello消息表示客户端仍然在监听该作业的执行情况。如果一段时间后仍没有收到hello消息,服务端认为该客户端已经崩溃,因此会把作业销毁,防止崩溃的客户端一直占用该资源。此外客户端还会监听服务端作业的执行情况,只要服务端出现任何错误就会马上销毁该作业,并把该作业重新放到作业队列中等待运行。因此,客户端的作业管理功能是比较稳定可靠的。
1.3 智能计算机的应用软件
为了给大规模混合神经网络的计算提供计算能力,本发明参考网格计算体系结构的相关标准,设计了基于网格的神经网络计算平台HNetCP(也即智能计算机的应用软件),实现了常用的神经网络模型BP和RBF。HNetCP的目标是为客户提供便捷的接口来设计出各种复杂的混合神经网络应用,并且利用网格中间件,使客户的神经网络计算完全托管于网格之中,充分利用网格环境中的计算资源来完成大计算量的神经网络计算,从而实现为智能计算机提供更多的智能。
HNetCP采用分层模式进行设计,提供的高层接口把智能计算机系统软件低层的多作业执行管理功能的实现细节隐藏起来,客户无需关心神经网络运行的顺序和实际地点;神经网络库采用面向对象的多态特性进行设计,各种新加入的神经网络采用相同的接口和相同的元数据Schema。如附图11所示是HNetCP的体系架构图,由四个层次组成,通常情况下,高层的模块使用低层模块的接口进行实现。底层是软件和硬件资源层,上一层是智能计算机的系统软件(网格中间件层),再上一层是HNetCP提供的操作混合神经网络的接口层,顶层是混合神经网络应用层,它使用低层的接口实现各种混合神经网络应用。
网格中间件层为上层的应用提供了网格运行环境,它主要提供CRAM服务、索引服务和数据服务等三种网格服务。CRAM服务主要提供网格环境中作业的执行管理功能,包含了客户端的管理模块LabGridClient和服务端的CramServer模块。索引服务存储了网格中可使用的计算资源信息和相关运行作业的信息,用户可以使用索引服务提供的接口添加、修改、删除和查询计算资源的相关信息,匹配合适的计算资源给相关的作业。数据服务提供了文件的传输功能,目前智能计算机使用TCP/IP协议进行文件传输,以后可以根据实际应用的需要使用更加高效的文件传输协议。数据服务还提供了各种XML文件的解释功能,用于保存和读取XML文件。
HNetCP接口层定义了各种操作混合神经网络的接口,从而为顶层应用隐藏了低层网格中间件的实现细节。在这一层中包含了一个神经网络库NNLib,它提供了多种不同的神经网络实现(目前有BP、RBF),各种基本的神经网络都实现统一的神经网络操作接口,采用相同的神经网络数据存储格式。HNetCP利用NNLib实现了执行各种混合神经网络的接口,如训练、测试和评估混合神经网络的方法。利用NNLib也实现了需要提交到远程执行的各种神经网络可执行程序,当用户调用操作接口后,HNetCP就会根据用户的输入参数传输神经网络可执行程序和相关的XML数据文件、XML元数据Schema文件到合适的计算资源中运行,用户也可根据自己设计的系统需要提交自定义的神经网络可执行程序。此外,该层还提供了设计混合神经网络结构和处理神经网络相关数据的接口。
在顶层的混合神经网络应用层中,客户可以使用下层的接口实现各种具体的混合神经网络系统和开发出可视化的混合神经网络应用开发环境,如远程的神经网络运行监视器、神经网络设计器、应用数据浏览器、终端用户操作神经网络的各种界面接口等,用户也可以定义自己的单元模块,此外还可以在Web浏览器上构建相关的混合神经网络应用。
1.4 智能计算机神经网络库
神经网络具有自组织、自学习、非线性和高度的并行性等特点,目前已经在许多领域中得到了广泛应用。与此同时,由于现实情况的复杂性以及理论尚未成熟,每一种神经网络都具有各自的缺陷或只适用于解决某一特点领域的问题,不可能找出一种通用的模型以适应各种情况。已有许多研究表明,如果将几种神经网络组合起来形成一个大规模混合神经网络,可以克服单一网络存在的不足,有效提高神经网络的性能。为了便于进行大规模混合神经网络的研究,本发明提出在HNetCP的神经网络库NNLib上添加了多种网络模型,包括BP网络、RBF网络、SOFM网络、LVQ网络、LAM网络、Hopfield网络、ART网络和遗传算法等。
1.4.1 人工神经网络
人工神经网络是由生物生神经网络发展而来的,是对人脑或若干基本特性的简化、抽象和模拟。其目的在于模拟大脑的某些机理与机制,实现一些特定的功能。据统计人类大脑皮层中大约有100亿个神经细胞,60万亿个神经突触以及它们的连接体。神经细胞也称为神经元,是人脑中最基本的信息处理单元。每个神经细胞由细胞体和突起组成,其中突起又可分为树突的轴突。对每个神经细胞,细胞体只有一个,它接受刺激并进行相应的处理。树突可以由多个,它接受来自其他神经细胞的刺激。轴突也只有一个,它负责传出细胞体产生的的电化学信号,是神经细胞的输出端。
1.4.2 人工神经元模型
人工神经元是对生物神经元的一种模拟和简化,它是人工神经网络的基本信息处理单元。人工神经元的模型如附图12所示。人工神经元主要由三个基本元素组成:①一组连接,各连接线上的权值表示连接强度,权值为正表示激活,为负表示抑制。②一个加法器,用于求取各输入信号的加权和。③一个激励函数,将神经元输出幅度限制在一定范围内。一个神经元k可用式(1)、(2)表示:
yk=f(uk+bk) (2)
式中,xi(i=1,..,m)是输入信号;wki(i=1,..,m)是突触权值,权值为正表示激活,为负表示抑制;uk是输入信号和权值的线性加权;bk是神经元的阈值;yk是输出信号。常见的激励函数y=f(v)主要有四种,如附图13-1、13-2、13-3、13-4所示,图中自变量v=uk+bk表示神经元的输入信号。
1.4.3 神经网络的学习
神经网络的学习也称为训练,指的是神经网络在受到外部环境的刺激下调整神经网络的参数,使神经网络以一种新的方式对外部环境作出反应的过程。能够从环境中学习和在学习中提高自身性能是神经网络最有意义的性质,神经网络通过反复学习来达到对环境的理解。
(1)学习方式。神经网络按学习方式可分为有导师学习、无导师学习和再励学习三种类型。①有导师学习。有导师学习也称为监督学习,它需要一组正确的输入输出数据对。将输入数据输入网络,在网络中计算得到输出数据后,将网络的实际输出与期望输出相比较得到误差,然后根据误差的情况修改网络的连接权值和阈值等,使网络朝着正确的方向不断演化,直到实际输出与期望输出之差在允许的范围之内。②无导师学习。无导师学习也称为无监督学习,仅需要一批输入数据。首选初始化网络,通过反复加载这批输入数据,使网络不断受到刺激,当与曾经经历的刺激相同的的刺激到来时,响应连接权以某一第数增大,重复加入的同样刺激使相应的连接权增大到接近1的数值。这一自组织的方法使网络具有某种“记忆”能力以至形成“条件反射”,当曾经学习过或相似的刺激加入后,网络便能根据训练好的权值产生相应的输出。③再励学习。再励学习也称为强化学习。这种学习方式介于上述两种情况之间,外部环境对网络的输出结果只给出评价(奖和罚)而不是给出正确答案,学习系统强化那些受奖励的动作来改善性能。
(2)学习算法。常见的学习算法有以下四种。①Hebb学习规则:Hebb学习规则属于无导师学习,其原则是如果两个神经元同时兴奋,则它们之间的连接加强。如果神经元i是神经元j的上层结点,它们的输出值分别为vi和vj,连接权用wij表示,则Hebb学习规则可以表示为式(3),式中η表示学习速率。Hebb学习规则是神经网络最基本的学习规则,其他所有学习规则几乎都可以看作是其变形。
Δwji=ηvivj (3)
②δ学习规则:也称为误差较正学习算法,根据神经网络的输出误差对连接权时行修正,属于有导师学习算法。如果神经元i是神经元j的上层结点,它们的输出值分别为vi和vj,连接权用wij表示,则δ学习规则可以表示为式(4),式中η有示学习速率,δi表示误差函数对神经元j输入的偏导数。δ学习规则是神经网络中非常重要的一类学习算法,最常用的BP神经网络采用了这种学习规则。
Δwji=ηδjvi (4)
③随机学习算法:上面的δ学习规则通常采用梯度下降法,存在局部最小的问题,随机学习算法通过引入不稳定因子来处理这种情况。常见的随机学习算法有遗传算法和模拟退火算法。
④竞争学习算法:竞争学习网络由一组性能基本相同,只是参数有所不同的神经元构成,对于一个输入模式,各个神经元通过互相竞争来做出不同的反映,竞争获胜的神经元或它附近的神经元进行权值修正,通过学习,权值越来越接近相应的输入模式。竞争学习算法属于无导师学习。常见的竞争神经网络有自组织特征映射网络SOFM(Self-Organizing Feature Maps)和自适应共振网络ART(Adaptive Resonace Theory)。
1.4.4 神经网络的结构
神经网络是由大量功能简单的神经元通过一定的拓扑结构组织起来的。根据神经元的不同连接方式,可将神经网络分为分层网络和相互连接型网络两大类。①分层网络。分层网络将一个补经网络模型中的所有神经元按照功能分成若干层。一般有输入层、隐含层(一个或多个)和输出层,各层之间顺次连接,一般以上一层的输出作为下一层的输入。分层网络又可以细分为3种互联方式:单纯的前向网络、具有反馈的前向网络以及层内互联的前身网络。②相互连接型网络。相互连接型网络中,任意两个神经元之间都是可达的,即存在连接路径。这种网络结构又可分为局部互连和全互连。全互连网络中每个神经元的输出都与其他神经元相连,而局部互连网络中,有些神经元之间没有直接相连。
1.4.5 神经网络的基本模型
①MP模型。MP模型属于一种阈值元件模型,它是由美国Mc Culloch和Pitts提出的最早神经元模型之一。MP模型是大多数神经网络模型的基础,它的结构如附图14所示,可用式(5)、式(6)表示。
yi=f(ui) (6)
式中,wij(j=1,...,m)是神经元i与神经元j之间的连接权;vj(j=1,...,m)是上一层第j个神经元的输出;θi是神经元i的阈值;yi是神经元i的输出。函数f表达了神经元的输入输出特性。在MP模型中,f定义为阶跃函数,如式:
②感知器。简单感知器模型实际上仍然是MP模型的结构,但是它通过采用监督学习来逐步增强模式划分的能力,达到所谓学习的目的。简单感知器引入的学习算法称之为误差学习规则,可用式(8)表示。该算法是神经网络学习中的一个重要算法,并已被广泛应用。
Δwij=η(di-yi)xj (8)
式中,wij是神经元i与第j个输入单元之间的连连接权;η是学习速率;di是第i个神经元的目标输出;yi是第i个神经元的实际输出;xj是神经元的第j个输入值。
如果在输入和输出层间加上一层或多层的神经元(隐层神经元),就可构成多层前向网络,这里称为多层感知器。可以证明,只要隐层和隐层单元数足够多,多层感知器网络可实现任何模式分类。多层感知器只允许调节一层的连接权。这是因为按感知器的概念,无法给出一个有效的多层感知器学习算法。
1.4.6 NNLib中的神经网络
1.4.6.1 BP网络
BP网络又称误差反向转播网络,是一种多层前向网络。一般包含一个输入层、一个输出层以及一个或多个隐层,如附图15所示。BP网络是一种有导师学习网络,采用基于梯度下降的误差反向传播算法进行训练,误差的计算采用最小均方误差(LMS)。按照BP算法的要求,BP网络中的神经元所用的激活函数必须是可导的,一般采有S型函数或线性函数。网络的学习过程:首先初始化网络权值和阈值,然后通过正向传播得到输出结果,再通过误差反身传播对各层的权值和阈值进行修正。如此反复进行正向传播和反向传播的过程,直到输出误差满足给定要求或达到预先设定的最大训练次数为止。BP网络是一种最广泛使用的网络模型,在手写字体的识别、语音识别、人脸识别以及生物医学信号处理等方面己有许多实际的应用。
1.4.6.2 RBF网络
RBF网络又叫径向基函数神经网络,是一种三层前向网络,包含三层:输入层、隐层和输出层(与如附图15所示相同)。隐层单元的激活函数称为径向基函数,一般采用高斯函数,以输入向量和权值向量之间的距离作为自变量,可表示为式(9)。
输出层的激活函数为线性函数,网络的输出是隐层单元输出的线性加权和。
式中,R(xp-ci)是第i个隐层单元的输出;xp是输入向量;ci是第i个基函数的中心,与xp维数相同;|| ||是欧氏距离;σ是高斯函数的方差。
网络的输出为
式中,R(xp-ci)是第i个隐层单元的输出;H是隐层单元个数;wji是输出层第j个神经元与隐层第i个神经元之间的连连接权;yj是输出层第j个单元的输出。
RBF神经网络需要求解的参数有基函数的中心、方差、以及隐含层到输出层的权值。根据基函数中心选取方式的不同,RBF网络有多种学习方法,其中最常用的是自组织选取中心法。此方法主要由两个阶段组成:一是自组织学习阶段,此阶段为无导师学习,求解基函数的中心和方差,一般采用K-均值聚类方法求取;二是有导师学习阶段,求解隐含层到输出层的连接权值,一般采用最小二乘法或与梯度下降法求解。
1.4.6.3 SOFM网络
SOFM(Self-Organizing Feature Maps)网络又称自给织特征映射网络,是最典型的竞争型神经网络之一,属于无导师学习。SOFM网络通常由一个输入层和一个竞争层构成,如附图16所示,在网络训练时,并不是每次都对所有神经元的的权值都进行修正,而是只对获胜神经元或其附近的神经元进行修正。SOFM网络它能够在无教师信息的情况下自组织地挖掘输入信息的特征,通常被用来做聚类分析,在无先验知识的情况下挖掘输入信息本身的结构及聚类关系。其他典型的竞争神经网络还有自适应共振理论ART(Adaptive Resonance Theory)网络、主成分分析PCA(Principle Components Analysis)网络、对传CP(CounterPropagation)网络和协同神经网络SNN(Synergetic Neural Network)等。
1.4.6.4 LVQ网络
LVQ网络又称为学习矢量量化神经网络,是对SOFM引入导师信号进行训练得到的,因此属于有导师学习网络。由3层组成,即输入层、隐含层和输出层如附图17所示。网络在输入层与隐含层之间为全连接,而在隐含层和输出层之间为部分连接,即每个办出层神经元与隐层中不同的组连接。输出层和隐层之间的连接权是固定为1,而隐层和输和层之间的连接权是可以必变的。网络训练时,对竞争层获胜的神经元:如果按照导师信息它是应该获胜的,则对该神经元进行奖励;否则就进行一定的惩罚。通过引入导师信息,可以有效提高网络的性能。
1.4.6.5 ART网络
ART网络又称为自适应共振理论,ART采用竞争学习机制,利用生物神经网络之间有自兴奋与侧抑制的动力学原理,让输入模式通过网络的双向连接进行识别与比较,最后达到谐振来完成对自身的记忆,关以同样的方法实现网络的回忆。当提供给网络的模式是一个网络中已经记忆的模式或是与已经记忆的模式十分相似的模式时,网络能够记起这一模式,得到正确的分类。如果提供给网络的是一个新模式,则网络将在不影响已有记忆的前提下,使用新的记忆单元记忆这一新的输入模式。在所有的ART系统中都存在着外部输入与内部存储模式进行比较的模式匹配过程,在这一匹配过程串产生了谐振状态,神经网络在谐振状态下不断学习和调整,从而达到新的平衡。
1.4.6.6 Hopfield网络
Hopfield网络是最典型的反馈神经网络模型,与前向神经网络相比,在网络结构、学习算法和运行规则上都有很大的不同。离散Hopfield网络是单层全互连的,如附图18所示。神经元之间的连接权值是对称的,即wij=wji。每个神经元自身无连接,即wii=0。设Hopfield网络有n个神经元,t时刻神经元i的输入为ui(t),输出为vi(t),则ui(t)可由式(11)得到,相应神经元的输出状态vi(t+1)由式(12)得到。
式中,bi是神经元i的阈值。
vi(t+1)=f(ui(t)) (12)
式中,激励函数可取阶路函数hardlim或符号函数sgn。网络的能量函数定义为式(13)
典型Hopfield网络的运行步骤如下:①网络初始化;②随机选取一个神经元i;③按式(11)和式(12)计算网络输入输出;④判断是否达到稳定状态,若是则结束,否则就转到第②步继续运行。Hopfield网络按动力学方式运行,其工作过程为状态的演化过程,可以证明只要连接权是对称的并且每个神经元无自身连接,Hopfield网络会沿着能量减小的方向进行演化,由于能量函数有界,所以网络必然会趋于稳定,此稳定状态即为网络的输出。Hopfield网络常用于存储一个或多个稳定的目标向量,当向网络输入新的向量模式时,存储在网络中接近于输入的目标向量就被唤醒,因此Hopfield网络可用于图像的复原等应用中。
1.4.7 NNLib的设计
HNetCP的神经网络库NNLib提供了BP网络、RBF网络、SOFM网络、LVQ网络、LAM网络、Hopfield网络、ART网络、Adaline网络和遗传算法等。所有的神经网络类都继承自一个公共的抽象类CNeuralNet,该类定义了神经网络的一些通用操作的接口,如网络训练、网络测试、网络评估、保存网络结构和参数到文件、从网络文件读取网络的结构和参数信息等。CNeuralNet的子类必须实现这些通用的接口。NNLib库采用工厂模式设计,每个神经网络类的对象都由一个工厂类NeuralNetFactory负责创建和销毁,以CBPN类和CRBF类为例,它们和NeuralNetFactory的关系如附图19所示。
为了便于在不同的网络模型之间传递数据,定义了一个负责处理神经网络数据的类CNeural Data。该类提供了对神经网络的输入输出数据的通用操作:从文件读取网络输入数据,保存网络输出数据到文件,读取网络输入数据维数和目标输出维数,读取训练样本数、测试样本数等。所有数据采用XML文件存储,其XML Schema文件定义如附图20所示。
1.5 智能计算机的应用设计
目前,神经网络的理论已经得到广泛的研究,许多学科领域也得到了广泛的应用。但是,由于现实情况的复杂性以及理论尚未成熟,每一种神经网络都具有各自的缺陷或只适用于解决某一特点的问题,不可能找出一种通用的模型以适应各种情况。如果能够将几种不同的神经网络组合起来形成一个大规模混合神经网络,就可以克服单一网络存在的不足,以更好地适应各种不同的应用场合。为此,建立了一个智能应用软件(基于网格的神经网络计算平台HNetCP),它基于智能计算机,通过网格的计算整合能力充分利用实验室空闲的计算资源。HNetCP上提供了一个神经网络库NNLib,在其中实现了多种常见的神经网络模型,利用这些神经网络可以方便地构建大规模混合神经网络,并可以通过HnetCP将计算任务提交到智能计算机上并行分布式地处理,从而有效地提高网络的运行效率。并最终可以为各类智能计算机提供更多的智能。
1.5.1 混合神经网络
混合神经网络是指由超过一个或一种类型的神经网络组成的用于解决某一特定问题的神经网络系统。目前,对混合神经网络的研究主要有两个方面:一种是串联式混合神经网络,即多个不同类型的神经网络串联在一起,由第一级神经网络对输入数据进行大体分类(粗分),然后把数据再传递给后面的神经网络进行更细致的分类(细分);另一种是并联式混合神经网络,各个成员网络同时对输入数据进行分类,然后再根据这些成员网络的输出产生最终的分类结果。并联式混合网络,如果各个成员神经网络是同种类型的,也叫做神经网络集成。
1.5.2 神经网络集成
神经网络集成是目前被证明比较有效的一种由多个神经网络组成的大规模神经网络系统,它的输出结果会比单个神经网络的输出结果更多加精确和稳定。神经网络集成的主要原理是用多个神经网络对同一个问题进行学习,给定一个输入模式,输出结果由各个成员神经网络的输出结果共同决定。两种经典的神经网络集成技术是Bagging和Boosting。神经网络集成的精度由成员网络的精度、成员网络之间的相关程度决定。成员网络的精度越高(即泛化误差越小)、成员网络之间的差异度越大,越有利于神经网络集成泛化误差的降低。
Bagging分类器是一种生成神经网络集成的较好方法,它通过bootstrap技术在训练集中通过重复取样的方式随机选取训练数据,生成不同的训练集,再由各个成员网络分别对这些训练集中的数据进行训练。每个训练集与原训练集样本数目是相同的。在生成的每个训练集中,原训练集中的每一条数据可能重复出现,也可能一次也不出现。因此Bagging方法能够保证各个成员网络之间输入数据的差异度。
Boosting技术所生成的训练集,它们的训练样本不像Bagging那样是等概率随机选取的,而是取决于之前已经训练过的神经网络的表现,如果之前的神经网络对某个样本不能正确的分类,则该样本将会以较高的概率出现在之后的神经网络的训练样本之中。因此Boosting技术可以提高对某些训练样本的学习效果,与此同时,新的网络也可能会受到错误样本如噪声的影响,这就会导致对数据集的过拟合现象。
1.5.3 混合神经网络的设计
1.5.3.1 混合网络的层次结构
有研究表明,同一种神经网对络不同的数据集表现出不同的性能,而不同的网络类型对同一数据集也有不同的表现。因此,本发明提出用几种常见的网络类型构建一个大规模混合神经网络。整个系统包括两层,如附图21所示。第一层包含许多成员网络,由这些成员网络构成集成网络,同一集成的网络类型是相同的,不同的集成的网络类型可以不同。第二层由这些集成网络构成混合神经网络。分类时,第一层的每个集成网络由成员网络等权投票得出分类结果,再由第二层对每个集成的结果进行加权投票得出混合网络的分类结果。每个集成分别由一种神经网络(遗传BP、RBF或LVQ)组成,训练样本的生成方法使用Bagging。为了更好地衡量每个cluster的泛化能力,防止过拟合或者训练不收敛的情况,将训练集分为两部分,一部分作为训练集train_set,另一部分作为测试集test_set,train_set用于训练网络,test_set用于对每个训练后的集成进行测试。
1.5.3.2 混合网络的学习
混合神经网络的学习过程如下:①用训练集train_set分别训练每个cluster的成员网络。②评估每个cluster的性能。对第i个cluster,用测试集test_set测试每个成员网络,选取正确率前50%的成员网络,用简单的等权投票方法再对test_set进行分类,得到该cluster的分类错误率εi。③为每个cluster分配票数。根据式(14)计算每个cluster的权重wi,wi相当于该cluster拥有的票数。由式(14)可以看出,错误率εi越低,拥有的票数越高,对错误率大于0.5的cluster,wi=0表明该cluster不具有投票权。
式中,εi是第i个cluster对测试集的分类错误率;wi是第i个cluster所得票数。
1.5.3.3 混合网络的分类规则
混合神经网络的分类规则如附图22所示:①给定一个输入模式x,分别计算出每个cluster的分类结果Ci(x)。计算方式为选择每个cluster对测试集分类正确率前50%的成员网络,用等权投票决定该cluster的分类结果Ci(x)。②结合每个cluster的结果,根据式(15)进行综合投票。第i个cluster把它手中的票(共wi张)全部投给它的分类结果,最终票数最多的类别获胜。
式中,T(x)是混合网络的分类结果,即输入模式x所属的类别;Ci(x)=y是第i个cluster的分类结果为类别y;wi是第i个cluster所投的票数;Y是所有类别的集合。可见该混合神经网络分类系统保证了各成员网络和集成网络的分类精度。利用这个分类系统,对单个成员网络或单个集成网络不能正确分类的输入模式,只要其他的成员网络或集成网络能够正确分类,则混合网络就很可能得到正确的分类结果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种智能计算机,其特征在于:包括混合神经网络应用层、HnetCP接口层、LabGrid中间件层、软件和硬件资源层,其中
在所述混合神经网络应用层中,客户通过使用下层的HnetCP接口层的接口实现各种具体的混合神经网络系统和开发出可视化的混合神经网络应用开发环境;
所述HnetCP接口层定义了各种操作混合神经网络的接口,从而为顶层应用隐藏了底层网络中间件的实现细节,所述的顶层应用为混合神经网络应用层中的应用,所述的底层网络中间件为LabGrid中间件层;
所述LabGrid中间件层为上层的应用提供网格运行环境;
所述软件和硬件资源层位于底层,软件资源包括各种支持上层应用的软件;硬件资源包括网格中的各种个人PC机、计算机集群和网络。
2.根据权利要求1所述的智能计算机,其特征在于:LabGrid中间件层中,所述的网格运行环境即网格服务,所述的LabGrid中间件层提供CRAM服务、索引服务和数据服务等三种网格服务:CRAM服务提供网格环境中作业的执行管理功能,包含客户端的管理模块LabGridClient和服务端的CramServer模块;索引服务存储网格中可使用的计算资源信息和相关运行作业的信息,用户可以使用索引服务提供的接口添加、修改、删除和查询计算资源的相关信息,匹配合适的计算资源给相关的作业;数据服务提供文件传输功能,同时提供各种XML文件的解释功能,用于保存和读取XML文件。
3.根据权利要求2所述的智能计算机,其特征在于:所述的数据服务,使用TCP/IP协议进行文件传输。
4.根据权利要求1所述的智能计算机,其特征在于:所述的HNetCP接口层,包含神经网络库NNLib,神经网络库NNLib提供多种不同的神经网络实现,各种基本的神经网络都实现统一的神经网络操作接口,采用相同的神经网络数据存储格式。
5.根据权利要求1所述的智能计算机,其特征在于:所述的混合神经网络应用层,在HNetCP的神经网络库NNLib库上添加了多种网络模型,包括BP网络、RBF网络、SOFM网络、LVQ网络、LAM网络、Hopfield网络、ART网络和遗传算法。
6.根据权利要求5所述的智能计算机,其特征在于:所述的HNetCP的神经网络库NNLib库采用工厂模式设计,每个神经网络类的对象都由一个工厂类NeuralNetFactory负责创建和销毁,定义一个负责处理神经网络数据的类CNeural Data,该类提供对神经网络的输入输出数据的通用操作:从文件读取网络输入数据、保存网络输出数据到文件,读取网络输入数据维数和目标输出维数,读取训练样本数、测试样本数,所有数据采用XML文件存储。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510104128.7A CN104732274A (zh) | 2015-03-10 | 2015-03-10 | 一种智能计算机 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510104128.7A CN104732274A (zh) | 2015-03-10 | 2015-03-10 | 一种智能计算机 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104732274A true CN104732274A (zh) | 2015-06-24 |
Family
ID=53456147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510104128.7A Pending CN104732274A (zh) | 2015-03-10 | 2015-03-10 | 一种智能计算机 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104732274A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105227410A (zh) * | 2015-11-04 | 2016-01-06 | 浪潮(北京)电子信息产业有限公司 | 基于自适应神经网络的服务器负载检测的方法及系统 |
CN105389772A (zh) * | 2015-12-02 | 2016-03-09 | 百度在线网络技术(北京)有限公司 | 基于图形处理器的数据处理方法和装置 |
CN106022472A (zh) * | 2016-05-23 | 2016-10-12 | 复旦大学 | 一种嵌入式深度学习处理器 |
CN106557809A (zh) * | 2015-09-30 | 2017-04-05 | 富士通株式会社 | 神经网络系统及对该神经网络系统进行训练的方法 |
CN106709532A (zh) * | 2017-01-25 | 2017-05-24 | 京东方科技集团股份有限公司 | 图像处理方法和装置 |
CN106845561A (zh) * | 2017-03-13 | 2017-06-13 | 哈尔滨工业大学 | 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法 |
CN106960075A (zh) * | 2017-02-27 | 2017-07-18 | 浙江工业大学 | 基于线性直连法的径向基函数人工神经元网络的喷射器性能的预测方法 |
CN107316078A (zh) * | 2016-04-27 | 2017-11-03 | 北京中科寒武纪科技有限公司 | 用于执行人工神经网络自学习运算的装置和方法 |
CN107341761A (zh) * | 2017-07-12 | 2017-11-10 | 成都品果科技有限公司 | 一种深度神经网络的计算执行方法和系统 |
CN107357653A (zh) * | 2017-06-20 | 2017-11-17 | 天津市众创锐迪科技有限公司 | 一种多功能智能计算机 |
CN109858620A (zh) * | 2018-12-29 | 2019-06-07 | 北京灵汐科技有限公司 | 一种类脑计算系统 |
CN109923558A (zh) * | 2016-11-04 | 2019-06-21 | 谷歌有限责任公司 | 混合专家神经网络 |
CN110058936A (zh) * | 2018-01-18 | 2019-07-26 | 伊姆西Ip控股有限责任公司 | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 |
CN110852435A (zh) * | 2019-10-12 | 2020-02-28 | 沈阳航空航天大学 | 一种基于神经进化计算模型 |
CN111159095A (zh) * | 2020-01-02 | 2020-05-15 | 中国航空工业集团公司西安航空计算技术研究所 | 一种异构融合的嵌入式智能计算实现方法 |
CN111260118A (zh) * | 2020-01-10 | 2020-06-09 | 天津理工大学 | 一种基于量子粒子群优化策略的车联网交通流量预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304864B1 (en) * | 1999-04-20 | 2001-10-16 | Textwise Llc | System for retrieving multimedia information from the internet using multiple evolving intelligent agents |
KR20030072057A (ko) * | 2002-03-05 | 2003-09-13 | 현대산업개발 주식회사 | 콘크리트 강도 추정을 위한 인공지능 시스템 |
CN101017508A (zh) * | 2006-12-21 | 2007-08-15 | 四川大学 | 一种基于离散Hopfield神经网络的SoC软/硬件划分方法 |
CN103150286A (zh) * | 2013-03-09 | 2013-06-12 | 郏惠忠 | 一种智能计算机系统 |
-
2015
- 2015-03-10 CN CN201510104128.7A patent/CN104732274A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6304864B1 (en) * | 1999-04-20 | 2001-10-16 | Textwise Llc | System for retrieving multimedia information from the internet using multiple evolving intelligent agents |
KR20030072057A (ko) * | 2002-03-05 | 2003-09-13 | 현대산업개발 주식회사 | 콘크리트 강도 추정을 위한 인공지능 시스템 |
CN101017508A (zh) * | 2006-12-21 | 2007-08-15 | 四川大学 | 一种基于离散Hopfield神经网络的SoC软/硬件划分方法 |
CN103150286A (zh) * | 2013-03-09 | 2013-06-12 | 郏惠忠 | 一种智能计算机系统 |
Non-Patent Citations (3)
Title |
---|
LI TAO ETAL.: ""Parallel solving model for quantified boolean formula based on machine learning"", 《J.CENT.SOUTH UNIV.》 * |
区永强 等: ""基于网格的混合神经网络计算平台研究与实现"", 《计算机工程与设计》 * |
詹勋昌: ""基于网格的神经网络计算平台研究与应用"", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106557809A (zh) * | 2015-09-30 | 2017-04-05 | 富士通株式会社 | 神经网络系统及对该神经网络系统进行训练的方法 |
CN105227410A (zh) * | 2015-11-04 | 2016-01-06 | 浪潮(北京)电子信息产业有限公司 | 基于自适应神经网络的服务器负载检测的方法及系统 |
CN105389772A (zh) * | 2015-12-02 | 2016-03-09 | 百度在线网络技术(北京)有限公司 | 基于图形处理器的数据处理方法和装置 |
CN105389772B (zh) * | 2015-12-02 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 基于图形处理器的数据处理方法和装置 |
CN107316078A (zh) * | 2016-04-27 | 2017-11-03 | 北京中科寒武纪科技有限公司 | 用于执行人工神经网络自学习运算的装置和方法 |
CN107316078B (zh) * | 2016-04-27 | 2021-05-07 | 中科寒武纪科技股份有限公司 | 用于执行人工神经网络自学习运算的装置和方法 |
CN106022472A (zh) * | 2016-05-23 | 2016-10-12 | 复旦大学 | 一种嵌入式深度学习处理器 |
CN109923558A (zh) * | 2016-11-04 | 2019-06-21 | 谷歌有限责任公司 | 混合专家神经网络 |
US11790214B2 (en) | 2016-11-04 | 2023-10-17 | Google Llc | Mixture of experts neural networks |
CN106709532A (zh) * | 2017-01-25 | 2017-05-24 | 京东方科技集团股份有限公司 | 图像处理方法和装置 |
CN106709532B (zh) * | 2017-01-25 | 2020-03-10 | 京东方科技集团股份有限公司 | 图像处理方法和装置 |
US10395167B2 (en) | 2017-01-25 | 2019-08-27 | Boe Technology Group Co., Ltd. | Image processing method and device |
CN106960075A (zh) * | 2017-02-27 | 2017-07-18 | 浙江工业大学 | 基于线性直连法的径向基函数人工神经元网络的喷射器性能的预测方法 |
CN106845561B (zh) * | 2017-03-13 | 2020-07-24 | 哈尔滨工业大学 | 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法 |
CN106845561A (zh) * | 2017-03-13 | 2017-06-13 | 哈尔滨工业大学 | 一种基于点云vfh描述子和神经网络的复杂曲面物体分类方法 |
CN107357653A (zh) * | 2017-06-20 | 2017-11-17 | 天津市众创锐迪科技有限公司 | 一种多功能智能计算机 |
CN107341761A (zh) * | 2017-07-12 | 2017-11-10 | 成都品果科技有限公司 | 一种深度神经网络的计算执行方法和系统 |
CN110058936A (zh) * | 2018-01-18 | 2019-07-26 | 伊姆西Ip控股有限责任公司 | 用于确定专用处理资源的资源量的方法、设备和计算机程序产品 |
CN109858620A (zh) * | 2018-12-29 | 2019-06-07 | 北京灵汐科技有限公司 | 一种类脑计算系统 |
CN109858620B (zh) * | 2018-12-29 | 2021-08-20 | 北京灵汐科技有限公司 | 一种类脑计算系统 |
CN110852435A (zh) * | 2019-10-12 | 2020-02-28 | 沈阳航空航天大学 | 一种基于神经进化计算模型 |
CN111159095A (zh) * | 2020-01-02 | 2020-05-15 | 中国航空工业集团公司西安航空计算技术研究所 | 一种异构融合的嵌入式智能计算实现方法 |
CN111159095B (zh) * | 2020-01-02 | 2023-05-12 | 中国航空工业集团公司西安航空计算技术研究所 | 一种异构融合的嵌入式智能计算实现方法 |
CN111260118A (zh) * | 2020-01-10 | 2020-06-09 | 天津理工大学 | 一种基于量子粒子群优化策略的车联网交通流量预测方法 |
CN111260118B (zh) * | 2020-01-10 | 2022-08-23 | 天津理工大学 | 一种基于量子粒子群优化策略的车联网交通流量预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104732274A (zh) | 一种智能计算机 | |
CN110163233A (zh) | 一种使机器胜任更多复杂工作的方法 | |
Colomo-Palacios et al. | I-Competere: Using applied intelligence in search of competency gaps in software project managers | |
Xue et al. | Computational experiments for complex social systems—Part I: The customization of computational model | |
Chandiok et al. | Machine learning techniques for cognitive decision making | |
Song et al. | A review on different kinds of artificial intelligence solutions in TCM syndrome differentiation application | |
Liu et al. | [Retracted] Forecast and Evaluation of Educational Economic Contribution Based on Fuzzy Neural Network | |
Dong et al. | [Retracted] Application of Data Mining Technology in Public Welfare Sports Education in the Era of Artificial Intelligence | |
Villa et al. | Hierarchical structures in hybrid systems | |
Tzafestas | Knowledge-Based Systems: Advanced Concepts, Techniques and Applications | |
Khan et al. | Towards the Formulation of a Unified Data Mining Theory, Implemented by Means of Multiagent Systems (MASs) | |
Ali | A concise artificial neural network in data mining | |
Vai et al. | Representing knowledge by neural networks for qualitative analysis and reasoning | |
Sun | Construction of integrated cloud computing platform for Japanese autonomous learning and examination | |
Zhang et al. | Adaptive Clustering Algorithm of Complex Network Based on Fuzzy Neural Networks | |
Vora et al. | Predicting students' academic performance: Levy search of cuckoo-based hybrid classification | |
Valdez et al. | Optimization of modular neural networks for pattern recognition with parallel genetic algorithms | |
Anbananthen et al. | Artificial neural network tree approach in data mining | |
Cheng et al. | A study on the application of the decision tree algorithm in psychological information of vocational college students | |
Heinonen et al. | Combining socio-economic and ecological modelling to inform natural resource management strategies | |
Mazurov et al. | Prediction of the rating of the university using hybrid cognitive maps and selective dendritic networks of neurons | |
Yang et al. | [Retracted] The Construction of Virtual Experiment Platform Based on the Fuzzy System | |
Moroz | Using hybrid algorithms based on GMDH-Type neural networks for solving economic problems | |
Bhari et al. | Interventive Educational System: Participation of Artificial Neural Network | |
Zhu | Reform of educational management work in higher education based on departmental sociology in the context of intelligent technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150624 |