CN110956463B - 基于可扩展分布式查询系统的可信存证方法与系统 - Google Patents

基于可扩展分布式查询系统的可信存证方法与系统 Download PDF

Info

Publication number
CN110956463B
CN110956463B CN201911033558.9A CN201911033558A CN110956463B CN 110956463 B CN110956463 B CN 110956463B CN 201911033558 A CN201911033558 A CN 201911033558A CN 110956463 B CN110956463 B CN 110956463B
Authority
CN
China
Prior art keywords
node
message
nodes
network system
query
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911033558.9A
Other languages
English (en)
Other versions
CN110956463A (zh
Inventor
蔡华谦
朱晓旻
景翔
黄罡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Peking University
Original Assignee
Peking University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Peking University filed Critical Peking University
Priority to CN201911033558.9A priority Critical patent/CN110956463B/zh
Publication of CN110956463A publication Critical patent/CN110956463A/zh
Application granted granted Critical
Publication of CN110956463B publication Critical patent/CN110956463B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/382Payment protocols; Details thereof insuring higher security of transaction
    • G06Q20/3829Payment protocols; Details thereof insuring higher security of transaction involving key management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D30/00Reducing energy consumption in communication networks
    • Y02D30/50Reducing energy consumption in communication networks in wire-line communication networks, e.g. low power modes or reduced link rate

Abstract

本发明提供了基于可扩展分布式查询系统的可信存证方法与系统,应用于P2P网络系统中,所述P2P网络系统包括多个节点;本发明实施例在存入的过程中采用有向无环图帐本结构配合nRW共识机制,解决了大规模共享交换过程中的监管问题;针对上述存入过程中存在的不可扩展的问题,本发明实施例还采用了跳数优化的方法,通过消息传输的跳数对P2P网络系统进行优化,构造具有较为平衡网络的P2P网络系统,从而把查询结果的处理运算均匀地分配到网络中的所有节点上,并根据节点的计算能力动态调节出度的大小,可在保证负载均衡的前提下,不对查询的延迟产生较大影响,保证了系统的可扩展性。

Description

基于可扩展分布式查询系统的可信存证方法与系统
技术领域
本发明涉及区块链技术领域,特别是涉及基于可扩展分布式查询系统的可信存证方法与基于可扩展分布式查询系统的可信存证系统。
背景技术
数据资源,是驱动数字经济发展的核心力量,也是提升信息社会智能水平和运行效率的关键要素,被视为决定未来竞争能力的战略资产。如何将政府、企事业单位在运行过程中形成的庞大数据资源资产化,使之成为支撑数字经济崛起的“新石油”,是数字经济发展的关键挑战。
数据资产价值的发挥是一个让数据“动起来”的过程。高质量、高可用、高有效数据资产的安全可信流动、加工融合是支撑大数据分析、流通与应用变现,从而推动数字经济发展的重要基础。政府企事业等单位拥有大量高价值核心数据,有效保障数据资产安全可信的共享流动和融合使用,防窃取、防滥用、防误用,是数据可信流通过程中关键问题。
大数据的价值在于数据为人所用。然而由于直接数据交易的失控问题使得可信数据共享交换成为难题。传统的可信交换基础设施,如比特币、以太坊等区块链,强调以“币交易”为主,整个平台的设计以“避免双花”作为前提假设,采用链式结构账本,通过全网共识机制同步维护全局统一的最长链,交易吞吐量低、交易费用高且不可扩展,使其不能应用于对实时性要求较高和高吞吐量的场景中,如银行和交易所等。
因此,需要建设一个针对数据共享交换场景的基础设施。数据共享交换场景主要有以下需求:1、解决的是大规模共享交换过程中的监管问题;2、在节点数量和全网TPS(每秒钟的交易数量)增加的情况下,保证查询功能的可扩展性。
发明内容
本发明提供基于可扩展分布式查询系统的可信存证方法与基于可扩展分布式查询系统的可信存证系统,以克服数据共享交换场景中的监管困难和不可扩展的问题。
为了解决上述问题,本发明公开了基于可扩展分布式查询系统的可信存证方法,应用于P2P网络系统中,所述P2P网络系统包括多个节点,所述节点包括积极列表ActiveList,所述Active List分为活跃列表Eager List和惰性列表Lazy List;其中,所述节点的Eager List中存放的是在P2P网络系统上和该节点建立TCP连接的节点,用于传递消息;所述节点的Lazy List是所述Active List除Eager List中的剩余节点,用于传递消息的摘要或消息的ID,用于P2P网络系统的优化和容错;所述方法包括存入方法和查询方法;
所述存入方法包括:
所述P2P网络系统中的发起交易节点在发起交易的过程中,从所述P2P网络系统中随机选择多个见证节点对该交易进行见证;
所述见证节点将见证该交易所产生的交易数据打包,生成区块;
所述见证节点从所述P2P网络系统中随机选择多个存储节点;
所述见证节点将所述区块发送给多个所述存储节点;
所述存储节点对所述区块进行存储;
其中,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构;
所述查询方法包括:
在所述P2P网络系统中,第一节点获得其父节点广播的查询请求,所述第一节点为所述P2P网络系统中的任一节点;
所述第一节点通过树形维护程序将所述查询请求广播给自身的孩子节点;所述孩子节点用于利用所述P2P网络系统的树形结构,将所述查询请求再广播给自身相应的孩子节点,自身相应的孩子节点重复上述广播步骤,直至将所述查询请求广播至该P2P网络系统上的所有节点;每个节点在收到查询的请求后,检索本地数据库,并等待其孩子节点的结果返回,当收集完所有的孩子节点返回的数据后,做结算和去重操作,并将结果返回给其父节点;经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户;
针对所述树形维护程序,所述方法包括:
所述第一节点在将所述查询请求广播给自身的孩子节点时,向自身的孩子节点中的第二节点发送IHAVE消息,所述IHAVE消息中包括消息ID;
所述第二节点检查自己是否已收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息;
如果所述第二节点在超时时间内未收到与所述消息ID对应的NORMAL消息,则执行以下步骤:
所述第二节点生成用于修复所述P2P网络系统的GRAFT消息;所述GRAFT消息包括所述消息ID和接收所述IHAVE消息的请求;
所述第二节点将所述GRAFT消息发送给所述第一节点,并将所述第一节点从自身的Lazy List中移动到Eager List中,使所述第一节点对所述P2P网络系统进行修复;
如果所述第二节点在超时时间内已收到与所述消息ID对应的NORMAL消息,则执行以下步骤:
所述第二节点计算IHAVE消息的接收跳数与NORMAL消息的接收跳数差;
所述第二节点判断所述跳数差是否超过跳数阈值;
若所述跳数差超过跳数阈值,所述第二节点对所述P2P网络系统进行修复。
为了解决上述问题,本发明还公开了基于可扩展分布式查询系统的可信存证系统应用于P2P网络系统中,所述P2P网络系统包括多个节点,所述节点包括积极列表ActiveList,所述Active List分为活跃列表Eager List和惰性列表Lazy List;其中,所述节点的Eager List中存放的是在P2P网络系统上和该节点建立TCP连接的节点,用于传递消息;所述节点的Lazy List是所述Active List除Eager List中的剩余节点,用于传递消息的摘要或消息的ID,用于P2P网络系统的优化和容错;所述系统包括存入装置和查询装置;
所述存入装置包括:
见证节点选择模块,被配置在所述P2P网络系统中的发起交易节点中,用于在发起交易的过程中,从所述P2P网络系统中随机选择多个见证节点对该交易进行见证;
交易数据打包模块,被配置在所述见证节点中,用于将见证该交易所产生的交易数据打包,生成区块;
存储节点选择模块,被配置在所述见证节点中,用于从所述P2P网络系统中随机选择多个存储节点;
区块发送模块,被配置在所述见证节点中,用于将所述区块发送给多个所述存储节点;
区块存储模块,被配置在所述存储节点中,用于对所述区块进行存储;
其中,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构;
所述查询装置包括:
查询请求获得模块,被配置在所述第一节点中,用于在所述P2P网络系统中,获得其父节点广播的查询请求,所述第一节点为所述P2P网络系统中的任一节点;
查询请求广播模块,被配置在所述第一节点中,用于通过树形维护程序将所述查询请求广播给自身的孩子节点;所述孩子节点用于利用所述P2P网络系统的树形结构,将所述查询请求再广播给自身相应的孩子节点,自身相应的孩子节点重复上述广播步骤,直至将所述查询请求广播至该P2P网络系统上的所有节点;每个节点在收到查询的请求后,检索本地数据库,并等待其孩子节点的结果返回,当收集完所有的孩子节点返回的数据后,做结算和去重操作,并将结果返回给其父节点;经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户;
针对所述树形维护程序,所述查询装置包括:
IHAVE消息发送模块,被配置在所述第一节点中,用于在将所述查询请求广播给自身的孩子节点时,向自身的孩子节点中的第二节点发送IHAVE消息,所述IHAVE消息中包括消息ID;
NORMAL消息检查模块,被配置在所述第二节点中,用于检查自己是否已收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息;
GRAFT消息生成模块,被配置在所述第二节点中,用于在超时时间内未收到与所述消息ID对应的NORMAL消息时,生成用于修复所述P2P网络系统的GRAFT消息;所述GRAFT消息包括所述消息ID和接收所述IHAVE消息的请求;
GRAFT消息发送模块,被配置在所述第二节点中,用于在超时时间内未收到与所述消息ID对应的NORMAL消息时,将所述GRAFT消息发送给所述第一节点,并将所述第一节点从自身的Lazy List中移动到Eager List中,使所述第一节点对所述P2P网络系统进行修复;
跳数差计算模块,被配置在所述第二节点中,用于在超时时间内已收到与所述消息ID对应的NORMAL消息时,计算IHAVE消息的接收跳数与NORMAL消息的接收跳数差;
跳数差判断模块,被配置在所述第二节点中,用于在超时时间内已收到与所述消息ID对应的NORMAL消息时,判断所述跳数差是否超过跳数阈值;
系统修复模块,被配置在所述第二节点中,用于在所述跳数差超过跳数阈值时,对所述P2P网络系统进行修复。
与现有技术相比,本发明包括以下优点:
在本发明中,为实现交易的过程的防篡改,采用了nRW随机见证机制,每个发起交易的交易发起节点随机选择多个见证节点对交易进行见证,每个见证节点打包交易产生区块后再选择多个随机存储节点对区块进行备份存储;同时采用了有向无环图DAG结构,有向无环图帐本结构配合nRW共识机制,不仅解决了大规模共享交换过程中的监管问题,还使得本发明实施例的分布式账本的存证吞吐量随着节点数量的增加可以线性扩展。
本发明通过维护具有高容错和负载均衡的树形结构的P2P网络系统,将查询条件广播给P2P网络系统中的节点,节点在收到查询请求后,将本地满足查询条件的数据返回给P2P网络系统中的父节点,父节点将所有孩子节点返回的数据和本地的查询结果做去重和结算,将处理后的结果返回给该节点的父节点,以层层汇总的方式将数据返回给根节点,以此可降低代理节点的负载,保证低延迟。
本发明针对基于图结构随机存储的分布式账本的查询功能的可扩展问题,采用了跳数优化的方法,通过消息传输的跳数对P2P网络系统进行优化,构造具有较为平衡网络的P2P网络系统,从而把查询结果的处理运算均匀地分配到网络中的所有节点上,并根据节点的计算能力动态调节出度的大小,可在保证负载均衡的前提下,不对查询的延迟产生较大影响,保证了系统的可扩展性。
附图说明
图1是本发明实施例的存入方法的步骤流程图;
图2是本发明实施例的区块内部的数据结构图;
图3是本发明实施例的区块组织结构图;
图4是本发明实施例的见证-共识过程示意图;
图5是本发明实施例的查询方法的步骤流程图;
图6(a)是P2P网络系统的第一次生成示意图;
图6(b)是第一次消息传输完成后的P2P网络系统示意图;
图7是图式分布式账本系统的拓扑结构图;
图8.1是本发明实施例节点数量-跳数的结构示意图;
图8.2是本发明实施例跳数分布的结构示意图;
图8.3是本发明实施例节点数量-去重率的结构示意图;
图8.4是本发明实施例节点总出度和跳数的结构示意图;
图8.5是本发明实施例节点总出度和去重率的结构示意图;
图8.6是本发明实施例固定根节点出度下的节点总出度和去重率的结构示意图;
图8.7是本发明实施例根节点出度固定和不固定下的节点总出度和跳数的结构示意图;
图9.1是查询结果的字段说明示意图;
图9.2是多条件查询的结果示意图;
图10是本发明实施例基于可扩展分布式查询系统的可信存证系统的结构示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
针对上述问题,本发明实施例提出了一种基于可扩展分布式查询系统的可信存证方法,应用于P2P网络系统中,所述P2P网络系统包括多个节点,所述方法包括存入方法和查询方法;
在传统的存入方法中,可信存证往往与防篡改的难度联系在一起。传统的所谓防篡改的区块链也不是100%保证不可篡改。例如,以太坊当年因为智能合约的漏洞,当时黑客盗取了价值约5000万美元的以太币(此时的以太币还不是现在的以太坊),当时以太专的创始人Vitalik Buterin为了挽回大部分的人的损失,采取了硬分叉的策略,用新的长的链来代替被攻击的链,这样黑客盗取的就没有价值。但是当时社区的部分支持者认为这是一个去中心化的社区,不应该由一个人决定未来。所以坚定愿意抗下被黑客攻击后的损失,以保证社区的去中心化。因此社区之间产生了矛盾,就出现了硬分叉之后的两条链:以太经典(ETC)和现在的以太坊(ETH),每个链都有算力的维持,所以两条链现在都运行的很好。这个事件实际上是以太专的创始人Vitalik Buterin通过自己的号召力,修改了(或可以说是篡改了)全网节点的共识结果,使的已经发生的黑客的攻击行为无效。除此之外,采用POW共识机制的区块链都会有所谓的51%攻击的问题。在比特币的白皮书中,有一段最接近对51%攻击的定义的描述:“The system is secure as long as honest nodes collectivelycontrol more CPU power than any cooperating group of attacker nodes.”。即,只要诚实的计算节点在总体上比任何一个攻击群控制更多的计算能力,那么系统就是安全的。从这句话可以推论一下,如果有一个人要篡改比特币的交易结果,一种可能的方式就是在短时间之内控制比特币网络中的大量算力(51%),并且通过产生新的块的数量比原始数量(从要篡改的区块至当前块的案号)多的方式使得全网接受这条更新的更条的链。
传统区块链多采用单链结构是为了保证交易合法以及避免双花问题,需要对任何两笔交易之间的先后顺序达成共识,因此全网节点只能一块一块顺序地产生区块,速度较慢。且传统的区块链的全网共识机制要求每一个参与节点中都存储全量的数据。然而这种全网共识机制实现的可信存证会遇到明显的吞吐量和存储开销的瓶颈。
首先,参照图1,示出了本发明实施例的存入方法的步骤流程图,具体可以包括以下步骤:
步骤S101,所述P2P网络系统中的发起交易节点在发起交易的过程中,从所述P2P网络系统中随机选择多个见证节点对该交易进行见证;
步骤S102,所述见证节点将见证该交易所产生的交易数据打包,生成区块;
步骤S103,所述见证节点从所述P2P网络系统中随机选择多个存储节点;
步骤S104,所述见证节点将所述区块发送给多个所述存储节点;
步骤S105,所述存储节点对所述区块进行存储;其中,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构。
节点指的是P2P网络系统中的计算机,包含手机,矿机和服务器等等。本发明实施例中的发起交易节点、见证节点和存储节点均为指上述节点中的任一个。
发起交易节点可以为获得起始数据输入的节点或向P2P网络系统中的邻居节点传递数据(可为区块)的节点,交易指向数据库或目标节点发送所述数据的过程,比如发起交易节点获得数据输入为“Hello!”,然后将“Hello!”加上目标地址,进行封装,向与目标地址对应的节点封装后的数据,此为交易的过程。实际处理时,该交易可能包括多笔数据的存入,也可称为多笔子交易,如输入完“Hello!”后,还可能包括“I’m Davy”“nice to meetyou”等等,上述“I’m Davy”和“nice to meet you”分别为一笔子交易。
在本发明实施例中,见证节点也可视为共识节点,该节点用于对上述交易进行见证,见证交易的数据,时间,发起人,目标人等等,然后将见证该交易所产生的交易数据打包,生成区块。基于上述子交易的描述,所生成的区块可能包括多笔子交易。
因此,在本发明一优选实施例中,为了便于数据的传输,设定区块的存储量为1024字节。步骤S102的具体实现方法包括:所述见证节点在见证该交易所产生的交易数据的数据量超过1024字节时,将所述交易数据打包,生成区块。接下来见证节点再随机选择多个存储节点,将区块发送至存储节点存储。
为方便理解本发明实施例的存入过程,进一步分析如下:
第一发起交易节点为获得用户数据输入的节点,该发起交易节点发起一笔交易,随机选择多个第一见证节点对该过程进行见证,并产生第一区块,该第一区块被见证节点随机分散存储在多个第一存储节点中。
在上述过程中,第一见证节点在生成第一区块并将区块发送至各个第一存储节点的过程又可被视为一笔交易,此时的第一见证节点可视为第二发起交易节点,相当于最开始发起交易(获得用户数据输入的节点)节点,然后第一见证节点也会另外随机选择多个第二见证节点对该交易(生成区块并将区块发送至各个第一存储节点)的过程进行见证,生成第二区块,并由第二见证节点再随机选择多个第二存储节点存储第二区块。
上述步骤依次循环下去,因此,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构(DAG,中文名"有向无环图"。"有向"指的是有方向,准确的说应该是同一个方向,"无环"则指够不成闭环)。在本发明所述的DAG结构中,每个区块有多个前序区块和多个后续区块。对于每个节点来说(如第二见证节点),上一个交易的过程的区块(如第一区块)为其前序区块,下一个交易的过程产生的区块为其后续区块(如第二区块)。每个节点维护自己的前序区块和后续区块,形成了可无限扩展的链式结构。
基于上述内容,本发明实施例的区块内部的数据结构图如图2所示,所述区块包括区块头和区块体;其中,所述区块头包括多个前序区块的ID,见证节点签名、时间戳、唯一标识Nonce、数链版本、区块数、Merkle Tree树根;其中,所述区块体包括所述交易数据。Merkle Tree树根即保存交易数据的元信息,包括生成时间、实际数据(即区块体)的Hash、上一个区块的Hash值等等信息。
此种情况下,篡改者要想修改该笔交易,就需要对针对该交易的区块进行篡改,而对每个区块进行篡改,需要获得该区块的前序区块,然后利用上一个区块的Hash值与自身区块的实际数据算出自身的Hash值,才能实现对该区块的篡改。但是由于针对该笔交易,所涉及的区块为指数增长的,因此,篡改者得在全网中找到针对该笔交易的所产生的所有区块(包括第一区块、第二区块、第三区块…),并对所有区块进行篡改,就从实现上来说,这几乎是不可能的,以此加大了交易过程中篡改的难度。参照图3,示出了本发明实施例的区块组织结构图。
传统区块链多采用单链结构是为了保证交易合法以及避免双花问题,需要对任何两笔交易之间的先后顺序达成共识,和比特币不同的是,对于本发明实施例的可信存证的需求来说,所选择的见证节点为多个,各个见证节点之间进行随机存储的过程是独立的,并不需要对交易之间的严格顺序达成共识,无需全网同步,以此保证了本发明的交易可信存入的速度。
在本发明一优选实施例中,针对一笔交易,所述见证节点的数量为3个,每个见证节点选择的存储节点的数量为3个。篡改者针对每笔交易的每个区块进行篡改,首先需要在全文找到针对每笔交易的3个见证节点,然后针对每个区块,再找到随机选择的3个存储节点。三三共识的设置方式更进一步加大了篡改者的篡改难度,且由于每个节点维护自身的DAG,不需要进行全网DAG的同步,避免了针对交易调用的节点数过多,影响交易的可信存证速度的问题,使得节点的存储开销随着节点数量与存证吞吐量的增长,保持随时间线性增长,而不会爆炸式增长,达到存储开销与数据可靠性之间的平衡点。如图4所示,示出了本发明实施例的见证-共识过程示意图。
在本发明另一优选实施例中,所述见证节点将所述区块发送给多个所述存储节点时,所述方法还包括:
所述见证节点将所述区块的区块头广播给网络中的其他节点;
接收到所述区块头的节点将所述区块头加入到其自身的区块对应的多个前序区块和多个后序区块中。基于上述区块内部的数据结构图,区块头包括多个前序区块的ID,见证节点签名、时间戳、唯一标识Nonce、数链版本、区块数、Merkle Tree树根,见证节点采用将每个区块的区块头广播给其他节点的方式,进一步提高了篡改难度,篡改者在修改区块的同时,还得消灭其他节点中记录的该区块的区块头记录,增加了本发明对交易数据存证的可靠性。
综上,本发明实施例随机选择见证节点和随机选择存储节点的过程为随机共识过程,采用的是nRW随机见证(n-Random Witnesses)机制;而见证节点和所有存储节点的所有区块构成有向无环图DAG结构,因此,恶意篡改者要想篡改该笔交易,首先得找到随机存储的见证节点和存储节点,其次,还得对记录有该交易的全部区块进行篡改,有向无环图帐本结构配合nRW共识机制,不仅解决了大规模共享交换过程中的监管问题,还使得本发明实施例的分布式账本的存证吞吐量随着节点数量的增加可以线性扩展。
上述存入过程在P2P网络系统构建成了本发明实施例的基于随机存储的分布式账本,可以将用户的数据安全地记录到分布式的网络节点上,当数据被安全记录后,仍然需要可靠且高效的机制去检索分布式账本上的数据,如查询余额,查询交易历史以及交易的内容。这种查询不仅仅是精确查询,还有可能是模糊查询、范围查询、多条件查询。而查询功能不应该仅仅提供交易数据的检索,还应该在对交易数据发生分歧时,提供溯源和审计功能。即如何处理用户的查询请求,并在分布式账本上查询满足条件的数据,将结果准确快速的响应给用户,和数据存储同样重要。
如比特币和以太坊这种类似的架构,矿工节点把交易打包成区块后,将该区块广播给网络上的所有节点。每个节点在收到新打包的区块后,都将该区块放置到自身维护的区块链结构中。全网中的每个节点都包含有全部的交易数据,故每个节点都可以作为查询请求的代理节点,通过对自身的数据库中检索满足条件的数据,进而响应查询请求。但比特币从2009年的第一个创世区块至今已经产生了193GiB的数据,比特币网络上的每个全节点都需要占用193GB的磁盘空间,而且随着时间的推移,该数据量的大小还会不断增加。而本发明实施例的分布式账本为了增加交易的吞吐量以及节省磁盘空间,摒弃了数据全网同步的方式,而采用了交易数据部分随机存储的方式。即网络上的所有节点并不存放全量的数据,而只随机存储部分交易数据。因为此种架构网络上的节点存储的并不是全量数据,所以就无法应用比特币和以太坊的查询方法。
另外一种直观的查询实现方法是,将网络上的所有数据同步到一个代理查询请求的节点上。该代理节点通过某种方式获取网络上所有节点的数据,并对数据验证和汇总后,存放到自身的数据库中,并对外提供查询功能。但该方案只适用于节点数量比较少和TPS较低的场景下,当节点数量和TPS达到一定阈值后,交易的数据量就会超过代理节点的带宽和计算能力,从而使得查询功能变得不可用,即该查询系统的架构是不可扩展的。
针对上述查询问题,参照图5,示出了本发明实施例的查询方法的步骤流程图,具体可以包括以下步骤:
步骤S501,在所述P2P网络系统中,第一节点获得其父节点广播的查询请求,所述第一节点为所述P2P网络系统中的任一节点;
步骤S502,所述第一节点通过树形维护程序将所述查询请求广播给自身的孩子节点;所述孩子节点用于利用所述P2P网络系统的树形结构,将所述查询请求再广播给自身相应的孩子节点,自身相应的孩子节点重复上述广播步骤,直至将所述查询请求广播至该P2P网络系统上的所有节点;每个节点在收到查询的请求后,检索本地数据库,并等待其孩子节点的结果返回,当收集完所有的孩子节点返回的数据后,做结算和去重操作,并将结果返回给其父节点;经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户。
在本发明实施例中,提出了一种具有高容错和负载均衡的树形结构的P2P网络系统(接下来,或以树对该系统进行简称),该P2P网络系统并不是在协议开始运行时便开始构建。而是当传递第一条消息时,随着该条消息的传播路径形成一棵P2P网络系统,再通过后续消息的传播对该树进行优化和修复。在针对该P2P网络系统的查询方法中,本发明实施例采用了邻居节点(邻居节点指某一节点的父节点或孩子节点)的查询请求方法,并通过树形维护程序将该查询的请求广播给该节点的孩子节点,孩子节点再广播给自己相应的孩子节点,重复上述步骤,利用该树形结构,广播查询的消息至网络上的所有节点。节点在收到查询的请求后,检索本地数据库,并等待孩子节点的结果返回,在此过程中采用了“分治思想”,将查询的所有结果的去重、验证和传输均匀地分配给网络上的所有节点。首先节点之间构成树形结构,除根节点外,每个节点向其父节点传递查询结果,父节点接收到所有的孩子节点返回的所有数据后,将查询结果做去重和验证,经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户。本发明实施例通过邻居节点的发散性查询方法,以及将查询结果在返回的传输过程中进行去重和验证,可降低代理节点的负载,还能保证低延迟,该树不仅仅能用来做查询结果回收,还可用来做查询请求的传递。
就具体实现而言,本发明实施例的基于图结构随机存储的分布式账本是一个完全去中心化的P2P应用,网络上的每个节点并不能保存全网的节点信息,故需要定义一些相关的数据结构来存储网络上的部分节点的信息。全网上节点的所有信息被分散保存到了该网络的所有节点上,即所有节点维护的部分信息反映了全网的拓扑结构。每个节点能根据和其维护的节点之间的连接状态做动态的更新,来保证该节点和全网节点的连接。P2P网络系统的构建依赖于上述的数据结构,而节点之间的连接状态和延迟是动态变化的,根据该变化对P2P网络系统的树形结构做修复和优化,而修复和优化的过程需要定义一些额外的数据结构。如缓存消息的相关数据结构,该数据结构可以根据消息到达的先后次序来动态优化和修复该P2P网络系统。如何定义和使用上述数据结构来维护一棵全局的树变得十分关键。首先,树的维护主要分为以下三个部分:
1.树的构建:即在一个已有的网络拓扑环境中,删掉其中的一些连接的边,构造出一棵满足上述条件最优的生成树。运行在协议的初始化阶段。
2.树的优化:网络中节点之间的连接和节点的在线状态是不断变化的,该树不能是一成不变的,必须随着网络环境的变化而动态的优化,如传输延迟的优化、传输跳数的优化和节点的出度优化。
3.树的修复:当P2P网络系统上的一个节点离开网络或树上的一条连接的边暂时断开后,会影响到下层的节点对传输消息的接收。树的修复就是保证在节点离开和连接断开的情况下,修复该P2P网络系统,保证所有的节点能收到广播的消息并可以传递查询的结果,并在后续的传播过程中对该树不断地修复。
为了保证传输过程中消息的快速传输,节点之间的连接采用TCP长连接的方式,采用TCP长连接既能保证消息的可靠传输,避免每次建立连接的开销,还可以快速检测到节点的故障或连接的断开。
为实现本发明实施例,所述P2P网络系统包括BroadcastTree协议、MsgTransferProt协议和PartialView协议,所述BroadcastTree协议负责P2P网络系统的维护工作;所述MsgTransferProt协议负责查询消息的广播和查询结果的验证传递;所述PartialView协议负责管理每个节点的邻居节点,所述邻居节点包括父节点和孩子节点;其中,每个节点包括积极列表Active List,所述Active List分为活跃列表Eager List和惰性列表Lazy List;其中,所述节点的Eager List中存放的是在P2P网络系统上和该节点建立TCP连接的节点,用于传递消息;所述节点的Lazy List是所述Active List除Eager List中的剩余节点,用于传递消息的摘要或消息的ID,用于P2P网络系统的优化和容错。所述PartialView协议还包括消极列表Passive List,所述Passive List中存放的是随机节点,用于替换ActiveList中断开连接的节点,保证节点和所述P2P网络系统中网络的连接。
每个节点中包括第一Map缓存、第二Map缓存以及第三Map缓存,第一Map缓存是ReceivedMs-gMap,存放的是消息ID和消息的映射,用来缓存当前已经收到的消息,以便于响应其他尚未收到该消息的节点对该消息的请求;
所述第二Map缓存是NotReceivedMsgMap,缓存的是消息ID和发送该消息的节点的映射;当达到指定的时长时,仍未收到Eager List中的节点发送的该消息,触发Timer定时器,用于向发送该消息的节点请求该消息,并修复所述P2P网络系统;
所述第三Map缓存是TimingCacheMsgMap,负责缓存当前收到的消息,如果在指定的时间范围内收到Lazy List中的节点发送的消息,比较两者的跳数来决定是否优化该树,给该P2P网络系统提供新的优化的可能。
具体的,假设当前还没有形成完整的P2P网络系统,用户向节点1(第一节点)发送一条查询消息,节点1将该消息广播给其Eager List中的所有节点,即节点2、节点3和节点6。这些节点收到该消息后,首先检查是否已经收到了该消息,即查看ReceivedMsgMap中是否存在当前消息。如果已经存在,将发送该消息的节点从Eager List移动到Lazy List中,并向发送该消息的节点发送PRUNE消息。如果不存在,将该消息缓存到ReceivedMsgMap中,并向Eager List中的所有节点发送该消息。参照图6(a),示出了P2P网络系统的第一次生成示意图,在图6(a)中,虚线表示是Lazy List中的节点,用于容错;实线表示P2P网络系统的边,用于传递查询消息。第一次消息传输完成后的P2P网络系统如图6(b)所示,一些节点的Eager List中的节点被移除到了LazyList中,每个节点和其Eager List中节点的连接构成该生成树的边。后续的消息只需要传给Eager List中的所有节点和发送消息的ID给LazyList中的所有节点。但此P2P网络系统的初始化是根据传输路径的传输速度来生成的,即传输速度快的节点的子树节点的数量就可能比传输速度慢的节点的子树节点数要多,并没有考虑树的平衡。
上述过程维护了三个重要的列表,Eager List、Lazy List和Passive List。这三个列表是运行P2P网络系统的维护算法的基础,这三个列表维护的好坏直接影响着P2P网络系统的结构,影响查询的延迟和查询结果的去重和验证。其中Eager List和Lazy List实则是和当前节点长连接的节点,Passive List是这两个列表的候补列表,旨在随机获得网络上的节点,从而防止网络的部分区域化,出现多个连通分量,节点之间不能通信的情况。
接下来,本发明实施例对如何在复杂的网络环境中,动态地维护这三个列表,从而优化传输的延迟和计算以及加强节点之间的连通性阐述了具体的方案,以第一节点为例。
首先,在所述第一节点加入所述P2P网络系统之前,需要对第一节点的三个列表进行初始化,所述方法包括:
步骤1:所述第一节点获取所述P2P网络系统的部分拓扑信息,应用所述拓扑信息初始化自身的Eager List、Lazy List和Passive List;
在本发明实施例中,采用的是基于HyparView的节点管理方式,HyparView原文中推荐使用的是定义一个或几个联系节点(Contact Node),每个节点加入到该网络时,首先连接到联系节点,由联系节点将其的三个列表发送给欲加入的节点。但这样容易导致网络的区域化,产生多个连通分量,导致所有的节点之间不能相互通信。所以,本发明实施例采用了基于KAD(Kademlia)实现的节点加入算法,KAD算法是NewYorkUniversity的PetarMaymounkov和David Mazieres在2002年提出的一种分布式Hash表的收敛算法。该算法通过两个节点ID的异或距离来衡量两个节点之间关联度,通过对节点ID的有效分层,每个节点仅需要保存网络上部分的节点信息,仅需要log(N)跳就可以找到相应的资源或定位到相应的节点。若没有满足条件的资源和节点,也会找到和该资源或节点异或距离最近的几个资源或节点。基于KAD的特性,本发明实施例利用KAD算法来初始化节点自己维护的邻居节点组成的邻居节点列表。
上述拓扑信息包括随机分配的节点Node ID;步骤1具体可以包括以下子步骤:
子步骤11:所述第一节点利用所述NodeID和KAD算法向P2P网络系统的网络发起请求,查找距离该Node ID最近的邻居节点;
子步骤12:所述第一节点从所述邻居节点中选择部分节点来初始化自身的EagerList、Lazy List和Passive List。
在本发明实施例中,每个节点在初始化时,都会被随机分配一个Node ID,利用NodeID和KAD算法向该网络发起请求,查找距离该Node ID最近的几个节点。随后,节点从这几个节点中选择部分节点来初始化自身的三个List列表。每次选取离该节点最近的几个节点作为邻居节点,优选的,从其中选取延迟较低的节点作为Active List,剩余节点作为PassiveList。
在本发明一优选实施例中,所述子步骤12进一步包括:所述第一节点根据自身的初度m,从所述邻居节点的Eager List中选择Eager List出度最小的m个节点,并将这m个节点加入到自身的Eager List中,以及根据自身的Passive List中的节点数n,从所述邻居节点的Passive List中随机选择n个节点,并加入自身的Passive List中,同时对Lazy List初始化为空,以完成初始化自身的三个List列表。
进一步的,当从所述邻居节点的Eager List中不能找到满足条件的m个节点时,所述第一节点从返回的所述邻居节点的Passive List中选择延迟最低的d个节点,并将这d个节点加入到自身的Eager List中。从而保证该节点的Eager List和Passive List能初始化成指定大小的List。Lazy List初始化为空,后续树的构建和优化的过程,会将Eager List中的节点转移到Lazy List中。
步骤2:当完成Eager List、Lazy List和Passive List的初始化后,所述第一节点与其Eager List中的节点分别建立TCP长连接,用来构成P2P网络系统的边;
步骤3:所述第一节点利用Lazy List中的节点作为替补边来对所述P2P网络系统进行修复,仅留下一个传输速度相对较快且跳数最少的边,剩下的节点被最终移除到LazyList中。
通过上面一系列的操作,加入的节点最终作为P2P网络系统的叶子节点,参与消息的传输和结果的汇总。
基于上述内容,继续参照图5,针对所述树形维护程序,具体可以包括以下步骤:
步骤S503,所述第一节点在将所述查询请求广播给自身的孩子节点时,向自身的孩子节点中的第二节点发送IHAVE消息,所述IHAVE消息中包括消息ID;
步骤S504,所述第二节点检查自己是否已收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息;
如果所述第二节点在超时时间内未收到与所述消息ID对应的NORMAL消息,则执行以下步骤:
步骤S505,所述第二节点生成用于修复所述P2P网络系统的GRAFT消息;所述GRAFT消息包括所述消息ID和接收所述IHAVE消息的请求;
步骤S506,所述第二节点将所述GRAFT消息发送给所述第一节点,并将所述第一节点从自身的Lazy List中移动到Eager List中,使所述第一节点对所述P2P网络系统进行修复;
如果所述第二节点在超时时间内已收到与所述消息ID对应的NORMAL消息,则执行以下步骤:
步骤S507,所述第二节点计算IHAVE消息的接收跳数与NORMAL消息的接收跳数差;
步骤S508,所述第二节点判断所述跳数差是否超过跳数阈值;
步骤S509,若所述跳数差超过跳数阈值,所述第二节点对所述P2P网络系统进行修复。
在本发明实施例中,NORMAL消息的功能为在P2P网络系统中传递的查询消息或者查询结果,通过和Eager List中节点建立的TCP长连接发送;IHAVE消息中包含当前节点已经收到消息的消息ID,通过和Lazy List中的节点建立的TCP长连接发送,告知可从该节点获取该消息ID对应的消息;GRAFT消息是P2P网络系统的修复消息,用于向IHAVE消息的发送节点请求尚未收到的消息,将Lazy List的边替换为EagerList,修复该P2P网络系统;PRUNE消息用于裁剪P2P网络系统上多余的边,防止广播风暴。
上述超时时间的设置方法包括:所述第二节点收到消息时,通过所述ReceivedMsgMap检查是否已经收到所述IHAVE消息或NORMAL消息;
如果收到所述IHAVE消息或NORMAL消息,则丢弃该消息;
如果未收到所述IHAVE消息或NORMAL消息,则查看是否收到所述IHAVE消息或NORMAL消息的ID;
如果未收到,则丢弃该消息;否则,将所述IHAVE消息的ID或所述NORMAL消息的ID加入到NotReceivedMsgMap中,并将所述IHAVE消息或NORMAL消息设置为超时事件。因此,第二节点通过判断Timer超时事件,就可判断是否在超时时间内收到其邻居节点中的第一节点发送的IHAVE消息。超时判断时间可设置为0.1S。
在步骤S505~S506中,如果第二节点在超时时间内没有收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息,说明其父节点(第一节点)可能不在线或延迟太高,则发送GRAFT消息给消息ID的发送者第一节点。目的有两个,一是向第一节点请求这个没有收到的消息,二是将第一节点从Lazy List中移动到Eager List中,来修复该P2P网络系统。
在具体实现时,由于网络原因,可能该查询请求在第一次过程中还未发送过来,而此时第二节点又再次向第一节点发送接收所述IHAVE消息的请求,这导致第一节点可能向第二节点发送了多次所述查询消息。为避免多次消息重复,占用节点内存,并影响树的平衡,本发明实施例还提供了方法:所述第二节点在收到所述查询消息时,查看其ReceivedMsgMap中是否存在该查询消息;当所述ReceivedMsgMap中存在所述查询消息时,所述第二节点将发送所述查询消息的第一节点从其Eager List中移动Lazy List中,并向该第一节点发送删除PRUNE消息;当所述ReceivedMsgMap中不存在所述查询消息时,将所述查询消息缓存到所述ReceivedMsgMap中,并向其Eager List中的所有节点发送所述查询消息;所述第一节点接收所述第二节点发送的PRUNE消息,将第二节点从自己的Eager List中删除,并把所述第二节点放入到自身的Lazy List中。
在步骤S507~S509中,如果第二节点在超时时间内收到了该消息,说明第二节点的父节点(第一节点)到第二节点只是延迟高一些,这时需要比较两者的跳数差。只有Lazy的跳数小于Eager跳数至某一个threshold时,才进行该树的修复。这样可以保证该树的稳定性和平衡性,不会由于频繁的网络变化,导致树的结构不断变化,维护了该树的稳定性。且不会只根据传输的延迟而不考虑跳数来对该树进行优化,维护了树的平衡性。
此外,所述第二节点在收到所述第一节点发送的NORMAL消息时,将所述NotReceivedMsgMap中关于该NORMAL消息的记录删除,并存储到ReceivedMsgMap中,以及时保证数据的准确性,用于后期维护树的平衡。
综上,在本发明实施例中,树的修复和优化是通过交换Active List和PassiveList数据结构中的变量来实现的。如将断开连接的节点放入Passive List中,将延迟低、跳数少的Lazy List中的节点替换Eager List中的节点,将Passive List中的在线节点替换为ActiveList中断开连接的节点。如Eager List中的节点是根据接收消息的延迟和跳数来替换成Lazy List中的节点的,这样就会导致P2P网络系统的顶层节点Eager List尽可能满,最大化利用节点的出度,降低整棵树的高度。而底层的节点就有足够的Lazy List来用于优化和容错。节点的Eager List是通过KAD算法随机获取的,而Lazy List是Eager List中淘汰下来的,也是随机的,下层节点的Lazy List随机存放整棵树上的节点,该随机性增加了整棵树的容错性。不会由于出现上层的边断裂导致下层的节点不能收到广播消息的情况。由于控制消息是轻量的,树的优化和修复都是采用Lazy Repair的方式,所以优化和修复过程并不会占用大量的网络带宽,整个维护的过程是低负载的。
需要说明的是,在本发明的各个实施例中,第一第二只是为了区别不同的节点,并没有实质性的顺序意义。
接下来,针对本发明实施例所提供的步骤,对本发明实施例的整体方案做分析,包括存入过程的分析和查询过程的分析。
一、存入过程的分析:
在本发明实施例中,节点与节点之间的同步开销是随着交易数量的增长而线性增长的,与节点数量无关。每笔交易的网络开销为n*m(n为该笔交易所选择的见证节点的数量,m为该笔交易所选择的存储节点的数量);每笔交易的存储开销也为n*m(n为该笔交易所选择的见证节点的数量,m为该笔交易所选择的存储节点的数量)。因此,随着节点数量的增加,其存储能力增加、网络带宽也增加,整个系统的存证是可横向扩展的。而对于传统全网同步的链式区块链系统,其存储开销取决于节点数量K,因此,随着节点数量的增加,存储能力增加的同时存储开销也同步增加,这会导致随着节点数量的增加,其整体开销越来越大,吞吐量会越来越低。
因此,对某一条交易数据(t)的修改,需要修改以下相关的节点及区块:
1、交易数据所在的区块集合,设为A={a|a为区块,且a包含交易t},则,card(A)=n。
2、交易数据所在区块的后续区块集合,对于任意区块a1,其后继区块集合B1={b|b为a1的后继区块},则所有需修改的后续区块集合为UBi,其中i=1,2,…n。
下面对区块数量进行估计:对于某一个区块,随着时间的增加,其后继区块数量也不断增加。在传统链式结构的区块链系统中,对于任意一笔交易,修改它所需的篡改代价为该笔交易的区块及后续区块的数量k。而在本发明实施例的图结构区块链中,对于任意给定的篡改代价k(表示需要篡改的区块的数量),总有一个时间T,使得card(AU(UBi))>k。这表明,本发明实施例所提的图结构区块链的防篡改能力与链式结构相当,但使用时间更少,速度更快,且吞吐量更大。Libp2p是一个模块化的网络栈,通过将各种传输和P2P协议结合在一起,使得开发人员很容易构建大型、健壮的P2P网络。基于libP2P,本发明实施例实现了一个分布式的图式账本的示例。参照图7,示出了图式分布式账本系统的拓扑结构图,在每个物理节点上,运行了一个本发明实施例的进程,具体包括:
网络层逻辑:有p2p发现模块,可以发现其他加入网络的节点;
消息发送模块,可以实现节点之间的消息通讯;
事件订阅模块,可以实现节点之间的事件订阅。
协议层:实现了见证过程和共识过程的见证模块和共识模块,还有对应用层提供支撑的交易模块。
应用层:以服务网关的形式对外提供记账(存证)服务。
下面介绍一下系统的执行流程:当有一个存证请求发起时,调用者会通过服务网关的GRPC(GRPC是google开源的一个高性能、跨语言的RPC框架,基于HTTP2协议,基于protobuf 3.x,基于Netty4.x+。GRPC与thrift、avro-rpc等其实在总体原理上并没有太大的区别,简而言之GRPC并没有太多突破性的创新。)接口将需要存证的内容传到某一节点中。在交易模块,会将相关的元信息,如发起者、接收者、发送时间、校验码等打包成一条交易记录,并交给见证模块进行见证。见证过程如前文所述,随机寻找若干个节点,将交易记录同步。当交易收集到一定程度的时候(如1024条交易),会进行打包产块并分发的共识过程。
见证过程与共识过程既可以使用消息发送机制也可使用事件订阅机制实现。下面分别给出这两种实现的示例。
当使用消息发送机制实现时,过程较为简单。只需通过p2p发现,找到所有节点,对于某次见证或共识过程,使用随机算法,可以从所有节点中选取若干个节点,进行见过或共识即可。
当使用事件订阅机制实现时,见证过程和共识过程的随机性会有所减弱。在发起交易前,可以用一个定时的策略进行事件订阅,如5分钟执行一次。具体而言,可以定义两种事件,共识事件与见证事件。以见证事件为例,对于任意一个节点A,每5分钟就会执行以下流程:1.随机选择若干节点,发送一个订阅请求给这些节点;2.这些节点收到之后,主动向A节点订阅该节点为“见证事件”。
每当见证过程触发时,该节点发布见证事件(事件内包含交易内容),即可将该消息(事件)同步给随机选择的这些节点。
另一种基于事件订阅机制的定时策略是由被订阅者随机产生若干个节点,订阅这些节点的见证事件与共识事件。在订阅过程,这种方式在平均上的流量比第一种要少50%。但是每个节点的事件订阅数量方式一是方差为0的固定节点数量;而这种方式则存在一定的方差,方差大小取决于被订阅者的随机算法。在具体实现中,如果没有防恶意节点的需求,只有防失效节点的话,则可采取这种策略,以提升整体系统的性能。
二、查询过程的分析:
1、查询的时间复杂度。
查询的过程首先要将查询消息通过P2P网络系统广播到全网,随后,通过全网节点进行层层验证和统计,最终将查询结果返回给P2P网络系统的根节点。若忽略查询结果在节点上的处理过程,那么整个查询过程是两次树的层次遍历的过程,故查询的延迟和P2P网络系统上的最长路径有关。假设每个节点配置有相同的出度k,每一层以pi(0<pi<1)的概率出度为k,树中所有的节点数量是N,树的高度是h,则
Figure BDA0002250817490000171
通过计算可得树的高度h=O(logkN)。只需要logkN跳就可以遍历全网上的所有节点并汇总所有节点返回的查询结果,故查询的时间复杂度是O(logkN)。
2、负载降低率。
定义数据去重率为查询过程中根节点实际收到的数据总量和不采用此架构收到的数据总量的差值除以不采用此架构收到的数据总量。假设一次查询中,满足该查询条件的交易数量是n,P2P网络系统的根节点实际上接收到的交易数据量是m,则数据的去重率为1-m/(12*n)。
如果不采用此种查询架构,那么查询的代理节点应该收到的数据量大小是12乘以满足条件的所有交易数量。返回的结果在生成树传递的过程中,会被中间的传输节点去重,进而减少P2P网络系统的根节点数据处理总量。假设每个节点的出度是k,所有的数据均匀地分布在整个网络上,那么满足相应条件的查询数据就应该均匀地分布在P2P网络系统根节点的所有孩子中,那么最终返回的数据量应该为k*n,故查询的去重率是1-k/12。
综合来看数据的去重率和节点的出度k成负相关,而查询的跳数即查询的延迟和k成正相关。即k越大,根节点接收的数据量就越大,数据处理的负载越大,但查询的时延较低。所以,应该根据不同的场景综合考虑,当查询节点的计算能力较弱时,就可以采用低出度,损失查询延迟来降低根节点的负载。当节点的计算能力较高,且对查询延迟要求较高,就可以采用高出度的方式,降低查询延迟从而占用根节点的部分计算能力。
3、可扩展性分析
可扩展性是程序、系统和网络的重要属性,具备可扩展性的程序、系统和网络可在极小的代价下,优雅地处理工作量增加的问题,如通过增加处理资源等方式。对于中心化的服务架构来说,如搜索引擎,必须是可扩展的,来处理更多用户的查询请求以及对更多的资源建立正确的索引。中心化的服务架构通常采用横向扩展的方式,以增加服务器的方式来增加整体系统的处理能力。
而网络的可扩展性和中心化服务器的可扩展性却有所不同,如路由协议的可扩展性是用来应对网络规模的变化,假设网络中节点的数量是N,而路由协议表的大小是O(logN)级别的,该路由协议就可被认为是可扩展的。本发明实施例的P2P系统没有任何中心化的结构,所以不需要除了节点以外的任何其他资源,就可以无限的扩展。在时间复杂度分析中,分析出一次查询仅仅需要log(n)跳,在P2P网络层面就可以认为该协议是可扩展的。而除了消息的路由,仍然还有查询结果的传输和处理,在负载降低率的分析中,分析了本发明实施例的方案中,节点的负载和节点的出度k成负相关。故可通过调节节点的出度大小,来动态降低和增加节点的处理负载,对计算能力较高的节点可赋予较高的出度,对计算能力较低的节点赋予较低的出度,这样可以进一步增加查询系统的可扩展性。
除了上述提到的可扩展性,本发明实施例所提供的方案还具备很强的功能可扩展性,为将来进一步实现功能更加强大的查询系统提供了良好的基础,如更强的可扩展性和更小的开销等。
为验证本发明实施例的可扩展性,下述示例公开了本发明实施例在真机上的查询操作的可用性和仿真环境下10000个节点的可扩展性做了验证。验证的指标包括查询操作的平均跳数以及平均最大跳数和数据的去重率等。
参考变量的设定主要参照P2P网络协议的评定指标,如节点数量,由于本发明实施例的特殊性,故还选取了节点的出度作为参考变量。P2P网络中可扩展性的验证通常采用的是增加节点的数量来检验功能的可用性,采用节点数量为参照变量,来验证该查询系统的可扩展性,并以节点的出度作为参照量可以验证节点出度对节点的负载以及传输延迟的影响,从而更好地优化参数来提高系统的可扩展性。
而观测的指标主要有节点的负载,查询的延迟,以及树的平衡性,分别对应数据去重率、查询一次的跳数和叶子节点到根节点的跳数分布这三个因变量。节点的负载通过数据去重率来表征,数据去重率越大,节点的负载越小,反之亦然,通过观测节点的负载可较好地调整节点的出度,从而维持查询延迟和负载之间的平衡。由于P2P网络的异构性,节点之间的延迟在不同的网络环境中不尽相同,为了更好地表征查询的延迟,本示例使用的是查询的跳数指标而非查询消耗的时间。而树的平衡性是保证负载均衡的关键,通过维护一棵较为平衡的树,每个节点都可以均匀地负载查询结果的处理和传输,树的平衡性的表征是通过叶子节点到根节点的跳数分布来进行的,如果叶子节点到根节点的跳数都集中在log(N),则说明树是较为平衡的。
(一)、节点数量对性能影响的分析
如图8.1所示,是在每个节点的Active List大小都为7的情况下,随着节点数量的增加,P2P网络系统中的叶子节点的最大平均跳数和平均跳数。可见,平均跳数在log7(N)数量级,最大平均跳数由于网络拓扑结构的随机性略比平均跳数大1到2跳。证明该P2P网络系统最大限度的利用了每个节点的出度,充分降低了P2P网络系统的树高。
如图8.2所示,显示的是在不同节点数量的情况下,P2P网络系统上的叶子节点到根节点的路径长度。如节点数量在10000的情况下,路径长度主要集中在5跳和6跳上。证明该树是较为平衡的,树的平衡性直接决定了统计查询结果时,返回的结果信息能不能被均匀地负载。综上,验证了该方案中的P2P网络系统的维护方案,确实是充分利用了每个节点的出度,构造了一棵最大跳数很小的平衡树。从而保证了查询的延迟和均匀地负载接收到的查询结果。
如图8.3所示,显示了在每个节点的Active List大小为7情况下,P2P网络系统上根节点的数据去重率,可发现随着节点数量的增加数据的去重率并没有明显的变化,在51%上下波动。这也间接证明了数据的去重率和节点数量无关,只和P2P网络系统中节点的出度有关。通过上述实验验证了在节点数量增加的情况下,查询的延迟(实验中用跳数来衡量)是指数增加的,保证了在节点数量增加的情况下,查询功能的低延迟特性。通过叶子节点到根节点的跳数分布可验证该P2P网络系统的平衡性,验证了该方案对查询请求的接收和查询结果的处理是负载均衡的,故查询功能在节点数量增加的前提下,仍然是可用的,验证了该方案的可扩展性。
(二)节点出度对性能影响的分析
在该实验中,将展示在节点数量10000,故障率0%,节点的出度大小为3-10的情况下,节点的出度对查询系统评测指标的影响。
如图8.4所示,节点的总出度越大,P2P网络系统的高度越小,由于在节点的所有孩子节点中,需要保留一些放置到Lazy List中,用来从故障中恢复,增加容错性。所以,总出度并不是P2P网络系统中所有节点的孩子节点数量,故P2P网络系统的树高稍稍高于logkN。但是平均跳数在logkN范围内,保证该课树是较为平衡的。
当节点的总出度为10时,仅仅需要6跳就可以广播到全网,并从全网收集查询结果。当前网络环境中,每个节点和10个节点保持长连接是非常容易实现的。假设两个节点之间的平均延迟是100ms,每个节点的TPS平均为60t/s,节点数量是10000。那么从节点数量是10000,TPS为60万的北大数链上检索交易数据,仅仅需要1.2s,完全在用户的接受范围内。
如图8.5所示,数据去重率随着节点总出度的增加而不断减少,综合上述所有的实验结果,可知数据去重率只和节点的出度有关。节点的出度越大,数据去重率越小,但是平均最大跳数会减少,查询的延迟会降低。节点的出度越小,数据去重率越大,但是平均最大跳数会增大,查询的延迟会增大。
当节点的出度为3时,去重率高达75.19%,极大减少了根节点的计算负载。但是相应地,传输的平均最大跳数竟有12跳之多。所以需要对二者做权衡,当节点的计算能力较差时,可以选取小出度,虽然会增加查询过程的延迟,但会极大减少节点的处理负载。当对查询的延迟要求较高时,且节点的计算能力较强,可以增加节点的出度,进而降低查询的延迟。
根节点的出度越大,孩子节点就越多,每个孩子节点都返回查询结果。而查询结果是均匀分布在整个网络上的节点,故每个孩子节点接收到大致相同量的数据,进而将查询结果传递给根节点。所以,根节点的去重率应该只和根节点有关。如图8.6所示,实验的环境是,网络上节点10000个,除根节点外所有节点的总出度为7,根节点的出度恒为3,节点的故障率是0%,数据去重率和其他节点的总出度的关系。尽管除根节点之外的节点出度一直在变化,但是数据去重率一直在75.20%上下波动,且变化幅度仅有0.01%。说明根节点的数据去重率和其他节点的出度并无关系,仅仅和根节点的出度有关。所以根据节点的计算能力来决定节点的总出度,可以增加和减少处理的负载。
由上面的实验结果可知,当不固定根节点的出度时,所有节点的出度都相同,P2P网络系统的平均跳数随着节点出度的增加而减少。但是根据根节点的计算能力来固定根节点的出度可能会影响P2P网络系统的结构,故需要验证在根节点固定,其他节点出度变化的情况下,P2P网络系统的最大跳数和平均跳数。如图8.7所示,表示在上述条件下,P2P网络系统的平均跳数和节点总出度的关系。
可见,当根节点的出度固定时,P2P网络系统的平均最大跳数和平均跳数与根节点的出度不固定时,相差甚微。故根据根节点的计算能力来决定根节点的出度,并不会对P2P网络系统的特性造成较大的影响。通过上述实验,以节点的出度大小作为变量,以根节点到叶子节点的跳数作为衡量查询延迟的指标并进行检测,验证了节点的出度越大,P2P网络系统的高度越小,查询的延迟越低。但以数据去重率作为根节点负载的指标并进行检测,验证了节点的出度越大,节点的负载也会越大。而通过变化节点的出度和固定根节点的出度,可验证节点的负载大小只与自身的出度大小有关,与其他节点的出度无关,故可以通过降低节点出度的方式来降低节点的负载。而就降低节点的负载是否会影响查询的延迟,本发明做了如图8.7所代表的实验,可得出结论:变化根节点的出度并不会大幅影响查询的延迟。所以,可以通过降低计算能力和带宽较小的节点的出度,在不影响查询延迟的情况下,降低该节点的负载,对节点的计算能力动态地调整节点的出度,可进一步提高本发明实施例的可扩展性,进一步验证了本发明实施例的可扩展性。
图8.1~图8.7分别对查询系统的可扩展性和负载均衡性等方面做了评测,验证了该方案是可扩展、负载均衡的。下面对查询的API进行测试和展示,为了方便阐述,仅测试一个包括条件查询和范围查询的一个多条件查询请求的API。实现环境是10台阿里云机器,节点之间的延迟在20ms至80ms之间,每个节点的最大出度是7,优化的跳数设置为1,无节点故障。
如图9.1所示,示出了查询结果的字段说明。其中transaction ID是该笔交易的唯一标识,from是交易的发起方,to是交易的接收方,timeStamp是交易发起时的时间戳,data和signature分别是数据内容和数据签名的二进制表示,在接口返回数据时,通过Base64编码生成了图中的内容,type交易的类型,包括上传合约、启动合约、调用合约和结束合约等。当分布式账本上的交易发生分歧时,应该能提供溯源和审计的功能。如用户A和用户B对某个时间段发生的交易有分歧,需要对该交易进行精确地检索。
测试的查询条件是自2019-05-12 20:05:31到2019-05-12 20:22:21,满足发起者的账户地址是7f18ee43-f142-439c-527a-442171780b38;
接收者的账户地址是79a3bd9f-81bc-4403-4271-3d33e98b8ec0的所有交易。
如图9.2所示,查询的延迟是66ms,满足查询条件的交易仅有1条。上述示例分别以节点数量、故障率和节点出度作为变量,对该方案的可扩展性和负载均衡性进行了验证,最终验证了该方案是可扩展的、负载均衡的。
在10000个节点,TPS是6万/秒的实验环境下,每个节点的出度是7时,平均仅需5.5跳就可以广播查询条件至所有节点,并接收全网节点返回的查询结果。根节点接收到的查询结果的数据量,仅仅是原数据量的49%。当根节点的出度为3时,仅仅是原数据量的25%,通过将整个查询结果的处理过程均衡的负载到全网的所有节点上,极大地减少了根节点的处理负载。后续还对查询系统的API做了评测,可以看到查询一次的延迟为66ms,且能支持条件查询,范围查询和多条件查询,解决了分布式Hash表查询功能单一的问题。不仅如此,本示例完成了查询过程中的核心工作,即P2P网络系统的维护和查询结果的传输,为后续实现更多类型的查询提供了可扩展的框架。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参考图10,示出了本发明实施例基于可扩展分布式查询系统的可信存证系统的结构示意图,应用于P2P网络系统中,所述P2P网络系统包括多个节点,所述节点包括积极列表Active List,所述Active List分为活跃列表Eager List和惰性列表Lazy List;其中,所述节点的Eager List中存放的是在P2P网络系统上和该节点建立TCP连接的节点,用于传递消息;所述节点的Lazy List是所述Active List除Eager List中的剩余节点,用于传递消息的摘要或消息的ID,用于P2P网络系统的优化和容错;所述系统包括存入装置1000和查询装置1010;
所述存入装置1000包括:
见证节点选择模块1001,被配置在所述P2P网络系统中的发起交易节点中,用于在发起交易的过程中,从所述P2P网络系统中随机选择多个见证节点对该交易进行见证;
交易数据打包模块1002,被配置在所述见证节点中,用于将见证该交易所产生的交易数据打包,生成区块;
存储节点选择模块1003,被配置在所述见证节点中,用于从所述P2P网络系统中随机选择多个存储节点;
区块发送模块1004,被配置在所述见证节点中,用于将所述区块发送给多个所述存储节点;
区块存储模块1005,被配置在所述存储节点中,用于对所述区块进行存储;其中,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构;
所述查询装置1010包括:
查询请求获得模块1011,被配置在所述第一节点中,用于在所述P2P网络系统中,获得其父节点广播的查询请求,所述第一节点为所述P2P网络系统中的任一节点;
查询请求广播模块1012,被配置在所述第一节点中,用于通过树形维护程序将所述查询请求广播给自身的孩子节点;所述孩子节点用于利用所述P2P网络系统的树形结构,将所述查询请求再广播给自身相应的孩子节点,自身相应的孩子节点重复上述广播步骤,直至将所述查询请求广播至该P2P网络系统上的所有节点;每个节点在收到查询的请求后,检索本地数据库,并等待其孩子节点的结果返回,当收集完所有的孩子节点返回的数据后,做结算和去重操作,并将结果返回给其父节点;经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户;
针对所述树形维护程序,所述查询装置1010包括:
IHAVE消息发送模块1013,被配置在所述第一节点中,用于在将所述查询请求广播给自身的孩子节点时,向自身的孩子节点中的第二节点发送IHAVE消息,所述IHAVE消息中包括消息ID;
NORMAL消息检查模块1014,被配置在所述第二节点中,用于检查自己是否已收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息;
GRAFT消息生成模块1015,被配置在所述第二节点中,用于在超时时间内未收到与所述消息ID对应的NORMAL消息时,生成用于修复所述P2P网络系统的GRAFT消息;所述GRAFT消息包括所述消息ID和接收所述IHAVE消息的请求;
GRAFT消息发送模块1016,被配置在所述第二节点中,用于在超时时间内未收到与所述消息ID对应的NORMAL消息时,将所述GRAFT消息发送给所述第一节点,并将所述第一节点从自身的Lazy List中移动到Eager List中,使所述第一节点对所述P2P网络系统进行修复;
跳数差计算模块1017,被配置在所述第二节点中,用于在超时时间内已收到与所述消息ID对应的NORMAL消息时,计算IHAVE消息的接收跳数与NORMAL消息的接收跳数差;
跳数差判断模块1018,被配置在所述第二节点中,用于在超时时间内已收到与所述消息ID对应的NORMAL消息时,判断所述跳数差是否超过跳数阈值;
系统修复模块1019,被配置在所述第二节点中,用于在所述跳数差超过跳数阈值时,对所述P2P网络系统进行修复。
对于系统实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
以上对本发明所提供的基于可扩展分布式查询系统的可信存证方法与基于可扩展分布式查询系统的可信存证系统,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.基于可扩展分布式查询系统的可信存证方法,其特征在于,应用于对等计算P2P网络系统中,所述P2P网络系统包括多个节点,所述节点包括积极列表Active List,所述ActiveList分为活跃列表Eager List和惰性列表Lazy List;其中,所述节点的Eager List中存放的是在P2P网络系统上和该节点建立TCP连接的节点,用于传递消息;所述节点的Lazy List是所述Active List除Eager List中的剩余节点,用于传递消息的摘要或消息的ID,用于P2P网络系统的优化和容错;所述方法包括存入方法和查询方法;
所述存入方法包括:
所述P2P网络系统中的发起交易节点在发起交易的过程中,从所述P2P网络系统中随机选择多个见证节点对该交易进行见证;
所述见证节点将见证该交易所产生的交易数据打包,生成区块;
所述见证节点从所述P2P网络系统中随机选择多个存储节点;
所述见证节点将所述区块发送给多个所述存储节点;
所述存储节点对所述区块进行存储;其中,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构;
所述查询方法包括:
在所述P2P网络系统中,第一节点获得其父节点广播的查询请求,所述第一节点为所述P2P网络系统中的任一节点;
所述第一节点通过树形维护程序将所述查询请求广播给自身的孩子节点;所述孩子节点用于利用所述P2P网络系统的树形结构,将所述查询请求再广播给自身相应的孩子节点,自身相应的孩子节点重复上述广播步骤,直至将所述查询请求广播至该P2P网络系统上的所有节点;每个节点在收到查询的请求后,检索本地数据库,并等待其孩子节点的结果返回,当收集完所有的孩子节点返回的数据后,做结算和去重操作,并将结果返回给其父节点;经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户;
针对所述树形维护程序,所述方法包括:
所述第一节点在将所述查询请求广播给自身的孩子节点时,向自身的孩子节点中的第二节点发送IHAVE消息,所述IHAVE消息中包括消息ID;
所述第二节点检查自己是否已收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息;
如果所述第二节点在超时时间内未收到与所述消息ID对应的NORMAL消息,则执行以下步骤:
所述第二节点生成用于修复所述P2P网络系统的GRAFT消息;所述GRAFT消息包括所述消息ID和接收所述IHAVE消息的请求;
所述第二节点将所述GRAFT消息发送给所述第一节点,并将所述第一节点从自身的Lazy List中移动到Eager List中,使所述第一节点对所述P2P网络系统进行修复;
如果所述第二节点在超时时间内已收到与所述消息ID对应的NORMAL消息,则执行以下步骤:
所述第二节点计算IHAVE消息的接收跳数与NORMAL消息的接收跳数差;
所述第二节点判断所述跳数差是否超过跳数阈值;
若所述跳数差超过跳数阈值,所述第二节点对所述P2P网络系统进行修复。
2.根据权利要求1所述的方法,其特征在于,所述存入方法包括:在所述DAG结构中,每个区块有多个前序区块和多个后续区块。
3.根据权利要求2所述的方法,其特征在于,所述存入方法包括:所述区块包括区块头和区块体;其中:所述区块头包括多个前序区块的ID,见证节点签名、时间戳、唯一标识Nonce、数链版本、区块数、Merkle Tree树根;所述区块体包括所述交易数据。
4.根据权利要求1所述的方法,其特征在于,针对一笔交易,所述见证节点的数量为3个,每个见证节点选择的存储节点的数量为3个。
5.根据权利要求1所述的方法,其特征在于,所述P2P网络系统包括BroadcastTree协议、MsgTransferProt协议和PartialView协议,所述BroadcastTree协议负责P2P网络系统的维护工作;所述MsgTransferProt协议负责查询消息的广播和查询结果的验证传递;所述PartialView协议负责管理每个节点的邻居节点,所述邻居节点包括父节点和孩子节点;其中,所述Active List位于P2P网络系统的PartialView协议中,所述PartialView协议还包括消极列表Passive List,所述Passive List中存放的是随机节点,用于替换Active List中断开连接的节点,保证节点和所述P2P网络系统的连接。
6.根据权利要求5所述的方法,其特征在于,每个节点中包括第一Map缓存、第二Map缓存以及第三Map缓存,第一Map缓存是ReceivedMsgMap,存放的是消息ID和消息的映射,用来缓存当前已经收到的消息,以便于响应其他尚未收到该消息的节点对该消息的请求;
所述第二Map缓存是NotReceivedMsgMap,缓存的是消息ID和发送该消息的节点的映射;当达到指定的时长时,仍未收到Eager List中的节点发送的该消息,触发Timer定时器,用于向发送该消息的节点请求该消息,并修复所述P2P网络系统;
所述第三Map缓存是TimingCacheMsgMap,负责缓存当前收到的消息,如果在指定的时间范围内收到Lazy List中的节点发送的消息,比较两者的跳数来决定是否优化所述P2P网络系统。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
所述第二节点收到消息时,通过所述ReceivedMsgMap检查是否已经收到所述IHAVE消息或NORMAL消息;
如果收到所述IHAVE消息或NORMAL消息,则丢弃该消息;
如果未收到所述IHAVE消息或NORMAL消息,则查看是否收到所述IHAVE消息或NORMAL消息的ID;
如果未收到,则丢弃该消息;否则,将所述IHAVE消息的ID或所述NORMAL消息的ID加入到NotReceivedMsgMap中,并将所述IHAVE消息或NORMAL消息设置为超时事件。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
所述第二节点在收到查询消息时,查看其ReceivedMsgMap中是否存在该查询消息;
当所述ReceivedMsgMap中存在所述查询消息时,所述第二节点将发送所述查询消息的第一节点从其Eager List中移动Lazy List中,并向该第一节点发送删除PRUNE消息;
当所述ReceivedMsgMap中不存在所述查询消息时,将所述查询消息缓存到所述ReceivedMsgMap中,并向其Eager List中的所有节点发送所述查询消息;
所述第一节点接收所述第二节点发送的PRUNE消息,将第二节点从自己的Eager List中删除,并把所述第二节点放入到自身的Lazy List中。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过KAD算法随机获取所述Eager List。
10.基于可扩展分布式查询系统的可信存证系统,其特征在于,应用于P2P网络系统中,所述P2P网络系统包括多个节点,所述节点包括积极列表Active List,所述Active List分为活跃列表Eager List和惰性列表Lazy List;其中,所述节点的Eager List中存放的是在P2P网络系统上和该节点建立TCP连接的节点,用于传递消息;所述节点的Lazy List是所述Active List除Eager List中的剩余节点,用于传递消息的摘要或消息的ID,用于P2P网络系统的优化和容错;所述系统包括存入装置和查询装置;
所述存入装置包括:
见证节点选择模块,被配置在所述P2P网络系统中的发起交易节点中,用于在发起交易的过程中,从所述P2P网络系统中随机选择多个见证节点对该交易进行见证;
交易数据打包模块,被配置在所述见证节点中,用于将见证该交易所产生的交易数据打包,生成区块;
存储节点选择模块,被配置在所述见证节点中,用于从所述P2P网络系统中随机选择多个存储节点;
区块发送模块,被配置在所述见证节点中,用于将所述区块发送给多个所述存储节点;
区块存储模块,被配置在所述存储节点中,用于对所述区块进行存储;
其中,针对一笔交易,所有见证节点和所有存储节点的所有区块构成有向无环图DAG结构;
所述查询装置包括:
查询请求获得模块,被配置在第一节点中,用于在所述P2P网络系统中,获得其父节点广播的查询请求,所述第一节点为所述P2P网络系统中的任一节点;
查询请求广播模块,被配置在所述第一节点中,用于通过树形维护程序将所述查询请求广播给自身的孩子节点;所述孩子节点用于利用所述P2P网络系统的树形结构,将所述查询请求再广播给自身相应的孩子节点,自身相应的孩子节点重复上述广播步骤,直至将所述查询请求广播至该P2P网络系统上的所有节点;每个节点在收到查询的请求后,检索本地数据库,并等待其孩子节点的结果返回,当收集完所有的孩子节点返回的数据后,做结算和去重操作,并将结果返回给其父节点;经过层层反馈,当接收到用户查询请求的根节点收到所有孩子节点的返回结果时,做最终的结算和去重操作,生成最终查询结果,并将最终查询结果返回给该用户;
针对所述树形维护程序,所述查询装置包括:
IHAVE消息发送模块,被配置在所述第一节点中,用于在将所述查询请求广播给自身的孩子节点时,向自身的孩子节点中的第二节点发送IHAVE消息,所述IHAVE消息中包括消息ID;
NORMAL消息检查模块,被配置在所述第二节点中,用于检查自己是否已收到与所述消息ID对应的用于传递所述查询请求的NORMAL消息;
GRAFT消息生成模块,被配置在所述第二节点中,用于在超时时间内未收到与所述消息ID对应的NORMAL消息时,生成用于修复所述P2P网络系统的GRAFT消息;所述GRAFT消息包括所述消息ID和接收所述IHAVE消息的请求;
GRAFT消息发送模块,被配置在所述第二节点中,用于在超时时间内未收到与所述消息ID对应的NORMAL消息时,将所述GRAFT消息发送给所述第一节点,并将所述第一节点从自身的Lazy List中移动到Eager List中,使所述第一节点对所述P2P网络系统进行修复;
跳数差计算模块,被配置在所述第二节点中,用于在超时时间内已收到与所述消息ID对应的NORMAL消息时,计算IHAVE消息的接收跳数与NORMAL消息的接收跳数差;
跳数差判断模块,被配置在所述第二节点中,用于在超时时间内已收到与所述消息ID对应的NORMAL消息时,判断所述跳数差是否超过跳数阈值;
系统修复模块,被配置在所述第二节点中,用于在所述跳数差超过跳数阈值时,对所述P2P网络系统进行修复。
CN201911033558.9A 2019-10-28 2019-10-28 基于可扩展分布式查询系统的可信存证方法与系统 Active CN110956463B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911033558.9A CN110956463B (zh) 2019-10-28 2019-10-28 基于可扩展分布式查询系统的可信存证方法与系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911033558.9A CN110956463B (zh) 2019-10-28 2019-10-28 基于可扩展分布式查询系统的可信存证方法与系统

Publications (2)

Publication Number Publication Date
CN110956463A CN110956463A (zh) 2020-04-03
CN110956463B true CN110956463B (zh) 2022-07-12

Family

ID=69976440

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911033558.9A Active CN110956463B (zh) 2019-10-28 2019-10-28 基于可扩展分布式查询系统的可信存证方法与系统

Country Status (1)

Country Link
CN (1) CN110956463B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112104606B (zh) * 2020-08-12 2022-06-17 北京智融云河科技有限公司 一种基于随机多节点的可信执行方法和系统
CN112100234B (zh) * 2020-08-12 2021-09-10 北京大学 基于随机共识的图式账本的内容寻址方法和系统
CN112184531B (zh) * 2020-11-27 2021-03-09 浙江非线数联科技股份有限公司 实现办件智能无感推送的方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010069198A1 (zh) * 2008-12-19 2010-06-24 华为技术有限公司 分布式网络构造方法和系统以及任务处理方法
WO2018059334A1 (zh) * 2016-09-29 2018-04-05 腾讯科技(深圳)有限公司 区块链网络、分支节点、区块链网络应用方法及存储介质
GB201813459D0 (en) * 2018-08-17 2018-10-03 Uvue Ltd Transaction system and method of operation thereof
WO2019117651A1 (ko) * 2017-12-13 2019-06-20 서강대학교 산학협력단 블록체인 기반 IoT 환경에서의 다중 검색을 지원하는 데이터 구조체를 이용한 검색 방법 및 그 방법에 따른 장치
WO2019195755A1 (en) * 2018-04-05 2019-10-10 Neji, Inc. Network protocol for blockchain based network packets

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190295049A1 (en) * 2018-03-22 2019-09-26 NEC Laboratories Europe GmbH System and method for secure transaction verification in a distributed ledger system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010069198A1 (zh) * 2008-12-19 2010-06-24 华为技术有限公司 分布式网络构造方法和系统以及任务处理方法
WO2018059334A1 (zh) * 2016-09-29 2018-04-05 腾讯科技(深圳)有限公司 区块链网络、分支节点、区块链网络应用方法及存储介质
WO2019117651A1 (ko) * 2017-12-13 2019-06-20 서강대학교 산학협력단 블록체인 기반 IoT 환경에서의 다중 검색을 지원하는 데이터 구조체를 이용한 검색 방법 및 그 방법에 따른 장치
WO2019195755A1 (en) * 2018-04-05 2019-10-10 Neji, Inc. Network protocol for blockchain based network packets
GB201813459D0 (en) * 2018-08-17 2018-10-03 Uvue Ltd Transaction system and method of operation thereof

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Yujie Xu ; Mingming Wu ; Yue Lv ; Shujun Zhai.Research on application of block chain in distributed energy transaction.《2017 IEEE 3rd Information Technology and Mechatronics Engineering Conference (ITOEC)》.2017,全文. *
刘明达等.基于区块链的分布式可信网络连接架构.《软件学报》.2019,第2314-2337页. *

Also Published As

Publication number Publication date
CN110956463A (zh) 2020-04-03

Similar Documents

Publication Publication Date Title
CN110971663B (zh) 一种面向数据交易的可信处理方法与系统
Jin et al. Blockndn: A bitcoin blockchain decentralized system over named data networking
CN107193490B (zh) 一种基于区块链的分布式数据存储系统及方法
US20230006846A1 (en) Data processing method and apparatus based on blockchain network
US11157487B2 (en) Trusted storage method and system based on directed acyclic graph structure
Zhu et al. Let's chronosync: Decentralized dataset state synchronization in named data networking
Mao et al. Perigee: Efficient peer-to-peer network design for blockchains
CN110956463B (zh) 基于可扩展分布式查询系统的可信存证方法与系统
JP2021508877A (ja) 高性能分散型記録システム
CN111046065B (zh) 可扩展的高性能分布式查询处理方法及装置
JP2023071805A (ja) ブロックチェーン・ネットワークにおける高速伝搬のための方法及び特殊ネットワーク・ノード
CN110866046B (zh) 一种可扩展的分布式查询方法及装置
Kwok Peer-to-peer computing: Applications, architecture, protocols, and challenges
CN112417001A (zh) 基于区块链网络的数据处理方法及相关设备
Hassanzadeh-Nazarabadi et al. Dht-based communications survey: architectures and use cases
Moll et al. SoK: The evolution of distributed dataset synchronization solutions in NDN
US20220182243A1 (en) Method and Apparatus for Distributed Ledger
Roos Identity management on the blockchain
Medrano-Chávez et al. A performance comparison of Chord and Kademlia DHTs in high churn scenarios
Chang et al. MR-Chord: A scheme for enhancing Chord lookup accuracy and performance in mobile P2P network
Nallakannu et al. PSO‐based optimal peer selection approach for highly secure and trusted P2P system
Thai et al. Blockchain Peer-to-Peer Network: Performance and Security
Wang et al. NCDN: A Node-Failure Resilient CDN Solution with Reinforcement Learning Optimization
Scherb et al. Tangle Centric Networking (TCN)
Yuan et al. AME Blockchain: An Architecture Design for Closed-Loop Fluid Economy Token System

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20200403

Assignee: Henan Shuquan Technology Co.,Ltd.

Assignor: Peking University

Contract record no.: X2023990000447

Denomination of invention: A Trusted Storage Method and System Based on Scalable Distributed Query System

Granted publication date: 20220712

License type: Common License

Record date: 20230428