CN110036371B - 参与者实例之间的资源分配 - Google Patents
参与者实例之间的资源分配 Download PDFInfo
- Publication number
- CN110036371B CN110036371B CN201680091208.6A CN201680091208A CN110036371B CN 110036371 B CN110036371 B CN 110036371B CN 201680091208 A CN201680091208 A CN 201680091208A CN 110036371 B CN110036371 B CN 110036371B
- Authority
- CN
- China
- Prior art keywords
- runtime environment
- resource units
- requesting
- responding
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/4557—Distribution of virtual machine instances; Migration and load balancing
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Environmental & Geological Engineering (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Mathematical Physics (AREA)
- Debugging And Monitoring (AREA)
- Information Transfer Between Computers (AREA)
- Multi Processors (AREA)
Abstract
提供了用于在参与者的实例之间分配资源单元的机制。一种方法由请求运行时环境执行。该方法包括:向响应运行时环境提供对资源单元的请求,所述资源单元将被至少一个实例在由所述请求运行时环境运行时使用。该方法包括:从所述响应运行时环境获得所述请求运行时环境可用的来自响应运行时环境中的相应响应运行时环境的资源单元量的指示。该方法包括:基于所获得的指示,确定所述请求运行时环境所需的来自每个响应运行时环境的各自资源单元量。该方法包括:向所述响应运行时环境指示所述请求运行时环境所需的所述各自资源单元量。
Description
技术领域
本文给出的实施例涉及一种用于在参与者的实例之间分配资源单元的方法、运行时环境、计算机程序和计算机程序产品。
背景技术
在通信网络中,针对给定的通信协议、其参数和其中部署了通信网络的物理环境获得好的性能及能力是一个挑战。
某些网络订阅可能伴随着有限量的资源单元用于通信网络中的不同服务。网络订户可能在即将达到所用资源单元的限制量时收到通知,享受有限的服务,或者在达到限制量时被切断服务。网络订阅系统通常是集中控制型的和/或仅具有消耗资源单元量的单个实体,例如,其资源单元量由蜂窝网络运营商的计费系统控制的蜂窝电话。某些计费系统使得最终用户能监测资源单元的使用情况,并允许最终用户对可用于服务的资源单元设定限制。
运行时环境可以允许应用程序模块(其表示为参与者)部署并分布在若干设备上(其中每个设备均包括运行时环境)。一般而言,参与者可以被视为利用消息进行通信的分布式应用程序的一部分,具体请参阅http://arxiv.org/abs/1008.1459(访问于2016年11月21日)。参与者具有指导在运行时环境中放置参与者实例的条件。运行时环境具备描述运行时环境功能的属性以及其他信息。
在任何有能力的运行时环境(即,设备上的执行环境)中部署参与者能实现对物联网(IoT)的一般性使用;其他IoT框架在特定设备上可能具有固定动作。主要区别之一在于:参与者实例可以在运行时环境之间迁移。
例如,在IoT场景中或者在使用上述公开的运行时环境和参与者的其他场景中,最终用户可以使用许多物理设备,并且可以比使用传统蜂窝电话时使用更多的服务,并共享将在运行时环境之间分布的有限量的资源单元。在使用运行时环境和参与者的场景中,设备和服务可能分解在网络运营商之间。因此,服务和所用设备都不能被视为单个实体。这样可能会使对所用设备的网络订阅的处理变得困难。
因此,需要对运行时环境所用的服务的资源单元的处理加以改进。
发明内容
本文的实施例的目的在于提供对运行时环境所用的服务的资源单元的有效处理。
根据第一方面,提出了一种用于在参与者的实例之间分配资源单元的方法。该方法由请求运行时环境执行。该方法包括:向响应运行时环境提供对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。该方法包括:从响应运行时环境获得请求运行时环境可用的来自响应运行时环境中的相应响应运行时环境的资源单元量的指示。该方法包括:基于所获得的指示,确定请求运行时环境所需的来自每个响应运行时环境的各自资源单元量。该方法包括:向响应运行时环境指示请求运行时环境所需的所述各自资源单元量。
根据第二方面,提出了一种用于在参与者的实例之间分配资源单元的运行时环境。运行时环境充当请求运行时环境并且包括处理电路。该处理电路配置为使得运行时环境向响应运行时环境提供对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。该处理电路配置为使得运行时环境从响应运行时环境获得请求运行时环境可用的来自响应运行时环境中的相应响应运行时环境的资源单元量的指示。该处理电路配置为使得运行时环境基于所获得的指示,确定请求运行时环境所需的来自每个响应运行时环境的各自资源单元量。该处理电路配置为使得运行时环境向响应运行时环境指示请求运行时环境所需的所述各自资源单元量。
根据第三方面,提出了一种用于在参与者的实例之间分配资源单元的运行时环境。运行时环境充当请求运行时环境并且包括处理电路和存储介质。该存储介质存储指令,该指令在由处理电路执行时使得运行时环境执行操作或步骤。该操作或步骤使得运行时环境向响应运行时环境提供对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。该操作或步骤使得运行时环境从响应运行时环境获得请求运行时环境可用的来自响应运行时环境中的相应响应运行时环境到资源单元量的指示。该操作或步骤使得运行时环境基于所获得的指示,确定请求运行时环境所需的来自每个响应运行时环境的各自资源单元量。该操作或步骤使得运行时环境向响应运行时环境指示请求运行时环境所需的所述各自资源单元量。
根据第四方面,提出了一种用于在参与者的实例之间分配资源单元的运行时环境。运行时环境充当请求运行时环境。运行时环境包括提供模块,该提供模块配置为向响应运行时环境提供对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。运行时环境包括获得模块,该获得模块配置为从响应运行时环境获得请求运行时环境可用的来自响应运行时环境中的相应响应运行时环境的资源单元量的指示。运行时环境包括确定模块,该确定模块配置为基于所获得的指示,确定请求运行时环境所需的来自每个响应运行时环境的各自资源单元量。运行时环境包括指示模块,该指示模块配置为向响应运行时环境指示请求运行时环境所需的所述各自资源单元量。
根据第五方面,提出了一种用于在参与者的实例之间分配资源单元的计算机程序,该计算机程序包括计算机程序代码,该计算机程序代码当在充当请求运行时环境的运行时环境的处理电路上运行时使得运行时环境执行根据第一方面的方法。
根据第六方面,提出了一种用于在参与者的实例之间分配资源单元的方法。该方法由响应运行时环境执行。该方法包括:从请求运行时环境获得对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。该方法包括:向请求运行时环境提供请求运行时环境可用的来自响应运行时环境的资源单元量的指示。该方法包括:从请求运行时环境获得请求运行时环境所需的各自资源单元量的指示。
根据第七方面,提出了一种用于在参与者的实例之间分配资源单元的运行时环境。运行时环境充当响应运行时环境并且包括处理电路。该处理电路配置为使得运行时环境从请求运行时环境获得对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。该处理电路配置为使得运行时环境向请求运行时环境提供请求运行时环境可用的来自响应运行时环境的资源单元量的指示。该处理电路配置为使得运行时环境从请求运行时环境获得请求运行时环境所需的各自资源单元量的指示。
根据第八方面,提出了一种用于在参与者的实例之间分配资源单元的运行时环境。运行时环境充当响应运行时环境并且包括处理电路和存储介质。该存储介质存储指令,该指令在由处理电路执行时使得运行时环境执行操作或步骤。该操作或步骤使得运行时环境从请求运行时环境获得对资源单元的请求,该资源单元在由请求运行时环境运行时由至少一个实例使用。该操作或步骤使得运行时环境向请求运行时环境提供从响应运行时环境到请求运行时环境可用的资源单元量的指示。该操作或步骤使得运行时环境从请求运行时环境获得请求运行时环境所需的各自资源单元量的指示。
根据第九方面,提出了一种用于在参与者的实例之间分配资源单元的运行时环境。该运行时环境充当响应运行时环境。该运行时环境包括获得模块,该获得模块配置为从请求运行时环境获得对资源单元的请求,该资源单元将被至少一个实例在由请求运行时环境运行时使用。该运行时环境包括提供模块,该提供模块配置为向请求运行时环境提供请求运行时环境可用的来自响应运行时环境的资源单元量的指示。该运行时环境包括获得模块,该获得模块从请求运行时环境获得请求运行时环境所需的各自资源单元量的指示。
根据第十方面,提出了一种用于在参与者的实例之间分配资源单元的计算机程序,该计算机程序包括计算机程序代码,该计算机程序代码当在充当响应运行时环境的运行时环境的处理电路上运行时使得运行时环境执行根据第六方面的方法。
根据第十一方面,提出了一种计算机程序产品,该计算机程序产品包括根据第五方面和第十方面中的至少一个方面的计算机程序以及其上存储有该计算机程序的计算机可读存储介质。计算机可读存储介质可以是非暂时性计算机可读存储介质。
有利地,这些方法、这些运行时环境和这些计算机程序提供对运行时环境所用的服务的资源单元的有效处理。
有利地,这些方法、这些运行时环境和这些计算机程序提供延迟比当前使用的资源单元处理机制的延迟低的资源单元有效处理。
有利地,这些方法、这些运行时环境和这些计算机程序提供对许多同时进行的实例经常使用的资源单元进行处理的分布式方式。
有利地,这些方法、这些运行时环境和这些计算机程序无需与集中控制型计费系统就资源单元访问许可进行通信。
应注意的是,在适当的情况下,第一方面、第二方面、第三方面、第四方面、第五方面、第六方面、第七方面、第八方面、第九方面、第十方面和第十一方面的任何特征可以适用于任何其他方面。同样地,第一方面的任何优点同样可以分别适用于第二方面、第三方面、第四方面、第五方面、第六方面、第七方面、第八方面、第九方面、第十方面和/或第十一方面,反之亦然。根据以下详细公开内容、所附从属权利要求以及附图,所附实施例的其他目的、特征和优点将变得显而易见。
通常情况下,除非本文另有明确定义,否则,权利要求中使用的所有术语将根据它们在技术领域中的普通含义来加以解释。除非另有明确说明,否则,所有对“一个(a)/一个(an)/该元件、设备、组件、装置、步骤等”的提及将被公开解释为指代元件、设备、组件、装置、步骤等的至少一个实例。除非明确说明,否则,本文公开的任何方法的步骤不必以所公开的确切顺序执行。
附图说明
现在参考附图通过示例的方式来描述本发明构思,其中:
图1是图示了根据实施例的通信网络的示意图;
图2、图3、图4、图5、图6和图7是根据实施例的方法的流程图;
图8是示出了根据实施例的运行时环境的功能单元的示意图;
图9是示出了根据实施例的运行时环境的功能模块的示意图;以及
图10示出了根据实施例的包括计算机可读装置的计算机程序产品的一个示例。
具体实施方式
现在将在下文中参考附图更全面地描述本发明构思,在附图中示出了本发明构思的某些实施例。然而,本发明构思可以以许多不同的形式来体现,并且不应解释为局限于在此阐述的实施例;相反,这些实施例是作为示例而提供,由此使得本公开内容将是彻底且完整的并且将本发明构思的范围完整地传达给本领域技术人员。在整个说明书中,相同的附图标记指代相同的元件。虚线所示的任何步骤或特征都应被视为是可选的。
图1示意性地图示了通信网络100。通信网络100包括三个实体(实体1、实体2、实体3)120a、120b、120c,所述实体表示设备、计算节点和存储节点的任意组合。每个实体120a、120b、120c可以具有其自身的硬件(HW)并且可以具有其自身的操作系统(OS)。替代地,硬件和/或操作系统在实体120a、120b、120c中的至少两个实体之间进行共享。
实体120a、120b、120c托管第一应用程序(App 1)130和第二应用程序(App 2)140,其中每个应用程序分布在实体120a、120b、120c之间。应用程序130,140以透明方式分布在通信网络100上,并包括参与者(A1、A2、A3、A4、A5、A6)。在参与者A1、A2、A3、A4、A5、A6与实体120a、120b、120c之间不存在一对一映射。例如,在图1的说明性示例中,参与者A5和A6都驻留在同一实体120b(即,实体2)上。参与者(A1、A2、A3、A4、A5、A6)可以借助于运行时环境200a、200b、200c中的至少一个来访问资源对象160。访问资源对象160需要消耗资源单元。每个资源对象160可以是文件系统、传感器、致动器、网络接口,或者代表软件许可证使用、网络操作(如消息的发送和接收)、数据库访问器、其他服务等(对其的访问是通过运行时环境200a、200b、200c提供的)。
通信网络100还包括由运行时环境200a、200b、200c的网络集合形成的分布式执行环境150,其被应用程序130,140视作为单个平台。
每个参与者A1、A2、A3、A4、A5、A6可以作为一个或多个实例110运行。也就是说,实例110中的至少一个可以由运行时环境200a、200b、200c中的每一个运行。
如上所述,可能难以处理分布在多个实体上的网络订阅,例如,分布在多个运行时环境200a、200b、200c的多个实例110上的网络订阅。
因此,本文公开的实施例涉及用于在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的机制。为了获得这样的机制,提供了充当请求运行时环境200a的运行时环境、由充当请求运行时环境200a的运行时环境执行的方法以及包括例如计算机程序形式的代码的计算机程序产品,该代码当在充当请求运行时环境200a的运行时环境的处理电路上运行时使得充当请求运行时环境200a的运行时环境执行该方法。为了获得这样的机制,还提供了充当响应运行时环境200b、200c的运行时环境、由充当响应运行时环境200b、200c的运行时环境执行的方法以及包括例如计算机程序形式的代码的计算机程序产品,该代码当在充当响应运行时环境200b、200c的运行时环境的处理电路上运行时使得充当响应运行时环境200b、200c的运行时环境执行该方法。
图2和图3是图示了由充当请求运行时环境200a的运行时环境执行的用于在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的方法的实施例的流程图。图4和图5是图示了由充当响应运行时环境200b、200c的运行时环境执行的用于在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的方法的实施例的流程图。有利地,这些方法被作为计算机程序1020a、1020b来提供。
现参考图2,图2图示了根据实施例的由充当请求运行时环境200a的运行时环境执行的用于在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的方法。
每个运行时环境200a、200b、200c将尝试通过向对等运行时环境200a、200b、200c发送资源单元访问请求来维护其对资源单元的要求。假设运行时环境200a、200b、200c相互协作来根据要求使用资源单元,因此,在可能的情况下,运行时环境200a、200b、200c将基于请求提供对资源单元访问的转移。因此,请求运行时环境200a配置为执行步骤S104:
S104:请求运行时环境200a向响应运行时环境200b、200c提供对资源单元的请求,该资源单元将被至少一个实例110在由请求运行时环境200a运行时使用。
假设请求被响应运行时环境200b、200c接收并响应,参见下面的步骤S202,S206。因此,请求运行时环境200a配置为执行步骤S106:
S106:请求运行时环境200a从响应运行时环境200b、200c获得请求运行时环境200a可用的来自响应运行时环境200b、200c中的相应响应运行时环境的资源单元量的指示。
就这一点而言,是响应运行时环境200b、200c上的参与者A1、A2、A3、A4、A5、A6的实例110使得资源单元变得可用。响应运行时环境200b、200c可以被认为仅是执行者,这些执行者可具有参与者A1、A2、A3、A4、A5、A6的若干实例110。因此,参与者A1、A2、A3、A4、A5、A6的实例110可以贡献不同的资源单元量以及具有不同的资源单元转移装置。因此,根据实施例,资源单元量的指示包括由响应运行时环境200b、200c运行的参与者A1、A2、A3、A4、A5、A6的每个实例110各自的资源单元量的指示。
从响应运行时环境200b、200c获得的指示被请求运行时环境200a用于确定要从每个响应运行时环境200b、200c请求多少资源单元。因此,请求运行时环境200a配置为执行步骤S108:
S108:请求运行时环境200a基于所获得的指示,确定请求运行时环境200a所需的来自每个响应运行时环境200b、200c的各个资源单元量。下面将公开请求运行时环境200a如何确定各个资源单元量的示例。
一旦确定了这各个资源单元量,请求运行时环境200a就向响应运行时环境200b、200c指示各个资源单元量,因此配置为执行步骤S110:
S110:请求运行时环境200a向响应运行时环境200b、200c指示请求运行时环境200a所需的各个资源单元量。下面将公开请求运行时环境200a如何向响应运行时环境200b、200c指示各个资源单元量的示例。
这样便提供了一种对与资源对象160相关的资源单元的使用进行处理的分层方式,不再需要集中控制型计费系统。
现在将公开涉及由充当请求运行时环境200a的运行时环境执行的在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的进一步细节的实施例。
资源单元可被用于运行时执行时间、参与者操作事件(如动作激励)、软件许可证使用、网络操作和其他服务。因此,可以将资源单元量映射到对应的运行时执行时间、操作事件、软件许可证使用、网络操作等的量。
现参考图3,图3图示了根据其他实施例的由充当请求运行时环境200a的运行时环境执行的用于在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的方法。假设如上参考图2所述执行步骤S104、S106、S108、S110,因此省略其重复描述。
对于请求运行时环境200a而言,可以有不同的方式来确定它需要提供对资源单元的请求,如在步骤S104中。在请求运行时环境200a处运行参与者A1、A2、A3、A4、A5、A6的实例110可能需要资源单元,并且因此所需的资源单元可以对应于参与者实例要求。具体地,根据实施例,请求运行时环境200a配置为执行步骤S102:
S102:请求运行时环境200a从至少一个实例110(其由请求运行时环境200a运行)获得对资源单元的需求。
就此而言,需求可以来自多个源(比如,最终用户、应用程序开发人员和/或设备/服务运营商),并整合到参与者实例要求中。
在步骤S106中,对于请求运行时环境200a而言,可以有不同的方式来获得指示。例如,指示可以包括对资源单元的访问。具体地,根据实施例,在响应中提供在步骤S106中获得的指示中的至少一个。该响应包括如何访问来自提供该响应的响应运行时环境200b、200c的可用的资源单元量的资源单元的信息。
对于请求运行时环境200a如何访问来自响应运行时环境200b、200c的可用的资源单元,存在有不同的方式。
在一些方面,对资源单元的访问由接受或利用所确定的量的资源单元的请求运行时环境200a来进行。因此,在响应运行时环境200b、200c与请求运行时环境200a之间不需要交换超出所确定的量的资源单元和剩余量资源单元的额外信息。
在一些方面,对资源单元的访问由响应运行时环境200b、200c通过下述方式来进行:将所确定的量的资源单元添加到属于请求运行时环境200a的实例110的其他资源单元并从响应运行时环境200b、200c的实例的资源单元中减去所确定的量的资源单元。
在一些方面,对资源单元的访问通过在从响应运行时环境200b、200c转移该数量的资源单元时使用唯一标识符来进行。
在一些方面,对资源单元的访问由请求运行时环境200a通过下述方式进行:首先获得签名转移消息并随后将其发送给响应运行时环境200b、200c。
在一些方面,在实例110之间进行资源单元量的转移期间,使用区块链。
在一些方面,存在对资源单元的账户操作,其中实例110可以进行提存。对资源单元的访问是通过包括令牌来进行的,该令牌允许从一个实例110的帐户进行单个提取并相应地存入到另一个实例110的帐户中。
在一些方面,令牌由资源单元量提取自的实例110签名。
因此,响应运行时环境200b、200c提供对资源单元的访问是可能的,并且这在步骤S106中请求运行时环境200a所获得的指示中指示出。然而,在步骤S108中请求运行时环境200a可以确定:请求运行时环境200a无需可用于请求运行时环境200a的资源单元的全部量。因此,根据实施例,步骤S110中对所需的各个资源单元量的指示包括如何(响应运行时环境200b,200c)访问剩余资源单元的信息。
替代地,在步骤S106中请求运行时环境200a所获得的指示中不提供对资源单元的访问。在这样的场景中,可以单独地提供与请求运行时环境200a可以如何访问资源单元有关的信息。因此,根据实施例,请求运行时环境200a配置为执行步骤S112:
S112:请求运行时环境200a从响应运行时环境200b、200c获得如何访问各个资源单元量的信息。
在一些方面,响应运行时环境200b、200c中的至少一些不提供对在步骤S104中由请求运行时环境200a提供的请求的显式响应。为了使请求运行时环境200a知晓每个响应运行时环境200b、200c是否发送了响应,请求运行时环境200a可以在步骤S104中提供请求时启动计时器。因此,所获得的指示中的至少一个通过下述方式来定义:在响应时间间隔内没有来自响应运行时环境200b、200c中的至少一个相应响应运行时环境的响应。也就是说,响应时间间隔可由计时器的到期定义。
在步骤S108中,对于请求运行时环境200a而言,可以有不同的方式来确定各个资源单元量。根据实施例,可以以使得从每个响应运行时环境200b、200c(在相应的响应中从所述响应运行时环境获得了指示)请求相等的量的方式来确定各个资源单元量。可以以使得从响应运行时环境200b、200c运行的每个实例110请求相等的量的方式来确定各个资源单元量。根据另一实施例,各个资源单元量被确定为与所指示的来自响应运行时环境200b、200c的可用的资源单元量成比例。下述情况是可能的:各个资源单元量被确定为与由响应运行时环境200b、200c运行的参与者A1、A2、A3、A4、A5、A6的每个实例110的资源单元量的各个指示成比例。
在一些方面,步骤S108中的资源单元的各个量的确定基于从响应运行时环境200b、200c接收到的信息。因此,在实施例中,在步骤S110中获得的资源单元量的指示包括响应运行时环境200b、200c的资源单元信息。资源单元信息可以包括由响应运行时环境200b、200c运行的参与者A1、A2、A3、A4、A5、A6的每个实例110各自的资源单元信息。然后,可以基于资源单元信息确定各个资源单元量。
现参考图4,图4图示了根据实施例的由充当响应运行时环境200b、200c的运行时环境执行的用于在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的方法。
如上所述,步骤S104中的请求运行时环境200a向响应运行时环境200b、200c提供请求。假设此请求被响应运行时环境200b、200c接收。因此,响应运行时环境200b、200c配置为执行步骤S202:
S202:响应运行时环境200b、200c从请求运行时环境200a获得对资源单元的请求,该资源单元将被至少一个实例110在由请求运行时环境200a运行时使用。
响应运行时环境200b、200c对请求作出响应,因此配置为执行步骤S206:
S206:响应运行时环境200b、200c向请求运行时环境200a提供请求运行时环境200a可用的来自响应运行时环境200b、200c的资源单元量的指示。如上所述,就此而言,是响应运行时环境200b、200c上的参与者A1、A2、A3、A4、A5、A6的实例110使得资源单元变得可用。
如上所述,根据实施例,资源单元量的指示包括由响应运行时环境200b、200c运行的参与者A1、A2、A3、A4、A5、A6的每个实例110各自的资源单元量的指示。
如上所述,步骤S110中的请求运行时环境200a向响应运行时环境200b、200c指示请求运行时环境200a所需的各个资源单元量。因此,响应运行时环境200b、200c配置为执行步骤S208:
S208:响应运行时环境200b、200c从请求运行时环境200a获得请求运行时环境200a所需的各个资源单元量的指示。
现在将公开涉及由充当响应运行时环境200b、200c的运行时环境执行的在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的进一步细节的实施例。
现参考图5,图5图示了根据其他实施例的由充当响应运行时环境200b、200c的运行时环境执行的在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的方法。假设如上参考图4所述执行步骤S202、S206、S208,因此省略其重复描述。
在步骤S202中获得对资源单元的请求可以触发响应运行时环境200b、200c确定有多少资源单元可用于请求运行时环境200a。因此,根据实施例,响应运行时环境200b、200c配置为执行步骤S204:
S204:响应运行时环境200b、200c确定来自响应运行时环境200b、200c的可用的资源单元量。
对于响应运行时环境200b、200c,可以有不同的方式来确定资源单元量。根据实施例,在响应运行时环境200b、200c运行至少一个其他实例110的基础上,确定来自响应运行时环境200b、200c的可用的资源单元量。在实施例中,基于响应运行时环境200b、200c的最少资源单元使用,确定来自响应运行时环境200b、200c的可用的资源单元量。
如上所述,根据实施例,在步骤S206中提供的资源单元量的指示包括响应运行时环境200b、200c的资源单元信息。
如上所述,根据实施例,在响应中提供在步骤S206中提供的来自响应运行时环境200b、200c的可用的资源单元量的指示。该响应包括如何(请求运行时环境200a)访问来自响应运行时环境200b、200c的可用的资源单元量的信息。
如上所述,根据实施例,所需的各个资源单元量的指示包括如何访问剩余资源单元的信息。
如上所述,可以单独地提供与请求运行时环境200a可以如何访问资源单元有关的信息。因此,根据实施例,响应运行时环境200b、200c配置为执行步骤S204:
S210:响应运行时环境200b、200c向请求运行时环境200a提供如何访问各个资源单元量的资源单元的信息。
步骤1:请求运行时环境200a向所有可到达的响应运行时环境200b、200c发送包括对资源单元总量A的请求的消息。该消息可以包括诸如请求运行时环境200a的实例110的权重、请求运行时环境200a的实例110的优先级、请求运行时环境200a的实例110的资源单元的当前限额等信息。
步骤2:每个响应运行时环境200b、200c通过发送消息来对请求作出响应,该消息包括请求运行时环境200a可从响应运行时环境x访问的资源单元的最大数量Bx的信息。该消息可以包括响应运行时环境200b、200c的实例110的权重、响应运行时环境200b、200c的实例110的优先级、响应运行时环境200b、200c的实例110的资源单元的当前限额等信息。该消息可以包括(安全)信息,使得请求运行时环境200a可以访问高达指定量的资源单元(或者参见下面的步骤4)。
对于响应运行时环境200b、200c,存在有不同的方式来确定Bx。例如,Bx可被确定为等于响应运行时环境x可用的资源单元量减去执行指定次数的其他实例110所需的资源单元量。例如,Bx可被确定为等于响应运行时环境x的可用的资源单元量减去基于历史和/或预测成本的执行指定时间段的其他实例110所需的资源单元量。例如,Bx可被确定为等于响应运行时环境x可用的资源单元量减去设定的最小资源单元水平。例如,可以基于包括请求的消息中的信息来确定Bx。例如,响应运行时环境200b、200c可以仅在请求的资源单元量是用于请求运行时环境200a处的具有处于、低于或高于某一优先级水平的优先级值的实例110时才使得非零量Bx可用。例如,响应运行时环境200b、200c可以使用请求运行时环境200a的实例110的权重与响应运行时环境200b、200c的其他实例110的权重之间的相对权重来按比例调节量Bx。相对权重越高,请求运行时环境200a可访问的资源单元量就越高。当当前可用于请求运行时环境200a的资源单元量在来自请求运行时环境200a的前一个请求的阈值内时,可以假设上一次请求没有收集到所需的资源量A。因此,运行时环境200b、200c可以在确定Bx时临时地为请求运行时环境200a的实例110分配更高的优先级或权重。
步骤3:当计时器已经到期或者已经接收到一定数目的响应时,请求运行时环境200a确定请求运行时环境200a需要从每个响应运行时环境x访问的资源单元量Cx。Cx可以小于Bx。替代地,请求运行时环境200a可以根据规则以迭代方式针对每个响应确定Cx,直到达到资源单元量A为止。
对于请求运行时环境200a而言,存在有不同的方式来确定Cx。例如,可以以使得从做出响应以达到资源单元量A的所有响应运行时环境200b、200c(和/或由响应运行时环境200b、200c运行的实例110)访问相等量的资源单元的方式来确定Cx。例如,可以基于来自响应运行时环境200b、200c的量Bx来确定Cx。例如,可以基于包括响应的消息中包含的信息来确定Cx。例如,可以仅使用在响应运行时环境200b、200c处的具有处于、低于或高于某个优先级水平的优先级水平实例110的量Bx来确定Cx。例如,可以基于响应运行时环境200b、200e的当前可用资源单元量来确定Cx。例如,在可能的情况下,响应中包含的接收权重可以用于按比例调整Cx,以达到总和A。权重越高,所确定的资源单元量就越少。
例如,请求运行时环境200a可以选择按照优先级顺序从响应运行时环境200b、200e的实例110访问资源单元量Bx,直到达到资源单元量A为止。例如,请求运行时环境200a可以选择按照权重顺序从响应运行时环境200b、200c的实例110访问资源单元量Bx,直到达到资源单元量A为止。例如,请求运行时环境200a可以选择按照其限额大小顺序从响应运行时环境200b、200c的实例110访问资源单元量Bx,直到达到资源单元量A为止。
可选地,当在步骤3中不能满足量A时,或者如果提供的资源单元量仅在高于A的某个范围内,可以通知请求运行时环境200a的最终用户增加可用资源单元的总量或者采取其他行动。
步骤4:请求运行时环境200a向响应运行时环境x发送访问资源单元量Cx的请求。如果已经在上面获得了这样的信息,则可以跳过步骤4。
步骤5:请求运行时环境200a从每个响应运行时环境x接收如何访问资源单元的信息。如果跳过了步骤4,则请求运行时环境200a向响应运行时环境x通知被访问的资源单元量Cx。
现在将详细地公开由请求运行时环境200a执行的基于至少一些上述公开实施例在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的一个特定实施例。
S302:请求运行时环境200a提供对资源单元的请求,该资源单元由至少一个实例110在由请求运行时环境200a运行时使用。
S304:请求运行时环境200a等待来自响应运行时环境200b、200c的响应,并且可选地,以迭代的方式,基于到目前为止接收到的响应,确定请求运行时环境200a所需的来自每个响应运行时环境200b、200c的各个资源单元量。
S306:基于所接收的响应,请求运行时环境200a确定请求运行时环境200a所需的来自每个响应运行时环境200b、200c的各个资源单元量(除非已在步骤S304中确定)。
S308:请求运行时环境200a检查响应是否包括请求运行时环境200a有权访问所请求的资源单元量的信息。如果是,则进入步骤S310,如果不是,则进入步骤S314。
S310:请求运行时环境200a访问所请求的资源单元量(以便从响应运行时环境200b、200c转移所请求的资源单元量)。
S312:请求运行时环境200a向响应运行时环境200b、200c通知请求运行时环境200a已经访问(或转移)所请求的资源单元量。
S314:请求运行时环境200a向响应运行时环境200b、200c提供访问所请求的资源单元量的请求(以便从响应运行时环境200b、200c转移所请求的资源单元量)。
S316:(在已经从响应运行时环境200b、200c接收到如何访问资源单元的信息的情况下)请求运行时环境200a访问所请求的资源单元量。
现在将详细地公开由响应运行时环境200b、200c执行的基于至少一些上述公开实施例的在参与者A1、A2、A3、A4、A5、A6的实例110之间分配资源单元的一个特定实施例。
S402:响应运行时环境200b、200c从请求运行时环境200a获得对资源单元的请求,该资源单元将被至少一个实例110在由请求运行时环境200a运行时使用。
S404:响应运行时环境200b、200c确定来自响应运行时环境200b、200c的可用的资源单元量。
S406:响应运行时环境200b、200c确定如何访问(或转移)资源单元的信息是否被包含在针对请求运行时环境200a的响应中。如果不是,则进入步骤S408,如果是,则进入步骤S414。
S408:响应运行时环境200b、200c向请求运行时环境200a提供请求运行时环境200a可用的来自响应运行时环境200b、200c的资源单元量的指示。
S410:响应运行时环境200b、200c从请求运行时环境200a获得请求运行时环境200a所需的各个资源单元量的指示。
S412:响应运行时环境200b、200c向请求运行时环境200a提供如何访问各个资源单元量的资源单元的信息,例如使得请求运行时环境从响应运行时环境200b、200c传送所请求的资源单元量。
S414:响应运行时环境200b、200c向请求运行时环境200a提供响应运行时环境200b、200c可用的资源单元量的信息,使得可以访问各个资源单元量。
S416:响应运行时环境200b、200c获得请求运行时环境200a已经访问(或转移)所请求的资源单元量的指示。
图8以多个功能单元示意性地图示了根据实施例的运行时环境200a、200b、200c的组件。通过使用以下中的一个或多个的任意组合来提供处理电路210:适合的中央处理单元(CPU)、多处理器、微控制器、数字信号处理器(DSP)等,其能够执行存储在计算机程序产品1010a(如在图10中)(例如,具有存储介质230的形式)中的软件指令。还可以将处理电路210作为至少一个专用集成电路(ASIC)或现场可编程门阵列(FPGA)提供。
具体地,处理电路210配置为使运行时环境200a、200b、200c执行一组操作或步骤S102-S112、S202-S210、S302-S316、S402-S416,如上所述。例如,存储介质230可以存储该组操作,并且处理电路210可以配置为从存储介质230检索该组操作以使运行时环境200a、200b、200c执行该组操作。该组操作可以作为一组可执行指令提供。因此,处理电路210由此布置为执行如本文所公开的方法。
存储介质230还可以包括永久性存储装置,该永久性存储装置例如可以是下述项中的任意单个或组合:磁性存储器、光学存储器、固态存储器或者甚至远程安装的存储器。
运行时环境200a、200b、200c还可以包括通信接口220,该通信接口220用于至少与另一运行时环境200a、200b、200c进行通信。因此,通信接口220可以包括一个或多个发送器和接收器,其中包括模拟和数字组件。
处理电路210控制运行时环境200a、200b、200c的总体操作,例如,通过向通信接口220和存储介质230发送数据和控制信号,通过从通信接口220接收数据和报告,并且通过从存储介质230检索数据和指令。为了避免使本文给出的概念变得晦涩难懂,省略了运行时环境200a、200b、200c的其他组件以及相关功能。
图9以多个功能模块示意性地图示了根据实施例的运行时环境200a、200b、200c的组件。
为了使运行时环境充当请求运行时环境200a,运行时环境包括:提供模块210b,其配置为执行步骤S104;获得模块210c,其配置为执行步骤S106;确定模块210d,其配置为执行步骤S108;以及指示模块210e,其配置为执行步骤S110。充当请求运行时环境200a的运行时环境还可以包括多个可选功能模块,比如,配置为执行步骤S102的获得模块210a以及配置为执行步骤S112的获得模块210f中的任何一个模块。
为了使运行时环境充当响应运行时环境200b、200c,运行时环境包括:获得模块210g,其配置为执行步骤S202;提供模块210i,其配置为执行步骤S206;以及获得模块210j,其配置为执行步骤S208。充当响应运行时环境200b、200c的运行时环境还可以包括多个可选功能模块,比如,配置为执行步骤S204的确定模块210h以及配置为执行步骤S210的提供模块210k中的任何一个模块。
一般而言,每个功能模块210a-210k可以以硬件或软件实现。优选地,一个或多个或所有功能模块210a-210k可以由处理电路210实现,具体地可能与功能单元220和/或230协作地实现。处理电路210因此可以布置成从存储介质230获取由功能模块210a-210k提供的指令并执行这些指令,从而执行如本文所公开的运行时环境200a、200b、200c的任何步骤。
图10示出了包括计算机可读装置1030的计算机程序产品1010a,1010b的一个示例。在该计算机可读装置1030上,可以存储计算机程序1020a,该计算机程序1020a可以使得处理电路210以及与其可操作地耦合的实体和设备(比如,通信接口220和存储介质230)执行根据本文描述的实施例的方法。因此,计算机程序1020a和/或计算机程序产品1010a可以提供用于执行充当如本文所公开的请求运行时环境200a的运行时环境的任何步骤的装置。在该计算机可读装置1030上,可以存储计算机程序1020b,该计算机程序1020b可以使得处理电路310以及与其可操作地耦合的实体和设备(比如,通信接口320和存储介质330)执行根据本文描述的实施例的方法。因此,计算机程序1020b和/或计算机程序产品1010b可以提供用于执行充当如本文所公开的响应运行时环境200b、200c的运行时环境的任何步骤的装置。
在图10的示例中,计算机程序产品1010a,1010b被图示为光盘,比如,CD(压缩盘)或DVD(数字化通用磁盘)或蓝光光盘。计算机程序产品1010a,1010b还可以体现为存储器(比如,随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM)或电可擦除可编程存储器(EEPROM)),并且更具体地体现为外部存储器(比如,USB(通用串行总线)存储器或者诸如袖珍闪存之类的闪存)中的设备的非易失性存储介质。因此,尽管计算机程序1020a,1020b在此示意性地示出为所描绘的光盘上的轨道,但是计算机程序1020a,1020b可以以适合于计算机程序产品1010a,1010b的任何方式进行存储。
以上主要参考几个实施例描述了本发明构思。然而,如本领域技术人员容易理解的那样,除了以上公开的实施例之外的其他实施例在由所附专利权利要求限定的本发明构思的范围内同样也是可行的。
Claims (28)
1.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的方法,所述方法由请求运行时环境(200a)执行,所述方法包括:
向响应运行时环境(200b,200c)提供(S104)对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
从所述响应运行时环境(200b,200c)获得(S106)所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)中的相应响应运行时环境的资源单元量的指示;
基于所获得的指示,确定(S108)所述请求运行时环境(200a)所需的来自每个所述响应运行时环境(200b,200c)的各自资源单元量;并且
向所述响应运行时环境(200b,200c)指示(S110)所述请求运行时环境(200a)所需的所述各自资源单元量。
2.根据权利要求1所述的方法,其中资源单元量的所述指示包括由所述响应运行时环境(200b,200c)运行的所述参与者(A1、A2、A3、A4、A5、A6)的每个实例(110)的资源单元量的指示。
3.根据权利要求1所述的方法,其中在响应中提供所获得的指示中的至少一个,所述响应包括如何访问来自提供所述响应的响应运行时环境(200b,200c)的可用的资源单元量的资源单元的信息。
4.根据权利要求3所述的方法,其中指示所需的所述各自资源单元量包括如何访问剩余资源单元的信息。
5.根据权利要求1所述的方法,还包括:
从所述响应运行时环境(200b,200c)获得(S112)如何访问所述各自资源单元量的资源单元的信息。
6.根据权利要求1所述的方法,其中以使得从在相应响应中获得的指示来自的响应运行时环境(200b,200c)中的每个响应运行时环境(200b,200c)请求相等的量的方式来确定所述各自资源单元量。
7.根据权利要求1所述的方法,其中确定所述各自资源单元量与所指示的来自所述响应运行时环境(200b,200c)的可用的资源单元量成比例。
8.根据权利要求1所述的方法,其中所获得的资源单元量的指示包括所述响应运行时环境(200b,200c)的资源单元信息。
9.根据权利要求8所述的方法,其中基于所述资源单元信息确定所述各自资源单元量。
10.根据权利要求1所述的方法,其中所获得的指示中的至少一个由在响应时间间隔内没有来自所述响应运行时环境(200b,200c)中的至少一个相应响应运行时环境的响应来定义。
11.根据权利要求1所述的方法,还包括:
从所述至少一个实例(110)获得(S102)对资源单元的需求。
12.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的方法,所述方法由响应运行时环境(200b,200c)执行,所述方法包括:
从请求运行时环境(200a)获得(S202)对资源单元的请求,所述资源单元将被至少一个所述实例(110)在所述请求运行时环境(200a)运行时使用;
向所述请求运行时环境(200a)提供(S206)所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)的资源单元量的指示;并且
从所述请求运行时环境(200a)获得(S208)所述请求运行时环境(200a)所需的各自资源单元量的指示。
13.根据权利要求12所述的方法,其中资源单元量的所述指示包括由所述响应运行时环境(200b,200c)运行的所述参与者(A1、A2、A3、A4、A5、A6)的每个实例(110)的资源单元量的指示。
14.根据权利要求12所述的方法,其中在响应中提供所提供的来自所述响应运行时环境(200b,200c)的可用的资源单元量的指示,所述响应包括如何访问来自所述响应运行时环境(200b,200c)的可用的资源单元量的资源单元的信息。
15.根据权利要求14所述的方法,其中所需的各自资源单元量的所述指示包括如何访问剩余资源单元的信息。
16.根据权利要求12所述的方法,还包括:
向所述请求运行时环境(200a)提供(S210)如何访问所述各自资源单元量的资源单元的信息。
17.根据权利要求12所述的方法,还包括:
确定(S204)来自所述响应运行时环境(200b,200c)的可用的资源单元量。
18.根据权利要求17所述的方法,其中在由所述响应运行时环境(200b,200c)运行至少一个其他所述实例(110)的基础上,确定来自所述响应运行时环境(200b,200c)的可用的资源单元量。
19.根据权利要求17所述的方法,其中基于所述响应运行时环境(200b,200c)的最少资源单元使用,确定来自所述响应运行时环境(200b,200c)的可用的资源单元量。
20.根据权利要求12所述的方法,其中所提供的资源单元量的指示包括所述响应运行时环境(200b,200c)的资源单元信息。
21.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的装置,所述装置应用于请求运行时环境(200a)并且包括处理电路(210),所述处理电路配置为使得所述请求运行时环境(200a):
向响应运行时环境(200b,200c)提供对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
从所述响应运行时环境(200b,200c)获得所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)中的相应响应运行时环境的资源单元量的指示;
基于所获得的指示,确定所述请求运行时环境(200a)所需的来自每个所述响应运行时环境(200b,200c)的各自资源单元量;并且
向所述响应运行时环境(200b,200c)指示所述请求运行时环境(200a)所需的所述各自资源单元量。
22.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的装置,所述装置应用于请求运行时环境(200a)并且包括:
处理电路(210);以及
存储介质(230),所述存储介质(230)存储指令,所述指令在由所述处理电路(210)执行时使得所述请求运行时环境(200a):
向响应运行时环境(200b,200c)提供对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
从所述响应运行时环境(200b,200c)获得所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)中的相应响应运行时环境的资源单元量的指示;
基于所获得的指示,确定所述请求运行时环境(200a)所需的来自每个所述响应运行时环境(200b,200c)的各自资源单元量;并且
向所述响应运行时环境(200b,200c)指示所述请求运行时环境(200a)所需的所述各自资源单元量。
23.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的装置,所述装置应用于请求运行时环境(200a)并且包括:
提供模块(210b),所述提供模块(210b)配置为向响应运行时环境(200b,200c)提供对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
获得模块(210c),所述获得模块(210c)配置为从所述响应运行时环境(200b,200c)获得所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)中的相应响应运行时环境的资源单元量的指示;
确定模块(210d),所述确定模块(210d)配置为基于所获得的指示,确定所述请求运行时环境(200a)所需的来自每个所述响应运行时环境(200b,200c)的各自资源单元量;以及
指示模块(210e),所述指示模块(210e)配置为向所述响应运行时环境(200b,200c)指示所述请求运行时环境(200a)所需的所述各自资源单元量。
24.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的装置,所述装置应用于响应运行时环境(200b,200c)并且包括处理电路(310),所述处理电路配置为使得所述响应运行时环境(200b,200c):
从请求运行时环境(200a)获得对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
向所述请求运行时环境(200a)提供所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)的资源单元量的指示;并且
从所述请求运行时环境(200a)获得所述请求运行时环境(200a)所需的各自资源单元量的指示。
25.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的装置,所述装置应用于响应运行时环境(200b,200c)并且包括:
处理电路(310);以及
存储介质(330),所述存储介质(330)存储指令,所述指令在由所述处理电路(310)执行时使得所述响应运行时环境(200b,200c):
从请求运行时环境(200a)获得对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
向所述请求运行时环境(200a)提供所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)的资源单元量的指示;并且
从所述请求运行时环境(200a)获得所述请求运行时环境(200a)所需的各自资源单元量的指示。
26.一种用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的装置,所述装置应用于响应运行时环境(200b,200c)并且包括:
第一获得模块(210g),所述第一获得模块(210g)配置为从请求运行时环境(200a)获得对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
提供模块(210i),所述提供模块(210i)配置为向所述请求运行时环境(200a)提供所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)的资源单元量的指示;以及
第二获得模块(210j),所述第二获得模块(210j)配置为从所述请求运行时环境(200a)获得所述请求运行时环境(200a)所需的各自资源单元量的指示。
27.一种计算机可读存储介质,其上存储有用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的计算机程序(1020a),所述计算机程序包括计算机代码,所述计算机代码当在充当请求运行时环境(200a)的运行时环境的处理电路(210)上运行时使得所述请求运行时环境(200a):
向响应运行时环境(200b,200c)提供(S104)对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
从所述响应运行时环境(200b,200c)获得(S106)所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)中的相应响应运行时环境的资源单元量的指示;
基于所获得的指示,确定(S108)所述请求运行时环境(200a)所需的来自每个所述响应运行时环境(200b,200c)的各自资源单元量;并且
向所述响应运行时环境(200b,200c)指示(S110)所述请求运行时环境(200a)所需的所述各自资源单元量。
28.一种计算机可读存储介质,其上存储有用于在参与者(A1、A2、A3、A4、A5、A6)的实例(110)之间分配资源单元的计算机程序(1020b),所述计算机程序包括计算机代码,所述计算机程序代码当在充当响应运行时环境(200b,200c)的运行时环境的处理电路(310)上运行时使得所述响应运行时环境(200b,200c):
从请求运行时环境(200a)获得(S202)对资源单元的请求,所述资源单元将被至少一个所述实例(110)在由所述请求运行时环境(200a)运行时使用;
向所述请求运行时环境(200a)提供(S206)所述请求运行时环境(200a)可用的来自所述响应运行时环境(200b,200c)的资源单元量的指示;并且
从所述请求运行时环境(200a)获得(S208)所述请求运行时环境(200a)所需的各自资源单元量的指示。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2016/079127 WO2018099538A1 (en) | 2016-11-29 | 2016-11-29 | Distribution of resources among actor instances |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110036371A CN110036371A (zh) | 2019-07-19 |
CN110036371B true CN110036371B (zh) | 2023-04-04 |
Family
ID=57517861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680091208.6A Active CN110036371B (zh) | 2016-11-29 | 2016-11-29 | 参与者实例之间的资源分配 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10901792B2 (zh) |
EP (1) | EP3549018B1 (zh) |
CN (1) | CN110036371B (zh) |
WO (1) | WO2018099538A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12099997B1 (en) | 2020-01-31 | 2024-09-24 | Steven Mark Hoffberg | Tokenized fungible liabilities |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006068943A2 (en) * | 2004-12-21 | 2006-06-29 | Ntt Docomo, Inc. | Method and apparatus for supporting soft real-time behavior |
CN101663661A (zh) * | 2007-04-26 | 2010-03-03 | 微软公司 | 建模应用程序的分布式行为受控执行 |
CN105765556A (zh) * | 2013-11-25 | 2016-07-13 | 亚马逊科技公司 | 分布式系统中的客户导向的联网限制 |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5408663A (en) | 1993-11-05 | 1995-04-18 | Adrem Technologies, Inc. | Resource allocation methods |
US5974438A (en) | 1996-12-31 | 1999-10-26 | Compaq Computer Corporation | Scoreboard for cached multi-thread processes |
US7328263B1 (en) | 2001-01-30 | 2008-02-05 | Cisco Technology, Inc. | Controlling access of concurrent users of computer resources in a distributed system using an improved semaphore counting approach |
US7386850B2 (en) | 2001-06-01 | 2008-06-10 | Avaya Technology Corp. | Arrangement for scheduling tasks based on probability of availability of resources at a future point in time |
GB2381336B (en) * | 2001-08-21 | 2005-09-28 | Silicon Infusion Ltd | Object orientated heterogeneous multi-processor platform |
AU2002341768A1 (en) | 2001-09-20 | 2003-04-01 | Adc Telecommunications, Inc. | Balance management for pre-paid services |
US20050192937A1 (en) | 2004-02-26 | 2005-09-01 | International Business Machines Corporation | Dynamic query optimization |
US7894357B2 (en) * | 2006-03-03 | 2011-02-22 | The Boeing Company | Capability-based testing and evaluation of network performance |
US7751320B2 (en) | 2006-09-30 | 2010-07-06 | Alcatel-Lucent Usa Inc. | Admission control of sessions with preference lists |
US8380880B2 (en) | 2007-02-02 | 2013-02-19 | The Mathworks, Inc. | Scalable architecture |
US8291411B2 (en) | 2007-05-21 | 2012-10-16 | International Business Machines Corporation | Dynamic placement of virtual machines for managing violations of service level agreements (SLAs) |
US8312460B1 (en) | 2007-05-22 | 2012-11-13 | Hewlett-Packard Development Company, L.P. | Allocating computer resources to workloads using utilization based probability distributions |
US7958393B2 (en) * | 2007-12-28 | 2011-06-07 | International Business Machines Corporation | Conditional actions based on runtime conditions of a computer system environment |
US20090172674A1 (en) * | 2007-12-28 | 2009-07-02 | International Business Machines Corporation | Managing the computer collection of information in an information technology environment |
US20110196968A1 (en) | 2009-03-25 | 2011-08-11 | Hitachi, Ltd. | Computer system, resource management server for computer system, and resource management method for computer system |
US9342361B2 (en) * | 2009-08-18 | 2016-05-17 | Nec Europe Ltd. | Method and system for controlling physical actuators in pervasive computing environments |
US20110154353A1 (en) | 2009-12-22 | 2011-06-23 | Bmc Software, Inc. | Demand-Driven Workload Scheduling Optimization on Shared Computing Resources |
US9965498B2 (en) | 2010-12-29 | 2018-05-08 | Teradata Us, Inc. | Predictive resource management |
US9201690B2 (en) | 2011-10-21 | 2015-12-01 | International Business Machines Corporation | Resource aware scheduling in a distributed computing environment |
US20130160022A1 (en) | 2011-12-19 | 2013-06-20 | International Business Machines Corporation | Transaction manager for negotiating large transactions |
US9183015B2 (en) * | 2011-12-19 | 2015-11-10 | Vmware, Inc. | Hibernate mechanism for virtualized java virtual machines |
US9009722B2 (en) | 2013-02-05 | 2015-04-14 | International Business Machines Corporation | Collaborative negotiation of system resources among virtual servers running in a network computing environment |
US9292349B2 (en) | 2013-03-15 | 2016-03-22 | International Business Machines Corporation | Detecting deployment conflicts in heterogenous environments |
US9391919B2 (en) | 2013-08-14 | 2016-07-12 | International Business Machines Corporation | Adaptive algorithm for cloud admission policies |
JP6241144B2 (ja) | 2013-08-30 | 2017-12-06 | 富士通株式会社 | 制御プログラム、制御方法および制御装置 |
US20150304414A1 (en) | 2014-04-17 | 2015-10-22 | Go Daddy Operating Company, LLC | Allocating hosting server resources via migration paths |
US20160085738A1 (en) * | 2014-09-24 | 2016-03-24 | Microsoft Technology Licensing, Llc | Cloud-Based Parallel Computation Using Actor Modules |
WO2016065080A1 (en) | 2014-10-21 | 2016-04-28 | Twilio, Inc. | System and method for providing a miro-services communication platform |
US11240286B2 (en) * | 2015-06-29 | 2022-02-01 | International Business Machines Corporation | Software request-filtering predictive technique based on resource usage probabilities |
US10275279B2 (en) | 2015-07-09 | 2019-04-30 | International Business Machines Corporation | Increasing the efficiency of scheduled and unscheduled computing tasks |
US20170032000A1 (en) | 2015-07-28 | 2017-02-02 | Bank Of America Corporation | Database manager |
US10031774B2 (en) | 2015-10-15 | 2018-07-24 | Red Hat, Inc. | Scheduling multi-phase computing jobs |
US10153941B2 (en) * | 2016-05-17 | 2018-12-11 | Microsoft Technology Licensing, Llc | Distributed operational control in computing systems |
US10168953B1 (en) | 2016-05-20 | 2019-01-01 | Nutanix, Inc. | Dynamic scheduling of distributed storage management tasks using predicted system characteristics |
US10095305B2 (en) | 2016-06-18 | 2018-10-09 | Qualcomm Incorporated | Wake lock aware system wide job scheduling for energy efficiency on mobile devices |
US11042450B2 (en) * | 2016-07-28 | 2021-06-22 | International Business Machines Corporation | Mechanism for managing container runtime state |
-
2016
- 2016-11-29 EP EP16808588.4A patent/EP3549018B1/en active Active
- 2016-11-29 WO PCT/EP2016/079127 patent/WO2018099538A1/en unknown
- 2016-11-29 CN CN201680091208.6A patent/CN110036371B/zh active Active
- 2016-11-29 US US16/463,874 patent/US10901792B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006068943A2 (en) * | 2004-12-21 | 2006-06-29 | Ntt Docomo, Inc. | Method and apparatus for supporting soft real-time behavior |
CN101663661A (zh) * | 2007-04-26 | 2010-03-03 | 微软公司 | 建模应用程序的分布式行为受控执行 |
CN105765556A (zh) * | 2013-11-25 | 2016-07-13 | 亚马逊科技公司 | 分布式系统中的客户导向的联网限制 |
Also Published As
Publication number | Publication date |
---|---|
EP3549018A1 (en) | 2019-10-09 |
EP3549018B1 (en) | 2021-04-07 |
CN110036371A (zh) | 2019-07-19 |
US10901792B2 (en) | 2021-01-26 |
WO2018099538A1 (en) | 2018-06-07 |
US20190384639A1 (en) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102318639B1 (ko) | 파일 다운로드 방법, 장치 및 컴퓨터의 판독이 가능한 매체 | |
EP3998720A2 (en) | Orchestrator execution planning using a distributed ledger | |
KR101574026B1 (ko) | 포그 컴퓨팅 네트워크를 이용한 사물 인터넷 네트워크 | |
CN108924221B (zh) | 分配资源的方法和装置 | |
CN108173905B (zh) | 一种资源配置方法、装置及电子设备 | |
US10979492B2 (en) | Methods and systems for load balancing | |
WO2019108279A1 (en) | On-device machine learning platform to enable sharing of machine-learned models between applications | |
US11064041B2 (en) | Apparatus for providing cloud service using cloud service brokerage based on multiple clouds and method thereof | |
JP2022519810A (ja) | 通信方法、装置、エンティティ及びコンピュータ可読記憶媒体 | |
US20150242621A1 (en) | Application permission settings | |
US20160070475A1 (en) | Memory Management Method, Apparatus, and System | |
CN106982245B (zh) | 监管控制和数据采集系统中的客户端和服务器 | |
CN113127021B (zh) | 一种应用升级的方法和计算机设备 | |
CN107343023B (zh) | 一种Mesos管理集群中的资源分配方法、装置及电子设备 | |
CN110677684B (zh) | 视频处理、视频访问方法及分布式存储、视频访问系统 | |
CN112771502A (zh) | 用于动态吞吐量再平衡的弹性资源池化 | |
WO2014082672A1 (en) | Network resource configuration | |
US20140068684A1 (en) | Digital Video Recorder Program To Mobile Device | |
CN110036371B (zh) | 参与者实例之间的资源分配 | |
CN110809030B (zh) | 网络流量控制方法、装置、编解码器及存储装置 | |
CN103491193A (zh) | 一种文件共享的方法和设备 | |
CN113765964A (zh) | 一种分布式系统服务分发的方法和装置 | |
CN104869531B (zh) | 一种群组成员更新方法和装置 | |
KR20180109062A (ko) | 네트워크 서비스 요청 | |
KR20200108356A (ko) | 모바일 장치로부터 데이터를 수집하기 위한 iot 협업 주체의 기회 기반 네트워크를 생성하는 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |