CN106993017A - 虚拟机动态配置系统以及服务器 - Google Patents

虚拟机动态配置系统以及服务器 Download PDF

Info

Publication number
CN106993017A
CN106993017A CN201610920611.7A CN201610920611A CN106993017A CN 106993017 A CN106993017 A CN 106993017A CN 201610920611 A CN201610920611 A CN 201610920611A CN 106993017 A CN106993017 A CN 106993017A
Authority
CN
China
Prior art keywords
server
response
program
dependent
virtual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610920611.7A
Other languages
English (en)
Inventor
加藤圭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Publication of CN106993017A publication Critical patent/CN106993017A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • H04L67/125Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks involving control of end-device applications over a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/501Performance criteria
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/508Monitor

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Computer And Data Communications (AREA)
  • Debugging And Monitoring (AREA)

Abstract

本发明提供一种虚拟机动态配置系统以及服务器。能够从与客户端接近的多个从服务器中选择程序的响应时间最佳的从服务器。本发明的虚拟机动态配置系统在主服务器对多个从服务器的任意一个动态地配置执行请求的程序的虚拟机的虚拟机动态配置系统中,具备:各从服务器对在主服务器上动作的各程序发送请求信号,到接收到来自主服务器上的各程序的响应信号为止的响应时间信息进行测量的响应测量时间信息测量部、按每个从服务器保持测量出的每个程序的响应时间信息的响应时间信息存储部、以及至少参照响应时间信息存储部来决定执行所请求的程序的从服务器的从服务器决定部。

Description

虚拟机动态配置系统以及服务器
技术领域
本发明涉及虚拟机动态配置系统以及服务器,例如,可应用于在分散式网络上使程序(例如,应用程序)动作的虚拟机的动态配置系统。
背景技术
近年来,随着网络技术以及计算机技术的发展,所谓的云计算技术也随之进步。
云计算在各种站配置一般的计算机服务器(以下,称为“服务器”。),云上的服务器从客户端获取输入数据,服务器使供客户端使用的应用动作,且服务器经由通信环境将输出数据返回给客户端。
云环境被众多的用户利用。由于云环境的规模为大规模,所以在世界的很多场所分别配置有相同的服务器。因此,关于由哪个服务器来进行客户端请求的应用动作,会根据其状况发生变化。例如,也可能产生来自日本客户端的请求实际上被发送至地球的背侧的巴西的服务器,巴西的服务器将数据返回给日本客户端这样的情况。
另外,还有最近备受关注的IoT(Internet of Things:物联网)服务。
IoT服务在多个设备、物品上搭载通信功能,并与网络连接。在提供IoT服务的情况下,需要应用的实时性、网络上的信息流量的增大,所谓的大数据的积蓄方法等。
例如,有基于来自设置于工厂的设备的传感器的详细数据,服务器瞬时进行分析的服务等。在该情况下,存在应用的响应时间延迟,不适合利用的课题。
而且,例如在像信号灯等交通控制、汽车运行系统等那样,强烈需要实时性的应用的情况下,也考虑例如数百毫秒左右的处理延迟成为致命伤的情况。
针对上述的课题,提出了在与用户物理接近的场所设置小规模的从属服务器(也称为边缘服务器。),缩短通信延迟,来实现应用的实时性的边缘计算技术。
边缘计算是分散式网络的一种,位于云上的主服务器与客户端之间的从属服务器(边缘服务器)进行数据的保存、运算处理等。
专利文献1:日本特开2013-90277号公报
然而,关于在客户端能够与物理接近的多个从属服务器连接的环境下,使哪个从属服务器来执行应用动作,存在课题。例如,即使在物理上距离客户端较近的从属服务器执行应用动作的情况下,从实时性的观点来考虑,来自该从属服务器的响应也未必快。
因此,需要从与客户端接近的多个从属服务器中,能够选择应用的响应时间最佳的从属服务器的虚拟机动态配置系统以及服务器。
发明内容
为了解决这样的课题,第一本发明的虚拟机动态配置系统的特征在于,在主服务器对多个从服务器的任意一个动态地配置执行请求的程序的虚拟机的虚拟机动态配置系统中,具备:(1)响应测量时间信息测量部,测量对各从服务器对在主服务器上动作的多个程序分别发送请求信号,到接收到来自主服务器上的各程序的响应信号为止的响应时间信息;(2)响应时间信息存储部,按每个从服务器来保持测量出的每个程序的响应时间信息;以及(3)从服务器决定部,至少参照响应时间信息存储部来决定执行所请求的程序的从服务器。
第二发明的服务器的特征在于,具备响应测量时间信息测量部,根据主服务器的指示,在启动的虚拟机执行请求的程序的次要服务器中,测量对在主服务器上动作的多个程序分别发送请求信号,到接收到来自主服务器上的各程序的响应信号为止的响应时间信息。
第三本发明的服务器的特征在于,在对多个从服务器的任意一个指示执行所请求的程序的虚拟机的主要服务器中,具备:(1)获取单元,从各从服务器获取各从服务器对在主服务器上动作的多个程序分别发送请求信号,到接收到来自主服务器上的各程序的响应信号为止的响应时间信息;(2)响应时间信息存储部,其按每个从服务器来保持测量出的每个程序的响应时间信息;以及(3)从服务器决定部,其至少参照响应时间信息存储部来决定执行所请求的程序的从服务器。
根据本发明,能够从与客户端接近的多个从属服务器中,选择应用的响应时间最佳的从属服务器。
附图说明
图1是表示实施方式的网络系统的整体构成的整体构成图。
图2是表示实施方式的应用响应测量信息列表的构成的构成图。
图3是表示实施方式的CPU性能列表的构成的构成图。
图4是表示实施方式的应用响应测量信息列表的创建处理的动作的时序图。
图5是表示实施方式的从属服务器的选择处理的时序图。
图6是表示实施方式的执行客户端请求的应用的从属服务器的选择处理的流程图。
图7是表示实施方式的从属服务器的切换处理的动作的时序(其1)。
图8是表示实施方式的从属服务器的切换处理的动作的时序(其2)。
具体实施方式
(A)主要实施方式
以下,参照附图对本发明的虚拟机动态配置系统以及服务器的实施方式进行详细说明。
(A-1)实施方式的构成
图1是表示实施方式的网络系统的整体的构成的整体构成图。
在图1中,实施方式的网络系统1具有主服务器10、从属服务器20-1以及20-2、客户端30-1~30-4以及网络40。
此外,以下,在对从属服务器20-1以及20-2的每一个、客户端30-1~30-4的每一个共用的构成要素进行说明的情况下,表示为从属服务器20、客户端30来说明。另外,并不对主服务器10、从属服务器20、客户端30的每一个的个数进行特别限定。
在图1中,实施方式的网络系统1假定在云环境下,在物理上与客户端30接近的场所配置的多个从属服务器(边缘服务器)20虚拟地执行应用动作的分散式网络系统。
另外,在网络系统1中,主服务器10、从属服务器20具备用于构建云环境的虚拟化环境。即,主服务器10、从属服务器20具有在OS上启动虚拟机(VM:Virtual Machine),虚拟机执行应用动作的虚拟化环境。
在这里,应用(应用程序)是用于执行用户请求的信息处理的软件程序。应用收集来自客户端的数据,并进行数据统计处理、数据分析处理等。假定应用被要求实时性。
应用只要被要求实时性即可,并没有特别限定,例如,可用于交通控制、汽车运行系统、业务系统、各种管理系统、HEMS(家庭能源管理系统)、BEMS(建筑能源管理系统)、FEMS(工厂能源管理系统)等能源管理系统等。
客户端30对云上的服务器(主服务器10、从属服务器20)请求所希望的应用动作。
虽然客户端30的硬件构成并未图示,但具有通信装置(例如,近距离无线通信、无线通信、有线通信等)、CPU、ROM、RAM、输入输出接口等运算处理装置等。另外,客户端30将针对应用的输入数据(例如,传感器数据等各种数据)提供给云上的服务器,并从服务器获取通过应用动作而得到的数据。
在图1中,主服务器10具有从属服务器选择部11、应用信息转送部12、从属服务器切换部13、应用响应测量信息创建部14、虚拟机(VM)1~4、网络接口部15、存储部16。
此外,主服务器30的硬件构成虽然未图示,但与通用的服务器相同,具有CPU、ROM、RAM、EEPROM、输入输出接口部、通信装置等。主服务器30的各种功能通过CPU执行储存于ROM的处理程序来实现。另外,处理程序也可以为能够通过安装来创建,在该情况下,处理程序能够由图1所示的各构成模块来表示。
主服务器10具有能够通过云服务来提供的全部的应用,在OS上启动的VM执行由客户端30请求的应用(以下,表示为“APL”。)。
在这里,在图1中,示有在主服务器10中VM执行APL,但实际上,由通过主服务器10选择出的从属服务器20执行通过客户端30请求的应用。因此,主服务器10具有对来自客户端30以及从属服务器20的请求进行响应的功能。
主服务器10选择与用户即客户端30在物理上接近地配置的从属服务器20,对该从属服务器20动态地配置应用。
网络接口部15例如是通过TCP/IP,在与网络40之间进行信息的收发的部分。
VM1~VM4是在主服务器10的OS上启动的虚拟机。各VM1~VM4分别执行由客户端30请求的APL1~APL4。各VM1~VM4将各APL1~APL4的执行所需要的数据保持于HDD等存储部16,另外使用从客户端30获取到的数据来执行各APL1~APL4。
此外,在图1中,例示出了VM1~VM4分别执行4个APL1~4的情况。当然,并不对APL的个数进行限定,也不对为了执行各APL而启动的VM的个数进行限定。
从属服务器选择部11选择分散配置的从属服务器20中的、执行由客户端30请求的应用的从属服务器。
即,若从属服务器选择部11从自客户端30获取到应用的请求(利用请求)的从属服务器20接受服务器选择的查询,则根据规定的服务器选择方法,来选择执行请求的应用的最佳的从属服务器20。另外,从属服务器选择部11对选择出的从属服务器20进行应用的执行指示。由此,能够选择虚拟地执行由客户端30请求的应用的最佳的从属服务器20。此外,对于从属服务器选择部11的服务器选择方法的详细的说明,在动作的项中进行详细说明。
应用信息转送部12对由从属服务器选择部11选择出的从属服务器20、或者由从属服务器切换部13选择出的切换目的地的从属服务器20转送由客户端30请求的应用执行所需要的信息。
此时,应用信息转送部12进行与应用的请求源即客户端30相关的信息的转送、由客户端30请求的应用种类的指定、应用的执行所需要的数据(例如,储存于HDD的数据等)的转送等,来进行虚拟机的动态配置。此外,为了虚拟机的动态配置,并不对应用执行所需要的信息的转送方法进行特别限定,能够广泛地应用各种方法。
从属服务器切换部13对包含正在执行由客户端30请求的应用的从属服务器20在内的多个从属服务器20监视应用的响应状况,并基于其监视结果而切换到响应较快的从属服务器20。
应用响应测量信息创建部14基于从各从属服务器20获取到的、各APL的响应时间的测量信息来创建后述的应用响应测量信息161。
存储部16是存储处理程序、应用、应用所需要的数据等的存储区域。另外,存储部16还存储应用响应测量信息161、CPU性能列表162、从属服务器信息163等。
应用响应测量信息161按每个从属服务器20保持对各从属服务器20的各APL针对由主服务器10的各APL进行的请求的响应时间进行测量而得的测量信息(测量值)。
图2是表示实施方式的应用响应测量信息161的构成的构成图。
如图2所示,应用响应测量信息161作为项目具有“服务器识别信息”、“应用响应测量值”。此外,项目并不限定于这些。
应用响应测量信息161是针对各应用的响应时间。在对多个应用的每一个应用的响应时间进行测量的情况下,按每个应用来创建应用响应测量信息161。
此外,在图2中,例示了按每个从属服务器20列出一个应用响应测量值的情况。然而,由于从属服务器选择部11、从属服务器切换部13周期性地测量响应时间,所以应用响应测量信息161也可以按每个从属服务器20保持随时间经过而变化的响应时间。
在图2中,“服务器识别信息”是记载从属服务器20的识别信息的部分,例如,记载从属服务器20的名称、从属服务器20的IP地址等。
“应用响应测量值”是针对各从属服务器20的各APL向主服务器10的各APL发送的请求,到各从属20的各APL接收为止的响应时间(应用响应的往复延迟时间)。应用响应测量值是各从属服务器20测定出的结果,将从各从属服务器20获取到的结果保持于应用响应测量信息161。
应用响应测量值不是下层(例如,物理层、网络层等)的网络上的往复延迟时间,旨在包含应用层的层的响应时间。
这是因为客户端30所需要的响应的快速度是针对应用的执行动作的响应时间的短度。在下层的往复延迟时间的测量中,也有不能够充分地确保应用的实时性的情况。另外,即使在与客户端30在物理上接近的从属服务器20进行应用动作的情况下,应用的响应也未必快。
因此,在本实施方式中,为了选择应用的响应快的从属服务器20,而对应用的响应时间(应用的往复延迟时间)进行测量。
CPU性能列表162对每个从属服务器20保持搭载于各从属服务器20的CPU的性能。
图3是表示实施方式的CPU性能列表162的构成的构成图。
在图3中,CPU性能列表162作为项目具有“服务器识别信息”、“CPU性能”。此外,项目并不限定于这些。
“CPU性能”是搭载于各从属服务器20的CPU的性能信息。例如,在图3中,“aaaaxxx-3000(2.6GHz)”表示CPU的型号。即,表示CPU的制造商名称是“aaaa”、CPU名称是“xxx”、型号是“3000”、时钟数是“2.6GHz”。像这样,CPU性能也可以是CPU的型号的信息,也可以是相对地对与CPU的等级相应的CPU性能进行评价的相对评价值(例如,在以5级评价CPU性能时的相对评价值等)。
此外,与各从属服务器20的CPU性能相关的信息也可以是通过主服务器10与从属服务器20之间的数据包交换而获取到的信息,也可以是预先在能够识别从属服务器20的CPU性能的情况下预先设定的信息。
从属服务器信息163保持从属服务器20的地址信息(IP地址等)、位置信息(例如,纬度经度、在物理上配置时的位置信息等)等信息。另外,从属服务器信息保持对各从属服务器20和各从属服务器20所执行的应用种类建立了对应关系的信息。
在图1中,从属服务器20具有从属服务器选择请求部21、从属服务器切换部22、应用响应测量部23、VM、网络接口部25以及存储部26。
此外,虽然从属服务器20的硬件构成未图示,但与通用的服务器相同,具有CPU、ROM、RAM、EEPROM、输入输出接口部、通信装置等。从属服务器20的各种功能通过CPU执行储存于ROM的处理程序来实现。另外,也能够通过安装处理程序而构建,即使在该情况下,处理程序也能够由图1所示的各构成模块来表示。
从属服务器20是配置于与客户端30侧在物理上接近的场所的服务器。从属服务器20是由主服务器10指示的、执行客户端30请求的应用的服务器,其从客户端30获取数据,进行应用动作。
例如,从属服务器20-1的VM1执行APL1,VM2执行APL2。另外,从属服务器20-2的VM3执行APL3,VM4执行APL4。
网络接口部25是与客户端30之间收发信息、或与主服务器10之间收发信息的部分。
例如,网络接口部25与客户端30之间也可以通过近距离无线通信来收发信息。另外,网络接口部25与主服务器10之间,也可以收发基于TCP/IP的信息。
VM1~VM4分别是由主服务器10指示的、在OS上执行由客户端30请求的各个APL1~APL4的虚拟机。
从属服务器选择请求部21在从客户端30获取到应用的利用请求时,对主服务器10进行执行应用的从属服务器20的选择请求。
从属服务器切换请求部22定期地对主服务器10查询是否需要向其它从属服务器20的切换。
各APL对主服务器10的各APL发送包含伪信息的请求,应用响应测量部23测量针对上述请求的响应时间。应用响应测量部23定期地进行各APL的响应时间的测量。另外,应用响应测量部23将测量出的各APL的响应时间发送至主服务器10。
存储部26是存储处理程序、应用、应用所需要的数据等的存储区域。
(A-2)实施方式的动作
接下来,参照附图对实施方式的网络系统1中的应用的动态配置方法的动作进行详细说明。
(A-2-1)应用响应测量信息列表的创建动作
图4是表示实施方式的应用响应测量信息列表的创建处理的动作的时序图。
例如,作为云上的主服务器10能够执行的应用有APL1~APL4。
主服务器10为了告知能够执行的应用的种类,总是对各从属服务器20通知主服务器10使APL1~APL4动作这一情况(S11)。
对通知方法并没有特别限定,例如,能够通过主服务器10将包含记载有表示能够执行的应用的种类的APL1~APL4的列表信息的数据包通知给各从属服务器20来实现。
在各从属服务器20中,应用响应测量部23定期地对主服务器10的各APL1~APL4发送包含伪信息的请求(S12)。
在这里,伪信息的内容也可以根据应用的种类而不同。
例如,在应用是SIP的情况下,各从属服务器20的应用也可以使用SIP的Invite消息,发送使消息内容为空(例如,全零等)的伪信息。
而且例如,各从属服务器20的应用也可以发送包含主服务器10的应用未响应的数据(即,没有意义的数据)的伪信息。
更具体而言,也可以预先设定有在组装搭载于从属服务器20的印刷电路基板时所使用的信息,将其作为伪信息来使用。例如,在组装搭载于从属服务器20的印刷电路基板时,也可以将从印刷电路基板的组装工作机械中读取的条形码信息作为伪信息来使用。组装印刷电路基板的条形码信息有条形码编号、以及组装印刷电路基板的作业开始标志或者作业结束标志等。从属服务器20例如将条形码读取信息(包含条形码编号、作业开始标志的信息)作为伪信息发送至主服务器10的APL。此时,在主服务器10的APL中,由于是未登记的信息,所以主服务器10的APL进行错误响应。
若主服务器10的各APL1~APL4接收到包含各从属服务器20的伪信息的请求,则回复针对该请求的响应信息(S13)。即,在主服务器10中,接受了包含伪信息的请求的各APL1~APL4产生错误。因此,将错误响应返回至各从属服务器20的APL。
在各从属服务器20中,应用响应测量部23对包含伪信息的请求的发送时刻和错误响应的接收时刻进行管理,根据上述发送时刻与上述接收时刻的差分来测量应用响应测量信息(S14)。
另外,各从属服务器20将包含应用响应测量信息和与自身的CPU性能相关的信息的信息发送至主服务器10(S15)。此外,在各从属服务器20已经将与CPU性能相关的信息发送至主服务器10的情况下,也可以在之后不将与CPU性能相关的信息发送至主服务器10。
在主服务器10中,应用响应测量信息创建部14将从各从属服务器20接收到的应用响应测量信息存储至应用响应测量信息161。另外,在主服务器10中,应用响应测量信息创建部14将从各从属服务器20接收到的与从属服务器20的CPU性能相关的信息存储至CPU性能列表162(S16)。
各从属服务器20和主服务器10定期地进行S12~S16的处理。
(A-2-2)从属服务器20的选择动作
首先,使用图5对客户端30进行了应用的利用请求的情况下的从属服务器20的选择动作进行说明。
图5是表示实施方式的从属服务器20的选择处理的时序图。
客户端30对从属服务器20-1进行APL1的利用请求(S101)。
从属服务器20-1对主服务器10发送执行客户端30请求的APL1的从属服务器20的选择请求(S102)。
在主服务器10中,从属服务器选择部11对各从属服务器20中的各应用的响应时间进行测量,并基于其测量结果,选择执行客户端30请求的APL1的从属服务器20(S103)。
图6是表示实施方式的执行客户端30请求的应用的从属服务器的选择处理的流程图。
首先,在主服务器10中,从属服务器选择部11参照应用响应测量信息161,对各从属服务器20中的各APL1~APL4的响应测量值进行比较(S201)。
此时,应用响应测量信息161按每个APL保持有各从属服务器20的应用响应测量值。因此,从属服务器选择部11针对客户端30请求的APL,对各从属服务器20的应用响应测量值进行比较。
从属服务器选择部11选择最小的应用响应测量值,并选择应用响应测量值最小的从属服务器20(S203)。
在这里,从属服务器选择部11选择最小的应用响应测量值的从属服务器20,但也可能产生应用响应测量值的最小值与其以外的值的差分小且最佳的从属服务器20的选择不充分的情况。因此,在实施方式中,在应用响应测量值以从小到大的顺序,在规定范围内存在多个最小值和其以外的值的情况下,移至S204。
从属服务器选择部11参照CPU性能列表163,在规定范围内存在多个最小值与其以外的值的情况下,对分别对应的多个从属服务器20的CPU性能进行比较(S204)。
而且,在多个从属服务器20的CPU性能上存在差异的情况下(S204),选择CPU性能高的从属服务器20(S205)。
在这里,对选择CPU性能高的从属服务器20的理由进行说明。这是因为由于搭载有CPU性能高的CPU的从属服务器20的处理能力高,所以应用的响应快。例如,也研究考虑当前时刻的CPU的处理负荷等来选择从属服务器20等。
但是,随着近年来的CPU技术的进步,CPU的处理能力也变得非常高。因此,即使在当前时刻CPU的处理负荷等大的情况下,在CPU性能高时,也有随着时间经过应用的响应时间加快的趋势。
因此,在本实施方式中,在存在应用响应测量值等同(即处于规定范围内)的从属服务器20时,从属服务器选择部11选择CPU性能高的从属服务器20。
在S204中,在多个从属服务器20的CPU性能上没有差异的情况下,选择应用ID小的从属服务器20(S206)。即,作为执行客户端30请求的APL的从属服务器20,选择以前(已经)分配的从属服务器20。
返回到图5的S103,对从属服务器20的选择处理进行说明。
在S103中,从属服务器选择部11作为执行客户端30请求的APL1的服务器,选择从属服务器20-1。这样,主服务器10对从属服务器20-1发送从属服务器选择指示(S104)。
此外,主服务器10对从属服务器20-1转送客户端20请求的APL1、应用的执行所需要的数据等。
从属服务器20-1为了对客户端30告知执行APL1的服务器是从属服务器,发送从属服务器选择指示(S105)。
之后,客户端30对从属服务器20-1发送APL1的动作所需要的数据,开始APL1的利用(S106)。
(A-2-3)从属服务器20的切换方法(其1)
接下来,使用图7对从属服务器20主导从属服务器20进行的从属服务器20切换方法的处理动作进行说明。
图7是表示实施方式的从属服务器20的切换处理的动作的时序。
在这里,从属服务器20-1执行客户端30请求的应用。
客户端30将应用的执行所需要的消息(包含数据的消息)发送至从属服务器20-1(S301)。
在从属服务器20-1中,从属服务器切换部22对来自客户端30的消息的接收次数进行统计。而且,若来自客户端30的消息接收次数达到规定次数(例如,10次),则从属服务器切换部23对主服务器10发送查询最佳的从属服务器20的从属服务器选择请求(S302、S303)。
在主服务器10中,从属服务器选择部11参照应用响应测量信息161,选择执行客户端30请求的APL1的从属服务器20-2(S304)。在这里,在图7的S304中,进行使用了图6的从属服务器20的选择处理。此外,省略图6的从属服务器20的选择处理的详细的说明。
之后,从属服务器选择部11选择从属服务器20-2作为执行客户端30请求的APL1的服务器。这样,主服务器10对从属服务器20-1发送从属服务器选择指示(S305)。即,主服务器10将包含执行客户端30请求的APL1的切换目的地是“从属服务器20-2”的意思的从属服务器选择指示发送至从属服务器20-1。
另外,在主服务器10中,应用信息转送部12对从属服务器20-2,转送客户端20请求的APL1、应用的执行所需要的数据等(S306)。
从属服务器20-1为了对客户端30告知执行APL1的服务器是从属服务器20-2,对其发送从属服务器选择指示(S307)。
之后,客户端30对从属服务器20-2发送APL1的动作所需要的数据,开始APL1的利用(S308)。
(A-2-4)从属服务器20的切换方法(其2)
接下来,使用图8对主服务器10主导从属服务器20进行的从属服务器20切换方法的处理动作进行说明。
图8是表示实施方式的从属服务器20的切换处理的动作的时序。
在这里,从属服务器20-1执行客户端30请求的应用。
在主服务器10中,从属服务器切换部13定期地(例如,每1分钟、每几分钟)对各从属服务器20-1~20-2进行应用响应测量信息的查询。各从属服务器20-1~20-2的各APL1~APL4对主服务器10的各APL发送包含伪信息的请求,并测量到接收响应为止的响应时间,并将该响应测量信息发送至主服务器10(S401~S404)。
在主服务器10中,从属服务器选择部11参照应用响应测量信息161,选择执行客户端30请求的APL1的从属服务器20-2(S405)。在这里,在图8的S405中,进行使用了图6的从属服务器20的选择处理。此外,省略图6的从属服务器20的选择处理的详细的说明。
此外,在进行从属服务器20的切换之前的期间,客户端30将应用的执行所需要的消息(包含数据的消息)发送至从属服务器20-1(S406)。
之后,从属服务器选择部11作为执行客户端30请求的APL1的服务器,选择从属服务器20-2。这样,主服务器10对从属服务器20-1发送从属服务器选择指示(S407)。即,主服务器10将包含执行客户端30请求的APL1的切换目的地是“从属服务器20-2”的意思的从属服务器选择指示发送至从属服务器20-1。
另外,在主服务器10中,应用信息转送部12对从属服务器20-2转送客户端20请求的APL1、应用的执行所需要的数据等(S408)。
从属服务器20-1为了对客户端30告知执行APL1的服务器是从属服务器20-2,对其发送从属服务器选择指示(S409)。
之后,客户端30对从属服务器20-2发送APL1的动作所需要的数据,开始APL1的利用(S410)。
(A-3)实施方式的效果
如上所述,根据本实施方式,即使存在多个物理上接近客户端的从属服务器的情况下,也能够动态地配置执行客户端请求的应用的虚拟机的位置。其结果,能够非常提高应用动作的响应时间。
附图标记的说明
1…网络系统;10…主服务器;20(20-1以及20-2)…从属服务器;30(30-1~30-4)…客户端;11…从属服务器选择部;12…应用信息转送部;13…从属服务器切换部;14…应用响应测量信息创建部;VM…虚拟机;15…网络接口部;16…存储部;21…从属服务器选择请求部;22…从属服务器切换部;23…应用响应测量部;25…网络接口部;26…存储部。

Claims (8)

1.一种虚拟机动态配置系统,在主服务器对多个从服务器的任意一个动态地配置执行请求的程序的虚拟机的虚拟机动态配置系统中,其特征在于,具备:
响应测量时间信息测量部,测量各所述从服务器对在所述主服务器上动作的多个程序分别发送请求信号,到接收到来自所述主服务器上的各所述程序的响应信号为止的响应时间信息;
响应时间信息存储部,按每个所述从服务器保持测量出的每个所述程序的所述响应时间信息;以及
从服务器决定部,至少参照所述响应时间信息存储部来决定执行所述请求的程序的从服务器。
2.根据权利要求1所述的虚拟机动态配置系统,其特征在于,
还具备运算处理装置性能信息存储部,所述运算处理装置性能信息存储部保持搭载于各所述从服务器的运算处理装置的性能信息,
所述从服务器决定部参照所述响应时间信息存储部和所述运算处理装置性能信息存储部来决定执行所述请求的程序的从服务器。
3.根据权利要求1或2所述的虚拟机动态配置系统,其特征在于,
所述从服务器决定部参照所述响应时间信息存储部来决定与请求的程序相关的所述响应时间信息为最小值的从服务器。
4.根据权利要求2所述的虚拟机动态配置系统,其特征在于,
所述从服务器决定部在规定时间内存在多个所述响应时间信息时,参照所述运算处理装置性能信息存储部来决定搭载高性能的运算处理装置的从服务器。
5.根据权利要求1~4中任一项所述的虚拟机动态配置系统,其特征在于,
所述主服务器具备所述从服务器决定部,
执行所述请求的程序的从服务器间歇地对所述主服务器进行服务器切换请求,
所述主服务器的所述从服务器决定部决定切换目的地的从服务器。
6.根据权利要求1~4中任一项所述的虚拟机动态配置系统,其特征在于,
所述主服务器具备所述从服务器决定部,
所述主服务器对所述多个从服务器分别进行每个所述程序的响应测量信息的查询请求,
所述从服务器将每个所述程序的响应时间信息发送至所述主服务器,
所述主服务器的所述从服务器决定部决定切换目的地的从服务器。
7.一种服务器,其特征在于,
在根据主服务器的指示,启动的虚拟机执行请求的程序的次要服务器中,
具备响应测量时间信息测量部,该响应测量时间信息测量部测量对在所述主服务器上动作的多个程序分别发送请求信号,到接收到来自所述主服务器上的各所述程序的响应信号为止的响应时间信息。
8.一种服务器,其特征在于,
在对多个从服务器的任意一个指示执行请求的程序的虚拟机的主要服务器中,具备:
获取单元,从各所述从服务器获取各所述从服务器对在所述主服务器上动作的多个程序分别发送请求信号,到接收到来自所述主服务器上的各所述程序的响应信号为止的响应时间信息;
响应时间信息存储部,按每个所述从服务器保持测量出的每个所述程序的所述响应时间信息;以及
从服务器决定部,至少参照所述响应时间信息存储部来决定执行所述请求的程序的从服务器。
CN201610920611.7A 2015-11-26 2016-10-21 虚拟机动态配置系统以及服务器 Pending CN106993017A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015230663A JP2017097707A (ja) 2015-11-26 2015-11-26 仮想マシン動的配置システム及びサーバ
JP2015-230663 2015-11-26

Publications (1)

Publication Number Publication Date
CN106993017A true CN106993017A (zh) 2017-07-28

Family

ID=58778240

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610920611.7A Pending CN106993017A (zh) 2015-11-26 2016-10-21 虚拟机动态配置系统以及服务器

Country Status (3)

Country Link
US (1) US10298693B2 (zh)
JP (1) JP2017097707A (zh)
CN (1) CN106993017A (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101696151B1 (ko) * 2016-06-09 2017-01-12 신재광 IoT 기반의 모듈러 로보틱스 시스템
JP2019022078A (ja) * 2017-07-18 2019-02-07 日本電信電話株式会社 仮想サーバ編成方法および仮想サーバ編成システム
CN108199926A (zh) * 2018-01-31 2018-06-22 维沃移动通信有限公司 一种移动终端虚拟系统的搭建方法、相关设备及系统
CN110768834B (zh) * 2019-10-25 2023-01-03 北京金山云网络技术有限公司 虚拟机配置升级结果的通知方法、系统、设备及介质
CN111400086B (zh) * 2020-02-18 2022-05-06 上海交通大学 虚拟机容错的实现方法和系统
CN114625457B (zh) * 2020-12-11 2024-02-27 深信服科技股份有限公司 桌面云环境优化方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090271798A1 (en) * 2008-04-28 2009-10-29 Arun Kwangil Iyengar Method and Apparatus for Load Balancing in Network Based Telephony Application
US20110078303A1 (en) * 2009-09-30 2011-03-31 Alcatel-Lucent Usa Inc. Dynamic load balancing and scaling of allocated cloud resources in an enterprise network
CN102236582A (zh) * 2011-07-15 2011-11-09 浙江大学 虚拟化集群负载在多台物理机中均衡分配的方法
CN102279771A (zh) * 2011-09-02 2011-12-14 北京航空航天大学 一种虚拟化环境中自适应按需资源分配的方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060155862A1 (en) * 2005-01-06 2006-07-13 Hari Kathi Data traffic load balancing based on application layer messages
US8037197B2 (en) * 2007-10-26 2011-10-11 International Business Machines Corporation Client-side selection of a server
JP5731353B2 (ja) 2011-10-21 2015-06-10 株式会社日立製作所 キャッシュサーバ解決方法、装置、及びシステム
US9893980B2 (en) * 2012-06-19 2018-02-13 Nec Corporation Server system, server, server control method, and non-transitory computer-readable medium containing server control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090271798A1 (en) * 2008-04-28 2009-10-29 Arun Kwangil Iyengar Method and Apparatus for Load Balancing in Network Based Telephony Application
US20110078303A1 (en) * 2009-09-30 2011-03-31 Alcatel-Lucent Usa Inc. Dynamic load balancing and scaling of allocated cloud resources in an enterprise network
CN102236582A (zh) * 2011-07-15 2011-11-09 浙江大学 虚拟化集群负载在多台物理机中均衡分配的方法
CN102279771A (zh) * 2011-09-02 2011-12-14 北京航空航天大学 一种虚拟化环境中自适应按需资源分配的方法及系统

Also Published As

Publication number Publication date
US20170155721A1 (en) 2017-06-01
US10298693B2 (en) 2019-05-21
JP2017097707A (ja) 2017-06-01

Similar Documents

Publication Publication Date Title
CN106993017A (zh) 虚拟机动态配置系统以及服务器
Olaniyan et al. Opportunistic edge computing: Concepts, opportunities and research challenges
US11588708B1 (en) Inter-application workload network traffic monitoring and visuailization
US9600332B2 (en) Server load balancing based on virtual utilization, physical utilization, and feedback
EP2410500B1 (en) Network system
US8959217B2 (en) Managing workloads and hardware resources in a cloud resource
US9088503B2 (en) Multi-tenant information processing system, management server, and configuration management method
US9466036B1 (en) Automated reconfiguration of shared network resources
EP3451594A1 (en) Network function virtualization management orchestration device, method, and program
US20160197834A1 (en) Architecture and method for traffic engineering between diverse cloud providers
US20160198003A1 (en) Architecture and method for sharing dedicated public cloud connectivity
CN106170947B (zh) 一种告警信息处理方法、相关设备和系统
WO2015126734A1 (en) Orchestration and management of services to deployed devices
Ullah et al. Recent advancement in VM task allocation system for cloud computing: review from 2015 to2021
Östberg et al. The CACTOS vision of context-aware cloud topology optimization and simulation
US20230018871A1 (en) Predictive analysis in a software defined network
Kertész et al. Integrated monitoring approach for seamless service provisioning in federated clouds
US20150195141A1 (en) Apparatus and method for data center migration
WO2014073949A1 (en) A system and method for virtual machine reservation for delay sensitive service applications
Lee et al. The impact of container virtualization on network performance of IoT devices
US10360614B1 (en) Assessing and rating deployments of resources
US20070233848A1 (en) Monitor management that enables enhanced data collection
Clayman et al. Monitoring services in a federated cloud: the reservoir experience
de Jesus Martins et al. Sweeten: Automated network management provisioning for 5g microservices-based virtual network functions
Bruneo et al. A framework for the 3-D cloud monitoring based on data stream generation and analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170728