KR101171657B1 - 로드 밸런서 및 이를 이용한 부하 분산 관리 방법 - Google Patents

로드 밸런서 및 이를 이용한 부하 분산 관리 방법 Download PDF

Info

Publication number
KR101171657B1
KR101171657B1 KR1020100124734A KR20100124734A KR101171657B1 KR 101171657 B1 KR101171657 B1 KR 101171657B1 KR 1020100124734 A KR1020100124734 A KR 1020100124734A KR 20100124734 A KR20100124734 A KR 20100124734A KR 101171657 B1 KR101171657 B1 KR 101171657B1
Authority
KR
South Korea
Prior art keywords
communication service
virtual machine
physical node
load balancer
cluster
Prior art date
Application number
KR1020100124734A
Other languages
English (en)
Other versions
KR20120063662A (ko
Inventor
신홍중
Original Assignee
텔코웨어 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 텔코웨어 주식회사 filed Critical 텔코웨어 주식회사
Priority to KR1020100124734A priority Critical patent/KR101171657B1/ko
Publication of KR20120063662A publication Critical patent/KR20120063662A/ko
Application granted granted Critical
Publication of KR101171657B1 publication Critical patent/KR101171657B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1038Load balancing arrangements to avoid a single path through a load balancer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1034Reaction to server failures by a load balancer

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Computer And Data Communications (AREA)

Abstract

본 발명은 통신 서비스별 가상머신을 물리적 노드에 할당하고, 할당된 가상머신을 묶어 통신 서비스별 클러스터로 구성함으로써 하나의 통신 서비스에 다수의 가상머신을 중복 할당할 수 있어 서비스 안정성을 확보할 수 있으며, 또한, 물리적 노드의 상태에 따라 가상머신을 동적으로 할당 또는 이주함으로써 통신 서비스별 클러스터를 재구성할 수 있어 통신 서비스 병목구간을 자동 분산하고, 서비스의 연속성을 제공할 수 있는 로드 밸런서 및 이를 이용한 부하 분산 관리 방법에 관한 것이다.

Description

로드 밸런서 및 이를 이용한 부하 분산 관리 방법{Load balancer and method for managing load balancing using this}
본 발명은 로드 밸런서 및 이를 이용한 부하 분산 관리 방법에 관한 것으로, 더욱 상세하게는 통신 서비스별 가상머신을 물리적 노드에 할당하고, 할당된 가상머신을 묶어 통신 서비스별 클러스터로 구성함으로써 하나의 통신 서비스에 다수의 가상머신을 중복 할당할 수 있어 서비스 안정성을 확보할 수 있으며, 또한, 물리적 노드의 상태에 따라 가상머신을 동적으로 할당 또는 이주함으로써 통신 서비스별 클러스터를 재구성할 수 있어 통신 서비스 병목구간을 자동 분산하고, 서비스의 연속성을 제공할 수 있는 로드 밸런서 및 이를 이용한 부하 분산 관리 방법에 관한 것이다.
기존의 부하 분산 기술은 서비스 안정성 확보를 위해 실제 물리 머신을 증설하여 백업장비로 사용하거나 서버 클러스터를 구성하는 방법을 이용한다. 이러한 종래 기술은 병목현상으로 인해 서비스 성능저하가 발생할 경우, 병목구간을 탐색하거나 병렬처리 가능 구간을 찾아 해당 모듈을 병렬처리 할 수 있도록 내부 구조를 변경하거나, 물리 머신을 증설하여 절대적인 자원의 양을 증가시켜서 해결하고자 한다. 하지만, 이러한 경우 서비스 내부 구조를 변경하기 위한 소프트웨어의 변경 및 물리 머신의 증설에 따른 큰 비용과 노력이 필요하다.
또한, 기존의 부하 분산 기술에는 서버의 확장성 및 안정성 확보를 위해 로드 밸런서(Load Balancer)를 도입하여 로드밸런싱을 수행하는 방법을 이용한다. 로드 밸런서는 웹사이트로 전송되는 패킷을 수신하고 이들을 하나 이상의 파라미터에 기초하여 각각의 서버에 전송한다. 이러한 로드 밸런서는 웹사이트를 호스팅하는 서버들 간에 패킷 로드를 실질적으로 고르게 분배하는 방식으로 패킷이 전송되는 서버를 선택한다. 그리고 로드 밸런서는 클라우드 환경에서 여러 인스턴스에게 로드밸런싱을 수행하면서도 스티기 세션(STICKY SESSION) 관리기능을 제공한다. 스티기 세션은 한 웹 서버로부터 같은 인스턴스에서 처리해야 하는 여러 요청이 로드 밸런서에 도착하였을 때 처음 도착한 요청을 처리하기 위해 할당된 인스턴스로 모든 요청을 전달함으로써 세션 정보를 유지한 채 서비스를 처리할 수 있도록 하는 기술이다. 하지만 이러한 로드 밸런서에 적용된 세션 유지기능은 HTTP와 TCP 프로토콜만 처리 가능하고, 다른 프로토콜 처리에 대한 고려가 없었다.
상술한 종래의 문제점을 해결하기 위해서 본 발명은 통신 서비스의 안정성 확보와 병목구간 해소를 위해, 가상화 기반의 시스템에서 물리적 노드에 분산 배치된 가상머신들을 통신 서비스 클러스터로 구성하고, 물리적 노드의 상태에 따라 가상머신을 동적으로 할당 또는 이주할 수 있는 로드 밸런서 및 이를 이용한 부하 분산 관리 방법을 제공하는 데 그 목적이 있다.
또한, 본 발명은 다양한 프로토콜(SIP, DIAMETER, MSRP 등)의 세션 정보를 유지하면서 부하분산 기능을 수행할 수 있는 로드 밸런서 및 이를 이용한 부하 분산 관리 방법을 제공하는 데 또 다른 목적이 있다.
상기와 같은 목적을 달성하기 위한 본 발명의 일 실시 형태는, 다수의 물리적 노드에 가상머신을 할당하고, 할당된 적어도 2개 이상의 가상머신을 통신 서비스별로 묶어 통신 서비스 클러스터를 구성하며, 유무선 통신을 통해 접속된 클라이언트로부터 수신된 통신 서비스 요청에 대응하여 상기 다수의 물리적 노드의 상태에 따른 신규 가상머신의 할당 또는 이주를 통해 해당하는 통신 서비스 클러스터를 재구성하는 것에 의해 요청된 통신 서비스를 제공하는 로드 밸런서를 제공한다.
한편, 상기와 같은 목적을 달성하기 위한 본 발명의 다른 실시 형태는, 다수의 물리적 노드에 통신 서비스별 가상머신을 할당하고, 할당된 가상머신을 상기 통신 서비스별로 묶어 통신 서비스 클러스터로 구성하는 제1단계; 유무선 통신을 통해 접속된 클라이언트로부터 수신된 통신 서비스 요청에 대응하여 요청된 통신 서비스를 제공하는 물리적 노드의 상태에 따라 가상머신의 신규 생성 또는 이주를 통해 해당하는 통신 서비스 클러스터를 재구성하는 제2단계; 및 재구성된 통신 서비스 클러스터를 통해 상기 클라이언트가 요청한 통신 서비스를 제공하는 제3단계;를 포함하는 로드 밸런서의 부하 분산 관리 방법을 제공한다.
본 발명에 따르면, 로드 밸런서에서 다수의 물리적 노드 위에 가상머신이 분산 배치되도록 할당하고 이를 통신 서비스별로 묶어 클러스터로 구성함으로써 하나의 통신 서비스를 여러 가상머신이 제공할 수 있도록 한다. 이로 인해 특정 물리 머신의 장애 발생시에도 중단되는 서비스의 범위와 서비스 중단시간을 최소화할 수 있어 통신 서비스의 안정성을 확보할 수 있다.
또한, 본 발명에 따르면, 로드 밸런서에서 시스템 내부 구조의 변경 없이 기 구성된 가상자원 풀에서 가상머신 단위의 서비스 부하 분배를 수행할 수 있도록 한다. 이로 인해, 큰 비용과 노력의 부담없이 서비스 부하를 분산할 수 있어 병목구간을 해소할 수 있다.
또한, 본 발명에 따르면, 로드 밸런서에서 다양한 프로토콜(SIP, DIAMETER, MSRP 등)의 세션 정보를 유지하면서 부하분산 기능을 제공할 수 있다.
도 1은 본 발명의 일 실시 형태에 따른 로드 밸런서를 중심으로 서로 접속 가능한 다수의 클라이언트 및 웹 서버의 관계를 개략적으로 나타내는 블록도이다.
도 2는 본 발명의 일 실시 형태에 따른 로드 밸런서의 상세 구성과 통신 서비스 클러스터의 개념을 나타내는 블록도이다.
도 3은 본 발명의 일 실시 형태에 따른 로드 밸런서의 병목구간에 대한 부하 분산 개념을 나타내는 블록도이다.
도 4는 본 발명의 일 실시 형태에 따른 로드 밸런서의 물리적 노드의 장애 발생시 부하 분산 개념을 나타내는 블록도이다.
도 5는 도 1 내지 도 4에 도시된 로드 밸런서를 이용하여 IMS 시스템에서 특정 물리적 노드의 가상머신 장애 발생시 통신 서비스를 제공하는 과정을 나타내는 예시도이다.
도 6은 본 발명의 일 실시 형태에 따른 로드 밸런서의 부하 분산 관리 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일 실시 형태에 따른 로드 밸런서의 프로토콜별 부하 분산 관리 방법을 설명하기 위한 흐름도이다.
이하, 본 발명의 실시예에 대해 첨부한 도면을 참고로 하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였다. 그리고, 명세서 전체를 통하여 유사한 부분에 대해서는 동일한 부호를 붙였다. 또한, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.
본 발명의 로드 밸런서(Load Balancer) 및 이를 이용한 부하 분산 관리 방법은, 기존의 물리 머신에 통신 서비스를 제공하기 위한 리소스를 할당받던 구조를 가상 머신 기반의 유연한 구조로 구성한 것이다.
즉, 본 발명의 로드 밸런서 및 이를 이용한 부하 분산 관리 방법은, 다수의 물리적 노드에 통신 서비스별 가상머신을 할당하고, 할당된 다수의 가상머신을 묶어 하나의 통신 서비스를 제공하는 클러스터로 구성하고, 물리적 노드의 상태에 따라 가상머신을 동적으로 할당 또는 이주하여 상기 클러스터를 재구성함으로써 통신 서비스에 대한 안정성 및 연속성 확보와 병목구간을 해소할 수 있다.
또한, 본 발명의 로드 밸런서 및 이를 이용한 부하 분산 관리 방법은, HTTP, TCP, SIP, DIAMETER, MSRP 등과 같은 다양한 프로토콜에 대해 세션을 유지하면서 부하 분산을 수행할 수 있다.
참고로, 본 발명의 명세서에서 서비스와 통신 서비스, 클러스터와 통신 서비스 클러스터는 각각 동일한 의미로 사용되며, 혼용될 수 있다.
도 1은 본 발명의 일 실시 형태에 따른 로드 밸런서를 중심으로 서로 접속 가능한 다수의 클라이언트 및 IMS-AS(Application Server)의 관계를 개략적으로 나타내는 블록도이다.
도 1에 도시된 바와 같이, 본 실시 형태에 따른 전체 부하 분산 관리 시스템은 하나의 로드 밸런서(10)와 다수의 클라이언트(1~l)(30) 및 IMS-AS(1~n)(40)를 포함한다.
여기서, 로드 밸런서(10)는 클라이언트(30)의 요청에 따른 통신 서비스를 제공하기 위해 클라이언트(30)와 IMS-AS(40)에 대한 하나의 접근점(Access Point)을 제공한다.
이러한 로드 밸런서(10)는 통신 서비스별(1~m) 클러스터(20)를 제공한다. 통신 서비스별 클러스터(20)는 다수의 물리적 노드에 할당된 가상 머신을 통신 서비스별로 묶어 구성한 통신 서비스 제공 단위이다.
또한, 로드 밸런서(10)는 통신 서비스별로 구성된 클러스터 정보를 관리하며, 클러스터 정보에는 가상머신 정보와 가상머신이 할당된 물리적 노드 정보를 포함한다.
한편, 로드 밸런서(10)는 물리적 노드의 상태에 따라 통신 서비스 클러스터를 재구성한다. 예를 들어, 물리적 노드의 상태가 과부하로 판단되면, 다른 물리적 노드에 신규 가상머신을 생성하거나, 물리적 노드의 상태가 장애 발생으로 판단되면, 해당 물리적 노드에 할당된 가상머신을 다른 물리적 노드로 이주한다.
이를 위해 로드 밸런서(10)는 물리적 노드 및 상기 물리적 노드에 할당된 가상머신의 상태를 관리하며, 물리적 노드에 대한 통신 서비스의 장애 및 과부하 여부를 판단한다. 그리고, 로드 밸런서(10)는 물리적 노드의 상태에 대한 판단 결과에 따라 클러스터를 재구성하며, 상기 클러스터의 재구성에 따라 트래픽 분산 정책을 변경한다. 이때, 로드 밸런서(10)는 통신 서비스에 대한 프로토콜별 세션을 유지하여 물리적 노드에 할당된 가상머신으로의 트랙픽 분산을 수행한다.
그리고, 로드 밸런서(10)는 가상머신의 이주에 의해 가상머신의 위치가 변경될 경우 세션 정보(목적지 정보)를 유지하며, HTTP, TCP, SIP, DIAMETER, MSRP 등의 프로토콜별 세션을 유지하면서 해당 가상머신으로 메시지를 전달한다.
이때, 로드 밸런서(10)는 세션 정보와 해당 세션을 처리하기 위한 가상머신 정보를 관리하며 세션 정보와 가상머신 정보의 매핑을 통해 해당 가상머신으로 세션의 처리를 요청한다.
이와 같이 본 발명에 따른 로드 밸런서는 가상 머신의 클러스터 구조를 통해 특정 물리적 노드의 과부하 또는 장애 발생시에도 중단되는 통신 서비스의 범위와 중단시간을 최소화할 수 있다. 이에 의해 본 실시예에 따른 로드 밸런서는 통신 서비스에 대한 안정성 및 연속성 확보와 병목구간을 해소할 수 있다.
도 2는 본 발명의 일 실시 형태에 따른 로드 밸런서의 상세 구성과 통신 서비스 클러스터의 개념을 나타내는 블록도이다.
도 2에 도시된 바와 같이, 본 실시 형태에 따른 로드 밸런서(10)는 클러스터 관리부(11), 트래픽 관리부(12), 정책 관리부(13) 및 세션 관리부(14)를 포함한다.
먼저, 클러스터 관리부(11)는 다수의 물리적 노드(50~53)에 가상 머신(60)을 할당하며, 통신 서비스별로 다수의 가상머신으로 이루어진 통신 서비스 클러스터(21~24)를 구성한다.
즉, 클러스터 관리부(11)는 다수의 물리적 노드(50~53)에 분산되어 있는 가상 머신(60)들을 동일한 통신 서비스별로 묶어 하나의 통신 서비스 클러스터(21~24)로 각각 구성한다.
예를 들어, 클러스터 관리부(11)는 물리적 노드1(50) 및 물리적 노드2(51)에 분산 배치된 가상 머신(60)을 묶어 통신 서비스1을 제공하는 클러스터(21)로, 물리적 노드2(51), 물리적 노드3(52) 및 물리적 노드4(53)에 분산 배치된 가상 머신(60)을 묶어 통신 서비스2를 제공하는 클러스터(22)로, 물리적 노드1(50) 및 물리적 노드3(52)에 분산 배치된 가상 머신(60)을 묶어 통신 서비스3을 제공하는 클러스터(23)로, 물리적 노드1(50), 물리적 노드2(51), 물리적 노드3(52) 및 물리적 노드4(53)에 분산 배치된 가상 머신(60)을 묶어 통신 서비스4를 제공하는 클러스터(24)로 구성한다.
이와 같이 클러스터 관리부(11)는 다수의 물리적 노드 위에 4개의 통신 서비스 클러스터를 형성하며 클러스터 정보를 등록하여 관리한다.
또한, 클러스터 관리부(11)는 물리적 노드의 상태에 따라 클러스터에 포함되는 가상머신의 수를 변경한다.
즉, 클러스터 관리부(11)는 특정 물리적 노드가 서비스 병목구간으로 판단될 경우, 해당 클러스터에 대해 가상머신을 증설하여 부하를 분산하고 해당 클러스터 정보를 변경한다.
또한, 클러스터 관리부(11)는 물리적 노드의 상태에 따라 가상머신의 물리적 노드간의 이동을 지원한다.
즉, 클러스터 관리부(11)는 특정 물리적 노드의 장애로 인해 통신 서비스 클러스터의 가상머신이 서비스 불능상태라고 판단될 경우, 해당 가상머신을 다른 물리적 노드로 이주시키고, 상기 가상머신이 이주된 물리적 노드를 상기 통신 서비스 클러스터에 포함하고 클러스터 정보를 변경한다.
그리고, 트래픽 관리부(12)는 통신 서비스에 따른 트래픽 분산을 수행하기 위해, 물리적 노드와 가상머신의 연결을 관리하고 서비스의 장애 및 과부하 여부를 판단한다.
또한, 트래픽 관리부(12)는 HTTP, TCP, SIP, DIAMETER, MSRP 등의 프로토콜별로 세션 및 세션 정보를 유지하면서 해당 가상머신으로 트래픽을 분산한다.
이때, 트래픽 관리부(12)는 설정된 프로토콜별 트래픽 분산 정책에 따라 트래픽 분산을 수행한다.
또한, 트래픽 관리부(12)는 특정 물리적 노드의 장애 발생시 이를 클러스터 관리부(11)에 통지하고, 클러스터 관리부(11)에서 가상머신의 이주를 진행하는 동안 목적지 변경 기능을 이용하여 임시로 트래픽 분산 정책을 변경하고 가상머신의 이주가 완료되면 장애 이전의 트래픽 분산 정책으로 복구한다.
그리고, 정책 관리부(13)는 가상머신으로 트래픽을 분산하기 위한 정책을 설정하고 관리한다.
즉, 정책 관리부(13)는 서비스의 장애 및 과부하 발생시 가상머신의 신규 생성 및 이주에 따른 가상머신의 위치 변경을 반영하여 트래픽 분산 정책을 설정한다.
그리고, 세션 관리부(14)는 세션 및 세션 정보와 가상머신 정보를 유지하여 트래픽 분산이 끊김 없이 이루어지도록 한다.
즉, 세션 관리부(14)는 프로토콜별 세션 및 세션 정보를 유지하고 이후 로드 밸런서(10)에 입력되는 프로토콜에 대한 세션 유지 여부를 판단함으로써 트래픽 분산의 연속성을 지원한다.
다음으로, 도 1 및 도 2에 상술한 로드 밸런서의 부하 분산에 대해 구체적으로 설명하도록 한다. 도 3은 로드 밸런서의 병목구간에 대한 부하 분산, 도 4는 로드 밸런서의 물리적 노드 장애 발생시 부하 분산을 설명하는 예시도이다.
도 3은 본 발명의 일 실시 형태에 따른 로드 밸런서의 병목구간에 대한 부하 분산 개념을 나타내는 블록도이다.
도 3에 도시된 바와 같이, 클러스터 관리부(11)는 물리적 노드1(50)의 가상머신(61)을 통신 서비스1을 제공하기 위한 클러스터(21)로 구성한다.
그리고, 트래픽 관리부(12)는 물리적 노드의 상태를 실시간 모니터링하고, 물리적 노드1(50)에 대한 서비스 병목현상으로 성능저하가 확인되면, 이를 클러스터 관리부(11)로 통지한다.
그러면, 클러스터 관리부(11)는 물리적 노드2(51), 물리적 노드3(52) 및 물리적 노드4(53)에 신규 가상머신(70)을 각각 증설하고, 신규 가상머신(70)들을 통신 서비스1을 제공하는 클러스터(21)에 포함되도록 클러스터 정보를 변경한다.
이로써, 클러스터 관리부(11)는 물리적 노드1(50)의 가상머신(61)에 대한 부하를 신규 가상머신(70)으로 분산시켜 병목구간을 해소한다.
이와 같이 본 로드 밸런서의 클러스터 관리부(11)는 통신 서비스1의 처리 로직의 일부 영역에 대한 부하가 전체 시스템의 성능을 저하시켜 서비스 처리시간이 길어지게 될 경우, 이를 해소하기 위해 해당 클러스터에 대한 가상머신의 증설을 통해 병목구간의 부하를 분산시켜 전체 대기시간을 줄일 수 있다.
이때, 로드 밸런서의 정책 관리부(13)는 통신 서비스1의 클러스터(21)에 가상머신을 증설함에 따라 신규 가상머신(70)으로 부하를 분배하기 위해 정책을 변경한다.
따라서, 상술한 바와 같이 본 실시 형태에 따른 로드 밸런서는 가상머신의 신규 생성을 통해 서비스 병목구간에 대한 부하 자동 분산이 가능하다.
도 4는 본 발명의 일 실시 형태에 따른 로드 밸런서의 물리적 노드의 장애 발생시 부하 분산 개념을 나타내는 블록도이다.
도 4에 도시된 바와 같이, 본 로드 밸런서(10)의 클러스터 관리부(11)는 4개의 물리적 노드(1~4)(50~53) 각각에 4개의 통신 서비스를 처리하는 가상머신을 적어도 2개 이상 중복 배치하여 클러스터(21~24)를 구성한다.
이를 통해, 본 실시 형태에 따른 로드 밸런서는 하나의 통신 서비스를 제공하는 가상머신을 중복 배치하여 클러스터로 구성함으로써 서비스 안정성 확보가 가능하다.
만약, 4개의 물리적 노드(1~4)에 4개의 통신 서비스(1~4)가 각각 하나씩 할당되어 서비스될 경우, 즉, 물리적 노드1에 통신 서비스1을, 물리적 노드2에 통신 서비스2를, 물리적 노드3에 통신 서비스3을, 물리적 노드4에 통신 서비스4를 할당한 경우, 물리적 노드2의 장애 발생시 그에 할당된 통신 서비스2가 100% 손실율을 보이며 장애가 복구될 때까지 동작하지 못한다. 만약 통신 서비스1 내지 통신 서비스4가 서로 연계되어 동작하는 서비스라면 물리적 노드2의 장애로 인해 모든 통신 서비스가 동작하지 못하는 상황을 초래할 수 있다.
이후, 트래픽 관리부(12)는 물리적 노드들(50~53)의 상태를 실시간 모니터링하고, 물리적 노드2(51)의 장애 발생이 확인되면, 이를 클러스터 관리부(11)로 통지한다.
그러면, 클러스터 관리부(11)는 장애가 발생한 물리적 노드2(51)의 가상머신(62)을 다른 물리적 노드인, 물리적 노드1(50) 및 물리적 노드3(52)으로 각각 이주를 수행한다.
즉, 물리적 노드2(51)에서 장애가 발생하면 물리적 노드2(51)에 할당된 통신 서비스1과 통신 서비스2의 가상머신(62)의 동작이 중지됨으로써 통신 서비스1은 50%, 통신 서비스2는 33%의 손실율을 보이지만 다른 물리적 노드에 분산되어 있던 가상머신들은 계속 동작하기 때문에 전체 서비스의 중단은 발생하지 않게 된다.
따라서, 클러스터 관리부(11)는 물리적 노드2(51)에 할당된 가상머신을 물리적 노드1(50) 및 물리적 노드3(52)으로 각각 이주시킴으로써 물리적 노드2(51)의 장애로 인해 일부 중단된 서비스를 빠르게 재개한다.
이때, 로드 밸런서(10)는 세션 유지 기능과 프로토코별 처리 기능을 이용하여 이주된 가상머신에서 장애 발생 이전 상태의 서비스를 지속적으로 제공할 수 있다.
도 5는 도 1 내지 도 4에 도시된 로드 밸런서를 이용하여 IMS 시스템에서 특정 물리적 노드의 가상머신 장애 발생시 통신 서비스를 제공하는 과정을 나타내는 예시도이다.
도 5에 도시된 바와 같이, 무선통신 단말에서 INVITE 메시지를 로드 밸런서로 전송한다(①).
그러면, 로드 밸런서는 IMS 망에서 요청한 통신 서비스(P-CSCF)를 처리할 수 있는 물리적 노드2의 가상머신을 선택하고 해당 가상머신으로 INVITE 메시지를 전송한 뒤(②) 세션 정보를 저장한다.
그런 다음, 물리적 노드2의 가상머신은 INVITE 메시지를 목적지 정보에 따라 해당 PC로 전송한다(③).
이때, 물리적 노드2의 장애가 발생하여 물리적 노드2에 할당된 가상머신의 동작이 정지되면(④), 로드 밸런서에서 정지된 가상머신을 물리적 노드3으로의 이주를 결정하고 이에 따라 물리/가상자원 관리 시스템(미도시)에서 정지된 가상머신을 물리적 노드 3으로 이주시킨다(⑤).
이에 의해 가상머신은 물리적 노드3에서 다시 동작하며, 로드 밸런서는 가상머신의 이주에 따라 세션 정보를 변경한다.
이후, PC에서 INVITE 메시지에 대한 응답으로 200 OK 메시지가 로드 밸런서로 전송된다(⑥).
그러면, 로드 밸런서는 세션 정보와 200 OK 메시지를 비교하여 물리적 노드3으로 이주되어 새로 적용된 가상머신으로 200 OK 메시지를 전달한다(⑦).
그런 다음, 물리적 노드3의 가상머신은 200 OK 메시지를 로드 밸런서에 전송하고, 로드 밸런서는 200 OK 메시지를 해당 무선통신 단말에게 전달한다(⑧).
도 6은 본 발명의 일 실시 형태에 따른 로드 밸런서의 부하 분산 방법을 설명하기 위한 흐름도이다.
도 6에 도시된 바와 같이, 로드 밸런서는 다수의 물리적 노드의 상태를 감시한다(S601).
감시 결과, 물리적 노드의 상태가 병목으로 인한 성능저하로 판단되면(S602, Y), 다른 물리적 노드로 가상머신을 할당할 수 있는지 확인한다(S603).
확인 결과, 가상머신의 할당이 가능하면(S63, Y), 다른 물리적 노드에 신규 가상머신을 할당한다(S605).
그런 다음, 로드 밸런서는 해당 통신 서비스 클러스터 정보를 변경하고(S605), 신규 가상머신과 로드 밸런서를 연결한다(S606).
그리고, 로드 밸런서는 가상머신별 트래픽 분산 위치를 결정하고(S607), 신규 가상머신에 프로토콜별 처리모듈을 할당한다(S608).
그런 다음, 로드 밸런서는 통신 서비스에 따른 트래픽을 해당 가상머신으로 분배한다(S609).
한편, 확인 결과 가상머신의 할당이 불가능하면(S603, N), 관리자에게 클러스터 구성의 변경 불가를 통보한다(S610).
한편, 감시 결과, 물리적 노드의 상태가 장애 발생으로 판단되면(S611, Y), 물리적 노드의 장애로 인해 동작이 정지된 가상머신을 다른 물리적 노드로 이주한다(S612).
이때, 로드 밸런서는 가상머신의 이주가 진행되는 동안 트래픽 분산 위치를 변경하고(S613), 가상머신이 이주한 다른 물리적 노드로 통신 서비스 클러스터 정보를 변경한다(S614).
그리고, 로드 밸런서는 가상머신의 이주 전 트래픽 분산 정책을 복구한다(S615).
그런 다음, 로드 밸런서는 통신 서비스에 따른 트래픽을 해당 가상머신으로 분배한다(S609).
도 7은 본 발명의 일 실시 형태에 따른 로드 밸런서의 프로토콜별 부하 분산 방법을 설명하기 위한 흐름도이다. 본 실시예에서 SIP, MSRP의 경우를 예를 들어 설명하고 있으나, 이에 한정되는 것은 아니다.
도 7에 도시된 바와 같이, 로드 밸런서는 프로토콜별 트래픽 분산을 위해 전송되는 메시지를 분석한다(S701).
분석 결과, 로드 밸런서로 전송된 메시지가 SIP 메시지이면(S702, YES), 로드 밸런서는 SIP 처리모듈로 해당 메시지를 전달한다(S703).
그리고, 로드 밸런서는 SIP 메시지를 분석하여 세션 정보(URI, TAG, CALL ID, CALL SEQUENCE 정보)에 대한 유지 여부를 확인한다(S704).
확인 결과, 세션 정보가 유지 상태이면(S704, YES), 로드 밸런서는 세션을 유지하며 세션 정보에 해당하여 할당된 가상머신을 선택한다(S705).
그런 다음, 로드 밸런서는 전송된 SIP 메시지를 일시 저장한 후 CALL SEQUENCE에 따라 SIP 메시지의 순서를 재배치한다(S706).
그리고, 로드 밸런서는 선택된 가상머신으로 SIP 메시지를 전달한다(S707).
한편, 확인 결과 세션 정보가 유지 상태가 아니면(S704, NO), 통신 서비스 클러스터 정보를 조회하여 해당 통신 서비스를 제공할 수 있는 가상머신을 할당하고 로드 밸런서와 분배된 가상머신을 연결한다(S708).
그런 다음, 로드 밸런서는 전송된 SIP 메시지의 세션 정보와 할당된 가상머신 정보를 매칭하여 저장한다(S709).
그리고, 로드 밸런서는 분배된 가상머신으로 SIP 메시지를 전달한다(S707).
한편, 분석 결과, 로드 밸런서로 전송된 메시지가 MSRP 메시지이면(S710, YES), 로드 밸런서는 MSRP 처리모듈로 해당 메시지를 전달한다(S711).
그리고, 로드 밸런서는 MSRP 메시지를 분석하여 발신단말 주소와 세션 정보(SESSION ID)에 대한 매칭 정보가 등록되어 있는지 확인한다(S712).
확인 결과, 발신단말 주소에 대한 SESSION ID가 등록되어 있으면(S712, YES), 상기 SESSION ID에 할당된 가상머신을 선택하고(S713), 선택된 가상머신으로 전송된 MSRP 메시지를 전달한다(S707).
한편, 확인 결과, 발신단말 주소에 대한 SESSION ID가 등록되어 있지 않으면(S712, NO), 로드 밸런서는 신규 SESSION ID를 할당한다(S714).
그런 다음, 로드 밸런서는 할당된 신규 SESSION ID에 해당하는 서비스를 처리할 가상머신을 할당하고, SESSION ID에 대한 가상머신의 할당 정보를 저장한다(S715).
그리고, 로드 밸런서는 할당된 가상머신으로 MSRP 메시지를 전달한다(S707).
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들을 한정적인 관점이 아니라 설명적인 관점에서 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.
또한, 본 발명에 따른 시스템 및 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
10. 로드 밸런서 11. 클러스터 관리부
12. 트래픽 관리부 13. 정책 관리부
14. 세션 관리부 20~24. 통신 서비스 클러스터

Claims (19)

  1. 다수의 물리적 노드에 가상머신을 할당하고, 할당된 적어도 2개 이상의 가상머신을 통신 서비스별로 묶어 통신 서비스 클러스터를 구성하며,
    유무선 통신을 통해 접속된 클라이언트로부터 수신된 통신 서비스 요청에 대응하여 상기 다수의 물리적 노드의 상태가 과부하이면, 다른 물리적 노드에 가상머신을 신규 생성하여 해당하는 통신 서비스 클러스터를 재구성하거나, 또는 상기 다수의 물리적 노드의 상태가 장애 발생이면, 장애가 발생한 물리적 노드의 가상머신을 다른 물리적 노드로 이주하여 해당하는 통신 서비스 클러스터를 재구성하는 것에 의해 요청된 통신 서비스를 제공하는 로드 밸런서.
  2. 제1항에 있어서,
    상기 로드 밸런서는, 상기 다수의 물리적 노드의 상태를 실시간 감시를 통해 판단하고, 판단 결과, 요청된 통신 서비스를 제공하는 물리적 노드가 병목구간이면, 다른 물리적 노드에 신규 가상머신을 할당하여 상기 병목구간이 포함된 통신 서비스 클러스터 정보를 변경하는 것을 특징으로 하는 로드 밸런서.
  3. 제2항에 있어서,
    상기 로드 밸런서는, 할당된 신규 가상머신과 로드 밸런서를 연결하며, 변경된 통신 서비스 클러스터의 가상머신에 대해 트래픽 분산 위치를 결정하고 프로토콜별 처리모듈을 할당하여 상기 요청된 통신 서비스를 제공하는 것을 특징으로 하는 로드 밸런서.
  4. 제1항에 있어서,
    상기 로드 밸런서는, 상기 다수의 물리적 노드의 상태를 실시간 감시를 통해 판단하고, 판단 결과, 요청된 통신 서비스를 제공하는 물리적 노드가 장애발생구간이면, 상기 장애발생구간인 물리적 노드의 가상머신을 다른 물리적 노드로 이주하고, 상기 장애발생구간이 포함된 통신 서비스 클러스터 정보를 변경하는 것을 특징으로 하는 로드 밸런서.
  5. 제4항에 있어서,
    상기 로드 밸런서는, 상기 가상머신의 이주를 진행하는 동안 트래픽 분산 위치를 변경하며, 상기 가상머신의 이주가 완료되면 상기 가상머신의 이주 전 트래픽 분산 정책으로 복구하여 상기 요청된 통신 서비스를 제공하는 것을 특징으로 하는 로드 밸런서.
  6. 제1항에 있어서,
    상기 로드 밸런서는, HTTP, TCP, SIP, DIAMETER 및 MSRP을 포함하는 프로토콜별 처리모듈을 구비하며, 해당 프로토콜에 대한 세션 및 세션 정보를 유지하여 트래픽 분산을 수행하는 것을 특징으로 하는 로드 밸런서.
  7. 다수의 물리적 노드에 통신 서비스별 가상머신을 할당하고, 할당된 가상머신을 상기 통신 서비스별로 묶어 통신 서비스 클러스터로 구성하는 제1단계;
    유무선 통신을 통해 접속된 클라이언트로부터 수신된 통신 서비스 요청에 대응하여 요청된 통신 서비스를 제공하는 물리적 노드의 상태가 과부하이면, 다른 물리적 노드에 가상머신을 신규 생성하여 해당하는 통신 서비스 클러스터를 재구성하거나, 또는 상기 다수의 물리적 노드의 상태가 장애 발생이면, 장애가 발생한 물리적 노드의 가상머신을 다른 물리적 노드로 이주하여 해당하는 통신 서비스 클러스터를 재구성하는 제2단계; 및
    재구성된 통신 서비스 클러스터를 통해 상기 클라이언트가 요청한 통신 서비스를 제공하는 제3단계;를 포함하는 로드 밸런서의 부하 분산 관리 방법.
  8. 제7항에 있어서,
    상기 제2단계는, 상기 다수의 물리적 노드의 상태를 실시간 감시하는 단계;
    감시 결과, 상기 요청된 통신 서비스를 제공하는 물리적 노드의 상태가 과부하로 인한 성능 저하 또는 장애 발생 여부인지 판단하는 단계; 및
    판단 결과, 물리적 노드의 상태가 과부하이면, 다른 물리적 노드에 가상머신을 신규 생성하여 해당하는 통신 서비스 클러스터를 재구성하거나, 또는 상기 다수의 물리적 노드의 상태가 장애 발생이면, 장애가 발생한 물리적 노드의 가상머신을 다른 물리적 노드로 이주하여 상기 해당하는 통신 서비스 클러스터를 재구성하는 단계;로 이루어지는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  9. 제8항에 있어서,
    상기 해당하는 통신 서비스 클러스터를 재구성하는 단계는, 상기 판단 결과, 상기 요청된 통신 서비스를 제공하는 물리적 노드의 상태가 과부하로 인한 성능 저하이면, 상기 요청된 통신 서비스를 제공하는 물리적 노드에 할당된 가상머신을 병목구간으로 판단하고, 신규 가상머신을 다른 물리적 노드에 할당하는 단계;인 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  10. 제9항에 있어서,
    상기 해당하는 통신 서비스 클러스터를 재구성하는 단계는,
    상기 판단 결과, 상기 요청된 통신 서비스를 제공하는 물리적 노드의 상태가 과부하로 인한 성능 저하이면, 가상머신의 분산 정책을 획득하는 단계;
    적어도 하나 이상의 다른 물리적 노드에 신규 가상머신을 할당하는 단계;
    상기 해당하는 통신 서비스 클러스터 정보를 변경하는 단계;
    상기 신규 가상머신과 로드 밸런서를 연결하는 단계;
    상기 신규 가상머신별 트래픽 분산 위치를 결정하는 단계; 및
    상기 신규 가상머신에 프로토콜별 처리모듈을 할당하는 단계;로 이루어지는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  11. 제8에 있어서,
    상기 해당하는 통신 서비스 클러스터를 재구성하는 단계는, 상기 판단 결과, 상기 요청된 통신 서비스를 제공하는 물리적 노드의 상태가 장애 발생이면, 장애가 발생한 물리적 노드의 가상머신을 다른 물리적 노드로 이주하는 단계;인 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  12. 제11항에 있어서,
    상기 해당하는 통신 서비스 클러스터를 재구성하는 단계는,
    상기 장애가 발생한 물리적 노드의 가상머신을 상기 다른 물리적 노드로 이주하는 동안, 상기 해당하는 통신 서비스 클러스터의 트래픽 분산 위치를 변경하는 단계;
    상기 다른 물리적 노드로 상기 해당하는 통신 서비스 클러스터 정보를 변경하는 단계; 및
    변경한 트래픽 분산 위치를 장애 발생 전으로 복구하는 단계;를 더 포함하는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  13. 제7항에 있어서,
    상기 제3단계는, 상기 유무선 통신을 통해 접속된 클라이언트로부터 요청된 통신 서비스별 트래픽 분배를 수행하는 단계;를 더 포함하며,
    상기 요청된 통신 서비스별 트래픽 분배는, 프로토콜별 세션 및 세션 정보를 유지하는 것에 의해 수행되는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  14. 제13항에 있어서,
    상기 제3단계는, 상기 프로토콜별 세션 정보와 해당 세션을 처리하는 가상머신 정보의 매칭 정보에 따라 상기 통신 서비스가 처리되는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  15. 제13항에 있어서,
    상기 요청된 통신 서비스별 트래픽 분배를 수행하는 단계는,
    수신되는 메시지를 분석하여 프로토콜 종류를 판단하는 단계;
    판단 결과, 메시지가 SIP 메시지이면, SIP 처리모듈로 상기 SIP 메시지를 전달하는 단계;
    전달된 SIP 메시지를 분석하여 해당 SIP 세션 정보가 있는지 확인하는 단계;
    확인 결과, 상기 SIP 세션 정보가 있으면, 상기 SIP 세션 수행을 위해 할당된 가상 머신을 선택하는 단계;
    분석된 SIP 메시지의 콜 시퀀스(Call Sequence) 정보에 따라 메시지 순서를 재배치하는 단계; 및
    선택된 가상 머신으로 SIP 메시지를 전달하는 단계;로 이루어지는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  16. 제15항에 있어서,
    상기 확인 결과, 상기 SIP 세션 정보가 없으면, 해당 통신 서비스를 제공하는 가상머신을 할당하는 단계;
    상기 SIP 메시지의 분석 정보 및 가상머신의 할당 정보를 저장하는 단계; 및
    할당된 가상머신으로 수신된 SIP 메시지를 전달하는 단계;를 더 포함하는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  17. 제15항에 있어서,
    상기 판단 결과, 메시지가 MSRP 메시지이면, MSRP 처리모듈로 상기 MSRP 메시지를 전달하는 단계;
    전달된 MSRP 메시지를 분석하여 발신 단말 주소와 세션 아이디(Session ID)의 매칭 정보를 확인하는 단계;
    확인 결과, 상기 매칭 정보가 있으면, 상기 세션 아이디에 할당된 가상머신을 선택하는 단계; 및
    선택된 가상머신으로 수신된 MSRP 메시지를 전달하는 단계;를 더 포함하는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  18. 제17항에 있어서,
    상기 확인 결과, 상기 매칭 정보가 없으면, 신규 세션 아이디를 할당하고 해당 통신 서비스를 제공하는 가상머신을 할당하는 단계;
    상기 신규 세션 아이디 및 가상머신의 할당 정보를 저장하는 단계; 및
    할당된 가상머신으로 수신된 MSRP 메시지를 전달하는 단계;를 더 포함하는 것을 특징으로 하는 로드 밸런서의 부하 분산 관리 방법.
  19. 제7항 내지 제18항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020100124734A 2010-12-08 2010-12-08 로드 밸런서 및 이를 이용한 부하 분산 관리 방법 KR101171657B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100124734A KR101171657B1 (ko) 2010-12-08 2010-12-08 로드 밸런서 및 이를 이용한 부하 분산 관리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100124734A KR101171657B1 (ko) 2010-12-08 2010-12-08 로드 밸런서 및 이를 이용한 부하 분산 관리 방법

Publications (2)

Publication Number Publication Date
KR20120063662A KR20120063662A (ko) 2012-06-18
KR101171657B1 true KR101171657B1 (ko) 2012-08-09

Family

ID=46684027

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100124734A KR101171657B1 (ko) 2010-12-08 2010-12-08 로드 밸런서 및 이를 이용한 부하 분산 관리 방법

Country Status (1)

Country Link
KR (1) KR101171657B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101636796B1 (ko) * 2014-12-31 2016-07-07 (주)엔키아 가상 인프라 장애 관리 시스템 및 방법

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101432745B1 (ko) * 2012-11-01 2014-08-22 서강대학교산학협력단 가상 클라우드 환경에서 클러스터의 분산 파일 시스템 및 데이터 복제 방법
KR101540631B1 (ko) 2012-12-28 2015-07-30 삼성에스디에스 주식회사 가상 클러스터의 동적 확장 시스템, 방법 및 그 프로그램이 저장된 기록매체
KR101511841B1 (ko) * 2013-05-30 2015-04-13 삼성에스디에스 주식회사 가상 머신 기반의 무중단 시스템 및 상기 시스템에서의 패킷 중재 방법
KR102131260B1 (ko) * 2013-11-26 2020-08-05 주식회사 케이티 Ims 네트워크의 클라우드 시스템
KR102295664B1 (ko) 2014-10-21 2021-08-27 삼성에스디에스 주식회사 글로벌 서버 로드 밸런서 장치 및 상기 장치에서의 동적 캐쉬 유효 기간 제어 방법
KR102389334B1 (ko) * 2015-07-31 2022-04-20 주식회사 케이티 클라우드 서비스를 위한 가상 머신 프로비저닝 시스템 및 방법
KR101896497B1 (ko) * 2017-02-21 2018-09-07 에스케이텔레콤 주식회사 성능 제어 방법 및 이를 위한 장치
KR102036731B1 (ko) 2018-09-06 2019-10-25 숭실대학교산학협력단 가상화 네트워크 기능 클러스터링 구성 시스템 및 방법
CN109684081B (zh) * 2018-12-11 2023-11-07 北京数盾信息科技有限公司 一种集群内负载均衡的分配处理方法
US10965752B1 (en) * 2019-09-13 2021-03-30 Google Llc Live migration of clusters in containerized environments
KR102320317B1 (ko) * 2019-11-11 2021-11-02 한국전자기술연구원 클라우드 엣지 환경에서 예측 기반 마이그레이션 후보 및 대상 선정 방법
CN111722932B (zh) * 2020-06-28 2023-08-04 中国工商银行股份有限公司 用于应用系统的控制方法和装置、计算机系统和存储介质
CN112000507A (zh) * 2020-08-21 2020-11-27 中国建设银行股份有限公司 基于软件负载均衡的故障处理方法、系统、设备和介质
KR102427477B1 (ko) * 2020-09-29 2022-08-01 한국전자기술연구원 마이크로 데이터센터내 워크로드 분석을 위한 다중요소 적용 방법
KR102519010B1 (ko) * 2022-12-30 2023-04-06 주식회사 에스티씨랩 디지털 서비스 기반의 병목 구간 별 진입 대상을 관리하기 위한 진입 관리 서버, 방법 및 프로그램

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101636796B1 (ko) * 2014-12-31 2016-07-07 (주)엔키아 가상 인프라 장애 관리 시스템 및 방법

Also Published As

Publication number Publication date
KR20120063662A (ko) 2012-06-18

Similar Documents

Publication Publication Date Title
KR101171657B1 (ko) 로드 밸런서 및 이를 이용한 부하 분산 관리 방법
CA2924655C (en) Client-premise resource control via provider-defined interfaces
US9485323B1 (en) Managing pooled client-premise resources via provider-defined interfaces
JP5039947B2 (ja) 多数の論理パーティションにわたって仮想入力/出力操作を分散させるためのシステム及び方法
CN112532668B (zh) 一种网络边缘计算方法、装置及介质
JP5782641B2 (ja) 計算機システム及びパケット転送方法
US11611545B2 (en) RDP proxy support in presence of RDP server farm with session directory or broker
KR20210060364A (ko) 하이브리드 클라우드를 지원하는 엣지 서버 시스템
US8073934B1 (en) Automated load balancing architecture
US10375158B2 (en) Techniques for adaptive traffic direction via scalable application delivery controller services
CN105612539B (zh) 在租赁代理系统当中的生产者系统划分
US9848060B2 (en) Combining disparate applications into a single workload group
CN113014611B (zh) 一种负载均衡方法及相关设备
Singh et al. An improved weighted least connection scheduling algorithm for load balancing in web cluster systems
CN112839081A (zh) 一种云集群的负载均衡方法
CN109474700B (zh) iSCSI客户端的接入方法、存储介质、客户端和存储节点
CN112994937A (zh) 智融标识网络中虚拟cdn的部署与迁移系统
Shin et al. IRIS-HiSA: highly scalable and available carrier-grade SDN controller cluster
KR20110026303A (ko) 분산 서버 기반의 그리드 시스템 및 동작 방법
KR20220159368A (ko) 서버 시스템 및 서버 시스템 관리 방법
JP2006235837A (ja) 負荷分散システム、負荷分散装置管理サーバ、負荷分散装置の切り替え方法及びプログラム
KR100618159B1 (ko) 정책 쿼럼 기반의 그리드 자원 관리 시스템 및 그 방법
WO2023207189A1 (zh) 负载均衡方法及系统、计算机存储介质、电子设备
KR102119456B1 (ko) 분산 클라우드 환경에서의 분산 브로커 코디네이터 시스템 및 방법
US10091116B2 (en) Service chain construction method and server apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160622

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170628

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180711

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190626

Year of fee payment: 8