KR20170088407A - 코어 네트워크 엘리먼트들에서의 최적화된 리소스 관리 - Google Patents

코어 네트워크 엘리먼트들에서의 최적화된 리소스 관리 Download PDF

Info

Publication number
KR20170088407A
KR20170088407A KR1020177017420A KR20177017420A KR20170088407A KR 20170088407 A KR20170088407 A KR 20170088407A KR 1020177017420 A KR1020177017420 A KR 1020177017420A KR 20177017420 A KR20177017420 A KR 20177017420A KR 20170088407 A KR20170088407 A KR 20170088407A
Authority
KR
South Korea
Prior art keywords
sets
computing resources
load
upper threshold
core network
Prior art date
Application number
KR1020177017420A
Other languages
English (en)
Inventor
이쉬트반 바코스
줄러 보도그
아틸라 가버 힐트
라슬로 야노시
가버 야로
Original Assignee
노키아 솔루션스 앤드 네트웍스 오와이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 솔루션스 앤드 네트웍스 오와이 filed Critical 노키아 솔루션스 앤드 네트웍스 오와이
Publication of KR20170088407A publication Critical patent/KR20170088407A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0895Configuration of virtualised networks or elements, e.g. virtualised network function or OpenFlow elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0896Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
    • H04L43/0876Network utilisation, e.g. volume of load or congestion level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/60Software-defined switches
    • H04L49/602Multilayer or multiprotocol switching, e.g. IP switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • H04L2012/5629Admission control
    • H04L2012/5631Resource management and allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2213/00Indexing scheme relating to selecting arrangements in general and for multiplex systems
    • H04Q2213/13164Traffic (registration, measurement,...)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2213/00Indexing scheme relating to selecting arrangements in general and for multiplex systems
    • H04Q2213/13349Network management

Abstract

본 발명은 코어 네트워크 엘리먼트에서 분산 시스템의 리소스 관리를 위한 방법, 장치 및 컴퓨터 프로그램 제품을 다루며, 이들은, 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 것 ―제 1 세트는 항상 활성상태임―; 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 것 ―동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 동작 중인 세트들이 로딩되고, 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 그의 부하가 하부 임계치 미만으로 하락하는 경우, 최종 활성화된 세트가 비활성화됨―; 우선순위 번호를 각각의 세트로 할당하는 것; 활성 세트들의 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 것 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 우선순위 번호에 기초하여 결정됨―; 및 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 요청을 포워딩하는 것을 포함한다.

Description

코어 네트워크 엘리먼트들에서의 최적화된 리소스 관리{OPTIMIZED RESOURCE MANAGEMENT IN CORE NETWORK ELEMENTS}
본 발명은 전반적으로 유선 및 무선 통신 네트워크들에 관한 것으로, 보다 구체적으로 개선된 부하 밸런싱, 특히 분산 시스템들에서 개선된 수평 스케일링을 위해 코어 네트워크 엘리먼트에서의 최적화된 리소스 관리를 가능하게 하는 방법, 장치 및 컴퓨터 프로그램 제품에 관한 것이다.
비용을 절감하기 위해서, 원격통신 사업자들은 종종 인프라스트럭처 판매자들로부터 라디오 및 코어 네트워크 컴포넌트들의 가상화를 요구한다. 실제로, 모든 코어 네트워크 컴포넌트들은 동일한 클라우드 인프라스트럭처에서 실행될 수 있을 것이다. 비용 절감 이외에도, 예를 들어, 모든 코어 네트워크 컴포넌트들을 위한 균일한 하드웨어(HW)에 대한 소비를 통해, 사업자들은, 컴퓨팅 리소스들, 이를 테면, 가상화된 네트워크 엘리먼트들이 또한, 예를 들어, 클라우드의 장점과, 따라서, 이용가능한 하드웨어 리소스들의 활용을 더욱 최적화하는 장점을 활용할 수 있기를 원한다. 이러한 장점들 중 하나는, 클라우드의 가상 어플라이언스들의 스케일 인/아웃(scale in/out)으로도 알려지는 수평 스케일러빌러티(horizontal scalability)의 가능성이다.
예를 들어, 클라우드 상의 일반 (가상) 어플라이언스로서, 코어 네트워크 엘리먼트들은 이러한 수평 스케일링 거동을 지원할 것이다. 실제로, 그것은 VM(virtual machine)들과 같은 컴퓨팅 리소스들을 (가상) 어플라이언스(여기서 코어 네트워크 엘리먼트)로부터 제거(스케일-인)하거나 또는 컴퓨팅 리소스들을 (가상) 어플라이언스(여기서 코어 네트워크 엘리먼트)에 추가(스케일-아웃)할 수 있어야 한다는 것을 의미한다. 이는 트래픽이 적을 때(예를 들어, 야간 시간대에) 트래픽을 처리하기 위해 필요한 컴퓨팅 리소스들의 수를 '줄이고' 반면에 트래픽이 많은 지속기간(예를 들어, 낮 시간대) 동안 필요한 용량에 의존하여 신규 컴퓨팅 리소스들, 이를 테면, VM(virtual machines)을 동적으로 추가하는 가능성을 제공할 것이다.
엄격한 예상 서비스 등급을 가진 원격통신 네트워크 엘리먼트들의 경우, 스케일-인 절차 시 컴퓨팅 리소스 제거는 어떠한 서비스 방해도 유발시켜서는 안 된다. 본 발명에 따라 다루어지는 네트워크 엘리먼트들의 경우, 제공되는 메인 서비스는 가입자들 사이에서 호들을 처리하는 것이다. 즉, 예를 들어, MSS(Mobile Switching Center Server) 또는 TAS(Telecommunication Application Server)로부터의 컴퓨팅 리소스의 제거가 어떠한 진행 중인 호 셋-업이나, 또는 어떠한 진행 중인 활성 페이즈 호도 방해해서는 안 된다. 즉, VM과 같은 컴퓨팅 리소스의 제거는 적절해야 한다. 데이터 세션에 대한 그러한 적절한 스케일-인 절차가 요구되는 대응하는 네트워크 엘리먼트는, 예를 들어, SGSN/MME이다.
네트워크 엘리먼트의 컴퓨팅 리소스들의 이 스케일링을 외부 세계로부터 숨기기 위해서, 네트워크 엘리먼트의 에지 상에서 부하 밸런서들을 활용하는 것은 잘 알려져 있는 관행이다. LB(Load Balancer)들은 외부 세계로부터의 트래픽을 종료시키고, 이들은 네트워크 엘리먼트의 내부 컴퓨팅 리소스들 간에 인입하는 트래픽을 분산시킨다. 이러한 방식으로, 특정 활성 컴퓨팅 리소스가 신규 호 요청들을 수신할 수 있는지 여부를 결정하기 위해 부하 밸런서들이 활용될 수 있거나, 또는 내부 컴퓨팅 리소스가 적절한 셧다운에 대해 마킹된 경우, 마킹된 컴퓨팅 리소스는 신규 호 요청들을 수신하지 않지 않아야 하지만, 물론 그 컴퓨팅 리소스 상에서 진행 중인 세션들에 대한 트래픽은 여전히 그 컴퓨팅 리소스로 전달되어야 한다.
이로써, 이 논리에 따르면, 컴퓨팅 리소스에 의해 처리되는 진행 중인 세션들이 참가자들에 의해 종료되면, 잠시 후에 컴퓨팅 리소스가 '빈 상태(empty)'가 된다는 것이 명백해진다.
반면에, 일반적으로 호의 길이가 예측될 수 없다는 것이 명백하다. 즉, 진행 중인 활성 페이즈 호가 참가자들에 의해 완료되는 시기가 예측될 수 없다. 이는, 어느 정도 적은 수의 매우 긴 호출 세션들으로 인해 컴퓨팅 리소스, 이를 테면, VM이 셧 다운될 수 없는 상황이 발생할 수 있음을 의미한다.
본 명세서는 수평 스케일링으로 지칭되는 스케일-인 및 스케일-아웃에 관한 것이다.
기본적으로, 스케일-아웃 기능은, 증가된 트래픽을 처리하기 위해 컴퓨팅 리소스를 추가함으로써 FU(Functional Unit)들의 용량이 증가되게 할 수 있다. 반대로, 스케일-인 기능은, 컴퓨팅 리소스들을 트래픽으로부터 제거함으로써 기능 유닛들의 용량이 감소될 수 있게 한다. 수평 스케일링은 이미, 모든 장비 판매자들에 의해 다루어져야 하는 사실상 운영자들의 필요요건이다.
상기 서론으로부터 명백해지는 바와 같이, 호들의 길이가 일반적으로 예측될 수 없다는 문제가 있다. 따라서, 일반 부하 밸런서 로직을 따르는 경우, 그리고 내부 컴퓨팅 리소스들 간의 인입하는 트래픽이, 모든 컴퓨팅 리소스들이 동일한 CPU 부하 및 메모리를 소모하는 그러한 방식으로 공유되는 경우, 이는, 트래픽이 적은 시간대에 적절하게 컴퓨팅 리소스를 셧 다운시키는 것이 바람직할 경우, 그것이, 셧 다운을 위해 선택되지 않은 컴퓨팅 리소스들과 동일한 양의 호들을 처리할 수 있다는 것, 즉, 그 컴퓨팅 리소스에 다른 컴퓨팅 리소스들에서와 동일한 확률로 긴 호들이 나타날 수 있음을 의미한다. 이 확률을 낮추기 위해서, 향상된 부하 밸런서 로직이 필요하다.
따라서, 종래 기술의 결점들을 극복하기 위해서, 개선된 부하 밸런싱을 가능하게 하는 것이 본 발명의 기초가 되는 목적이다.
특히, 본 발명의 목적은 코어 네트워크 엘리먼트에서 최적화된 리소스 관리를 제공하기 위한 방법, 장치 및 컴퓨터 프로그램 제품을 제공하는 것이며, 이는 클라우드 기반 환경으로 또는 넌-클라우드 환경으로 구성될 수 있다.
본 발명의 제 1 양상에 따르면, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법이 제공되며, 이 방법은, 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 단계 ―제 1 세트는 항상 활성상태임―, 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 단계 ―동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 동작 중인 세트들이 로딩되고, 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 하부 임계치 미만으로 하락하는 경우, 최종 활성화된 세트가 비활성화됨―, 우선순위 번호를 각각의 세트로 할당하는 단계; 활성 세트들의 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 단계 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 우선순위 번호에 기초하여 결정됨―, 및 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 요청을 포워딩하는 단계를 포함한다.
본 발명의 제 2 양상에 따르면, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치가 제공되며, 장치는 적어도 하나의 프로세서, 및 프로세서에 의해 실행될 명령들을 저장하기 위한 적어도 하나의 메모리를 포함하며, 적어도 하나의 메모리 및 명령들은, 적어도 하나의 프로세서와 함께, 장치로 하여금 적어도, 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 것 ―제 1 세트는 항상 활성상태임―, 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 것 ―동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 동작 중인 세트들이 로딩되고, 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 하부 임계치 미만으로 하락하는 경우, 최종 활성화된 세트가 비활성화됨―, 우선순위 번호를 각각의 세트로 할당하는 것, 활성 세트들의 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 것 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 우선순위 번호에 기초하여 결정됨―, 및 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 요청을 포워딩하는 것을 수행하게 하도록 구성된다.
본 발명의 제 3 양상에 따르면, 컴퓨터 프로그램 제품이 제공되며, 이 제품은, 컴퓨터 프로그램이 실행되고 있는 경우, 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 단계 ―제 1 세트는 항상 활성상태임―, 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 단계 ―동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 동작 중인 세트들이 로딩되고, 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 하부 임계치 미만으로 하락하는 경우, 최종 활성화된 세트가 비활성화됨―, 우선순위 번호를 각각의 세트로 할당하는 단계, 활성 세트들의 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 단계 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 우선순위 번호에 기초하여 결정됨―, 및 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 요청을 포워딩하는 단계를 수행하도록 구성되는 컴퓨터-실행가능 컴포넌트들을 포함한다.
본 발명의 전술한 예시적인 양상들의 유리한 추가적인 개발들 또는 변경들이 종속항들에 제시된다.
본 발명의 특정 실시예들에 따르면, 우선순위 번호가 클수록, 서브인터벌의 길이가 더 길어진다.
또한, 본 발명의 특정 실시예들에 따르면, 컴퓨팅 리소스들의 세트가 비활성 상태에 있거나 또는 사전에 스케일링 인되는 경우, 그 세트의 우선순위 번호는 0의 우선순위를 나타낸다.
또한, 본 발명의 특정 실시예들에 따르면, 단일 세트의 부하가 상부 임계치에 도달하는 경우, 그 세트의 우선순위 번호가 최대가 되어, 세트가 최고 우선순위를 갖는 인입하는 요청들을 수신하는 것을 나타낸다.
추가로, 본 발명의 특정 실시예들에 따르면, 신규 세트가 로딩되는 경우, 그 세트의 우선순위 번호는, 실시간 트래픽에 의존하여, 사전설정된 시작 값부터 그의 최대 값까지 동적으로 변경가능하다.
또한, 본 발명의 특정 실시예들에 따르면, 코어 네트워크 엘리먼트는 TAS(Telecommunication Application Server), MSS(Mobile Switching Server), MME(Mobility Management Entity), SGSN(Serving GPRS Support Node)일 수 있거나, 또는 CSCF(Call Session Control Function), HSS(Home Subscriber Server), GPRS(Gateway GPRS support node) 등 중 임의의 것일 수 있다.
본 발명의 예시적인 실시예들의 더욱 완전한 이해를 위해서, 이제, 첨부 도면들과 함께 다음 설명들을 참조한다.
도 1은 본 발명의 특정 실시예들에 따른 방법을 도시한다.
도 2는 본 발명의 특정 실시예들에 따른 장치를 개략적으로 도시한다.
도 3은, FU들이 세트들로 편성되는, 본 발명의 특정 실시예들에 따른 네트워크 엘리먼트 구성을 개략적으로 도시한다.
도 4는 본 발명의 특정 실시예들에 따른 랜덤화 알고리즘의 개념적인 예시를 도시한다.
도 5는 본 발명의 특정 실시예들에 따른 알고리즘의 시그널링 차트를 도시한다.
도 6a는, 신규 세트가 스케일링 아웃(오버플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다.
도 6b는, 최종 (활성상태) 세트의 우선순위 번호가 증가(오버플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다.
도 6c는, 최종 (활성상태) 세트의 우선순위 번호가 감소(백플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다.
도 6d는, 최종 세트(활성상태)가 스케일링 인(백플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다.
도 7a 및 도 7b로 이루어지는 도 7은 본 발명의 특정 실시예들에 따른 흐름도를 도시한다.
본 발명의 예시적인 양상들은 본원에서 아래에 설명될 것이다. 보다 구체적으로, 본 발명의 예시적인 양상들은, 특정 비제한적인 예들에 대하여 그리고 본 발명의 생각할 수 있는 실시예들로 현재 간주되는 것에 대하여 이후에 본원에 설명된다. 당업자는, 본 발명이 이들 예들로 제한되는 것은 아니며 보다 광범위하게 적용될 수 있음을 인식할 것이다.
본 발명 및 그의 실시예들에 대한 다음의 설명은 특정한 예시적인 네트워크 구성들 및 배치들에 대한 비제한적인 예들로서 사용되는 사양들을 주로 언급한다는 것을 주목해야 한다. 즉, 본 발명 및 그의 실시예들은, 예를 들어, 특정한 예시적인 네트워크 구성들 및 배치들에 대한 비제한적인 예들로서 사용되는 3GPP 사양들과 관련하여 주로 설명된다. 이와 같이, 본원에 주어진 예시적인 실시예들의 설명은 구체적으로, 그에 직접적으로 관련되는 용어를 언급한다. 이러한 용어는 제시된 비제한적인 예들의 맥락에서만 사용되고, 본질적으로 어떤 식으로든 본 발명을 제한하지 않는다. 오히려, 본원에 설명된 특징들과 부합하는 한 임의의 다른 네트워크 구성 또는 시스템 배치 등도 활용될 수 있다.
이하, 본 발명의 다양한 실시예들 및 구현예들 및 그의 양상들 또는 실시예들이 여러 대안들을 이용하여 설명된다. 특정 요구들 및 제약들에 따라, 기재된 모든 대안들이 단독으로 또는 (다양한 대안들의 개별 특징들의 조합들을 또한 포함하는) 임의의 생각할 수 있는 조합으로 제공될 수 있다는 것을 전반적으로 주목한다.
특히, 다음의 예들, 버전들 및 실시예들은 단지 예시적인 예들로서 이해되어야 한다. 명세서가 여러 위치들에서 "하나의" 또는 "일부" 예시적인 버전(들) 또는 실시예(들)를 지칭할 수 있지만, 이것이, 각각의 이러한 언급이 동일한 예시적인 버전(들) 또는 실시예(들)에 관한 것이거나, 또는 그 특징이 하나의 예시적인 버전 또는 실시예에만 적용된다는 것을 반드시 의미하는 것은 아니다. 상이한 실시예들의 하나의 특징들이 또한 다른 실시예들을 제공하기 위해 결합될 수 있다. 또한, 단어들 "구비하는(comprising)" 및 "포함하는(including)"이, 설명된 실시예들을 언급된 그러한 특징들만으로 이루어지는 것으로 한정하지 않는 것으로 이해되며, 그러한 예시적인 버전들 및 실시예들은 또한 특별히 언급되지 않은 특징들, 구조들, 유닛들, 모듈 등을 또한 포함할 수 있다.
일반적으로, 원격통신 네트워크는 복수의 네트워크 엘리먼트들, 이를 테면, BTS(base station)들, eNB(evolved NodeB's; 즉 LTE 환경의 기지국), UE(user equipment)들(예를 들어, 모바일 전화, 스마트 폰, 컴퓨터 등), 제어기들, 인터페이스들 등, 및 특히, 원격통신 서비스의 제공에 사용되는 임의의 장비를 포함한다.
또한, 본원에 언급된 바와 같은 코어 네트워크 엘리먼트는, 예를 들어, TAS(Telecommunication Application Server), MSS(Mobile Switching Server), MME (Mobility Management Entity), SGSN(Serving GPRS Support Node) 또는 임의의 호 프로세싱 노드일 수 있지만, 이것으로 제한되지 않는다는 것을 주목한다.
실제 네트워크 타입에 또한 의존하는 설명된 엘리먼트들의 일반적인 기능들 및 상호접속들이 당업자에게 알려져 있고 대응하는 명세서들에 설명되어 있으므로, 그 상세한 설명은 본원에서 생략한다. 그러나, 아래에서 본원에 상세하게 설명되는 것들 이외에도, 몇 가지 추가 네트워크 엘리먼트들 및 시그널링 링크들이 기지국 및 통신 네트워크로의 또는 기지국 및 통신 네트워크로부터의 통신을 위해 활용될 수 있다는 것을 주목해야 한다.
이미 상기에서 나타낸 바와 같이, 현재의 부하 밸런싱 알고리즘들은 몇몇 컴퓨팅 리소스들, 이를 테면, VM들에 우선순위가 부여되어야 하는 것을 포함하는 논리를 지원하지 않는다. 그러나, 그러한 알고리즘은 고차 컴퓨터 리소스들을 로딩하고, 이러한 고차 컴퓨팅 리소스들이 주어진 부하 레벨에 도달하는 경우에만 트래픽을 다른 저차 컴퓨팅 리소스들로 오버플로우시킬 수 있다. 이러한 알고리즘은 많은 상황들에서 도움이 될 것이다. 예를 들어, 클라우드 기반 환경에서, 시스템은 일부 컴퓨팅 리소스들, 이를 테면, VM들 상에 부하를 집중시킬 수 있으며, 필요가 있을 때에만 클라우드에서 훨씬 더 동적인 리소스 관리를 인에이블할 다른 컴퓨팅 리소스들, 이를 테면, VM들로 부하를 오버플로우할 수 있으므로, 불필요한 CR(computing resource)들이 다른 목적으로 사용될 수 있거나 또는 이들이 셧 다운될 수 있다.
이러한 알고리즘은 또한, 세션들의 길이가 영향을 받을 수 없는 상황(예를 들어, 호 지속시간)에 도움을 줄 것이고 긴 세션들은 시스템으로부터 컴퓨팅 리소스의 적절한 제거를 방지할 수 있다. 이러한 신규 알고리즘은, 컴퓨팅 리소스의 제거로 인해 매우 긴 호들을 강제로 연결해제하는 것이 바람직하지 않기 때문에, 긴 세션들이 낮은 확률로 그러한 저차 컴퓨팅 리소스들 상에서 유지된다는 것을 의미할 것이다.
이외에도, 클라우드 환경이 본 발명의 하나의 응용 분야이지만, 그러나, 본 발명은 클라우드 환경에만 한정되지 않고, 넌-클라우드 환경에도 적용될 수 있다는 것을 주목한다. 또한, VM(Virtual Machine)은 본 발명의 몇몇 양상들에 따른 컴퓨팅 리소스의 일례이지만; 본 발명은 이것으로 제한되지 않는다.
도 1은 개시내용의 몇몇 예시적인 버전들에 따른 방법을 도시한다.
단계(S11)에서, 코어 네트워크 엘리먼트의 컴퓨팅 리소스들은 세트들로 편성되며, 여기서, 제 1 세트(즉, 기본 증분)가 항상 활성상태이다.
그런 다음, 단계(S12)에서, 세트들의 부하에 대한 상부 임계치 및 하부 임계치가 설정되고, 동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 동작 중인 세트들이 로딩되고, 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 하부 임계치 미만으로 하락하는 경우, 최종 활성화된 세트는 비활성화된다.
또한, 단계(S13)에서, 우선순위 번호가 각각의 세트에 할당된다. 이 할당된 우선순위 번호는 각각의 세트에 대해 최대 가능한 우선순위이어야 한다.
또한, 단계(S14)에서, 요청 분산을 랜덤화하기 위한 난수들의 인터벌은 활성 세트들의 컴퓨팅 리소스들에 할당되는 서브인터벌들로 세그먼팅되고, 각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 우선순위 번호에 기초하여 결정된다.
또한, 단계(S15)에서, 인터벌로부터의 난수가 인입하는 요청에 배정되고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 요청이 포워딩된다.
도 2에서, 본 개시내용의 예시적인 버전들 중 일부 버전과 연결하여 설명된 바와 같이 클라우드 기반 환경에서의 코어 네트워크 엘리먼트의 리소스 관리를 구현하도록 구성되는, 본 개시내용의 일부 예시적인 버전들에 따른 (원격-) 통신 네트워크 엘리먼트에 포함된 엘리먼트의 구성을 예시하는 다이어그램이 도시된다. 본 실시예는 네트워크 엘리먼트에서 또는 네트워크 엘리먼트에 의해 수행될 수 있다. 네트워크 엘리먼트는, 또한 네트워크 엘리먼트의 일부일 수 있거나 또는 네트워크 엘리먼트, 가상 머신 등에 별개의 엘리먼트로서 부착될 수 있는 엘리먼트들 또는 기능들, 이를 테면, 칩셋, 칩, 모듈 등을 포함할 수 있다는 것을 주목한다. 각각의 블록 및 그의 임의의 조합은 다양한 수단들 또는 이들의 조합들, 이를 테면, 하드웨어, 소프트웨어, 펌웨어, 하나 또는 그 초과의 프로세서들 및/또는 회로에 의해 구현될 수 있음을 이해해야 한다.
도 2에 도시된 네트워크 엘리먼트(20)는 네트워크 엘리먼트 제어 절차와 관련된 프로그램 등에 의해 주어진 명령들을 실행하기에 적합한 프로세싱 기능, 제어 유닛 또는 프로세서(21), 이를 테면, CPU 등을 포함할 수 있다.
프로세서(21)는 클라우드 기반 환경에서 코어 네트워크 엘리먼트의 상술된 리소스 관리와 관련된 프로세싱을 실행하도록 구성된다. 특히, 프로세서(21)는 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하도록 구성되는 편성 유닛으로서 서브-부분(210)을 포함하며, 제 1 세트는 항상 활성상태이다. 부분(210)은 도 1의 S11에 따른 프로세싱을 수행하도록 구성될 수 있다. 또한, 프로세서(21)는, 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하도록 구성되는 설정 유닛으로서 이용가능한 서브-부분(211)을 포함하며, 동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 동작 중인 세트들이 로딩되며, 상부 임계치가 초과되는 경우에는, 신규 세트가 활성화되는 반면 그의 부하가 하부 임계치 미만으로 하락하는 경우에는, 최종 활성화된 세트가 비활성화된다. 부분(211)은 도 1의 S12에 따른 프로세싱을 수행하도록 구성될 수 있다. 또한, 프로세서(21)는 우선순위 번호를 각각의 세트에 할당하도록 구성된 할당 유닛으로서 이용가능한 서브-부분(212)을 포함한다. 부분(212)은 도 1의 S13에 따른 프로세싱을 수행하도록 구성될 수 있다. 또한, 프로세서(21)는 활성 세트들의 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하도록 구성되는 세그먼팅 유닛으로서 이용가능한 서브-부분(213)을 포함하고, 각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 우선순위 번호에 기초하여 결정된다. 부분(213)은 도 1의 S14에 따른 프로세싱을 수행하도록 구성될 수 있다. 또한, 프로세서(21)는, 인터벌로부터의 난수를 인입하는 요청에 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 요청을 포워딩하도록 구성되는 프로세싱 유닛으로서 이용가능한 서브-부분(214)을 포함한다. 부분(214)은 도 1의 S15에 따른 프로세싱을 수행하도록 구성될 수 있다.
참조 부호들 22 및 23은 프로세서(21)에 연결된 트랜시버 또는 입/출력(I/O) 유닛들(인터페이스들)을 나타낸다. I/O 유닛들(22)은, 예를 들어, 네트워크 엘리먼트들과 통신하기 위해 사용될 수 있다. I/O 유닛들(23)은, 예를 들어, 관리 애플리케이션과 통신하기 위해 사용될 수 있다. 참조 부호 24는, 예를 들어, 프로세서(21)에 의해 실행될 데이터 및 프로그램들을 저장하기 위한 그리고/또는 프로세서(21)의 작업 저장소로서 사용가능한 메모리를 나타낸다.
본 발명의 특정 실시예들에 따르면, 우선, 컴퓨팅 리소스들은 세트들로 편성된다. 이론상의 그러한 세트는 임의의 수의 컴퓨팅 리소스들을 포함할 수 있지만, 총 이용가능한 최대한 많은 수의 컴퓨팅 리소스들을 포함할 수 있다. 그러나, 실제로 본 발명의 범위를 제한하지 않고, 기본 증분은 최소 2를 가지며, 다른 증분들은 적어도 하나의 FU를 갖는다. 한편으로, 본 발명은 신규하게 활성화된 컴퓨팅 리소스가 컴퓨팅 리소스들을 세트들로 편성함으로써 (스케일-아웃 이후) 즉시 과부하될 가능성을 최소화할 수 있다. 반면에, 본 발명은 더 많은 CPU 리소스들을 한 번에 관리할 수 있다.
기본 증분은, 항상 존재하고 항상 활성상태인 세트이다.
이러한 종류의 구성을 도 3에서 볼 수 있다. 특히, 도 3은 본 발명의 특정 실시예들에 따른 네트워크 엘리먼트 구성을 개략적으로 도시하며, CR(computing resource)들은, 복수의 부하 밸런서들(예를 들어, LB-0 내지 LB-m)에 연결되는, 가상화된 코어 네트워크 엘리먼트에서의 세트들(S1 내지 Sn)로 편성된다. LB들은, 예를 들어, 다층 사이트 스위치들에 의해 스위칭될 수 있다.
제 2 단계는, 세트들의 부하의 상부 임계치(예를 들어, LUT=60%)가 고정된다는 것이다. 목표는, 평균 부하가 주어진 상부 임계치(LUT)에 도달하는 동안은 활성 세트들이 로딩되는 것을 달성하는 것이다. 이는, 활성 세트들의 평균 부하 면에서 이 주어진 상부 임계치가 초과되는 경우 그리고 이러한 경우에만 신규 세트가 활성 상태에 있게 될 것이기 때문에 매우 유용하다.
유사하게, 세트들의 부하의 하부 임계치(예를 들어, LLT = 10 또는 20 %)가 설정된다. 또한, 이는, 최종 세트의 부하가 이 주어진 하부 임계치 미만인 경우 및 이러한 경우에만 최종 (활성상태) 세트가 비활성 상태에 있게 될 것이기 때문에 매우 유용하다.
이외에도, 모든 세트들에는 우선순위 번호가 부여된다. 이로써, 다음 조건들 중 적어도 하나가 충족되어야 한다. 첫째, 각각의 컴퓨팅 리소스가 그의 세트 내에서 동일한 우선순위 번호를 가지지만, 컴퓨팅 리소스의 우선순위 번호는 또한 실시간 트래픽에 따라 동적으로 변경가능하다. 컴퓨팅 리소스의 우선순위 번호가 클수록 이 컴퓨팅 리소스에 요청을 할당할 확률이 높다. 그런 다음, CR들의 세트가 비활성 상태이거나 사전에 스케일링 인되는 경우, 그 세트의 우선순위 번호는 0이다. 세트가 하한에 도달하는 경우, 즉, 하부 임계치 미만으로 하락하는 경우, 이는, 이 세트가 비활성화되도록 의도된다는 것, 즉 더 이상 부하가 그 세트로 보내지지 않는다는 것을 의미한다. 또한, 하나의 세트의 부하가 상부 임계치(LUT)에 도달하는 경우, 그 세트의 우선순위 번호가 최대(M, 여기서 M은 이미 LUT에 도달한 모든 세트들에 대해 공통이다)가 된다. M은 구성가능한 파라미터이다. 또한, 신규 세트가 로딩되는 경우, 그 세트의 우선순위 번호가 (실시간 트래픽에 의존하여) M까지 동적으로 변경가능하다. 도시된 실시예의 경우, 우선순위 번호의 시작 값이 M/3이지만, 필요에 따라 맞춰질 수 있다.
즉, 필요에 따라 우선순위 번호들이 맞춰질 수 있는데, 예를 들어, 상이한 스케일들이 사용될 수 있다. 본 실시예에서, 최대 M은 주어진 상부 임계치에 따라 60으로 설정된다.
마지막으로, 요청 분산이 랜덤화된다. 본 발명의 특정 실시예들에 따른 랜덤화 프로세스가 도 4에 도시된다.
도 4에서, 맨 윗줄은 인입하는 요청들을 도시한다. 인터벌의 이러한 세분, 예를 들어, [0,1]을 도 4의 아래 부분에서 볼 수 있으며, 도 4에서, 각각의 서브인터벌은 상이한 CR(computing resource)에 속한다. CR들의 각각의 음영은, 이들이 속한 세트를 나타낸다.
서브인터벌들의 길이는 다음 식에 의해 실시간으로 결정된다:
Figure pct00001
즉, CR의 우선순위 번호가 클수록, 그의 대응하는 서브인터벌이 더 커진다. 모든 각각의 요청이 예를 들어, [0,1]로부터 난수를 획득하기 때문에, 인입하는 요청들이 랜덤하게 분산된다. 배정된 난수를 포함하는 서브인터벌에 CR이 속하는 그 CR로 요청이 포워딩된다.
앞에서 요약한 바와 같이, 알고리즘의 이론적인 시그널링 차트를 도 5에서 볼 수 있다.
단계 1에서, 인입하는 요청, 예를 들어, SIP 초대 메시지가 부하 밸런서의 외부 인터페이스로 포워딩된다.
부하 밸런서 프로세스에서 다음 단계들이 실행된다. 특히, 단계 2에서, 요청에 대한 난수가 생성된다. 그런 다음, 단계 3에서, 생성된 번호를 포함하는 서브인터벌이 선택된다. 단계 4에서, 선택된 서브인터벌에 속하는 CR이 선택된다. 이어서, 단계 5에서, 요청이, 부하 밸런서의 내부 인터페이스로부터, 선택된 CR로 포워딩된다. 최종적으로, 단계 6에서, 요청이 선택된 CR에 의해 처리된다.
상기된 것에 기초하여, 본 발명의 특정 실시예들에 따른 발명은 도 6a 내지 도 6d에 도시되는 다음 부하 조건들을 관리할 수 있다.
도 6a는, 신규 세트가 스케일링 아웃(오버플로우)될 수 있는 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다. 특히, 도 7a에서 볼 수 있는 바와 같이, 모든 활성 세트들(S1 내지 Sk)의 부하는 주어진 상부 임계치(Lut)에 도달하며, 따라서, 신규 세트로의 오버플로우 트래픽이 수행된다. 즉, 임계치를 초과하는 트래픽이 신규 세트(Sk + 1)로 유입되어야 한다.
도 6b는, 최종 (활성상태) 세트의 우선순위 번호가 증가(오버플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다. 특히, 도 7b에 도시된 경우에서, 부하가 증가하고(L↑), 따라서 최종 세트의 우선순위(번호)가 증가될 수 있다. 즉, 마지막 세트가 더 많은 트래픽을 관리해야 한다.
도 6c는, 최종 (활성상태) 세트의 우선순위 번호가 감소(백플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다. 특히, 도 7c에 도시된 경우로부터 명백해지는 바와 같이, 부하가 감소하고(L↓), 따라서 최종 세트의 우선순위(번호)가 감소될 수 있다. 즉, 최종 세트는 더 적은 트래픽을 관리할 수 있다.
도 6d는, 최종 세트(활성상태)가 스케일링 인(백플로우)될 수 있는 경우의 부하 조건에서, 본 발명의 특정 실시예들에 따른 관리를 개략적으로 도시한다. 즉, 최종 활성 세트의 부하가 주어진 하부 임계치(LLt) 미만이고, 따라서 최종 세트(Sk+1)가 비활성화될 수 있다.
도 6a 내지 도 6d에 도시된 바와 같은 이 방법은 양방향인 수정된 누설 버킷 모델(modified leaky bucket model)처럼 보여질 수 있다. 부하가 오버플로우되고 유사하게 백플로우(flowed back)될 수 있다는 점을 주목하는 것이 매우 중요하다. 또한, 인입하는 요청들은 활성 세트들 중에서 균일하게 분산되지 않는다는 점을 언급할 만한 가치가 있다. 최종 세트는 통상적으로 더 적은 수의 요청들을 처리하므로, 최종 세트는 스케일-인에 대한 명백한 타겟이다(빈 상태에서는 더 빠름).
도 7a 및 도 7b로 이루어지는 도 7은 본 발명의 특정 실시예들에 따른 흐름도를 도시한다.
절차를 시작한 후, 기본 증분이 활성화된다. 1 단계에서, 모든 활성 세트들의 자원들의 활용이 모니터링된다. 단계 2에서, 기본 증분만이 활성상태인지가 결정된다. 기본 증분만 활성상태인 경우(S2에서 예), 단계 3에서, 기본 세트의 리소스들의 활용이 상부 임계치에 도달했는지 여부가 결정된다. 도달하지 않은 경우(S3에서 아니오), 프로세스는 단계 1을 재개하고, 임계치에 도달되면(S3에서 예), 우선순위 번호(pn) M/3을 갖는 신규 세트가 단계 4에서 활성화되고, 프로세스가 단계 1을 재개한다. 또한 다른 세트들이 활성상태인 경우(S2에서 아니오), 단계 5에서, 활성 세트들 모두의 리소스들의 활용이 상부 임계치에 도달했는지 여부가 결정된다. 그렇다면(S5에서 예), 단계 6에서, 아직도 활성화될 수 있는 신규 세트가 더 있는지 결정된다. 그렇다면(S6에서 예), 프로세스는 단계 4로 진행한다. 그렇지 않고, 다른 세트가 활성화될 수 없는 경우(S6에서 아니오), 모든 세트들은 이미 활성화되었다. 단계 7에서, 상부 임계치가 최대 설계 임계치까지 증가되고, 시스템이 그의 최대 용량에 도달했다는 경보가 발행될 수 있다. 프로세스는 단계 1을 재개한다.
단계 5에서 '아니오'가 결정되는 경우, 이제 도 7b를 참조하면, 단계 8에서, 임의의 세트의 리소스들의 활용이 상부 임계치에 도달했는지 여부가 결정된다. 그렇다면(S8에서 예), 최종 활성화된 세트의 우선순위 번호가 단계 9에서 M/6으로 증가되고, 프로세스는 단계 1을 재개한다. 그렇지 않은 경우(S8에서 아니오), 단계 10에서, 마지막 활성화된 세트의 리소스들의 활용이 하부 임계치 미만인지 여부가 결정된다. 그렇다면 (S10에서 예), 최종 활성화된 세트가 단계 11에서 비활성화되고, 프로세스는 단계 1을 재개한다. 그렇지 않은 경우(S10에서 아니오), 단계 12에서, 리소스들의 활용이 감소하고 있는지 여부가 결정된다. 그렇다면(S12에서 예), 최종 활성화된 세트의 우선순위 번호가 단계 13에서 M/6으로 감소되고, 프로세스는 단계 1을 재개한다. 그렇지 않은 경우(S12에서 아니오), 프로세스는 즉시 단계 1을 재개한다.
본 발명은 분산된 아키텍처를 갖는 모든 네트워크 엘리먼트들로 확장될 수 있다. 즉, 다수의 컴퓨터 리소스들을 포함하는 임의의 분산 시스템에 적용될 수 있다.
기본적으로, 본 발명에 따른 알고리즘을 사용하는 주요 장점이 있다. 한편으로는, 기존 리소스들을 보다 잘 활용할 수 있다. 또한, 불필요한 컴퓨팅 리소스들을 스위치 오프함으로써 에너지를 절약할 수 있거나, 또는 무료 컴퓨팅 리소스들이 다른 프로세스에 할당될 수 있다. 또한, 작업 처리가 보다 비용 효율적으로 될 수 있다.
가장 큰 장점은 필요한 양의 리소스들만이 활용된다는 점이다. 낮은 부하에서 컴퓨팅 리소스들(컴퓨팅 리소스들의 세트)을 시스템으로부터 제거하기로 결정하면, 더 낮은 차수의 컴퓨팅 리소스들이 더 높은 차수의 컴퓨팅 리소스들보다 처리할 트래픽이 적다는 것이 보장될 수 있다. 따라서, 가장 낮은 저차 컴퓨팅 리소스들은 적절한 방식으로 더 신속하게 비워질 수 있으며, 이는 서비스 연속성을 가능하게 한다.
본 발명의 실시예들이 소프트웨어, 하드웨어, 애플리케이션 로직 또는 소프트웨어, 하드웨어 및 애플리케이션 로직의 조합으로 회로로서 구현될 수 있음을 주목해야 한다. 일 예시적인 실시예에서, 애플리케이션 로직, 소프트웨어 또는 명령 세트는 다양한 종래의 컴퓨터-판독가능 매체 중 임의의 하나 상에서 유지된다. 이 문서의 맥락에서, "컴퓨터-판독가능 매체"는, 명령 실행 시스템, 장치 또는 디바이스, 이를 테면, 컴퓨터 또는 스마트폰, 또는 사용자 장비에 의해 또는 이와 관련하여 사용하기 위해 명령들을 포함, 저장, 통신, 전파 또는 전송할 수 있는 임의의 매체 또는 수단일 수 있다.
본 출원에서 사용되는 바와 같이, 용어 "회로"는 다음:(a)하드웨어-전용 회로 구현들(이를 테면, 오직 아날로그 및/또는 디지털 회로에서의 구현들) 및 (b) 회로들 및 소프트웨어(및/또는 펌웨어), 이를 테면 (적용되는 경우) : (i) 프로세서(들)의 조합 또는 (ii) 장치, 이를 테면, 모바일 폰 또는 서버로 하여금 다양한 기능들을 수행하게 하기 위해 함께 동작하는 (디지털 신호 프로세서(들)를 포함하는) 프로세서(들)/소프트웨어, 소프트웨어, 및 메모리(들)의 부분들, 및 (c) 회로들, 이를 테면, 소프트웨어 또는 펌웨어가 물리적으로 존재하지 않더라도, 동작을 위해 소프트웨어 또는 펌웨어를 필요로 하는 마이크로프로세서(들) 또는 마이크로프로세서(들)의 부분 모두를 지칭한다. 이 '회로'의 정의는, 임의의 청구항들에서 포함하는 것을 비롯하여, 본 출원의 이 용어의 모든 사용들에 대해 적용된다. 추가적인 예로서, 본 출원에서 사용되는 바와 같이, 용어 "회로"는 또한, 단지 프로세서(또는 다중 프로세서들) 또는 프로세서의 부분 및 그의 (또는 그들의) 수반하는 소프트웨어 및/또는 펌웨어의 구현을 포함할 것이다. 용어 "회로"는 또한, 예를 들어, 그리고 특정 청구항 엘리먼트에 적용가능하다면, 모바일 전화용 기저대역 집적 회로 또는 애플리케이션 프로세서 집적 회로, 또는 서버, 셀룰러 네트워크 디바이스, 또는 다른 네트워크 디바이스 내 유사한 집적 회로를 포함할 것이다.
본 발명은 특히, 이동 통신들, 예를 들어, GSM, 3G, LTETM 또는 LTE-어드밴스드(Advanced) 하의 환경에 관한 것이며(그러나 이것으로 제한되지 않음), 제어기들, 기지국들, 사용자 장비들 또는 스마트 폰들, 또는 이러한 네트워크들에 접속가능한 컴퓨터들에서도 유리하게 구현될 수 있다. 즉, 이는, 예를 들어, 칩셋으로서/칩셋에서, 연결된 디바이스들에 대해 구현될 수 있다.
원하는 경우, 본원에 논의된 상이한 기능들은 서로 상이한 순서로 그리고/또는 동시에 수행될 수 있다. 또한, 원하는 경우, 상술된 기능들 중 하나 또는 그 초과의 것은 선택적일 수 있거나 또는 결합될 수 있다.
본 발명의 다양한 양상들이 독립항들에 기재되어 있지만, 본 발명의 다른 양상들은, 오로지 청구항들에 명시적으로 기재된 조합들만이 아니라, 설명된 실시예들 및/또는 종속항들로부터의 특징들과 독립항들의 특징들의 다른 조합들을 포함한다.
또한, 본 발명의 예시적인 실시예들이 상기에 설명되었지만, 이들 설명들은 제한적인 의미로 보아서는 안된다는 것이 본원에서 주목된다. 오히려, 첨부된 청구항들에 정의된 바와 같이 본 발명의 범위를 벗어나지 않고 행해질 수 있는 몇 가지 변형들 및 수정들이 있다.
본 명세서에서 사용되는 약어들에 대해 다음의 의미들이 적용된다:
CPU Central Processing Unit(중앙 프로세싱 유닛)
CR Computing Resource(컴퓨팅 리소스)(예를 들어, 네트워크 엘리먼트 또는 가상 머신의 기능 유닛일 수 있음)
HW Hardware(하드웨어)
IP internet protocol(인터넷 프로토콜)
IP BB IP Backbone(IP 백본)
L Load(부하)
LB Load Balancer(부하 밸런서)
LLT Lower Load Threshold(하부 부하 임계치)
LUT Upper Load Threshold(상부 부하 임계치)
NE network element(네트워크 엘리먼트)
MGW Media Gateway(미디어 게이트웨이)
MSC Mobile Switching Center(모바일 스위칭 센터)
MSS MSC Server(MSC 서버)
TAS Telecommunication (also called Telephony) Application Server(원격통신(텔레포니로도 지칭됨) 애플리케이션 서버)
Si 제 i 세트
SR Site Router(사이트 라우터)
VM Virtual Machine(가상 머신)
또한, 다음 용어들이 상기 명세서에서 사용되며, 다음과 같이 이해되어야 한다:
풀 컴퓨팅 리소스들의 그룹, 용어 '세트'가 본원에서 사용됨
pn priority number(우선순위 번호)
세트 컴퓨팅 리소스들의 그룹
활성상태 세트 요청들을 수신하고 호들을 처리할 수 있는 CR들의 세트
비활성상태 세트 진행 중인 호들만 처리할 수 있을 뿐 신규 요청들을 수용하도록 허용하지 않는 CR들의 세트

Claims (14)

  1. 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법으로서,
    상기 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 단계 ―제 1 세트는 항상 활성상태임―;
    상기 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 단계 ―동작 중인 세트들의 평균 부하가 상기 상부 임계치에 도달하는 동안은 상기 동작 중인 세트들이 로딩되고, 상기 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 상기 하부 임계치 미만으로 하락하는 경우, 상기 최종 활성화된 세트가 비활성화됨―;
    우선순위 번호를 각각의 세트로 할당하는 단계;
    상기 활성 세트들의 상기 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 단계 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 상기 우선순위 번호에 기초하여 결정됨―; 및
    상기 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 상기 요청을 포워딩하는 단계를 포함하는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법.
  2. 제 1 항에 있어서,
    상기 우선순위 번호가 클수록, 상기 서브인터벌의 상기 길이가 더 길어지는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    컴퓨팅 리소스들의 세트가 비활성 상태에 있거나 또는 사전에 스케일링 인(scaled in)되는 경우, 그 세트의 우선순위 번호는 0의 우선순위를 나타내는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    단일 세트의 상기 부하가 상기 상부 임계치에 도달하는 경우, 그 세트의 우선순위 번호는 최대가 되어, 상기 세트가 최고 우선순위를 갖는 인입하는 요청들을 수신하는 것을 나타내는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    신규 세트가 로딩되는 경우, 그 세트의 우선순위 번호는, 실시간 트래픽에 의존하여, 사전설정된 시작 값부터 그의 최대 값까지 동적으로 변경가능한, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 코어 네트워크 엘리먼트는 원격통신 애플리케이션 서버, 모바일 스위칭 서버, 이동성 관리 엔티티, 서빙 GPRS 지원 노드, 또는 호 프로세싱 노드인, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 방법.
  7. 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치로서,
    적어도 하나의 프로세서, 및
    상기 프로세서에 의해 실행될 명령들을 저장하기 위한 적어도 하나의 메모리를 포함하며,
    상기 적어도 하나의 메모리 및 상기 명령들은, 상기 적어도 하나의 프로세서와 함께, 상기 장치로 하여금 적어도 :
    상기 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 것 ―제 1 세트는 항상 활성상태임―;
    상기 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 것 ―동작 중인 세트들의 평균 부하가 상기 상부 임계치에 도달하는 동안은 상기 동작 중인 세트들이 로딩되고, 상기 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 상기 하부 임계치 미만으로 하락하는 경우, 상기 최종 활성화된 세트가 비활성화됨―;
    우선순위 번호를 각각의 세트로 할당하는 것;
    상기 활성 세트들의 상기 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 것 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 상기 우선순위 번호에 기초하여 결정됨―; 및
    상기 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 상기 요청을 포워딩하는 것을
    수행하게 하게 하도록 구성되는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치.
  8. 제 7 항에 있어서,
    상기 우선순위 번호가 클수록, 상기 서브인터벌의 상기 길이가 더 길어지는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치.
  9. 제 7 항 또는 제 8 항에 있어서,
    컴퓨팅 리소스들의 세트가 비활성 상태에 있거나 또는 사전에 스케일링 인되는 경우, 그 세트의 우선순위 번호는 0의 우선순위를 나타내는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치.
  10. 제 7 항 내지 제 9 항 중 어느 한 항에 있어서,
    단일 세트의 부하가 상기 상부 임계치에 도달하는 경우, 그 세트의 우선순위 번호는 최대가 되어, 상기 세트가 최고 우선순위를 갖는 인입하는 요청들을 수신하는 것을 나타내는, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치.
  11. 제 7 항 내지 제 10 항 중 어느 한 항에 있어서,
    신규 세트가 로딩되는 경우, 그 세트의 우선순위 번호는, 상기 실시간 트래픽에 의존하여, 사전설정된 시작 값부터 그의 최대 값까지 동적으로 변경가능한, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치.
  12. 제 7 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 코어 네트워크 엘리먼트는 원격통신 애플리케이션 서버, 모바일 스위칭 서버, 이동성 관리 엔티티, 서빙 GPRS 지원 노드, 또는 호 프로세싱 노드인, 코어 네트워크 엘리먼트에서 분산 시스템 내의 리소스 관리를 위한 장치.
  13. 컴퓨터를 위한 컴퓨터 프로그램 제품으로서,
    상기 제품이 상기 컴퓨터 상에서 실행될 경우,
    상기 코어 네트워크 엘리먼트의 컴퓨팅 리소스들을 세트들로 편성하는 단계 ―제 1 세트는 항상 활성상태임―;
    상기 세트들의 부하에 대한 상부 임계치 및 하부 임계치를 설정하는 단계 ―동작 중인 세트들의 평균 부하가 상부 임계치에 도달하는 동안은 상기 동작 중인 세트들이 로딩되고, 상기 상부 임계치가 초과되는 경우, 신규 세트가 활성화되는 반면, 최종 활성화된 세트의 부하가 상기 하부 임계치 미만으로 하락하는 경우, 상기 최종 활성화된 세트가 비활성화됨―;
    우선순위 번호를 각각의 세트로 할당하는 단계;
    상기 활성 세트들의 상기 컴퓨팅 리소스들에 할당되는 서브인터벌들로 요청 분산을 랜덤화하기 위한 난수들의 인터벌을 세그먼팅하는 단계 ―각각의 서브인터벌의 길이는 각각의 컴퓨팅 리소스의 세트의 상기 우선순위 번호에 기초하여 결정됨―; 및
    상기 인터벌로부터의 난수를 인입하는 요청으로 배정하고, 배정된 난수를 포함하는 서브인터벌에 속하는 그러한 컴퓨팅 리소스에 상기 요청을 포워딩하는 단계를
    수행하기 위한 소프트웨어 코드 부분들을 포함하는, 컴퓨터를 위한 컴퓨터 프로그램 제품.
  14. 제 13 항에 있어서,
    상기 컴퓨터 프로그램 제품은 상기 소프트웨어 코드 부분들이 저장되어 있는 컴퓨터-판독가능 매체를 포함하고,
    상기 컴퓨터-판독가능 매체는, 상기 컴퓨터의 상기 내부 메모리에 직접적으로 로딩가능하고 그리고/또는 업로드, 다운로드 및 푸시 절차들 중 적어도 하나에 의해 네트워크를 통해 전송가능한, 컴퓨터를 위한 컴퓨터 프로그램 제품.
KR1020177017420A 2014-11-25 2014-11-25 코어 네트워크 엘리먼트들에서의 최적화된 리소스 관리 KR20170088407A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2014/075539 WO2016082866A1 (en) 2014-11-25 2014-11-25 Optimized resource management in core network elements

Publications (1)

Publication Number Publication Date
KR20170088407A true KR20170088407A (ko) 2017-08-01

Family

ID=51999414

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177017420A KR20170088407A (ko) 2014-11-25 2014-11-25 코어 네트워크 엘리먼트들에서의 최적화된 리소스 관리

Country Status (7)

Country Link
US (1) US10374832B2 (ko)
EP (1) EP3224985B1 (ko)
JP (1) JP6487045B2 (ko)
KR (1) KR20170088407A (ko)
CN (1) CN107210925B (ko)
PL (1) PL3224985T3 (ko)
WO (1) WO2016082866A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11374876B2 (en) * 2019-10-04 2022-06-28 Samsung Electronics Co., Ltd. Intelligent cloud platform to host resource efficient edge network function

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3270012B2 (ja) 1998-09-08 2002-04-02 富士通株式会社 ネットワークサーバ負荷検出装置、割当装置および方法
JP4230673B2 (ja) 2001-02-22 2009-02-25 富士通株式会社 サービス管理装置
US8024736B1 (en) * 2005-01-28 2011-09-20 Hewlett-Packard Development Company, L.P. System for controlling a distribution of unutilized computer resources
JP2006301749A (ja) 2005-04-18 2006-11-02 Hitachi Information Technology Co Ltd サーバ装置
ES2376385T3 (es) * 2008-04-16 2012-03-13 Telecom Italia S.P.A. Procedimiento y sistema para configurar din�?micamente una red de telecomunicaciones.
JP5259725B2 (ja) 2008-10-31 2013-08-07 株式会社日立製作所 計算機システム
CN102415068B (zh) * 2009-03-02 2015-09-02 特维里奥公司 用于多租户电话网络的方法和系统
US20110078303A1 (en) * 2009-09-30 2011-03-31 Alcatel-Lucent Usa Inc. Dynamic load balancing and scaling of allocated cloud resources in an enterprise network
CN102547851B (zh) * 2010-12-15 2016-08-03 国网山东省电力公司烟台供电公司 一种无线资源管理方法及系统
CN102143484A (zh) * 2010-12-20 2011-08-03 华为技术有限公司 资源分配处理方法、装置和网络服务系统
US8885586B2 (en) * 2011-03-02 2014-11-11 Blackbird Technology Holdings, Inc. Method and apparatus for query-based congestion control
US20120233313A1 (en) * 2011-03-11 2012-09-13 Hironobu Fukami Shared scaling server system
US9251033B2 (en) 2011-07-07 2016-02-02 Vce Company, Llc Automatic monitoring and just-in-time resource provisioning system
EP2570922A1 (en) * 2011-09-13 2013-03-20 Alcatel Lucent Method and system for managing an elastic server farm

Also Published As

Publication number Publication date
PL3224985T3 (pl) 2019-07-31
EP3224985B1 (en) 2019-01-16
EP3224985A1 (en) 2017-10-04
JP6487045B2 (ja) 2019-03-20
JP2018504008A (ja) 2018-02-08
US10374832B2 (en) 2019-08-06
US20170264463A1 (en) 2017-09-14
WO2016082866A1 (en) 2016-06-02
CN107210925B (zh) 2020-07-14
CN107210925A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
CN107872891B (zh) 资源调度方法、装置、网络设备及终端
US9681362B2 (en) Systems and methods for selecting a network access system
CN111052787A (zh) 基于5g环境中的利用水平的功能选择
US20190253930A1 (en) Resource management apparatus, resource management method, and program
CN116547958A (zh) 用于网络功能选择的排名处理的方法、系统和计算机可读介质
US11044729B2 (en) Function scheduling method, device, and system
TWI634799B (zh) 資料流之負載平衡
US20200213205A1 (en) Adjusting triggers for automatic scaling of virtual network functions
EP2528389A1 (en) Informing method and equipment for index parameter of access type/frequency of selection priority
US11032734B2 (en) Network congestion control via paging procedures
US11665635B2 (en) Network slice management
WO2017032203A1 (zh) 控制载波聚合ca下载速率的方法及基站
US20210282127A1 (en) Smart data mode for 5g wireless devices
CN112753250A (zh) 网络切片注册管理
WO2016202121A1 (zh) 一种负载均衡的方法及相关设备
WO2012000550A1 (en) Method and apparatus for changing between transmission states in a communication system
US9912559B2 (en) Method and apparatus for load-balancing gateway elements
JP6487045B2 (ja) コアネットワーク要素における最適なリソース管理
EP2871889B1 (en) Terminal selection method, network entity, and system based on self-organizing networks
WO2017049721A1 (zh) 用于基站的功耗控制方法及系统
CN109862594B (zh) 负载调整方法及设备
WO2017076134A1 (zh) 重分布频率或者重分布小区确定方法和装置
JP2015198427A (ja) ネットワーク選択システム及び方法及びプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right