KR20230073315A - 리소스 스케줄링 방법 및 시스템, 전자 디바이스, 그리고 컴퓨터 판독 가능 저장 매체 - Google Patents

리소스 스케줄링 방법 및 시스템, 전자 디바이스, 그리고 컴퓨터 판독 가능 저장 매체 Download PDF

Info

Publication number
KR20230073315A
KR20230073315A KR1020237013946A KR20237013946A KR20230073315A KR 20230073315 A KR20230073315 A KR 20230073315A KR 1020237013946 A KR1020237013946 A KR 1020237013946A KR 20237013946 A KR20237013946 A KR 20237013946A KR 20230073315 A KR20230073315 A KR 20230073315A
Authority
KR
South Korea
Prior art keywords
proxy server
resource
proxy
server
sharing
Prior art date
Application number
KR1020237013946A
Other languages
English (en)
Inventor
야오 통
하이신 왕
Original Assignee
지티이 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 지티이 코포레이션 filed Critical 지티이 코포레이션
Publication of KR20230073315A publication Critical patent/KR20230073315A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects
    • H04L47/822Collecting or measuring resource availability data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/78Architectures of resource allocation
    • H04L47/781Centralised allocation of resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5022Workload threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

본 개시내용은 통신 기술 분야에 관한 것으로서, 리소스 스케줄링 방법을 제공하며, 이는 가상 머신에 배치되는 복수의 프록시 서버의 리소스 점유율을 획득하는 단계; 및 적어도 하나의 제1 프록시 서버를 이용하여 적어도 하나의 제2 프록시 서버의 리소스의 점유를 분담하는 단계를 포함하며; 적어도 하나의 제1 프록시 서버 중의 각각의 제1 프록시 서버의 리소스 점유율은 제1 임계값보다 작고, 적어도 하나의 제2 프록시 서버 중의 각각의 제2 프록시 서버의 리소스 점유율은 제2 임계값보다 크며, 제1 임계값은 제2 임계값보다 작다. 본 개시내용은 또한 리소스 스케줄링 시스템, 전자 디바이스 및 컴퓨터 판독 가능 저장 매체를 개시한다.

Description

리소스 스케줄링 방법 및 시스템, 전자 디바이스, 그리고 컴퓨터 판독 가능 저장 매체
본 개시내용은 2020년 9월 22일자로 중국 특허국에 출원된 출원번호가 202011001012.8인 중국 특허 출원의 우선권을 주장하며, 상기 출원의 전체 내용은 인용을 통해 본 출원에 원용된다.
본 개시내용의 실시예는 통신기술 분야에 관한 것이다.
인터넷의 보급 및 광대역 인프라 구축이 발전함에 따라, 네트워크 동영상에 대한 사용자의 수요도 크게 증가하였다. 각 네트워크 동영상 웹사이트는 이미 94% 이상의 인터넷 사용자를 커버하고 있으며, 정보, 이메일, 실시간 통신(Instant Messaging: IM) 등과 함께 인터넷의 기본 애플리케이션 중 하나가 되었다.
본 개시내용의 실시예는, 일 양상에서, 가상 머신에 배치되는 복수의 프록시 서버의 리소스 점유율을 획득하는 단계; 및 적어도 하나의 제1 프록시 서버를 이용하여 적어도 하나의 제2 프록시 서버의 리소스의 점유를 분담하는 단계를 포함하는 리소스 스케줄링 방법을 제공하며; 여기서, 적어도 하나의 제1 프록시 서버 중의 각각의 제1 프록시 서버의 리소스 점유율은 제1 임계값보다 작고, 적어도 하나의 제2 프록시 서버 중의 각각의 제2 프록시 서버의 리소스 점유율은 제2 임계값보다 크며, 제1 임계값은 제2 임계값보다 작다.
본 개시내용의 실시예의 다른 양상에서, 스케줄링 서버 및 가상 머신에 배치되는 복수의 프록시 서버를 포함하는 리소스 스케줄링 시스템을 제공하며; 여기서, 스케줄링 서버는 복수의 프록시 서버의 리소스 점유율을 획득하고; 및, 적어도 하나의 제1 프록시 서버를 이용하여 적어도 하나의 제2 프록시 서버의 리소스의 점유를 분담하도록 구성되며; 여기서, 적어도 하나의 제1 프록시 서버 중의 각각의 제1 프록시 서버의 리소스 점유율은 제1 임계값보다 작고, 적어도 하나의 제2 프록시 서버 중의 각각의 제2 프록시 서버의 리소스 점유율은 제2 임계값보다 크며, 제1 임계값은 제2 임계값보다 작다.
본 개시내용의 실시예의 또 다른 양상에서, 적어도 하나의 프로세서; 및 적어도 하나의 프로세서와 통신 연결되는 메모리를 포함하며; 여기서, 메모리에 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되며, 명령이 적어도 하나의 프로세서에 의해 실행됨으로써, 적어도 하나의 프로세서가 본 개시내용의 실시예가 제공하는 리소스 스케줄링 방법을 실행할 수 있도록 하는 전자 디바이스를 제공한다.
본 개시내용의 실시예의 또 다른 양상에서, 프로세서에 의해 실행 시 본 개시내용의 실시예가 제공하는 리소스 스케줄링 방법을 구현하는 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능 저장 매체를 제공한다.
도 1은 리소스 스케줄링 방법의 흐름 설명도이다.
도 2는 리소스 스케줄링 방법의 흐름 설명도이다.
도 3은 리소스 스케줄링 시스템의 모듈 구조 설명도이다.
도 4는 리소스 스케줄링 시스템을 클라우드 동영상 서비스에 응용하는 예시도이다.
도 5는 도 4에 대응하는 흐름 설명도이다.
도 6은 전자 디바이스의 구조 설명도이다.
본 개시내용의 실시예의 목적, 기술방안과 장점이 더욱 명확해지도록, 이하 첨부도면을 결합하여 본 개시내용의 실시예에 대해 상세히 설명할 것이다. 그러나, 본 분야의 통상의 기술자라면 본 개시내용의 실시예에서 독자가 본 출원을 보다 잘 이해할 수 있도록 하기 위해 다양한 기술 내용을 제시하였음을 이해할 수 있을 것이다. 단 설사 이러한 기술 내용과 이하 각 실시예의 여러 변화와 변형이 없더라도, 본 출원이 보호받고자 하는 기술방안을 구현할 수 있다. 이하 각 실시예의 구분은 설명의 편의를 위한 것이지, 본 개시내용의 구체적인 구현 방식에 대해 어떠한 제한을 구성하는 것으로 보아서는 안 되며, 각 실시예는 모순이 없는 한 서로 결합하거나 서로 인용될 수 있다.
종래의 네트워크 동영상 웹사이트의 동영상 서비스는 모두 물리적 기기를 기반으로 배치되며, 프론트엔드 서비스 프록시 서버를 통해 부하 스케줄링을 수행한다. 그러나 각 네트워크 동영상 웹사이트의 리소스(예를 들어 대역폭, 중앙처리장치(Central Processing Unit: CPU), 메모리 등) 사용 상황은 유동적이어서 피크일 때에는 일부 물리적 기기의 리소스 점유가 과다하여 웹사이트의 서비스 품질을 효과적으로 보장할 수 없으며, 사용자의 경험에 영향을 미칠 가능성이 있다.
본 개시내용의 실시예의 제1 실시방식은 리소스 스케줄링 방법에 관한 것으로서, 가상 머신에 배치되는 각각의 프록시 서버의 리소스 점유율을 획득하고; 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하며, 제1 프록시 서버는 리소스 점유율이 제1 임계값보다 작은 프록시 서버이고, 제2 프록시 서버는 리소스 점유율이 제2 임계값보다 큰 프록시 서버이며, 제1 임계값은 제2 임계값보다 작다. 가상화 기술을 통해 프록시 서버의 리소스를 재조합하고, 리소스 점유율이 낮은 프록시 서버를 이용하여 리소스 점유율이 높은 프록시 서버를 분담함으로써, 리소스의 유연한 할당을 구현할 수 있으며, 이에 따라 각각의 프록시 서버의 리소스 점유율이 합리적인 범위 내에 유지되도록 보장할 수 있어, 웹사이트의 서비스 품질을 효과적으로 보장하고, 사용자 경험이 향상된다.
설명해 두어야 할 점으로, 제1 실시방식이 제공하는 리소스 스케줄링 방법의 실행 주체는 각 프록시 서버에 연결되는 서버단일 수 있으며, 서버단은 독립된 서버 또는 복수의 서버로 구성된 서버 클러스터로 구현될 수 있다. 선택적으로, 서버단은 액세스 서버와 연결될 수 있고, 액세스 서버는 클라이언트에서 발생된 요구를 처리하기 위해 클라이언트와 연결될 수 있다.
제1 실시방식이 제공하는 리소스 스케줄링 방법의 구체적인 흐름은 도 1에 도시된 바와 같으며, 구체적으로 이하의 단계 S101과 단계 S102를 포함한다.
단계 S101에서, 각 프록시 서버의 리소스 점유율을 획득하며, 프록시 서버는 가상 머신에 배치되는 서버이다.
프록시 서버는 가상화 기술을 통해 가상 머신이 물리적 서버로부터 가상화한 서버로서, 물리적 서버는 프록시 서버의 호스트이며, 한 대의 물리적 서버는 한 대 이상의 가상화된 프록시 서버에 대응될 수 있다.
리소스는 프록시 서버의 대역폭, 컴퓨팅(CPU 또는 그래픽 처리장치(Graphics Processing Unit: GPU)), 스토리지(메모리 포함) 리소스 등을 포함할 수 있으며, 리소스 점유율이란 리소스가 점유되는 비율을 의미한다. 컴퓨팅 리소스와 스토리지 리소스는 처리 리소스로 통칭될 수 있으며, 프록시 서버의 처리 능력을 나타낸다. 제1 실시방식에서, 프록시 서버의 리소스는 이상의 리소스 중 적어도 하나의 리소스를 지칭하는 것일 수 있음에 유의한다.
선택적으로, 프록시 서버의 리소스는 대역폭 리소스이고, 프록시 서버는 클라우드 동영상 서비스를 제공하기 위한 서버이다.
단계 S102에서, 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하며, 제1 프록시 서버는 리소스 점유율이 제1 임계값보다 작은 프록시 서버이고, 제2 프록시 서버는 리소스 점유율이 제2 임계값보다 큰 프록시 서버이며, 제1 임계값은 제2 임계값보다 작다.
제1 임계값과 제2 임계값은 실제 경험 또는 실제 상황에 근거하여 설정할 수 있으며, 예를 들어 제1 임계값은 20%, 30% 또는 40% 등일 수 있고, 제2 임계값은 70%, 80% 또는 90% 등일 수 있다.
일 구체적인 예에서, 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담한 후, 나머지 제1 프록시 서버가 더 있다면, 나머지 제1 프록시 서버를 회수한다. 제1 프록시 서버는 리소스 점유율이 낮은 프록시 서버이므로, 나머지 제1 프록시 서버를 회수하면 프록시 서버의 수량을 줄이고 가상 리소스를 절약할 수 있다. 선택적으로, 나머지 제1 프록시 서버를 다른 테넌트로 마이그레이션하여 사용할 수도 있다.
선택적으로, 리소스 점유율이 제1 임계값과 제2 임계값 사이인 프록시 서버는 처리하지 않을 수 있고, 제1 프록시 서버가 제2 프록시 서버의 리소스 점유를 분담하기에 충분하지 않을 경우, 상기 일부 프록시 서버를 사용하여 제2 프록시 서버의 리소스를 분담할 수도 있다. 선택적으로, 제1 프록시 서버를 이용하여 제2 프록시 서버 리소스의 점유를 분담한 후, 일부 제2 프록시 서버의 리소스 점유가 분담되지 않고 여전히 존재한다면, 적어도 하나의 프록시 서버를 새로 구축하여, 새로 구축된 프록시 서버로 상기 일부 제2 프록시 서버의 리소스 점유를 분담한다. 프록시 서버를 새로 구축 시, 우선적으로 제2 프록시 서버와 인접한 위치에 새로 구축할 수 있으며, 예를 들어 우선적으로 제2 프록시 서버와 동일한 호스트(물리적 서버)에 새로 구축하거나, 또는 제2 프록시 서버 호스트 부근의 물리적 서버에 새로 구축할 수 있다.
선택적으로, 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하기 전, 먼저 제2 프록시 서버의 리소스를 추가할 수도 있으며; 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하는 단계는, 추가 후의 제2 프록시 서버의 리소스 점유율이 여전히 제2 임계값보다 크다면, 제1 프록시 서버를 이용하여 리소스를 추가한 후의 제2 프록시 서버의 리소스 점유를 분담하는 단계를 포함한다.
구체적으로, 가상화 기술을 통해 테넌트 할당량이 허용하는 범위 내에서 먼저 제2 프록시 서버의 리소스를 추가할 수 있다. 예를 들어 어느 하나의 제2 프록시 서버의 할당량이 20M의 대역폭이지만, 현재 10M에 불과하다면, 먼저 상기 제2 프록시 서버의 대역폭을 20M의 대역폭으로 설정한 다음, 리소스를 추가한 후의 상기 제2 프록시 서버의 리소스 점유율을 획득할 수 있으며; 리소스를 추가한 후의 리소스 점유율이 제2 임계값보다 작거나 같다면, 상기 프록시 서버를 제2 프록시 서버의 리스트에서 제거하고; 리소스를 추가한 후의 리소스 점유율이 여전히 제2 임계값보다 크다면, 제1 프록시 서버를 이용하여 상기 제2 프록시 서버의 리소스 점유를 분담할 수 있다.
선택적으로, 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담 시, 하나의 제1 프록시 서버를 랜덤으로 선택하여 제2 프록시 서버의 리소스 점유를 분담할 수 있다.
일 구체적인 예에서, 단계 S102 이전에, 제1 실시방식 중의 리소스 스케줄링 방법은 제1 프록시 서버의 리소스 점유율이 높아지는 오름차순으로, 각각의 제1 프록시 서버를 정렬(sorting)하는 단계를 더 포함하며; 단계 S102에서, 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하는 단계는, 정렬 결과에서 제2 프록시 서버의 리소스 점유를 분담하기 위한 상위 n개의 제1 프록시 서버를 선택하는 단계를 포함하며, n은 양의 정수이다.
예를 들어, 제1 프록시 서버의 리소스 점유율을 오름차순으로 하나의 큐로 정렬하고, 큐의 선두 부분(즉, 리소스 점유율이 낮은)에서 제1 프록시 서버를 선택하여 제2 프록시 서버의 리소스 점유를 분담한다.
리소스 점유율은 수시로 변동하므로, 리소스 점유율이 낮은 제1 프록시 서버를 선택하여 제2 프록시 서버의 리소스 점유를 분담함으로써, 프록시 서버가 리소스 점유에 보다 충분히 대처할 수 있게 되어, 서비스 품질을 보장할 수 있음을 이해할 수 있을 것이다. 또한, 정렬 결과에서 상위 n개의 제1 프록시 서버를 선택하는 단계는 정렬 결과에서 상위 n개의 제1 프록시 서버를 우선적으로 선택하는 단계를 포함할 수 있으며, 즉, 분담을 위한 제1 프록시 서버를 선택 시, 정렬 결과 중 상위 n개의 제1 서버를 우선적으로 선택하며, 정렬 결과 중의 상위 n개의 제1 프록시 서버가 제2 프록시 서버의 리소스 점유를 분담하기에 충분하지 않을 경우, 정렬 결과 중의 상위 n개의 제1 프록시 서버를 제외한 제1 프록시 서버를 선택하여 분담할 수 있다.
마찬가지로, 제2 프록시 서버의 리소스 점유율이 낮아지는 내림차순으로 각각의 제2 프록시 서버를 정렬하고, 제1 프록시 서버를 이용하여 리소스 점유율이 높은 제2 프록시 서버의 리소스 점유를 우선적으로 분담할 수도 있다.
제1 실시방식 중의 리소스 스케줄링 방법에 따르면, 가상 머신에서 프록시 서버의 리소스 점유율을 획득하고, 리소스 점유율이 낮은 프록시 서버를 이용하여 리소스 점유율이 높은 프록시 서버를 분담하며, 가상화 기술을 통해 프록시 서버의 리소스를 재조합 함으로써, 전체 리소스의 유연한 할당을 구현할 수 있으며, 이에 따라 각각의 프록시 서버의 리소스 점유율이 합리적인 범위 내에서 유지되도록 보장하고, 서버(웹사이트)의 서비스 품질을 효과적으로 보장하며, 사용자의 경험을 향상시킬 수 있다.
본 개시내용의 실시예의 제2 실시방식은 리소스 스케줄링 방법에 관한 것으로서, 제2 실시방식은 제1 실시방식과 대체로 동일하며, 주요 차이점은 제2 실시방식에서, 제2 프록시 서버의 리소스 점유 수요를 예측하고, 리소스 점유 수요에 따라 프록시 서버의 리소스 점유를 분담한다는데 있다.
제2 실시방식이 제공하는 리소스 스케줄링 방법의 구체적인 흐름은 도 2에 도시된 바와 같으며, 구체적으로 이하의 단계 S201 내지 단계 S204를 포함한다.
단계 S201에서, 각각의 프록시 서버의 리소스 점유율을 획득하며, 프록시 서버는 가상 머신에 배치되는 서버이다.
단계 S201은 제1 실시방식 중의 단계 S101과 동일하며, 구체적인 내용은 제1 실시방식 중의 관련 설명을 참조하면 되므로, 여기서는 중복 설명을 생략한다.
단계 S202에서, 각각의 제2 프록시 서버의 리소스 점유 수요를 예측한다.
리소스 점유 수요란 프록시 서버에 발생할 수 있는 리소스 점유율을 의미하며, 예를 들어 어느 하나의 프록시 서버가 피크일 때의 리소스 점유율이 90%이고, 피크가 아닐 때의 리소스 점유율이 20%라면, 상기 프록시 서버의 리소스 점유 수요는 20%-90%이다.
선택적으로, 각각의 제2 프록시 서버의 리소스 점유율의 과거 데이터에 따라 그 리소스 점유 수요를 예측할 수 있으며, 예를 들어 1개월 이내의 리소스 점유율의 과거 데이터를 선택하여 예측한다. 구체적으로 선택하는 과거 데이터의 시간 범위는 실제 수요에 따라 설정할 수 있으며, 여기서는 구체적인 제한을 두지 않는다.
단계 S203에서, 제2 프록시 서버의 리소스 차이값이 작아지는 내림차순으로 각각의 제2 프록시 서버를 정렬하며, 리소스 차이값은 리소스 점유 수요 최대값과 리소스 점유 수요 평균값의 차이값이다.
선택적으로, 리소스 점유 수요 최대값은 과거 데이터 중의 최대값일 수 있으며, 과거 데이터가 피크일 때의 평균값일 수도 있고, 과거 데이터에 따라 소정의 수정을 거친 후 얻을 수도 있다. 리소스 점유 수요 평균값은 과거 데이터의 평균값일 수도 있고, 피크일 때의 과거 데이터와 피크가 아닐 때의 과거 데이터의 가중 평균일 수도 있으며, 구체적으로는 실제 필요에 따라 구체적으로 설정할 수 있으므로, 여기서는 구체적으로 제한을 두지 않는다.
단계 S204에서, 제1 프록시 서버를 이용하여 정렬 결과 중 상위 m개의 제2 프록시 서버의 리소스 점유를 분담하며, m은 양의 정수이다.
리소스 차이값이 비교적 클 경우, 제2 프록시 서버에 높은 리소스 점유율이 발생하였을 가능성이 있음을 나타내며, 이러한 제2 프록시 서버의 리소스 점유가 효과적으로 분담되도록 보장할 필요가 있음을 이해하여야 한다. 제1 프록시 서버를 이용하여 정렬 결과 중 상위 m개의 제2 프록시 서버의 리소스 점유를 분담 시, 제1 프록시 서버를 이용하여 정렬 결과 중 상위 m개의 제2 프록시 서버의 리소스 점유를 우선적으로 분담할 수 있으며; 제1 프록시 서버가 정렬 결과 중 상위 m개의 제2 프록시 서버의 리소스 점유를 분담하기에 충분한 경우, 제1 프록시 서버를 이용하여 다른 제2 프록시 서버의 리소스 점유를 분담할 수도 있다.
일 구체적인 예에서, 리소스 점유 수요의 평균값이 제2 임계값보다 큰 프록시 서버를 제2 프록시 서버로 사용할 수 있으며, 이에 따라 제2 프록시 서버의 구분이 더욱 안정적이 된다.
선택적으로, 리소스 점유 수요 최대값에 따라 제2 프록시 서버를 정렬하고, 제1 프록시 서버를 이용하여 리소스 점유 수요 최대값이 큰 제2 프록시 서버의 리소스 점유를 우선적으로 분담할 수 있다.
설명해 두어야 할 점으로, 리소스는 여러 종류가 있을 수 있기 때문에, 실제 응용 시 리소스에 따라 분류한 다음, 분류 후의 프록시 서버에 따라 제1 실시방식 및/또는 제2 실시방식 중의 방법을 운용하여 리소스의 스케줄링을 수행할 수 있다. 본 개시내용이 제공하는 리소스 스케줄링 방법을 보다 명확하게 설명하기 위하여, 이하 프록시 서버를 6개의 카테고리로 나누고, 응용 시나리오는 (즉, 대역폭 리소스를 중점으로 하는) 클라우드 동영상 서비스를 예로 들어 설명한다.
큐 1: 프록시 서버의 대역폭 리소스 점유율이 과도하게 낮으면서 처리 리소스 점유율이 정상적인 경우(대역폭 리소스 점유율이 20% 미만이고, CPU, 메모리, 스토리지 평균 리소스 점유율이 20% 내지 80%인 경우), 제1 프록시 서버로 사용될 수 있으며, 다른 프록시 서버가 분담하는 리소스 풀로서 사용될 수 있다.
스케줄링 방법: 프록시 서버를 대역폭 리소스 점유율에 따라 오름차순으로 정렬하고, 대역폭 리소스 점유율이 낮은 프록시 서버를 우선적으로 선택하여 분담한다.
큐 2: 프록시 서버 대역폭 리소스 점유율이 정상이면서 처리 리소스 점유율이 안정적인 경우(대역폭 리소스 점유율은 20% 내지 80%이고, CPU, 메모리, 스토리지 평균 리소스 점유율이 20% 내지 80%인 경우).
스케줄링 방법: 이 큐에 대해서는 처리를 하지 않는다.
큐 3: 프록시 서버 대역폭 점유율이 과도하게 높고 처리 리소스 점유율이 정상적인 경우(대역폭 리소스 점유율이 80%를 초과하고, CPU, 메모리, 스토리지 평균 리소스 점유율이 20% 내지 80%인 경우), 제2 프록시 서버로 사용될 수 있다.
스케줄링 방법: 큐 1 중의 프록시 서버를 선택하여 분담할 수 있으며, 그렇지 않을 경우 허용 범위 내에서 프록시 서버의 대역폭 리소스를 추가하거나, 또는, 서버단에 가상 머신의 마이그레이션을 실시하도록 요청하거나, 또는, 큐 3의 프록시 서버의 인근 위치에 신규 프록시 서버를 생성하여 분담할 수 있다.
큐 4: 프록시 서버 리소스 점유율이 과도하게 높고 처리 리소스 점유율이 과도하게 높은 경우(대역폭 리소스 점유율이 80%를 초과하고, CPU, 메모리, 스토리지 평균 리소스 점유율이 80%를 초과하는 경우), 제2 프록시 서버로 사용될 수 있다.
스케줄링 방법: 할당 허용 범위 내에서 프록시 서버의 대역폭 리소스를 추가하여, 할당 종료 후 프록시 서버의 리소스 점유 상황이 큐 6 중의 프록시 서버에 근접하도록 한다. 대역폭 리소스를 추가한 후 프록시 서버의 리소스 점유율이 여전히 지나치게 높다면, 과거 데이터에 따라 각각의 프록시 서버의 대역폭, CPU, 메모리, 스토리지 리소스 점유 수요를 예측하고, 프록시 서버를 예측 최대값(리소스 점유 수요 최대값)과 예측 평균값(리소스 점유 수요 평균값)의 차이값에 따라 내림차순으로 정렬한 다음, 큐 1에서 리소스 점유율이 가장 낮은 프록시 서버를 선택하여 분담하며, 여전히 큐 6 중의 프록시 서버의 리소스 점유 상황에 근접하는 것을 목표로 한다. 큐 1에 적합한 프록시 서버가 없다면, 프록시 서버의 인근 위치에 신규 프록시 서버를 구축하여 분담하도록 신청하고, 분담 후의 신규 프록시 서버를 큐 1에 추가하며, 원래의 프록시 서버를 큐 6에 추가한다.
큐 5: 프록시 서버 리소스 점유율이 과도하게 낮고 처리 리소스 점유율이 과도하게 높은 경우(대역폭 리소스 점유율이 20% 미만이고, CPU, 메모리, 스토리지 평균 리소스 점유율이 80%를 초과하는 경우), 제1 프록시 서버로 사용될 수 있다.
스케줄링 방법: 대역폭 예측 수요 최대값이 실제 점유값보다 높은 프록시 서버를 내림차순으로 정렬하고, 나머지 프록시 서버를 큐 1에 추가하며, 큐 1의 끝에서 물리적 위치가 인접한 프록시 서버를 선택하여 큐 1의 선두 프록시 서버에 대해 분담을 수행한다. 큐 5에 리소스가 부족한 경우, 큐 1에서 프록시 서버를 선택하여 할당한다.
큐 6: 프록시 서버 리소스 점유율이 정상이면서 처리 리소스 점유율이 과도하게 높은 경우(즉, 대역폭 리소스 점유율이 20% 내지 80%이고, CPU, 메모리, 스토리지 평균 리소스 점유율이 80%를 초과하는 경우).
스케줄링 방법: 과거 데이터에 따라 각각의 프록시 서버의 대역폭 점유 수요를 예측하고, 프록시 서버를 대역폭 리소스 점유 수요 최대값과 대역폭 리소스 점유 수요 평균값의 차이값에 따라 오름차순으로 정렬하며, 큐 1에서 대역폭 리소스 점유율이 낮은 프록시 서버를 순차적으로 선택하여 이러한 프록시 서버에 대해 분담을 수행한다. 큐 1에 리소스가 부족한 경우, 큐 끝의 적어도 하나의 프록시 서버의 인근 위치에 신규 프록시 서버를 구축하여 부하를 분담하도록 신청하고, 큐 1에 추가하여 계속 할당한다. 할당이 완료된 후, 큐 1의 프록시 서버에 리소스가 여전히 남아 있다면, 이러한 나머지 리소스를 큐 4와 6 중의 프록시 서버와 연결하여 백업으로 사용할 수 있다. 나머지 프록시 서버에 대해서는 구성을 통해 가상 리소스를 줄이거나, 또는 나머지 프록시 서버에 대해 마이그레이션, 셧다운 등 조작을 수행할 수 있다.
제2 실시방식 중의 리소스 스케줄링 방법에 따르면, 제2 프록시 서버의 리소스 점유 수요를 예측하고, 제1 프록시 서버를 이용하여 정렬 결과 중 리소스 차이값이 큰 제2 프록시 서버의 리소스 점유를 분담하도록 함으로써, 리소스 점유에 큰 변화가 나타날 가능성이 있는 제2 프록시 서버의 리소스를 보장할 수 있어, 리소스의 스케줄링이 더욱 최적화되며, 프록시 서버의 서비스 품질의 안정성이 향상된다.
또한, 본 분야의 기술자라면, 이상의 각종 방법의 단계 구분은 단지 설명을 명확히 하기 위한 것일 뿐이고, 실제 구현 시 하나의 단계로 병합하거나 특정 단계를 분할하여 여러 단계로 분해할 수 있으며, 동일한 논리 관계를 포함하는 한 모두 본 특허의 보호범위 내에 속하고, 알고리즘 또는 프로세스에 중요하지 않은 수정을 추가하거나 또는 중요하지 않은 설계를 도입하더라도, 그 알고리즘과 프로세스가 변경되지 않는 핵심 설계는 모두 상기 특허의 보호 범위 내에 있음을 이해할 수 있을 것이다.
본 개시내용의 실시예의 제3 실시방식은 리소스 스케줄링 시스템(300)에 관한 것으로서, 도 3에 도시된 바와 같이, 스케줄링 서버(301)와 복수의 프록시 서버(302)를 포함하며, 프록시 서버(302)는 가상 머신에 배치되는 서버이다.
스케줄링 서버(301)는 각각의 프록시 서버의 리소스 점유율을 획득하고; 및, 제1 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하도록 구성되며, 제1 프록시 서버는 리소스 점유율이 제1 임계값보다 작은 프록시 서버이고, 제2 프록시 서버는 리소스 점유율이 제2 임계값보다 큰 프록시 서버이며, 제1 임계값은 제2 임계값보다 작다.
또한, 스케줄링 서버(301)는 제1 프록시 서버의 리소스 점유율이 높아지는 오름차순으로 각각의 제1 프록시 서버를 정렬하고, 정렬 결과에서 제2 프록시 서버의 리소스 점유를 분담하기 위한 상위 n개의 제1 프록시 서버를 선택하도록 더 구성되며, n은 양의 정수이다.
또한, 스케줄링 서버(301)는 나머지 제1 프록시 서버가 있는 경우, 나머지 제1 프록시 서버를 회수하도록 더 구성된다.
또한, 스케줄링 서버(301)는 각각의 제2 프록시 서버의 리소스 점유 수요를 예측하고, 제2 프록시 서버의 리소스 차이값이 작아지는 내림차순으로 제2 프록시 서버를 정렬하도록 더 구성되며, 리소스 차이값은 리소스 점유 수요 최대값과 리소스 점유 수요 평균값의 차이값이고, 제1 프록시 서버를 이용하여 정렬 결과 중 상위 m개의 제2 프록시 서버의 리소스 점유를 분담하며, m은 양의 정수이다.
또한, 스케줄링 서버(301)는 분담되지 않은 제2 프록시 서버의 리소스 점유가 있는 경우, 적어도 하나의 프록시 서버를 새로 구축하고, 새로 구축된 프록시 서버를 이용하여 제2 프록시 서버의 리소스 점유를 분담하도록 더 구성된다.
또한, 스케줄링 서버(301)는 제2 프록시 서버의 리소스를 추가하고, 추가 후의 제2 프록시 서버의 리소스 점유율이 여전히 제2 임계값보다 크다면, 제1 프록시 서버를 이용하여 리소스를 추가한 후의 제2 프록시 서버의 리소스 점유를 분담하도록 더 구성된다.
또한, 리소스는 대역폭 리소스이고, 프록시 서버는 클라우드 동영상 서비스를 제공하기 위한 서버이다.
또한, 리소스는 처리 리소스이고, 처리 리소스는 컴퓨팅 리소스와 스토리지 리소스를 포함한다.
도 4를 참조하면, 이는 제3 실시방식이 제공하는 리소스 스케줄링 시스템이 클라우드 동영상 서비스에 응용되는 예시도로서, 그 중 스케줄링 서버(301)는 도 4 중의 모니터링 서버이다. 구체적으로, 도 4에서, 리소스 스케줄링 시스템(300)의 스케줄링 서버(301)(모니터링 서버)와 프록시 서버 이외에, 클라이언트, 액세스 서버, 디렉토리 서버, 콘텐츠 서버와 트랜스코딩 서버를 더 포함한다. 물리적 서버 클러스터는 가상 서버 클러스터의 호스트이다. 클라이언트는 컴퓨터, TV 또는 휴대폰 등 디지털 단말일 수 있으며, 무선 네트워크, 유선 TV 네트워크 또는 인터넷을 통해 액세스 서버와 연결되어, 클라우드 네트워크의 동영상 서비스를 획득하기 위한 것이다. 중앙 클라우드는 디렉토리 서버와 콘텐츠 서버로 구성되며, 디렉토리 서버는 프록시 클라우드에 동영상 객체의 검색 서비스를 제공하고, 콘텐츠 서버는 모든 동영상 객체의 완전한 백업을 저장한다. 근접 클라이언트 프록시 클라우드는 액세스 서버, 모니터링 서버, 프록시 서버와 트랜스코딩 서버로 구성된다. 액세스 서버는 클라이언트가 프록시 클라우드에 서비스를 요청하는 인터페이스로서, 클라이언트의 서비스 요청을 수신하여, 모니터링 서버에서 서비스를 제공할 수 있는 프록시 서버 리스트 및 각자의 운행 상태를 획득하고, 적합한 프록시 서버를 선택하여 클라이언트와 연결을 구축하여 서비스를 제공한다. 모니터링 서버는 각 프록시 서버 중 동영상 리소스의 분포 정보를 수집하여, 클라이언트에 동영상 리소스 검색 서비스를 제공하며, 본 개시내용의 제1 실시방식과 제2 실시방식이 제공하는 리소스 스케줄링 방법을 이용하여, 각 프록시 서버의 운행 상태 정보를 수집함과 동시에, 각 프록시 서버를 위한 로드 밸런싱(load balancing)을 수행하여, 리소스 할당을 스케줄링하며, 즉, 클라이언트의 데이터 요청에 대해 서비스를 제공하는 서버와 스케줄링 관련 가상 리소스를 선택한다. 트랜스코딩 서버는 전용 물리적 서버가 담당하며, 제공업자 또는 사용자가 업로드한 서로 다른 코드 시스템의 동영상 객체를 클라우드 네트워크 동영상 서비스 플랫폼에 부합하는 코드 시스템의 동영상 객체로 변환하기 위한 것이다.
도 5를 참조하면, 도 4의 클라이언트에서 동영상 서비스를 획득 시의 흐름 설명도이며; 구체적인 프로세스는 다음과 같다: 1. 클라이언트가 인터넷을 통해 클라우드 중의 액세스 서버에 연결되어, 동영상 서비스 요청(동영상 객체 포함)을 제출한다. 2. 액세스 서버는 모니터링 서버에서 클라이언트에 서비스를 제공할 수 있는 프록시 서버 리스트를 획득한다. 3. 모니터링 서버는 클라이언트에 서비스를 제공할 수 있는 프록시 서버를 검색하고, 프록시 클라우드 내에 클라이언트가 요청한 리소스가 없다면 중앙 클라우드의 디렉토리 서버에서 리소스를 조회하고, 그렇지 않으면 단계 6으로 돌아간다. 4. 중앙 클라우드의 디렉토리 서버는 클라이언트가 필요로 하는 데이터가 저장된 콘텐츠 서버를 검색하여 선택한다. 5. 콘텐츠 서버는 필요한 리소스를 프록시 클라우드 중의 프록시 서버(예를 들어 제1 프록시 서버일 수 있다)로 전송한다. 6. 모니터링 서버는 파악된 프록시 서버 리소스와 운행 상태 정보에 따라, 클라이언트에 서비스하기 위한 제1 프록시 서버를 선택함과 동시에, 각 프록시 서버의 리소스 점유율에 대해 밸런싱을 수행하고, 선택 완료 후, 서비스 정보를 액세스 서버로 반송한다. 7. 액세스 서버는 프록시 서버와 클라이언트의 연결을 구축한다. 8: 프록시 서버는 클라이언트의 데이터 요청에 응답한다. 9: 클라이언트는 일부 데이터를 수신 및 캐싱한 후 재생을 시작하며, 나머지 데이터를 계속 요청한다.
제3 실시방식은 제1 실시방식 및 제2 실시방식에 대응하는 시스템 실시방식이며, 제3 실시방식은 제1 실시방식 및 제2 실시방식과 서로 결합되어 실시될 수 있음을 쉽게 알 수 있다. 제1 실시방식 및 제2 실시방식에서 언급한 관련 기술 세부 사항은 제3 실시방식에서도 여전히 유효하며, 중복을 줄이기 위하여 여기서는 설명을 생략한다. 상응하게, 제3 실시방식에서 언급되는 관련 기술 세부 사항 역시 제1 실시방식 및 제2 실시방식에 응용될 수 있다.
언급할 만한 점으로, 제3 실시방식에 관련된 각 모듈은 모두 로직 모듈이며, 실제 응용 시, 하나의 로직 유닛은 물리 유닛일 수도 있고, 물리 유닛의 일부일 수도 있으며, 복수의 물리 유닛의 조합으로 구현될 수도 있다. 또한, 본 개시내용의 혁신적인 부분을 강조하기 위하여, 제3 실시방식에서는 본 개시내용이 제시하는 기술문제를 해결하는 것과 그다지 밀접한 관계가 없는 유닛을 도입하지 않았으나, 단 이는 제3 실시방식에 다른 유닛이 없음을 의미하는 것은 아니다.
본 개시내용의 실시예의 제4 실시방식은 전자 디바이스에 관한 것으로서, 도 6에 도시된 바와 같이, 적어도 하나의 프로세서(402); 및, 적어도 하나의 프로세서(402)와 통신 연결되는 메모리(401)를 포함하며; 메모리(401)에 적어도 하나의 프로세서(402)에 의해 실행될 수 있는 명령이 저장되고, 명령은 적어도 하나의 프로세서(402)가 상기 리소스 스케줄링 방법을 실행할 수 있도록 적어도 하나의 프로세서(402)에 의해 실행된다.
메모리(401)와 프로세서(402)는 버스 방식으로 연결되며, 버스는 임의의 수량의 상호 연결되는 버스와 브리지를 포함할 수 있으며, 버스는 하나 또는 복수의 프로세서(402)와 메모리(401)의 각종 회로를 함께 연결한다. 버스는 또한 주변장치, 전압 조정기 및 전력 관리 회로 등과 같은 각종 기타 회로를 함께 연결할 수도 있으며, 이러한 것은 모두 본 분야에 공지된 것이므로, 본문에서는 이에 대해 추가적인 설명을 하지 않는다. 버스 인터페이스는 버스와 송수신기 사이에 인터페이스를 제공한다. 송수신기는 하나의 소자일 수도 있고 복수의 소자, 예를 들어 복수의 수신기와 송신기일 수도 있으며, 전송 매체에서 각종 다른 장치와 통신하기 위한 유닛을 제공한다. 프로세서(402)를 통해 처리된 데이터는 안테나를 통해 무선 매체 상에서 전송되며, 또한, 안테나는 데이터를 수신하고 데이터를 프로세서(402)로 전송한다.
프로세서(402)는 버스의 관리와 통상적인 처리를 담당하며, 타이밍, 주변 인터페이스, 전압 조절, 전원 관리 및 기타 제어 기능을 포함하는 각종 기능을 제공할 수도 있다. 메모리(401)는 프로세서(402)가 조작을 실행 시 사용하는 데이터를 저장하기 위한 것일 수 있다.
본 개시내용의 실시예의 제5 실시방식은 컴퓨터 프로그램이 저장되는 컴퓨터 판독 가능 저장 매체에 관한 것이다. 컴퓨터 프로그램이 프로세서에 의해 실행될 때 본 개시내용이 제공하는 어느 하나의 리소스 스케줄링 방법을 구현한다.
즉, 본 분야의 기술자라면, 상기 실시방식 중의 방법의 전부 또는 일부 단계는 프로그램을 통해 관련 하드웨어를 명령함으로써 구현될 수 있으며, 상기 프로그램은 하나의 디바이스(단일칩 마이크로프로세서, 칩 등일 수 있음) 또는 프로세서(processor)가 본 출원의 각 실시예의 상기 방법의 전부 또는 일부 단계를 실행하도록 하기 위한 적어도 하나의 명령을 포함하는 저장매체에 저장된다는 것을 이해할 수 있을 것이다. 전술한 저장매체는 U디스크, 이동식 하드디스크, 리드 온리 메모리(Read-Only Memory: ROM), 랜덤 액세스 메모리(Random Access Memory: RAM), 자기디스크 또는 광디스크 등 프로그램 코드를 저장할 수 있는 각종 매체를 포함한다.
본 분야의 통상의 기술자라면, 상기 각 실시예가 본 개시내용을 구현하기 위한 구체적인 실시예임을 이해할 수 있을 것이며, 실제 응용 시, 본 개시내용의 정신과 범위를 벗어나지 않는 한, 형식 및 세부사항에서 각종 변경을 실시할 수 있다.

Claims (11)

  1. 리소스 스케줄링 방법으로서,
    가상 머신에 배치되는 복수의 프록시 서버의 리소스 점유율을 획득하는 단계; 및
    적어도 하나의 제1 프록시 서버를 이용하여 적어도 하나의 제2 프록시 서버의 리소스의 점유를 분담하는 단계
    를 포함하되; 상기 적어도 하나의 제1 프록시 서버 중의 각각의 제1 프록시 서버의 리소스 점유율은 제1 임계값보다 작고, 상기 적어도 하나의 제2 프록시 서버 중의 각각의 제2 프록시 서버의 리소스 점유율은 제2 임계값보다 크며, 상기 제1 임계값은 상기 제2 임계값보다 작은, 리소스 스케줄링 방법.
  2. 제1항에 있어서,
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스의 점유를 분담하는 단계 전, 상기 방법은,
    리소스 점유율이 높아지는 오름차순에 따라, 상기 적어도 하나의 제1 프록시 서버를 정렬하여 제1 정렬 결과를 획득하는 단계를 더 포함하며; 그리고
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계는,
    상기 제1 정렬 결과 중의 상위 n개의 제1 프록시 서버를 결정하는 단계, 상기 n은 양의 정수; 및
    상기 상위 n개의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계
    를 포함하는, 리소스 스케줄링 방법.
  3. 제2항에 있어서,
    상기 상위 n개의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계 이후,
    상기 적어도 하나의 제1 프록시 서버의 수량이 상기 n보다 큰 것으로 결정함에 응답하여, 상기 적어도 하나의 제1 프록시 서버 중의 상기 상위 n개의 제1 프록시 서버를 제외한 다른 제1 프록시 서버를 회수하는 단계를 더 포함하는, 리소스 스케줄링 방법.
  4. 제1항에 있어서,
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계 전, 상기 방법은,
    상기 적어도 하나의 제2 프록시 서버의 리소스 점유 수요를 예측하는 단계; 및
    리소스 차이값이 작아지는 내림차순에 따라, 상기 적어도 하나의 제2 프록시 서버를 정렬하여 제2 정렬 결과를 획득하는 단계
    를 더 포함하며; 상기 제2 프록시 서버의 리소스 차이값은 상기 제2 프록시 서버의 리소스 점유 수요 최대값과 상기 제2 프록시 서버의 리소스 점유 수요 평균값의 차이값이며; 및
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계는
    상기 제2 정렬 결과 중의 상위 m개의 제2 프록시 서버를 결정하는 단계(상기 m은 양의 정수); 및
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 상위 m개의 제2 프록시 서버의 리소스 점유를 분담하는 단계
    를 포함하는, 리소스 스케줄링 방법.
  5. 제1항에 있어서,
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계 이후,
    상기 적어도 하나의 제2 프록시 서버의 수량이 상기 m보다 큰 것으로 결정함에 응답하여, 적어도 하나의 제3 프록시 서버를 새로 구축하는 단계; 및
    상기 적어도 하나의 제3 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버 중의 상기 상위 m개의 제2 프록시 서버를 제외한 다른 제2 프록시 서버의 리소스 점유를 분담하는 단계
    를 더 포함하는, 리소스 스케줄링 방법.
  6. 제1항에 있어서,
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계 전,
    상기 적어도 하나의 제2 프록시 서버의 리소스를 추가하는 단계를 더 포함하고; 그리고
    상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하는 단계는,
    리소스를 추가한 후의 제2 프록시 서버의 리소스 점유율이 여전히 상기 제2 임계값보다 큰 것으로 결정함에 응답하여, 상기 적어도 하나의 제1 프록시 서버를 이용하여 상기 리소스를 추가한 후의 제2 프록시 서버의 리소스 점유를 분담하는 단계를 포함하는, 리소스 스케줄링 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 리소스는 대역폭 리소스이며, 상기 복수의 프록시 서버는 클라우드 동영상 서비스를 제공하기 위한 것인, 리소스 스케줄링 방법.
  8. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 리소스는 처리 리소스이며, 상기 처리 리소스는 컴퓨팅 리소스와 스토리지 리소스를 포함하는, 리소스 스케줄링 방법.
  9. 스케줄링 서버와 가상 머신에 배치되는 복수의 프록시 서버를 포함하는 리소스 스케줄링 시스템으로서,
    상기 스케줄링 서버는
    상기 복수의 프록시 서버의 리소스 점유율을 획득하도록; 그리고
    적어도 하나의 제1 프록시 서버를 이용하여 적어도 하나의 제2 프록시 서버의 리소스 점유를 분담하도록
    구성되되; 상기 적어도 하나의 제1 프록시 서버 중의 각각의 제1 프록시 서버의 리소스 점유율은 제1 임계값보다 작고, 상기 적어도 하나의 제2 프록시 서버 중의 각각의 제2 프록시 서버의 리소스 점유율은 제2 임계값보다 크며, 상기 제1 임계값은 상기 제2 임계값보다 작은, 리소스 스케줄링 시스템.
  10. 전자 디바이스로서,
    적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 통신 연결되는 메모리
    를 포함하되; 상기 메모리에 상기 적어도 하나의 프로세서에 의해 실행될 수 있는 명령이 저장되며, 상기 명령이 상기 적어도 하나의 프로세서에 의해 실행됨으로써 상기 적어도 하나의 프로세서가 제1항 내지 제8항 중 어느 한 항에 따른 리소스 스케줄링 방법을 실현할 수 있는, 전자 디바이스.
  11. 컴퓨터 판독 가능 저장 매체로서,
    프로세서에 의해 실행 시, 제1항 내지 제8항 중 어느 한 항에 따른 리소스 스케줄링 방법을 구현하는 컴퓨터 프로그램이 저장되는, 컴퓨터 판독 가능 저장 매체.
KR1020237013946A 2020-09-22 2021-09-15 리소스 스케줄링 방법 및 시스템, 전자 디바이스, 그리고 컴퓨터 판독 가능 저장 매체 KR20230073315A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011001012.8A CN114253698A (zh) 2020-09-22 2020-09-22 资源调度方法、系统、电子设备及存储介质
CN202011001012.8 2020-09-22
PCT/CN2021/118436 WO2022062981A1 (zh) 2020-09-22 2021-09-15 资源调度方法和系统、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
KR20230073315A true KR20230073315A (ko) 2023-05-25

Family

ID=80789506

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237013946A KR20230073315A (ko) 2020-09-22 2021-09-15 리소스 스케줄링 방법 및 시스템, 전자 디바이스, 그리고 컴퓨터 판독 가능 저장 매체

Country Status (5)

Country Link
US (1) US20230379268A1 (ko)
JP (1) JP2023543744A (ko)
KR (1) KR20230073315A (ko)
CN (1) CN114253698A (ko)
WO (1) WO2022062981A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117009091B (zh) * 2023-10-07 2023-12-19 浪潮(山东)计算机科技有限公司 一种资源调整方法、装置、设备及可读存储介质
CN117519913B (zh) * 2024-01-08 2024-03-22 联通在线信息科技有限公司 一种容器内存资源弹性伸缩调度方法和系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105553721A (zh) * 2015-12-15 2016-05-04 浪潮电子信息产业股份有限公司 一种云应用伸缩方法、应用管理端和系统
CN110058966B (zh) * 2018-01-18 2023-11-14 伊姆西Ip控股有限责任公司 用于数据备份的方法、设备和计算机程序产品
CN108924139B (zh) * 2018-07-05 2021-02-26 杭州安恒信息技术股份有限公司 基于云端提升文件检测效率的方法、装置及执行服务器
CN110597631B (zh) * 2019-09-06 2022-06-21 广州华多网络科技有限公司 资源管理方法、监控服务器、代理服务器以及存储介质

Also Published As

Publication number Publication date
WO2022062981A1 (zh) 2022-03-31
US20230379268A1 (en) 2023-11-23
CN114253698A (zh) 2022-03-29
JP2023543744A (ja) 2023-10-18

Similar Documents

Publication Publication Date Title
US9442763B2 (en) Resource allocation method and resource management platform
US20210149737A1 (en) Method for fast scheduling for balanced resource allocation in distributed and collaborative container platform environment
US11252220B2 (en) Distributed code execution involving a serverless computing infrastructure
US10772115B2 (en) Resource scheduling method and server
CN112269641B (zh) 一种调度方法、装置、电子设备及存储介质
US20030105797A1 (en) Dynamic load balancing among a set of servers
CN110474966B (zh) 处理云平台资源碎片的方法及相关设备
KR20230073315A (ko) 리소스 스케줄링 방법 및 시스템, 전자 디바이스, 그리고 컴퓨터 판독 가능 저장 매체
WO2018220708A1 (ja) 資源割当システム、管理装置、方法およびプログラム
CN103620578A (zh) 经由网络分割的本地云计算
WO2018201856A1 (en) System and method for self organizing data center
CN107317764B (zh) 流量负载均衡方法、系统、装置和计算机可读存储介质
CN110769040B (zh) 一种访问请求的处理方法、装置、设备及存储介质
CN111556165A (zh) 基于云计算的信息处理方法和系统
US8458702B1 (en) Method for implementing user space up-calls on java virtual machine before/after garbage collection
CN111988234A (zh) 过载保护方法、装置、服务器及存储介质
CN112346871A (zh) 一种请求处理方法及微服务系统
CN112600761A (zh) 一种资源分配的方法、装置及存储介质
CN110838987B (zh) 队列限流方法、存储介质
CN110493317B (zh) 处理云平台资源碎片的方法及相关设备
KR102389334B1 (ko) 클라우드 서비스를 위한 가상 머신 프로비저닝 시스템 및 방법
JP2020036105A (ja) ネットワークサービス管理装置、ネットワークサービス管理方法およびネットワークサービス管理プログラム
CN113268329A (zh) 一种请求调度方法、装置及存储介质
CN113765969A (zh) 一种流量控制方法和装置
CN109391663B (zh) 一种访问请求的处理方法与设备