KR20230129693A - 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치 - Google Patents

트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치 Download PDF

Info

Publication number
KR20230129693A
KR20230129693A KR1020220026609A KR20220026609A KR20230129693A KR 20230129693 A KR20230129693 A KR 20230129693A KR 1020220026609 A KR1020220026609 A KR 1020220026609A KR 20220026609 A KR20220026609 A KR 20220026609A KR 20230129693 A KR20230129693 A KR 20230129693A
Authority
KR
South Korea
Prior art keywords
edge
edge node
traffic
rap
kubernetes
Prior art date
Application number
KR1020220026609A
Other languages
English (en)
Inventor
원광명
최영환
김태홍
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020220026609A priority Critical patent/KR20230129693A/ko
Publication of KR20230129693A publication Critical patent/KR20230129693A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/101Server selection for load balancing based on network conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1097Protocols in which an application is distributed across nodes in the network for distributed storage of data in networks, e.g. transport arrangements for network file system [NFS], storage area networks [SAN] or network attached storage [NAS]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/289Intermediate processing functionally located close to the data consumer application, e.g. in same machine, in same home or in same sub-network

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer And Data Communications (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치가 개시된다. 본 발명의 일실시예에 따른, 메트릭 서버(metric server)에서, 클러스터를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링하는 단계; 및 상기 복수의 엣지노드 중, 사용자 단말이 연결되는 로컬 엣지노드로, 다수의 사용자 요청(Client request)이 수집 됨에 따라, RAP 알고리즘 서버에서, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정하는 단계를 포함 할 수 있다.

Description

트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치{TRAFFIC DISTRIBUTION METHOD AND DEVICE WITH RESOURCE ADAPTIVE PROXY IN KUBERNETES-BASED EDGE COMPUTING CONSIDERING TRAFFIC LOCALITY}
본 발명은, 쿠버네티스 기반 엣지 컴퓨팅 환경에서 사용자 요청 처리량을 최대화하고 지연시간을 최소화하기 위한 리소스 적응 프록시(Resource Adaptive Proxy, RAP) 부하 분산 알고리즘을 제공하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치에 관한 것이다.
컨테이너화 기술을 사용하여 개발된 애플리케이션 또는 서비스는, 경량화, 휴대성, 장애 격리, 높은 보안, 배치 용이성, 빠른 부팅 등과 같은 많은 이점을 얻을 수 있다.
이 때문에 컨테이너화 기술은, 단말 장치 가까이에서 연산 자원을 할당하는 것을 목표로 하는, 엣지 컴퓨팅 인프라의 유망한 솔루션으로 간주되어 왔다.
컨테이너 오케스트레이션(Container Orchestration) 플랫폼은, 이러한 컨테이너를 효율적으로 배치하고, 애플리케이션 및 엣지 노드의 리소스를 관리하기 위한 것이다.
현재 시장에서는, 다양한 컨테이너 오케스트레이션 플랫폼들 중 쿠버네티스(Kubernetes, K8S)가 가장 널리 활용되고 있다.
쿠버네티스는, 컨테이너 기반 애플리케이션의 운영 및 서비스를 배치, 관리 및 자동 확장 기능을 통해 관리할 수 있는 대표적인 컨테이너 오케스트레이션 도구로서, 효율적인 자원 할당 및 활용, 확장성 및 고가용성, 부하 분산 기능을 지원하여 컨테이너 기반 엣지 컴퓨팅 인프라에 적합 할 수 있다.
쿠버네티스 클러스터는, 클러스터의 문제를 감지하고 처리하는 결정을 내리는 제어부인 마스터 노드와, 하나 이상의 컨테이너를 포함하는 가장 작은 단위인 포드가 실행되는 워커 노드로 구성되어 있다.
쿠버네티스는, 애플리케이션의 높은 확장성과 가용성을 제공하기 위해, 수평적 포드 오토스케일링(Horizontal Pod Autoscaling, HPA)을 제공 할 수 있다.
쿠버네티스는, 여러 워커 노드에 하나 이상의 포드 복제본이 존재할 뿐만 아니라, 트래픽 요청에 따른 연산 자원 상태에 따라 복제본의 수가 동적으로 증가/감소 할 수 있다.
또한, 쿠버네티스는, 사용자 트래픽을 여러 포드 복제본에서 분산하여 처리하기 위하여 kube-proxy가 제공 될 수 있다.
도 1은 Kube-proxy의 알고리즘을 설명하기 위한 도이다.
기본적으로 kube-proxy는, 네트워크 부하 분산 구성요소로 동작하며, 클라이언트 요청을 수신할 때마다 클러스터에 존재하는 포드 복제본에 요청을 균등하게 분배 할 수 있다.
kube-proxy는 userspace, iptables 등의 모드를 지원하고 있으며, 각 모드의 알고리즘에 따라 포드 엔드포인트로 향하는 인바운드 트래픽의 균형을 맞출 수 있다.
userspace 모드는 도 1(a)에서 보는 바와 같이 round-robin 알고리즘으로 동작하며, 개발자가 소스 코드의 기본 아키텍처를 수정할 수 있게 해주기 때문에 다양하고 유연하게 적용할 수 있다.
userspace 모드의 도 1(a)에서 kube-proxy는 Client requests 1~6을, Worker 1 내지 3 각각에 순차적으로 분배하여 처리하도록 할 수 있다.
iptables 모드는 도 1(b)에서 보는 바와 같이 Random 알고리즘으로 동작하며, 리눅스의 커널 공간에서 동작하며 쿠버네티스 컨트롤 플레인의 제어 없이 iptable에 기재된 연결 규칙에 따라 포워딩 규칙을 설정한다. 즉, iptables 모드는 Linux iptable 규칙을 통해 랜덤 방식으로 엔드포인트를 선택 할 수 있다.
iptables 모드의 도 1(b)에서 kube-proxy는 Client requests 1~6을, Worker 1 내지 3 각각에, 무작위로 분배하여 처리하도록 할 수 있다.
위와 같이 kube-proxy는 쿠버네티스 기반 엣지 컴퓨팅 아키텍처에서 트래픽을 분산 처리하고 애플리케이션의 성능을 개선하기 위해, 서로 다른 모드의 로드밸런싱 알고리즘을 제공 할 수 있다.
그러나, kube-proxy의 모드, 모두 워커 노드(=엣지 노드)의 자원 상태와 워커 노드 간 네트워크 링크 상태는 고려하지 않는다는 공통점을 갖는다.
즉, kube-proxy에서는 워커 노드의 자원 상태를 고려하지 않음에 따라, 사용자 요청이 과부하된 워커 노드에게 전달될 경우, 높은 지연이 발생하거나 처리량이 감소될 수 있다.
특히, 워커 노드와 멀리 떨어져 있는, 즉 지연시간이 높은 워커 노드로 트래픽이 전달될 경우에는, 사용자 요청에 대해 높은 지연이 발생할 수 있다.
따라서, 사용자 요청을, 과부하된 워커 노드에 전달하지 않고, 지연시간을 줄일 수 있는, 개선된 트래픽 분배 기술의 등장이 절실히 요구되고 있다.
본 발명의 실시예는, 쿠버네티스 기반 엣지 컴퓨팅 환경에서 사용자 요청 처리량을 최대화하고 지연시간을 최소화하기 위한 리소스 적응 프록시(RAP) 부하 분산 알고리즘을 제공하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치를 제공하는 것을 해결과제로 한다.
또한, 본 발명의 실시예는, 로컬의 워커 노드가 과부하되기 전까지 가능한 많은 요청을 로컬에서 처리 함으로써 처리량을 높임은 물론 지연시간을 최소화하는 것을 목적으로 한다.
또한, 본 발명의 실시예는, 로컬 워커 노드가 과부하가 발생할 경우, 과부하가 발생한 노드와 가장 인접한 워커 노드에 요청을 전달 함으로써, 원격 워커 노드로의 전달과정에서의 지연시간을 최소화하는 것을 목적으로 한다.
본 발명의 일실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법은, 메트릭 서버(metric server)에서, 클러스터를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링하는 단계; 및 상기 복수의 엣지노드 중, 사용자 단말이 연결되는 로컬 엣지노드로, 다수의 사용자 요청(Client request)이 수집 됨에 따라, RAP 알고리즘 서버에서, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정하는 단계를 포함할 수 있다.
또한, 본 발명의 실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치는, 클러스터를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링하는 메트릭 서버; 및 상기 복수의 엣지노드 중, 사용자 단말이 연결되는 로컬 엣지노드로, 다수의 사용자 요청이 수집 됨에 따라, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정하는 RAP 알고리즘 서버를 포함하여 구성할 수 있다.
본 발명의 일실시예에 따르면, 쿠버네티스 기반 엣지 컴퓨팅 환경에서 사용자 요청 처리량을 최대화하고 지연시간을 최소화하기 위한 리소스 적응 프록시(RAP) 부하 분산 알고리즘을 제공하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치를 제공 할 수 있다.
또한, 본 발명에 의해서는, 로컬의 워커 노드가 과부하되기 전까지 가능한 많은 요청을 로컬에서 처리 함으로써 처리량을 높임은 물론 지연시간을 최소화 할 수 있다.
또한, 본 발명에 의해서는, 워커 노드에 요청을 전달 함으로써, 원격 워커 노드로의 전달과정에서의 지연시간을 최소화 할 수 있다.
도 1은 Kube-proxy의 알고리즘을 설명하기 위한 도이다.
도 2는 본 발명의 일실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치의 구성을 도시한 블록도이다.
도 3은 본 발명에 따른 RAP 아키텍처를 설명하기 위한 도이다.
도 4는 RAP 알고리즘을 설명하기 위한 도이다.
도 5는 본 발명의 일실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법을 도시한 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 2는 본 발명의 일실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치의 구성을 도시한 블록도이다.
도 2를 참조하면, 본 발명의 일실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치(이하, '트래픽 분배 장치(200)'라 약칭함)는, 메트릭 서버(metric server, 210) 및 RAP 알고리즘 서버(215)를 포함하여 구성 할 수 있다.
메트릭 서버(210)는, 클러스터(220)를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링한다. 즉, 메트릭 서버(210)는 쿠버네티스 기반 클러스터(220) 내 각 엣지노드에서 자원이 어느 정도 사용되고 있는지를 실시간으로 감시하는 역할을 할 수 있다.
여기서, 리소스 상태는, 엣지노드에 포함되는 CPU 및 RAM의 자원 활용률을 지칭할 수 있다.
예컨대, 'worker 01'(엣지노드 A), 'worker 02'(엣지노드 B), 및 'worker 03'(엣지노드 C)으로 구성되는 클러스터(220)에 대해, 메트릭 서버(210)는 엣지노드 'worker 01'에서의 CPU의 자원 활용률 '20%' 및 RAM의 자원 활용률 '20%'을, 'worker 01'에 대한 리소스 상태로서 모니터링하고, 엣지노드 'worker 02'에서의 CPU의 자원 활용률 '90%' 및 RAM의 자원 활용률 '90%'을, 'worker 02'에 대한 리소스 상태로서 모니터링하며, 엣지노드 'worker 03'에서의 CPU의 자원 활용률 '20%' 및 RAM의 자원 활용률 '20%'을, 'worker 03'에 대한 리소스 상태로서 모니터링 할 수 있다.
엣지노드에 대한 리소스 상태의 모니터링을 통해 RAP 알고리즘 서버(215)는, 복수의 엣지노드 중에서, 자원 활용률에 여유가 없는 과부하 엣지노드를 확인할 수 있다.
또한, RAP 알고리즘 서버(215)는, 상기 복수의 엣지노드 중, 사용자 단말(230)이 연결되는 로컬 엣지노드로, 다수의 사용자 요청(Client request)이 수집 됨에 따라, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정한다. 즉, RAP 알고리즘 서버는, 사용자 단말(230)이 연결되는 로컬 엣지노드에서, 사용자 단말(230)로부터 사용자 요청이 수집됨에 따라, 복수의 엣지노드 중, 자원 활용률이 비교적 낮아, 사용자 요청을 최적하게 처리할 수 있는 임의의 엣지노드를, 원격 엣지노드로 결정 할 수 있다.
이때, 원격 엣지노드는, 수집한 다수의 사용자 요청을 로컬 엣지노드에서 모두 로컬 처리하지 못하고 남은 여분의 사용자 요청을 원격 처리할 수 있는 엣지노드일 수 있다.
상술의 예시에서, 사용자 단말(230)이 연결되어 사용자 단말(230)로부터 다수(6개)의 사용자 요청을 수집하는 로컬 엣지노드가 'worker 01'일 경우, RAP 알고리즘 서버(215)는 엣지노드 'worker 02', 'worker 03' 중, 자원 활용률을 통해 과부하 상태가 아닌 것으로 확인되는 엣지노드 'worker 03'을 원격 엣지노드로 결정할 수 있다.
또한, RAP 알고리즘 서버(215)는, 상기 CPU 및 상기 RAM의 자원 활용률이, 규정된 비율을 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정 할 수 있다. 즉, RAP 알고리즘 서버(215)는, 복수의 엣지노드 중, 자원 활용률이 비교적 높아, 더 이상의 사용자 요청을 처리할 수 없는 임의의 엣지노드를, 과부하 엣지노드로 결정 할 수 있다.
여기서 규정된 비율은, 본 발명을 운영하는 발명자가 발명의 구현 환경에 따라 유연하게 결정할 수 있는 수치일 수 있고, 예컨대 규정된 비율을 '90%'로 정하는 경우, CPU 및 상기 RAM의 자원 활용률이 90% 이상인 엣지노드를 과부하 엣지노드로 정해질 수 있다.
상술의 예시에서, 다수의 사용자 요청을 수집하는 엣지노드가 'worker 01'일 경우, RAP 알고리즘 서버(215)는 엣지노드 'worker 02', 'worker 03' 중, 자원 활용률을 통해 과부하 상태로 확인되는 엣지노드 'worker 02'를 과부하 엣지노드로 결정할 수 있다.
또한, RAP 알고리즘 서버(215)는, 상기 로컬 엣지노드에 대한 리소스 상태에 기초하여, 로컬 처리가 가능한 사용자 요청의 최대수 N을 정하고, 상기 N개의 사용자 요청을 상기 로컬 엣지노드에 분배하고, 상기 최대수 N을 제외한, 나머지 최소수 n개의 사용자 요청을 상기 원격 엣지노드에 분배할 수 있다.
즉, RAP 알고리즘 서버(215)는, 사용자 요청을 직접 수집한 로컬 엣지노드에서 자원 활용률이 허용하는 선에서 최대로 사용자 요청을 로컬 처리하고, 나머지를 원격 엣지노드로 보내 원격 처리 하도록 할 수 있다.
이를 통해, RAP 알고리즘 서버(215)는, 로컬 처리를 우선하여 사용자 요청을 처리하고, 원격 처리되는 사용자 요청의 수를 줄여, 원격 처리에 따른 소요시간을 최소화 할 수 있다.
상술의 예시에서, 6개의 사용자 요청을 수집하는 로컬 엣지노드 'worker 01'에 대해, RAP 알고리즘 서버(215)는, 상기 6개의 사용자 요청 중, 로컬 엣지노드의 리소스 상태에 따라, 로컬 처리가 가능한 사용자 요청의 최대수 N개(5개)를 정하여 로컬 엣지노드 'worker 01'에 분배하고, 나머지 최소수 n개(1개)의 사용자 요청을 원격 엣지노드 'worker 03'에 분배할 수 있다.
실시예에 따라, 트래픽 분배 장치(200)는 지연 시간을 더 고려하여, 사용자 요청을 원격 처리하는 원격 엣지노드를 결정할 수 있다.
이를 위해, 메트릭 서버(210)는, 상기 복수의 엣지노드 각각에 대해, 상기 로컬 엣지노드와의 이격 거리에 따른 지연 시간을 측정할 수 있다. 즉, 메트릭 서버(210)는 쿠버네티스 기반 클러스터(220) 내 각 엣지노드 사이에 물리적 거리가 어느 정도이며, 이로 인해 지연 시간이 어느 정도인지를 확인 할 수 있다.
상술의 예시에서, 사용자 요청을 수집하는 로컬 엣지노드 'worker 01'를 기준으로, 메트릭 서버(210)는, 엣지노드 'worker 02'와의 이격 거리에 따른 지연 시간 '15ms'과, 'worker 03'과의 이격 거리에 따른 지연 시간 '5ms'를 측정할 수 있다.
이후, RAP 알고리즘 서버(215)는, 측정된 상기 지연 시간을 더 고려하여, 상기 복수의 엣지노드 중에서 상기 원격 엣지노드를 결정할 수 있다. 즉, RAP 알고리즘 서버(215)는, 복수의 엣지노드 중, 로컬 엣지노드와의 물리적 거리가 짧아 지연 시간이 적게 발생하는 임의의 엣지노드를, 원격 엣지노드로 정할 수 있다.
상술의 예시에서, RAP 알고리즘 서버(215)는 엣지노드 'worker 02', 'worker 03' 중, 지연 시간이 상대적으로 작은 'worker 03'을 원격 엣지노드로 결정할 수 있다.
바람직하게, RAP 알고리즘 서버(215)는 자원 활용률을 통해 과부하 상태가 아니면서, 동시에 지연 시간이 상대적으로 작은 엣지노드를, 원격 엣지노드로 결정할 수 있다.
또한, 상기 RAP 알고리즘 서버(215)는, 상기 지연 시간이, 규정된 수치를 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정 할 수 있다. 즉, RAP 알고리즘 서버(215)는, 복수의 엣지노드 중, 지연 시간이 커, 사용자 요청을 처리한 결과물을 지연하여 수신할 수 밖에 없는 임의의 엣지노드를, 과부하 엣지노드로 결정할 수 있다.
여기서 규정된 수치는, 본 발명을 운영하는 발명자가 발명의 구현 환경에 따라 유연하게 결정할 수 있는 값일 수 있고, 예컨대 규정된 수치를 '10ms'으로 정하는 경우, 지연 시간이 '10ms' 이상인 엣지노드를 과부하 엣지노드로 정해질 수 있다.
상술의 예시에서, 다수의 사용자 요청을 수집하는 엣지노드가 'worker 01'일 경우, RAP 알고리즘 서버(215)는 엣지노드 'worker 02', 'worker 03' 중, 지연 시간이 규정된 수치 '10ms'을 넘는 'worker 02'를 과부하 엣지노드로 결정할 수 있다.
바람직하게, RAP 알고리즘 서버(215)는 자원 활용률을 통해 과부하 상태이면서, 동시에 지연 시간이 규정된 수치를 넘는 엣지노드를, 과부하 엣지노드로 결정할 수 있다.
본 발명의 일실시예에 따르면, 쿠버네티스 기반 엣지 컴퓨팅 환경에서 사용자 요청 처리량을 최대화하고 지연시간을 최소화하기 위한 리소스 적응 프록시(RAP) 부하 분산 알고리즘을 제공하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치를 제공 할 수 있다.
또한, 본 발명에 의해서는, 로컬의 워커 노드가 과부하되기 전까지 가능한 많은 요청을 로컬에서 처리 함으로써 처리량을 높임은 물론 지연시간을 최소화 할 수 있다.
또한, 본 발명에 의해서는, 워커 노드에 요청을 전달 함으로써, 원격 워커 노드로의 전달과정에서의 지연시간을 최소화 할 수 있다.
본 발명에서는 쿠버네티스 기반 엣지 컴퓨팅 인프라를 위한 새로운 네트워크 프록시를 제안한다.
제안되는 기법인 RAP는, CPU, RAM, 워커 노드 간 네트워크 지연 등의 리소스 상태를 수집하여 쿠버네티스 클러스터에 대한 최적의 로드밸런싱 결정을 내릴 수 있다.
RAP의 목표는, 사용자 트래픽을 엔드 포인트들에 고르게 분산하는 대신, 사용자 요청을 수신한 로컬 노드에서 최대한 처리함으로써, 시스템의 처리량을 향상함은 물론 지연시간을 최소화 할 수 있다.
이와 함께 제안하는 RAP는 각 워커 노드의 자원 상태를 실시간 모니터링하여, 로컬 노드의 자원이 과부하 상태일 경우 원격의 워커 노드로 전달함으로써 자원 상태에 적응하여 트래픽을 처리할 수 있다.
도 3은 본 발명에 따른 RAP 아키텍처를 설명하기 위한 도이다.
도 3(a)는 Default kube-proxy에 관한 것으로, 기존의 userspace mode에서의 동작을 보여준다.
Default kube-proxy는 노드 별 자원 활용률 등과 무관하게, 입력되는 Client request 1~6을, Edge Node A(worker 01), Edge Node B(worker 02), Edge Node C(worker 03) 각각으로 순차적으로 균등하게 분배할 수 있다. 이에 따라, Default kube-proxy는 자원 활용률이 이미 높아 과부하 상태인 Edge Node B에도, Client request 2, 5를 분배하게 되어, 트래픽을 효과적으로 처리하지 못할 수 있다. 또한, Edge Node B는, Client request가 수집되는 Edge Node A와도 상대적으로 멀리 이격되어 있어, 많은 지연 시간이 발생할 수 있다.
도 3(b)는 Resource Adaptive Proxy(RAP)의 동작을 보여준다.
RAP는 노드 별 자원 활용률 뿐만 아니라 지역성을 고려하여, Client request를 분배 할 수 있다.
RAP는 Client request가 수집되는 Edge Node A에, 자원 활용률이 허용하는 범위 내에서 최대로 Client request를 분배할 수 있다.
도 3(b)에서 RAP는 Client request가 수집되는 Edge Node A에 다수의 Client request 1~5를 분배하여 로컬 처리가 이루어지도록 하고, Edge Node A와 상대적으로 가깝게 이격되어 적은 지연 시간의 Edge Node C에 소수의 Client request 6을 분배할 수 있다. 또한, RAP는 Edge Node A와 상대적으로 멀리 이격되는 Edge Node B에 Client request를 분배하지 않을 수 있다.
쿠버네티스는 기본적으로 kube-proxy라는 이름의 로드밸런싱 구성요소를 제공 할 수 있다.
사용자가 워커 노드에 요청을 보내면, kube-proxy는 백엔드 포드(=엔드 포인트)에 트래픽을 고르게 분배할 수 있다.
도 3는 3개의 워커 노드로 구성되어 있는 쿠버네티스 클러스터 환경에서의 프록시 동작을 분석하기 위한 도이다.
도 3에서, 각 워커 노드는 엣지 노드 A, B, C로 명명한다.
예를 들어, 도 3(a)에서는 엣지 노드 A와 C의 자원상태가 CPU 20%, RAM 20%로 자원상태가 안정된 반면, 엣지 노드 B는 CPU 90%, RAM 90%로 과부하 상태이다.
만약, 엣지 노드 A에 연결되어 있는 사용자가 엣지 노드 A에 6개의 요청을 보낼 경우, kube-proxy는 라운드 로빈 방식의 userspace mode 정책에 따라 2개의 요청만 로컬의 엣지노드 A에서 처리되고, 나머지 4개의 요청은 원격의 엣지 노드 B와 엣지 노드 C로 동일하게 분배될 수 있다.
이때, 엣지 노드 A와 네트워크 연결 지연시간이 가장 크고 리소스가 과부화된 엣지 노드 B로 요청이 전달될 경우에는, 요청 처리 시간 및 응답시간이 증가할 수 있다.
이처럼 기존의 kube-proxy에서는 트래픽의 일부만 로컬에서 처리되고 나머지 트래픽은 원격의 엣지 노드의 포드로 전달됨에 따라 사용자 요청의 왕복 전달과정에서 전송 지연이 발생할 수 있다.
특히, 엣지 노드들이 지역적으로 분산되어 있는 엣지 컴퓨팅 환경에서는 더욱 높은 지연이 수반될 수 있다.
또한, 엣지 노드 B와 같이 과부하된 엣지 노드로 요청이 전달될 경우에는, 요청의 처리과정 자체에 높은 지연이 발생할 수 있다.
이러한 문제를 해결하기 위해 본 발명에서는 RAP 알고리즘을 제안한다.
도 3(b)는 쿠버네티스 기반 엣지 컴퓨팅 아키텍처에서의 RAP 알고리즘의 작동을 설명한다.
사용자가 클러스터의 엣지 노드에 요청을 보낼 때 RAP 모드에서는, 엣지 노드 A에 있는 애플리케이션의 리소스를 고려하여 로드밸런싱을 결정할 수 있다.
이러한 결정을 통해 요청은 로컬에서 처리되거나 성능 향상과 지연 시간 최소화할 수 있는 최적의 노드로 전달될 수 있다.
예를 들어 도 3(b)에서와 같이, 대부분의 요청은 엣지 노드 A에 의해 내부적으로 로컬 처리되고 나머지 일부의 요청 만이 엣지 노드 C로 전달되어 원격 처리 될 수 있다.
즉, 엣지 노드 A에 있는 응용 프로그램의 리소스가 과부하 상태에 도달한 것을 감지하면, 엣지 노드 A의 RAP는 원격의 엣지 노드 C로 사용자 요청을 전달할 수 있다.
이 때, 엣지 노드 C는 CPU, RAM 및 로컬 엣지 노드와의 네트워크 지연시간 등을 고려하여 선정될 수 있다.
엣지 노드의 리소스 정보를 RAP 알고리즘에 제공하기 위해서는, 쿠버네티스의 기본 자원 모니터링 도구인 메트릭 서버(metric server)를 활용할 수 있다.
메트릭 서버는, 1 milicore의 CPU와 2 mebibytes의 RAM만 사용하기 때문에 대부분의 클러스터에 배포하기 쉬워서 CPU 및 RAM과 같은 엔드포인트의 리소스의 상태를 모니터링 할 때 효율적인 구성요소이다.
메트릭 서버를 통해 수집된 지연 값은, 변환되어 CPU, RAM과 같은 다른 리소스 매개 변수와 결합 될 수 있다.
이러한 리소스 매개변수는 RAP 알고리즘에 의해 최적의 로드밸런싱 노드를 선정할 때 사용될 수 있다.
도 4는 RAP 알고리즘을 설명하기 위한 도이다.
또한, [표 1]에는 도 4의 알고리즘에서 사용되는 주요 기호(Notation)에 대해 정의한다.
Figure pat00001
각 워커 노드는 주기적으로 RAP 함수를 실행하여 엔드포인트를 업데이트하고, 최적의 원격 노드를 능동적으로 선택 할 수 있다.
엔드포인트 목록은 엔드포인트 및 서비스의 추가, 제거 이벤트 또는 자동 스케일링 작업에 의해 변경될 수 있으므로, RAP는 엔드포인트 목록을 자주 업데이트하도록 조건을 초기화 할 수 있다.
그런 다음, 엔드포인트는 워커 노드의 위치에 따라 다른 엔드포인트 목록으로 분류된다.
메트릭 서버 구성요소 및 지연 시간 측정 도구를 통해 RAP는 엔드포인트의 리소스를 수집하여 클러스터에 있는 사용 가능한 노드 중에서 최적의 원격 노드를 선택한다.
하지만 CPU, RAM 및 대기 시간의 측정 단위가 다르므로 최적의 원격 노드를 선택하기 위해서는, 해당 파라미터를 공통분모로 정규화한 다음 스코어링 단계를 수행해야 한다.
이하에는, 정규화 및 스코어링 단계를 설명한다.
표 1에서 요약한 바와 같이, r과 N은 포드를 포함하는 α 및 워커 노드의 세트로 표시된다.
Ri r은 하드웨어 리소스(예: CPU, RAM) 또는 네트워크 지연이 될 수 있는 워커 노드 i의 특정 리소스 r을 나타낸다.
또한 βi r는 정규화 과정에 사용되는 개별 분모이며, βi r는 워커 노드 i에서 자원 r의 정규화 과정의 결과물이다. 또한 Wr은 각 자원 r의 가중치를 나타내며, τi와 τBestNode는 각각 노드 i와 최적 노드의 점수이다.
최적의 원격 노드 후보들은 애플리케이션 α의 엔드포인트와 요구사항을 충족할 만한 충분한 자원을 포함해야 하는 것이 중요하다.
게다가, 각각의 노드 i의 리소스들은 CPU의 단위인 milicore, RAM의 단위인 mebibytes와 같은 특별한 단위를 가지고 있다.
따라서, 각 후보 i, Ri r가 지정한 개별 자원 단위는 각 후보에 대한 자원 점수를 계산하기 전에 공통 단위로 정규화되어야 한다.
표준화 과정은 [수식 1]과 같다.
[수식 1]
Figure pat00002
적용 사양에 따라 Wr 비율을 조절하면 [수식 2]와 같이 정규화 된 값 Φi r 을 합산하여 각 후보별 점수 τi를 계산할 수 있으며, [수식 3]에서 가장 높은 점수를 갖는 최적의 워커 노드를 선택할 수 있다.
[수식 2]
[수식 3]
요약하면, RAP 함수는 두 개의 필수 값을 반환한다.
이는 엔드포인트의 위치 및 주소와 같은 키-값 쌍과 최적의 워커 노드의 정보가 포함된 엔드포인트 맵으로, 로컬 노드의 과부하 사례에 대한 백업 위치가 되는 조건을 충족한다.
이러한 변수는 로드 밸런서 함수(도 4의 알고리즘, 라인 26-37)에서 사용할 수 있다.
이 함수는 트래픽이 허용되는 만큼 로컬에서 처리하기로 결정하고 오버로드 된 트래픽을 최적의 원격 노드로 전달하는 데에 관여한다.
트래픽이 도착하면 로드 밸런서 함수는 로컬 노드에 사용 가능한 리소스가 있는지를 조사한다. 사용 가능한 리소스가 있으면 트래픽은 로컬 노드의 엔드포인트로 전달되고 그렇지 않으면 최적의 원격 노드의 엔드포인트로 전달된다.
결론적으로, RAP는 로컬 엔드포인트 목록을 통해 로컬에서 요청을 처리하는 데 우선순위를 두고 애플리케이션 자원을 모니터링하여 최적의 로드밸런싱을 수행 할 수 있다.
본 발명의 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 기술은 사물인터넷을 위한 엣지 컴퓨팅 인프라로 활용될 수 있다.
특히, 본 발명에 의해서는, 사용자의 요청을 워커 노드들의 트래픽 지역성을 고려하여 동적 분배함으로써, 엣지 컴퓨팅 인프라의 시스템 처리성능을 개선 할 수 있다.
이하, 도 5에서는 본 발명의 실시예들에 따른 트래픽 분배 장치(200)의 작업 흐름을 상세히 설명한다.
도 5는 본 발명의 일실시예에 따른, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법을 도시한 흐름도이다.
본 실시예에 따른 동적 서비스 배포 방법은 트래픽 분배 장치(200)에 의해 수행될 수 있다.
트래픽 분배 장치(200)의 메트릭 서버에서, 클러스터를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링한다(510). 단계(510)은 쿠버네티스 기반 클러스터 내 각 엣지노드에서 자원이 어느 정도 사용되고 있는지를 실시간으로 감시하는 과정일 수 있다.
여기서, 리소스 상태는, 엣지노드에 포함되는 CPU 및 RAM의 자원 활용률을 지칭할 수 있다.
예컨대, 'worker 01'(엣지노드 A), 'worker 02'(엣지노드 B), 및 'worker 03'(엣지노드 C)으로 구성되는 클러스터에 대해, 메트릭 서버는 엣지노드 'worker 01'에서의 CPU의 자원 활용률 '20%' 및 RAM의 자원 활용률 '20%'을, 'worker 01'에 대한 리소스 상태로서 모니터링하고, 엣지노드 'worker 02'에서의 CPU의 자원 활용률 '90%' 및 RAM의 자원 활용률 '90%'을, 'worker 02'에 대한 리소스 상태로서 모니터링하며, 엣지노드 'worker 03'에서의 CPU의 자원 활용률 '20%' 및 RAM의 자원 활용률 '20%'을, 'worker 03'에 대한 리소스 상태로서 모니터링 할 수 있다.
엣지노드에 대한 리소스 상태의 모니터링을 통해 RAP 알고리즘 서버는, 복수의 엣지노드 중에서, 자원 활용률에 여유가 없는 과부하 엣지노드를 확인할 수 있다.
또한, 트래픽 분배 장치(200)의 RAP 알고리즘 서버에서, 상기 복수의 엣지노드 중, 사용자 단말이 연결되는 로컬 엣지노드로, 다수의 사용자 요청(Client request)이 수집 됨에 따라, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정한다(520). 단계(520)는, 사용자 단말이 연결되는 로컬 엣지노드에서, 사용자 단말로부터 사용자 요청이 수집됨에 따라, 복수의 엣지노드 중, 자원 활용률이 비교적 낮아, 사용자 요청을 최적하게 처리할 수 있는 임의의 엣지노드를, 원격 엣지노드로 결정하는 과정일 수 있다.
이때, 원격 엣지노드는, 수집한 다수의 사용자 요청을 로컬 엣지노드에서 모두 로컬 처리하지 못하고 남은 여분의 사용자 요청을 원격 처리할 수 있는 엣지노드일 수 있다.
상술의 예시에서, 사용자 단말이 연결되어 사용자 단말로부터 다수(6개)의 사용자 요청을 수집하는 로컬 엣지노드가 'worker 01'일 경우, RAP 알고리즘 서버는 엣지노드 'worker 02', 'worker 03' 중, 자원 활용률을 통해 과부하 상태가 아닌 것으로 확인되는 엣지노드 'worker 03'을 원격 엣지노드로 결정할 수 있다.
또한, RAP 알고리즘 서버는, 상기 CPU 및 상기 RAM의 자원 활용률이, 규정된 비율을 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정 할 수 있다. 즉, RAP 알고리즘 서버는, 복수의 엣지노드 중, 자원 활용률이 비교적 높아, 더 이상의 사용자 요청을 처리할 수 없는 임의의 엣지노드를, 과부하 엣지노드로 결정 할 수 있다.
여기서 규정된 비율은, 본 발명을 운영하는 발명자가 발명의 구현 환경에 따라 유연하게 결정할 수 있는 수치일 수 있고, 예컨대 규정된 비율을 '90%'로 정하는 경우, CPU 및 상기 RAM의 자원 활용률이 90% 이상인 엣지노드를 과부하 엣지노드로 정해질 수 있다.
상술의 예시에서, 다수의 사용자 요청을 수집하는 엣지노드가 'worker 01'일 경우, RAP 알고리즘 서버는 엣지노드 'worker 02', 'worker 03' 중, 자원 활용률을 통해 과부하 상태로 확인되는 엣지노드 'worker 02'를 과부하 엣지노드로 결정할 수 있다.
또한, RAP 알고리즘 서버는, 상기 로컬 엣지노드에 대한 리소스 상태에 기초하여, 로컬 처리가 가능한 사용자 요청의 최대수 N을 정하고, 상기 N개의 사용자 요청을 상기 로컬 엣지노드에 분배하고, 상기 최대수 N을 제외한, 나머지 최소수 n개의 사용자 요청을 상기 원격 엣지노드에 분배할 수 있다.
즉, RAP 알고리즘 서버는, 사용자 요청을 직접 수집한 로컬 엣지노드에서 자원 활용률이 허용하는 선에서 최대로 사용자 요청을 로컬 처리하고, 나머지를 원격 엣지노드로 보내 원격 처리 하도록 할 수 있다.
이를 통해, RAP 알고리즘 서버는, 로컬 처리를 우선하여 사용자 요청을 처리하고, 원격 처리되는 사용자 요청의 수를 줄여, 원격 처리에 따른 소요시간을 최소화 할 수 있다.
상술의 예시에서, 6개의 사용자 요청을 수집하는 로컬 엣지노드 'worker 01'에 대해, RAP 알고리즘 서버는, 상기 6개의 사용자 요청 중, 로컬 엣지노드의 리소스 상태에 따라, 로컬 처리가 가능한 사용자 요청의 최대수 N개(5개)를 정하여 로컬 엣지노드 'worker 01'에 분배하고, 나머지 최소수 n개(1개)의 사용자 요청을 원격 엣지노드 'worker 03'에 분배할 수 있다.
실시예에 따라, 트래픽 분배 장치(200)는 지연 시간을 더 고려하여, 사용자 요청을 원격 처리하는 원격 엣지노드를 결정할 수 있다.
이를 위해, 메트릭 서버는, 상기 복수의 엣지노드 각각에 대해, 상기 로컬 엣지노드와의 이격 거리에 따른 지연 시간을 측정할 수 있다. 즉, 메트릭 서버는 쿠버네티스 기반 클러스터 내 각 엣지노드 사이에 물리적 거리가 어느 정도이며, 이로 인해 지연 시간이 어느 정도인지를 확인 할 수 있다.
상술의 예시에서, 사용자 요청을 수집하는 로컬 엣지노드 'worker 01'를 기준으로, 메트릭 서버는, 엣지노드 'worker 02'와의 이격 거리에 따른 지연 시간 '15ms'과, 'worker 03'과의 이격 거리에 따른 지연 시간 '5ms'를 측정할 수 있다.
이후, RAP 알고리즘 서버는, 측정된 상기 지연 시간을 더 고려하여, 상기 복수의 엣지노드 중에서 상기 원격 엣지노드를 결정할 수 있다. 즉, RAP 알고리즘 서버는, 복수의 엣지노드 중, 로컬 엣지노드와의 물리적 거리가 짧아 지연 시간이 적게 발생하는 임의의 엣지노드를, 원격 엣지노드로 정할 수 있다.
상술의 예시에서, RAP 알고리즘 서버는 엣지노드 'worker 02', 'worker 03' 중, 지연 시간이 상대적으로 작은 'worker 03'을 원격 엣지노드로 결정할 수 있다.
바람직하게, RAP 알고리즘 서버는 자원 활용률을 통해 과부하 상태가 아니면서, 동시에 지연 시간이 상대적으로 작은 엣지노드를, 원격 엣지노드로 결정할 수 있다.
또한, 상기 RAP 알고리즘 서버는, 상기 지연 시간이, 규정된 수치를 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정 할 수 있다. 즉, RAP 알고리즘 서버는, 복수의 엣지노드 중, 지연 시간이 커, 사용자 요청을 처리한 결과물을 지연하여 수신할 수 밖에 없는 임의의 엣지노드를, 과부하 엣지노드로 결정할 수 있다.
여기서 규정된 수치는, 본 발명을 운영하는 발명자가 발명의 구현 환경에 따라 유연하게 결정할 수 있는 값일 수 있고, 예컨대 규정된 수치를 '10ms'으로 정하는 경우, 지연 시간이 '10ms' 이상인 엣지노드를 과부하 엣지노드로 정해질 수 있다.
상술의 예시에서, 다수의 사용자 요청을 수집하는 엣지노드가 'worker 01'일 경우, RAP 알고리즘 서버는 엣지노드 'worker 02', 'worker 03' 중, 지연 시간이 규정된 수치 '10ms'을 넘는 'worker 02'를 과부하 엣지노드로 결정할 수 있다.
바람직하게, RAP 알고리즘 서버는 자원 활용률을 통해 과부하 상태이면서, 동시에 지연 시간이 규정된 수치를 넘는 엣지노드를, 과부하 엣지노드로 결정할 수 있다.
본 발명의 일실시예에 따르면, 쿠버네티스 기반 엣지 컴퓨팅 환경에서 사용자 요청 처리량을 최대화하고 지연시간을 최소화하기 위한 리소스 적응 프록시(RAP) 부하 분산 알고리즘을 제공하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치를 제공 할 수 있다.
또한, 본 발명에 의해서는, 로컬의 워커 노드가 과부하되기 전까지 가능한 많은 요청을 로컬에서 처리 함으로써 처리량을 높임은 물론 지연시간을 최소화 할 수 있다.
또한, 본 발명에 의해서는, 워커 노드에 요청을 전달 함으로써, 원격 워커 노드로의 전달과정에서의 지연시간을 최소화 할 수 있다.
실시예에 따른 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.
200 : 트래픽 분배 장치
210 : 메트릭 서버
215 : RAP 알고리즘 서버
220 : 클러스터
230 : 사용자 단말

Claims (13)

  1. 메트릭 서버(metric server)에서, 클러스터를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링하는 단계; 및
    상기 복수의 엣지노드 중, 사용자 단말이 연결되는 로컬 엣지노드로, 다수의 사용자 요청(Client request)이 수집 됨에 따라,
    RAP 알고리즘에서, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정하는 단계
    를 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법.
  2. 제1항에 있어서,
    상기 RAP 알고리즘 서버에서, 상기 로컬 엣지노드에 대한 리소스 상태에 기초하여, 로컬 처리가 가능한 사용자 요청의 최대수 N을 정하고, 상기 N개의 사용자 요청을 상기 로컬 엣지노드에 분배하는 단계; 및
    상기 RAP 알고리즘 서버에서, 상기 최대수 N을 제외한, 나머지 최소수 n개의 사용자 요청을 상기 원격 엣지노드에 분배하는 단계
    를 더 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법.
  3. 제1항에 있어서,
    상기 모니터링하는 단계는,
    엣지노드에 포함되는 CPU 및 RAM의 자원 활용률을, 상기 리소스 상태로서 모니터링하는 단계
    를 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법.
  4. 제3항에 있어서,
    상기 트래픽 분배 방법은,
    상기 RAP 알고리즘 서버에서, 상기 CPU 및 상기 RAM의 자원 활용률이, 규정된 비율을 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정하는 단계
    를 더 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법.
  5. 제1항에 있어서,
    상기 메트릭 서버에서, 상기 복수의 엣지노드 각각에 대해, 상기 로컬 엣지노드와의 이격 거리에 따른 지연 시간을 측정하는 단계; 및
    상기 RAP 알고리즘 서버에서, 측정된 상기 지연 시간을 더 고려하여, 상기 복수의 엣지노드 중에서 상기 원격 엣지노드를 결정하는 단계
    를 더 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법.
  6. 제5항에 있어서,
    상기 RAP 알고리즘 서버에서, 상기 지연 시간이, 규정된 수치를 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정하는 단계
    를 더 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법.
  7. 클러스터를 구성하는 복수의 엣지노드 각각에 대한 리소스 상태를 모니터링하는 메트릭 서버; 및
    상기 복수의 엣지노드 중, 사용자 단말이 연결되는 로컬 엣지노드로, 다수의 사용자 요청이 수집 됨에 따라, 상기 모니터링 결과를 고려하여, 상기 복수의 엣지노드 중, 상기 사용자 요청을 원격 처리하는 원격 엣지노드를 결정하는 RAP 알고리즘 서버
    를 포함하는, 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치.
  8. 제7항에 있어서,
    상기 RAP 알고리즘 서버는,
    상기 로컬 엣지노드에 대한 리소스 상태에 기초하여, 로컬 처리가 가능한 사용자 요청의 최대수 N을 정하고, 상기 N개의 사용자 요청을 상기 로컬 엣지노드에 분배하며,
    상기 최대수 N을 제외한, 나머지 최소수 n개의 사용자 요청을 상기 원격 엣지노드에 분배하는
    트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치.
  9. 제7항에 있어서,
    상기 메트릭 서버는,
    엣지노드에 포함되는 CPU 및 RAM의 자원 활용률을, 상기 리소스 상태로서 모니터링하는
    트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치.
  10. 제9항에 있어서,
    상기 RAP 알고리즘 서버는,
    상기 CPU 및 상기 RAM의 자원 활용률이, 규정된 비율을 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정하는
    트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치.
  11. 제7항에 있어서,
    상기 메트릭 서버는,
    상기 복수의 엣지노드 각각에 대해, 상기 로컬 엣지노드와의 이격 거리에 따른 지연 시간을 측정하고,
    상기 RAP 알고리즘 서버는,
    측정된 상기 지연 시간을 더 고려하여, 상기 복수의 엣지노드 중에서 상기 원격 엣지노드를 결정하는
    트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치.
  12. 제11항에 있어서,
    상기 RAP 알고리즘 서버는,
    상기 지연 시간이, 규정된 수치를 넘어서는 엣지노드를, 적어도 일부의 사용자 요청이라도 분배하지 않는 과부하 엣지노드로 결정하는
    트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 장치.
  13. 제7항 내지 제12항 중 어느 한 항의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체.
KR1020220026609A 2022-03-02 2022-03-02 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치 KR20230129693A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220026609A KR20230129693A (ko) 2022-03-02 2022-03-02 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220026609A KR20230129693A (ko) 2022-03-02 2022-03-02 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치

Publications (1)

Publication Number Publication Date
KR20230129693A true KR20230129693A (ko) 2023-09-11

Family

ID=88020435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220026609A KR20230129693A (ko) 2022-03-02 2022-03-02 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치

Country Status (1)

Country Link
KR (1) KR20230129693A (ko)

Similar Documents

Publication Publication Date Title
CN109274707B (zh) 一种负载调度方法及装置
EP3335119B1 (en) Multi-priority service instance allocation within cloud computing platforms
US6601084B1 (en) Dynamic load balancer for multiple network servers
CN102187315B (zh) 在虚拟环境中获取用于服务器负载均衡的反馈信息的方法和装置
JP6881575B2 (ja) 資源割当システム、管理装置、方法およびプログラム
JP2013506908A (ja) 企業ネットワーク内の割り当てられたクラウドリソースの動的な負荷分散およびスケーリング
US20030236887A1 (en) Cluster bandwidth management algorithms
CN108933829A (zh) 一种负载均衡方法及装置
JP6272190B2 (ja) 計算機システム、計算機、負荷分散方法及びそのプログラム
US20050102387A1 (en) Systems and methods for dynamic management of workloads in clusters
US20220318071A1 (en) Load balancing method and related device
KR20180037992A (ko) 융합된 네트워크들에서 스토리지 데이터 트래픽을 균형잡기 위한 방법 및 시스템
KR20200080458A (ko) 클라우드 멀티-클러스터 장치
US20150381498A1 (en) Network system and its load distribution method
KR101448413B1 (ko) Atca-기반 장비에서 통신 트래픽을 스케줄링하기 위한 방법 및 장치
Vashistha et al. Comparative study of load balancing algorithms
JP2011203810A (ja) サーバ、計算機システム及び仮想計算機管理方法
KR102201799B1 (ko) 소프트웨어 정의 네트워크 기반 포그 시스템에서의 동적 로드밸런싱 방법 및 동적 로드밸런싱 장치
JP2013182509A (ja) 仮想化システム、負荷分散装置、負荷分散方法、及び負荷分散プログラム
JP4309321B2 (ja) ネットワークシステムの運用管理方法及びストレージ装置
Chen et al. A fast converging mechanism for load balancing among sdn multiple controllers
KR20230129693A (ko) 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치
KR101883671B1 (ko) 노드 분산 방법 및 이를 수행하는 관리 서버
KR101758065B1 (ko) 부하분산 시스템, 그 제어방법 및 이를 수행하기 위한 기록매체
Sagkriotis et al. Scalable data plane caching for kubernetes

Legal Events

Date Code Title Description
E902 Notification of reason for refusal