KR101773528B1 - 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법 - Google Patents

가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법 Download PDF

Info

Publication number
KR101773528B1
KR101773528B1 KR1020160086043A KR20160086043A KR101773528B1 KR 101773528 B1 KR101773528 B1 KR 101773528B1 KR 1020160086043 A KR1020160086043 A KR 1020160086043A KR 20160086043 A KR20160086043 A KR 20160086043A KR 101773528 B1 KR101773528 B1 KR 101773528B1
Authority
KR
South Korea
Prior art keywords
virtual machine
packet
virtual
flow
network
Prior art date
Application number
KR1020160086043A
Other languages
English (en)
Other versions
KR20170045100A (ko
Inventor
정기웅
Original Assignee
주식회사 구버넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 구버넷 filed Critical 주식회사 구버넷
Priority to KR1020160086043A priority Critical patent/KR101773528B1/ko
Publication of KR20170045100A publication Critical patent/KR20170045100A/ko
Application granted granted Critical
Publication of KR101773528B1 publication Critical patent/KR101773528B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/625Queue scheduling characterised by scheduling criteria for service slots or service orders
    • H04L47/6255Queue scheduling characterised by scheduling criteria for service slots or service orders queue load conditions, e.g. longest queue first
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/12Avoiding congestion; Recovering from congestion
    • H04L47/125Avoiding congestion; Recovering from congestion by balancing the load, e.g. traffic engineering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/24Traffic characterised by specific attributes, e.g. priority or QoS
    • H04L47/2483Traffic characterised by specific attributes, e.g. priority or QoS involving identification of individual flows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/10Flow control; Congestion control
    • H04L47/29Flow control; Congestion control using a combination of thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/50Queue scheduling
    • H04L47/62Queue scheduling characterised by scheduling criteria
    • H04L47/625Queue scheduling characterised by scheduling criteria for service slots or service orders
    • H04L47/627Queue scheduling characterised by scheduling criteria for service slots or service orders policing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법이 개시된다. 복수 개의 가상 머신이 구현된 서버와 연결된 네트워크 인터페이스 장치는, 복수 개의 큐를 포함하고, 물리적 망을 통해 가상 머신으로 전송할 가상머신 패킷을 수신하면, 가상머신 패킷의 가상머신 플로우를 식별하하여 가상머신 플로우 단위로 복수 개의 큐에 가상머신 패킷을 저장한 후 다중 프로세서를 통해 병렬처리한다.

Description

가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법{Network interface apparatus and method for processing virtual machine packets}
본 발명은 네트워크 인터페이스 장치 및 패킷 처리 방법에 관한 것으로서, 보다 상세하게는 가상머신 패킷(virtual Machine Packet)을 처리할 수 있는 네트워크 인터페이스 카드와 이를 이용한 가상머신 패킷 처리 방법에 관한 것이다.
최근 인터넷을 통하는 통신량이 급증하고, 이에 따라 서버의 대용량화, 고속화가 빠르게 진행되고 있다. 한편, 서버의 대용량화에 따르는 물리적 부피증가를 해소하고 비용 절감 등을 꾀하기 위하여 서버의 가상화가 가속되고 있다. 서버의 대용량화, 고속화, 가상화에 따라 물리적 네트워크로부터 수신되는 가상화 환경에서 생성된 데이터 패킷을 포함하는 대용량 데이터에 대한 병렬처리의 고효율화가 필수적으로 요구되고 있으며, 가상화 서버에서 가상스위치 기능이 수행될 때 서버의 부하 증가에 기인하는 성능 저하가 야기됨에 따라 가상스위치 기능에 따르는 서버의 부하를 물리적 네트워크 인터페이스 장치로 이전하는 기술 개념 실현이 요구되고 있다.
종래의 가상화 환경을 지원하는 NIC의 경우, 물리적 네트워크 인터페이스 장치에서 가상화 환경을 지원하는 방법으로 가상 머신 단위로 큐를 생성 관리하여 네트워크 인터페이스 장치와 서버의 가상 스위치 사이의 병목 현상을 감소시키는 시도가 있다. 그러나 종래의 경우에는 수신된 데이터 패킷의 병렬처리를 위한 프로세서 할당 및 큐의 재분배 시 가상 머신 단위로만 이루어진다. 즉 가상화 환경의 물리적 계층만이 고려된 프로세서 할당이 이루어진다. 따라서 병렬처리에서 프로세싱 효율을 높이는데 아주 중요한 요소 중 하나인 프로세서 친화도가 고려될 수 없고, 프로세서의 사용 부하만을 고려하여 프로세서 할당 및 큐의 재분배가 일어난다. 이는 병렬 처리의 효율을 감소시키는 요인으로 작용될 수 있다.
미국특허공개공보 제2013-0239119호
본 발명이 해결하고자 하는 기술적 과제는, 패킷을 가상머신 플로우 단위로 처리하여 병렬 프로세싱의 효율을 높이고, 가상머신 플로우 단위로 QoS를 보장하며, 가상 네트워크 환경에서 서버의 부하를 분산시키는 네트워크 인터페이스 장치 및 패킷 처리 방법을 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 네트워크 인터페이스 장치의 일 예는, 복수 개의 가상 머신이 구현된 서버와 연결된 네트워크 인터페이스 장치에 있어서, 하나 이상의 프로세서; 상기 하나 이상의 프로세서와 적어도 하나 이상의 큐가 연결된 복수 개의 큐; 물리적 망을 통해 가상 머신으로 전송할 가상머신 패킷을 수신하는 패킷수신부; 및 상기 패킷수신부로부터 수신한 가상머신 패킷의 가상머신 플로우를 식별하는패킷분석부를 포함하고, 상기 가상머신 패킷은 물리적 네트워크 프레임에 인캡슐레이션되어 가상머신 네트워크 환경에서의 트래픽 정보를 포함하되, 상기 가상머신 패킷을 수신하면, 상기 가상머신 패킷에 인캡슐레이션 되어 있는 가상머신 네트워크 계층 정보를 기초로 가상머신 플로우를 식별하는 것을 특징으로 한다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 패킷 처리 방법의 일 예는, 하나 이상의 프로세서와 상기 하나 이상의 프로세서와 적어도 하나 이상의 큐가 연결된 복수 개의 큐를 포함하는 복수 개의 가상 머신을 위한 가상머신 패킷 처리 방법에 있어서, 물리적 망을 통해 복수 개의 가상 머신으로 전송할 가상머신 패킷을 수신하는 단계; 및 수신한 가상머신 패킷의 가상머신 플로우를 식별하는 단계를 포함하고, 상기 가상머신 패킷은 물리적 네트워크 프레임에 인캡슐레이션되어 가상머신 네트워크 환경에서의 트래픽 정보를 포함하되, 상기 가상머신 패킷을 수신하면, 상기 가상머신 패킷에 인캡슐레이션 되어 있는 가상머신 네트워크 계층 정보를 기초로 가상머신 플로우를 식별하는 단계를 더 포함하는 것을 특징으로 한다.
본 발명에 따르면, 복수의 가상 머신을 포함하는 가상화 환경을 구비한 서버의 부하가 감소된다. 또한 가상머신 플로우 단위로 패킷을 처리함으로써 가상머신 패킷과 프로세서 사이의 친화도를 높여 병렬 프로세싱의 효율을 높인다. 또한 가상 스위치의 부하를 네트워크 인터페이스 카드로 분산시켜 가상 네트워크 프로세싱의 효율을 높일 수 있다. 또한 가상머신 플로우 단위로 큐잉하여 처리함으로써 가상 머신 종단간 가상머신 플로우 단위의 QoS가 보장되는 스케일러블한 통신 처리를 구현할 수 있다.
도 1은 본 발명에 따른 네트워크 인터페이스 장치를 포함한 전체 시스템의 개략적인 구조를 도시한 도면,
도 2는 본 발명에 따른 네트워크 인터페이스 장치의 자원을 동적으로 설정하는 방법의 일 예를 도시한 도면,
도 3은 본 발명에 따른 네트워크 인터페이스 장치의 일 실시예의 구성을 도시한 도면,
도 4는 본 발명에 따른 네트워크 인터페이스 장치의 가상머신 플로우 기반 큐 할당의 일 예를 도시한 도면,
도 5는 본 발명에 따른 네트워크 인터페이스 장치의 가상머신 플로우 기반 큐 할당의 다른 일 예를 도시한 도면,
도 6은 본 발명에 사용되는 가상머신 패킷의 일 예를 도시한 도면, 그리고,
도 7은 본 발명에 따른 가상 네트워크 환경을 위한 패킷 처리 방법의 일 예를 도시한 흐름도이다.
통상적 플로우 식별 방법은 수신한 패킷의 네트워크 전 계층의 트래픽 속성을 분석하여 기 설정된 네트워크 통신 정책에 따라 분류함을 따른다. 일 예로, 수신한 패킷의 송신 노드 주소, 목적지 주소, 세션 및 응용 계층 등의 속성을 요소로 기 설정된 통신 정책에 의하여 하나의 플로우를 구분할 수 있다. 통상적인 NIC는 네트워크로부터 수신한 패킷의 상위 계층의 트래픽 특성을 분석하여 플로우를 식별하고, 식별한 플로우를 다중 프로세서를 통해 병렬 처리한다. 본 발명에서의 NIC는 종래의 다양한 터널링과 같은 기법 등을 이용하여 통상의 네트워크 패킷 프레임에 인캡슐레이션(encapsulation)된 목적지 가상머신으로 향하는 가상 머신 네트워크 환경에서 생성된 패킷이 복수의 가상 머신에 효과적으로 전달될 수 있도록 가상화 환경 네트워크 계층(Layer) 정보에 따라 플로우를 식별하고, 식별한 플로우를 다중 프로세서를 통해 병렬 처리한다.
가상화 환경 네트워크 계층이란 가상 머신으로 형성된 네트워크 계층을 의미하며, 가상화 환경 네트워크 계층 정보는 가상 머신으로 형성된 네트워크 계층 내 패킷 전송을 위하여 물리적 네트워크 프레임에 인캡슐레이션된 가상 머신으로 형성된 네트워크 계층 정보를 의미한다. 이하에서는 본 실시 예에서 사용되는 가상화 환경 네트워크 계층 정보에 기초하여 식별된 패킷을 가상머신 패킷(Virual Machine Packet)이라고 한다. 가상머신 패킷은 물리적 네트워크에서 일반 통신 프로토콜에 의하여 인식되어 원활한 전송이 이루질 수 있도록 물리적 네트워크 프레임에 인캡슐레이션 된다. 또한 가상머신 페킷의 가상화 환경 즉, 가상머신간 네트워크 계층 정보를 이용하여 분류된 플로우를 가상머신 플로우(Virtual Machine flow)라고 명칭한다. 가상머신 플로우는 통신 서비스 구조 상 가상 머신에서 생성된 서비스 종단의 플로우로 설명된다.
이하에서, 첨부된 도면들을 참조하여 본 발명에 따른 네트워크 인터페이스 장치 및 패킷 처리 방법에 대해 상세히 설명한다.
도 1은 본 발명에 따른 네트워크 인터페이스 장치를 포함한 전체 시스템의 개략적인 구조를 도시한 도면이다.
도 1을 참조하면, 네트워크 인터페이스 장치는 네트워크 인터페이스 카드(Network Interface Card, NIC)(100)로 구현된다. 다만 네트워크 인터페이스 장치는 네트워크 인터페이스 카드(100)에 반드시 한정되는 것은 아니며, 서버 내외에서 하드웨어 또는 소프트웨어 등의 다양한 형태로 구현될 수 있다. 설명의 편의를 위하여 이하, 네트워크 인터페이스 장치를 NIC로 표현한다.
서버(120)는 복수 개의 가상 머신(150,152,154)과, 가상 스위치(140) 및 연결슬롯(130)을 포함한다. 가상 스위치(140)는 NIC(100)를 통해 수신한 가상머신 패킷을 목적지 가상 머신으로 전달한다. 연결슬롯(130)은 NIC(100)와 서버(120)를 연결하는 인터페이스이며, 일 예로 PCIe(Peripheral Component Interconnect Express)로 구현될 수 있다. 이 경우, NIC(100)는 PCIe 슬롯에 탈부착될 수 있다.
NIC(100)는 네트워크(110)로부터 수신한 가상머신 패킷에 대해 가상화 환경에서의 상위 계층의 트래픽 특성을 분석하여 가상머신 플로우를 식별하고, 식별한 가상머신 플로우를 다중 프로세서를 통해 병렬 처리한다. 가상머신 플로우는 가상머신 패킷이 인캡슐레이션 되어 있는 네트워크 패킷의 물리적 네트워크 프레임을 제거한 가상 네트워크 프레임에서의 트래픽 속성에 따라 분류된 가상 환경에서의 특정 트래픽으로 정의할 수 있다. 가상머신 플로우는 기 설정된 여러 정책에 따라 분류되고 식별될 수 있다. 예를 들어, 패킷분석부(310)는 가상 머신의 TCP 플로우를 가상머신 플로우로 식별할 수 있다. 가상머신 패킷의 구조에 대해서는 도 6을 참조하여 설명한다.
NIC(100)는 수신한 가상머신 패킷을 병렬 처리하기 위한 복수 개의 큐와 복수 개의 프로세서들을 포함하며, 큐의 크기와 개수 등은 고정되거나, 서버의 가상화 환경이나 프로세서들의 부하 등에 따라 동적으로 변경될 수 있다.
도 2는 본 발명에 따른 NIC의 자원을 동적으로 설정하는 방법의 일예를 도시한 도면이다
도 1 및 도 2를 함께 참조하면, NIC(100)가 서버(120)의 연결슬롯(130)에 부착되어 서버(120)와 연결되는 경우(S200), NIC(100)는 서버(120)로부터 가상 머신의 수를 포함한 가상화 환경 정보를 수신한다(S210). NIC(100)는 수신한 가상화 환경 정보에 따라 큐의 크기와 개수, 큐 그룹의 생성 등 자원을 동적으로 설정한다(S220).
예를 들어, NIC(100)가 서버(120)로부터 가상 머신이 4개라는 가상화 환경 정보를 수신하는 경우, NIC는 12개의 큐를 각 가상 머신별로 3개씩 할당할 수 있다. 가상 머신별 할당되는 큐의 개수나 각 큐의 크기 등은 기 설정된 규칙에 따라 다양하게 설정될 수 있다.
도 3은 본 발명에 따른 NIC의 일 실시예의 구성을 도시한 도면이다.
도 3을 참조하면, NIC(100)는 패킷수신부(300), 패킷분석부(310), 메모리(320), 복수 개의 큐(330), 복수 개의 프로세서(340), 스케줄러(350), 모니터링부(360) 및 큐 관리부(370)를 포함한다. 패킷수신부(300) 등을 포함한 각 구성요소 사이의 연결선은 본 발명의 이해를 돕기 위한 하나의 예일 뿐이며, 큐 관리부(370)와 모니터링부(360) 사이의 연결, 스케줄러(350)와 복수 개의 큐(330) 사이의 연결 등 다양한 연결 관계가 설정될 수 있음은 물론이다.
패킷수신부(300)는 외부 네트워크에서 일반적인 이더넷 프레임으로 인식되도록 종래의 다양한 터널링과 같은 방법 등을 통해 가상머신이 인캡슐레이션된 패킷을 수신하면 이를 디캡슐레이션하여 물리적 네트워크에 해당하는 헤더 부분을 제거하고 가상화 환경에서의 데이터 패킷 프레임을 복원한다.
패킷분석부(310)는 디캡슐레이션된 가상머신 패킷의 가상머신 플로우를 식별한다. 가상머신 플로우를 식별하기 위해서는 가상화 환경에서의 데이터링크계층(vL2 레이어)만이 아니라 네트워크계층(vL3 레이어) 이상의 상위 계층까지 해석되어야 한다. 이를 위해, 패킷분석부(310)는 DPI(Deep Packet Insepection) 과정을 통해 디캡슐레이션된 가상머신 패킷의 가상 데이터링크계층(vL2 레이어)부터 가상 애플리케이션계층(vL7 레이어)까지 분석하여, 가상머신 플로우를 식별한다. 가상머신 플로우 식별을 위한 가상머신 패킷에 대한 분석은 가상 데이터링크계층부터 가상 애플리케이션계층 모두를 분석하는 것으로 한정되는 것은 아니며, 가상머신 플로우 식별 정책에 따라 분석의 범위는 달라질 수 있다.
메모리(320)는 가상머신 패킷과 패킷분석부(310)에 의해 식별된 가상머신 플로우 정보 등을 저장하고, 또한 가상머신 플로우와 큐 사이의 맵핑관계를 나타내는 플로우 테이블을 저장하고 관리한다.
일 실시 예로, 패킷수신부(300)은 디캡슐레이션된 가상머신 패킷을 메모리(320)에 저장하고, 가상머신 패킷의 저장 사실을 패킷분석부(310)에 통보한다. 그러면 패킷분석부(310)는 메모리에 저장된 해당 가상머신 패킷에 대한 가상머신 플로우 식별을 수행한다. 즉, 새로운 가상머신 패킷의 수신 사실을 알게 된 패킷분석부(310)는 기 설정된 정책에 따라 해당 가상머신 패킷의 가상머신 플로우 특성을 식별하여 그 정보를 저장하고 저장 사실을 스케줄러(350)에 알려준다.
스케줄러(350)는 식별된 가상머신 플로우를 해당 가상머신 플로우 큐에 할당하며, 가상머신 플로우 큐를 다중 프로세서(340)에 병렬 할당한다. 보다 구체적으로, 스케줄러(350)는 메모리(320)에 저장된 플로우 테이블을 참조하여 가상머신 패킷의 가상머신 플로우가 맵핑된 큐를 검색하고, 메모리(320)에 저장된 가상머신 패킷을 검색된 큐에 전달한다. 만약 테이블에 해당하는 가상머신 플로우가 존재하지 않는다면, 스케줄러(350)는 종래의 다양한 방법을 통해 가상머신 플로우를 특정 큐에 할당하고, 가상머신 플로우와 큐 사이의 맵핑관계를 플로우 테이블에 저장한다.
스케줄러(350)는 가상 머신별 가상머신 패킷을 가상머신 플로우 단위로 큐잉 할 수 있다. 예를 들어, 가상머신 플로우와 큐 사이의 맵핑 관계를 설정할 때, 제1 가상 머신과 제2 가상 머신을 향하는 동일한 성격(예를 들어, 동일한 QoS 우선순위)의 제1 플로우와 제2 플로우가 동일한 큐에 할당될 수 있다. 본 발명이 이러한 경우를 배제하는 것은 아니나 병렬 처리의 효율을 보다 높이기 위하여, 가상머신 플로우를 가상 머신별로 서로 다른 그룹의 큐에 할당하는 것이 바람직하다. 다시 말해, 스케줄러(350)는 도 4와 같은 가상 머신별로 큐들을 그룹핑하는 경우에, 제1 가상 머신에 대한 제1 플로우는 제1 그룹(400)의 큐에 가상머신 플로우 단위로 할당하고, 제2 가상 머신에 대한 제2 플로우는 제2 그룹(410)의 큐에 가상머신 플로우 단위로 할당한다.
예를 들어, 새로운 가상머신 패킷이 메모리(320)에 적재되었다는 사실과 해당 가상머신 패킷의 가상머신 플로우 정보를 수신하면, 스케줄러(350)는 플로우 테이블을 참조하여 가상머신 플로우가 어떤 가상머신 플로우 큐에 할당되어 있는지를 검색하고, 메모리(320)에 적재되어 있는 가상머신 패킷을 검색된 해당 큐에 적재할 수 있도록 한다. 만약 식별된 가상머신 플로우에 대한 정보를 플로우 테이블에서 찾을 수 없는 경우, 스케줄러(350)는 해당 가상머신 패킷을 기 설정된 정책에 따라 해당 가상 머신에 속한 큐 중 하나에 할당할 수 있다. 여기서 기 설정된 정책은 실시 예에 따라 다양할 수 있으며, 일 예로 플로우 친화도를 고려하여 가상머신 플로우 큐를 선택하는 정책, 가상머신 패킷에 해당하는 가상 머신 내 큐 중 가장 부하가 적은 큐를 선택하는 정책, 사용율이 가장 낮은 프로세서에 할당되어 있는 큐를 선택하는 정책 등이 있다.
복수 개의 큐(330)는 각각 적어도 하나 이상의 가상머신 플로우와 맵핑된다. 가상머신 플로우 단위로 큐잉하는 경우 프로세서 친화도가 높아지며, 이에 따라 병렬 처리의 효율도 증가한다. 복수 개의 큐(330)는 가상 머신별로 적어도 하나 이상의 큐를 포함하는 그룹으로 분할될 수 있다. 또한 복수 개의 큐(330)는 도 5와 같이 적어도 두 개 이상의 파티션으로 분할될 수 있다.
스케줄러(350)는 복수 개의 프로세서 중에서 선택된 프로세서일 수 있다. 예를 들어, 전체 프로세서들(370) 중 특정 프로세서(350)를 스케줄러로 지정하거나, 각 프로세서들의 부하 정도를 모니터링부(360)를 통해 파악한 후 부하가 가장 적은 프로세서를 스케줄러(350)로 선택할 수 있다. 이 외에도 스케줄러를 선택하기 위한 다양한 방법이 적용될 수 있다. 프로세서 중 스케줄러가 지정되는 경우, 제어부(미도시)는 스케줄링이 필요할 때마다 인터럽트 신호를 발생하여 스케줄러로 지정된 프로세서에 전송하고, 인터럽트 신호를 수신한 프로세서는 하던 작업을 중지하고 스케줄러로서 동작을 완료한 후 다시 이전 작업을 수행한다.
복수 개의 프로세서들(340)은 각 큐에 저장된 가상머신 패킷을 병렬 처리하여 서버의 가상 머신으로 전송한다. 복수 개의 프로세서들(340)은 적어도 하나 이상의 큐와 연결된다.
예를 들어, 복수 개의 프로세서들(340)은 플로우 친화도를 고려하여 큐와 연결된다. 다시 말해, 동일하거나 유사한 가상머신 플로우 속성을 갖는 가상머신 패킷을 저장하는 큐들을 묶어 프로세서와 연결한다.
또 다른 예로서, 복수 개의 프로세서들은 가상 머신별로 큐와 연결될 수 있다. 도 4를 참조하면, 제1 프로세서는 제1 가상 머신에 할당된 제1 내지 제3 큐와 연결되고, 제2 프로세서는 제2 가상 머신에 할당된 제4 내지 제6 큐와 연결되고, 제3 프로세서는 제3 가상 머신에 할당된 제7 및 제8 큐에 연결될 수 있다.
또 다른 예로서, 제1 프로세서는 제1 가상 머신에 할당된 제1 내지 제3 큐와 함께 제2 가상 머신에 할당된 제4 큐와 연결되고, 이 경우 제2 프로세서는 제2 가상 머신에 할당된 제5 및 제6큐와 연결될 수 있다. 즉, 프로세서는 적어도 둘 이상의 가상 머신에 할당된 큐의 전부 또는 일부와 연결될 수도 있다.
모니터링부(360)는 프로세서(340)와 큐(330)의 부하 등을 포함한 각종 상태를 모니터링한다.
큐 관리부(370)는 모니터링 결과에 따라 큐들을 도 5와 같이 복수의 파티션으로 분할하고 각 파티션마다 스케줄러를 두어 처리하거나, 복수의 큐를 하나로 합치거나 분할하고, 또는 가상 머신에 할당된 큐의 수를 늘리거나 줄이는 등 큐의 크기와 개수 등을 조정한다. 큐 관리부는 앞서 살핀 도 2의 과정을 통해 파악된 서버의 가상화 환경에 따라서도 가상 머신별 큐의 개수나 크기 등을 동적으로 설정할 수 있다.
도 4는 본 발명에 따른 NIC의 가상머신 플로우 기반 큐 할당의 일 예를 도시한 도면이다.
도 4를 참조하면, 큐들(330)은 가상 머신별로 구분된다. 예를 들어, 제1 내지 제3 큐(400)는 제1 가상 머신에 할당되고, 제4 내지 제6 큐는 제2 가상 머신에 할당되고, 제7 및 제8 큐는 제3 가상 머신에 할당된다. 스케줄러는 가상 머신별로 가상머신 플로우를 참조하여 큐잉을 수행한다.
예를 들어, 제1 가상 머신으로 향하는 가상머신 플로우를 우선순위에 따라 식별하는 경우에, 스케줄러는 제1 가상 머신에 할당된 제1 내지 제3 큐(400)에 우선순위를 기반으로 가상머신 패킷을 분류하여 저장한다.
도 5는 본 발명에 따른 NIC의 가상머신 플로우 기반 큐 할당의 다른 일 예를 도시한 도면이다.
도 5를 참조하면, 큐들(330)은 적어도 둘 이상의 파티션(520,530)으로 구분된다. 각 파티션(520,530)마다 스케줄러(500,510)가 할당된다. 예를 들어, 제1 파티션(520)에 제1 스케줄러(500)가 할당되고, 제2 파티션(530)에 제2 스케줄러(510)가 할당된다. 각 스케줄러(500,510)는 할당된 파티션에 대하여 독립적으로 스케줄링 작업을 병렬 수행한다. 스케줄러는 앞서 설명한 바와 같이 복수 개의 프로세서들(370) 중 소정의 방법에 의해 선택된 프로세서일 수 있다.
예를 들어, 도 3과 같이 하나의 스케줄러에 의한 스케줄링 수행 중에, 모니터링부에서 측정한 큐의 부하분포가 기 설정된 임계치 이하로 떨어지면, 큐의 재분배 또는 프로세서 재할당이 결정될 수 있다. 또는 네트워크로부터 수신되는 가상머신 패킷의 통계적 양과 NIC 내의 총 프로세서에 의해 수행되는 프로세서 능력을 계산하여 프로세서의 부하가 어느 임계치 이하이면 큐의 재분배 또는 프로세서 재할당이 결정될 수 있다. 큐의 재분배 또는 프로세서 재할당시, 도 5와 같이 큐가 복수 개의 파티션으로 구분되고 추가적인 스케줄러의 지정이 필요한 경우, 가장 부하가 적은 프로세서를 추가 스케줄러로 지정할 수 있다.
각 파티션에 속한 큐들은 가상 머신 기반으로 그룹핑(540)될 수 있으며, 그룹(540) 내 큐들은 가상머신 플로우 기반으로 분류될 수 있다. 이 경우, 파티션- 가상 머신별 그룹 - 각 그룹별 플로우 단위 큐의 계층적 구조가 생성된다. 이 때, 복수 개의 큐는 가상 머신별로 적어도 하나 이상의 큐를 포함하는 복수의 큐 그룹으로 분할되고, 스케줄러는 가상머신 패킷에 대해, 가상머신 패킷의 목적지가 가상 머신을 기초로 복수 개의 큐 그룹 중 하나를 선택하여 할당하고, 가상머신 플로우를 기초로 상기 선택된 큐 그룹 내 큐를 할당할 수도 있다.
도 6은 본 발명에 사용되는 가상머신 패킷의 일 예를 도시한 도면이다.
도 6을 참조하면, 가상머신 패킷은 물리적 네트워크 프레임(610), 터널링 필드(620), 가상 네트워크 프레임(630), 데이터 필드(600)를 포함한다.
물리적 네트워크 프레임(610)은 L2, IP, TCP 등 종래의 물리적 네트워크의 계층을 나타내는 정보를 포함한다. 터널링 필드(620)는 터널링 정보 등을 나타낸다. 가상 네트워크 프레임(630)은 가상 네트워크 환경에서의 각 계층(vL2 ~vL7 등)에 대한 정보를 포함한다. 데이터 필드(600)는 데이터를 포함한다.
도 6의 가상머신 패킷의 구조는 본 발명의 이해를 돕기 위한 하나의 예일 뿐, 본 발명이 이에 한정되는 것은 아니며 가상 네트워크 환경을 위한 다양한 형태의 가상머신 패킷의 구조를 정의하여 사용할 수 있다.
또한 메모리에 저장된 가상머신 패킷의 구조와 큐에 저장된 가상머신 패킷의 구조는 실시 예에 따라 동일하거나 다를 수 있다. 예를 들어, 네트워크로부터 수신한 도 6의 가상머신 패킷을 가상화 환경에서 처리 가능한 최적의 구조로 변경하거나 가상머신 패킷의 필드 중 가상화 환경에서 불필요한 필드의 일부 또는 전부를 삭제하는 등 다양하게 설계 변경 가능하여 큐에 저장할 수 있다.
도 7은 본 발명에 따른 가상머신 네트워크 환경을 위한 패킷 처리 방법의 일 예를 도시한 흐름도이다.
도 7을 참조하면, 본 발명의 네트워크 장치는 가상머신 패킷을 수신하면 (S700), DPI 과정 등을 통해 가상머신 패킷을 분석하여 가상머신 패킷이 전달되어야 할 목적지 가상 머신과 가상머신 플로우를 식별한다(S710). 본 발명의 네트워크 장치는 가상 머신별로 할당된 적어도 한 개 이상의 큐들에 대해 가상머신 플로우 단위로 해당하는 큐에 가상머신 패킷을 저장한다(S720). 그리고 본 발명의 네트워크 장치는 복수 개의 프로세서들을 통해 각 큐에 저장된 가상머신 패킷을 처리하여 가상 머신으로 전송한다(S730).
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 다양한 형태의 ROM, RAM, CDROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허 청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100 : 네트워크 인터페이스 카드 110 : 네트워크
120 : 서버 130 : 연결슬롯
140 : 가상스위치 150 : 가상 머신
300 : 패킷수신부 310 : 패킷분석부
320 : 메모리 330 : 큐
340 : 프로세서 350 : 스케줄러
360 : 모니터링부 370 : 큐 관리부
600 : 데이터 610 : 물리적 네트워크 프레임
620 : 터널링 630 : 가상 네트워크 프레임

Claims (2)

  1. 복수 개의 가상 머신이 구현된 서버와 연결된 네트워크 인터페이스 장치에 있어서,
    하나 이상의 프로세서;
    상기 하나 이상의 프로세서와 적어도 하나 이상의 큐가 연결된 복수 개의 큐;
    물리적 망을 통해 가상 머신으로 전송할 가상머신 패킷을 수신하는 패킷수신부; 및
    상기 패킷수신부로부터 수신한 가상머신 패킷의 가상머신 플로우를 식별하는패킷분석부를 포함하고,
    상기 가상머신 패킷은 물리적 네트워크 프레임에 인캡슐레이션되어 가상머신 네트워크 환경에서의 트래픽 정보를 포함하되,
    상기 가상머신 패킷을 수신하면, 상기 가상머신 패킷에 인캡슐레이션 되어 있는 가상머신 네트워크의 L3 이상의 상위 계층이 포함된 정보를 기초로 가상머신 플로우를 식별하는 것을 특징으로 하는 네트워크 인터페이스 장치.
  2. 하나 이상의 프로세서와 상기 하나 이상의 프로세서와 적어도 하나 이상의 큐가 연결된 복수 개의 큐를 포함하는 복수 개의 가상 머신을 위한 가상머신 패킷 처리 방법에 있어서,
    물리적 망을 통해 복수 개의 가상 머신으로 전송할 가상머신 패킷을 수신하는 단계; 및
    수신한 가상머신 패킷의 가상머신 플로우를 식별하는 단계를 포함하고,
    상기 가상머신 패킷은 물리적 네트워크 프레임에 인캡슐레이션되어 가상머신 네트워크 환경에서의 트래픽 정보를 포함하되,
    상기 가상머신 패킷을 수신하면, 상기 가상머신 패킷에 인캡슐레이션 되어 있는 가상머신 네트워크의 L3 이상의 상위 계층이 포함된 정보를 기초로 가상머신 플로우를 식별하는 단계를 더 포함하는 것을 특징으로 하는 복수 개의 가상 머신을 위한 가상머신 패킷 처리 방법.
KR1020160086043A 2016-07-07 2016-07-07 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법 KR101773528B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160086043A KR101773528B1 (ko) 2016-07-07 2016-07-07 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160086043A KR101773528B1 (ko) 2016-07-07 2016-07-07 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150144474A Division KR101639797B1 (ko) 2015-10-16 2015-10-16 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20170045100A KR20170045100A (ko) 2017-04-26
KR101773528B1 true KR101773528B1 (ko) 2017-08-31

Family

ID=58705113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160086043A KR101773528B1 (ko) 2016-07-07 2016-07-07 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR101773528B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026447B1 (ko) * 2017-12-12 2019-09-27 주식회사 시큐아이 가상 네트워크를 위한 오프로드 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150200847A1 (en) * 2014-01-10 2015-07-16 Arista Networks, Inc. Method and system for implementing a network policy using a vxlan network identifier

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150200847A1 (en) * 2014-01-10 2015-07-16 Arista Networks, Inc. Method and system for implementing a network policy using a vxlan network identifier

Also Published As

Publication number Publication date
KR20170045100A (ko) 2017-04-26

Similar Documents

Publication Publication Date Title
KR101583325B1 (ko) 가상 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법
KR101639797B1 (ko) 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법
US8638799B2 (en) Establishing network quality of service for a virtual machine
CN108337188B (zh) 通信量和负载感知动态队列管理
US8111707B2 (en) Compression mechanisms for control plane—data plane processing architectures
US8392565B2 (en) Network memory pools for packet destinations and virtual machines
US7792140B2 (en) Reflecting the bandwidth assigned to a virtual network interface card through its link speed
US7613132B2 (en) Method and system for controlling virtual machine bandwidth
US7460558B2 (en) System and method for connection capacity reassignment in a multi-tier data processing system network
US7512706B2 (en) Method, computer program product, and data processing system for data queuing prioritization in a multi-tiered network
EP3949299A1 (en) Quality of service in virtual service networks
CN114079638A (zh) 多协议混合网络的数据传输方法、装置和存储介质
US20190116129A1 (en) USING ATTRIBUTE VECTOR FOR DYNAMIC CONTENT-BASED ATTRIBUTE QoS FOR NETWORKING AND INTERCONNECT FABRICS
US8478877B2 (en) Architecture-aware allocation of network buffers
US9584446B2 (en) Memory buffer management method and system having multiple receive ring buffers
KR101773528B1 (ko) 가상머신 패킷을 처리하는 네트워크 인터페이스 장치 및 그 방법
KR20180134219A (ko) 가상머신 패킷의 처리방법과 그 장치
US20180091447A1 (en) Technologies for dynamically transitioning network traffic host buffer queues
US10568112B1 (en) Packet processing in a software defined datacenter based on priorities of virtual end points
US11528187B1 (en) Dynamically configurable networking device interfaces for directional capacity modifications
US11218394B1 (en) Dynamic modifications to directional capacity of networking device interfaces
KR102091152B1 (ko) 계층적 네트워크에서 다중코어를 이용한 패킷 처리 방법 및 그 장치
KR101850749B1 (ko) 멀티 코어 기반 nic에서 동적 패킷 버퍼 할당 방법
KR20190069032A (ko) 가상플로우의 인식 방법과 그 장치
KR102112270B1 (ko) 다중계층 네트워크 환경에서 패킷을 처리하는 방법 및 그 장치

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant