KR20200063943A - 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법 - Google Patents

기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법 Download PDF

Info

Publication number
KR20200063943A
KR20200063943A KR1020190026890A KR20190026890A KR20200063943A KR 20200063943 A KR20200063943 A KR 20200063943A KR 1020190026890 A KR1020190026890 A KR 1020190026890A KR 20190026890 A KR20190026890 A KR 20190026890A KR 20200063943 A KR20200063943 A KR 20200063943A
Authority
KR
South Korea
Prior art keywords
machine learning
data
vnf
resource
learning
Prior art date
Application number
KR1020190026890A
Other languages
English (en)
Other versions
KR102366139B1 (ko
Inventor
홍원기
유재형
이도영
김희곤
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to US16/691,505 priority Critical patent/US11341372B2/en
Publication of KR20200063943A publication Critical patent/KR20200063943A/ko
Application granted granted Critical
Publication of KR102366139B1 publication Critical patent/KR102366139B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/83Admission control; Resource allocation based on usage prediction
    • H04L47/823
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/82Miscellaneous aspects
    • H04L47/826Involving periods of time

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Signal Processing (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 네트워크 가상화 환경에서 핵심기술을 제공하는 VNF의 자원수요예측을 수행함에 있어서 기계학습 기법을 사용하여 예측하는 기술에 관한 것이다.
본 발명은 VNF 자원 정보를 예측하기 위해 개별 VNF의 자원만을 데이터로 활용하는 것이 아니라 직간접적으로 관계가 되는 주변의 VNF들의 정보만을 이용하여 SFC 크기, 전체 네트워크의 크기에 상응되게 기계학습 소요시간을 줄일 수 있도록 한다.
또한, 본 발명은 VNF 자원 정보 예측을 위해 기계학습을 사용하며 여러 기계학습 모델 중에서 타겟 디펜던트 LSTM 모델을 사용하는데 이 모델은 한 데이터 객체 자체에 대한 기계학습이 가능하다.
또한, 발명에 따른 학습모델은 어텐션 기반으로 기계학습이 진행되어 핵심이 되는 정보를 선택적으로 판별하여 기계학습을 진행할 수 있으며, 어스펙트 임베딩을 사용하여 어텐션 학습이 어스펙트 측면에서 작동되므로 기계학습이 타겟이 되는 VNF에 중심이 맞춰지도록 설정할 수 있다.

Description

기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법{METHOD FOR PREDICTION DEMAND OF VIRTUAL NETWORK FUNCTION RESOURCE}
본 발명은 가상 네트워크 기능의 자원을 예측하는 기술에 관한 것으로, 더욱 상세하게는 다양한 기계학습의 기술을 이용하여 서비스 펑션 체인의 자원 정보로부터 가상 네트워크 기능의 자원을 예측할 수 있도록 한 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법에 관한 것이다.
종래 기술에 의한 네트워크 관리는 전적으로 사람의 판단에 의존하게 되어 있어 네트워크 관리에 전문적인 지식을 가진 운용관리 인력을 필요로 한다. 따라서, 전문적인 운용인력을 확보하는데 많은 비용이 소모되며, 네트워크가 복잡해질수록 더 높은 전문성과 비용이 요구되는 문제점이 있다.
이 문제를 해결하기 위해 최근에는 네트워크 관리에 기계학습 기술을 도입하여 운용과 관리를 자동화하려는 시도가 많이 이루어지고 있다. 네트워크 관리에서 가장 핵심적인 부분은 네트워크의 자원을 효율적으로 관리하는 것이며 이는 가상 네트워크에서 서비스를 제공하는데 사용되고 있는 다양한 가상 네트워크 기능(VNF: Virtual Network Function)들의 자원수요를 정확히 예측하여 관리하는 문제로 귀결된다. 현재 기계학습을 이용하여 VNF의 자원수요를 예측하는 기술은 태동 단계에 있어 예측의 정확도가 높지 않다는 문제를 가지고 있다. 이유는 아직까지 VNF를 예측하는데 있어 기계학습을 적용하는 전반적인 지식이 부족하며 VNF의 자원 수요를 예측하는데 사용되는 정보와 적용하는 기계학습 모델이 적합하지 않기 때문인 것으로 판단된다.
네트워크의 자원수요 예측을 위해 제안된 종래의 방법들은 개별 VNF의 자원정보를 사용하는 것으로서, 이 경우 주변의 다른 VNF의 정보나 전체 네트워크 정보 같은 환경 정보를 이용하지 못하므로 그 정확도가 낮은 것으로 알려져 있다.
또한, 전체 네트워크 정보를 이용할 경우에는 기계학습에 소요되는 시간이 너무 길어지며, 부적합한 정보를 사용하는 경우에는 기계학습을 사용해도 정확도가 감소되는 문제가 발생한다.
본 발명이 해결하고자 하는 과제는 가상화된 네트워크 환경에서 높은 정확도를 가지는 기계학습 기반의 VNF 자원예측 모델을 구현하기 위하여 SFC의 데이터를 활용하고 새로운 모델을 사용하여 기계학습 문제를 해결하는데 있다.
본 발명이 해결하고자 하는 다른 과제는 개별 VNF의 자원수요를 SFC를 이루고 있는 다른 VNF들의 상세한 자원 데이터를 바탕으로 기계학습을 진행하며, 타겟(target) VNF의 자원수요 예측에 라벨링(Labeling) 데이터를 이용하는 것이다.
본 발명이 해결하고자 하는 또 다른 과제는 VNF의 자원수요를 정확히 예측하여 VNF 자원자동관리(Auto Scaling), VNF 배포(VNF Deployment), VNF 이동(VNF Migration), VNF 서비스 펑션 체인(VNF Service Function Chain) 등의 네트워크 구성 및 관리 기능을 기계학습을 이용하여 수행할 수 있도록 하는 것이다.
상기 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법은, (a) 기계학습에 사용될 데이터의 특성을 나타내는 피쳐 데이터를 분류하여 정의하고, 상기 기계학습의 모델로서 LSTM을 적용하는 단계; (b) 타겟에 따라 다른 형태의 데이터가 LSTM(Long Short Term Memory)에 입력되는 형태의 타겟 디펜던트 LSTM 모델을 정의하고, 전체 피쳐 데이터셋트를 학습하는 동안 중요한 피쳐 데이터에 대해서 어텐션 파라미터를 부여하어 학습하는 단계; (c) 어텐션 학습을 하는 도중에 어스펙트 임베딩을 사용하여 타겟이 되는 VNF(Virtual Network Function) 위주로 어떠한 VNF가 밀접한 연관성을 지니는지 학습하는 단계; (d) SFC(Service Function Chain) 내의 VNF들의 자원정보를 바탕으로 타겟이 되는 상기 VNF의 자원정보를 예측할 때 주 데이터 외에 보조 데이터를 추가적으로 사용하는 단계; 및 (e) 일련의 학습과정을 통해 획득된 자원예측의 결과값 중에서 어텐션으로 얻은 결과값과 마지막 LSTM 셀에서 얻는 결과값을 결합하여 최종 결과값을 생성하는 단계를 포함하는 것을 특징으로 한다.
본 발명은 VNF 자원 정보를 예측하기 위해 SFC 정보를 활용하되, 타겟이 되는 VNF 하나만의 자원 정보를 이용하는 것이 아니라 직간접적으로 관계가 되는 주변의 VNF들의 정보만을 이용하므로 SFC 크기, 전체 네트워크의 크기에 상응되게 기계학습 소요시간을 줄일 수 있는 효과가 있다.
또한, 본 발명은 VNF 자원 정보 예측을 위해 기계학습을 사용하며 여러 기계학습 모델 중에서 타겟 디펜던트 LSTM 모델을 사용하는데 이 모델은 기존의 LSTM이 여러 데이터로 구성된 전체 데이터 대한 예측값만을 학습할 수 있는 것과 달리 한 데이터 객체 자체에 대한 기계학습이 가능한 이점이 있다.
또한, 발명에서 제안하는 학습모델은 어텐션 기반으로 기계학습이 진행되어 핵심이 되는 정보를 선택적으로 판별하여 기계학습을 진행할 수 있으며, 어스펙트 임베딩을 사용하여 어텐션 학습이 어스펙트 측면에서 작동되므로 기계학습이 타겟이 되는 VNF에 중심이 맞춰지도록 설정할 수 있는 이점이 있다.
또한, 본 발명은 컨텐츠 임베딩을 통해 기존의 알고 있는 SFC, VNF의 종류에 대한 정보나, 시계열 상태 데이터를 이용함으로써 학습모델이 기존의 학습모델에 비하여 10~20% 높은 정확도를 얻게 되는 이점이 있다.
또한, 본 발명에서는 네트워크 관리자가 VNF 이동, VNF 자원 자동관리, VNF 배포, SFC와 같은 기능을 기계학습을 이용하여 수행할 수 있으므로 전반적인 네트워크 관리를 자동화 할 수 있는 효과가 있다.
도 1은 본 발명의 일시예에 따른 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법의 흐름도.
도 2는 본 발명의 일실시예에 따른 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법의 데이터 흐름을 나타낸 개략도.
도 3은 본 발명에 따른 VNF 환경에서의 SFC를 나타낸 설명도.
도 4는 본 발명의 일실시예에 따른 피쳐 데이터의 포맷도.
도 5는 본 발명의 일실시예에 따른 LSTM 및 타겟 디펜던트 LSTM의 블록도.
도 6은 본 발명의 일실시예에 따른 CAT-LSTM의 구조도.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
네트워크 가상화(network virtualization) 기술은 공용으로 사용되는 물리 네트워크 인프라 상에서 다수의 사용자 별로 가상 네트워크를 생성하여 독립적으로 사용하도록 하는 기술이다. 네트워크 가상화는 여러가지 방법으로 구현할 수 있으나, 최근에는 소프트웨어 정의 네트워킹(SDN, Software Defined Networking) 패러다임을 활용하여 네트워크 가상화를 실현하려는 연구가 많이 진행되고 있다.
소프트웨어 정의 네트워킹은 기존의 하드웨어 기반의 네트워킹 방식에서 진일보하여 관리자가 네트워크 자체를 프로그래밍 할 수 있게 하며, 이를 바탕으로 동적인 네트워크 환경에서 민첩성(agility), 탄력성(elasticity), 유연성 (flexibility) 등을 장점으로 제공할 수 있다.
본 발명에서는 가상 네트워크에서 서비스를 제공하는데 사용되고 있는 다양한 VNF들의 자원수요를 정확히 예측하여 관리하기 위하여 기계학습을 사용한다. 여기서, 기계학습은 데이터를 바탕으로 사람의 도움없이 컴퓨터 소프트웨어가 주어진 환경을 스스로 학습하여 문제를 해결하는 방법을 말하며 크게 지도학습(supervised learning),비지도학습(unsupervised learning), 강화학습(reinforcement learning)방법으로 구분한다. 최근 들어, 기계학습에서는 여러 비선형 변환기법을 통한 추상화로 사람이 판단하는 것과 유사한 방법을 사용하는 딥러닝 기술이 지도학습(Supervised Learning), 비지도학습(Reinforcement Learning) 및 강화학습(Reinforcement Learning)에 적용되어 높은 성능 향상을 보이고 있다.
네트워크 가상화 기술은 물리 네트워크 자원을 공유하여 사용자 별로 네트워크를 구축하는 데 필요한 비용을 절감 시킬수 있으며 네트워크 관리자가 목적에 따라 동적으로 네트워크 구성을 변경하여 운용할수 있도록 하게 한다.
다만, 동적으로 네트워크 관리를 처리 할 수 있음에도 사람이 직접 판단하여 관리하는 과정은 같으며 이 과정에서 시간 비용이 발생하여 네트워크 가상화로 얻을 수 있는 이익을 최대화 하지 못하고 있다.
최근에는 이러한 문제를 해결하기 위해 기계 학습(machine learning) 기술을 도입하여 사람의 도움없이 네트워크가 스스로 학습하여 관리를 동적으로 처리하도록하는 기술개발을 시도하고 있다. 가상 네트워크 관리에서 핵심적이고 필수적인 문제는 자원 관리를 최적화하는 것이다.
가상 네트워크 환경에서는 서비스를 제공하는 장치들을 가상 네트워크 기능(VNF, Virtual Network Function)이라 부르며, 여러 개의 VNF가 순차적으로 연결되어 하나의 서비스를 처리할 때 이를 서비스 기능 체인(SFC : Service Function Chain)이라 부르고 있다. 자원관리 최적화 문제는 이러한 SFC 환경에서 VNF의 자원 수요를 예측하여 적절한 자원을 동적으로 할당하는 것으로서 서비스 중단이 일어나는 것을 방지하면서 네트워크 운용 비용을 절감하는 것을 목표로 한다.
본 발명은 다양한 기계학습의 기술을 이용하여 서비스 펑션 체인의 자원 정보로부터 각 VNF의 자원 수요를 효과적으로 예측하는 방법에 관한 것이다. 제안하는 방법은 기계학습에서 많이 사용되는 순환 신경망 네트워크(RNN : Recurrent Neural Network)의 일종인 LSTM(Long Short Term Memory)의 구조를 어텐션(attention)과 임베딩(embedding) 기술을 활용하면서 변경한 것으로서 CAT-LSTM(Content & Aspect Embedding Attentive Target Dependent LSTM) 이라고 명명을 하였다. 이 모델을 이용하면 VNF 자원 수요 예측의 정확도를 높이고 학습에 소요되는 시간을 줄일 수 있다.
본 발명은 네트워크 가상화 환경에서 핵심기술을 제공하는 VNF의 자원수요예측을 기계학습을 적용하는 것을 제안하고 있다. 본 발명은 기계학습을 사용하여 VNF 자원 예측을 하는 전반적인 과정에 대해서 제안하고 있으며 본 발명을 이루기 위해서 최적화된 새로운 모델도 제안하고 있다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. 이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명에 따른 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법의 흐름도이다.
도 1을 참조하면, 본 발명에 따른 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법은, 기계학습에 사용될 피쳐 데이터를 분류하여 정의하고, 기계학습의 모델로서 LSTM을 적용하는 단계(S1,S2), 타겟 디펜던트 LSTM 모델을 정의하고, 피쳐 데이터에 어텐션 파라미터를 부여하어 학습하는 단계(S3,S4), 어텐션 학습을 하는 도중에 타겟이 되는 VNF 위주로 어떠한 VNF가 밀접한 연관성을 지니는지 학습하는 단계(S5), SFC내의 VNF들의 자원정보를 바탕으로 타겟이 되는 VNF의 자원정보를 예측할 때 주 데이터 외에 보조 데이터를 추가적으로 사용하는 단계(S6) 및 학습과정을 통해 획득된 자원예측의 결과값 중에서 어텐션으로 얻은 결과값과 마지막 LSTM 셀에서 얻는 결과값을 결합하여 최종 결과값을 생성하는 단계(S7)를 포함한다.
본 발명은 VNF의 자원수요를 정확하게 예측하기 위해 VNF 하나의 데이터만을 고려하는 것이 아니라 SFC의 데이터도 함께 활용한다. VNF는 가상 네트워크 환경에서 기존의 네트워크 장비들의 기능을 소프트웨워로 구현하여 VM(Virtual Machine)위에 배포한 것이다. 도 3에서와 같이 VNF들은 VNF 하나의 기능으로서 작동하기 보다는 여러 VNF들이 순차적으로 연결되어 하나의 SFC을 만들어 서비스를 제공할 수 있다. SFC를 이루고 있는 VNF들은 하나의 서비스를 제공하기 위해 여러 VNF들과 연결되어 있는데, 이러한 특징 때문에 각 VNF들은 서로의 자원과 동작 상태에 영향을 주고 받는다.
데이터 정의단계(S1)는 기계학습에 사용될 데이터의 특성을 나타내는 피쳐 데이터를 분류하여 정의하는 단계이다. 이 데이터 정의단계(S1)를 도 2 내지 도 4를 참조하여 상세히 설명하면 다음과 같다.
본 발명에서는 기계학습으로써 지도학습을 하며, 이때 데이터의 특성을 나타내는 피쳐(Feature) 데이터와 함께 데이터에 대한 분류기준(정답)으로 사용되는 라벨링(Labeling) 데이터를 사용한다. 기계학습을 수행함에 있어서, 입력으로 피쳐 데이터와 라벨링 데이터를 받은 후 이 둘의 관계를 파악하여 새로운 피쳐 데이터를 입력값으로 받았을 때, 이에 대응하는 라벨링을 결과값으로 생성한다.
피쳐 데이터에는 여러 개의 VNF가 순차적으로 연결되어 하나의 서비스를 처리하는 도 3과 같은 SFC의 종류, SFC안의 각 개별 VNF간의 네트워크 정보, VNF가 사용하는 자원상태정보가 있다. 본 발명에서는 아래의 [표 1]에서와 같이 피쳐 데이터를 타겟(Target), VNF, 컨텐츠(Content)의 세 가지로 분류하여 정의한다.
Figure pat00001
타겟 데이터는 타겟이 되는 VNF의 고유번호를 가지고 있으며, VNF 데이터는 각 VNF의 CPU, 메모리, 디스크 기타 자원상태정보를 가지고 있다. 그리고 컨텐츠 데이터는 SFC 종류(서비스 종류)와 같이 SFC에 대한 정보를 가지고 있다. 본 발명에 따른 기계학습에서는 시간별 데이터에 크게 의존하지 않으면서 네트워크의 관계 정보를 사용하여 지도학습을 수행하지만 컨텐츠 데이터에 이전시간의 SFC나 VNF의 자원정보를 포함시킴으로써 추가적인 성능향상을 이룰 수 있다.
라벨링 데이터는 자원의 상태에 대한 판단정보 예컨대, 부족, 적정 및 과다의 정보가 사용된다. 판단 정보를 사용하는 이유는 기계학습의 결과값으로 VNF의 구체적인 자원 상태 데이터를 반환하기보다는 자원의 상태를 부족,적정 및 과다로 분류하여 반환함으로써 VNF이동, VNF배포 등의 네트워크 관리 모듈에 적용하기가 편리하기 때문이다. 라벨링 데이터는 기본적으로 자원 상태에 대한 세 단계의 라벨링을 사용하고 있으나 사용자 정의에 따라 부족, 다소부족, 적정, 다소과다 및 과다 등과 같이 다섯 단계 또는 그보다 좀더 세밀하게 분류된 일곱 단계의 라벨링을 사용할 수 있다.
기계학습에 사용될 데이터는 상기 [표 1]에 제시된 것과 같으며, 이 데이터에는 타겟 VNF가 속한 SFC의 전체 VNF 자원 정보, 추가적인 정보로 활용할 컨텐츠 데이터, 타겟 VNF의 고유 번호, 라벨링 값이 포함될 수 있다. 기계학습에 사용될 입력 데이터는 네트워크 환경에서 컬렉트D(CollectD)와 같은 라이브러리를 통해 수집되며 기계학습에 사용되기 전에 손실된 값이나 오류값 조정을 위해 위해 전처리 과정을 거친다. 이 과정에서 사용자는 학습할 SFC의 길이나 고유 정보에 대해서 임의의 제한을 두어 세부적인 조건을 추가로 설정할 수 있으며, 조건에 따라서 기계학습은 모든 SFC를 학습하거나 일부의 SFC만을 학습 할 수도 있다.
전체 학습에서는 트레인 세트(Train Set)와 테스트 세트(Test Set)의 두 종류의 데이터 세트를 필요로 하며, 트레인 세트는 모델이 학습하는데 사용되고 테스트 세트는 실제 적용하여 정확도를 계산하는데 사용된다. 트레인 세트는 상기에서 언급된 모든 데이터가 세트를 이룬 것이며 테스트 세트는 라벨링 값을 제외한 모든 데이터들이 사용된 결과값으로 라벨링 값을 생성한다. 상기 각 세트에 대해서 과적합(Overfitting) 문제를 피하기 위해 일부 데이터 값을 버리게 하는 드롭아웃(Dropout)을 사용하며 이의 수치로써 동등하게 0.9를 부여하여 10%의 데이터값을 사용하지 않게 된다. 본 발명에서는 데이터 세트에 대하여 한번의 학습에 모든 데이터를 사용하는 방법인 풀배치(full-batch)를 사용하지 않고, 한번의 학습에 전체 데이터 중 일부 데이터만을 사용하는 방법인 미니배치(mini-batch)를 사용하여 64개의 데이터 세트 단위로 그래디언트(Gradient) 학습을 진행한다.
LSTM 적용단계(S2)는 기계학습의 모델로서 LSTM을 적용하되 RNN의 단점을 극복하기 위해 RNN의 히든 스테이트(Hidden State)에 셀 스테이트(Cell State)를 추가한 형태를 갖는 LSTM을 적용하는 단계이다. 이 LSTM 적용단계(S2)를 도 5를 참조하여 설명하면 다음과 같다.
본 발명에서 사용한 기계학습 모델은 신경망 네트워크(Neural Network)모델이며, 이는 기계학습 도구(예: Keras, Tensorflow, Pytorch 등)를 이용하여 구현할 수 있다. 상기 신경망 네트워크는 사람의 신경이 신호를 전달 하듯이 입력 데이터가 신경망 층(Neural Layer)을 지나가면서 기계학습을 하는 방식이다. 상기 기계학습 모델로써 RNN의 일종인 LSTM을 개선한 방법을 사용한다. RNN은 신경망 네트워크 중에서 하나의 모델로서 FNN(Feed Forward Neural Network) 처럼 데이터가 레이어(Layer)에서 레이어로 단방향으로만 이동하는 것이 아니라 레이어의 내부에서 순환하면서 학습이 가능한 모델이다. 이러한 모델의 구조는 각 레이어가 메모리를 갖는 효과를 주게 되어 데이터 간의 관계를 활용하는데 도움이 된다. 즉, 일반적인 신경망 네트워크에서는 입력 데이터들이 모두 독립적이라고 가정하지만, RNN에서는 이전에 입력된 데이터가 이후에 입력된 데이터에 영향을 주므로 관계성을 가지는 데이터들에 대해서 보다 정확한 학습 결과를 만들어 낸다. LSTM은 RNN의 단점을 극복하기 위해 RNN의 히든 스테이트(Hidden State)에 셀 스테이트(Cell State)를 추가한 형태를 가지며, 이는 다음의 [수학식 1]로 표현된다.
Figure pat00002
Figure pat00003
Figure pat00004
상기 [수학식 1]을 참조하면,
Figure pat00005
Figure pat00006
는 각각 웨이트 매트릭스(Weight matrix)와 바이어스(bias)이며, LSTM의 forget, input, output 게이트의 파라미터 값이다. LSTN이 상기 [수학식 1]과 같은 형태를 가지므로, RNN이 현재 기계학습에 사용되는 데이터와 이전의 기계학습에 사용된 데이터 간의 거리가 멀어질 때 역전파 그래디언트가 줄어드는 문제(Vanishing Gradient Problem)를 해결할 수 있다.
기계학습 모델에서는 입력값으로 주어지는 VNF들의 자원 정보에 대해서 100의 차원(Dimension)값을 할당하며, LSTM에 100개의 히든 레이어 수를 할당하여 결과값 역시 100의 차원 값을 갖도록 한다. 기계학습 모델에서는 차원의 크기에 따라 기계학습에 사용되는 파라미터 크기가 대응되게 변한다. 예를 들어, 기계학습 모델에서 차원의 크기가 커지면 커질수록 파라미터의 크기도 늘어난다.
타겟-디펜던트 LSTM 정의 단계(S3)는 LSTM이 본 발명의 학습모델로 사용하는데 문제점을 해소하기 위해 타겟에 따라 다른 형태의 데이터가 LSTM에 입력되는 형태의 타겟 디펜던트(Target Dependent) LSTM 모델을 정의하는 단계이다. 이 타겟-디펜던트 LSTM 정의단계(S3)를 첨부한 도 5 및 도 6을 참조하여 상세히 설명하면 다음과 같다.
하지만, LSTM 역시 본 발명의 학습모델로 사용하는데 몇가지 문제점이 존재하므로, 이 문제점들을 극복하기 위해 기계학습모델로서 어텐션, 어스펙(Aspect) 및 컨텐츠 임베딩(Content Embedding) 기술을 활용한 타겟 디펜던트(Target Dependent) LSTM 모델을 사용한다.
본 발명의 기계학습모델은 입력데이터로써 개별 VNF의 자원 데이터만 이용하는 것이 아니라 SFC를 함께 이용하므로 필요한 서비스에 해당하는 전체 VNF의 자원 데이터를 선택적으로 유용하게 활용할 수 있다.
하지만, 이와 같은 경우 라벨링값이 SFC의 전체 피쳐 데이터에 대응하게 되어 목표로 하고 있는 개별 VNF와의 관계에 대한 기계학습이 상대적으로 부족하게 되어 기계학습의 성능이 떨어지게 되는데, 그 이유를 도 5및 다음의 [표 2] 내지 [표 4]를 참조하여 상세히 설명하면 다음과 같다.
[표 2]는 SFC에 대한 라벨링 값이 기계학습된 경우 입력값의 형태를 나타낸 것이다.
Figure pat00007
[표 2]를 참조하면, 6개의 VNF로 구성된 서로 다른 2개의 SFC(SFC1, SFC3)가 LSTM의 입력 데이터로 사용된다. 이와 같은 예시는 SFC 전체에 대해서 자원사용량을 예측하는 것으로 아무런 문제 없이 라벨링값과 피쳐데이터 간의 입력데이터 특징에 대한 관계성을 찾아가며 SFC에 대한 라벨링 값이 학습된다.
[표 3]은 LSTM 사용 시 동일한 입력 데이터에 대해 다른 라벨링 값이 학습된 경우 입력값의 형태를 나타낸 표이다.
Figure pat00008
다시 말해서, [표 3]은 본 발명에서 목표로 하는 SFC안의 개별 VNF의 자원 예측에 대한 문제 해결을 위해 일반적인 LSTM을 사용한 예를 나타낸 것이다. [표 2]와 달리 [표 3]에서의 문제점은 SFC 전체에 대한 자원 예측이 아닌 타겟이 되는 하나의 VNF에 대하여 자원 예측을 실시하여야 하는데, 이때 타겟이 되는 VNF는 다르지만 LSTM에 사용되는 입력데이터는 동일하기 때문에 라벨링값과 피쳐데이터 간의 관계성을 잘 찾아낼 수가 없게 되며 정확도가 떨어지는 결과를 초래하는 것이다.
[표 4]는 TD-LSTM 사용 시 타겟으로 입력 데이터를 분리하여 각각 학습한 경우 다른 모양의 데이터에 대해 라벨링이 학습된 것을 나타낸 표이다.
Figure pat00009
[표 4]는 일반적인 LSTM이 아닌 타겟 디펜던트 LSTM을 사용하여 문제를 해결한 예를 나타낸 것이다. 이 경우에서는 같은 데이터를 가지고 기계학습을 진행하지만 타겟에 따라 다른 형태의 데이터가 LSTM에 입력된다. 이렇게 입력된 데이터는 타겟이 되는 VNF를 기준으로 두 개의 데이터로 분리된다. 분리된 각각의 데이터는 타겟 데이터를 포함하고 있으며, 타겟 VNF를 기준으로 오른쪽으로 분리된 데이터는 [표 4]에서와 같이 데이터 순서가 좌우로 반전되어 입력된다.
즉, [표 4]에서 오른쪽 LSTM에 입력되는 데이터는 원래라면 VNF3, VNF4, VNF5, VNF6가 되지만 좌우 반전이 일어나 VNF6, VNF5, VNF4, VNF3의 형태로 데이터가 입력되는 것이다. LSTM에 VNF 데이터가 어떻게 입력되는 지에 대해서는 도 5에 상세히 표현되어 있다. 도 5의 (a)는 [표 3]을 표현한 것이며 도 5의 (b) 는 [표 4]를 표현한 것으로 타겟 디펜던트 LSTM에 데이터가 입력되는 모습을 나타낸 것이다.
본 발명에서 제안하는 기계학습 모델은 다음의 [수학식 2] 및 도 6으로 나타낼 수 있다. 이 기계학습 모델은 파이썬 2 혹은 파이썬 3을 프로그래밍 언어로 사용하고 텐서플로우(Tensorflow) 또는 케라스(Keras) 또는 파이토치(Pytorch) 등을 프레임워크로 사용하여 구현할 수 있다.
타겟 디펜던트 LSTM은 기존의 LSTM에서 타겟이 되는 입력값을 기준으로 입력 데이터를 나누어 두 개의 LSTM에 각자 학습하여 결합(Concatenate)을 하는 방법이다. 본 발명에서 제안하는 입력 데이터에는 타겟 VNF가 속해있는 SFC내의 전체 VNF 자원 정보 데이터로서 서비스가 미리 설정된 순서대로 VNF들의 자원 정보 데이터가 나열되어 있다. 이 데이터들은 라벨링을 원하는 VNF의 위치를 기준으로 두개의 입력 데이터로 나뉘어지며, 기준 데이터에서 오른쪽으로 잘려진 데이터들은 좌우 반전을 진행 한뒤 입력값으로 LSTM에 사용된다. 이러한 입력 데이터는 [수학식 2] 및 도 6에서
Figure pat00010
로 표현되고, [수학식 2]의 수식 (2)에서 좌우 반전이 리버스(Reverse)로 표현되었다. 도 6에서는 LSTM의 입력값으로 각 NFV의 정보에
Figure pat00011
의 값이 추가되어 사용되고 있는 것을 알 수 있다. 여기서,
Figure pat00012
는 SFC의 정보가 되며, 이외에도 직접적으로 타겟이 되는 VNF의 정보를 사용할 수도 있다. LSTM의 각 셀(Cell)들의 출력(Output) 값은 각각
Figure pat00013
Figure pat00014
로 정의되며 이 값은 어스펙트 임베딩(Aspect Embedding)이 추가 되어 총 200의 디멘션(Dimension) 크기를 가지게 된다.
Figure pat00015
Figure pat00016
Figure pat00017
Figure pat00018
어텐션 학습 단계(S4)에서 수행되는 어텐션 학습은 기계학습에 사용되는 기술중의 하나로써 전체 피쳐 데이터셋트(feature data set)를 학습하는 동안 중요한 피쳐에 대해서 어텐션 파라미터를 부여하어 학습하는 방법이다. 이 어텐션 학습단계(S4)를 도 6을 참조하여 상세히 설명하면 다음과 같다.
어텐션 학습의 예로써, 식당의 맛을 평가하는 학습이 있다면 식당 주방장의 성별이나 종업원들의 나이와 같이 필요없는 데이터에 대하여 주의를 주지 않고, 재료나 손님 수와 같이 직접적으로 연관되어 있는 데이터에 대해서는 집중하여 학습을 하는 방법이다. 본 발명은 VNF의 자원요구량을 예측하는 것으로 SFC 내의 여러 VNF 자원 데이터를 사용하고 있는데, 이때 어텐션을 이용하면 자원 예측에 대한 결과값이 어떤 VNF와 관련이 많은지 학습을 할 수 있으므로 더 연관성이 많은 VNF의 자원 데이터에 대해 집중을 함으로써 예측 정확도를 올릴 수 있다.
예컨대, [수학식 2]의 수식 (1),(2)에서와 같이
Figure pat00019
Figure pat00020
를 구할 때 어텐션 파라미터 값
Figure pat00021
,
Figure pat00022
Figure pat00023
를 사용하는 기계학습을 진행한다. [수학식 2]의 수식 (3), (4)에서는 소프트맥스(Softmax) 연산을 통해 최종 어텐션을 구하는 것을 나타내고, 수식 (5)에서
Figure pat00024
는 구한 어텐션을 원래 히든 레이어(Hidden Layer)에 각각 적용하고 결합(concatenate)하는 것을 나타내고 있다. 어텐션을 통해서 모델은 기계학습에 도움이 되는 데이터에 대해 높은 평가치를 부여하면서 재차 학습을 진행하게 된다.
어스펙트 임베딩 사용단계(S5)는 어텐션 학습을 하는 도중에 어스펙트 임베딩을 사용하여 타겟이 되는 VNF 위주로 어떠한 VNF가 밀접한 연관성을 지니는지 학습하는 단계이다. 이 어스펙트 임베딩 사용단계(S5)를 도 6을 참조하여 상세히 설명하면 다음과 같다.
어스펙트 임베딩의 학습방법은 어텐션이 자원예측 결과값과 각 VNF의 연관성을 학습하는 것 뿐만 아니라 타겟이 되는 VNF와 다른 주위의 VNF들과의 연관성을 학습하는 효과를 주게 되어 보다 정밀한 예측 정확도를 얻을 수 있게 된다. 이와 같이 어스펙트 임베딩을 어텐션에 추가하여 사용하는 목적은 상기 제3단계(S3)에서 LSTM이 아닌 타겟 디펜던트 LSTM을 사용하여 문제를 해결하기 위한 목적과 동일한다.
이때, 어스펙트 임베팅 차원(Dimension)에 대해서도 100의 차원값을 사용한다. 그 이유는 LSTM의 결과값이 100개의 히든 레이어(hidden layer)를 통해서 100의 크기를 가지는 파라미터 벡터를 가진 것과 같게 어스펙트 값도 동일한 크기의 파라미터 벡터로 부여하기 위함이다. 상기 100의 차원값은 여러 네트워크 환경의 구성에 따라 충분히 변경될 수 있다.
LSTM의 각 셀들의 출력값은 각각
Figure pat00025
Figure pat00026
로 정의되며 이 값들에 어스펙트 임베딩이 추가되어 총 200의 디멘젼(Dimension) 크기를 가지게 된다. 상기 [수학식 2]에서 수식 (1)과 (2)는 이러한 모습을 표현한 식으로
Figure pat00027
은 어스펙트 차원 크기를 가진 단위 벡터([1,1,1,1...1])이며,
Figure pat00028
Figure pat00029
을 의미한다.
컨텐츠 임베딩 사용단계(S6)는 SFC내의 VNF들의 자원정보를 바탕으로 타겟이 되는 VNF의 자원정보를 예측할 때 주 데이터 외에 보조 데이터를 추가적으로 사용하여 학습 성능을 향상시키는 단계이다. 이 컨텐츠 임베딩 사용단계(S6)를 도 6을 참조하여 상세히 설명하면 다음과 같다.
컨텐츠 임베딩(Content Embedding)은 기존에 이미 알고 있는 데이터나 배경적인 데이터와 같이 추가적으로 사용할 수 있는 데이터를 임베딩하여 사용하는 것으로 대부분의 경우 높은 성능 향상을 가져다 준다. 본 발명에 따른 컨텐츠 임베딩에서는 SFC내의 VNF들의 자원정보를 바탕으로 타겟이 되는 VNF의 자원 정보 예측을 하게 되는데, 이때 주 데이터로 사용되는 VNF의 자원 정보 외에 보조적으로 전체 SFC의 종류, SFC 체인 길이, 그리고 시계열 데이터를 추가적으로 활용하여 성능 향상을 얻을 수 있게 한 것이다.
본 발명에 따른 컨텐츠 임베딩은 상기 도 6에서와 같이 표현되며 하나의 SFC의 VNF들은 같은 내용의 정보를 컨텐츠 임베딩으로 얻게 된다. 만약, VNF의 시계열 정보를 컨텐츠 임베딩으로 활용하면 모든 VNF에 대한 시계열 정보가 똑같이 각 VNF 자원정보에 임베딩되거나, 자신의 정보만 하나씩 서로 다르게 임베딩될 수 있다. 또한, 본 발명에 따른 컨텐츠 임베딩에서는 어텐션 학습 성능을 향상시키기 위해 어스펙트 임베딩이 한번 더 추가적으로 사용될 수도 있다.
다시 말해서, 컨텐츠 임베딩은 추가적인 정보를 제공해주는 역할을 하며 기본적인 설정으로 100의 차원의 크기를 가지고 하나의 추가 정보를 임베딩하는 것으로 정한다. 이때 여러 추가 정보를 임베딩할 수도 있으며 각각의 차원의 크기 역시 네트워크 환경의 구성에 따라 충분히 변경될 수 있다. VNF 자원 정보와 같이 직접적으로 LSTM에 정보를 바로 입력하지 않고 굳이 컨텐츠 임베딩을 추가적인 정보를 붙여주는 이유는 데이터의 방향성과 크기에 대한 문제 때문이다. 여러 주변의 VNF들의 자원 정보를 통해서 자신의 자원 정보를 예측할 때, 데이터의 방향성이 조금 다른 SFC의 종류와 같은 정보가 들어올 때에는 컨텐츠 임베딩을 사용하여 데이터를 활용하는 것이 보다 좋은 결과를 제공할 수 있다.
결과값 생성단계(S7)는 일련의 학습과정을 통해 획득된 자원예측의 결과값 중에서 어텐션으로 얻은 결과값과 마지막 LSTM 셀에서 얻는 결과값을 결합하여 최종 결과값을 생성하는 단계이다.
상기와 같은 일련의 과정(S1-S6)을 통해 획득된 자원예측의 결과값은 바로 사용이 되는 것이 아니라 [수학식 2]의 수식 (7)의 값을 변환되는데, 이 변환 과정은 어텐션으로 얻은 결과값과 마지막 LSTM 셀에서 얻는 결과값을 결합하여 기계학습하는 과정을 포함할 수 있다. 이와 같은 변환 과정을 통해 획득된 자원예측의 결과값은 어텐션이나 LSTM만을 사용하여 획득한 결과값에 비하여 높은 정확도를 갖는다.
그 이유는 어텐션이 LSTM과 달리 시계열적인 정보 즉, VNF간의 거리에 관한 정보값을 이용하지 않는 것을 보충해 주어 두 학습 결과가 상호보완적인 결과값을 갖기 때문이다.
[수학식 2]에서 수식 (8)은 수식 (7)에서 얻은 값을 소프트맥스 연산을 통하여 레이블링하는 것이며 이때 소프트맥스(Softmax) 파라미터가 사용된다.
[수학식 2]에서 수식 (10)은 손실 함수(Loss Function)식으로 지금까지의 학습데이터에 여러 파라미터들을 통해 얻은 스코어함수(score function, y값)가 실제로 적용되었을 때 얼마나 높은 정확도를 가지는지 파라미터들의 질을 측정하는 함수 식이다. 이 수식 (10)에 크로스 엔트로피(Cross-Entropy) 식이 사용되었으며 L2 정형화(Regularization)가 사용되어 결과값을 보정해 준다.
손실함수의 그라디엔트 값을 업데이트하는데 사용되는 최적화(Optimization)를 위해 아담 옵티마이저(AdamOptimizer)를 사용하고 학습률은 0.01을 가진다. 모델의 평가는 5 폴드 크로스 밸리데이션(5 Fold Cross Validation)을 사용하여 각 스텝당 20번의 반복으로 평가가 이루어진다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세히 설명하였지만, 본 발명의 권리범위가 이에 한정되는 것이 아니라 다음의 청구범위에서 정의하는 본 발명의 기본 개념을 바탕으로 보다 다양한 실시예로 구현될 수 있으며, 이러한 실시예들 또한 본 발명의 권리범위에 속하는 것이다.
S1-S7 : 제1-7단계

Claims (10)

  1. (a) 기계학습에 사용될 데이터의 특성을 나타내는 피쳐 데이터를 분류하여 정의하고, 상기 기계학습의 모델로서 LSTM을 적용하는 단계;
    (b) 타겟에 따라 다른 형태의 데이터가 LSTM(Long Short Term Memory)에 입력되는 형태의 타겟 디펜던트 LSTM 모델을 정의하고, 전체 피쳐 데이터셋트를 학습하는 동안 중요한 피쳐 데이터에 대해서 어텐션 파라미터를 부여하어 학습하는 단계;
    (c) 어텐션 학습을 하는 도중에 어스펙트 임베딩을 사용하여 타겟이 되는 VNF(Virtual Network Function) 위주로 어떠한 VNF가 밀접한 연관성을 지니는지 학습하는 단계(S5);
    (d) SFC(Service Function Chain) 내의 VNF들의 자원정보를 바탕으로 타겟이 되는 상기 VNF의 자원정보를 예측할 때 주 데이터 외에 보조 데이터를 추가적으로 사용하는 단계; 및
    (e) 일련의 학습과정을 통해 획득된 자원예측의 결과값 중에서 어텐션으로 얻은 결과값과 마지막 LSTM 셀에서 얻는 결과값을 결합하여 최종 결과값을 생성하는 단계;를 포함하는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  2. 제1항에 있어서, 상기 (a) 단계의 상기 피쳐 데이터는,
    타겟(Target), VNF(Virtual Network Function) 및 컨텐츠(Content)로 분류되는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  3. 제1항에 있어서, 상기 (a)단계는,
    상기 피쳐 데이터에 대한 분류기준으로써 라벨링 데이터를 추가로 사용하는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  4. 제1항에 있어서, 상기 (a)단계의 상기 기계학습에 사용될 데이터에는,
    타겟 VNF가 속한 SFC의 전체 VNF 자원 정보, 추가적인 정보로 활용할 컨텐츠 데이터, 타겟 VNF의 고유 번호 및 라벨링 값 중에서 하나 이상이 포함되는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  5. 제1항에 있어서, 상기 (a) 단계의 상기 LSTM은,
    히든 스테이트(Hidden State)에 셀 스테이트(Cell State)를 추가한 형태를 갖는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  6. 제1항에 있어서, 상기 (a) 단계의 상기 기계학습 모델은,
    입력데이터로써 개별 VNF의 자원 데이터와 SFC를 함께 이용하는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  7. 제1항에 있어서, 상기 (b) 단계의 상기 LSTM 모델은,
    어텐션(attention), 어스펙(Aspect) 및 컨텐츠 임베딩(Content Embedding) 기술을 활용한 타겟 디펜던트(Target Dependent) LSTM 모델인 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  8. 제1항에 있어서, 상기 (b) 단계는,
    상기 타겟 디펜던트 LSTM 모델을 정의하기 위하여,
    입력 데이터를 타겟이 되는 VNF를 기준으로 두 개로 분리하는 단계;
    상기 분리된 입력데이터를 각각의 LSTM에 학습하는 단계; 및
    상기 LSTM에 학습된 데이터를 서로 결합하는 단계;를 포함하는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  9. 제1항에 있어서, 상기 (d) 단계의 상기 보조 데이터는,
    전체 SFC의 종류, SFC 체인 길이 및 시계열 데이터 중에서 어느 하나 이상을 포함하는 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
  10. 제1항에 있어서, 상기 (e) 단계의 결과값은,
    상기 어텐션으로 얻은 결과값과 마지막 LSTM 셀에서 얻는 결과값을 결합하여 기계학습하는 과정을 통해 획득된 것을 특징으로 하는 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법.
KR1020190026890A 2018-11-23 2019-03-08 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법 KR102366139B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/691,505 US11341372B2 (en) 2018-11-23 2019-11-21 Method of predicting demand of virtual network function resources to which machine learning is applied

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180146500 2018-11-23
KR20180146500 2018-11-23

Publications (2)

Publication Number Publication Date
KR20200063943A true KR20200063943A (ko) 2020-06-05
KR102366139B1 KR102366139B1 (ko) 2022-02-22

Family

ID=71088766

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190026890A KR102366139B1 (ko) 2018-11-23 2019-03-08 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법

Country Status (1)

Country Link
KR (1) KR102366139B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112927507A (zh) * 2021-02-04 2021-06-08 南京航空航天大学 一种基于LSTM-Attention的交通流量预测方法
KR102266153B1 (ko) * 2021-02-05 2021-06-16 (주) 디엘토 인공지능 기반 자가심리분석플랫폼을 통한 소비자 선호도를 제공하는 방법
KR102266151B1 (ko) * 2021-02-05 2021-06-16 (주) 디엘토 인공지능 기반 투표플랫폼을 통한 소비자 선호도를 제공하는 방법
KR20220030193A (ko) * 2020-09-02 2022-03-10 고려대학교 산학협력단 서비스 기능의 자원 사용량 예측 방법 및 장치
WO2022173244A1 (ko) * 2021-02-10 2022-08-18 삼성전자 주식회사 가상 네트워크 기능의 고가용성을 위한 장치 및 방법
CN117455205A (zh) * 2023-12-25 2024-01-26 中国移动通信集团设计院有限公司 资源需求预测模型训练方法、系统及资源需求预测方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180020334A (ko) * 2016-08-17 2018-02-28 (주) 네오위드넷 통신 시스템에서 장애 예측 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180020334A (ko) * 2016-08-17 2018-02-28 (주) 네오위드넷 통신 시스템에서 장애 예측 장치 및 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220030193A (ko) * 2020-09-02 2022-03-10 고려대학교 산학협력단 서비스 기능의 자원 사용량 예측 방법 및 장치
CN112927507A (zh) * 2021-02-04 2021-06-08 南京航空航天大学 一种基于LSTM-Attention的交通流量预测方法
KR102266153B1 (ko) * 2021-02-05 2021-06-16 (주) 디엘토 인공지능 기반 자가심리분석플랫폼을 통한 소비자 선호도를 제공하는 방법
KR102266151B1 (ko) * 2021-02-05 2021-06-16 (주) 디엘토 인공지능 기반 투표플랫폼을 통한 소비자 선호도를 제공하는 방법
WO2022173244A1 (ko) * 2021-02-10 2022-08-18 삼성전자 주식회사 가상 네트워크 기능의 고가용성을 위한 장치 및 방법
CN117455205A (zh) * 2023-12-25 2024-01-26 中国移动通信集团设计院有限公司 资源需求预测模型训练方法、系统及资源需求预测方法
CN117455205B (zh) * 2023-12-25 2024-04-19 中国移动通信集团设计院有限公司 资源需求预测模型训练方法、系统及资源需求预测方法

Also Published As

Publication number Publication date
KR102366139B1 (ko) 2022-02-22

Similar Documents

Publication Publication Date Title
KR20200063943A (ko) 기계학습을 적용한 가상 네트워크 기능 자원의 수요 예측 방법
US11341372B2 (en) Method of predicting demand of virtual network function resources to which machine learning is applied
WO2021063171A1 (zh) 决策树模型的训练方法、系统、存储介质及预测方法
CN104951425B (zh) 一种基于深度学习的云服务性能自适应动作类型选择方法
CN109919316A (zh) 获取网络表示学习向量的方法、装置和设备及存储介质
CN113361680B (zh) 一种神经网络架构搜索方法、装置、设备及介质
Bergmann et al. Emulation of control strategies through machine learning in manufacturing simulations
CN110263979A (zh) 基于强化学习模型预测样本标签的方法及装置
Liu et al. Optimal cross-trained worker assignment for a hybrid seru production system to minimize makespan and workload imbalance
CN113360763A (zh) 基于人工智能的业务关注倾向预测方法及人工智能云系统
CN110110372B (zh) 一种用户时序行为自动切分预测方法
JP2018101399A (ja) 機械学習集団行列因子分解フレームワークを使った作業者適性の予測
CN112508723A (zh) 基于自动择优建模的金融风险预测方法、装置和电子设备
CN109583659A (zh) 基于深度学习的用户操作行为预测方法和系统
Saha et al. A fuzzy AHP approach to IT-based stream selection for admission in technical institutions in India
Priore et al. Learning-based scheduling of flexible manufacturing systems using support vector machines
CN116910567B (zh) 推荐业务的在线训练样本构建方法及相关装置
WO2021115082A1 (zh) 作业调度方法以及作业调度装置
WO2023185972A1 (zh) 数据处理方法、装置和电子设备
He et al. A nonlinear goal-programming-based DE and ANN approach to grade optimization in iron mining
KR20230141198A (ko) 다기관 예측 정확도 기반 멀티 레이블 앙상블 학습 방법 및 장치
CN108897608A (zh) 一种数据驱动可扩展的智能通用任务调度系统
Rand An introduction to agent-based modeling
Mitchell A Pragmatic Constructivist Approach to Studying Difference and Change in Management Accounting Practice
Karlik et al. Participative Cognitive Mapping as a Multidisciplinary Approach for Managing Complex Systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant