KR101936942B1 - 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법 - Google Patents

분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법 Download PDF

Info

Publication number
KR101936942B1
KR101936942B1 KR1020170108923A KR20170108923A KR101936942B1 KR 101936942 B1 KR101936942 B1 KR 101936942B1 KR 1020170108923 A KR1020170108923 A KR 1020170108923A KR 20170108923 A KR20170108923 A KR 20170108923A KR 101936942 B1 KR101936942 B1 KR 101936942B1
Authority
KR
South Korea
Prior art keywords
computing node
function
processing
resource
processor
Prior art date
Application number
KR1020170108923A
Other languages
English (en)
Inventor
김동현
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020170108923A priority Critical patent/KR101936942B1/ko
Priority to US16/114,716 priority patent/US10834018B2/en
Application granted granted Critical
Publication of KR101936942B1 publication Critical patent/KR101936942B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L47/00Traffic control in data switching networks
    • H04L47/70Admission control; Resource allocation
    • H04L47/78Architectures of resource allocation
    • H04L47/783Distributed allocation of resources, e.g. bandwidth brokers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1031Controlling of the operation of servers by a load balancer, e.g. adding or removing servers that serve requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer And Data Communications (AREA)

Abstract

본 발명은, 망 상에서 제공되는 클라우드 서비스를 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서, 컴퓨팅 가속화를 실현할 수 있는 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법을 제안한다.

Description

분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법{DISTRIBUTED COMPUTING ACCELERATION PLATFORM AND DISTRIBUTED COMPUTING ACCELERATION PLATFORM CONTROL METHOD}
본 발명은 클라우드 서비스(또는 클라우드 컴퓨팅) 기술에 관한 것으로, 더욱 상세하게는 망 상에서 제공되는 클라우드 서비스를 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서, 컴퓨팅 가속화를 실현할 수 기술에 관한 것이다.
클라우드 서비스(또는 클라우드 컴퓨팅)는, 인터넷 기술을 활용하여 망 상에 가상화된 IT(Information Technology) 자원을 기반으로 데이터 서비스를 제공하는 기술로서, 사용자가 데이터 분류, 계산, 처리 및 분석 등 다양한 연산 처리의 기능(프로세스), 저장공간 등과 같은 IT 자원을 필요한 만큼 빌려서 사용하는 개념의 기술이다.
이에 클라우드 서비스는, 사용자가 실제로 보유하고 있는 자원 수준에서는 수용할 수 없는 대용량의 데이터를 빠른 속도로 연산 처리할 수 있게 되고, 이를 기반으로 하는 고성능/고속의 데이터 서비스 이용을 가능하게 한다.
하지만, 기존의 클라우드 서비스는, 클라우드 서비스 제공을 위해 망 상에 구현된 하나의 서버 내부에 국한된 자원을 사용하는 고정적(Static) 구조로서, 유동적인 자원 연동(연계)이 불가능한 구조적 한계를 갖고 있다.
이에, 최근에는, 망 상에서 제공되는 클라우드 서비스를 코어망 및 코어망 보다 사용자(단말)에 가까운 위치의 엣지(Edge)에서 분산 제공하는 하이브리드(Hybrid)한 서비스 환경(이하, 분산형 클라우드 서비스 환경)을 구현하여, 엣지 및 코어망 간의 자원 연동(연계)이 가능해지도록 하기 위한 다양한 연구가 진행 중이다.
한편, 최근에는 초 저지연의 데이터 서비스를 요구하는 현 추세의 니즈(Needs)를 만족시키기 위해, 데이터 서비스의 환경을 다양하게 변경/운영하기 위한 노력들이 요구되고 있다. 이는, 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서 역시, 마찬가지이다.
이에, 본 발명에서는, 클라우드 서비스를 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서, 단순한 자원 연동(연계)에 그치지 않고, 초 저지연을 위한 컴퓨팅 가속화를 실현할 수 있는 새로운 하드웨어 리소스 관리 및 운영 기술을 제안하고자 한다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 망 상에서 제공되는 클라우드 서비스를 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서, 컴퓨팅 가속화를 실현할 수 있는 새로운 하드웨어 리소스 관리 및 운영 기술을 제공하는데 있다.
상기 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 분산형 컴퓨팅 가속화 플랫폼 장치는, 프로세서를 구비한 엣지컴퓨팅노드; 및 처리(process) 기능의 재설정이 가능한 처리 전용의 프로세서 다수 개로 구성된 제1리소스와, 고속 연산의 프로세서 다수 개로 구성되는 제2리소스를 구비한 코어컴퓨팅노드; 및 상기 코어컴퓨팅노드의 제1리소스 및 제2리소스 중 적어도 하나에 구성된 프로세서와 상기 엣지컴퓨팅노드의 프로세서에, 특정 서비스를 위한 특정 처리 기능을 설정하고 상기 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 상기 특정 서비스가 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드에 분산 구현되는 서비스 환경을 제공하는 제어노드를 포함한다.
바람직하게는, 상기 엣지컴퓨팅노드는, 처리(process) 기능의 재설정이 가능한 처리 전용의 FPGA(Field-Programmable Gate Arrays)카드와, 고속 연산의 GPU(Graphic Processing Unit)카드 중 적어도 하나를 구비할 수 있다.
바람직하게는, 상기 코어컴퓨팅노드에서, 상기 제1리소스는, 처리(process) 기능의 재설정이 가능한 처리 전용의 FPGA카드 다수 개로 구성되어 각 FPGA카드가 적어도 하나의 다른 FPGA카드와 선택적으로 연결되는 패브릭(fabric) 구조를 가지며, 상기 제2리소스는, 고속 연산의 GPU카드 다수 개로 구성되는 클러스터(cluster) 구조를 가질 수 있다.
바람직하게는, 상기 제어노드는, 상기 코어컴퓨팅노드의 제1리소스에 구성된 적어도 하나의 프로세서 및 상기 엣지컴퓨팅노드의 프로세서에, 처리 가속화를 위한 제1처리 기능, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 간 보안을 위한 제2처리 기능, 대용량 데이터 처리를 위한 제3처리 기능 중 적어도 하나를 설정하고, 상기 코어컴퓨팅노드의 제2리소스에서 적어도 하나의 프로세서를, 상기 제3처리 기능에 따른 대용량 데이터 처리의 고속 연산을 위해 설정할 수 있다.
상기 목적을 달성하기 위한 본 발명의 제 2 관점에 따른 분산형 컴퓨팅 가속화 플랫폼 운영 방법은, 특정 서비스에 대한 정보를 확인하는 단계; 처리(process) 기능의 재설정이 가능한 처리 전용의 프로세서 다수 개로 구성된 제1리소스 및 고속 연산의 프로세서 다수 개로 구성되는 제2리소스를 구비한 코어컴퓨팅노드와, 프로세서를 구비한 엣지컴퓨팅노드에서, 상기 특정 서비스의 정보를 근거로 프로세서를 선택하는 선택단계; 상기 코어컴퓨팅노드의 상기 선택한 프로세서와 상기 엣지컴퓨팅노드에서 상기 선택한 프로세서에, 상기 특정 서비스를 위한 특정 처리 기능을 설정하는 처리기능설정단계; 및 상기 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 상기 특정 서비스가 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드에 분산 구현되는 서비스 환경을 제공하는 서비스기능구현단계를 포함한다.
바람직하게는, 상기 선택단계는, 상기 특정 서비스의 정보를 근거로 확인되는 상기 특정 서비스의 요구 기능에 따라, 상기 코어컴퓨팅노드의 제1리소스 및 제2리소스에서 적어도 하나의 프로세서를 선택하고, 상기 엣지컴퓨팅노드에서 적어도 하나의 프로세서를 선택할 수 있다.
바람직하게는, 상기 처리기능설정단계는, 상기 코어컴퓨팅노드의 제1리소스에서 상기 선택한 적어도 하나의 프로세서에, 상기 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 간 보안을 위한 제2처리 기능, 대용량 데이터 처리를 위한 제3처리 기능 중 적어도 하나를 설정하고, 상기 코어컴퓨팅노드의 제2리소스에서 상기 선택한 적어도 하나의 프로세서를, 상기 제3처리 기능에 따른 대용량 데이터 처리의 고속 연산을 위해 설정할 수 있다.
바람직하게는, 상기 처리기능설정단계는, 상기 엣지컴퓨팅노드에서 상기 선택한 적어도 하나의 프로세서에, 상기 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 간 보안을 위한 제2처리 기능 중 적어도 하나를 설정할 수 있다.
바람직하게는, 상기 서비스기능구현단계는, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 각각에, 상기 특정 서비스를 위한 네트워크 기능 및 스토리지를 할당하고, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 각각에, 상기 특정 처리 기능 상에서 상기 네트워크 기능 및 스토리지를 활용하여 동작하게 될 서비스 기능을 설치할 수 있다.
이에, 본 발명에 따른 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 의하면, 클라우드 서비스를 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서, 컴퓨팅 가속화를 실현할 수 있는 하드웨어 리소스 관리 및 운영 기술을 도입함으로써, 초 저지연의 데이터 서비스 및 네트워크 서비스를 만족시키는 효과를 도출한다.
도 1은 본 발명이 적용되는 분산형 클라우드 서비스 환경을 나타내는 구성도이다.
도 2는 본 발명의 바람직한 실시예에 따른 분산형 컴퓨팅 가속화 플랫폼 장치에서 제공하는 하드웨어 리소스 풀(pool)을 보여주는 예시도이다.
도 3은 본 발명의 바람직한 실시예에 따른 분산형 컴퓨팅 가속화 플랫폼 장치에서 하드웨어 리소스 풀(pool)을 기반으로 리소스를 관리 및 운영하는 구조를 설명하는 예시도이다.
도 4는 본 발명의 바람직한 실시예에 따른 분산형 컴퓨팅 가속화 플랫폼 운영 방법을 보여주는 제어 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 설명한다.
도 1은 본 발명이 적용되는 분산형 클라우드 서비스 환경을 도시한 도면이다.
본 발명은, 기본적으로 망 상에 가상화된 IT(Information Technology) 자원을 기반으로 데이터 서비스를 제공하는, 클라우드 서비스(또는 클라우드 컴퓨팅)와 관련된다.
특히, 본 발명은, 도 1에 도시된 바와 같이, 망 상에서 제공되는 클라우드 서비스를 코어망 및 코어망 보다 사용자(단말)에 가까운 위치의 엣지(Edge)에서 분산 제공하는 하이브리드(Hybrid)한 서비스 환경(이하, 분산형 클라우드 서비스 환경)와 관련이 있다.
도 1에 도시된 바와 같이, 분산형 클라우드 서비스 환경은, 사용자 즉 단말(10)과, 코어망(1)에 위치하며, 단말(10)에서 실행되는 어플리케이션에 따른 데이터 연산 처리를 수행하여 클라우드 서비스를 제공하는 코어컴퓨팅노드(200)와, 단말(10) 및 코어컴퓨팅노드(200) 사이에 위치하며, 단말(10)에서 실행되는 어플리케이션에 따른 데이터 연산 처리 중 일부 데이터 연산 처리를 선택적으로 수행하여 클라우드 서비스를 코어컴퓨팅노드(200)와 분산 제공하는 엣지컴퓨팅노드(100)를 포함한다.
기존의 클라우드 서비스 환경은, 클라우드 서비스 제공을 위해 망 상에 구현된 하나의 서버 내부에 국한된 자원을 사용하는 고정적(Static) 구조로서, 유동적인 자원 연동(연계)이 불가능한 구조적 한계를 갖고 있다.
또한, 기존의 클라우드 서비스 환경은, 사용자(단말) 및 서버(가상화 자원) 간의 물리적 거리로 인한 서비스 지연(Latency)은 존재할 수 밖에 없다.
이에, 기존의 클라우드 서비스 환경은, 유동적인 자원 연동(연계)이 불가능한 구조적 한계 및 물리적 거리로 인한 서비스 지연으로 인해, 초 저지연의 데이터 서비스를 요구하는 현 추세의 니즈(Needs)를 만족시키는데 어려움이 있다.
하지만, 본 발명이 적용되는 분산형 클라우드 서비스 환경은, 클라우드 서비스를 엣지 및 코어망에서 분산 제공함으로써, 유동적인 자원 연동(연계)이 가능해지도록 구조적 한계 및 물리적 거리로 인한 서비스 지연을 개선하여, 초 저지연의 데이터 서비스를 어느 정도는 충족시키고 있다.
한편, 최근에는 초 저지연의 데이터 서비스를 만족(충족)시키기 위해, 데이터 서비스의 환경을 다양하게 변경/운영하기 위한 노력들이 요구되고 있다. 이는, 분산형 클라우드 서비스 환경에서 역시, 마찬가지이다.
이에, 본 발명에서는, 클라우드 서비스를 엣지 및 코어망에서 분산 제공하는 분산형 클라우드 서비스 환경에서, 단순한 자원 연동(연계)에 그치지 않고, 초 저지연을 위한 컴퓨팅 가속화를 실현할 수 있는 새로운 하드웨어 리소스 관리 및 운영 기술을 제안하고자 한다.
보다 구체적으로 본 발명에서는, 분산형 클라우드 서비스 환경에서 컴퓨팅 가속화를 위한 하드웨어 리소스 관리 및 운영 기술을 실현하는, 분산형 컴퓨팅 가속화 플랫폼을 제안한다.
기본적으로, 본 발명에서 제안하는 분산형 컴퓨팅 가속화 플랫폼은, 엣지컴퓨팅노드(100), 코어컴퓨팅노드(200), 그리고 엣지컴퓨팅노드(100) 및 코어컴퓨팅노드(200)의 하드웨어/소프트웨어 리소스를 관리 및 운영하는 제어노드(300)로 구성된다.
엣지컴퓨팅노드(100)는, 제어노드(300)에 의해 관리 및 운영될 수 있는 하드웨어 리소스로서의 프로세서(프로세싱 H/W)를 구비한다.
코어컴퓨팅노드(200) 역시, 제어노드(300)에 의해 관리 및 운영될 수 있는 하드웨어 리소스로서의 프로세서(프로세싱 H/W)를 구비한다.
이하에서는, 도 2를 참조하여, 본 발명의 분산형 컴퓨팅 가속화 플랫폼(장치)에서 제공하는 하드웨어 리소스 풀(pool)을 개념적으로 도식화하여 설명하겠다.
도 2에 도시된 바와 같이, 엣지컴퓨팅노드(100)는, 제어노드(300)에 의해 관리 및 운영될 수 있는 하드웨어 리소스로서의 프로세서를 구비한다.
일 실시예로서, 엣지컴퓨팅노드(100)는, 처리(process) 기능의 재설정이 가능한 처리 전용의 FPGA(Field-Programmable Gate Arrays)카드와, 고속 연산의 GPU(Graphic Processing Unit)카드 중 적어도 하나를 구비한다. 그리고, 엣지컴퓨팅노드(100)는, vCPU(Virtual Central Processing Unit)카드를 구비할 수 있다.
도 2에 도시된 바와 같이, 엣지컴퓨팅노드(100)는, 제어노드(300)에 의해 관리 및 운영될 수 있는 하드웨어 리소스로서의 프로세서를 구비한다.
일 실시예로서, 엣지컴퓨팅노드(100)는, 처리(process) 기능의 재설정이 가능한 처리 전용의 프로세서(예: FPGA카드) 다수 개로 구성된 제1리소스(201)와, 고속 연산의 프로세서(예: GPU카드) 다수 개로 구성되는 제2리소스(202)를 구비한다.
이때, 엣지컴퓨팅노드(100)에서 제1리소스(201)는, 처리(process) 기능의 재설정이 가능한 처리 전용의 FPGA카드 다수 개로 구성되어 각 FPGA카드가 적어도 하나의 다른 FPGA카드와 선택적으로 연결되는 패브릭(fabric) 구조를 가질 수 있다.
이렇게 엣지컴퓨팅노드(100)에서 제1리소스(201)가 FPGA카드들이 상호 선택적으로 연결되는 패브릭 구조를 가지면, 추후 특정 서비스를 제공하는 단위 호스트를 구현하는데 있어서, 특정 서비스의 요구에 따라 하드웨어 리소스인 FPGA카드를 단일 개 또는 2개 이상 사용하여 구현함으로써, 호스트 구조를 고정적(Static)이지 않고 다양하게 운영할 수 있게 된다.
아울러, 엣지컴퓨팅노드(100)에서 제2리소스(202)는, 고속 연산의 GPU카드 다수 개로 구성되는 클러스터(cluster) 구조를 가질 수 있다.
이렇게 엣지컴퓨팅노드(100)에서 제2리소스(202)가 GPU카드들의 클러스터 구조를 가지면, 추후 특정 서비스를 위한 대용량 데이터의 연산 공간 형성 시, 특정 서비스의 요구에 따라 하드웨어 리소스인 GPU카드를 클러스터링하여 구현함으로써, 데이터 연산 공간을 고정적(Static)이지 않고 다양하게 운영할 수 있게 된다.
이에, 본 발명의 분산형 컴퓨팅 가속화 플랫폼(장치)에서는, 도 2에 도시된 바와 같이 고정적(Static)이지 않고 다양하게 운영 가능한 구조의 하드웨어 리소스 풀(pool)을 기반으로, 컴퓨팅 가속화를 위한 하드웨어 리소스 관리 및 운영 기술을 실현한다.
제어노드(300)는, 엣지컴퓨팅노드(100) 및 코어컴퓨팅노드(200)의 하드웨어/소프트웨어 리소스를 관리 및 운영하는 노드로서, 클라우드 기술 기반의 물리/가상 자원을 관리 및 운영하는 VIM(Virtual Infrastructure Manager)에 해당될 수 있다.
이러한 제어노드(300)는, 코어컴퓨팅노드(200)의 제1리소스 및 제2리소스 중 적어도 하나에 구성된 프로세서와 엣지컴퓨팅노드(100)의 프로세서에, 특정 서비스를 위한 특정 처리 기능을 설정하고 상기 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 상기 특정 서비스가 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 분산 구현되는 서비스 환경을 제공한다.
일 실시예로서, 제어노드(300)는, 코어컴퓨팅노드(200)의 제1리소스(201)에 구성된 FPGA카드 및 엣지컴퓨팅노드(100)의 FPGA카드에, 처리 가속화를 위한 제1처리 기능, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능, 대용량 데이터 처리를 위한 제3처리 기능 중 적어도 하나를 설정할 수 있다.
여기서, 처리 전용의 프로세서 즉 FPGA카드에 설정되는 처리 기능이란, 특정한 하드웨어칩(또는 카드, 또는 소자)이 갖는 기능을 의미한다.
예컨대, 처리 가속화를 위한 제1처리 기능은, 처리 가속화를 위해 사용되고 있는 특정한 하드웨어칩(또는 카드, 또는 소자), 예컨대 OVS(Open vSwitch), OVS+DPDK(Data Plane Development Kit)가 갖는 기능을 의미할 수 있다.
그리고, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능은, 보안을 위해 사용되고 있는 특정한 하드웨어칩(또는 카드, 또는 소자), 예컨대 IPSEC(IP seccurity protocol)이 갖는 기능을 의미할 수 있다.
대용량 데이터 처리를 위한 제3처리 기능은, 대용량 데이터 처리를 위해 사용되고 있는 특정한 하드웨어칩(또는 카드, 또는 소자), 예컨대 ML(Machine Learning), DL(Deep Learning)이 갖는 기능을 의미할 수 있다.
즉, 제어노드(300)는, 코어컴퓨팅노드(200)의 제1리소스(201)에 구성된 FPGA카드 및 엣지컴퓨팅노드(100)의 FPGA카드에, 처리 가속화를 위한 제1처리 기능(예: OVS, OVS+DPDK), 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능(예: IPSEC), 대용량 데이터 처리를 위한 제3처리 기능(예: ML, DL) 중 적어도 하나를 설정할 수 있다.
그리고, 제어노드(300)는, 코어컴퓨팅노드(200)의 제2리소스(202)에서 적어도 하나의 GPU카드를, 전술의 제3처리 기능(예: ML, DL)에 따른 대용량 데이터 처리의 고속 연산을 위해 설정할 수 있다.
구체적으로, 제어노드(300)는, 코어컴퓨팅노드(200)의 제2리소스(202)에서 적어도 하나의 GPU카드를, 제1리소스(201)의 FPGA카드에 설정한 ML 또는 DL에 따른 대용량 데이터 처리 엔진을 설정하는데 사용할 수 있다.
이하에서는, 도 3을 참조하여, 본 발명의 바람직한 실시예에 따른 분산형 컴퓨팅 가속화 플랫폼 장치에서 하드웨어 리소스 풀(pool)을 기반으로 리소스를 관리 및 운영하는 구조를 설명하겠다.
제어노드(300)는, 분산형 컴퓨팅 가속화 플랫폼 장치에서 제공하고자 하는 특정 서비스를 위한 서버를, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 구현하게 된다.
먼저, 제어노드(300)는 특정 서비스를 위한 서버를 구현하기 위한 정보를 확인한다.
이때, 제어노드(300)에서 확인하게 되는 특정 서비스에 대한 정보는, 특정 서비스를 구현하기 위해 요구되는 기능들에 대한 정보, 예컨대 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에서 몇 개의 어떤 프로세서를 선택하고 각 프로세서를 어떻게 설정해야 하는지 등 HW Capability 정보, HW Capability에 맞게 범용 HW 셋팅 정보 등, 특정 서비스를 구현하기 위한 모든 정보가 포함되며, 이는 서버 구현을 설계하는 주체(컴퓨터, 운영자)에 의해 입력되는 정보일 수 있다.
이하에서는, 설명의 편의 상, 제어노드(300)에서 확인하게 되는 정보를 서비스셋팅정보라고 지칭하겠다.
즉, 제어노드(300)는 특정 서비스를 위한 서버를 구현하기 위한 정보 예컨대 서비스셋팅정보를 확인하며, 예컨대 이러한 서비스셋팅정보를 제공받아 수신하는 형태로 확인할 수 있다.
제어노드(300)는, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에서, 특정 서비스에 대한 정보 즉 서비스셋팅정보를 근거로 프로세서를 선택한다.
즉, 제어노드(300)는, 서비스셋팅정보를 근거로 확인되는 특정 서비스의 요구 기능에 따라, 코어컴퓨팅노드(200)의 제1리소스(201) 및 제2리소스(202)에서 적어도 하나의 프로세서를 선택하고, 엣지컴퓨팅노드(100)에서 적어도 하나의 프로세서를 선택하는 것이다.
도 3에서는, 제어노드(300)가 코어컴퓨팅노드(200)의 제1리소스(201)에서 하나의 FPGA카드(210)을 선택하고, 엣지컴퓨팅노드(100)에서 FPGA카드(110)을 선택한 상황을 가정하고 있다.
제어노드(300)는, 코어컴퓨팅노드(200)의 상기 선택한 프로세서 즉 FPGA카드(210)와 엣지컴퓨팅노드(100)에서 상기 선택한 프로세서 즉 FPGA카드(110)에, 특정 서비스를 위한 특정 처리 기능을 설정한다.
즉, 제어노드(300)는, 코어컴퓨팅노드(200)의 제1리소스(201)에서 상기 선택한 적어도 하나의 프로세서 즉 FPGA카드(210)에, 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능(예: OVS, OVS+DPDK), 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능(예: IPSEC), 대용량 데이터 처리를 위한 제3처리 기능(예: ML, DL) 중 적어도 하나를 설정할 수 있다.
또한, 제어노드(300)는, 코어컴퓨팅노드(200)의 제2리소스(202)에서 프로세서를 선택한 경우라면, 제2리소스(202)에서 선택한 적어도 하나의 프로세서 즉 GPU카드를 제1리소스(201)의 FPGA카드에 설정한 ML 또는 DL에 따른 대용량 데이터 처리 엔진을 설정하는데 사용할 수 있다.
아울러, 제어노드(300)는, 엣지컴퓨팅노드(100)에서 상기 선택한 적어도 하나의 프로세서 즉 FPGA카드(110)에, 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능(예: OVS, OVS+DPDK), 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능(예: IPSEC) 중 적어도 하나를 설정할 수 있다.
본 발명이 적용되는 분산형 클라우드 서비스 환경에서는, 도 3에 도시된 바와 같이, 코어컴퓨팅노드(200)는, 코어망(1) 상에 위치하는 글로벌 저장소(250)를 기반으로, 엣지컴퓨팅노드(100)와 클라우드 서비스를 분산 제공할 수 있다.
이러한 글로벌 저장소(250)에는, 본 발명에서 FPGA카드에 설정하고자 하는 다수 하드웨어칩(또는 카드, 또는 소자) 예컨대 OVS, OVS+DPDK, IPSEC 기능을 구현하는데 필요한 데이터셋(이하, IP(Intellecture Property) 이미지)를 보유하고, GPU카드에 설정하고자 하는 엔진 예컨대 ML 엔진, DL 엔진 기능을 구현하는데 필요한 데이터셋(이하, Workload)를 보유하는 것이 바람직하다.
아울러 엣지컴퓨팅노드(100)는, 엣지 단, 보다 구체적으로 단말(10)이 코어망(1)과의 연결을 위해 접속하는 기지국 단에 위치하는 로컬 저장소(150)을 기반으로, 코어컴퓨팅노드(200)와 엣지컴퓨팅노드(100)와 클라우드 서비스를 분산 제공할 수 있다.
이러한 로컬 저장소(150)에는, 기 정의된 보유지속정책에 따라, 이전에 글로벌 저장소(250)로부터 제공받아 저장하고 있거나 자체적으로 생성하여 저장하고 있는 데이터가 보유/지속될 수 있다.
이에, 제어노드(300)가 코어컴퓨팅노드(200)에서 FPGA카드 또는 GPU카드에 처리 기능을 설정하는 방식은, 코어컴퓨팅노드(200)로 하여금 글로벌 저장소(250)에 보유된 해당 처리 기능의 IP 이미지를 획득하여 설정하게 하거나 또는 해당 처리 기능의 Workload를 셋업시키는 방식일 수 있다.
아울러, 제어노드(300)가 엣지컴퓨팅노드(100)에서 FPGA카드 또는 GPU카드에 처리 기능을 설정하는 방식은, 엣지컴퓨팅노드(100)로 하여금 로컬 저장소(150)에 보유된 경우라면 해당 처리 기능의 IP 이미지를 획득하여 설정하게 하거나 또는 해당 처리 기능의 Workload를 셋업시키는 방식일 수 있다.
만약, 로컬 저장소(150)에 보유되지 않은 경우라면, 제어노드(300)가 글로벌 저장소(250)로부터 글로벌 저장소(250)로 해당 처리 기능의 IP 이미지 및/또는 해당 처리 기능의 Workload를 저장하도록 제어한 후, 엣지컴퓨팅노드(100)로 하여금 로컬 저장소(150)에 보유된 해당 처리 기능의 IP 이미지를 획득하여 설정하게 하거나 또는 해당 처리 기능의 Workload를 셋업시키는 방식일 수 있다.
도 3에서는, 제어노드(300)가 코어컴퓨팅노드(200)의 제1리소스(201)에서 선택한 FPGA카드(210)에 OVS+DPDK(210a) 및 IPSEC(210b)을 설정하고, 엣지컴퓨팅노드(100)에서 선택한 FPGA카드(110)에 OVS+DPDK(110a) 및 IPSEC(110b)을 설정한 상황을 가정하고 있다.
이상에서 알 수 있듯이, 본 발명에서는, 기존 클라우드 서비스 환경의 경우 하드웨어 리소스가 고정되는 것과 달리, 고정적(Static)이지 않고 다양하게 운영 가능한 구조의 하드웨어 리소스 풀(pool)을 기반으로, 새롭게 설계하여 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 분산 구현하고자 하는 서버를 위한 하드웨어 리소스를 유동적으로 다양하게 설계(설정)할 수 있다.
제어노드(300)는, 전술과 같이 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)의 프로세서에 특정 처리 기능을 설정하여 하드웨어 리소스를 설계하면, 설정한 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 특정 서비스가 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 분산 구현되는 서비스 환경을 제공한다.
구체적으로, 제어노드(300)는, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각에, 특정 서비스를 위한 네트워크 기능 및 스토리지(130,230)를 할당한다.
즉, 제어노드(300)는, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각에 대하여, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각이 특정 서비스를 제공하기 위한 네트워크 통신이 가능하도록 하는 네트워크 기능과 네트워크 통신 및 자신의 저장소(150 또는 250)과의 연동을 지원하는 스토리지 기능을, 할당하는 것이다.
그리고, 제어노드(300)는, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각에, 특정 처리 기능 상에서 네트워크 기능 및 스토리지를 활용하여 동작하게 될 서비스 기능을 설치한다.
구체적으로, 제어노드(300)는, 코어컴퓨팅노드(200)에, 특정 처리 기능 즉 FPGA카드(210)의 OVS+DPDK(210a) 및 IPSEC(210b) 상에서 네트워크 기능 및 스토리지(230)를 활용하여 동작하게 될 서비스 기능(240)을 설치한다.
도 3에서는, OVS+DPDK(210a) 및 IPSEC(210b) 상에서 네트워크 기능 및 스토리지(230)를 활용하여 동작하게 될 서비스 기능(240)으로서, VPN(Virtual Private Network), LB(Load Balancing), 및 특정 서비스를 제공하기 위한 대부분의 서비스(Service)를 설치하고 있다.
아울러, 제어노드(300)는, 엣지컴퓨팅노드(100)에, 특정 처리 기능 즉 FPGA카드(110)의 OVS+DPDK(110a) 및 IPSEC(110b) 상에서 네트워크 기능 및 스토리지(130)를 활용하여 동작하게 될 서비스 기능(140)을 설치한다.
도 3에서는, OVS+DPDK(110a) 및 IPSEC(110b) 상에서 네트워크 기능 및 스토리지(130)를 활용하여 동작하게 될 서비스 기능(140)으로서, MEC(Mobile Edge Computing), v EPC(Virtual Evolved Packet Core), 및 VPN을 설치하고 있다.
이상에서 설정한 바와 같이, 본 발명에 따르면, 고정적(Static)이지 않고 다양하게 운영 가능한 구조의 하드웨어 리소스 풀(pool)을 기반으로, 새롭게 설계하여 분산 구현하고자 하는 서버(특정 서비스)를 위한 하드웨어 리소스를 유동적으로 다양하게 설계(설정)할 수 있고, 이처럼 유동적으로 설계된 하드웨어 리소스 상에서 소프트웨어적인 서비스 기능들을 구현하는 방식으로, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 분산 구현되는 분산형 클라우드 서비스 환경을 제공한다.
이렇게 되면, 기존 클라우드 서비스 환경의 경우 하드웨어 리소스가 고정되는 것과 달리, 하드웨어 리소스를 유동적으로 다양하게 설계(설정)하고 이를 기반으로 처리/연산 등 컴퓨테이션(computation) 및 네트워크 오프로드(offload)를 가속화시킬 수 있기 때문에, 분산형 클라우드 서비스 환경에서 보다 획기적으로 컴퓨팅 가속화를 실현시킬 수 있고, 5G의 초 저지연(URLLC) 시나리오 등에 대응 가능하다.
이에, 사용자는 단말(10)에, 전술과 같이 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 새롭게 설계하여 분산 구현한 특정 서비스의 어플리케이션을 설치 및 실행하여, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에서 분산 제공되는 특정 서비스로 인해 보다 고속화된 클라우드 서비스를 이용할 수 있게 된다.
이하에서는, 도 4를 참조하여 본 발명의 바람직한 실시예에 따른 분산형 컴퓨팅 가속화 플랫폼 운영 방법을 설명하겠다.
여기서, 설명의 편의를 위해 전술한 도 3에 도시된 구성은 해당 참조번호를 언급하여 설명하겠다.
본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 특정 서비스를 위한 서버를 구현하기 위한 정보, 즉 특정 서비스에 대한 정보(이하, 서비스셋팅정보라 함)를 제공받아 확인한다(S100).
이때, 서비스셋팅정보는, 특정 서비스를 구현하기 위해 요구되는 기능들에 대한 정보, 예컨대 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에서 몇 개의 어떤 프로세서를 선택하고 각 프로세서를 어떻게 설정해야 하는지 등 HW Capability 정보, HW Capability에 맞게 범용 HW 셋팅 정보 등, 특정 서비스를 구현하기 위한 모든 정보가 포함되며, 이는 서버 구현을 설계하는 주체(컴퓨터, 운영자)에 의해 입력되는 정보일 수 있다.
본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, S100단계에서 확인한 서비스셋팅정보에 근거하여, 이후 서버(특정 서비스) 구현을 위한 하드웨어 리소스 설계(설정) 및 소프트웨어 서비스 구현을 수행한다.
구체적으로 설명하면, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 서비스셋팅정보에 근거하여, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에서 프로세서 즉 프로세싱 H/W를 선택한다.
즉, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 서비스셋팅정보를 근거로 확인되는 특정 서비스의 요구 기능에 따라, 코어컴퓨팅노드(200)의 제1리소스(201) 및 제2리소스(202)에서 적어도 하나의 프로세서 즉 프로세싱 H/W를 선택하고(S110), 엣지컴퓨팅노드(100)에서 적어도 하나의 프로세서 즉 프로세싱 H/W를 선택하는 것이다(S120).
도 3에서는, 코어컴퓨팅노드(200)의 제1리소스(201)에서 프로세싱 H/W로서 하나의 FPGA카드(210)을 선택하고, 엣지컴퓨팅노드(100)에서 프로세싱 H/W로서 FPGA카드(110)을 선택한 상황을 가정하고 있다.
본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200)의 상기 선택한 프로세서 즉 FPGA카드(210)와 엣지컴퓨팅노드(100)에서 상기 선택한 프로세서 즉 FPGA카드(110)에, 특정 서비스를 위한 특정 처리 기능을 설정한다.
즉, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200)의 제1리소스(201)에서 상기 선택한 적어도 하나의 프로세서 즉 FPGA카드(210)에, 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능(예: OVS, OVS+DPDK), 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능(예: IPSEC), 대용량 데이터 처리를 위한 제3처리 기능(예: ML, DL) 중 적어도 하나를 설정할 수 있다(S130).
또한, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200)의 제2리소스(202)에서 프로세서를 선택한 경우라면, 제2리소스(202)에서 선택한 적어도 하나의 프로세서 즉 GPU카드를 제1리소스(201)의 FPGA카드에 설정한 ML 또는 DL에 따른 대용량 데이터 처리 엔진을 설정하는데 사용할 수 있다(S130).
이때 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200)에서 FPGA카드 또는 GPU카드에 처리 기능을 설정하는 방식은, 코어컴퓨팅노드(200)로 하여금 글로벌 저장소(250)에 보유된 해당 처리 기능의 IP 이미지를 획득하여 설정하게 하거나 또는 해당 처리 기능의 Workload를 셋업시키는 방식일 수 있다.
더불어, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 엣지컴퓨팅노드(100)에서 상기 선택한 적어도 하나의 프로세서 즉 FPGA카드(110)에, 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능(예: OVS, OVS+DPDK), 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 간 보안을 위한 제2처리 기능(예: IPSEC) 중 적어도 하나를 설정할 수 있다(S140).
이때 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 엣지컴퓨팅노드(100)에서 FPGA카드 또는 GPU카드에 처리 기능을 설정하는 방식은, 엣지컴퓨팅노드(100)로 하여금 로컬 저장소(150)에 보유된 경우라면 해당 처리 기능의 IP 이미지를 획득하여 설정하게 하거나 또는 해당 처리 기능의 Workload를 셋업시키는 방식일 수 있다.
만약, 로컬 저장소(150)에 보유되지 않은 경우라면, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 글로벌 저장소(250)로부터 글로벌 저장소(250)로 해당 처리 기능의 IP 이미지 및/또는 해당 처리 기능의 Workload를 저장하도록 제어한 후, 엣지컴퓨팅노드(100)로 하여금 로컬 저장소(150)에 보유된 해당 처리 기능의 IP 이미지를 획득하여 설정하게 하거나 또는 해당 처리 기능의 Workload를 셋업시키는 방식일 수 있다.
도 3에서는, 코어컴퓨팅노드(200)의 제1리소스(201)에서 선택한 FPGA카드(210)에 OVS+DPDK(210a) 및 IPSEC(210b)을 설정하고, 엣지컴퓨팅노드(100)에서 선택한 FPGA카드(110)에 OVS+DPDK(110a) 및 IPSEC(110b)을 설정한 상황을 가정하고 있다.
본 발명에서는, 이상에서 설명한 S110 내지 S140단계를 통해서, 고정적(Static)이지 않고 다양하게 운영 가능한 구조의 하드웨어 리소스 풀(pool)을 기반으로, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 새롭게 설계하여 분산 구현하고자 하는 서버를 위한 하드웨어 리소스를 유동적으로 다양하게 설계(설정)하는 하드웨어(H/W) 셋업 과정을 수행하게 된다.
그리고, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 전술과 같이 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)의 프로세서에 특정 처리 기능을 설정하여 하드웨어 리소스를 설계하면(S130,S140), 설정한 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 특정 서비스가 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 분산 구현되는 서비스 환경을 제공한다.
구체적으로, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각에, 특정 서비스를 위한 네트워크 기능 및 스토리지(130,230)를 할당한다(S150).
즉, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각에 대하여, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각이 특정 서비스를 제공하기 위한 네트워크 통신이 가능하도록 하는 네트워크 기능과 네트워크 통신 및 자신의 저장소(150 또는 250)과의 연동을 지원하는 스토리지 기능을, 할당하는 것이다.
그리고, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100) 각각에, 특정 처리 기능 상에서 네트워크 기능 및 스토리지를 활용하여 동작하게 될 서비스 기능을 설치한다(S160).
구체적으로, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 코어컴퓨팅노드(200)에, 특정 처리 기능 즉 FPGA카드(210)의 OVS+DPDK(210a) 및 IPSEC(210b) 상에서 네트워크 기능 및 스토리지(230)를 활용하여 동작하게 될 서비스 기능(240)을 설치한다.
도 3에서는, OVS+DPDK(210a) 및 IPSEC(210b) 상에서 네트워크 기능 및 스토리지(230)를 활용하여 동작하게 될 서비스 기능(240)으로서, VPN(Virtual Private Network), LB(Load Balancing), 및 특정 서비스를 제공하기 위한 대부분의 서비스(Service)를 설치하고 있다.
아울러, 본 발명의 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 따르면, 엣지컴퓨팅노드(100)에, 특정 처리 기능 즉 FPGA카드(110)의 OVS+DPDK(110a) 및 IPSEC(110b) 상에서 네트워크 기능 및 스토리지(130)를 활용하여 동작하게 될 서비스 기능(140)을 설치한다.
도 3에서는, OVS+DPDK(110a) 및 IPSEC(110b) 상에서 네트워크 기능 및 스토리지(130)를 활용하여 동작하게 될 서비스 기능(140)으로서, MEC(Mobile Edge Computing), v EPC(Virtual Evolved Packet Core), 및 VPN을 설치하고 있다.
이상에서 설명한 바와 같이, 본 발명에 따르면, 고정적(Static)이지 않고 다양하게 운영 가능한 구조의 하드웨어 리소스 풀(pool)을 기반으로, 새롭게 설계하여 분산 구현하고자 하는 서버(특정 서비스)를 위한 하드웨어 리소스를 유동적으로 다양하게 설계(설정)할 수 있고, 이처럼 유동적으로 설계된 하드웨어 리소스 상에서 소프트웨어적인 서비스 기능들을 구현하는 방식으로, 코어컴퓨팅노드(200) 및 엣지컴퓨팅노드(100)에 분산 구현되는 분산형 클라우드 서비스 환경을 제공한다.
이렇게 되면, 본 발명은 기존 클라우드 서비스 환경의 경우 하드웨어 리소스가 고정되는 것과 달리, 하드웨어 리소스를 유동적으로 다양하게 설계(설정)하고 이를 기반으로 처리/연산 등 컴퓨테이션(computation) 및 네트워크 오프로드(offload)를 가속화시킬 수 있기 때문에, 분산형 클라우드 서비스 환경에서 보다 획기적으로 컴퓨팅 가속화를 실현시키는 효과를 도출한다.
본 발명의 실시예에 따른 분산형 컴퓨팅 가속화 플랫폼 운영 방법은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
지금까지 본 발명을 바람직한 실시 예를 참조하여 상세히 설명하였지만, 본 발명이 상기한 실시 예에 한정되는 것은 아니며, 이하의 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 또는 수정이 가능한 범위까지 본 발명의 기술적 사상이 미친다 할 것이다.
본 발명에 따른 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법에 의하면, 분산형 클라우드 서비스 환경에서 보다 획기적으로 컴퓨팅 가속화를 실현할 수 있는 점에서, 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.
100 : 엣지컴퓨팅노드
200 : 코어컴퓨팅노드
300 : 제어노드

Claims (9)

  1. ◈청구항 1은(는) 설정등록료 납부시 포기되었습니다.◈
    프로세서를 구비한 엣지컴퓨팅노드; 및
    처리(process) 기능의 재설정이 가능한 처리 전용의 프로세서 다수 개로 구성되는 제1리소스와, 고속 연산의 프로세서 다수 개로 구성되는 제2리소스를 구비한 코어컴퓨팅노드; 및
    특정 서비스에 대한 정보를 확인하고, 상기 엣지컴퓨팅노드와 상기 코어컴퓨팅노드에서 상기 특정 서비스에 대한 정보를 근거로 프로세서를 선택하며 상기 코어컴퓨팅노드에서 선택한 프로세서와 상기 엣지컴퓨팅노드에서 선택한 프로세서에, 상기 특정 서비스를 위한 특정 처리 기능을 설정하고 상기 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 상기 특정 서비스가 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드에 분산 구현되는 서비스 환경을 제공하는 제어노드를 포함하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 장치.
  2. ◈청구항 2은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 엣지컴퓨팅노드는,
    처리(process) 기능의 재설정이 가능한 처리 전용의 FPGA(Field-Programmable Gate Arrays)카드와, 고속 연산의 GPU(Graphic Processing Unit)카드 중 적어도 하나를 구비하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 장치.
  3. ◈청구항 3은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 코어컴퓨팅노드에서,
    상기 제1리소스는, 처리(process) 기능의 재설정이 가능한 처리 전용의 FPGA카드 다수 개로 구성되어 각 FPGA카드가 적어도 하나의 다른 FPGA카드와 선택적으로 연결되는 패브릭(fabric) 구조를 가지며,
    상기 제2리소스는, 고속 연산의 GPU카드 다수 개로 구성되는 클러스터(cluster) 구조를 가지는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 장치.
  4. ◈청구항 4은(는) 설정등록료 납부시 포기되었습니다.◈
    제 1 항에 있어서,
    상기 제어노드는,
    상기 코어컴퓨팅노드의 제1리소스에 포함된 적어도 하나의 프로세서 및 상기 엣지컴퓨팅노드의 프로세서에, 처리 가속화를 위한 제1처리 기능, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 간 보안을 위한 제2처리 기능, 대용량 데이터 처리를 위한 제3처리 기능 중 적어도 하나를 설정하고,
    상기 코어컴퓨팅노드의 제2리소스에서 적어도 하나의 프로세서를, 상기 제3처리 기능에 따른 대용량 데이터 처리의 고속 연산을 위해 설정하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 장치.
  5. 특정 서비스에 대한 정보를 확인하는 단계;
    프로세서를 구비하는 엣지컴퓨팅노드와, 처리(process) 기능의 재설정이 가능한 처리 전용의 프로세서 다수 개로 구성되는 제1리소스 및 고속 연산의 프로세서 다수 개로 구성되는 제2리소스를 포함하는 코어컴퓨팅노드에서, 상기 특정 서비스의 정보를 근거로 프로세서를 선택하는 선택단계;
    상기 코어컴퓨팅노드에서 선택한 프로세서와 상기 엣지컴퓨팅노드에서 선택한 프로세서에, 상기 특정 서비스를 위한 특정 처리 기능을 설정하는 처리기능설정단계; 및
    상기 특정 처리 기능 상에서 동작하게 되는 서비스 기능을 구현하여, 상기 특정 서비스가 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드에 분산 구현되는 서비스 환경을 제공하는 서비스기능구현단계를 포함하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 운영 방법.
  6. 제 5 항에 있어서,
    상기 선택단계는,
    상기 특정 서비스의 정보를 근거로 확인되는 상기 특정 서비스의 요구 기능에 따라,
    상기 코어컴퓨팅노드의 제1리소스 및 제2리소스에서 적어도 하나의 프로세서를 선택하고, 상기 엣지컴퓨팅노드에서 적어도 하나의 프로세서를 선택하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 운영 방법.
  7. 제 6 항에 있어서,
    상기 처리기능설정단계는,
    상기 코어컴퓨팅노드의 제1리소스에서 상기 선택한 적어도 하나의 프로세서에, 상기 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 간 보안을 위한 제2처리 기능, 대용량 데이터 처리를 위한 제3처리 기능 중 적어도 하나를 설정하고,
    상기 코어컴퓨팅노드의 제2리소스에서 상기 선택한 적어도 하나의 프로세서를, 상기 제3처리 기능에 따른 대용량 데이터 처리의 고속 연산을 위해 설정하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 운영 방법.
  8. 제 6 항에 있어서,
    상기 처리기능설정단계는,
    상기 엣지컴퓨팅노드에서 상기 선택한 적어도 하나의 프로세서에, 상기 특정 서비스의 요구 기능에 따라, 처리 가속화를 위한 제1처리 기능, 상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 간 보안을 위한 제2처리 기능 중 적어도 하나를 설정하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 운영 방법.
  9. 제 6 항에 있어서,
    상기 서비스기능구현단계는,
    상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 각각에, 상기 특정 서비스를 위한 네트워크 기능 및 스토리지를 할당하고,
    상기 코어컴퓨팅노드 및 상기 엣지컴퓨팅노드 각각에, 상기 특정 처리 기능 상에서 상기 네트워크 기능 및 스토리지를 활용하여 동작하게 될 서비스 기능을 설치하는 것을 특징으로 하는 분산형 컴퓨팅 가속화 플랫폼 운영 방법.
KR1020170108923A 2017-08-28 2017-08-28 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법 KR101936942B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170108923A KR101936942B1 (ko) 2017-08-28 2017-08-28 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법
US16/114,716 US10834018B2 (en) 2017-08-28 2018-08-28 Distributed computing acceleration platform and distributed computing acceleration platform operation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170108923A KR101936942B1 (ko) 2017-08-28 2017-08-28 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190000409A Division KR101973946B1 (ko) 2019-01-02 2019-01-02 분산형 컴퓨팅 가속화 플랫폼 장치

Publications (1)

Publication Number Publication Date
KR101936942B1 true KR101936942B1 (ko) 2019-04-09

Family

ID=65436238

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170108923A KR101936942B1 (ko) 2017-08-28 2017-08-28 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법

Country Status (2)

Country Link
US (1) US10834018B2 (ko)
KR (1) KR101936942B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200115709A (ko) * 2019-03-11 2020-10-08 한국전자통신연구원 에지 클라우드 기술을 활용한 클라우드 서비스 시스템 및 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3735006B1 (en) 2019-05-03 2023-04-05 Nokia Solutions and Networks Oy Efficient computing of application data in mobile communication network
CN110769039B (zh) * 2019-10-09 2021-12-10 腾讯科技(深圳)有限公司 资源调度方法及装置、电子设备和计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005527043A (ja) * 2002-05-21 2005-09-08 ワシントン ユニヴァーシティー Fpgaデバイスを用いた連想データベーススキャンおよび情報検索
KR20060045952A (ko) * 2004-05-27 2006-05-17 삼성전자주식회사 다중-프로세서 구조에서 데이터 처리 수행성능을증가시키기 위한 분산 운영 시스템 및 그 방법
KR20100116413A (ko) * 2009-04-22 2010-11-01 삼성전자주식회사 재구성 가능 프로세서 및 이를 이용한 인터럽트 핸들링 방법
KR20150084098A (ko) * 2014-01-13 2015-07-22 한국전자통신연구원 스트림 데이터 분산 처리 시스템 및 그 방법
KR20170042762A (ko) * 2014-08-20 2017-04-19 자일링크스 인코포레이티드 이기종 멀티프로세서 시스템에서의 프로세서간 인터럽트를 위한 메커니즘

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1543414A2 (en) * 2002-08-29 2005-06-22 BAE SYSTEMS Information and Electronic Systems Integration, Inc. Mechanism for integrating programmable devices into software based frameworks for distributed computing
US8645454B2 (en) * 2010-12-28 2014-02-04 Canon Kabushiki Kaisha Task allocation multiple nodes in a distributed computing system
US20130159452A1 (en) * 2011-12-06 2013-06-20 Manuel Alejandro Saldana De Fuentes Memory Server Architecture
US9791485B2 (en) * 2014-03-10 2017-10-17 Silver Spring Networks, Inc. Determining electric grid topology via a zero crossing technique
CN103973803B (zh) * 2014-05-19 2017-10-13 英华达(上海)科技有限公司 云端资源分配系统、方法
KR20160064337A (ko) * 2014-11-27 2016-06-08 삼성전자주식회사 컨텐트 제공 방법 및 장치
US9811387B2 (en) * 2016-02-11 2017-11-07 International Business Machines Corporation Distributed load processing using sampled clusters of location-based internet of things devices
US10142403B1 (en) * 2016-04-01 2018-11-27 Armand Prieditis Method and apparatus for facilitating parallel distributed computing
CN107357639B (zh) * 2016-05-09 2019-09-17 腾讯科技(深圳)有限公司 一种分布式处理系统、数据处理的方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005527043A (ja) * 2002-05-21 2005-09-08 ワシントン ユニヴァーシティー Fpgaデバイスを用いた連想データベーススキャンおよび情報検索
KR20060045952A (ko) * 2004-05-27 2006-05-17 삼성전자주식회사 다중-프로세서 구조에서 데이터 처리 수행성능을증가시키기 위한 분산 운영 시스템 및 그 방법
KR20100116413A (ko) * 2009-04-22 2010-11-01 삼성전자주식회사 재구성 가능 프로세서 및 이를 이용한 인터럽트 핸들링 방법
KR20150084098A (ko) * 2014-01-13 2015-07-22 한국전자통신연구원 스트림 데이터 분산 처리 시스템 및 그 방법
KR20170042762A (ko) * 2014-08-20 2017-04-19 자일링크스 인코포레이티드 이기종 멀티프로세서 시스템에서의 프로세서간 인터럽트를 위한 메커니즘

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200115709A (ko) * 2019-03-11 2020-10-08 한국전자통신연구원 에지 클라우드 기술을 활용한 클라우드 서비스 시스템 및 방법
KR102644093B1 (ko) * 2019-03-11 2024-03-07 한국전자통신연구원 에지 클라우드 기술을 활용한 클라우드 서비스 시스템 및 방법

Also Published As

Publication number Publication date
US10834018B2 (en) 2020-11-10
US20190068520A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
CN115269184B (zh) 函数即服务(faas)执行分配器
US9225596B2 (en) Undifferentiated service domains
US9143582B2 (en) Interoperability for distributed overlay virtual environments
US10601725B2 (en) SLA-based agile resource provisioning in disaggregated computing systems
US20150178117A1 (en) Selecting cloud computing resource based on fault tolerance and network efficiency
US11425054B1 (en) User-configured multi-location service deployment and scaling
US20140229622A1 (en) Native cloud computing via network segmentation
US10244050B2 (en) Network-based elastic storage
US10740147B2 (en) Merging connection pools to form a logical pool of connections during a preset period of time thereby more efficiently utilizing connections in connection pools
US11710206B2 (en) Session coordination for auto-scaled virtualized graphics processing
US20230325730A1 (en) Quantum computing task translation supporting multiple quantum computing technologies
US20190014178A1 (en) On-demand workload management in cloud bursting
US11627169B2 (en) Network-based Media Processing (NBMP) workflow management through 5G Framework for Live Uplink Streaming (FLUS) control
KR101936942B1 (ko) 분산형 컴퓨팅 가속화 플랫폼 장치 및 분산형 컴퓨팅 가속화 플랫폼 운영 방법
US11650869B2 (en) Quantum computing service with local edge devices supporting multiple quantum computing technologies
CN113467970A (zh) 云计算系统中的跨安全区域的资源访问方法及电子设备
KR101973946B1 (ko) 분산형 컴퓨팅 가속화 플랫폼 장치
US11765244B1 (en) Latency-based service discovery and routing for multi-location service-oriented applications
EP4000239A1 (en) 3rd generation partnership project (3gpp) framework for live uplink streaming (flus) sink capabilities determination
JP7479484B2 (ja) 拡張された第3世代パートナーシッププロジェクト(3gpp)のライブアップリンクストリーミング伝送のためのフレームワーク(flus)のシンク機能説明
US11765236B2 (en) Efficient and extensive function groups with multi-instance function support for cloud based processing
US20240111562A1 (en) User assigned network interface queues
US20240069979A1 (en) Container scheduling
US20240040002A1 (en) Managed connectivity between cloud service edge locations used for latency-sensitive distributed applications