KR20190069637A - 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템 - Google Patents

멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템 Download PDF

Info

Publication number
KR20190069637A
KR20190069637A KR1020170162665A KR20170162665A KR20190069637A KR 20190069637 A KR20190069637 A KR 20190069637A KR 1020170162665 A KR1020170162665 A KR 1020170162665A KR 20170162665 A KR20170162665 A KR 20170162665A KR 20190069637 A KR20190069637 A KR 20190069637A
Authority
KR
South Korea
Prior art keywords
big data
pipeline
analysis
job
worker
Prior art date
Application number
KR1020170162665A
Other languages
English (en)
Inventor
한승철
강성혁
이윤수
신정민
이광호
Original Assignee
한승철
이광호
신정민
강성혁
이윤수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한승철, 이광호, 신정민, 강성혁, 이윤수 filed Critical 한승철
Priority to KR1020170162665A priority Critical patent/KR20190069637A/ko
Publication of KR20190069637A publication Critical patent/KR20190069637A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • G06F15/163Interprocessor communication
    • G06F15/167Interprocessor communication using a common memory, e.g. mailbox
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5072Grid computing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 멀티 클라우드 환경에서 동일 방식의 과금 시스템은 대용량 빅데이터 분석 파이프라인(pipeline)에 포함된 빅데이터를 분석하기 위해 적어도 하나 이상의 분석 도구를 포함하는 디스크 이미지(disk image)를 생성하는 마스터(master) 및 상기 마스터에서 생성된 디스크 이미지를 수신하고, 수신된 디스크 이미지를 컨테이너(container)로 구동하여 상기 대용량 빅데이터 분석 파이프라인에 포함된 대용량 빅데이터를 분석하는 하나 이상의 워커(worker)를 포함할 수 있다.

Description

멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템{CHARGING METHOD AND SYSTEM IN MULTI CLOUD IN THE SAME WAY}
본 발명은 멀티 클라우드 환경에서 대용량 빅데이터를 처리할 수 있는 방법을 제공하며, 동일한 방식으로 과금을 부과하는 방법 및 시스템에 관한 것이다.
빅데이터란 디지털 환경에서 생성되는 데이터로 그 규모가 방대하고, 생성 주기도 짧고, 형태도 수치 데이터뿐 아니라 문자와 영상 데이터를 포함할 수 있으며, 빅데이터 환경은 과거에 비해 데이터의 양이 폭증했다는 점과 함께 데이터의 종류도 다양해져 사람들의 행동은 물론 위치정보와 SNS를 통해 생각과 의견까지 분석하고 예측할 수 있다.
그런데, 종래에 사용자가 대용량의 빅데이터를 처리하기 위해서 클라우드를 활용하려 하면, 보통 해당 클라우드에서 클라우드마다 다른 사용방식을 제공하기 때문에 해당 클라우드에 적합한 시스템을 운영하거나 설치해야 하는 어려움이 있었다.
한편, 빅데이터를 분석하기 위해 파이프라인(pipeline)을 이용하여 분석이 이루어질 수 있는데, 파이프라인은 대규모 데이터가 소정의 절차를 거쳐 분석이 이루어질 수 있도록 병렬 처리를 할 수 있는 하드웨어 기법 중 하나이다.
파이프파인을 이용하여 분석이 이루어지기 위해서는 해당 파이프라인에 포함된 소정의 절차를 거치기 위해서는 해당 파이프라인에서 수행되는 빅데이터에 해당하는 소프트웨어가 필요하다. 이러한 파이프라인을 통해 수행되는 빅데이터에 대한 종류에 따라 파이프라인에서 분석되는 절차 또는 과정이 달라질 수 있으며, 이때 이용되는 소프트웨어의 종류도 달라질 수 있다.
이때, 상기의 파이프라인을 이용하여 빅데이터를 분석할 때, 분산 클러스터링 환경에서 이루어질 수 있다. 이때, 특정 빅데이터를 분석하기 위한 파이프라인이 분산 클러스터링 환경의 계산 노드에서 수행될 때, 해당 계산 노드에 파이프라인의 분석에 필요한 소프트웨어가 설치되어 있어야 파이프라인을 이용한 분석이 이루어질 수 있다. 그런데, 분석하고자 하는 빅데이터의 종류에 따라 필요한 소프트웨어의 종류가 상당히 많기 때문에 분산 클러스터링 환경의 각 계산 노드에 필요한 소프트웨어를 설치해야 하는 문제가 있다.
더욱이, 분산 클러스터링 환경의 각 계산 노드들에 설치된 소프트웨어의 업데이트 등이 발생하는 경우, 모든 계산 노드들에 각각 설치된 소프트웨어를 각각 업데이트해야 하는 문제가 발생할 수 있다.
대한민국 등록특허 제10-1279392(2013.06.21)
본 발명이 해결하고자 하는 과제는, 각각 사용 방식이 다른 다양한 클라우드에 의한 빅데이터를 처리할 수 있도록 사용자가 원하는 해당 클라우드에 적합한 시스템을 구축할 수 있게 하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 멀티 클라우드 환경에서 동일 방식의 과금 시스템은, 대용량 빅데이터 분석 파이프라인(pipeline)에 포함된 빅데이터를 분석하기 위해 적어도 하나 이상의 분석 도구를 포함하는 디스크 이미지(disk image)를 생성하는 마스터(master) 및 상기 마스터에서 생성된 디스크 이미지를 수신하고, 수신된 디스크 이미지를 컨테이너(container)로 구동하여 상기 대용량 빅데이터 분석 파이프라인에 포함된 대용량 빅데이터를 분석하는 하나 이상의 워커(worker)를 포함할 수 있다.
그리고, 상기 마스터는 상기 빅데이터 정보 분석 파이프라인을 구성하기 위해 대용량 빅데이터 파일의 경로(URL)를 획득하고, 상기 파이프라인의 파라미터가 입력될 수 있다.
또한, 상기 하나 이상의 워커는 구동된 컨테이너에 CPU, 메모리 및 통신 중 어느 하나 이상의 커널 자원을 할당할 수 있다.
다음으로, 볼 발명의 일 실시예에 따른 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법은, 대용량 빅데이터 분석 파이프라인(pipeline)에 포함된 빅데이터를 분석하기 위한 잡(job)이 마스터(master)에 등록되는 단계, 상기 빅데이터의 분석을 위한 대용량 빅데이터 분석 파이프라인이 구성되는 단계, 상기 대용량 빅데이터 분석 파이프라인을 적어도 하나 이상의 분석 도구가 포함된 디스크 이미지를 생성하는 단계, 상기 생성된 디스크 이미지 형태의 잡을 빅데이터 분석을 수행하는 하나 이상의 워커로 전송하는 단계, 상기 하나 이상의 워커에서 수신된 잡을 컨테이너(container)로 구동하는 단계 및 상기 구동된 컨테이너를 이용하여 상기 대용량 빅데이터 분석 파이프라인에 포함된 빅데이터를 분석하는 단계를 포함할 수 있다.
그리고, 상기 우선순위는 상기 마스터에 등록된 시간 순서에 따라 상기 하나 이상의 워커에서 분석이 이루어지며, 둘 이상의 빅데이터 분석 파이프라인이 구동되어 빅데이터의 분석이 필요한 경우, 모든 대용량 빅데이터 분석 파이프라인에 대한 디스크 이미지가 등록된 시점에 등록이 완료될 수 있다.
본 발명에 의하면, 다양한 사용방식의 클라우드 환경에 맞게 빅데이터를 처리할 수 있도록 시스템을 설치 및 운영할 수 있게 하며, 과금을 다양한 클라우드엥서 통합된 형태로 결정할 수 있다.
도 1은 본 발명의 일 실시예에 따른 분석 시스템을 도시한 개략도이다.
도 2는 본 발명의 일 실시예에 따른 분석 방법을 설명하기 위한 흐름도이다.
본 발명의 바람직한 실시예에 대하여 첨부된 도면을 참조하여 더 구체적으로 설명한다.
본 발명에 따른 멀티 클라우드 환경에서 동일 방식의 과금 부과 시스템은, 다양한 클라우드를 이용하여 분석하기 위한 빅데이터를 위한 파이프라인을 처리할 수 있다. 빅데이터 분석을 위한 파이프라인은 빅데이터에 관한 데이터가 입력되어 분석을 실행하고, 그 결과에 대한 빅데이터를 출력하기 위한 분석 도구들을 포함할 수 있고, 또는, 분석 도구들과의 연계를 위한 링크를 포함할 수 있다. 그리고 각 분석 도구에서 출력된 결과 데이터를 차순위 분석 도구에 대응되는 빅데이터에 맞는 형식으로 변환하는 데이터 변환 스크립터들이 포함될 수 있다.
그리고 본 발명에서 빅데이터 정보 분석을 위한 파이프라인의 구동은 분산 클러스터링 환경에서 수행될 수 있으며, 그에 따라 클라우드 서비스 장치가 이용될 수 있다. 또한, 필요에 따라 네트워크 스위치로 연결된 저사양의 컴퓨터들(메모리가 16Gb 이상인 것이 바람직할 수 있다.)로 분산 클러스터링을 구성할 수 있다. 그러므로 소규모나 개인들도 쉽게 빅데이터 분석을 위한 클러스터를 구축할 수 있으며, 다양한 빅데이터 분석을 위한 파이프라인을 운영할 수 있다.
도 1은 본 발명의 일 실시예에 따른 분석 시스템을 도시한 개략도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 빅데이터 분석 시스템(100)은, 마스터(110, master), 저장부(120), 제1 워커(130, worker) 및 제2 워커(140)를 포함한다.
마스터(110)는 입력부(112), 제1 서버(114), 제2 서버(116) 및 스케줄러(118)를 포함할 수 있다. 입력부(112)는 사용자로부터 빅데이터 정보를 분석하기 위한 파이프라인이 작성되어 구성되기 위해 구비된다. 이때, 입력부(112)를 통해 입력되는 정보는 잡(job)은 CPU 및 메모리의 점유율과 잡의 네임(name) 등일 수 있다. 이때, 잡의 네임은 다른 잡들과 중복되지 않아야 한다. 그리고 입력부(112)는 사용자가 웹(web)을 통해 접속할 수 있는 웹서버(web server)일 수 있다. 그에 따라 사용자는 네트워크를 통해 입력부(112)의 웹 페이지에 접속하여 잡에 해당하는 정보를 입력할 수 있다.
제1 서버(114)는 제1 워커(130) 또는 제2 워커(140)를 통해 수행이 완료된 파이프라인에서 출력된 결과 데이터를 저장부(120)에 저장하기 위해 저장부(120)로 데이터를 전송하기 위해 구비된다. 그에 따라 제1 서버(114)는 SFTP 서버일 수 있다.
제2 서버(116)는 입력부(112)를 통해 입력된 잡의 정보를 바탕으로 분석 파이프라인을 구성하고, 구성된 파이프라인의 이미지를 저장할 수 있다. 그리고 저장된 파이프라인의 이미지가 제1 워커(130) 및 제2 워커(140) 중 어느 하나 이상에서 구동될 수 있도록 해당 파이프라인을 제1 워커(130) 및 제2 워커(140) 중 어느 하나 이상으로 전송할 수 있다.
스케줄러(118)는 제2 서버(116)에서 구성된 파이프라인에 대한 스케줄링을 수행한다. 즉, 다수의 파이프라인이 구성된 경우, 어떤 파이프라인에 대해 분석이 수행되는지에 대한 스케줄링을 수행한다.
저장부(120)는 마스터(110), 제1 워커(130) 및 제2 워커(140)와 네트워크를 통해 통신을 할 수 있으며, 마스터(110), 제1 워커(130) 및 제2 워커(140) 중 어느 하나로부터 전송된 데이터를 저장할 수 있다.
제1 워커(130) 및 제2 워커(140)는 마스터(110)로부터 전송된 파이프라인의 이미지를 받아 경량화 컨테이너(container) 기술을 이용하여 파이프라인에 대한 구동이 이루어질 수 있다. 그리고 컨테이너를 통해 파이프라인의 구동에 의해 빅데이터 정보에 대한 분석이 이루어질 수 있다. 본 실시예에서, 제1 워커(130) 및 제2 워커(140)는 각각 제1 컨테이너(134) 및 제2 컨테이너(136)가 구동될 수 있는 것에 대해 설명하지만, 필요에 따라 컨테이너의 수는 더 많이 구동될 수 있다.
이때, 제1 워커(130) 및 제2 워커(140)는 각각 커널(132)을 포함할 수 있으며, 제1 워커(130) 및 제2 워커(140)에서 구동된 경량화 컨테이너는 각각 제1 워커(130) 및 제2 워커(140)에 포함된 커널(132)일 이용하여 구동될 수 있다. 그리고 본 실시예에서, 제1 워커(130) 및 제2 워커(140)는 각각 센트OS(centOS)가 설치되어 있을 수 있으며, 경량화 컨테이너에는 우분투가 설치될 수 있다.
또한, 본 실시예에서, 제1 워커(130) 및 제2 워커(140)가 이용된 것에 대해서만 설명하지만, 제3 워커 또는 제4 워커와 같이, 추가로 구비될 수 있으며, 필요에 따라 더 많은 워커를 포함할 수도 있다.
본 실시예에서 제1 워커(130) 및 제2 워커(140)는 앞서 설명한 바와 같이, 네트워크 스위치로 연결된 저사양의 컴퓨터들(메모리가 16Gb 이상인 것이 바람직)이나 고사양의 컴퓨터들이 이용될 수 있다.
일례로, 마스터(110)로부터 전송된 파이프라인의 이미지 파일이 제1 워커(130)로 전송되고, 제1 워커(130) 내에서 이미지 파일이 실행되면, 제1 워커(130)에 전송된 파이프라인의 이미지에 해당하는 컨테이너가 실행될 수 있다. 그에 따라 컨테이너 내에서 파이프라인의 구성에 따라 빅데이터 정보에 대한 분석이 이루어질 수 있다.
이때, 파이프라인의 이미지가 실행되어 형성된 컨테이너는 빅데이터 정보에 대한 데이터를 로딩할 수 있으며, 로딩된 데이터를 이용하여 빅데이터 정보에 대한 분석을 수행할 수 있다. 이때, 컨테이너에는 빅데이터 정보에 대한 분석이 수행될 수 있는 소프트웨어가 설치된 상태일 수 있다. 그에 따라 컨테이너가 구동됨에 따라 파이프라인을 이용한 분석이 수행될 수 있다.
도 2는 본 발명의 일 실시예에 따른 분석 방법을 설명하기 위한 흐름도이고, 도 3은 본 발명의 일 실시예에 따른 분석 방법에서 잡의 스케줄링을 설명하기 위한 일례를 나타낸 도면이다.
먼저, 도 2를 참조하여, 분석 방법에 대한 설명을 한다. 하나의 잡(job)이 시작되면(S101), 사용자는 입력부(112)를 통해 잡을 등록한다(S103). 이때, 사용자는 잡이 제1 워커(130) 및 제2 워커(140)에서 수행될 때, CPU 및 메모리의 점유율을 설정하고, 잡이 Normal job인지, Parent job인지 아니면 Child job인지를 설정하고, 잡의 이름을 설정할 수 있다. 이때, 잡의 이름에 대해 중복검사를 통해 유니크한 이름이 이용될 수 있다.
이렇게 잡이 등록되면, 잡에 해당하는 파이프라인을 구성한다(S105). 이때, 파이프라인은 NGS(next generation sequencing) 분석 파이프라인의 경우, 크게 두 단계로 나누어 설명할 수 있다. 먼저, 인체에서 획득된 샘플을 시퀀싱 장비로 분석하고, 빅데이터의 로우 데이터(raw data, fastq)를 표준 레퍼런스(fasta)와 비교하여 이를 정렬하고 데이터를 처리(raw data processing and cleaning)하는 단계가 있다. 그리고 변이를 찾고 이에 대한 정보를 연결시키는 단계(variant calling and annotating)가 있다. 이러한 단계들을 빅데이터 분석 파이프라인이라 할 수 있다.
그리고 파이프라인의 구성을 위해 이용될 빅데이터 정보에 대한 데이터의 위치를 확인하기 위한 데이터 URL을 획득한다(S107). 이때, 데이터 URL은 파이프라인을 통해 수행될 데이터의 위치를 확인하기 위한 경로를 확인하는 과정이며, 이 단계에서, 데이터가 파이프라인으로 업로드되는 것은 아니다.
파이프라인의 데이터 URL이 확인된 다음, 사용자에 의해 파이프라인의 파라미터가 입력된다(S109). 파이프라인의 파라미터가 입력됨에 따라 일례로, 도커파일(docker file)이 생성될 수 있으며, inner container shell이 작성될 수 있다.
상기와 같이, 데이터 URL이 획득되고, 파이프라인의 파라미터가 입력되는 것이 성공하면, 잡이 등록된다(S111). 이때, 파이프라인의 파라미터의 입력이 실패하는 경우에는 단계 105로 회귀한다.
잡이 등록되면, 파이프라인은 디스크 이미지(disk image) 형태로 저장될 수 있다. 그에 따라 Shell script가 생성되고, 생성된 디스크 이미지가 제2 서버(116)(DB)에 저장되며, 단계 S107에서 획득된 데이터 URL에 따라 데이터가 업로드된다(S113).
이렇게 생성된 디스크 이미지가 마스터(110)에서 제1 워커(130) 및 제2 워커(140)로 업로드 된다(S115). 이때, 업로드가 실패하면, 단계가 종료(S117)되며, 이때, 제2 서버(116)에 저장된 디스크 이미지가 삭제되고, 단계 S113에서 생성된 Shell script 및 기타 파일들이 삭제된다.
그리고 업로드가 성공하면, 제1 워커(130) 및 제2 워커(140)에 동작(running)하고 있는 잡의 수가 최고치 보다 작은지 확인한다(S119). 이때, 동작되는 잡의 수가 최고치보다 작지 않으면, 업로드된 디스크 이미지 형태의 잡이 대기(pending)하며(S121), 이때, 제2 서버(116)에 저장된 디스크 이미지가 삭제되고, 단계 S113에서 생성된 Shell script 및 기타 파일들이 삭제된다.
그리고 동작되는 잡의 수가 최고치보다 작으면, 업로드된 디스크 이미지 형태의 잡이 동작(running)된다(S123). 그리고 잡이 실행된다(S125).
잡의 실행이 성공했는지 실패했는지를 확인(S127)하여, 실패하면, 현 상태를 잡의 실패를 알린다(S129). 그리고 제2 서버(116)에 저장된 디스크 이미지가 삭제되며, 단계 S113에서 생성된 Shell script 및 기타 파일들이 삭제된다.
그리고 잡의 실행이 성공하면, 대기(pending) 중인 잡이 있는지 확인한다(S131). 대기 중인 잡이 없으면, 잡의 성공을 알린다(S133). 그리고 제2 서버(116)에 저장된 디스크 이미지가 삭제되며, 단계 S113에서 생성된 Shell script 및 기타 파일들이 삭제된다.
대기 중인 잡이 있으면, 성공된 잡에 대한 디스크 이미지를 제2 서버(116)에서 삭제한다(S135). 그리고 대기 중인 잡의 우선순위를 확인한다(S137). 이때, 우선순위가 확인되면, 우선순위가 가장 높은 잡은 단계 S123부터 이후 과정이 진행된다.
이때, 본 실시예에서, 단계 S137에서와 같이, 잡의 우선순위를 설정하기 위해 스케줄링을 구현할 수 있다. 잡의 우선순위의 설정은, 먼저 등록된 잡이 우선 실행되며, Parent job과 Child job으로 구성되는 경우, Parent job과 Child job의 등록이 완료된 이후에 실행되도록 할 수 있다.
Normal job은 독립적으로 하나의 파이프라인을 통해 빅데이터 분석이 이루어지는 잡이다. 그리고 Parent job 및 Child job은 하나의 분석으로, 먼저 Parent job이 수행된 이후에 Child job이 수행되어 하나의 빅데이터 분석이 이루어지는 잡이다. 일례로, Child job은 Parent job이 수행된 이후에 후속으로 수행되는 잡이다. 그에 따라 Parent job이 수행된 다음, 바로 수행된 Parent job에 해당되는 Child job이 수행되어야 한다.
상기와 같이, Child job이 Parent job의 수행 이후에 작업이 이루어지는 이유는, Child job은 Parent job의 결과를 이용하여 수행되기 때문이다.
위에서 설명한 바와 같이 본 발명에 대한 구체적인 설명은 첨부된 도면을 참조한 실시예에 의해서 이루어졌지만, 상술한 실시예는 본 발명의 바람직한 예를 들어 설명하였을 뿐이므로, 본 발명이 상기 실시예에만 국한되는 것으로 이해돼서는 안 되며, 본 발명의 권리범위는 후술하는 청구범위 및 그 등가개념으로 이해되어야 할 것이다.
100: 빅데이터 분석 시스템
110: 마스터 112: 입력부
114: 제1 서버 116: 제2 서버
118: 스케줄러
120: 저장부 130: 제1 워커
132: 커널 134: 제1 컨테이너
136: 제2 컨테이너
140: 제2 워커

Claims (5)

  1. 대용량 빅데이터 분석 파이프라인(pipeline)에 포함된 빅데이터를 분석하기 위해 적어도 하나 이상의 분석 도구를 포함하는 디스크 이미지(disk image)를 생성하는 마스터(master); 및
    상기 마스터에서 생성된 디스크 이미지를 수신하고, 수신된 디스크 이미지를 컨테이너(container)로 구동하여 상기 대용량 빅데이터 분석 파이프라인에 포함된 대용량 빅데이터를 분석하는 하나 이상의 워커(worker)를 포함하는 멀티 클라우드 환경에서 동일 방식의 과금 시스템.
  2. 청구항 1에 있어서,
    상기 마스터는 상기 빅데이터 정보 분석 파이프라인을 구성하기 위해 대용량 빅데이터 파일의 경로(URL)를 획득하고, 상기 파이프라인의 파라미터가 입력되는 멀티 클라우드 환경에서 동일 방식의 과금 부과 시스템.
  3. 청구항 1에 있어서,
    상기 하나 이상의 워커는 구동된 컨테이너에 CPU, 메모리 및 통신 중 어느 하나 이상의 커널 자원을 할당하는 멀티 클라우드 환경에서 동일 방식의 과금 부과 시스템.
  4. 대용량 빅데이터 분석 파이프라인(pipeline)에 포함된 빅데이터를 분석하기 위한 잡(job)이 마스터(master)에 등록되는 단계;
    상기 빅데이터의 분석을 위한 대용량 빅데이터 분석 파이프라인이 구성되는 단계;
    상기 대용량 빅데이터 분석 파이프라인을 적어도 하나 이상의 분석 도구가 포함된 디스크 이미지를 생성하는 단계;
    상기 생성된 디스크 이미지 형태의 잡을 빅데이터 분석을 수행하는 하나 이상의 워커로 전송하는 단계;
    상기 하나 이상의 워커에서 수신된 잡을 컨테이너(container)로 구동하는 단계; 및
    상기 구동된 컨테이너를 이용하여 상기 대용량 빅데이터 분석 파이프라인에 포함된 빅데이터를 분석하는 단계를 포함하는 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법.
  5. 청구항 4에 있어서,
    상기 우선순위는 상기 마스터에 등록된 시간 순서에 따라 상기 하나 이상의 워커에서 분석이 이루어지며,
    둘 이상의 빅데이터 분석 파이프라인이 구동되어 빅데이터의 분석이 필요한 경우, 모든 대용량 빅데이터 분석 파이프라인에 대한 디스크 이미지가 등록된 시점에 등록이 완료되는 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법.
KR1020170162665A 2017-11-30 2017-11-30 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템 KR20190069637A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170162665A KR20190069637A (ko) 2017-11-30 2017-11-30 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170162665A KR20190069637A (ko) 2017-11-30 2017-11-30 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20190069637A true KR20190069637A (ko) 2019-06-20

Family

ID=67103836

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170162665A KR20190069637A (ko) 2017-11-30 2017-11-30 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR20190069637A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102162834B1 (ko) 2019-11-25 2020-10-08 (주) 이노트리 멀티클라우드 또는 하이브리드클라우드를 위한 토폴로지 맵 이용 시스템 및 방법
WO2022261872A1 (zh) * 2021-06-16 2022-12-22 国云科技股份有限公司 一种多云管理平台资源计费方法及装置
WO2023182661A1 (ko) * 2022-03-24 2023-09-28 삼성전자 주식회사 빅데이터를 분석하는 전자 장치 및 그 동작 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279392B1 (ko) 2011-09-08 2013-07-04 한국과학기술정보연구원 생명 정보 분석 파이프라인 처리 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279392B1 (ko) 2011-09-08 2013-07-04 한국과학기술정보연구원 생명 정보 분석 파이프라인 처리 시스템 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102162834B1 (ko) 2019-11-25 2020-10-08 (주) 이노트리 멀티클라우드 또는 하이브리드클라우드를 위한 토폴로지 맵 이용 시스템 및 방법
WO2022261872A1 (zh) * 2021-06-16 2022-12-22 国云科技股份有限公司 一种多云管理平台资源计费方法及装置
WO2023182661A1 (ko) * 2022-03-24 2023-09-28 삼성전자 주식회사 빅데이터를 분석하는 전자 장치 및 그 동작 방법

Similar Documents

Publication Publication Date Title
TWI547817B (zh) 叢集運算架構的資源規劃方法、系統及裝置
US9639444B2 (en) Architecture for end-to-end testing of long-running, multi-stage asynchronous data processing services
CN105830049A (zh) 自动化实验平台
AU2017327824B2 (en) Data integration job conversion
CN101821728A (zh) 批处理系统
CN108197486A (zh) 大数据脱敏方法、系统、计算机可读介质及设备
KR20190069637A (ko) 멀티 클라우드 환경에서 동일 방식의 과금 부과 방법 및 시스템
CN106970880A (zh) 一种分布式自动化软件测试方法及系统
US8296723B2 (en) Configurable unified modeling language building blocks
CN102007495A (zh) 用于转换对于修改关于发布/订阅主题串的订阅的集合的自然语言请求的方法、装置和软件
CN112965803A (zh) Ai模型生成方法及电子设备
CN110895506A (zh) 测试数据的构造方法和构造系统
CN106078743B (zh) 智能机器人,应用于智能机器人的操作系统及应用商店
CN111966597B (zh) 测试数据生成方法及装置
CN114240157B (zh) 机器人调度方法、系统、设备及存储介质
CN109739701A (zh) 接口测试方法及装置
CN111352664A (zh) 分布式机器学习任务启动方法、系统、设备及存储介质
KR20180122775A (ko) 생명정보 분석 시스템 및 분석 방법
CN111294250B (zh) 压力测试方法、装置和系统
CN106372071B (zh) 数据仓库的信息获取方法和装置
CN112965745A (zh) 一种系统接入方法、装置、设备及计算机可读介质
CN113342550A (zh) 一种数据处理方法、系统、计算设备及存储介质
CN109326330B (zh) 生物信息分析工具的制作方法、装置及可存储介质
CN113518974A (zh) 用于找出并标识网络中的计算节点的系统和方法
Cachada et al. Petri nets approach for designing the migration process towards industrial cyber-physical production systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application