KR20240074087A - Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법 - Google Patents

Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법 Download PDF

Info

Publication number
KR20240074087A
KR20240074087A KR1020220155429A KR20220155429A KR20240074087A KR 20240074087 A KR20240074087 A KR 20240074087A KR 1020220155429 A KR1020220155429 A KR 1020220155429A KR 20220155429 A KR20220155429 A KR 20220155429A KR 20240074087 A KR20240074087 A KR 20240074087A
Authority
KR
South Korea
Prior art keywords
model
pod
specific
backend
update
Prior art date
Application number
KR1020220155429A
Other languages
English (en)
Inventor
김연중
노영태
Original Assignee
주식회사 위즈온텍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위즈온텍 filed Critical 주식회사 위즈온텍
Priority to KR1020220155429A priority Critical patent/KR20240074087A/ko
Publication of KR20240074087A publication Critical patent/KR20240074087A/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/082Configuration setting characterised by the conditions triggering a change of settings the condition being updates or upgrades of network functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0866Checking the configuration
    • H04L41/0869Validating the configuration within one network element
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법에 관한 것으로, 컨테이너 기반의 가상화 서비스와 연동하는 AI 모델 레포지토리(model repository)의 프론트앤드(frontend)를 통해 가상화 클러스터의 특정 AI 포드(pod)에서 운용 중인 AI 모델에 대한 조회 요청을 수신하는 단계; 상기 프론트앤드와 연결된 상기 AI 모델 레포지토리의 백앤드(backend)를 통해 상기 특정 AI 포드로부터 상기 조회 요청에 대한 응답을 수신하는 단계; 상기 백앤드를 통해 데이터베이스(DB)로부터 상기 응답에 포함된 AI 모델의 최신 버전을 조회하는 단계; 상기 프론트앤드를 통해 상기 최신 버전이 존재하는 경우 상기 AI 모델에 대한 업데이트 요청을 수신하는 단계; 및 상기 백앤드를 통해 상기 업데이트 요청에 따라 상기 데이터베이스로부터 AI 모델 파일을 수신하고 상기 특정 AI 포드 상에서 AI 모델 업데이트를 실행하는 단계;를 포함한다.

Description

MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법{AI MODEL UPGRADE METHOD THROUGH MEC-SPECIFIC AI MODEL REPOSITORY}
본 발명은 AI 모델 업그레이드 기술에 관한 것으로, 보다 상세하게는 MEC 환경에서 AI 응용 pod에서 사용하는 모델 및 버전을 확인하고 최신 AI 모델이 있는 경우 해당 모델 파일을 AI 응용 pod가 업데이트하도록 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법에 관한 것이다.
MEC(Multi-Access Edge Computing)는 트래픽 및 서비스 컴퓨팅을 중앙 집중식 클라우드에서 네트워크 에지(Edge)로 이동시켜 고객과 더 가깝게 만들 수 있다. 즉, 모든 데이터를 처리하기 위해 클라우드로 전송하는 대신 네트워크 에지에서 데이터를 분석, 처리 및 저장할 수 있다. MEC 플랫폼은 고객 가까이에서 데이터를 수집하고 처리함으로써 지연 시간을 단축시키고 고대역폭 애플리케이션에 대한 실시간 성능을 제공할 수 있다.
또한, MEC는 네트워크 에지에서 클라우드 컴퓨팅 기능과 IT 서비스 환경도 제공할 수 있다. 일반적으로 에지에 분산된 데이터센터를 통해 MEC를 구현할 수 있다. 에지의 애플리케이션에는 고대역폭 및 저지연 환경이 필요하며, 이를 달성하기 위해 서비스 프로바이더는 분산 데이터센터나 분산 클라우드를 구축할 수 있다. 클라우드를 구성하는 리소스는 중앙 집중식 데이터센터부터 셀 사이트, 중앙 사무실, 어그리게이션 사이트, 메트로 데이터센터 또는 고객 댁내까지 어디에나 있을 수 있으며, MEC 플랫폼에서는 서버나 CPE(Customer Premises Equipment)를 사용해 에지에서 컨텐츠를 처리하여 분산형 에지 컴퓨팅을 수행할 수 있다.
최근에는 MEC 환경(kubernetes 기반)에서 AI 기능을 수행하는 서비스에 대한 요구 및 활용이 증가하고 있으며, AI 응용 소프트웨어는 MEC 환경에서 k8s pod의 형태로 동작할 수 있다. 특히, AI 응용은 yolov4등 정의된 모델을 사용하는 경우가 많으며 해당 모델들은 지속적으로 업데이트될 수 있다.
이러한 MEC 환경에서 동작하는 pod의 AI 모델 업데이트를 위해서는 도커 이미지(docker image)를 다시 생성하고 pod로 배포하는 과정을 거쳐야 하며, 위의 과정을 생략해서 AI 응용 pod가 실시간으로 AI 모델을 업데이트하는 기능이 필요할 수 있다.
한국공개특허 제10-2022-0141227 호 (2022.10.19)
본 발명의 일 실시예는 MEC 환경에서 AI 응용 pod에서 사용하는 모델 및 버전을 확인하고 최신 AI 모델이 있는 경우 해당 모델 파일을 AI 응용 pod가 업데이트하도록 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법을 제공하고자 한다.
실시예들 중에서, MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법은 컨테이너 기반의 가상화 서비스와 연동하는 AI 모델 레포지토리(model repository)의 프론트앤드(frontend)를 통해 가상화 클러스터의 특정 AI 포드(pod)에서 운용 중인 AI 모델에 대한 조회 요청을 수신하는 단계; 상기 프론트앤드와 연결된 상기 AI 모델 레포지토리의 백앤드(backend)를 통해 상기 특정 AI 포드로부터 상기 조회 요청에 대한 응답을 수신하는 단계; 상기 백앤드를 통해 데이터베이스(DB)로부터 상기 응답에 포함된 AI 모델의 최신 버전을 조회하는 단계; 상기 프론트앤드를 통해 상기 최신 버전이 존재하는 경우 상기 AI 모델에 대한 업데이트 요청을 수신하는 단계; 및 상기 백앤드를 통해 상기 업데이트 요청에 따라 상기 데이터베이스로부터 AI 모델 파일을 수신하고 상기 특정 AI 포드 상에서 AI 모델 업데이트를 실행하는 단계;를 포함한다.
상기 프론트앤드는 상기 AI 모델 파일의 등록과 관리, AI 포드의 현재 모델 조회 및 신규 모델 배포를 위한 UI(User Interface) 메뉴를 제공할 수 있다.
상기 프론트앤드는 상기 AI 포드에 관한 UI 화면이 로딩되는 경우 해당 AI 포드의 상기 현재 모델 조회를 위한 제1 버튼을 활성화하고, 상기 제1 버튼의 선택에 따라 상기 백앤드를 통해 조회 결과를 수신한 다음 상기 신규 모델 배포를 위한 제2 버튼의 활성화 여부를 결정할 수 있다.
상기 프론트앤드는 상기 AI 모델 파일의 등록 과정에서 매니페스트(manifest) 파일을 통해 메타 정보의 조회 및 편집 기능을 제공할 수 있다.
상기 백앤드는 상기 데이터베이스와 연동하여 상기 AI 모델의 메타 정보 및 모델 파일의 관리, 상기 가상화 서비스와 연동하여 AI 포드 및 상세 정보의 조회, 상기 AI 포드에 대한 최신 모델 정보 및 모델 파일의 다운로드를 위한 기능들을 제공할 수 있다.
상기 모델 업데이트를 실행하는 단계는 상기 백앤드를 통해 상기 특정 AI 포드에게 다운로드 URL이 포함된 버전 업데이트 요청을 전송하는 단계; 상기 백앤드를 통해 상기 특정 AI 포드로부터 상기 AI 모델 파일에 대한 다운로드 요청을 수신하면 상기 특정 AI 포드에게 상기 AI 모델 파일을 전송하는 단계; 및 상기 백앤드를 통해 상기 특정 AI 포드로부터 상기 AI 모델 업데이트에 대한 업데이트 결과가 수신되면 상기 프론트앤드를 통해 상기 업데이트 요청의 응답으로서 상기 업데이트 결과를 제공하는 단계를 포함할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법은 MEC 환경에서 AI 응용 pod에서 사용하는 모델 및 버전을 확인하고 최신 AI 모델이 있는 경우 해당 모델 파일을 AI 응용 pod가 업데이트하도록 할 수 있다.
도 1은 본 발명에 따른 AI 모델 업그레이드 시스템을 설명하는 도면이다.
도 2는 도 1에 있는 AI 모델 레포지토리의 시스템 구성을 설명하는 도면이다.
도 3은 도 1에 있는 AI 모델 레포지토리의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 과정을 설명하는 순서도이다.
도 5는 본 발명에 따른 AI 모델 레포지토리의 UI 구성의 일 실시예를 설명하는 도면이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
쿠버네티스(Kubernetes)는 컨테이너식 애플리케이션을 배포하고 관리할 수 있도록 지원하는 오픈 소스 소프트웨어에 해당할 수 있다. 쿠버네티스는 아마존 EC2 컴퓨팅 인스턴스의 클러스터를 관리하고 배포, 유지 관리 및 규모 조정의 프로세스들을 통해 이러한 인스턴스에서 컨테이너를 실행할 수 있다. 즉, 쿠버네티스는 컨테이너 기반의 가상화 기능을 효율적으로 관리하기 위한 용도로 사용될 수 있으며, 쿠버네티스를 사용하면 온프레미스(On-premise)와 클라우드(Cloud)에서 같은 도구 세트를 사용하여 원하는 유형의 컨테이너식 애플리케이션을 실행할 수 있다.
쿠버네티스 클러스터(Kubernetes Cluster)는 컨테이너를 실행하는 EC2 컴퓨팅 인스턴스의 논리적 그룹에 해당할 수 있다. 클러스터는 컨트롤 플레인(컨테이너가 언제, 어떻게, 어디에서 실행되는지 제어하는 인스턴스)과 데이터 플레인(컨테이너가 실행되는 인스턴스)으로 구성될 수 있다. 따라서, 쿠버네티스를 통해 컨테이너 또는 서비스를 실행하기 전에 클러스터를 정의할 필요가 있다.
쿠버네티스 노드(Kubernetes Node)는 쿠버네티스 클러스터의 일부인 단일 컴퓨팅 인스턴스(가상 머신)에 해당할 수 있다. 인스턴스는 마스터 노드(master node)와 워커 노드(worker node)의 두 가지 유형을 포함할 수 있다. 마스터 노드는 쿠버네티스 API 서버를 호스팅할 수 있고, 컨테이너가 언제, 어떻게, 어디에서 실행되는지를 제어할 수 있다. 워커 노드는 컨테이너가 실제로 실행되고 데이터를 처리하는 컴퓨팅 인스턴스에 해당할 수 있다.
쿠버네티스 포드(POD)은 하나 이상의 컨테이너의 집합에 해당할 수 있으며, 쿠버네티스가 컴퓨팅 인스턴스에서 컨테이너를 실행하는 방법에 해당할 수 있다. 포드(POD)은 컨테이너와 컨테이너가 어떻게 실행되고, 네트워킹되고, 저장되어야 하는지에 대한 정보를 포함할 수 있다. 포드(POD)은 단일 컨테이너로 구성될 수 있고, 항상 함께 실행되는 다수의 컨테이너들로 구성될 수도 있다. 만약 단일 컨테이너를 실행하는 경우라면 포드(POD)을 실행 컨테이너로 간주할 수 있다.
이하, 도 1 내지 5를 참조하여 본 발명에 따른 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법에 관하여 구체적으로 설명한다.
도 1은 본 발명에 따른 AI 모델 업그레이드 시스템을 설명하는 도면이다.
도 1을 참조하면, AI 모델 업그레이드 시스템(100)은 사용자 단말(110), AI 모델 레포지토리(130), 데이터베이스(150) 및 가상화 서비스 장치(170)를 포함할 수 있다.
사용자 단말(110)은 사용자에 의해 운용되는 단말 장치에 해당할 수 있다. 본 발명의 실시예에서 사용자는 하나 이상의 사용자로 이해될 수 있으며, 하나 이상의 사용자들 각각은 하나 이상의 사용자 단말(110)에 대응될 수 있다. 즉, 도 1에서는 하나의 사용자 단말(110)로 표현되어 있으나, 제1 사용자는 제1 사용자 단말, 제2 사용자는 제2 사용자 단말, ..., 제n(상기 n은 자연수) 사용자는 제n 사용자 단말에 각각 대응될 수 있다.
또한, 사용자 단말(110)은 본 발명에 따른 AI 모델 업그레이드 시스템(100)을 구성하는 하나의 장치로서 구현될 수 있으며, AI 모델 업그레이드 시스템(100)은 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 목적에 따라 다양한 형태로 변형되어 구현될 수 있다.
또한, 사용자 단말(110)은 AI 모델 레포지토리(130)와 연결되어 동작 가능한 스마트폰, 노트북 또는 컴퓨터로 구현될 수 있으며, 반드시 이에 한정되지 않고, 태블릿 PC 등 포함하여 다양한 디바이스로도 구현될 수 있다.
한편, 사용자 단말(110)은 AI 모델 레포지토리(130)와 네트워크를 통해 연결될 수 있고, 복수의 사용자 단말(110)들은 AI 모델 레포지토리(130)와 동시에 연결될 수도 있다.
일 실시예에서, 사용자 단말(110)은 MEC 플랫폼을 구성하는 MEC 단말로 구현될 수 있다. 즉, 사용자 단말(110)은 MEC 플랫폼을 구동하고 관련 응용들을 실행할 수 있으며, 레포지토리 제공 장치(130)와 연동하여 동작할 수 있다.
AI 모델 레포지토리(130)는 본 발명에 따른 MEC 환경에서 AI 응용 포드(pod)에서 사용하는 모델 및 버전을 확인하고 최신 AI 모델이 있는 경우 해당 모델 파일을 AI 응용 pod가 업데이트하도록 하는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. AI 모델 레포지토리(130)는 사용자 단말(110)과 유선 네트워크 또는 블루투스, WiFi 등과 같은 무선 네트워크로 연결될 수 있고, 네트워크를 통해 사용자 단말(110)과 통신을 수행할 수 있다.
일 실시예에서, AI 모델 레포지토리(130)는 기능에 따라 프론트앤드(frontend)와 백앤드(backend)의 독립된 모듈들을 포함하여 구현될 수 있으며, 이에 대해서는 도 3에서 보다 자세히 설명한다.
데이터베이스(150)는 AI 모델 레포지토리(130)의 동작 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 예를 들어, 데이터베이스(150)는 AI 포드에 배포되는 AI 모델의 메타 정보와 모델 파일을 저장 및 관리하는 메타 및 파일 DB(Meta & File DB)를 포함할 수 있다. 데이터베이스(150)는 복수의 독립된 DB들을 포함하여 구성될 수 있다.
또한, 도 1에서, 데이터베이스(150)는 AI 모델 레포지토리(130)와 독립적인 장치로서 도시되어 있으나, 반드시 이에 한정되지 않고, 논리적인 저장장치로서 AI 모델 레포지토리(130)에 포함되어 구현될 수 있음은 물론이다.
가상화 서비스 장치(170)는 컨테이너 기반의 가상화 서비스를 제공할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 여기에서, 가상화 서비스는 클라우드 기반의 가상화된 IT 자원을 서비스로 제공하는 것에 해당할 수 있고, 가상화되어 제공되는 IT 자원은 서버, 플랫폼, 소프트웨어 등을 포함할 수 있다.
예를 들어, 가상화 서비스 장치(170)는 쿠버네티스를 기반으로 다양한 컴퓨팅 인스턴스의 클러스터를 관리하고 배포 및 유지 관리를 수행할 수 있으며, 이러한 인스턴스에서 컨테이너를 실행할 수 있다. 또한, 가상화 서비스 장치(170)는 컴퓨팅 인스턴스들을 기초로 쿠버네티스 클러스터를 논리적으로 구성할 수 있으며, 각 쿠버네티스 클러스터는 마스터 노드와 워커 노드들로 구성될 수 있다. 특히, 쿠버네티스 클러스터의 마스터 노드와 워크 노드들은 AI 모델 레포지토리(130)의 백앤드와 연동하여 동작할 수 있다.
도 2는 도 1에 있는 AI 모델 레포지토리의 시스템 구성을 설명하는 도면이다.
도 2를 참조하면, AI 모델 레포지토리(130)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함할 수 있다.
프로세서(210)는 본 발명의 실시예에 따른 AI 모델 업그레이드 프로시저를 실행할 수 있고, 이러한 과정에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄 할 수 있다. 프로세서(210)는 AI 모델 레포지토리(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 AI 모델 레포지토리(130)의 CPU(Central Processing Unit) 또는 GPU(Graphics Processing Unit)로 구현될 수 있다.
메모리(230)는 SSD(Solid State Disk) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 AI 모델 레포지토리(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다. 또한, 메모리(230)는 전기적으로 연결된 프로세서(210)에 의해 실행됨으로써 본 발명에 따른 AI 모델 업그레이드 방법을 실행하는 명령어들의 집합을 저장할 수 있다.
사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함하고, 예를 들어, 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치 스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, AI 모델 레포지토리(130)는 독립적인 서버로서 수행될 수 있다.
네트워크 입출력부(270)는 네트워크를 통해 사용자 단말(110)과 연결되기 위한 통신 환경을 제공하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다. 또한, 네트워크 입출력부(270)는 데이터의 무선 전송을 위해 WiFi, 블루투스 등의 근거리 통신 기능이나 4G 이상의 무선 통신 기능을 제공하도록 구현될 수 있다.
도 3은 도 1에 있는 AI 모델 레포지토리의 기능적 구성을 설명하는 도면이다.
도 3을 참조하면, AI 모델 레포지토리(130)는 프론트앤드(330)와 백앤드(350)로 구성될 수 있다.
프론트앤드(330)는 웹화면을 구성하는 웹 UI(310)를 통해 사용자 단말(110)과 연결될 수 있다. 예를 들어, 웹 UI(310)는 쿠버네티스의 대시보드 상에서 구현되어 제공될 수 있다. 프론트앤드(330)는 웹 UI(310)를 통해 사용자 단말(110)과 데이터를 주고 받을 수 있다.
일 실시예에서, 프론트앤드(330)는 AI 모델 파일의 등록과 관리, AI 포드의 현재 모델 조회 및 신규 모델 배포를 위한 UI(User Interface) 메뉴를 제공할 수 있다. AI 모델 파일의 등록과 관리의 경우, AI 모델을 AI 모델 레포지토리(130)에 등록하고 등록된 AI 모델의 조회, 수정 및 삭제 등의 관리를 위한 UI 메뉴에 해당할 수 있다. AI 포드의 현재 모델 조회의 경우, 현재 생성된 AI 포드에 적용된 현재 모델 정보를 조회하기 위한 UI 모델에 해당할 수 있다. 신규 모델 배포의 경우, AI 포드 별로 신규 모델을 업데이트하여 적용하기 위한 UI 메뉴에 해당할 수 있다. 프론트앤드(330)는 웹 UI(310)를 통해 사용자 단말(110)에게 AI 응용 포드에 대한 AI 모델 업데이트 기능을 제공할 수 있다.
일 실시예에서, 프론트앤드(330)는 AI 포드에 관한 UI 화면이 로딩되는 경우 해당 AI 포드의 현재 모델 조회를 위한 제1 버튼을 활성화하고, 제1 버튼의 선택에 따라 백앤드를 통해 조회 결과를 수신한 다음 신규 모델 배포를 위한 제2 버튼의 활성화 여부를 결정할 수 있다. 이에 대해서는 도 5를 통해 보다 자세히 설명한다.
일 실시예에서, 프론트앤드(330)는 AI 모델 파일의 등록 과정에서 매니페스트(manifest) 파일을 통해 메타 정보의 조회 및 편집 기능을 제공할 수 있다. AI 모델의 등록 과정은 AI 모델에 대한 메타 파일과 모델 파일로 구성될 수 있으며, 프론트앤드(330)는 여러개의 파일로 구성된 모델을 하나의 메타 정보로 구성하여 등록하는 기능을 제공할 수 있다.
또한, 프론트앤드(330)는 여러 파일 또는 하나의 폴더를 선택한 후 해당 폴더 내의 모델 파일들을 등록할 수 있으며, 모델 파일 등록시 매니페스트(manifest) 파일을 통한 메타 정보의 조회 및 편집 기능을 제공할 수 있다. 이에 따라, 모델 등록이 선택된 경우 메타 정보를 제외한 모델 파일들이 하나의 압축파일(zip)로 묶여서 데이터베이스(150)에 저장될 수 있다.
백앤드(350)는 데이터베이스(150) 및 가상화 서비스와 연동하여 메타 및 모델 파일을 관리하고 클러스터 제어를 수행할 수 있다. 즉, 백앤드(350)는 AI 모델 업그레이드를 위하여 AI 포드에게 최신 AI 모델 정보와 파일을 제공하고 마스터 노드를 통해 쿠버네티스 클러스터를 제어할 수 있다.
일 실시예에서, 백앤드(350)는 데이터베이스(150)와 연동하여 AI 모델의 메타 정보 및 모델 파일의 관리, 가상화 서비스(k8s)와 연동하여 AI 포드 및 상세 정보의 조회, AI 포드에 대한 최신 모델 정보 및 모델 파일의 다운로드를 위한 기능들을 제공할 수 있다.
도 4는 본 발명에 따른 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 과정을 설명하는 순서도이다.
도 4를 참조하면, 사용자는 사용자 단말(110)을 통해 현재 운용되고 있는 AI 포드(pod)의 모델 버전을 확인할 수 있고, 해당 버전보다 더 최신의 버전이 있는 경우 AI 모델 레포지토리(130)에 모델 업데이트를 요청할 수 있으며, AI 모델 레포지토리(130)를 통해 AI 포드에 최신 모델을 다운로드할 수 있다.
보다 구체적으로, AI 모델 레포지토리(130)의 프론트앤드는 웹 UI를 통해 사용자 단말로부터 AI 모델 조회 요청을 수신할 수 있다. 프론트앤드는 백앤드에게 AI 모델 조회 요청을 전달할 수 있으며, 백앤드는 가상화 서비스 장치(170)와 연동하여 현재 운용중인 AI 포드로부터 모델 정보를 조회할 수 있다.
즉, 가상화 서비스 장치(170)는 사용자에 의해 선택된 AI 포드의 AI 모델 이름, 버전 등을 응답 정보로서 제공할 수 있으며, AI 모델 레포지토리(130)의 백앤드는 해당 정보를 수신한 다음, 데이터베이스(150)로부터 해당 AI 모델의 최신 버전 정보를 조회할 수 있다.
이후, AI 모델 레포지토리(130)의 백앤드는 데이터베이스(150)로부터 수신한 AI 모델의 최신 버전 정보와 AI 포드의 AI 모델 정보를 프론트앤드의 웹 UI를 통해 사용자 단말(110)에게 제공할 수 있다.
사용자가 웹 UI를 통해 최신 AI 모델 업데이트를 요청한 경우, AI 모델 레포지토리(130)는 프론트앤드를 거쳐 백앤드로 전달된 해당 요청을 처리할 수 있다. 먼저 백앤드는 데이터베이스(150)로부터 AI 모델 파일을 질의(query)하여 AI 모델 파일을 수신할 수 있다. 이후, 백앤드는 AI 포드에게 버전 업데이트를 요청할 수 있다. 이때, 버전 업데이트 요청에는 AI 파일의 다운로드 주소(URL)가 포함될 수 있다.
즉, AI 포드는 버전 업데이트 요청에 따라 다운로드 주소를 통해 AI 모델 레포지토리(130)의 백앤드에게 AI 모델 파일을 요청할 수 있다. 이에 따라, 백앤드는 AI 모델 파일을 AI 포드에게 제공할 수 있으며, AI 포드는 AI 모델 파일을 기반으로 AI 모델 업데이트를 수행할 수 있다. AI 모델 업데이트가 완료되면, AI 포드는 백앤드에게 업데이트 완료 응답을 전송할 수 있으며, 백앤드는 응답 결과를 프론트앤드에게 전달하여 웹 UI 상에서 업데이트 결과가 표시되도록 할 수 있다.
도 5는 본 발명에 따른 AI 모델 레포지토리의 UI 구성의 일 실시예를 설명하는 도면이다.
도 5를 참조하면, AI 모델 레포지토리(130)는 웹화면을 구성하는 프론트앤드를 통해 AI 포드의 현재 모델 조회와 신규 모델을 AI 포드에 배포하는 UI 메뉴를 제공할 수 있다.
예를 들어, 쿠버네티스(k8s) 대시보드(510)에서 AI 포드들에 대한 UI가 제공될 수 있다. 이때, 해당 UI는 'version' 버튼과 'update' 버튼으로 구성될 수 있다.
먼저, 대시보드(510)의 UI 화면 로딩시 AI 포드의 버튼 상태는 버전 버튼의 경우 활성화되고, 업데이트 버튼의 경우 비활성화될 수 있다(그림 (A)).
사용자에 의해 버전 버튼이 선택된 경우, AI 모델 레포지토리(130)의 백앤드를 통해 포드의 현재 모델 버전과 데이터베이스(150)의 최신 버전을 비교한 결과가 전송될 수 있다. 이때, AI 모델 레포지토리(130)의 프론트앤드는 팝업으로 해당 정보를 출력할 수 있다(그림 (C)).
예를 들어, 백앤드를 통해 {model_name; aaa, installed_version: 2.4, latest_version: 2.7}의 결과가 전송되면, 프론트앤드는 모델 이름(model_name), 현재 버전 정보(installed_version) 및 최신 버전 정보(latest_version)를 팝업을 통해 출력할 수 있다.
만약 latest_version이 installed_version보다 더 크면 해당 AI 포드의 업데이트 버튼이 활성화될 수 있다(그림 (B)). 이후, 사용자에 의해 업데이트 버튼이 선택된 경우, 해당 AI 포드에 대해 AI 모델 업데이트 과정(model update flow)가 수행될 수 있다.
본 발명에 따른 MEC 특화 AI 모델 레포지토리는 MEC 환경에서 AI 응용 포드들의 별도 관리를 지원할 수 있으며, 다양한 버전의 AI 모델 파일에 대한 관리 기능을 제공할 수 있다. 또한, AI 모델 레포지토리는 AI 응용 포드들이 실행하는 모델 버전의 확인 및 이를 실시간으로 업데이트하는 기능을 제공함으로써 보다 향상된 AI 로직을 수행할 수 있도록 할 수 있다.
따라서, AI 모델을 업데이트하기 위하여 도커 이미지(docker image)를 생성하는 과정이 필요하지 않게 되므로, AI 모델 레포지토리는 MEC 환경에 익숙하지 않은 AI 개발자도 쉽게 최신 AI 모델을 관리하고 적용하도록 할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: AI 모델 업그레이드 시스템
110: 사용자 단말 130: AI 모델 레포지토리
150: 데이터베이스 170: 가상화 서비스 장치
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 웹 UI 330: 프론트앤드
350: 백앤드

Claims (6)

  1. 컨테이너 기반의 가상화 서비스와 연동하는 AI 모델 레포지토리(model repository)의 프론트앤드(frontend)를 통해 가상화 클러스터의 특정 AI 포드(pod)에서 운용 중인 AI 모델에 대한 조회 요청을 수신하는 단계;
    상기 프론트앤드와 연결된 상기 AI 모델 레포지토리의 백앤드(backend)를 통해 상기 특정 AI 포드로부터 상기 조회 요청에 대한 응답을 수신하는 단계;
    상기 백앤드를 통해 데이터베이스(DB)로부터 상기 응답에 포함된 AI 모델의 최신 버전을 조회하는 단계;
    상기 프론트앤드를 통해 상기 최신 버전이 존재하는 경우 상기 AI 모델에 대한 업데이트 요청을 수신하는 단계; 및
    상기 백앤드를 통해 상기 업데이트 요청에 따라 상기 데이터베이스로부터 AI 모델 파일을 수신하고 상기 특정 AI 포드 상에서 AI 모델 업데이트를 실행하는 단계;를 포함하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법.
  2. 제1항에 있어서, 상기 프론트앤드는
    상기 AI 모델 파일의 등록과 관리, AI 포드의 현재 모델 조회 및 신규 모델 배포를 위한 UI(User Interface) 메뉴를 제공하는 것을 특징으로 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법.
  3. 제2항에 있어서, 상기 프론트앤드는
    상기 AI 포드에 관한 UI 화면이 로딩되는 경우 해당 AI 포드의 상기 현재 모델 조회를 위한 제1 버튼을 활성화하고, 상기 제1 버튼의 선택에 따라 상기 백앤드를 통해 조회 결과를 수신한 다음 상기 신규 모델 배포를 위한 제2 버튼의 활성화 여부를 결정하는 것을 특징으로 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법.
  4. 제2항에 있어서, 상기 프론트앤드는
    상기 AI 모델 파일의 등록 과정에서 매니페스트(manifest) 파일을 통해 메타 정보의 조회 및 편집 기능을 제공하는 것을 특징으로 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법.
  5. 제1항에 있어서, 상기 백앤드는
    상기 데이터베이스와 연동하여 상기 AI 모델의 메타 정보 및 모델 파일의 관리, 상기 가상화 서비스와 연동하여 AI 포드 및 상세 정보의 조회, 상기 AI 포드에 대한 최신 모델 정보 및 모델 파일의 다운로드를 위한 기능들을 제공하는 것을 특징으로 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법.
  6. 제1항에 있어서, 상기 모델 업데이트를 실행하는 단계는
    상기 백앤드를 통해 상기 특정 AI 포드에게 다운로드 URL이 포함된 버전 업데이트 요청을 전송하는 단계;
    상기 백앤드를 통해 상기 특정 AI 포드로부터 상기 AI 모델 파일에 대한 다운로드 요청을 수신하면 상기 특정 AI 포드에게 상기 AI 모델 파일을 전송하는 단계; 및
    상기 백앤드를 통해 상기 특정 AI 포드로부터 상기 AI 모델 업데이트에 대한 업데이트 결과가 수신되면 상기 프론트앤드를 통해 상기 업데이트 요청의 응답으로서 상기 업데이트 결과를 제공하는 단계를 포함하는 것을 특징으로 하는 MEC 특화 AI 모델 레포지토리를 통한 AI 모델 업그레이드 방법.
KR1020220155429A 2022-11-18 2022-11-18 Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법 KR20240074087A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220155429A KR20240074087A (ko) 2022-11-18 2022-11-18 Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220155429A KR20240074087A (ko) 2022-11-18 2022-11-18 Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법

Publications (1)

Publication Number Publication Date
KR20240074087A true KR20240074087A (ko) 2024-05-28

Family

ID=91277478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220155429A KR20240074087A (ko) 2022-11-18 2022-11-18 Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법

Country Status (1)

Country Link
KR (1) KR20240074087A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220141227A (ko) 2021-04-12 2022-10-19 인텔 코포레이션 Mec 서비스 메시 프레임워크에서의 탈중개화된 증명

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220141227A (ko) 2021-04-12 2022-10-19 인텔 코포레이션 Mec 서비스 메시 프레임워크에서의 탈중개화된 증명

Similar Documents

Publication Publication Date Title
US11288053B2 (en) Conversion and restoration of computer environments to container-based implementations
US11567755B2 (en) Integration of containers with external elements
US11829742B2 (en) Container-based server environments
US10762075B2 (en) Database interface agent for a tenant-based upgrade system
US10528585B2 (en) ETL tool interface for remote mainframes
CN102200921B (zh) 智能引导设备选择和恢复
US8949364B2 (en) Apparatus, method and system for rapid delivery of distributed applications
CN112099918A (zh) 容器化环境中的集群的实时迁移
US8615588B2 (en) Accelerate copying of virtual machine images
US8954859B2 (en) Visually analyzing, clustering, transforming and consolidating real and virtual machine images in a computing environment
KR102319172B1 (ko) 클라우드 컴퓨팅 기반의 플랫폼 제공 시스템 및 이를 이용한 플랫폼 제공 방법
CN109582441A (zh) 用于提供容器服务的系统、方法和装置
US20130290952A1 (en) Copying Virtual Machine Templates To Cloud Regions
US7363457B1 (en) Method and system for providing virtualization data services for legacy storage devices
CN111290828A (zh) 使用容器编排服务进行动态路由
CN104765621B (zh) 一种在集群节点中部署程序的方法和系统
JP2011076605A (ja) 仮想マシン・イメージの実行方法及びシステム
CN112698921B (zh) 一种逻辑代码运行方法、装置、计算机设备和存储介质
US11977559B2 (en) Providing instant and distributed access to a source blob via copy-on-read blobs and link blobs
JP2023518136A (ja) ファイル処理方法、装置、電子デバイス、記憶媒体、及びプログラム
KR20240074087A (ko) Mec 특화 ai 모델 레포지토리를 통한 ai 모델 업그레이드 방법
US20150074116A1 (en) Indexing attachable applications for computing systems
KR20240074089A (ko) 도커 프라이빗 레포지토리를 포함하는 mec 특화 레포지토리 제공 방법
US20240152371A1 (en) Dynamic re-execution of parts of a containerized application pipeline
CN112468349B (zh) 适用于FT2000+平台部署Ceph的主节点

Legal Events

Date Code Title Description
E902 Notification of reason for refusal