KR20210005120A - 피처 엔지니어링 오케스트레이션 방법 및 장치 - Google Patents

피처 엔지니어링 오케스트레이션 방법 및 장치 Download PDF

Info

Publication number
KR20210005120A
KR20210005120A KR1020207033491A KR20207033491A KR20210005120A KR 20210005120 A KR20210005120 A KR 20210005120A KR 1020207033491 A KR1020207033491 A KR 1020207033491A KR 20207033491 A KR20207033491 A KR 20207033491A KR 20210005120 A KR20210005120 A KR 20210005120A
Authority
KR
South Korea
Prior art keywords
information
network device
data
feature
indication information
Prior art date
Application number
KR1020207033491A
Other languages
English (en)
Other versions
KR102470712B1 (ko
Inventor
이수 수
진 장
얀 왕
Original Assignee
후아웨이 테크놀러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 후아웨이 테크놀러지 컴퍼니 리미티드 filed Critical 후아웨이 테크놀러지 컴퍼니 리미티드
Publication of KR20210005120A publication Critical patent/KR20210005120A/ko
Application granted granted Critical
Publication of KR102470712B1 publication Critical patent/KR102470712B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/14Network analysis or design
    • H04L41/145Network analysis or design involving simulating, designing, planning or modelling of a network
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/40Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)

Abstract

본 출원은 피처 엔지니어링 오케스트레이션 방법 및 장치를 개시한다. 이 방법에서, 제 1 네트워크 디바이스는 제 2 네트워크 디바이스로부터 제 1 표시 정보를 수신하고 ― 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함함 ―; 제 1 네트워크 디바이스는 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 피처 데이터를 획득하고, 획득된 피처 데이터를 제 2 네트워크 디바이스에 전송하고; 그리고 제 2 네트워크 디바이스는 수신된 피처 데이터에 기반하여 모델 트레이닝을 수행한다. 전술한 방법에서, 제 1 네트워크 디바이스는 대량의 원시 데이터를 제 2 네트워크 디바이스에 전송할 필요가 없으므로, 전송 부담이 감소되고, 전송 네트워크에 대한 전송 요구 사항이 감소되고, 그리고 제 2 네트워크 디바이스의 계산량이 공유되므로, 모델 트레이닝 효율성을 높이는 데 도움을 준다.

Description

피처 엔지니어링 오케스트레이션 방법 및 장치
본 출원은 "피처 엔지니어링 오케스트레이션 방법 및 장치(FEATURE ENGINEERING ORCHESTRATION METHOD AND APPARATUS)"라는 명칭으로 2018년 4월 28일 중국 특허청에 출원된 중국 특허 출원 번호 제201810399920.3호의 우선권을 주장하며, 이 중국 출원은 그 전체가 본원에 참고로 포함된다.
본 출원은 통신 기술 분야에 관한 것으로, 특히, 피처 엔지니어링 오케스트레이션 방법 및 장치(feature engineering orchestration method and apparatus)에 관한 것이다.
도 1에 도시된 바와 같이, 머신 러닝은 대략적으로 수 개의 데이터 수집, 피처 엔지니어링(feature engineering), 모델 트레이닝, 및 예측 단계들을 포함할 수 있다. 데이터 수집은 데이터 소스를 생성하는 객체에서 다양한 타입의 원시 데이터(raw data)가 획득되어 데이터 트레이닝이나 예측을 위해 데이터베이스 또는 메모리에 저장된다는 것을 의미한다. 피처 엔지니어링은 원시 데이터에 대해 구조화(structuring), 중복성 제거(deduplication), 잡음 제거(denoising)와 같은 비교적 간단한 처리를 수행한 다음 처리된 데이터에 대해 피처 추출(feature extraction) 및 상관 분석(correlation analysis)과 같은 동작을 수행하여 피처 데이터(feature data)를 획득하는 것을 의미한다. 모델 트레이닝 프로세스는 트레이닝을 위한 적절한 알고리즘, 피처 데이터 등을 선택하여 모델을 획득하는 것을 의미한다. 공통 알고리즘들(common algorithms)은 회귀(regression), 의사 결정 트리(decision tree), 신경 네트워크, 지원 벡터 머신(support vector machine)(SVM), 베이즈(Bayes) 분류기 등을 포함한다. 예측 프로세스에서, 트레이닝을 통해 획득된 모델에 새로운 샘플 데이터가 입력되고, 모델에 기반하여 대응하는 출력 결과가 획득될 수 있다. 다른 알고리즘에 기반하여, 출력 결과는 특정 값일 수 있거나, 또는 분류 결과일 수 있다. 출력 결과는 머신 러닝(machine learning)을 통해 획득된 예측 컨텐츠이다.
기술자는 머신 러닝을 통신 네트워크에 도입하고, 데이터를 분석하고 예측하여 통신 네트워크를 최적화한다. 액세스 네트워크에서, 기지국은 원시 데이터를 액세스 네트워크 데이터 분석(RAN 데이터 분석)(RAN data analysis)(RANDA) 네트워크 요소에 전송하고, RANDA 네트워크 요소는 피처 엔지니어링, 트레이닝, 및 예측 기능들을 수행한다. 코어 네트워크에서, 사용자 평면 기능(user plane function)(UPF)은 원시 데이터를 네트워크 데이터 분석(network data analysis)(NWDA) 네트워크 요소에 전송하고, NWDA 네트워크 요소는 피처 엔지니어링, 트레이닝, 및 예측 기능들을 수행한다.
그러나 기지국과 UPF는 대량의 원시 데이터를 보고해야 하므로 전송 성능에 대한 요구 사항이 비교적 높다. 전송 네트워크가 전송 요구 사항을 충족하지 못할 수 있으며, 네트워크 리소스가 또한 낭비되기도 한다.
본 출원은 통신 네트워크에서 데이터에 대한 피처 엔지니어링 및 모델 트레이닝을 수행하기 위한 피처 엔지니어링 오케스트레이션 방법 및 장치를 제공한다.
제 1 양태에 따르면, 본 출원은 피처 엔지니어링 오케스트레이션 방법을 제공하며, 이 방법은: 제 1 네트워크 디바이스에 의해, 제 2 네트워크 디바이스로부터 제 1 표시 정보를 수신하는 단계 ― 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함함 ―; 상기 제 1 네트워크 디바이스가 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 대응하는 피처 데이터를 획득하는 단계; 상기 제 1 네트워크 디바이스에 의해, 상기 획득된 피처 데이터를 상기 제 2 네트워크 디바이스에 전송하는 단계; 및 상기 제 2 네트워크 디바이스에 의해, 상기 수신된 피처 데이터에 기반하여 모델 트레이닝을 수행하는 단계를 포함한다.
전술한 방법에서, 제 1 네트워크 디바이스는 제 2 네트워크 디바이스에 의해 표시되는 메소드에 따라 피처 추출을 수행할 수 있고, 추출된 피처 데이터를 제 2 네트워크 디바이스에 전송할 수 있다. 제 1 네트워크 디바이스는 대량의 원시 데이터를 제 2 네트워크 디바이스에 전송할 필요가 없으므로, 전송 부담이 감소될 수 있고, 전송 네트워크에 대한 전송 요구 사항이 감소될 수 있고, 그리고 제 2 네트워크 디바이스의 계산량이 공유될 수 있으므로, 모델 트레이닝 효율성을 높이는 데 도움을 줄 수 있다.
가능한 구현예에서, 제 2 네트워크 디바이스는 중앙 유닛(central unit)(중앙 집중 유닛(centralized unit)(CU))일 수 있고, 제 1 네트워크 디바이스는 분산 유닛(distributed unit)(DU)일 수 있다. 대안적으로, 제 2 네트워크 디바이스는 RANDA 네트워크 요소일 수 있고, 제 1 네트워크 디바이스는 CU, DU, 또는 일반 NodeB (general NodeB)(gNB)일 수 있다. 대안적으로, 제 2 네트워크 디바이스는 NWDA 네트워크 요소일 수 있고, 제 1 네트워크 디바이스는 UPF, 액세스 관리 기능(access management function)(AMF), 세션 관리 기능(session management function)(SMF), 또는 정책 제어 기능(policy control function)(PCF)일 수 있다. 대안적으로, 제 2 네트워크 디바이스는 분석 및 모델링 기능(analysis and modeling function)(A&MF)일 수 있고, 제 1 네트워크 디바이스는 데이터 서비스 기능(data service function)(DSF)일 수 있다.
가능한 구현예에서, 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함할 수 있다. 제 1 메소드 파라미터 정보는 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다. 일부 실시예에서, 제 1 메소드를 표시할 때, 제 2 네트워크 디바이스는 그 메소드가 사용될 때 요구되는 파라미터를 추가로 표시할 필요가 있다. 예를 들어, 데이터에 대해 정규화 처리를 수행하는 제 1 네트워크 디바이스를 표시하는 경우, 상기 제 2 네트워크 디바이스는 정규화된 데이터에 대한 최대 임계치 및 최소 임계치를 더 표시할 수 있다.
가능한 구현예에서, 수신된 피처 데이터에 기반하여 모델 트레이닝을 수행한 후, 제 2 네트워크 디바이스는 트레이닝을 통해 획득된 모델 정보를 제 1 네트워크 디바이스에 더 전송할 수 있다. 제 1 네트워크 디바이스는 수신된 모델 정보에 기반하여 데이터 예측을 더 수행한다.
종래 기술에서, 제 1 네트워크 디바이스는 대량의 원시 데이터를 보고해야 하므로 제 2 네트워크 디바이스는 데이터 예측을 수행한다. 그러나, 본 출원의 전술한 실시예에서, 제 1 네트워크 디바이스는 제 2 네트워크 디바이스에 의해 전송된 모델 정보에 기반하여 데이터 예측을 수행해야만 하므로, 제 1 네트워크 디바이스는 대량의 데이터를 전송하는 것이 방지될 수 있으며, 따라서 전송 네트워크에 대한 요구 사항이 감소될 수 있다.
다른 가능한 구현예에서, 수신된 피처 데이터에 기반하여 모델 트레이닝을 수행한 후, 상기 제 2 네트워크 디바이스는 트레이닝을 통해 획득된 모델 정보를 제 3 네트워크 디바이스에 더 전송할 수 있다. 제 3 네트워크 디바이스는 수신된 모델 정보에 기반하여 데이터 예측을 수행한다. 제 2 네트워크 디바이스는 A&MF일 수 있고, 제 1 네트워크 디바이스는 DSF일 수 있고, 제 3 네트워크 디바이스는 모델 실행 기능(model execution function)(MEF)일 수 있다.
가능한 구현예에서, 모델 정보는 모델 알고리즘 정보 및 모델의 입력 피처 정보를 포함한다. 구체적으로, 입력 피처 정보는 입력 피처 벡터를 획득하는 데 사용되며, 입력 피처 벡터 및 모델 알고리즘 정보는 데이터 예측에 사용된다.
추가로, 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 더 포함할 수 있다.
제 1 네트워크 디바이스가 제 2 네트워크 디바이스에 의해 전송된 모델 정보를 수신하면, 제 1 네트워크 디바이스는 제 2 메소드 표시 정보에 의해 표시하는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득할 수 있고, 그 후 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 데이터 예측 결과를 획득할 수 있다.
제 2 네트워크 디바이스에 의해 전송된 모델 정보를 수신하면, 제 3 네트워크 디바이스는 입력 피처 정보를 제 1 네트워크 디바이스에 전송할 수 있다. 제 1 네트워크 디바이스는 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득하고, 입력 피처 벡터를 제 3 네트워크 디바이스에 전송한다. 제 3 네트워크 디바이스는 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 데이터 예측 결과를 획득한다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 제 2 메소드 파라미터 정보는 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
제 2 양태에 따르면, 본 출원의 일 실시예는 수신 모듈, 처리 모듈, 및 전송 모듈을 포함하는 제 1 네트워크 디바이스를 제공한다. 수신 모듈, 처리 모듈, 및 전송 모듈은 제 1 양태의 임의의 가능한 구현예에서 제 1 네트워크 디바이스에 의해 수행되는 기능을 수행하도록 구성된다.
제 3 양태에 따르면, 본 출원의 일 실시예는 전송 모듈, 수신 모듈, 및 처리 모듈을 포함하는 제 2 네트워크 디바이스를 제공한다. 전송 모듈, 수신 모듈, 및 처리 모듈은 제 1 양태의 임의의 가능한 구현예에서 제 2 네트워크 디바이스에 의해 수행되는 기능을 수행하도록 구성된다.
제 4 양태에 따르면, 본 출원의 일 실시예는 프로세서, 메모리, 및 통신 인터페이스를 포함하는 제 1 네트워크 디바이스를 제공한다. 메모리는 프로그램을 저장하도록 구성되고, 프로세서는 메모리에 저장된 프로그램을 호출하여, 통신 인터페이스를 사용함으로써 제 1 양태의 임의의 가능한 구현예에서 제 1 네트워크 디바이스에 의해 수행되는 기능을 수행한다.
제 5 양태에 따르면, 본 출원의 일 실시예는 프로세서, 메모리, 및 통신 인터페이스를 포함하는 제 2 네트워크 디바이스를 제공한다. 메모리는 프로그램을 저장하도록 구성되고, 프로세서는 메모리에 저장된 프로그램을 호출하여, 통신 인터페이스를 사용함으로써 제 1 양태의 임의의 가능한 구현예에서 제 2 네트워크 디바이스에 의해 수행되는 기능을 수행한다.
제 6 양태에 따르면, 본 출원의 일 실시예는, 제 2 양태에 따른 제 1 네트워크 디바이스 및 제 3 양태에 따른 제 2 네트워크 디바이스를 포함하거나 또는 제 4 양태에 따른 제 1 네트워크 디바이스 및 제 5 양태에 따른 제 2 네트워크 디바이스를 포함할 수 있는 통신 시스템을 제공한다.
제 7 양태에 따르면, 본 출원에 일 실시예는 컴퓨터 판독 가능 저장 매체를 제공하고, 상기 컴퓨터 판독 가능 저장 매체는 컴퓨터 명령어를 저장하고, 상기 명령어가 컴퓨터 상에서 실행될 경우, 상기 컴퓨터는 제 1 양태의 임의의 구현예에서 방법을 수행하도록 인에이블된다.
제 8 양태에 따르면, 본 출원의 일 실시예는 명령어를 포함하는 컴퓨터 프로그램 제품을 제공하며, 컴퓨터 프로그램 제품이 컴퓨터 상에서 실행될 경우, 상기 컴퓨터는 전술한 양태들에서 방법을 수행하도록 인에이블된다.
도 1은 본 출원의 일 실시예에 따른 머신 러닝의 개략적인 플로우차트이다.
도 2는 본 출원의 일 실시예에 따른 5G 통신 네트워크에서 RAN 아키텍처의 개략적인 다이어그램이다.
도 3은 본 출원의 일 실시예에 따른 5G 통신 네트워크에서 CN 아키텍처의 개략적인 다이어그램이다.
도 4a는 본 출원의 일 실시예에 따른 5G 통신 네트워크에서 다른 RAN 아키텍처의 개략적인 다이어그램이다.
도 4b는 본 출원의 일 실시예에 따른 5G 통신 네트워크에서 다른 CN 아키텍처의 개략적인 다이어그램이다.
도 5는 본 출원의 일 실시예에 따른 피처 엔지니어링 오케스트레이션 방법의 개략적인 플로우차트 1이다.
도 6은 본 출원의 일 실시예에 따른 공통 피처 엔지니어링 메소드(common feature engineering method)를 도시한 것이다.
도 7은 본 출원의 일 실시예에 따른 피처 엔지니어링 오케스트레이션 방법의 개략적인 플로우차트 2이다.
도 8은 본 출원의 일 실시예에 따른 피처 엔지니어링 오케스트레이션 방법의 개략적인 플로우차트 3이다.
도 9는 본 출원의 일 실시예에 따른 피처 엔지니어링 오케스트레이션 방법의 개략적인 플로우차트 4이다.
도 10은 본 출원의 일 실시예에 따른 피처 엔지니어링 오케스트레이션 방법의 개략적인 플로우차트 5이다.
도 11은 본 출원의 일 실시예에 따른 네트워크 디바이스의 개략적인 구조적 다이어그램 1이다.
도 12는 본 출원의 일 실시예에 따른 네트워크 디바이스의 개략적인 구조적 다이어그램 2이다.
본 출원의 목적, 기술적 솔루션, 및 이점을 보다 명확하게 하기 위해, 이하에서는 첨부된 도면을 참조하여 본 출원을 더 상세히 기술한다.
머신 러닝 및 인공 지능(artificial intelligence)(AI)의 발달로, 통신 네트워크는 머신 러닝 방식으로 데이터를 분석하고 예측하여 네트워크를 최적화할 수 있다. 통신 네트워크에서, 기지국과 UPF에 의해 대량의 원시 데이터가 생성되지만, 기지국과 UPF는 데이터를 분석하고 처리하는 능력을 갖지는 못한다. 따라서, 기지국은 대량의 원시 데이터를 RANDA 네트워크 요소에 전송할 수 있고, UPF는 대량의 원시 데이터를 NWDA 네트워크 요소에 전송할 수 있다. RANDA 네트워크 요소와 NWDA 네트워크 요소는 획득한 원시 데이터에 대해 피처 엔지니어링 및 모델 트레이닝을 수행하여 데이터 예측에 사용되는 모델을 획득하고, 그 후 기지국 또는 UPF에 의해 전송된 새로운 원시 데이터에 기반하여 그리고 트레이닝을 통해 획득된 모델을 사용하여 데이터 예측을 수행한다. 그러나, 전술한 프로세스에서, 기지국이나 UPF는 모델 트레이닝 및 예측 프로세스에서 대량의 원시 데이터를 보고해야 하므로, 전송 네트워크에 비교적 높은 부담이 가해지고, 전송 네트워크는 전송 네트워크에 대한 전송 요구 사항을 충족시키지 못할 수 있다.
전술한 문제를 해결하기 위해, 본 출원의 일 실시예는 통신 네트워크에서 데이터에 대해 피처 엔지니어링 및 모델 트레이닝을 수행하는 데 사용되는 피처 엔지니어링 오케스트레이션 방법을 제공하여, 전송 부담을 감소시킨다. 본 출원의 이 실시예에 제공되는 피처 엔지니어링 오케스트레이션 방법은 3/4/5G 모바일 통신 네트워크 또는 다른 미래 통신 네트워크에 적용될 수 있다. 이 방법은 무선 액세스 네트워크(radio access network)(RAN)에 적용될 수 있거나, 또는 코어 네트워크(core network)(CN)에 적용될 수 있다.
도 2는 본 출원의 일 실시예에 적용될 수 있는 5G 통신 네트워크에서 RAN 아키텍처의 일 예의 개략적인 다이어그램이다. 도 2에 도시된 바와 같이, RAN에 포함된 일반 NodeB (general NodeB)(gNB)는 CU와 복수의 DU를 포함할 수 있거나, 또는 통합된 gNB, 즉 DU를 포함하지 않는 gNB일 수 있다.
gNB는 대량의 원시 데이터를 생성할 수 있으며, 이는 피처 엔지니어링, 트레이닝, 및 예측에 사용될 수 있다. 데이터를 분석 및 처리하기 위해, 데이터 분석(data analysis)(DA) 유닛이 gNB 내에 배치될 수 있다. 예를 들어, DU 내에 배치된 데이터 분석 유닛은 DUDA로 지칭될 수 있으며, DU 내의 데이터에 대해 통계 분석, 피처 추출 등을 수행하도록 구성될 수 있다. CU 내에 배치된 데이터 분석 유닛은 CUDA로 지칭될 수 있으며, CU에 의해 생성된 데이터 및 DU에 의해 보고된 데이터에 대해 통계 분석을 수행하고, 이 데이터에 기반하여 모델 트레이닝 등을 수행하도록 구성될 수 있다. 통합된 gNB 내에 배치된 데이터 분석 유닛은 gNBDA로 지칭될 수 있으며, 통합된 gNB에 의해 생성된 데이터에 대해 통계 분석, 피처 추출 등을 수행하도록 구성될 수 있다. CUDA, DUDA, 및 gNBDA는 gNB에서 논리적 유닛일 수 있다.
추가로, RANDA 네트워크 요소라고 지칭되는 데이터 분석 유닛은 무선 액세스 네트워크 내에 추가로 배치될 수 있으며, DUDA, CUDA, 및 gNBDA에 의해 보고된 데이터에 대해 통계 수집 및 분석을 더 수행하고 이 데이터에 기반하여 모델 트레이닝 등을 수행할 수 있다. RANDA 네트워크 요소에 의해 획득된 데이터는 CUDA에 의해 획득된 데이터와 다를 수 있기 때문에, RANDA 네트워크 요소에 의해 트레이닝되는 모델도 CUDA에 의해 트레이닝되는 모델과 다를 수 있다. RANDA 네트워크 요소는 gNB 또는 다른 디바이스 내에 배치된 논리적 유닛일 수 있거나, 또는 독립적인 디바이스일 수 있다. 이는 본 출원에 제한되지 않는다.
도 3은 본 출원의 일 실시예에 적용될 수 있는 5G 통신 네트워크에서 CN 아키텍처의 일 예의 개략적인 다이어그램이다. UPF는 대량의 원시 데이터를 생성할 수 있으며, 이는 피처 엔지니어링, 트레이닝, 및 예측에 사용될 수 있다. NWDA 네트워크 요소는 이 데이터에 대해 분석, 처리, 및 모델 트레이닝을 수행할 수 있다. AMF는 주로 UE 액세스 및 이동성 관리, NAS 메시지 라우팅, SMF 선택 등을 담당한다. SMF는 주로 세션 관리, 예를 들어, 세션 생성/수정/삭제, UPF 선택, 및 사용자 평면 터널 정보 할당 및 관리를 담당한다.
도 4a는 본 출원의 일 실시예에 적용될 수 있는 5G 통신 네트워크에서 다른 RAN 아키텍처의 일 예의 개략적인 다이어그램이다. 도 4a에 도시된 바와 같이, RAN의 RANDA 네트워크 요소는 CU, DU, gNB, 또는 독립 네트워크 디바이스에 분산되어 있는 분산된 논리적 유닛일 수 있다. RANDA 네트워크 요소는 데이터 서비스를 제공하는 데 사용되는 DSF; DSF에 의해 제공된 데이터에 기반하여 분석 및 모델링을 수행하는 데 사용되는 A&MF; 및 A&MF 트레이닝을 통해 획득된 모델에 기반하여 예측을 수행하는 데 사용되는 MEF를 포함할 수 있다. 또한, RANDA 네트워크 요소는 지능형 협업 서비스를 제공하는 데 사용되는 적응적 정책 기능(adaptive policy function)(APF)을 더 포함할 수 있다.
CU, DU, 및 gNB 내에 배치된 RANDA 네트워크 요소의 기능 모듈들은 CU, DU, 및 gNB와 통신할 수 있다. 예를 들어, RANDA 네트워크 요소는 DU에서 원시 데이터를 획득하기 위해 DU에 제어 정보를 전송할 수 있다.
RANDA 네트워크 요소가 배치될 경우, RANDA 네트워크 요소의 기능 모듈들의 일부 또는 전부는 실제 요구 사항에 기반하여 각각의 DU, CU, gNB, 또는 다른 네트워크 디바이스 내에 배치될 수 있다. 예를 들어, DSF는 DU, CU, 및 gNB 내에 배치되므로, DSF는 CU, DU, 및 gNB로부터 원시 데이터를 쉽게 획득할 수 있다. A&MF는 CU 내에 배치되므로, CU는 DU에 의해 보고된 데이터 및 CU에 의해 생성된 데이터에 기반하여 모델 트레이닝을 수행할 수 있다.
도 4b는 본 출원의 일 실시예에 적용될 수 있는 5G 통신 네트워크에서 다른 CN 아키텍처의 일 예의 개략적인 다이어그램이다. 도 4b에 도시된 바와 같이, NWDA 네트워크 요소는 UPF 또는 독립 네트워크 디바이스에 분산되어 있는 분산된 논리적 유닛일 수 있다. NWDA 네트워크 요소는 또한 DSF, A&MF, MEF, 및 APF를 포함할 수 있으며, 이는 RAN 아키텍처에서 해당 모듈들의 것들과 유사한 기능들을 갖는다. 세부 사항들은 여기에 다시 기술되지는 않는다.
이하에서는 도 5를 참조하여 본 출원의 일 실시예에 제공되는 피처 엔지니어링 오케스트레이션 방법을 상세히 기술한다. 도 5에 도시된 바와 같이, 상기 방법은 이하의 단계들을 포함할 수 있다.
단계(501): 제 2 네트워크 디바이스는 제 1 표시 정보를 제 1 네트워크 디바이스에 전송하고, 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함할 수 있다.
예를 들어, 상기 방법이 도 2에 도시된 아키텍처에 적용되는 경우, 제 2 네트워크 디바이스는 CU일 수 있고, 제 1 네트워크 디바이스는 DU일 수 있고; 또는 제 2 네트워크 디바이스는 RANDA 네트워크 요소일 수 있고, 제 1 네트워크 디바이스는 CU, DU, 또는 gNB일 수 있다. 상기 방법이 도 3에 도시된 아키텍처에 적용되는 경우, 제 2 네트워크 디바이스는 NWDA 네트워크 요소일 수 있고, 제 1 네트워크 디바이스는 UPF, AMF, SMF, 또는 PCF일 수 있다.
상기 방법이 도 4a 및 도 4b에 도시된 아키텍처들에 적용되는 경우, 제 2 네트워크 디바이스는 A&MF일 수 있고, 제 1 네트워크 디바이스는 DSF일 수 있다.
제 1 네트워크 디바이스로부터의 제 1 표시 정보는 제 2 네트워크 디바이스가 필요로 하는 피처 정보를 구독하는 데 사용되며, 즉, 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 피처 데이터를 획득하고, 획득된 피처 데이터를 제 2 네트워크 디바이스에 전송할 것을 제 1 네트워크 디바이스에 표시한다.
공통 피처 엔지니어링 메소드(common feature engineering method)는 도 6에 도시될 수 있다. 예를 들어, 제 1 메소드 표시 정보(즉, 도 6의 "피처 메소드 표시")에 의해 표시되는 메소드가 평균값을 계산하고 있고, 제 1 데이터 타입 표시 정보가 참조 신호 수신 전력(reference signal receiving power)(RSRP)의 데이터를 나타내는 경우, 제 2 네트워크 디바이스가 RSRP의 평균값을 구독할 것을 요청한다는 것을 나타낸다. 다른 예로, 제 1 메소드 표시 정보에 의해 표시되는 메소드가 최소값을 계산하고 있고, 제 1 데이터 타입 표시 정보가 스테이션 1에 대한 RSRP(즉, 단말기에 의해 보고되고, 스테이션 1에 의해 전송되는 참조 신호에 속하는 수신 전력이며, 스테이션은 셀, 기지국 등일 수 있음), 스테이션 2에 대한 RSRP, 및 스테이션 3에 대한 RSRP를 나타내는 경우, 제 2 네트워크 디바이스가 3 개의 스테이션에 대해 단말기에 의해 측정되는 RSRPs의 최소값을 구독할 것을 요청한다는 것을 나타낸다.
특정 실시예에서, 각각의 메소드는 미리 번호가 매겨질 수 있다. 이 경우, 제 1 메소드 표시 정보는 해당 메소드 번호를 사용함으로써 표시될 수 있다. 예를 들어, 번호 1은 평균값 계산을 의미하고, 번호 2는 최소값 계산을 의미하며, 번호 3은 최대값 계산을 의미한다.
도 6으로부터, 일부 피처 메소드들에서, 최대값의 계산 및 최소값의 계산과 같은 메소드 파라미터없이 피처 추출이 수행될 수 있다는 것을 알 수 있다. 그러나, 일부 피처 메소드들에서, 해당 피처 추출을 구현하기 위해 일부 메소드 파라미터들이 추가로 제공되어야 한다. 예를 들어, 정규화에 "최소-최대 정규화"를 적용하는 경우, 데이터 값을 0에서 1 사이의 값으로 정규화할지 아니면 데이터 값을 0에서 100 사이의 값으로 정규화할지 여부를 추가로 결정해야 한다. 즉, 최소 임계치와 최대 임계치를 추가로 결정해야 한다. 다른 예로, RSRP를 이산화(discretize)하기 위해 "아이소메트릭 이산화(isometric discretization)"를 적용하는 경우, 데이터를 이산화하기 위해 이산 간격을 추가로 결정해야 한다. 특히, 데이터는 [-150, -130], [-130, -110], [-110, -90], 및 [-90, -70]의 여러 값 간격으로 이산화될 수 있으며, 그 후 각각의 값 간격에 속하는 데이터의 수량이 계산된다.
전술한 경우에 대해, 제 2 네트워크 디바이스는 제 1 메소드 파라미터 정보를 포함하는 제 1 표시 정보를 제 1 네트워크 디바이스에 전송할 수 있으므로, 제 1 네트워크 디바이스는 피처 추출을 구현할 수 있다. 예를 들어, 제 1 표시 정보는 이하의 정보: 즉, 제 1 메소드 표시 정보 - 여기서 표시된 메소드는 최소-최대 정규화임 -; RSRP의 데이터를 나타내는 제 1 데이터 타입 표시 정보; 및 최소값이 0이고 최대값이 1임을 나타내는 제 1 메소드 파라미터 정보를 포함한다.
추가로, 각각의 메소드에 대응하는 파라미터도 미리 합의되어 제 1 네트워크 디바이스에서 구성될 수 있다. 이 경우, 제 2 네트워크 디바이스에 의해 전송되는 제 1 표시 정보는 메소드 파라미터 표시 정보를 반드시 포함하는 것은 아닐 수 있다.
선택적으로, 동일한 메소드가 상이한 파라미터들에 대응하는 경우, 상이한 번호들이 표시에 사용될 수 있다. 예를 들어, 번호 1은 메소드가 최소-최대 정규화이고 최소값이 0이고 최대값이 1임을 나타내며; 번호 2는 메소드가 최소-최대 정규화이고 최소값이 0이고 최대값이 100임을 나타낸다.
또한, 동일한 메소드가 상이한 타입의 데이터에 적용될 경우, 상이한 번호들이 또한 표시에 사용될 수도 있다. 예를 들어, 번호 1은 메소드가 평균값을 계산하고 있으며 데이터 타입이 RSRP의 데이터임을 나타내며; 번호 2는 메소드가 평균값을 계산하고 있으며 데이터 타입이 무선 인터페이스 전송 레이트임을 나타낸다. 대안적으로, 상이한 번호들은 메소드들, 데이터 타입들, 및 메소드 파라미터들의 상이한 조합들에 대응할 수 있으며, 이들은 본 명세서에서 일일이 기술되지는 않는다.
단계(502): 제 1 네트워크 디바이스는 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 피처 데이터를 획득한다.
가능한 구현예에서, 제 1 표시 정보를 수신한 후, 제 1 네트워크 디바이스는 주기적으로 그리고 반복적으로 전술한 단계들을 수행할 수 있거나, 또는 제 1 데이터 타입에 의해 표시된 새로운 데이터가 생성된 후에 전술한 단계들을 수행할 수 있다.
일부 실시예에서, 제 2 네트워크 디바이스에 의해 전송된 제 1 표시 정보를 수신한 후, 제 1 네트워크 디바이스는 제 1 표시 정보에 기반하여 피처 추출이 수행될 수 있는지 여부를 나타내는 응답 정보를 제 2 네트워크 디바이스에 리턴할 수 있다. 예를 들어, 제 1 네트워크 디바이스와 제 2 네트워크 디바이스는 번호 1 내지 10에 제각기 대응하는 10 개의 메소드에 대해 미리 합의한다. 제 2 네트워크 디바이스는 업그레이드 후 새로운 메소드 11을 지원할 수 있지만, 제 1 네트워크 디바이스는 업그레이드되지 않고, 메소드 11에 대응하는 알고리즘으로 구성되지 않으며, 그리고 메소드 11을 사용하여 피처 추출을 수행할 수 없다. 이 경우, 제 1 네트워크 디바이스는 제 1 표시 정보에 의해 표시되는 피처 추출이 지원되지 않음을 나타내기 위해, 제 2 네트워크 디바이스에 응답 정보를 전송할 수 있다. 절차가 종료된다. 제 1 네트워크 디바이스가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있는 경우, 제 1 네트워크 디바이스는 제 1 표시 정보에 의해 표시되는 피처 추출이 지원됨을 나타내기 위해, 제 2 네트워크 디바이스에 응답 정보를 전송할 수 있고, 단계(502)를 수행할 수 있다.
단계(503): 제 1 네트워크 디바이스는 획득된 피처 데이터를 제 2 네트워크 디바이스에 전송한다.
선택적으로, 제 1 네트워크 디바이스는 미리 합의된 표시 또는 제 2 네트워크 디바이스의 표시에 기반하여 획득된 피처 데이터를 제 2 네트워크 디바이스에 주기적으로 전송하거나, 또는 새로운 피처 데이터를 획득한 후 제 2 네트워크 디바이스에 시기 적절한 방식으로 전송할 수 있다.
단계(504): 제 2 네트워크 디바이스는 피처 데이터에 기반하여 모델 트레이닝을 수행한다.
구체적으로, 제 2 네트워크 디바이스는 미리 설정된 알고리즘 및 제 1 네트워크 디바이스에 의해 전송된 피처 데이터에 기반하여 모델 트레이닝을 수행하여 데이터 예측에 사용되는 모델을 획득할 수 있다.
가능한 구현예에서, 단계(504)를 수행한 후, 제 2 네트워크 디바이스는 트레이닝을 통해 획득한 모델 정보를 제 1 네트워크 디바이스 또는 제 3 네트워크 디바이스에 전송할 수 있으므로, 제 1 네트워크 디바이스 또는 제 3 네트워크 디바이스는 모델 정보에 기반하여 데이터 예측을 수행하여, 데이터 예측 프로세스에서 제 1 네트워크 디바이스가 여전히 대량의 원시 데이터를 제 2 네트워크 디바이스에 전송해야 하는 문제를 방지하고, 전송 네트워크에 대한 부담을 추가로 감소시킬 수 있고, 추가로 제 2 네트워크 디바이스의 계산량을 공유할 수 있으므로, 시스템 효율성을 높이는 데 도움을 줄 수 있다.
추가로, 제 2 네트워크 디바이스에 의해 전송된 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 더 포함할 수 있다. 구체적으로, 입력 피처 정보는 입력 피처 벡터를 어떻게 획득하는지를 나타내기 위해 사용되며, 획득된 입력 피처 벡터 및 모델 알고리즘 정보는 데이터 예측에 사용된다.
구체적으로, 제 2 네트워크 디바이스가 모델 정보를 제 1 네트워크 디바이스에 전송하면, 제 1 네트워크 디바이스는 생성된 새로운 데이터 및 모델 정보에 기반하여 데이터 예측을 수행할 수 있다. 한편, 종래 기술의 예측 프로세스와 비교할 때, 이 프로세스는 대량의 원시 데이터를 제 2 네트워크 디바이스에 전송하는 것을 방지하여, 전송 네트워크에 대한 부담을 감소시키며; 한편, 제 2 네트워크 디바이스는 원시 데이터에 대해 피처 추출을 국부적으로 수행할 수 있고, 추출된 피처 벡터에 기반하여 예측을 수행할 수 있다. 이는 예측 프로세스의 지속 시간을 감소시키는 데 도움을 주므로, 네트워크의 예측 결과를 비교적 빠르게 획득할 수 있고, 네트워크를 시기 적절한 방식으로 최적화할 수 있다.
제 2 네트워크 디바이스는 모델 정보를 제 3 네트워크 디바이스에 전송하면, 제 3 네트워크 디바이스는 입력 피처 정보를 제 1 네트워크 디바이스에 전송할 수 있다. 제 1 네트워크 디바이스는 입력 피처 정보에 기반하여 원시 데이터에 대해 피처 추출을 수행하고, 추출된 입력 피처 벡터를 제 3 네트워크 디바이스에 전송한다. 제 3 네트워크 디바이스는 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 데이터 예측을 수행한다. 종래 기술의 예측 프로세스와 비교할 때, 이 프로세스는 대량의 원시 데이터의 보고를 방지하고, 전송 네트워크에 대한 전송 부담을 감소시킨다.
또한, 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함할 수 있으며, 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득하도록 표시하는 데 사용된다. 추가로, 제 1 표시 정보와 유사하게, 제 2 표시 정보는 또한 제 2 메소드 파라미터 정보, 즉, 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보를 포함할 수 있다.
이하에서는 특정 애플리케이션 시나리오를 참조하여 전술한 실시예를 상세히 기술한다. 전술한 바와 같이, 본 출원의 실시예에 제공되는 피처 엔지니어링 오케스트레이션 방법은 RAN에 적용될 수 있다. 피처 엔지니어링 오케스트레이션 방법이 RAN에 적용되는 경우, 제 2 네트워크 디바이스는 CU일 수 있고, 제 1 네트워크 디바이스는 DU일 수 있다. 도 7에 도시된 바와 같이, 특정 구현 프로세스는 이하의 단계들을 포함할 수 있다.
단계(701): CU는 네트워크 데이터 구독 메시지(network data subscribe message)를 DU에 전송하며, 네트워크 데이터 구독 메시지는 제 1 표시 정보를 포함한다. 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함한다.
선택적으로, CU는 제 1 표시 정보를 포함하는 네트워크 데이터 구독 메시지를 전송할 수 있거나, 또는 제 1 표시 정보를 포함하는 다른 메시지를 전송할 수 있거나, 또는 하나의 독립 시그널링 피스(one piece of independent signaling)를 사용하여 제 1 표시 정보를 전송할 수 있다.
단계(702A): DU는 네트워크 데이터 구독 응답(network data subscribe response)을 CU에 전송하여, DU가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있는지를 CU에 통지한다.
DU가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 없는 경우, 전술한 응답은 지원되지 않는 메소드 또는 지원되지 않는 데이터 타입의 표시 정보를 더 포함할 수 있다.
DU가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있다면, 단계(702B)가 계속해서 수행된다.
단계(702B): DU는 제 1 표시 정보에 기반하여 피처 추출을 수행하고, 획득된 피처 데이터를 CU에 전송한다.
단계(703): CU는 DU에 의해 전송된 피처 데이터에 기반하여 모델 트레이닝을 수행하고, 획득된 모델 정보를 포함하는 모델 피처 설치 메시지(model feature install message)를 DU에 전송한다.
모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함할 수 있다. 입력 피처 정보는 입력 피처 벡터를 어떻게 획득하는지를 나타내기 위해 사용되며, 입력 피처 벡터 및 모델 알고리즘 정보는 데이터 예측에 사용된다.
또한, 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함한다.
단계(704): DU는 네트워크 피처 설치 응답(model feature install response)을 CU에 전송하여, DU가 모델 정보에 기반하여 데이터 예측을 수행할 수 있는지를 CU에 통지한다.
DU가 모델 알고리즘 정보 및 입력 피처 정보에 기반하여 데이터 예측을 수행할 수 없는 경우, 전술한 응답은 지원되지 않는 메소드 또는 지원되지 않는 데이터 타입의 표시 정보를 더 포함할 수 있다.
DU가 모델 알고리즘 정보 및 입력 피처 정보에 기반하여 데이터 예측을 수행할 수 있다면, 단계(705)가 계속해서 수행된다.
단계(705): DU는 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하고, 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 예측을 수행한다.
전술한 피처 엔지니어링 오케스트레이션 방법이 RAN에 적용되는 경우, 제 2 네트워크 디바이스는 RANDA 네트워크 요소일 수 있고, 제 1 네트워크 디바이스는 CU, DU, 또는 gNB일 수 있다. 도 8에 도시된 바와 같이, 특정 구현 프로세스는 이하의 단계들을 포함할 수 있다.
단계(801): RANDA 네트워크 요소는 네트워크 데이터 구독 메시지를 CU/DU/gNB에 전송하며, 여기서 메시지는 제 1 표시 정보를 포함하고, 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함할 수 있다.
단계(802A): CU/DU/gNB는 네트워크 데이터 구독 응답을 RANDA 네트워크 요소에 전송하여, CU/DU/gNB가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있는지를 RANDA 네트워크 요소에 통지한다.
CU/DU/gNB는 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있다면, 단계(802B)가 계속해서 수행된다.
단계(802B): CU/DU/gNB는 제 1 표시 정보에 기반하여 피처 추출을 수행하고, 획득된 피처 데이터를 RANDA 네트워크 요소에 전송한다.
단계(803): RANDA 네트워크 요소는 피처 데이터에 기반하여 모델 트레이닝을 수행하고, 획득된 모델 정보를 포함하는 모델 피처 설치 메시지를 CU/DU/gNB에 전송한다. 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함할 수 있다.
단계(804): CU/DU/gNB는 모델 피처 설치 응답을 RANDA 네트워크 요소에 전송하여, CU/DU/gNB가 모델 알고리즘 정보 및 입력 피처 정보에 기반하여 데이터 예측을 수행할 수 있는지를 RANDA 네트워크 요소에 통지한다.
CU/DU/gNB는 모델 알고리즘 정보 및 입력 피처 정보에 기반하여 데이터 예측을 수행할 수 있다면, 단계(805)가 계속해서 수행된다.
단계(805): CU/DU/gNB는 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하고, 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 예측을 수행한다.
전술한 피처 엔지니어링 오케스트레이션 방법이 CN에 적용되는 경우, 제 2 네트워크 디바이스는 NWDA 네트워크 요소일 수 있고, 제 1 네트워크 디바이스는 UPF, AMF, SMF, 또는 PCF일 수 있다. 도 9에 도시된 바와 같이, 제 2 네트워크 디바이스가 NWDA 네트워크 요소이고 제 1 네트워크 디바이스가 UPF인 경우, 구체적인 구현 프로세스는 이하의 단계들을 포함할 수 있다.
단계(901): NWDA 네트워크 요소는 네트워크 데이터 구독 메시지를 UPF에 전송하며, 여기서 메시지는 제 1 표시 정보를 포함하고, 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함할 수 있다.
단계(902A): UPF는 네트워크 데이터 구독 응답을 NWDA 네트워크 요소에 전송하여, UPF가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있는지를 NWDA 네트워크 요소에 통지한다.
UPF가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있다면, 단계(902B)가 계속해서 수행된다.
단계(902B): UPF가 제 1 표시 정보에 기반하여 피처 추출을 수행하고, 획득된 피처 데이터를 NWDA 네트워크 요소에 전송한다.
단계(903): NWDA 네트워크 요소는 피처 데이터에 기반하여 모델 트레이닝을 수행하고, 획득된 모델 정보를 포함하는 모델 피처 설치 메시지를 UPF에 전송한다. 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함한다.
단계(904): UPF는 모델 피처 설치 응답을 NWDA 네트워크 요소에 전송하여, UPF가 모델 알고리즘 정보 및 입력 피처 정보에 기반하여 데이터 예측을 수행할 수 있는지를 NWDA 네트워크 요소에 통지한다.
UPF가 모델 알고리즘 정보 및 입력 피처 정보에 기반하여 데이터 예측을 수행할 수 있다면, 단계(905)가 계속해서 수행된다.
단계(905): UPF는 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하고, 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 예측을 수행한다.
추가로, 본 출원의 실시예에 제공되는 피처 엔지니어링 오케스트레이션 방법은 도 4a 또는 도 4b에 도시된 아키텍처에 추가로 적용될 수 있다. 이 경우, 제 2 네트워크 디바이스는 A&MF이고, 제 1 네트워크 디바이스는 DSF이다. 또한, 트레이닝 모델이 획득된 후, 그 모델에 기반하여 데이터 예측을 수행하는 제 3 네트워크 디바이스는 MEF일 수 있다. CN 시나리오는 일 예로서 사용된다. NWDA 네트워크 요소가 배치되는 경우, NWDA 네트워크 요소의 기능 모듈 DSF가 UPF 내에 배치되므로, DSF는 UPF에 의해 생성된 원시 데이터를 쉽게 획득할 수 있다. A&MF 및 MEF는 UPF 내에 배치될 수 있거나, 또는 다른 네트워크 디바이스 내에 배치될 수 있거나, 또는 상이한 시나리오들의 요구 사항에 기반하여 독립적인 네트워크 디바이스 내에 배치될 수 있다.
특정 프로세스는 도 10에 도시될 수 있으며, 이하의 단계들을 포함할 수 있다.
단계(1001): A&MF는 네트워크 데이터 구독 메시지를 DSF에 전송하며, 여기서 메시지는 제 1 표시 정보를 포함하고, 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함할 수 있다.
선택적으로, 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함할 수 있다.
단계(1002A): DSF는 네트워크 데이터 구독 응답을 A&MF에 전송하여, DSF가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있는지를 A&MF에 통지한다.
DSF가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 없는 경우, 전술한 응답은 지원되지 않는 메소드 또는 지원되지 않는 데이터 타입의 표시 정보를 포함할 수 있다.
DSF가 제 1 표시 정보에 기반하여 피처 추출을 수행할 수 있다면, 단계(1002B)가 계속해서 수행된다.
단계(1002B): DSF는 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하고, 획득된 피처 데이터를 A&MF에 전송한다.
단계(1003): A&MF는 DSF에 의해 전송된 피처 데이터에 기반하여 모델 트레이닝을 수행하고, 획득된 모델 정보를 포함하는 모델 피처 설치 메시지를 MEF에 전송한다. 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함한다.
입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함할 수 있다. 또한, 입력 피처 정보는 제 2 메소드 파라미터 정보, 즉, 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보를 더 포함할 수 있다.
단계(1004): MEF는 입력 피처 정보를 포함하는 피처 벡터 구독 메시지(feature vector subscribe message)를 DSF에 전송하여, DSF로부터의 입력 피처 벡터를 구독한다.
단계(1005A): DSF는 피처 벡터 구독 응답(feature vector subscribe response)을 MEF에 전송하여, DSF가 입력 피처 정보에 기반하여 입력 피처 벡터를 획득할 수 있는지를 MEF에 통지한다.
DSF가 입력 피처 정보에 기반하여 피처 추출을 수행할 수 없는 경우, 전술한 응답은 지원되지 않는 메소드 또는 지원되지 않는 데이터 타입의 표시 정보를 더 포함할 수 있다. 예를 들어, 제 2 메소드 표시 정보에 의해 표시되는 메소드가 DSF에서 구성되어 있지 않은 경우, MEF에 리턴된 응답은 지원되지 않는 메소드의 표시 정보를 포함할 수 있다.
DSF가 입력 피처 정보에 기반하여 피처 추출을 수행할 수 있다면, 단계(1005B)가 계속해서 수행된다.
단계(1005B): DSF는 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하고, 획득된 입력 피처 벡터를 MEF에 전송한다.
구체적으로, DSF는 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득한다.
단계(1006): MEF는 A&MF에 의해 전송된 모델 알고리즘 정보 및 DSF에 의해 전송된 입력 피처 벡터에 기반하여 데이터 예측을 수행한다.
전술한 피처 엔지니어링 오케스트레이션 방법에서, 제 1 네트워크 디바이스는 제 2 네트워크 디바이스에 의해 표시되는 메소드에 따라 피처 추출을 수행할 수 있고, 추출된 피처 데이터를 제 2 네트워크 디바이스에 전송할 수 있으므로, 제 1 네트워크 디바이스는 대량의 원시 데이터를 제 2 네트워크 디바이스에 전송할 필요가 없으며, 네트워크 전송 부담이 감소될 수 있고, 전송 네트워크에 대한 요구 사항이 감소될 수 있으며, 그리고 제 2 네트워크 디바이스의 계산량을 공유할 수 있으므로, 모델 트레이닝 효율성을 높이는 데 도움을 줄 수 있다. 또한, 제 1 네트워크 디바이스는 제 2 네트워크 디바이스에 의해 전송된 모델 정보에 기반하여 데이터 예측을 더 수행할 수 있다. 대안적으로, 제 1 네트워크 디바이스는 제 3 네트워크 디바이스에 의해 전송된 입력 피처 정보에 기반하여 입력 피처 벡터를 추가로 획득할 수 있고, 입력 피처 벡터를 제 1 네트워크 디바이스 또는 제 3 네트워크 디바이스에 전송하여 데이터 예측 프로세스에서 대량의 원시 데이터의 전송을 방지할 수 있으므로, 네트워크 전송 부담을 추가로 감소시킬 수 있다.
동일한 기술 개념에 기반하여, 본 출원의 일 실시예는 전술한 방법 실시예에서 제 1 네트워크 디바이스의 메소드 절차를 구현하도록 구성된 제 1 네트워크 디바이스를 제공한다. 도 11은 본 출원의 일 실시예에 따른 제 1 네트워크 디바이스의 개략적인 구조적 다이어그램이다. 도면에 도시된 바와 같이, 제 1 네트워크 디바이스는 수신 모듈(1102), 처리 모듈(1102), 및 전송 모듈(1103)을 포함한다.
선택적으로, 제 1 네트워크 디바이스는 독립적인 디바이스일 수 있거나, 또는 다른 디바이스 내에 배치된 기능 모듈일 수 있다. 예를 들어, DSF는 DU, CU, gNB, 및 UPF 내에 기능 모듈로서 배치될 수 있다.
수신 모듈(1101)은 제 2 네트워크 디바이스로부터 제 1 표시 정보를 수신하도록 구성되고, 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함한다.
처리 모듈(1102)은 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 피처 데이터를 획득하도록 구성된다.
전송 모듈(1103)은 피처 데이터를 제 2 네트워크 디바이스에 전송하도록 구성된다.
가능한 구현예에서, 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함하고, 제 1 메소드 파라미터 정보는 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
가능한 구현예에서, 전송 모듈(1103)이 피처 데이터를 제 2 네트워크 디바이스에 전송한 후, 수신 모듈(1101)은 제 2 네트워크 디바이스로부터 모델 정보를 수신하도록 추가로 구성되며, 여기서 모델 정보는 피처 데이터에 기반하여 모델 트레이닝을 수행함으로써 획득된다. 처리 모듈(1102)은 모델 정보에 기반하여 데이터 예측을 수행하도록 더 구성된다.
가능한 구현예에서, 모델 정보는 모델 알고리즘 정보 및 모델의 입력 피처 정보를 포함한다. 모델 정보에 기반하여 데이터 예측을 수행할 경우, 처리 모듈(1102)은 구체적으로 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하고, 그 후 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 데이터 예측을 수행하도록 구성된다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함한다. 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하는 경우, 처리 모듈(1102)은 구체적으로 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득하도록 구성된다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 제 2 메소드 파라미터 정보는 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
가능한 구현예에서, 전송 모듈(1103)이 피처 데이터를 제 2 네트워크 디바이스에 전송한 후, 수신 모듈(1101)은 제 3 네트워크 디바이스로부터 제 2 표시 정보를 수신하도록 더 구성되며, 여기서 제 2 표시 정보는 제 3 메소드 표시 정보 및 제 3 데이터 타입 표시 정보를 포함한다. 처리 모듈(1102)은 제 3 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 3 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득하도록 더 구성된다. 전송 모듈(1103)은 입력 피처 벡터를 제 3 네트워크 디바이스에 전송하도록 더 구성된다.
가능한 구현예에서, 입력 피처 정보는 제 3 메소드 파라미터 정보를 더 포함하고, 제 3 메소드 파라미터 정보는 제 3 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
동일한 기술 개념에 기반하여, 본 출원의 일 실시예는 전술한 방법 실시예에서 제 2 네트워크 디바이스의 메소드 절차를 구현하도록 구성된 제 2 네트워크 디바이스를 제공한다. 제 2 네트워크 디바이스는 전송 모듈, 수신 모듈, 및 처리 모듈을 포함한다. 전술한 모듈들 간의 접속 방식은 도 11의 접속 방식과 유사하다.
선택적으로, 제 2 네트워크 디바이스는 독립적인 디바이스일 수 있거나, 또는 다른 디바이스 내에 배치된 기능 모듈일 수 있다. 제 2 네트워크 디바이스가 기능 모듈인 경우, 제 2 네트워크 디바이스와 제 1 네트워크 디바이스는 동일한 디바이스 내에 배치될 수 있다. 예를 들어, DSF와 A&MF는 CU 내에 배치될 수 있다.
구체적으로, 전송 모듈은 제 1 표시 정보를 제 1 네트워크 디바이스에 전송하도록 구성되고, 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함한다.
수신 모듈은 제 1 네트워크 디바이스로부터 피처 데이터를 수신하도록 구성되며, 피처 데이터는 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 1 데이터 타입 표시 정보에 의해 표시된 데이터에 대해 피처 추출을 수행함으로써 획득된다.
처리 모듈은 피처 데이터에 기반하여 모델 트레이닝을 수행하도록 구성된다.
가능한 구현예에서, 처리 모듈이 피처 데이터에 기반하여 모델 트레이닝을 수행한 후, 전송 모듈은 트레이닝을 통해 획득한 모델 정보를 제 1 네트워크 디바이스에 전송하도록 더 구성되며, 여기서 모델 정보는 데이터 예측에 사용된다.
가능한 구현예에서, 처리 모듈이 피처 데이터에 기반하여 모델 트레이닝을 수행한 후, 전송 모듈은 트레이닝을 통해 획득한 모델 정보를 제 3 네트워크 디바이스에 전송하도록 더 구성되며, 여기서 모델 정보는 데이터 예측에 사용된다.
가능한 구현예에서, 모델 정보는 모델 알고리즘 정보 및 모델의 입력 피처 정보를 포함한다. 입력 피처 정보는 입력 피처 벡터를 획득하는 데 사용되며, 입력 피처 벡터 및 모델 알고리즘 정보는 데이터 예측에 사용된다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함하며, 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득하도록 표시하는 데 사용된다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 제 2 메소드 파라미터 정보는 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
가능한 구현예에서, 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함하고, 제 1 메소드 파라미터 정보는 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
동일한 기술 개념에 기반하여, 본 출원의 일 실시예는 전술한 방법 실시예에서 제 3 네트워크 디바이스의 메소드 절차를 구현하도록 구성된 제 3 네트워크 디바이스를 제공한다. 제 3 네트워크 디바이스는 수신 모듈, 전송 모듈, 및 처리 모듈을 포함한다. 전술한 모듈들 간의 접속 방식은 도 11의 접속 방식과 유사하다.
선택적으로, 제 3 네트워크 디바이스는 독립적인 디바이스일 수 있거나, 또는 다른 디바이스 내에 배치된 기능 모듈일 수 있다. 제 3 네트워크 디바이스가 기능 모듈인 경우, 제 3 네트워크 디바이스와 제 1 네트워크 디바이스 또는 제 2 네트워크 디바이스는 동일한 디바이스 내에 배치될 수 있다. 예를 들어, DSF 및 MEF는 DU 내에 배치될 수 있거나, 또는 DSF, A&MF, 및 MEF는 CU 내에 배치될 수 있다.
구체적으로, 수신 모듈은 제 2 네트워크 디바이스에 의해 전송된 모델 정보를 수신하도록 구성되며, 모델 정보는 모델 알고리즘 정보 및 모델의 입력 피처 정보를 포함한다.
전송 모듈은 입력 피처 정보를 제 1 네트워크 디바이스에 전송하도록 구성된다.
수신 모듈은 입력 피처 정보에 기반하여 제 1 네트워크 디바이스에 의해 결정된 입력 피처 벡터를 수신하도록 더 구성된다.
처리 모듈은 입력 피처 벡터 및 모델 알고리즘 정보에 기반하여 데이터 예측 결과를 획득하도록 구성된다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함하며, 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 입력 피처 벡터를 획득하도록 표시하는 데 사용된다.
가능한 구현예에서, 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 제 2 메소드 파라미터 정보는 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보이다.
동일한 기술 개념에 기반하여, 본 출원의 일 실시예는 전술한 방법 실시예에서 제 1 네트워크 디바이스에 의해 수행되는 기능들을 구현하도록 구성된 제 1 네트워크 디바이스를 제공한다. 구체적으로, 제 1 네트워크 디바이스의 하드웨어 구조가 도 12에 도시될 수 있고, 적어도 하나의 프로세서(1201), 통신 버스(1202), 메모리(1203), 및 적어도 하나의 통신 인터페이스(1204)를 포함한다.
프로세서(1201)는 범용 중앙 처리 유닛(central processing unit)(CPU), 마이크로프로세서, 주문형 집적 회로(application-specific integrated circuit)(ASIC), 또는 본 출원의 솔루션의 프로그램 실행을 제어하기 위한 하나 이상의 집적 회로일 수 있다.
통신 버스(1202)는 전술한 컴포넌트들 간에 정보가 전송되는 경로를 포함할 수 있다.
통신 인터페이스(1204)는 트랜시버와 같은 임의의 장치를 사용함으로써 다른 디바이스 또는 통신 네트워크, 예를 들어, 이더넷, 무선 액세스 네트워크(radio access network)(RAN), 또는 무선 근거리 네트워크(wireless local area networks)(WLAN)와 통신하도록 구성된다.
메모리(1203)는 판독 전용 메모리(read-only memory)(ROM) 또는 정적 정보 및 명령어를 저장할 수 있는 다른 타입의 정적 저장 디바이스; 또는 랜덤 액세스 메모리(random access memory)(RAM) 또는 정보 및 명령어를 저장할 수 있는 다른 타입의 동적 저장 디바이스일 수 있다. 메모리(1203)는 대안적으로 전기적으로 소거 가능한 프로그래머블 판독 전용 메모리(electrically erasable programmable read-only memory)(EEPROM), 컴팩트 디스크 판독 전용 메모리(compact disc read-only memory)(CD-ROM) 또는 다른 컴팩트 디스크 스토리지, 광학 디스크 스토리지(컴팩트 디스크, 레이저 디스크, 광학 디스크, 디지털 다용도 디스크, 블루레이 디스크 등을 포함함), 자기 디스크 저장 매체 또는 다른 자기 저장 디바이스, 또는 예상되는 프로그램 코드를 명령어 또는 데이터 구조의 형태로 반송하거나 저장하는 데 사용될 수 있으며 컴퓨터에 의해 액세스 가능하지만 이에 제한되지는 않는 임의의 다른 매체일 수 있다. 메모리는 독립적으로 존재할 수 있으며, 버스를 사용함으로써 프로세서에 접속된다. 메모리는 대안적으로 프로세서와 통합될 수 있다.
메모리(1203)는 본 출원의 솔루션을 수행하기 위한 애플리케이션 프로그램 코드를 저장하도록 구성되고, 프로세서(1201)는 실행을 제어한다. 프로세서(1201)는 메모리(1203)에 저장된 애플리케이션 프로그램 코드를 실행하여, 본 출원의 전술한 실시예들에 제공되는 피처 엔지니어링 오케스트레이션 방법들을 구현하도록 구성된다.
선택적으로, 본 출원의 이 실시예에서, 프로세서(1201)는 본 출원의 전술한 실시예들에 제공되는 피처 엔지니어링 오케스트레이션 방법들에서 관련된 기능을 수행할 수 있고, 통신 인터페이스(1204)는 다른 디바이스 또는 통신 네트워크와의 통신을 담당한다. 이는 특히 본 출원의 이 실시예에 제한되는 것은 아니다.
일 실시예의 특정 구현예에서, 프로세서(1201)는 하나 이상의 CPU를 포함할 수 있다.
일 실시예의 특정 구현예에서, 제 1 네트워크 디바이스는 복수의 프로세서를 포함할 수 있다. 각각의 프로세서는 단일 코어(single-CPU) 프로세서일 수 있거나, 또는 멀티 코어(multi-CPU) 프로세서일 수 있다. 본원의 프로세서는 데이터(예를 들어, 컴퓨터 프로그램 명령어)를 처리하도록 구성되는 하나 이상의 디바이스, 회로, 및/또는 처리 코어일 수 있다.
동일한 기술 개념에 기반하여, 본 출원의 일 실시예는 전술한 방법 실시예들에서 제 2 네트워크 디바이스에 의해 수행되는 기능들을 구현하도록 구성된 제 2 네트워크 디바이스를 제공한다. 구체적으로, 제 2 네트워크 디바이스는 적어도 하나의 프로세서, 통신 버스, 메모리, 및 적어도 하나의 통신 인터페이스를 포함할 수 있다. 전술한 컴포넌트들 간의 접속 관계의 경우 도 12가 참조된다.
프로세서는 범용 중앙 처리 유닛, 마이크로프로세서, 주문형 집적 회로, 또는 본 출원의 솔루션의 프로그램 실행을 제어하기 위한 하나 이상의 집적 회로일 수 있다.
통신 버스는 전술한 컴포넌트들 간에 정보가 전송되는 경로를 포함할 수 있다.
통신 인터페이스는 트랜시버와 같은 임의의 장치를 사용함으로써 다른 디바이스 또는 통신 네트워크, 예를 들어, 이더넷, 무선 액세스 네트워크, 또는 무선 근거리 네트워크와 통신하도록 구성된다.
메모리는 판독 전용 메모리 또는 정적 정보 및 명령어를 저장할 수 있는 다른 타입의 정적 저장 디바이스; 또는 랜덤 액세스 메모리 또는 정보 및 명령어를 저장할 수 있는 다른 타입의 동적 저장 디바이스일 수 있다. 메모리는 대안적으로 전기적으로 소거 가능한 프로그래머블 판독 전용 메모리, 컴팩트 디스크 판독 전용 메모리 또는 다른 컴팩트 디스크 스토리지, 광학 디스크 스토리지(컴팩트 디스크, 레이저 디스크, 광학 디스크, 디지털 다용도 디스크, 블루레이 디스크 등을 포함함), 자기 디스크 저장 매체 또는 다른 자기 저장 디바이스, 또는 예상되는 프로그램 코드를 명령어 또는 데이터 구조의 형태로 반송하거나 저장하는 데 사용될 수 있으며 컴퓨터에 의해 액세스 가능하지만 이에 제한되지는 않는 임의의 다른 매체일 수 있다. 메모리는 독립적으로 존재할 수 있으며, 버스를 사용함으로써 프로세서에 접속된다. 메모리는 대안적으로 프로세서와 통합될 수 있다.
메모리는 본 출원의 솔루션을 수행하기 위한 애플리케이션 프로그램 코드를 저장하도록 구성되고, 프로세서는 실행을 제어한다. 프로세서는 메모리에 저장된 애플리케이션 프로그램 코드를 실행하여, 본 출원의 전술한 실시예들에 제공되는 피처 엔지니어링 오케스트레이션 방법들을 구현하도록 구성된다.
선택적으로, 본 출원의 이 실시예에서, 프로세서는 본 출원의 전술한 실시예들에 제공되는 피처 엔지니어링 오케스트레이션 방법들에서 관련된 기능을 수행할 수 있고, 통신 인터페이스는 다른 디바이스 또는 통신 네트워크와의 통신을 담당한다. 이는 특히 본 출원의 이 실시예에 제한되는 것은 아니다.
일 실시예의 특정 구현예에서, 프로세서는 하나 이상의 CPU를 포함할 수 있다.
일 실시예의 특정 구현예에서, 제 2 네트워크 디바이스는 복수의 프로세서를 포함할 수 있다. 각각의 프로세서는 단일 코어 프로세서일 수 있거나, 또는 멀티 코어 프로세서일 수 있다. 본원의 프로세서는 데이터(예를 들어, 컴퓨터 프로그램 명령어)를 처리하도록 구성되는 하나 이상의 디바이스, 회로, 및/또는 처리 코어일 수 있다.
동일한 기술 개념에 기반하여, 본 출원의 일 실시예는 전술한 방법 실시예들에서 제 3 네트워크 디바이스에 의해 수행되는 기능들을 구현하도록 구성된 제 3 네트워크 디바이스를 제공한다. 구체적으로, 제 3 네트워크 디바이스는 적어도 하나의 프로세서, 통신 버스, 메모리, 및 적어도 하나의 통신 인터페이스를 포함할 수 있다. 전술한 컴포넌트들 간의 접속 관계의 경우 도 12가 참조된다.
프로세서는 범용 중앙 처리 유닛, 마이크로프로세서, 주문형 집적 회로, 또는 본 출원의 솔루션의 프로그램 실행을 제어하기 위한 하나 이상의 집적 회로일 수 있다.
통신 버스는 전술한 컴포넌트들 간에 정보가 전송되는 경로를 포함할 수 있다.
통신 인터페이스는 트랜시버와 같은 임의의 장치를 사용함으로써 다른 디바이스 또는 통신 네트워크, 예를 들어, 이더넷, 무선 액세스 네트워크, 또는 무선 근거리 네트워크와 통신하도록 구성된다.
메모리는 판독 전용 메모리 또는 정적 정보 및 명령어를 저장할 수 있는 다른 타입의 정적 저장 디바이스; 또는 랜덤 액세스 메모리 또는 정보 및 명령어를 저장할 수 있는 다른 타입의 동적 저장 디바이스일 수 있다. 메모리는 대안적으로 전기적으로 소거 가능한 프로그래머블 판독 전용 메모리, 컴팩트 디스크 판독 전용 메모리 또는 다른 컴팩트 디스크 스토리지, 광학 디스크 스토리지(컴팩트 디스크, 레이저 디스크, 광학 디스크, 디지털 다용도 디스크, 블루레이 디스크 등을 포함함), 자기 디스크 저장 매체 또는 다른 자기 저장 디바이스, 또는 예상되는 프로그램 코드를 명령어 또는 데이터 구조의 형태로 반송하거나 저장하는 데 사용될 수 있으며 컴퓨터에 의해 액세스 가능하지만 이에 제한되지는 않는 임의의 다른 매체일 수 있다. 메모리는 독립적으로 존재할 수 있으며, 버스를 사용함으로써 프로세서에 접속된다. 메모리는 대안적으로 프로세서와 통합될 수 있다.
메모리는 본 출원의 솔루션을 수행하기 위한 애플리케이션 프로그램 코드를 저장하도록 구성되고, 프로세서는 실행을 제어한다. 프로세서는 메모리에 저장된 애플리케이션 프로그램 코드를 실행하여, 본 출원의 전술한 실시예들에 제공되는 피처 엔지니어링 오케스트레이션 방법들을 구현하도록 구성된다.
선택적으로, 본 출원의 이 실시예에서, 프로세서는 본 출원의 전술한 실시예들에 제공되는 피처 엔지니어링 오케스트레이션 방법들에서 관련된 기능을 수행할 수 있고, 통신 인터페이스는 다른 디바이스 또는 통신 네트워크와의 통신을 담당한다. 이는 특히 본 출원의 이 실시예에 제한되는 것은 아니다.
일 실시예의 특정 구현예에서, 프로세서는 하나 이상의 CPU를 포함할 수 있다.
일 실시예의 특정 구현예에서, 제 3 네트워크 디바이스는 복수의 프로세서를 포함할 수 있다. 각각의 프로세서는 단일 코어 프로세서일 수 있거나, 또는 멀티 코어 프로세서일 수 있다. 본원의 프로세서는 데이터(예를 들어, 컴퓨터 프로그램 명령어)를 처리하도록 구성되는 하나 이상의 디바이스, 회로, 및/또는 처리 코어일 수 있다.
동일한 기술 개념에 기반하여, 본 출원은 제 1 네트워크 디바이스 및 제 2 네트워크 디바이스를 포함하는 통신 시스템을 추가로 제공하거나, 또는 제 1 네트워크 디바이스, 제 2 네트워크 디바이스, 및 제 3 네트워크 디바이스를 포함할 수 있다.
전술한 실시예의 전부 또는 일부는 소프트웨어, 하드웨어, 펌웨어, 또는 이들의 임의의 조합을 사용함으로써 구현될 수 있다. 소프트웨어 프로그램이 실시예들을 구현하는 데 사용될 경우, 실시예들은 컴퓨터 프로그램 제품의 형태로 완전히 또는 부분적으로 구현될 수 있다. 컴퓨터 프로그램 제품은 하나 이상의 컴퓨터 명령어를 포함한다. 컴퓨터 프로그램 명령어가 컴퓨터에 로딩되어 실행될 경우, 본 출원의 실시예들에 따른 절차 또는 기능들은 전부 또는 부분적으로 생성된다. 컴퓨터는 범용 컴퓨터, 전용 컴퓨터, 컴퓨터 네트워크, 또는 다른 프로그래머블 장치일 수 있다. 컴퓨터 명령어는 컴퓨터 판독 가능 저장 매체에 저장될 수 있거나, 또는 컴퓨터 판독 가능 저장 매체로부터 다른 컴퓨터 판독 가능 저장 매체로 전송될 수 있다. 예를 들어, 컴퓨터 명령어는 웹사이트, 컴퓨터, 서버 또는 데이터 센터로부터 다른 웹사이트, 컴퓨터, 서버, 또는 데이터 센터로 유선(예를 들어, 동축 케이블, 광섬유, 또는 디지털 가입자 회선(digital subscriber line)(DSL))으로 또는 무선(예를 들어, 적외선, 무선 또는 마이크로웨이브) 방식으로 전송될 수 있다. 컴퓨터 판독 가능 저장 매체는 컴퓨터에 의해 액세스 가능한 임의의 사용 가능 매체일 수 있거나, 또는 하나 이상의 사용 가능한 매체를 통합하는 서버 또는 데이터 센터와 같은 데이터 저장 디바이스일 수 있다. 사용 가능한 매체는 자기 매체(예를 들어, 플로피 디스크, 하드 디스크, 또는 자기 테이프), 광학 매체(예를 들어, DVD), 반도체 매체(예를 들어, 솔리드 스테이트 드라이브(solid state disk)(SSD)) 등일 수 있다.

Claims (31)

  1. 피처 엔지니어링 오케스트레이션 방법으로서,
    제 1 네트워크 디바이스에 의해, 제 2 네트워크 디바이스로부터 제 1 표시 정보를 수신하는 단계 ― 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함함 ―;
    상기 제 1 네트워크 디바이스가 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 피처 데이터를 획득하는 단계; 및
    상기 제 1 네트워크 디바이스에 의해, 상기 피처 데이터를 상기 제 2 네트워크 디바이스에 전송하는 단계를 포함하는
    피처 엔지니어링 오케스트레이션 방법.
  2. 제1항에 있어서,
    상기 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함하고, 상기 제 1 메소드 파라미터 정보는 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    피처 엔지니어링 오케스트레이션 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 제 1 네트워크 디바이스에 의해, 상기 피처 데이터를 상기 제 2 네트워크 디바이스에 전송하는 단계 후, 상기 피처 엔지니어링 오케스트레이션 방법은:
    상기 제 1 네트워크 디바이스에 의해, 상기 제 2 네트워크 디바이스로부터 모델 정보를 수신하는 단계 ― 상기 모델 정보는 상기 피처 데이터에 기반하여 모델 트레이닝을 수행함으로써 획득됨 ―; 및
    상기 제 1 네트워크 디바이스에 의해, 상기 모델 정보에 기반하여 데이터 예측을 수행하는 단계를 더 포함하는
    피처 엔지니어링 오케스트레이션 방법.
  4. 제3항에 있어서,
    상기 모델 정보는 모델 알고리즘 정보 및 모델의 입력 피처 정보를 포함하고;
    상기 제 1 네트워크 디바이스에 의해, 상기 모델 정보에 기반하여 데이터 예측을 수행하는 단계는:
    상기 제 1 네트워크 디바이스에 의해, 상기 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하는 단계; 및
    상기 제 1 네트워크 디바이스에 의해, 상기 입력 피처 벡터 및 상기 모델 알고리즘 정보에 기반하여 상기 데이터 예측을 수행하는 단계를 포함하는
    피처 엔지니어링 오케스트레이션 방법.
  5. 제4항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함하며;
    상기 제 1 네트워크 디바이스에 의해, 상기 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하는 단계는:
    상기 제 1 네트워크 디바이스가 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 상기 입력 피처 벡터를 획득하는 단계를 포함하는
    피처 엔지니어링 오케스트레이션 방법.
  6. 제4항 또는 제5항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 상기 제 2 메소드 파라미터 정보는 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    피처 엔지니어링 오케스트레이션 방법.
  7. 제1항 또는 제2항에 있어서,
    상기 제 1 네트워크 디바이스에 의해, 상기 피처 데이터를 상기 제 2 네트워크 디바이스에 전송하는 단계 후, 상기 피처 엔지니어링 오케스트레이션 방법은:
    상기 제 1 네트워크 디바이스에 의해, 제 3 네트워크 디바이스로부터 제 2 표시 정보를 수신하는 단계 ― 상기 제 2 표시 정보는 제 3 메소드 표시 정보 및 제 3 데이터 타입 표시 정보를 포함함 ―;
    상기 제 1 네트워크 디바이스가 상기 제 3 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 3 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 입력 피처 벡터를 획득하는 단계; 및
    상기 제 1 네트워크 디바이스에 의해, 상기 입력 피처 데이터를 상기 제 3 네트워크 디바이스에 전송하는 단계를 더 포함하는
    피처 엔지니어링 오케스트레이션 방법.
  8. 제7항에 있어서,
    상기 입력 피처 정보는 제 3 메소드 파라미터 정보를 더 포함하고, 상기 제 3 메소드 파라미터 정보는 상기 제 3 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    피처 엔지니어링 오케스트레이션 방법.
  9. 피처 엔지니어링 오케스트레이션 방법으로서,
    제 2 네트워크 디바이스에 의해, 제 1 표시 정보를 제 1 네트워크 디바이스에 전송하는 단계 ― 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함함 ―;
    상기 제 2 네트워크 디바이스에 의해, 상기 제 1 네트워크 디바이스로부터 피처 데이터를 수신하는 단계 ― 상기 피처 데이터는 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행함으로써 획득됨 ―; 및
    상기 제 2 네트워크 디바이스에 의해, 상기 피처 데이터에 기반하여 모델 트레이닝을 수행하는 단계를 포함하는
    피처 엔지니어링 오케스트레이션 방법.
  10. 제9항에 있어서,
    상기 제 2 네트워크 디바이스에 의해, 상기 피처 데이터에 기반하여 모델 트레이닝을 수행하는 단계 후, 상기 피처 엔지니어링 오케스트레이션 방법은:
    상기 제 2 네트워크 디바이스에 의해, 트레이닝을 통해 획득된 모델 정보를 상기 제 1 네트워크 디바이스에 전송하는 단계를 더 포함하고, 상기 모델 정보는 데이터 예측에 사용되는
    피처 엔지니어링 오케스트레이션 방법.
  11. 제9항에 있어서,
    상기 제 2 네트워크 디바이스에 의해, 상기 피처 데이터에 기반하여 모델 트레이닝을 수행하는 단계 후, 상기 피처 엔지니어링 오케스트레이션 방법은:
    상기 제 2 네트워크 디바이스에 의해, 트레이닝을 통해 획득된 모델 정보를 제 3 네트워크 디바이스에 전송하는 단계를 더 포함하고, 상기 모델 정보는 데이터 예측에 사용되는
    피처 엔지니어링 오케스트레이션 방법.
  12. 제10항 또는 제11항에 있어서,
    상기 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함하고;
    상기 입력 피처 정보는 입력 피처 벡터를 획득하는 데 사용되며, 상기 입력 피처 벡터 및 상기 모델 알고리즘 정보는 상기 데이터 예측에 사용되는
    피처 엔지니어링 오케스트레이션 방법.
  13. 제12항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함하며, 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여 상기 입력 피처 벡터를 획득하도록 표시하는 데 사용되는
    피처 엔지니어링 오케스트레이션 방법.
  14. 제12항 또는 제13항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 상기 제 2 메소드 파라미터 정보는 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    피처 엔지니어링 오케스트레이션 방법.
  15. 제9항 내지 제14항 중 어느 한 항에 있어서,
    상기 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함하고, 상기 제 1 메소드 파라미터 정보는 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    피처 엔지니어링 오케스트레이션 방법.
  16. 제 1 네트워크 디바이스로서,
    제 2 네트워크 디바이스로부터 제 1 표시 정보를 수신하도록 구성되는 수신 모듈 ― 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함함 ―;
    상기 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 피처 데이터를 획득하도록 구성되는 처리 모듈; 및
    상기 피처 데이터를 상기 제 2 네트워크 디바이스에 전송하도록 구성되는 전송 모듈을 포함하는
    제 1 네트워크 디바이스.
  17. 제16항에 있어서,
    상기 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함하고, 상기 제 1 메소드 파라미터 정보는 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    제 1 네트워크 디바이스.
  18. 제16항 또는 제17항에 있어서,
    상기 전송 모듈이 상기 피처 데이터를 상기 제 2 네트워크 디바이스에 전송한 후, 상기 수신 모듈은:
    상기 제 2 네트워크 디바이스로부터 모델 정보를 수신하도록 더 구성되며, 상기 모델 정보는 상기 피처 데이터에 기반하여 모델 트레이닝을 수행함으로써 획득되며; 및
    상기 처리 모듈은 상기 모델 정보에 기반하여 데이터 예측을 수행하도록 더 구성되는
    제 1 네트워크 디바이스.
  19. 제18항에 있어서,
    상기 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함하고;
    상기 모델 정보에 기반하여 상기 데이터 예측을 수행할 때, 상기 처리 모듈은 구체적으로:
    상기 입력 피처 정보에 기반하여 입력 피처 벡터를 획득하고; 그리고
    상기 입력 피처 벡터 및 상기 모델 알고리즘 정보에 기반하여 상기 데이터 예측을 수행하도록 구성되는
    제 1 네트워크 디바이스.
  20. 제19항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함하며;
    상기 입력 피처 정보에 기반하여 상기 입력 피처 벡터를 획득할 때, 상기 처리 모듈은 구체적으로:
    상기 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 상기 입력 피처 벡터를 획득하도록 구성되는
    제 1 네트워크 디바이스.
  21. 제19항 또는 제20항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 상기 제 2 메소드 파라미터 정보는 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    제 1 네트워크 디바이스.
  22. 제16항 또는 제17항에 있어서,
    상기 전송 모듈이 상기 피처 데이터를 상기 제 2 네트워크 디바이스에 전송한 후, 상기 수신 모듈은:
    제 3 네트워크 디바이스로부터 제 2 표시 정보를 수신하도록 더 구성되고, 상기 제 2 표시 정보는 제 3 메소드 표시 정보 및 제 3 데이터 타입 표시 정보를 포함하며;
    상기 처리 모듈은 상기 제 3 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써 상기 제 3 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 입력 피처 벡터를 획득하도록 더 구성되며; 및
    상기 전송 모듈은 상기 입력 피처 벡터를 상기 제 3 네트워크 디바이스에 전송하도록 더 구성되는
    제 1 네트워크 디바이스.
  23. 제22항에 있어서,
    상기 입력 피처 정보는 제 3 메소드 파라미터 정보를 더 포함하고, 상기 제 3 메소드 파라미터 정보는 상기 제 3 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    제 1 네트워크 디바이스.
  24. 제 2 네트워크 디바이스로서,
    제 1 표시 정보를 제 1 네트워크 디바이스에 전송하도록 구성되는 전송 모듈 ― 상기 제 1 표시 정보는 제 1 메소드 표시 정보 및 제 1 데이터 타입 표시 정보를 포함함 ―;
    상기 제 1 네트워크 디바이스로부터 피처 데이터를 수신하도록 구성되는 수신 모듈 ― 상기 피처 데이터는 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 1 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행함으로써 획득됨 ―; 및
    상기 피처 데이터에 기반하여 모델 트레이닝을 수행하도록 구성되는 처리 모듈을 포함하는
    제 2 네트워크 디바이스.
  25. 제24항에 있어서,
    상기 처리 모듈이 상기 피처 데이터에 기반하여 상기 모델 트레이닝을 수행한 후, 상기 전송 모듈은:
    트레이닝을 통해 획득된 모델 정보를 상기 제 1 네트워크 디바이스에 전송하도록 더 구성되고, 상기 모델 정보는 데이터 예측에 사용되는
    제 2 네트워크 디바이스.
  26. 제24항에 있어서,
    상기 처리 모듈이 상기 피처 데이터에 기반하여 상기 모델 트레이닝을 수행한 후, 상기 전송 모듈은:
    트레이닝을 통해 획득된 모델 정보를 제 3 네트워크 디바이스에 전송하도록 더 구성되고, 상기 모델 정보는 데이터 예측에 사용되는
    제 2 네트워크 디바이스.
  27. 제25항 또는 제26항에 있어서,
    상기 모델 정보는 모델 알고리즘 정보 및 입력 피처 정보를 포함하고;
    상기 입력 피처 정보는 입력 피처 벡터를 획득하는 데 사용되며, 상기 입력 피처 벡터 및 상기 모델 알고리즘 정보는 상기 데이터 예측에 사용되는
    제 2 네트워크 디바이스.
  28. 제27항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 표시 정보 및 제 2 데이터 타입 표시 정보를 포함하며, 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드를 사용함으로써, 상기 제 2 데이터 타입 표시 정보에 의해 표시되는 데이터에 대해 피처 추출을 수행하여, 상기 입력 피처 벡터를 획득하도록 표시하는 데 사용되는
    제 2 네트워크 디바이스.
  29. 제27항 또는 제28항에 있어서,
    상기 입력 피처 정보는 제 2 메소드 파라미터 정보를 더 포함하고, 상기 제 2 메소드 파라미터 정보는 상기 제 2 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    제 2 네트워크 디바이스.
  30. 제24항 내지 제29항 중 어느 한 항에 있어서,
    상기 제 1 표시 정보는 제 1 메소드 파라미터 정보를 더 포함하고, 상기 제 1 메소드 파라미터 정보는 상기 제 1 메소드 표시 정보에 의해 표시되는 메소드가 사용될 때 요구되는 파라미터에 관한 정보인
    제 2 네트워크 디바이스.
  31. 컴퓨터 판독 가능 저장 매체로서,
    상기 컴퓨터 판독 가능 저장 매체는 컴퓨터 명령어를 저장하고, 상기 컴퓨터 명령어는 컴퓨터 상에서 실행될 경우, 상기 컴퓨터는 제1항 내지 제15항 중 어느 한 항에 따른 방법을 수행하도록 인에이블되는
    컴퓨터 판독 가능 저장 매체.
KR1020207033491A 2018-04-28 2019-04-22 피처 엔지니어링 오케스트레이션 방법 및 장치 KR102470712B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810399920.3A CN110430068B (zh) 2018-04-28 2018-04-28 一种特征工程编排方法及装置
CN201810399920.3 2018-04-28
PCT/CN2019/083744 WO2019206100A1 (zh) 2018-04-28 2019-04-22 一种特征工程编排方法及装置

Publications (2)

Publication Number Publication Date
KR20210005120A true KR20210005120A (ko) 2021-01-13
KR102470712B1 KR102470712B1 (ko) 2022-11-25

Family

ID=68294413

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207033491A KR102470712B1 (ko) 2018-04-28 2019-04-22 피처 엔지니어링 오케스트레이션 방법 및 장치

Country Status (5)

Country Link
US (1) US20210042578A1 (ko)
EP (2) EP4307634A1 (ko)
KR (1) KR102470712B1 (ko)
CN (2) CN110430068B (ko)
WO (1) WO2019206100A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113873538A (zh) * 2020-06-30 2021-12-31 华为技术有限公司 一种模型数据传输方法及通信装置
EP4187421A4 (en) * 2020-08-14 2023-12-27 Huawei Technologies Co., Ltd. MEDIA INFORMATION TRANSMISSION METHOD AND ELECTRONIC DEVICE
WO2022061940A1 (zh) * 2020-09-28 2022-03-31 华为技术有限公司 一种模型数据传输方法及通信装置
CN112668723B (zh) * 2020-12-29 2024-01-02 杭州海康威视数字技术股份有限公司 一种机器学习方法及系统
CN115589599A (zh) * 2021-06-23 2023-01-10 华为技术有限公司 传输信息的方法和装置
WO2024007156A1 (zh) * 2022-07-05 2024-01-11 华为技术有限公司 一种通信方法和装置
WO2024067248A1 (zh) * 2022-09-30 2024-04-04 华为技术有限公司 一种获取训练数据集的方法和装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040064450A1 (en) * 2002-09-30 2004-04-01 Kabushiki Kaisha Toshiba Method for preparing data to be analyzed, data analysis method, data analysis device, data preparation program, data analysis program, data prediction device, data prediction method, data prediction program and computer
CN101030835B (zh) * 2007-02-09 2010-08-18 华为技术有限公司 检测特征获取装置和方法
US8213951B2 (en) * 2008-12-23 2012-07-03 At & T Mobility Ii Llc Using mobile communication devices to facilitate coordinating use of resources
WO2011002735A1 (en) * 2009-07-01 2011-01-06 Carnegie Mellon University Methods and apparatuses for monitoring energy consumption and related operations
JPWO2012018131A1 (ja) * 2010-08-04 2013-10-28 日本電気株式会社 行動特徴抽出装置、行動特徴抽出システム、行動特徴抽出方法、及び行動特徴抽出プログラム
EP2668545B1 (en) * 2011-01-26 2019-06-12 Google LLC Dynamic predictive modeling platform
US9519043B2 (en) * 2011-07-21 2016-12-13 At&T Mobility Ii Llc Estimating network based locating error in wireless networks
CN103260187B (zh) * 2012-02-20 2016-03-02 华为技术有限公司 内容编码预同步的方法、设备及系统
US9324041B2 (en) * 2014-01-19 2016-04-26 SparkBeyond Ltd. Function stream based analysis
US10043194B2 (en) * 2014-04-04 2018-08-07 International Business Machines Corporation Network demand forecasting
CN104809518A (zh) * 2015-04-29 2015-07-29 重庆大学 一种基于支持向量机的岩体冲击地压声发射预测方法
US9911290B1 (en) * 2015-07-25 2018-03-06 Gary M. Zalewski Wireless coded communication (WCC) devices for tracking retail interactions with goods and association to user accounts
CN105224623B (zh) * 2015-09-22 2019-06-18 北京百度网讯科技有限公司 数据模型的训练方法及装置
US20170193392A1 (en) * 2015-12-31 2017-07-06 Linkedin Corporation Automated machine learning tool
CN106980623B (zh) * 2016-01-18 2020-02-21 华为技术有限公司 一种数据模型的确定方法及装置
CN107168965B (zh) * 2016-03-07 2021-01-12 阿里巴巴集团控股有限公司 特征工程策略确定方法及装置
US10509791B2 (en) * 2016-03-08 2019-12-17 Facebook, Inc. Statistical feature engineering of user attributes
CN107733672A (zh) * 2016-08-12 2018-02-23 南京中兴软件有限责任公司 故障处理方法、装置及控制器
CN106778259B (zh) * 2016-12-28 2020-01-10 北京明朝万达科技股份有限公司 一种基于大数据机器学习的异常行为发现方法及系统
CN106534220A (zh) * 2016-12-30 2017-03-22 北京奇虎科技有限公司 一种流数据的双向传输方法和装置
CN107204010B (zh) * 2017-04-28 2019-11-19 中国科学院计算技术研究所 一种单目图像深度估计方法与系统
CN107180628A (zh) * 2017-05-19 2017-09-19 百度在线网络技术(北京)有限公司 建立声学特征提取模型的方法、提取声学特征的方法、装置
US10039016B1 (en) * 2017-06-14 2018-07-31 Verizon Patent And Licensing Inc. Machine-learning-based RF optimization
CN107741899B (zh) * 2017-10-16 2021-07-27 北京小米移动软件有限公司 处理终端数据的方法、装置及系统
CN110210506B (zh) * 2018-04-04 2023-10-20 腾讯科技(深圳)有限公司 基于大数据的特征处理方法、装置和计算机设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Discussion about Big Data Driven Network Architecture. S2-173192. 2017년 5월 14일. *
Discussion on big data and 5G. S2-181250. 2018년 1월 26일.* *

Also Published As

Publication number Publication date
EP3780496A4 (en) 2021-05-19
CN113159145A (zh) 2021-07-23
US20210042578A1 (en) 2021-02-11
CN110430068B (zh) 2021-04-09
KR102470712B1 (ko) 2022-11-25
EP3780496B1 (en) 2023-08-23
WO2019206100A1 (zh) 2019-10-31
EP3780496A1 (en) 2021-02-17
EP4307634A1 (en) 2024-01-17
CN110430068A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
KR102470712B1 (ko) 피처 엔지니어링 오케스트레이션 방법 및 장치
US20220124543A1 (en) Graph neural network and reinforcement learning techniques for connection management
US10728138B2 (en) Analytics enabled radio access network (RAN)- aware content optimization using mobile edge computing
US11451452B2 (en) Model update method and apparatus, and system
CN110121180B (zh) 一种数据分析装置、系统及方法
EP3742669B1 (en) Machine learning in radio access networks
US11374876B2 (en) Intelligent cloud platform to host resource efficient edge network function
US20210209481A1 (en) Methods and systems for dynamic service performance prediction using transfer learning
US20230325258A1 (en) Method and apparatus for autoscaling containers in a cloud-native core network
CN112929187A (zh) 网络切片管理方法、装置和系统
US20230112127A1 (en) Electronic device for deploying application and operation method thereof
CN114138501B (zh) 用于现场安全监控的边缘智能服务的处理方法和装置
CN115756822A (zh) 高性能计算应用性能调优的方法及系统
KR101924628B1 (ko) 트래픽 오프로딩을 제어하기 위한 장치 및 방법
JP2024515333A (ja) ネットワークスライス自己最適化方法、基地局、及び記憶媒体
US11496550B2 (en) Method, system, and computer program product for deploying application
US20240031427A1 (en) Cloud-network integration oriented multi-access edge computing architecture
CN111143033B (zh) 基于可伸缩操作系统的操作执行方法及装置
KR20210147240A (ko) 모바일 엣지 컴퓨팅을 활용하는 모바일 증강현실 서비스의 모바일 단말 에너지 최적화 방법 및 시스템
KR20220008682A (ko) 마이크로 네트워크 기능 배치 방법 및 전자 장치
CN109272180B (zh) 云制造服务的实现方法、装置和云制造服务平台
KR102163214B1 (ko) CoMP 기반 스몰 셀 네트워크에서의 기계학습을 활용한 능동 캐싱 기법
EP3787330B1 (en) Network architecture to improve service quality management
CN215729726U (zh) 5g边缘计算平台架构
US20240146665A1 (en) Network management method and network entity

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant