KR20220095694A - AI model connection service system using open API and service method thereof - Google Patents

AI model connection service system using open API and service method thereof Download PDF

Info

Publication number
KR20220095694A
KR20220095694A KR1020200187460A KR20200187460A KR20220095694A KR 20220095694 A KR20220095694 A KR 20220095694A KR 1020200187460 A KR1020200187460 A KR 1020200187460A KR 20200187460 A KR20200187460 A KR 20200187460A KR 20220095694 A KR20220095694 A KR 20220095694A
Authority
KR
South Korea
Prior art keywords
model
prediction
module
information
linkage
Prior art date
Application number
KR1020200187460A
Other languages
Korean (ko)
Other versions
KR102550574B1 (en
Inventor
최두진
Original Assignee
주식회사 디케이아이테크놀로지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디케이아이테크놀로지 filed Critical 주식회사 디케이아이테크놀로지
Priority to KR1020200187460A priority Critical patent/KR102550574B1/en
Publication of KR20220095694A publication Critical patent/KR20220095694A/en
Application granted granted Critical
Publication of KR102550574B1 publication Critical patent/KR102550574B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/067Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/54Interprogram communication
    • G06F9/543User-generated data transfer, e.g. clipboards, dynamic data exchange [DDE], object linking and embedding [OLE]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Economics (AREA)
  • General Physics & Mathematics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Marketing (AREA)
  • Tourism & Hospitality (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Operations Research (AREA)
  • Development Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Educational Administration (AREA)
  • Information Transfer Between Computers (AREA)
  • Stored Programmes (AREA)

Abstract

An objective of the present invention is to provide an AI model linking service system using an open API which allows an AI model development company and an AI service provider to be easily linked. According to an embodiment of the present invention, the AI model linking service system using an open API comprises a model linking module distribution unit and an open API linking unit. The model linking module distribution unit receives a prediction model and a linking module, stores the received prediction model and linking module in storage, and then loads the stored prediction model and linking module in a distribution engine distributed to an AI model hub. The open API linking unit searches for model information associated with predicting essential information received through an open API through an AI model linking management unit, generates associated parameters for input processing of the predicting essential information, links the model information and the associated parameters to a model linking module corresponding to the AI model hub, executes prediction of the model information through the linked model linking module, and provides completed execution prediction result information through a result transmission unit.

Description

오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템 및 서비스 방법{AI model connection service system using open API and service method thereof}AI model connection service system using open API and service method thereof

본 발명은 에이이아이(AI:Artificial intelligence) 모델 서비스 분야에 관한 것으로, 보다 상세하게는 오픈 에이피아이 (open API)를 이용한 에이아이 모델 연계 서비스 시스템 및 서비스 방법에 관한 것이다.The present invention relates to the field of artificial intelligence (AI) model service, and more particularly, to an AI model linkage service system and service method using an open API.

현재 AI 모델을 개발하는 AI 모델 개발업체는 AI 서비스를 제공하는 대규모 AI 포탈 업체를 통해서 AI 모델을 대부분 업로드하고 있다. 그러한 경우에 AI 모델 개발업체는 AI 서비스를 제공하는 대규모 포탈 업체에 종속되어 AI 서비스의 신뢰성이나 개발의 댓가에 따른 수익구조에 취약한 문제점이 있다. 또한, AI 서비스 제공사는 AI 서비스를 제공하기 위한 소프트웨어를 개발해야 함은 물론 해당되는 AI 모델 개발업체를 서치하거나 직접 AI 모델을 개발해야 하는 부담이 있다.Currently, AI model developers who develop AI models are mostly uploading AI models through large AI portal companies that provide AI services. In such a case, the AI model developer is subordinated to a large-scale portal company that provides AI services, so there is a problem in the reliability of the AI service or the profit structure according to the cost of development. In addition, AI service providers have to develop software to provide AI services, as well as search for AI model developers or develop AI models themselves.

본 발명이 해결하고자 하는 기술적 과제는, AI 모델 개발업체와 AI 서비스 제공사가 용이하게 연계되도록 하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템 및 서비스 방법을 제공함에 있다.The technical problem to be solved by the present invention is to provide an AI model linkage service system and service method using Open API that allows an AI model developer and an AI service provider to be easily linked.

상기 기술적 과제를 달성하기 위한 본 발명의 실시 예에 따라, 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템은 모델 연계 모듈 배포부와 오픈 API 연계부를 포함한다. 상기 모델 연계 모듈 배포부는 예측모델과 연계모듈을 수신하고, 상기 수신된 예측모델과 연계모듈을 스토리지에 저장한 후, 상기 저장된 예측모델과 연계 모듈을 AI 모델 허브 및 AI 모델 연계부로 각기 배포하는 배포 엔진에 로딩한다. 상기 오픈 API 연계부는 오픈 에이피아이(API)를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 전송부를 통해 제공한다.According to an embodiment of the present invention for achieving the above technical problem, an AI model linkage service system using Open API includes a model linkage module distribution unit and an open API linker unit. The model link module distribution unit receives the prediction model and the link module, stores the received prediction model and the link module in storage, and distributes the stored prediction model and link module to the AI model hub and the AI model link unit, respectively. load into the engine. The open API linkage unit searches for model information related to the essential prediction information received through the Open API (API) through the AI model linkage management unit, generates relevant parameters for input processing of the essential prediction information, and the prediction essential For information transmission, the related parameters and the model information are linked with a corresponding model link module of the AI model hub, the model information is predicted through the linked model link module, and the prediction result information that has been executed provided through the transmitter.

본 발명의 실시 예에 따르면, AI 모델 개발업체와 AI 서비스 제공사가 오픈 API를 통해 서로 쉽게 연계되어 해당 AI 모델을 이용한 서비스가 수요자에게 원활히 제공될 수 있다. 따라서, AI 모델 개발업체와 AI 서비스 제공사의 이익이 서로 극대화될 수 있다. 결국, AI 모델 개발업체는 AI 서비스를 제공하는 소프트웨어를 별도로 개발할 필요 없이 AI 모델만을 개발하더라도 해당 AI 모델을 이용한 서비스가 수요자에게 제공될 수 있고, AI 서비스 제공사는 다양한 AI 모델들을 별도로 개발하지 않더라도 각종 AI 서비스를 제공할 수 있다.According to an embodiment of the present invention, an AI model developer and an AI service provider are easily linked to each other through an open API, so that a service using the AI model can be smoothly provided to consumers. Accordingly, the profits of AI model developers and AI service providers can be maximized. In the end, AI model developers do not need to separately develop software that provides AI services, and even if only AI models are developed, services using the AI models can be provided to consumers, and AI service providers do not develop various AI models separately. AI services can be provided.

도 1은 본 발명의 실시 예에 따른 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템의 개념적 블록도이다.
도 2는 도 1의 모듈 배포부의 동작을 설명하는 플로우챠트이다.
도 3은 도 1의 오픈 API 연계부의 동작 일부를 설명하는 플로우챠트이다.
1 is a conceptual block diagram of an AI model linkage service system using Open AI according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating the operation of the module distribution unit of FIG. 1 .
3 is a flowchart illustrating a part of the operation of the open API linker of FIG. 1 .

위와 같은 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시 예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시 예에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시 예들은, 이해의 편의를 제공할 의도 이외에는 다른 의도 없이, 개시된 내용이 보다 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.The above objects, other objects, features and advantages of the present invention will be easily understood through the following preferred embodiments in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosed content may be more thorough and complete, and the spirit of the present invention may be sufficiently conveyed to those skilled in the art, without any intention other than to provide convenience of understanding.

본 상세한 설명 전체에 걸쳐 "일 실시 예" 또는 "실시 예" 로의 참조는 실시 예와 관련되어 설명된 특정한 특징 구조, 또는 특성이 본 명세서에 개시된 적어도 하나의 실시 예에 포함될 수 있다는 것을 의미한다. 따라서, 본 상세한 설명 전체에 걸쳐 다양한 장소들에서의 "일 실시 예에서" 또는 "실시 예에서" 또는 "일 실시 예에 따라"(또는 유사한 의미를 갖는 다른 구성들)구절들의 출현들은 모두 반드시 동일한 실시 예를 지칭하는 것이 아닐 수 있다. 또한, 특정한 특징들, 구조들, 또는 특성들은 하나 이상의 실시 예들에서 임의의 적합한 방식으로 결합될 수 있다. 이와 관련하여 본 명세서에서 사용된 바와 같이, "예시적인" 단어는 "예시, 실례, 또는 도시를 제공함"을 의미한다. "예시적인" 것으로서 본 명세서에 설명된 임의의 실시 예는 다른 실시 예보다 반드시 선호되거나 유리한 것으로 해석되어서는 안된다. 또한, 본 명세서의 문맥에 따라, 단수의 용어는 해당 복수의 형태들을 포함할 수 있고, 복수의 용어는 해당 단수의 형태를 포함할 수 있다. 본 명세서에 도시되고 논의된(구성요소 도해들을 포함하는) 다양한 도면들은 단지 예시적인 목적을 위한 것이고, 실제 척도로 그려진 것이 아니라는 점에서 유의해야 한다. Reference throughout this detailed description to “one embodiment” or “an embodiment” means that a particular feature structure, or characteristic described in connection with the embodiment may be included in at least one embodiment disclosed herein. Thus, the appearances of the phrases "in an embodiment" or "in an embodiment" or "according to an embodiment" (or other constructions having a similar meaning) in various places throughout this specification are all necessarily identical. It may not refer to an embodiment. Moreover, the particular features, structures, or characteristics may be combined in any suitable manner in one or more embodiments. As used herein in this regard, the word “exemplary” means “to provide an illustration, illustration, or illustration.” Any embodiment described herein as “exemplary” should not necessarily be construed as preferred or advantageous over other embodiments. Also, depending on the context of this specification, a singular term may include its plural forms, and a plural term may include its singular forms. It should be noted that the various drawings shown and discussed herein (including component diagrams) are for illustrative purposes only and are not drawn to scale.

본 명세서에서 사용된 용어는 단지 특정한 예시 적인 실시 예들을 설명하기 위한 것이고, 청구된 본 발명을 한정하려고 의도되는 것은 아니다. 본 명세서에서 사용된 바와 같이, 단수의 형태들 "한(a)", "한(an)", 및 "그(the)"는 문맥이 명백하게 다르게 지시하지 않는 한 복수의 형태를 포함하는 것으로 의도된다. "포함하다" 및/또는 "포함하는" 용어들은, 상세한 설명에서 사용될 때, 명시된 특징들, 정수들, 단계들, 연산들, 요소들, 및/또는 구성 요소들의 존재를 명시하나, 하나 이상의 다른 특징들, 정수들, 단계들, 연산들, 요소들, 및/또는 구성 요소들, 및/또는 그들의 그룹들의 존재 또는 추가를 배제하지 않는 다는 것이 더 이해될 것이다. 본 명세서에서 사용된 "제1", "제2" 등의 용어들은 선행하는 명사들의 라벨(label)들로 사용되고, 그렇게 명백하게 정의되지 않는 한 임의의 유형의 순서(예를 들어 공간적, 시간적, 논리적 등)를 암시하지 않는다. 또한 동일하거나 유사한 기능을 갖는 부분들, 구성요소들, 블록들, 회로들, 유닛들, 또는 모듈들을 지칭하기 위해 둘 이상의 도면들에 걸쳐 동일한 참조 번호들이 사용될 수 있다. 그러나 이러한 사용은 도시의 간소화 및 논의의 용이함을 위해서만이다. 이는 그러한 구성 요소들 또는 유닛들의 구성 또는 구조적 세부 사항이 모든 실시 예들에 걸쳐 동일한 것을 의미하지 않거나 또는 이러한 공통으로 참조된 부분들/모듈들이 본 명세서에 개시된 특정한 실시 예들의 지침들을 구현하는 유일한 방법이라는 것을 의미하지는 않는다. The terminology used herein is for the purpose of describing particular exemplary embodiments only, and is not intended to limit the claimed invention. As used herein, the singular forms "a", "an", and "the" are intended to include the plural forms unless the context clearly dictates otherwise. do. The terms “comprise” and/or “comprising,” when used in the specification, specify the presence of specified features, integers, steps, operations, elements, and/or components, but include one or more other It will be further understood that this does not exclude the presence or addition of features, integers, steps, operations, elements, and/or components, and/or groups thereof. As used herein, terms such as "first", "second", etc. are used as labels of preceding nouns, and unless explicitly defined so, in any type of order (eg, spatial, temporal, logical etc.) is not implied. Also, the same reference numbers may be used throughout two or more drawings to refer to parts, components, blocks, circuits, units, or modules having the same or similar function. However, this use is only for the sake of simplification of the city and ease of discussion. This does not mean that the configuration or structural details of such components or units are the same across all embodiments, or that these commonly referenced parts/modules are the only way to implement the guidelines of the specific embodiments disclosed herein. doesn't mean that

달리 정의되지 않는 한, 본 명세서에서 사용된 모든 용어들(기술적인 그리고 과학적인 용어들을 포함하는)은 본 발명에 속한 기술 분야의 당업자에 의해 일반적으로 이해되는 동일한 의미를 갖는다. 일반적으로 사용되는 사전들에 정의된 용어들은 관련기술의 문맥에서 그들의 의미와 일치하는 의미를 갖는 것으로서 해석되어야 하며 그리고 본 명세서에서 명백하게 정의되지 않는 한 이상적으로 되거나 지나치게 형식적인 뜻으로 해석되지 말아야 할 것임이 더 이해될 것이다. Unless defined otherwise, all terms (including technical and scientific terms) used herein have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms defined in commonly used dictionaries should be interpreted as having a meaning consistent with their meaning in the context of the related art, and should not be interpreted in an idealized or overly formal sense unless explicitly defined herein. This will make more sense.

본 명세서에서 사용된 바로서, 용어 "모듈(module)"은 모듈과 관련되어 본 명세서에서 설명된 기능을 제공하도록 구성된 소프트웨어, 펌웨어(firmware), 및/또는 하드웨어의 임의의 조합을 나타낸다. 용어 "소프트웨어"는 본 명세서에서 설명된 임의의 구현에 적용된 대로, 소프트웨어 패키지, 코드, 및/또는 인스트럭션 셋(set) 또는 인스트럭션들로서 구현될 수 있다. 용어 "하드웨어"는 본 명세서에서 설명된 임의의 구현 예에 적용된 대로, 예를 들어 개별의 혹은 임의의 조합의, 하드와이어드 회로(hardwired circuitry), 프로그래머블 회로, 상태-머신 회로(state machine circuitry), 및/또는 프로그래머블 회로에 의해 실행되는 인스트럭션들을 저장하는 펌웨어를 포함할 수 있다. 모듈들은 집합적으로 또는 개별적으로, 집적회로, 시스템 온 칩 (SoC) 등으로 구현될 수 있으나, 이에 제한되지 않는 더 큰 시스템의 일부를 형성하는 회로로 구현될 수 있다. As used herein, the term “module” refers to any combination of software, firmware, and/or hardware configured to provide the functionality described herein in connection with a module. The term “software,” as applied to any implementation described herein, may be implemented as a software package, code, and/or an instruction set or instructions. The term "hardware" as applied to any implementation described herein, for example, individually or in any combination, includes hardwired circuitry, programmable circuitry, state machine circuitry, and/or firmware that stores instructions to be executed by the programmable circuit. Modules, collectively or individually, may be implemented as integrated circuits, system-on-a-chip (SoC), etc., but may be implemented as circuitry forming part of a larger system, including but not limited to.

여기에 설명되고 예시되는 각 실시 예는 그것의 상보적인 실시 예도 포함될 수 있으며, AI 모듈의 세부적인 추론 동작, 예측 동작들은 본 발명의 요지를 모호하지 않도록 하기 위해 상세히 설명되지 않을 것이다. Each embodiment described and illustrated herein may also include a complementary embodiment thereof, and detailed inference operations and prediction operations of the AI module will not be described in detail so as not to obscure the gist of the present invention.

도 1은 본 발명의 실시 예에 따른 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템의 개념적 블록도이다. 1 is a conceptual block diagram of an AI model linkage service system using Open AI according to an embodiment of the present invention.

도 1을 참조하면, 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템은 모델 연계 모듈 배포부(100)와 오픈 API 연계부를 포함한다. Referring to FIG. 1 , the AI model linkage service system using Open API includes a model linkage module distribution unit 100 and an open API linker unit.

상기 모델 연계 모듈 배포부(100)는 모델수신 모듈(110), 모델저장 모듈(120), 및 모델로딩 모듈(130)을 포함할 수 있다. The model link module distribution unit 100 may include a model receiving module 110 , a model storage module 120 , and a model loading module 130 .

상기 오픈 API 연계부는 정보 수신 및 전송부(200), AI 모델 연계 관리부(300), AI 모델 연계부(400), AI 모델 허브(500)를 포함한다.The open API linkage unit includes an information receiving and transmitting unit 200 , an AI model linkage management unit 300 , an AI model linkage unit 400 , and an AI model hub 500 .

상기 정보 수신 및 전송부(200)는 예측필수 정보 수신 모듈(210), 예측필수 정보 전달 모듈(220), 예측결과 정보 전달 모듈(230), 및 예측결과 정보 수신 모듈(240)을 포함할 수 있다. The information receiving and transmitting unit 200 may include a prediction required information receiving module 210 , a prediction essential information transmitting module 220 , a prediction result information transmitting module 230 , and a prediction result information receiving module 240 . have.

상기 AI 모델 연계 관리부(300)는 수신 모듈(310), 정보 검색 모듈(320), 입력처리 모듈(330), 전송처리 모듈(340), 분기처리 모듈(350), 결과수신 처리 모듈(350), 결과전달 처리 모듈(360)을 포함할 수 있다. The AI model linkage management unit 300 includes a reception module 310 , an information search module 320 , an input processing module 330 , a transmission processing module 340 , a branch processing module 350 , and a result reception processing module 350 . , a result delivery processing module 360 may be included.

상기 AI 모델 연계부(400)는 복수의 연계 모듈들(401-1~401-N)을 포함할 수 있다. The AI model linkage unit 400 may include a plurality of linkage modules 401-1 to 401-N.

상기 AI 모델 허브는(500)는 건강예측 모델(510), 건강나이 예측 모델(520), 장비고장 예측 모델(530), 날씨 예측 모델(540), 및 기타 모델(550)을 포함할 수 있다. The AI model hub 500 may include a health prediction model 510 , a health age prediction model 520 , an equipment failure prediction model 530 , a weather prediction model 540 , and other models 550 . .

상기 모델 연계 모듈 배포부(100)의 상기 모델수신 모듈(110)은 AI 모델 개발 단말(10)로부터 A 사가 개발한 예측모델과 연계모듈을 수신할 수 있다. 여기서, A 사는 AI 모델 개발업체일 수 있다. 상기 A 사는 AI 서비스를 제공하는 소프트웨어를 별도로 개발할 필요 없이 AI 모델의 개발에 전념한다. The model receiving module 110 of the model linkage module distribution unit 100 may receive the prediction model and linkage module developed by the company A from the AI model development terminal 10 . Here, company A may be an AI model developer. The above company A is dedicated to the development of the AI model without the need to separately develop software that provides AI services.

상기 모델수신 모듈(110)과 상기 AI 모델 개발 단말(10)간의 통신 프로토콜은 HTTP일 수 있다. 그러나, 상기 통신 프로토콜은 예시적인 방식에 불과하며, 사안이 다른 경우에 다음과 같은 통신 프로토콜들이 사용될 수도 있다. 상기 프로토콜들은 Code Division Multiple Access (CDMA), Global System for Mobile Communications (GSM), North American Digital Communications (NADC), Extended Time Division Multiple Access (E-TDMA), Wideband CDMA (WCDMA), CDMA2000, Wi-Fi, Municipal Wi-Fi (Muni Wi-Fi), Bluetooth, Digital Enhanced Cordless Telecommunications (DECT), Wireless Universal Serial Bus (Wireless USB), Fast low-latency access with seamless handoff Orthogonal Frequency Division Multiplexing (Flash-OFDM), IEEE 802.20, General Packet Radio Service (GPRS), iBurst, Wireless Broadband (WiBro), WiMAX, WiMAX-Advanced, Universal Mobile Telecommunication Service - Time Division Duplex (UMTS-TDD), High Speed Packet Access (HSPA), Evolution Data Optimized (EVDO), Long Term Evolution - Advanced (LTE Advanced), Multichannel Multipoint Distribution Service (MMDS), 및 기타 등등일 수 있다.The communication protocol between the model receiving module 110 and the AI model development terminal 10 may be HTTP. However, the above communication protocol is only an exemplary method, and in other cases, the following communication protocols may be used. The protocols are Code Division Multiple Access (CDMA), Global System for Mobile Communications (GSM), North American Digital Communications (NADC), Extended Time Division Multiple Access (E-TDMA), Wideband CDMA (WCDMA), CDMA2000, Wi-Fi , Municipal Wi-Fi (Muni Wi-Fi), Bluetooth, Digital Enhanced Cordless Telecommunications (DECT), Wireless Universal Serial Bus (Wireless USB), Fast low-latency access with seamless handoff Orthogonal Frequency Division Multiplexing (Flash-OFDM), IEEE 802.20, General Packet Radio Service (GPRS), iBurst, Wireless Broadband (WiBro), WiMAX, WiMAX-Advanced, Universal Mobile Telecommunication Service - Time Division Duplex (UMTS-TDD), High Speed Packet Access (HSPA), Evolution Data Optimized ( EVDO), Long Term Evolution - Advanced (LTE Advanced), Multichannel Multipoint Distribution Service (MMDS), and the like.

상기 예측모델은 딥러닝 엔진을 이용하여 생성된 모델일 수 있다. 생성된 예측모델은 java, Python 등과 같은 동적 연계 코드를 이용하여 연계될 수 있다. The predictive model may be a model generated using a deep learning engine. The generated prediction model can be linked using a dynamic linkage code such as java or Python.

상기 연계 모듈은 운영관리 프로그램을 이용하여 웹에 자동 디플로이된다. 상기 연계 모듈은 자동으로 Open API 모듈과 연계될 수 있다. 따라서, 오픈 API 통해서 AI 예측 모델을 연계하고 예측 모델로부터 얻어진 결과를 오픈 API 통해서 받는 형태이다. The link module is automatically deployed on the web using an operation management program. The association module may be automatically associated with the Open API module. Therefore, it is a form of linking the AI prediction model through the open API and receiving the result obtained from the prediction model through the open API.

상기 모델 연계 모듈 배포부(100)의 상기 모델 저장 모듈(120)은 상기 모델 수신 모듈(110)을 통해 수신된 예측모델과 연계모듈을 메모리 혹은 스토리지에 저장한다. The model storage module 120 of the model link module distribution unit 100 stores the prediction model and the link module received through the model receiving module 110 in a memory or storage.

상기 모델 연계 모듈 배포부(100)의 상기 모델 로딩 모듈(130)은 상기 저장된 예측모델과 연계 모듈을 상기 AI 모델 허브(500) 및 상기 AI 모델 연계부(400)로 로 각기 배포하는 배포 엔진에 로딩한다. 여기서, 상기 배포 엔진은 상기 연계 모듈이 jar 파일인 경우에 JVM 엔진일 수 있다. 상기 JVM은 Java Virtual Machine의 약자로 자바 바이트 코드를 OS에 특화된 코드로 변환하여 실행 해주는 역할을 한다. 즉, JVM 위에서 동작하기 위해서는 자바 바이트코드가 필요하다. 자바 바이트 코드는 개발자에 의해서 작성된 자바 코드를 자바 컴파일러로 변환된 코드를 말한다. 상기 JVM은 OS에 특화된 코드로 변환해 실행을 해주기 때문에 특정 플랫폼에 종속적인 특징을 가지고 있다. 결국, 이러한 의미는 자바에서는 JVM에 의해서 실행이 되기 때문에 자바는 운영체제에 독립적이라고 할 수 있는 것이다. The model loading module 130 of the model linkage module distribution unit 100 is a distribution engine that distributes the stored prediction model and linkage module to the AI model hub 500 and the AI model linkage unit 400, respectively. load Here, the distribution engine may be a JVM engine when the linked module is a jar file. The JVM is an abbreviation of Java Virtual Machine, and serves to convert Java bytecodes into OS-specific codes and execute them. In other words, Java bytecode is required to operate on the JVM. Java byte code refers to code that is converted by a Java compiler from Java code written by a developer. Since the JVM converts and executes OS-specific code, it has a characteristic that is dependent on a specific platform. After all, this means that Java is independent of the operating system because it is executed by the JVM in Java.

상기 오픈 API 연계부의 상기 정보 수신 및 전송부(200)는 B사의 모델 이용 서비스 단말(20)과 접속될 수 있다. 여기서 B사는 AI 서비스 제공사이다. 따라서, AI 서비스 제공사는 다양한 AI 모델들을 별도로 개발하지 않더라도 각종 AI 서비스를 수요자에게 제공할 수 있다. The information receiving and transmitting unit 200 of the open API linkage unit may be connected to the model use service terminal 20 of company B. Here, company B is an AI service provider. Therefore, AI service providers can provide various AI services to consumers without developing various AI models separately.

상기 정보 수신 및 전송부(200)의 예측필수 정보 수신 모듈(210)는 상기 모델 이용 서비스 단말(20)로부터 예측필수 정보를 수신한다. 상기 정보 수신 및 전송부(200)의 예측필수 정보 전달 모듈(220)은 상기 수신된 예측필수 정보를 상기 AI 모델 연계 관리부(300)로 전달한다. 상기 정보 수신 및 전송부(200)의 예측결과 정보 전달 모듈(230)은 AI 모델을 통해 예측 완료된 예측결과 정보를 상기 모델 이용 서비스 단말(20)로 전달한다. 상기 정보 수신 및 전송부(200)의 예측결과 정보 수신 모듈(230)은 AI 모델을 통해 예측 완료된 예측결과 정보를 AI 모델 연계 관리부(300)의 결과전달 처리 모듈(370)로부터 수신하여 상기 예측결과 정보 전달 모듈(230)로 전달한다. The prediction essential information receiving module 210 of the information receiving and transmitting unit 200 receives the prediction essential information from the model use service terminal 20 . The prediction essential information transmission module 220 of the information receiving and transmitting unit 200 transmits the received prediction essential information to the AI model linkage management unit 300 . The prediction result information transfer module 230 of the information receiving and transmitting unit 200 transmits the prediction result information predicted through the AI model to the model use service terminal 20 . The prediction result information receiving module 230 of the information receiving and transmitting unit 200 receives the prediction result information predicted through the AI model from the result transfer processing module 370 of the AI model linkage management unit 300, and the prediction result It is transmitted to the information transfer module 230 .

상기 AI 모델 연계 관리부(300)의 상기 수신 모듈(310)은 상기 정보 수신 및 전송부(200)의 상기 예측필수 정보 전달 모듈(220)로부터 상기 예측필수 정보를 수신한다. 상기 AI 모델 연계 관리부(300)의 상기 정보 검색 모듈(320)은 상기 수신 모듈(310)을 통해 수신된 상기 예측필수 정보에 관련된 모델 정보를 검색한다. 결국, 상기 모델 정보는 오픈 API인 정보 수신 및 전송부(200)를 통해 수신된 정보이다. 상기 AI 모델 연계 관리부(300)의 상기 입력처리 모듈(330)은 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성한다. 상기 AI 모델 연계 관리부(300)의 상기 전송처리 모듈(340)은 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시킨다. 이 경우에 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키기 위해 모델 분기 처리가 수행될 필요가 있다. 상기 AI 모델 연계 관리부(300)의 상기 분기처리 모듈(350)은 상기 모델 분기 처리를 수행한다. 상기 AI 모델 연계 관리부(300)의 상기 결과수신 처리 모듈(350)은 AI 모델을 통해 예측 완료된 예측결과 정보를 수신한다. 상기 수신된 예측결과 정보는 AI 모델 연계 관리부(300)의 결과전달 처리 모듈(370)로 전달된다. The receiving module 310 of the AI model linkage management unit 300 receives the prediction essential information from the prediction essential information delivery module 220 of the information receiving and transmitting unit 200 . The information search module 320 of the AI model linkage management unit 300 searches for model information related to the prediction essential information received through the reception module 310 . After all, the model information is information received through the information receiving and transmitting unit 200 that is an open API. The input processing module 330 of the AI model linkage management unit 300 generates related parameters for input processing of the prediction essential information. The transmission processing module 340 of the AI model connection management unit 300 associates the related parameters and the model information with a corresponding model connection module of the AI model hub for transmission of the prediction essential information. In this case, model branching processing needs to be performed in order to link the related parameters and the model information with the corresponding model link module of the AI model hub. The branch processing module 350 of the AI model linkage management unit 300 performs the model branch processing. The result reception processing module 350 of the AI model linkage management unit 300 receives prediction result information that has been predicted through the AI model. The received prediction result information is transmitted to the result transfer processing module 370 of the AI model linkage management unit 300 .

상기 상기 AI 모델 연계 관리부(300)의 상기 결과전달 처리 모듈(360)은 상기 수신된 예측결과 정보를 상기 예측결과 정보 수신 모듈(240)로 전달한다. The result transfer processing module 360 of the AI model linkage management unit 300 transmits the received prediction result information to the prediction result information receiving module 240 .

상기 AI 모델 연계부(400)의 복수의 연계 모듈들(401-1~401-N)은 상기 모델 로딩 모듈(130)에 의해 로딩된 연계 모듈들로서, 각종 모델들에 대한 연계모듈을 포함할 수 있다. The plurality of linkage modules 401-1 to 401-N of the AI model linkage unit 400 are linkage modules loaded by the model loading module 130, and may include linkage modules for various models. have.

상기 AI 모델 허브는(500)의 건강예측 모델(510), 건강나이 예측 모델(520), 장비고장 예측 모델(530), 날씨 예측 모델(540), 및 기타 모델(550)은 상기 복수의 연계 모듈들(401-1~401-N)에 대응되어 마련될 수 있다. 상기 건강예측 모델(510), 건강나이 예측 모델(520), 장비고장 예측 모델(530), 날씨 예측 모델(540), 및 기타 모델(550)은 상기 모델 로딩 모듈(130)에 의해 로딩된 모델들이다. The AI model hub 500 includes a health prediction model 510, a healthy age prediction model 520, an equipment failure prediction model 530, a weather prediction model 540, and other models 550 of the plurality of linkages. It may be provided corresponding to the modules 401-1 to 401-N. The health prediction model 510 , the healthy age prediction model 520 , the equipment failure prediction model 530 , the weather prediction model 540 , and other models 550 are models loaded by the model loading module 130 . admit.

예를 들어, 상기 건강 예측 모델(510)은 상기 A모델 연계 모듈(401-1)을 통해 건강 모델 정보의 예측을 실행할 수 있다. 예측 실행이 완료된 예측결과 정보는 상기 결과 수신 처리 모듈(360)으로 제공된다. For example, the health prediction model 510 may perform prediction of health model information through the model A linkage module 401-1. The prediction result information on which prediction execution is completed is provided to the result reception processing module 360 .

도 2는 도 1의 모듈 배포부의 동작을 설명하는 플로우챠트이다.FIG. 2 is a flowchart illustrating the operation of the module distribution unit of FIG. 1 .

도 2를 참조하면, 동작 S101에서 모듈 배포부(100)의 모델 수신 모듈(110)은 예측 모델과 연계 모듈을 수신한다. 상기 예측 모델과 연계 모듈은 AI 예측 모델 및 AI 연계 모듈로서, AI 모델 개발 업체로부터 제공되는 모델 및 모듈이다. Referring to FIG. 2 , in operation S101 , the model receiving module 110 of the module distribution unit 100 receives a predictive model and a linkage module. The prediction model and link module is an AI prediction model and AI link module, and is a model and module provided by an AI model developer.

동작 S102에서 모듈 배포부(100)의 모델 저장 모듈(120)은 수신된 예측 모델과 연계 모듈을 메모리 혹은 스토리지에 저장한다. 동작 S103에서 모듈 배포부(100)의 모델 로딩 모듈(130)은 저장된 예측 모델과 연계 모듈을 배포한다. 예를 들어, A사에서 만들어진 건강 예측 모델과 A 모델 연계 모듈이 배포되는 경우에 AI 모델 허브(500)에는 건강 예측 모델(510)이 존재하게 되고, AI 모델 연계부(400)에는 A 모델 연계 모듈(401-1)이 존재하게 된다. In operation S102, the model storage module 120 of the module distribution unit 100 stores the received prediction model and the associated module in a memory or storage. In operation S103, the model loading module 130 of the module distribution unit 100 distributes the stored prediction model and the associated module. For example, when the health prediction model made by Company A and the model A link module are distributed, the health prediction model 510 is present in the AI model hub 500 and the A model linkage unit 400 is linked to the AI model link unit 400 . A module 401-1 is present.

도 3은 도 1의 오픈 API 연계부의 동작 일부를 설명하는 플로우챠트이다.3 is a flowchart illustrating a part of the operation of the open API linker of FIG. 1 .

도 3을 참조하면, 동작 S201에서 AI 모델 연계 관리부(300)의 수신 모듈(310)은 예측 필수 정보 전달 모듈(220)로부터 예측에 필요한 예측 필수 정보를 수신한다. 예를 들어, 예측 필수 정보는 모델정보, 활동량, 혈압, 혈당 등과 같은 정보일 수 있다. Referring to FIG. 3 , in operation S201 , the receiving module 310 of the AI model linkage management unit 300 receives essential prediction information required for prediction from the prediction essential information delivery module 220 . For example, the prediction essential information may be information such as model information, activity amount, blood pressure, blood sugar, and the like.

동작 S202에서 AI 모델 연계 관리부(300)의 정보 검색 모듈(320)은 모델 정보를 검색한다. In operation S202, the information search module 320 of the AI model linkage management unit 300 searches for model information.

동작 S203에서 AI 모델 연계 관리부(300)의 입력처리 모듈(330)은 예측 정보를 입력 처리한다. In operation S203, the input processing module 330 of the AI model linkage management unit 300 inputs and processes prediction information.

동작 S204에서 AI 모델 연계 관리부(300)의 전송 처리 모듈(310)은 예측 정보 전송 처리를 수행한다.In operation S204, the transmission processing module 310 of the AI model linkage management unit 300 performs prediction information transmission processing.

동작 S205에서 AI 모델 연계 관리부(300)의 분기 처리 모듈(350)은 모델 분기 처리를 수행한다. In operation S205, the branch processing module 350 of the AI model linkage management unit 300 performs model branch processing.

동작 S206에서 AI 모델 연계 관리부(300)의 결과 수신 처리 모듈(360)은 예측 결과를 수신 처리한다. 예를 들어, 건강 나이 예측에 관련하여 예측 모델을 통해 얻어진 예측 결과는 "당신의 건강나이는 35세 입니다." 라는 결과 데이터 일 수 있다. In operation S206, the result reception processing module 360 of the AI model linkage management unit 300 receives and processes the prediction result. For example, in relation to predicting healthy age, the prediction result obtained through the predictive model is "Your healthy age is 35." may be the result data.

동작 S207에서 AI 모델 연계 관리부(300)의 결과 전달 처리 모듈(370)은 예측 결과를 전달 처리한다. In operation S207, the result transfer processing module 370 of the AI model linkage management unit 300 transfers the prediction result.

여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 예를 들어, 사안이 다른 경우에 본 발명의 기술적 사상을 벗어남이 없이, 모듈 배포부의 세부적 동작이나 오픈 API 연계부의 세부적 동작이 변경 또는 가감될 수 있다.Although specific terms have been used herein, they are only used for the purpose of describing the present invention and are not used to limit the meaning or the scope of the present invention described in the claims. Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. For example, if the matter is different, the detailed operation of the module distribution unit or the detailed operation of the open API linkage unit may be changed or added or subtracted without departing from the technical spirit of the present invention.

100: 모듈 배포부
200: 정보 수신 및 전송부
300: AI 모델 연계 관리부
400: AI 모델 연계부
500: AI 모델 허브
100: module distribution unit
200: information receiving and transmitting unit
300: AI model linkage management unit
400: AI model linkage
500: AI Model Hub

Claims (6)

예측모델과 연계모듈을 수신하고, 상기 수신된 예측모델과 연계모듈을 스토리지에 저장한 후, 상기 저장된 예측모델과 연계 모듈을 AI 모델 허브 및 AI 모델 연계부로 각기 배포하는 배포 엔진에 로딩하는 모델 연계 모듈 배포부; 및
오픈 에이피아이(API)를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 전송부를 통해 제공하는 오픈 API 연계부를 포함하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템.
Model linkage that receives the prediction model and link module, stores the received prediction model and link module in storage, and loads the stored prediction model and link module to the distribution engine that distributes the stored prediction model and link module to the AI model hub and the AI model link unit, respectively module distribution department; and
Search for model information related to essential prediction information received through Open API (API) through the AI model linkage management unit, generate relevant parameters for input processing of the essential prediction information, and transmit the essential prediction information Linking the related parameters and the model information with a corresponding model link module of the AI model hub, executing the prediction of the model information through the linked model link module, and providing the completed prediction result information through the transmission unit A.I model linkage service system using Open API including an open API linkage.
제1항에 있어서, 상기 모델 연계 모듈 배포부는 상기 예측모델과 연계모듈을 AI 모델 개발 업체로부터 수신하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템.The system of claim 1 , wherein the model link module distribution unit receives the prediction model and link module from an AI model development company. 제1항에 있어서, 상기 결과 전송부는 상기 실행 완료된 예측결과 정보를 오픈 에이피아이를 통해 AI 서비스 사로 제공하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템.The system of claim 1, wherein the result transmitting unit provides the information on the prediction result that has been executed to an AI service company through the open AI service system. 제1항에 있어서, 상기 저장된 연계 모듈을 AI 모델 허브로 배포하는 배포 엔진은 JVM 엔진인 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템.According to claim 1, wherein the distribution engine for distributing the stored linkage module to the AI model hub is a JVM engine, AI model linkage service system using Open API. 제1항에 있어서, 상기 예측필수 정보의 전송 시 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키기 위해 상기 오픈 API 연계부는 모델 분기 처리를 더 실행하는 오픈 에이피아이를 이용한 에이아이 모델 연계 서비스 시스템.The open API of claim 1, wherein the open API linker further executes model branching to link the related parameters and the model information with a corresponding model link module of the AI model hub when the prediction essential information is transmitted. AI model linkage service system using 오픈 에이피아이(API)를 이용한 에이아이 모델 연계 서비스 방법에 있어서:
예측모델과 연계모듈을 수신하고, 상기 수신된 예측모델과 연계모듈을 스토리지에 저장하고, 상기 저장된 예측모델과 연계 모듈을 AI 모델 허브 및 AI 모델 연계부로 각기 배포하는 배포 엔진에 로딩하는 모델 연계 모듈 배포 단계; 및
상기 오픈 API를 통해 수신된 예측필수 정보에 관련된 모델 정보를 AI 모델 연계관리부를 통해 검색하고, 상기 예측필수 정보의 입력 처리를 위한 관련 파라메터들을 생성하고, 상기 예측필수 정보의 전송을 위해 상기 관련 파라메터들과 상기 모델 정보를 AI 모델 허브의 대응되는 모델연계 모듈과 연계시키고, 상기 연계된 모델연계 모듈을 통해 상기 모델 정보의 예측을 실행하고, 실행 완료된 예측결과 정보를 전송부를 통해 제공하는 오픈 API 연계 단계를 포함하는 시스템.
In the AI model link service method using Open AI (API):
A model linkage module for receiving a prediction model and a linkage module, storing the received prediction model and linkage module in storage, and loading the stored prediction model and linkage module into a distribution engine that distributes the stored predictive model and linkage module to an AI model hub and an AI model linker, respectively deployment phase; and
The model information related to the essential prediction information received through the open API is retrieved through the AI model linkage management unit, the related parameters are generated for input processing of the essential prediction information, and the related parameters are transmitted for the transmission of the essential prediction information. Linking the model information and the model information with the corresponding model linkage module of the AI model hub, executing the prediction of the model information through the linked model linkage module, and providing the executed prediction result information through the transmission unit Open API linkage A system comprising steps.
KR1020200187460A 2020-12-30 2020-12-30 AI model connection service system using open API and service method thereof KR102550574B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200187460A KR102550574B1 (en) 2020-12-30 2020-12-30 AI model connection service system using open API and service method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200187460A KR102550574B1 (en) 2020-12-30 2020-12-30 AI model connection service system using open API and service method thereof

Publications (2)

Publication Number Publication Date
KR20220095694A true KR20220095694A (en) 2022-07-07
KR102550574B1 KR102550574B1 (en) 2023-07-03

Family

ID=82397757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200187460A KR102550574B1 (en) 2020-12-30 2020-12-30 AI model connection service system using open API and service method thereof

Country Status (1)

Country Link
KR (1) KR102550574B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110070724A (en) * 2009-12-18 2011-06-24 한국전자통신연구원 Apparatus and method for search open api and generation mashup block skeleton code
KR101414795B1 (en) * 2013-12-13 2014-07-03 (주)인스웨이브시스템즈 Instant Web App composing device and method
KR20200094834A (en) * 2019-01-22 2020-08-10 (주)티비스톰 Platform for gathering information for ai entities and method by using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110070724A (en) * 2009-12-18 2011-06-24 한국전자통신연구원 Apparatus and method for search open api and generation mashup block skeleton code
KR101414795B1 (en) * 2013-12-13 2014-07-03 (주)인스웨이브시스템즈 Instant Web App composing device and method
KR20200094834A (en) * 2019-01-22 2020-08-10 (주)티비스톰 Platform for gathering information for ai entities and method by using the same

Also Published As

Publication number Publication date
KR102550574B1 (en) 2023-07-03

Similar Documents

Publication Publication Date Title
KR102024533B1 (en) Methods for operating software-defined radio application
EP1423959B1 (en) System and method for peer-to-peer handset communication
CN109062617B (en) Application method of platform supporting multiple types of equipment and mobile terminal
US20030066064A1 (en) System and method for field diagnosis of wireless communications device system software
CN107741851B (en) Compiling method and device of compiling system and terminal equipment
KR101796794B1 (en) Apparatus for software-defined raido terminal and methods for distributing and installing raido applications
CN102023867B (en) A kind of terminal secondary development device and secondary developing platform construction method
CN109766099A (en) Front end source code Compilation Method, device, storage medium and computer equipment
CN104488349A (en) Techniques to manage connection capabilities information in a wireless communications system
CN108958730A (en) Application component sharing method and device, terminal device and readable storage medium storing program for executing
KR20160022778A (en) Method and terminal device for running radio applications
KR101945941B1 (en) Method and terminal device for running radio applications
CN109213533A (en) A kind of advertisement SDK dynamic loading method, device and terminal
KR102550574B1 (en) AI model connection service system using open API and service method thereof
CN105260200A (en) Processing method and device for upgrading operating system
US11422823B2 (en) Starting method for multi-mode IoT device, multi-mode IoT device, and storage medium
US11895497B2 (en) Wireless gateway with multiple processors managed by trusted processor
CN109460280B (en) Method and terminal for running program
KR101836509B1 (en) Apparatus for software-defined radio terminal and methods for distributing and installing radio applications
CN116418791A (en) Firmware upgrading method, firmware upgrading system, server and storage medium
CN113791870B (en) WebAssemble virtual machine distributed system fine granularity migration method and system
CN106100861A (en) The control method of a kind of data download and terminal
CN112559199A (en) Device and method for controlling android Bluetooth in glibc environment and terminal equipment
CN113805927A (en) Code updating method and device, electronic equipment and computer storage medium
CN111190866A (en) Application document display method, device, equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant