KR20190094087A - User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon - Google Patents

User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon Download PDF

Info

Publication number
KR20190094087A
KR20190094087A KR1020180145014A KR20180145014A KR20190094087A KR 20190094087 A KR20190094087 A KR 20190094087A KR 1020180145014 A KR1020180145014 A KR 1020180145014A KR 20180145014 A KR20180145014 A KR 20180145014A KR 20190094087 A KR20190094087 A KR 20190094087A
Authority
KR
South Korea
Prior art keywords
user
learning model
present disclosure
interactive
module
Prior art date
Application number
KR1020180145014A
Other languages
Korean (ko)
Inventor
설재호
장세영
Original Assignee
주식회사 머니브레인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 머니브레인 filed Critical 주식회사 머니브레인
Priority to KR1020180145014A priority Critical patent/KR20190094087A/en
Publication of KR20190094087A publication Critical patent/KR20190094087A/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Provided is a user terminal. According to the present invention, the user terminal comprises: a user input module configured to receive a natural language input from a user; and an interactive AI agent module configured to provide an interactive AI agent service based on the natural language input, wherein the interactive AI agent service is provided using an adaptive learning model constructed according to a machine learning method. The adaptive learning model is configured to include a user customized learning model consistently learned and updated based on user-related characteristics data obtained from interaction with the interactive AI agent module by the user. The user customized learning model is stored in the user terminal. The learning and update of the user customized learning model are performed in the user terminal.

Description

머신러닝 기반의 대화형 AI 에이전트 시스템과 연관된, 사용자 맞춤형 학습 모델을 포함하는 사용자 단말 및 사용자 맞춤형 학습 모델이 기록된 컴퓨터 판독가능 기록 매체{USER TERMINAL INCLUDING A USER CUSTOMIZED LEARNING MODEL ASSOCIATED WITH INTERACTIVE AI AGENT SYSTEM BASED ON MACHINE LEARNING, AND COMPUTER READABLE RECORDING MEDIUM HAVING THE CUSTOMIZED LEARNING MODEL THEREON}USER TERMINAL INCLUDING A USER CUSTOMIZED LEARNING MODEL ASSOCIATED WITH INTERACTIVE AI AGENT SYSTEM BASED ON MACHINE LEARNING, AND COMPUTER READABLE RECORDING MEDIUM HAVING THE CUSTOMIZED LEARNING MODEL THEREON}

본 개시는, 머신러닝 기반의 대화형 AI 에이전트 시스템과 연관된 사용자 맞춤형 학습 모델을 포함하는 사용자 단말에 관한 것이며, 보다 구체적으로는 대화형 AI 에이전트 시스템과의 인터랙션에 의해 발생하는 사용자 특징적 데이터에 기초하여 사용자 일 개인에게 최적화된 학습 및 갱신이 이루어지는 사용자 맞춤형 학습 모델을 포함하는 사용자 단말에 관한 것이다.The present disclosure relates to a user terminal that includes a user-tailored learning model associated with a machine learning based interactive AI agent system, and more particularly based on user characteristic data generated by interaction with the interactive AI agent system. The present invention relates to a user terminal including a user-tailored learning model for learning and updating optimized for each user.

근래, 인공지능 분야, 특히 자연어 이해 분야의 기술 발전에 따라, 전통적인 기계 중심의 명령 입출력 방식에 따른 기계 조작에서 벗어나, 사용자로 하여금, 보다 사람 친화적인 방식, 예컨대 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화 방식으로 기계를 조작하고 기계로부터 원하는 서비스를 얻을 수 있도록 하는 대화형 AI 에이전트 시스템의 개발 및 활용이 점차 늘어나고 있다. 그에 따라, 온라인 상담 센터나 온라인 쇼핑몰 등을 비롯한 (그러나 이에 한정되지 않은 더 많은) 다양한 분야에서, 사용자는, 음성 및/또는 텍스트 형태의 자연어 대화를 제공하는 대화형 AI 에이전트 시스템을 통하여 원하는 서비스를 제공받을 수 있게 되었다.In recent years, with advances in the field of artificial intelligence, in particular in the field of understanding natural language, the user has moved away from the operation of the traditional machine-oriented command input / output schemes, thereby allowing users to use natural language in a more human-friendly manner, such as speech and / or text. Increasingly, the development and use of interactive AI agent systems, which enable the operator to operate the machine in a mediated manner and obtain the desired services from the machine, are increasingly being used. Accordingly, in a variety of fields, including but not limited to online counseling centers, online shopping malls, and the like, the user can obtain desired services through an interactive AI agent system that provides natural language conversations in the form of voice and / or text. You can be provided.

최근에는, 고정 시나리오 기반의 간단한 문답 형태의 대화 서비스만을 제공하던 종래의 대화형 AI 에이전트 시스템을 넘어서서, 자유 발화 형태의 음성 입력을 기초로 보다 복잡한 도메인의 서비스를 제공하는 대화형 AI 에이전트 시스템에 대한 요구가 늘어나고 있다. 자유 발화 형태의 음성 입력에 기초하여 복잡한 도메인의 서비스를 제공하기 위해서, 대화형 AI 에이전트 시스템은 대화 이해 및 관리를 위한 지식베이스 모델들을 구축하고 이들을 지속적으로 갱신할 필요가 있다.Recently, beyond the conventional interactive AI agent system which provided only simple question-and-answer dialogue service based on fixed scenarios, the interactive AI agent system that provides more complex domain service based on free speech type voice input is provided. The demand is increasing. In order to provide complex domain services based on free speech input, the interactive AI agent system needs to build knowledge base models for conversation understanding and management and update them continuously.

특허문헌 1: 한국 특허출원 공개 제10-2011-0072847호Patent Document 1: Korean Patent Application Publication No. 10-2011-0072847

대화형 AI 에이전트 시스템의 성능 향상을 위해서는, 지속적으로 지식베이스 모델들의 갱신이 이루어질 필요가 있다. 특히, 각 개인별 대화 양태 및 인텐트가 다양할 수 있다는 점을 고려할 때, 지식베이스 모델들의 사용자 적응적 갱신 및 관리(즉, 각 개별 사용자의 특징을 고려한 지식베이스 모델들의 맞춤형 갱신 및 관리)가, 대화형 AI 에이전트 시스템의 성능 향상을 위하여 필요할 수 있다.In order to improve the performance of the interactive AI agent system, it is necessary to continuously update the knowledge base models. In particular, given that individual conversational aspects and intents may vary, user adaptive update and management of knowledge base models (ie, customized update and management of knowledge base models that take into account the characteristics of each individual user), This may be necessary to improve the performance of the interactive AI agent system.

한편, 근래에는 머신러닝 방식에 기초하여, 학습에 따른 지식베이스 모델을 구축 및 갱신하려는 시도가 늘어나고 있다. 그런데, 지금까지는, 이러한 학습에 따른 대화형 AI 에이전트 시스템의 지식베이스 모델들의 구축, 갱신 및 관리가 모두 서버단에서 전체 사용자를 위하여 일괄해서 수행되었기 때문에, 그러한 갱신 및 관리 등이 사용자별로 민감하고 신속하고 적응적으로 이루어지지 않은 문제가 있다. In recent years, attempts to build and update knowledge base models based on machine learning have been increasing. However, until now, since the construction, updating and management of the knowledge base models of the interactive AI agent system according to this learning were all performed on the server side for all users, such updating and management is sensitive and quick for each user. There is a problem that is not adaptive.

따라서, 대화형 AI 에이전트 시스템과의 인터랙션을 통해 수집되는 각 개별 사용자의 특징적 데이터를 이용하여, 각 사용자별로 적응적으로, 해당 대화형 AI 에이전트 시스템을 위한 적응형 학습 모델들의 갱신 및 관리를 제공할 필요가 있다.Therefore, by using the characteristic data of each individual user collected through interaction with the interactive AI agent system, it is possible to provide the update and management of adaptive learning models for the corresponding interactive AI agent system adaptively for each user. There is a need.

본 개시의 일 특징에 의하면, 사용자 단말이 제공된다. 본 개시의 사용자 단말은, 사용자로부터 자연어 입력을 수신하도록 구성된 사용자 입력 모듈; 및 자연어 입력에 기초한 대화형 AI 에이전트 서비스를 제공하도록 구성된 대화형 AI 에이전트 모듈- 대화형 AI 에이전트 서비스는, 머신러닝 방식에 따라 구축된 적응형 학습 모델을 이용하여 제공됨 -을 포함하고, 적응형 학습 모델은, 사용자에 의한 대화형 AI 에이전트 모듈과의 인터랙션으로부터 획득되는 사용자에 관한 특징적 데이터에 기초하여 지속적으로 학습 및 갱신되는 사용자 맞춤형 학습 모델을 포함하도록 구성되고, 사용자 맞춤형 학습 모델은 사용자 단말 상에 저장되고, 사용자 맞춤형 학습 모델의 학습 및 갱신은 사용자 단말 상에서 수행된다.According to one feature of the present disclosure, a user terminal is provided. A user terminal of the present disclosure includes a user input module configured to receive natural language input from a user; And an interactive AI agent module configured to provide an interactive AI agent service based on natural language input, wherein the interactive AI agent service is provided using an adaptive learning model built according to a machine learning method. The model is configured to include a customized learning model that is continuously learned and updated based on characteristic data about the user obtained from the interaction with the interactive AI agent module by the user, wherein the customized learning model is on the user terminal. Saved, the training and updating of the customized learning model is performed on the user terminal.

본 개시의 일 실시예에 의하면, 적응형 학습 모델은, 머신러닝 방식에 따라, 미리 준비된 데이터에 의해 미리 학습된 범용 학습 모델을 더 포함하고, 사용자 단말은 범용 학습 모델의 적어도 일부를 포함할 수 있다.According to an embodiment of the present disclosure, the adaptive learning model may further include a general learning model pre-trained by the data prepared in advance according to a machine learning method, and the user terminal may include at least a part of the general learning model. have.

본 개시의 일 실시예에 의하면, 사용자 단말은 소정의 통신 프로토콜에 따라 외부의 서버와 통신할 수 있고, 범용 학습 모델의 적어도 일부는 서버 상에 포함될 수 있다.According to an embodiment of the present disclosure, the user terminal may communicate with an external server according to a predetermined communication protocol, and at least part of the general-purpose learning model may be included on the server.

본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델의 학습 및 갱신은, 사용자 단말 상에서, 사용자에 의한 대화형 AI 에이전트 모듈과의 인터랙션에 따라 실시간으로 수행될 수 있다.According to one embodiment of the present disclosure, training and updating of the customized learning model may be performed in real time according to an interaction with the interactive AI agent module by the user on the user terminal.

본 개시의 일 실시예에 의하면, 사용자에 의한 대화형 AI 에이전트 모듈과의 인터랙션으로부터 획득되는 사용자에 관한 특징적 데이터는, 사용자의 발화 기록, 사용자의 발화에 관한 인식/처리 실패의 발생 여부, 인식/처리 실패 발생시 원인 및/또는 해결책, 사용자의 발화 기록에 따른 대화형 AI 에이전트 모듈에 의한 응답 및/또는 태스크 수행 기록 중 적어도 하나를 포함할 수 있다.According to an embodiment of the present disclosure, the characteristic data about the user obtained from the interaction with the interactive AI agent module by the user may include recording of the user's utterance, whether or not a recognition / processing failure has occurred regarding the user's utterance, recognition / At least one of a cause and / or a solution when a processing failure occurs, a response by the interactive AI agent module according to a user's utterance record, and / or a task execution record.

본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 서비스는, 자연어 입력에 대응하는 사용자의 인텐트 결정 및 결정된 인텐트에 대응하는 대화 응답의 제공을 포함할 수 있다. According to an embodiment of the present disclosure, the interactive AI agent service may include determining an intent of a user corresponding to a natural language input and providing a conversation response corresponding to the determined intent.

본 개시의 다른 특징에 의하면, 사용자 맞춤형 학습 모델이 기록된 컴퓨터 판독가능 기록 매체가 제공된다. 본 개시의 컴퓨터 판독가능 기록 매체는 사용자 단말에 포함되고, 사용자 맞춤형 학습 모델은 사용자 단말 상의 대화형 AI 에이전트 모듈에 의해 이용되어 사용자에게 대화형 AI 에이전트 서비스를 제공하는데 이용되며, 사용자 맞춤형 학습 모델은, 사용자에 의한 대화형 AI 에이전트 모듈과의 인터랙션으로부터 획득되는 사용자에 관한 특징적 데이터에 기초하여, 사용자 단말 상에서 지속적으로 학습 및 갱신되도록 구성된다.According to another feature of the present disclosure, a computer readable recording medium having a user-customized learning model recorded thereon is provided. The computer readable recording medium of the present disclosure is included in a user terminal, and the customized learning model is used by the interactive AI agent module on the user terminal to provide an interactive AI agent service to the user. And based on characteristic data about the user obtained from the interaction with the interactive AI agent module by the user, configured to be continuously learned and updated on the user terminal.

본 개시에 의하면, 머신러닝에 기반한 대화형 AI 에이전트 시스템의 적응형 학습 모델을, 사용자 단말단에서, 사용자의 해당 대화형 AI 에이전트 시스템과의 인터랙션에 따른 데이터(예컨대, 사용자 이력 데이터) 등에 의해 거의 실시간으로 학습 및 갱신할 수 있다. 그러므로, 대화형 AI 에이전트 시스템 개발자에 의해 서버단에서 전체 사용자를 위한 지식베이스 모델의 갱신만이 이루어지던 종래의 경우와 달리, 사용자 단말의 통신 가능 여부 또는 개발자 등의 개입 시기 등과 무관하게, 거의 실시간으로, 개별 사용자의 이력 및 특징이 지식베이스 모델 등에 반영될 수 있다.According to the present disclosure, an adaptive learning model of an interactive AI agent system based on machine learning is generated by data (eg, user history data) or the like according to an interaction of a user with the corresponding interactive AI agent system at a user terminal. Learn and update in real time. Therefore, unlike the conventional case where only the update of the knowledge base model for the entire user is performed on the server side by the interactive AI agent system developer, almost real time regardless of whether the user terminal can be communicated or when the developer is involved, etc. As such, the history and characteristics of individual users may be reflected in a knowledge base model and the like.

도 1은, 본 개시의 일 실시예에 따른, 사용자 단말(100)의 구성을 개략적으로 도시한 기능 블록도이다.
도 2는, 본 개시의 일 실시예에 따른, 도 1의 대화형 AI 에이전트 모듈(110)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 3은, 본 개시의 일 실시예에 따른, 도 2의 대화/태스크 처리부(204)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
1 is a functional block diagram schematically showing a configuration of a user terminal 100 according to an embodiment of the present disclosure.
2 is a functional block diagram schematically illustrating the functional configuration of the interactive AI agent module 110 of FIG. 1, in accordance with an embodiment of the present disclosure.
3 is a functional block diagram schematically illustrating a functional configuration of the conversation / task processing unit 204 of FIG. 2, according to an embodiment of the present disclosure.

이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In the following, when it is determined that there is a risk of unnecessarily obscuring the subject matter of the present disclosure, a detailed description of already known functions and configurations will be omitted. In addition, it should be understood that what is described below is only related to an embodiment of the present disclosure, but the present disclosure is not limited thereto.

본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the present disclosure. For example, a component expressed in the singular should be understood as a concept including a plurality of components unless the context clearly indicates the singular. It is to be understood that the term "and / or" as used in this disclosure encompasses all possible combinations by one or more of the listed items. The terms 'comprise' or 'having' as used in the present disclosure are merely intended to designate that there exists a feature, number, step, operation, component, part, or combination thereof described on the present disclosure. It is not intended to exclude the possibility of the presence or the addition of one or more other features or numbers, steps, actions, components, parts or combinations thereof by use.

본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.In the exemplary embodiment of the present disclosure, the module or the unit means a functional part that performs at least one function or operation, and may be implemented in hardware or software or in a combination of hardware and software. Also, a plurality of 'modules' or 'units' may be integrated by at least one software module and implemented by at least one processor, except for 'modules' or 'units', which need to be implemented by specific hardware. have.

본 개시의 실시예에 있어서 '대화형 AI 에이전트 시스템'은, 사용자와의 사이에서 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화형 인터랙션을 통해, 사용자로부터 입력되는 자연어 입력(예컨대, 자연어로 된 사용자로부터의 명령, 진술, 요청, 질문 등)을 수신 및 해석하여 사용자의 인텐트(intent)를 알아내고 그 알아낸 사용자의 인텐트에 기초하여 필요한 동작 수행, 즉 적절한 대화 응답의 제공 및/또는 태스크의 수행을 제공할 수 있는 임의의 정보 처리 시스템을 지칭할 수 있으며, 특정 형태로 제한되는 것은 아니다. 본 개시의 실시예에 있어서, '대화형 AI 에이전트 시스템'에 의해 수행되는 동작은, 예컨대 사용자의 인텐트에 따라 각각 이루어지는 대화 응답 및/또는 태스크 수행일 수 있다. In an embodiment of the present disclosure, the interactive AI agent system may be a natural language input (eg, a natural language) input from a user through an interactive interaction with a user through a natural language in the form of voice and / or text. Receive and interpret commands, statements, requests, questions, etc.) from a user who has been determined to determine the user's intent and perform the necessary actions based on that user's intent, i.e. provide appropriate conversational response and / or Or any information processing system capable of providing performance of a task, without being limited to a particular form. In an embodiment of the present disclosure, the operation performed by the 'interactive AI agent system' may be, for example, a conversation response and / or a task execution respectively performed according to the intent of the user.

본 개시의 실시예에 있어서, '대화형 AI 에이전트 시스템'에 의해 제공되는 대화 응답은 시각, 청각 및/또는 촉각 형태(예컨대, 음성, 음향, 텍스트, 비디오, 이미지, 기호, 이모티콘, 하이퍼링크, 애니메이션, 각종 노티스, 모션, 햅틱 피드백 등을 포함할 수 있으며, 이로써 제한되는 것은 아님) 등 다양한 형태로써 제공될 수 있음을 알아야 한다. 본 개시의 실시예에 있어서 '대화형 AI 에이전트 시스템'에 의해 수행되는 태스크는, 예컨대 정보의 검색, 결재 진행, 메시지 작성, 이메일 작성, 전화 걸기, 음악 재생, 사진 촬영, 사용자 위치 탐색, 지도/내비게이션 서비스 등을 비롯한 각종 다양한 형태의 태스크(다만, 예시일 뿐이며 이로써 제한되는 것은 아님)를 포함할 수 있다.In an embodiment of the present disclosure, the dialogue response provided by the 'interactive AI agent system' may be in visual, auditory and / or tactile form (eg, voice, sound, text, video, image, symbol, emoticon, hyperlink, It may be included in various forms such as, but not limited to, animation, various knots, motion, haptic feedback, and the like. Tasks performed by the interactive AI agent system in embodiments of the present disclosure may, for example, retrieve information, proceed with payment, create a message, create an email, make a phone call, play music, take a picture, search for a user's location, map / Various types of tasks (including, but not limited to, navigation services) may be included.

본 개시의 실시예에 있어서 '대화형 AI 에이전트 시스템'은, 메신저 플랫폼에 기초한 챗봇(chatbot) 시스템, 예컨대 메신저 상에서 사용자와 메시지를 주고받으며 사용자가 원하는 다양한 정보를 제공하거나 태스크를 수행하는 챗봇 시스템을 포함할 수 있으며, 다만 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.In an embodiment of the present disclosure, an interactive AI agent system is a chatbot system based on a messenger platform, for example, a chatbot system that exchanges messages with a user on a messenger and provides various information desired by the user or performs a task. It is to be understood that the present disclosure is not limited thereto.

덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 개시에서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.In addition, all terms used in this disclosure, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs. It is to be understood that the terms used in the dictionary, which are generally used, should be interpreted as having a meaning consistent with the contextual meaning of the related art, and shall not be construed as being excessively limited or extended unless clearly defined otherwise in this disclosure. .

이하, 첨부된 도면을 참조하여, 본 개시의 실시예에 대해 구체적으로 설명하기로 한다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은, 본 개시의 일 실시예에 따른, 사용자 단말(100)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 사용자 단말(100)은, 사용자 입력 수신 모듈(102), 센서 모듈(104), 프로그램 메모리 모듈(106), 프로세싱 모듈(108), 대화형 AI 에이전트 모듈(110), 통신 모듈(112), 및 응답 출력 모듈(114)를 포함한다.1 is a functional block diagram schematically showing a functional configuration of a user terminal 100 according to an embodiment of the present disclosure. As shown, the user terminal 100 includes a user input receiving module 102, a sensor module 104, a program memory module 106, a processing module 108, an interactive AI agent module 110, a communication module. 112, and a response output module 114.

본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(102)은, 사용자로부터 다양한 형태의 입력, 예컨대 음성 입력 및/또는 텍스트 입력 등의 자연어 입력(및 부가적으로 터치 입력 등의 다른 형태의 입력)을 수신할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(102)은, 예컨대 마이크로폰 및 오디오 회로를 포함하며, 마이크로폰을 통해 사용자 음성 입력 신호를 획득하고 획득된 신호를 오디오 데이터로 변환할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(102)은, 예컨대 마우스, 조이스틱, 트랙볼 등의 각종 포인팅 장치, 키보드, 터치패널, 터치스크린, 스타일러스 등 다양한 형태의 입력 장치를 포함할 수 있고, 이들 입력 장치를 통해 사용자로부터 입력된 텍스트 입력 및/또는 터치 입력 신호를 획득할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(102)에서 수신되는 사용자 입력은, 소정의 태스크 수행, 예컨대 소정의 애플리케이션 실행이나 소정 정보의 검색 등과 연관될 수 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 입력 수신 모듈(102)에서 수신되는 사용자 입력은, 소정의 애플리케이션 실행이나 정보의 검색 등과는 무관하게 단순한 대화 응답 만을 필요로 하는 것일 수도 있다.According to an embodiment of the present disclosure, the user input receiving module 102 may input various types of inputs from a user, for example, natural language inputs such as voice inputs and / or text inputs (and additionally other types of inputs such as touch inputs). ) Can be received. According to an embodiment of the present disclosure, the user input receiving module 102 may include, for example, a microphone and an audio circuit, and may acquire a user voice input signal through the microphone and convert the obtained signal into audio data. According to an embodiment of the present disclosure, the user input receiving module 102 may include various pointing devices such as a mouse, a joystick, a trackball, a keyboard, a touch panel, a touch screen, a stylus, and the like. The user may acquire text input and / or touch input signals input from the user through these input devices. According to one embodiment of the present disclosure, the user input received at the user input receiving module 102 may be associated with performing a predetermined task, for example, executing a predetermined application or retrieving predetermined information, but the present disclosure is limited thereto. It is not. According to another embodiment of the present disclosure, the user input received by the user input receiving module 102 may require only a simple conversation response regardless of a predetermined application execution or information retrieval.

본 개시의 일 실시예에 의하면, 센서 모듈(104)은 하나 이상의 서로 다른 유형의 센서를 포함하고, 이들 센서를 통해 사용자 단말(100)의 상태 정보, 예컨대 해당 사용자 단말(100)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 또는 사용자 단말(100)의 주위 환경 상태에 관한 정보 등을 획득할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(104)은, 예컨대 광 센서를 포함하고, 광 센서를 통해 해당 사용자 단말(100)의 주변 광 상태를 감지할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(104)은, 예컨대 이동 센서를 포함하고, 이동 센서를 통해 해당 사용자 단말(100)의 이동 상태 여부를 감지할 수 있다. 본 개시의 일 실시예에 의하면, 센서 모듈(104)은, 예컨대 속도 센서 및 GPS 센서를 포함하고, 이들 센서를 통해 해당 사용자 단말(100)의 위치 및/또는 배향 상태를 감지할 수 있다. 본 개시의 다른 실시예에 의하면, 센서 모듈(104)은 온도 센서, 이미지 센서, 압력 센서, 접촉 센서 등을 비롯한 다른 다양한 형태의 센서를 포함할 수 있음을 알아야 한다.According to one embodiment of the present disclosure, the sensor module 104 includes one or more different types of sensors, through which the status information of the user terminal 100, for example, the physical state of the corresponding user terminal 100, The software and / or hardware state or information about the environment state of the user terminal 100 may be obtained. According to an embodiment of the present disclosure, the sensor module 104 may include, for example, an optical sensor, and detect an ambient light state of the corresponding user terminal 100 through the optical sensor. According to an embodiment of the present disclosure, the sensor module 104 may include, for example, a movement sensor, and detect whether the corresponding user terminal 100 is moved through the movement sensor. According to an embodiment of the present disclosure, the sensor module 104 may include, for example, a speed sensor and a GPS sensor, and may detect a position and / or orientation state of the corresponding user terminal 100 through these sensors. According to another embodiment of the present disclosure, it should be appreciated that the sensor module 104 may include other various types of sensors, including temperature sensors, image sensors, pressure sensors, contact sensors, and the like.

본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(106)은, 사용자 단말(100) 상에서 실행될 수 있는 각종 프로그램, 예컨대 각종 애플리케이션 프로그램 및 관련 데이터 등이 저장된 임의의 저장 매체일 수 있다. 본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(106)에는, 예컨대 전화 걸기 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 카메라 애플리케이션, 음악 재생 애플리케이션, 비디오 재생 애플리케이션, 이미지 관리 애플리케이션, 지도 애플리케이션, 브라우저 애플리케이션 등을 비롯한 다양한 애플리케이션 프로그램들과 이들 프로그램의 실행과 관련된 데이터들이 저장될 수 있다. 본 개시의 일 실시예에 의하면, 프로그램 메모리 모듈(106)은, DRAM, SRAM, DDR RAM, ROM, 자기 디스크, 광 디스크, 플래시 메모리 등 다양한 형태의 휘발성 또는 비휘발성 메모리를 포함하도록 구성될 수 있다.According to an embodiment of the present disclosure, the program memory module 106 may be any storage medium in which various programs that can be executed on the user terminal 100, for example, various application programs and related data, are stored. According to one embodiment of the present disclosure, the program memory module 106 includes, for example, a dialing application, an email application, an instant messaging application, a camera application, a music playback application, a video playback application, an image management application, a map application, a browser application, and the like. Various application programs, including, and data associated with the execution of these programs can be stored. According to an embodiment of the present disclosure, the program memory module 106 may be configured to include various types of volatile or nonvolatile memory such as DRAM, SRAM, DDR RAM, ROM, magnetic disk, optical disk, flash memory, and the like. .

본 개시의 일 실시예에 의하면, 프로세싱 모듈(108)은, 사용자 단말(100)의 각 컴포넌트 모듈과 통신하고 사용자 단말(100) 상에서 각종 연산을 수행할 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(108)은, 프로그램 메모리 모듈(106) 상의 각종 애플리케이션 프로그램을 구동 및 실행시킬 수 있다. 본 개시의 일 실시예에 의하면, 프로세싱 모듈(108)은, 필요한 경우, 사용자 입력 수신 모듈(102) 및 센서 모듈(104)에서 획득된 신호를 수신하고, 이들 신호에 관한 적절한 처리를 수행할 수 있다.According to one embodiment of the present disclosure, the processing module 108 may communicate with each component module of the user terminal 100 and perform various operations on the user terminal 100. According to one embodiment of the present disclosure, the processing module 108 may drive and execute various application programs on the program memory module 106. According to one embodiment of the present disclosure, the processing module 108 may receive signals obtained from the user input receiving module 102 and the sensor module 104 and perform appropriate processing on these signals, if necessary. have.

본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 모듈(110)은, 사용자 입력 수신 모듈(102)을 통하여 수신된 음성, 텍스트 및/또는 터치 형태의 사용자 입력을 수신하고, 머신러닝 방식에 따라 구축된 소정의 적응형 학습 모델에 기초해서 그 수신된 사용자 입력을 처리하여 사용자의 인텐트(intent)를 결정할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 모듈(110)은, 또한 소정의 적응형 학습 모델에 기초하여 사용자 인텐트에 부합하는 특정한 대화 응답을 생성하고 후술하는 응답 출력 모듈(114)을 통해 출력할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 모듈(110)은, 또한, 위 결정된 사용자 인텐트에 대응하는 소정의 태스크가 사용자 단말(100) 상에서 수행되도록 할 수 있다.According to an embodiment of the present disclosure, the interactive AI agent module 110 receives a user input in the form of voice, text, and / or touch received through the user input receiving module 102 and according to a machine learning scheme. The received user input may be processed based on the established adaptive learning model to determine the user's intent. According to one embodiment of the present disclosure, the interactive AI agent module 110 also generates a specific conversation response corresponding to the user intent based on a predetermined adaptive learning model and generates a response output module 114 described below. Can be output via According to an embodiment of the present disclosure, the interactive AI agent module 110 may also allow a predetermined task corresponding to the determined user intent to be performed on the user terminal 100.

본 개시의 일 실시예에 의하면, 전술한 소정의 적응형 학습 모델은, 개별 사용자에게 특정적이지 않은, 즉 범용의 학습 모델 부분과, 각 개별 사용자별로 특정적인 사용자 맞춤형 학습 모델 부분을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 모듈(110)은, 사용자 맞춤형 학습 모델과 범용 학습 모델 부분 양자에 기초하여 사용자 입력에 대한 사용자 인텐트를 결정하고 그에 부합하는 대화 응답 또는 태스크 수행을 제공할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델 부분은 사용자 단말(100) 상에 구축되고 사용자 단말(100) 상에서 지속적으로 갱신 및 관리될 수 있다. 본 개시의 일 실시예에 의하면, 범용 학습 모델 부분의 적어도 일부가 미리 학습된 형태로 사용자 단말(100) 상에 포함될 수 있다. 본 개시의 일 실시예에 의하면, 범용 학습 모델 부분의 적어도 일부가, 후술하는 통신 모듈(112)을 통하여 대화형 AI 에이전트 모듈(110)이 액세스할 수 있는, 외부의 서버 상에 구축되어 있을 수 있다. 본 개시의 다른 실시예에 의하면, 범용의 학습 모델 부분 전체가 후술하는 통신 모듈(112)을 통하여 대화형 AI 에이전트 모듈(110)이 액세스할 수 있는, 외부의 서버 상에 구축되어 있을 수 있다.According to an embodiment of the present disclosure, the above-described predetermined adaptive learning model may include a part of a general learning model that is not specific to an individual user, that is, a part of a general learning model and a part of a user-specific learning model specific to each individual user. have. According to one embodiment of the present disclosure, the interactive AI agent module 110 determines a user intent for user input based on both the user-tailored learning model and the general-purpose learning model portion and performs a corresponding conversation response or task accordingly. Can be provided. According to one embodiment of the present disclosure, the customized learning model part may be built on the user terminal 100 and continuously updated and managed on the user terminal 100. According to an embodiment of the present disclosure, at least a part of the general-purpose learning model part may be included on the user terminal 100 in a pre-learned form. According to one embodiment of the present disclosure, at least a portion of the universal learning model portion may be built on an external server, accessible by the interactive AI agent module 110 via the communication module 112 described below. have. According to another embodiment of the present disclosure, the entire general learning model portion may be built on an external server that can be accessed by the interactive AI agent module 110 via the communication module 112 described below.

본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 모듈(110)에 의해 생성되는 대화 응답은, 전술한 음성 및/또는 텍스트 형태의 자연어 응답과 함께, 이미지, 비디오, 기호, 이모티콘 등 다른 시각적 요소들이나, 음향 등의 다른 청각적 요소들이나, 기타 다른 촉각적 요소들을 포함할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 입력 수신 모듈(102)을 통해 수신된 사용자 입력의 형태(예컨대, 음성 입력인지 아니면 텍스트 입력인지)에 따라, 대화형 AI 에이전트 모듈(110) 상에서 동일한 형태의 응답이 생성될 수 있으며(예컨대, 음성 입력이 주어진 경우에는 음성 응답이 생성되고 텍스트 입력이 주어진 경우에는 텍스트 응답이 생성됨), 다만 본 발명이 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 입력의 형태와 무관하게 음성 및/또는 텍스트 형태의 응답이 생성 및 제공될 수 있음을 알아야 한다.According to one embodiment of the present disclosure, the dialogue response generated by the interactive AI agent module 110, along with the above-described natural language responses in the form of voice and / or text, other visual elements such as images, videos, symbols, emoticons, etc. Or other acoustic elements such as sound, sound, or other tactile elements. According to one embodiment of the present disclosure, depending on the type of user input received through the user input receiving module 102 (eg, whether it is a voice input or a text input), the same type on the interactive AI agent module 110 is provided. A response can be generated (eg, a voice response is generated if a voice input is given and a text response is generated if a text input is given), but the invention is not so limited. In accordance with another embodiment of the present disclosure, it should be appreciated that responses in the form of voice and / or text may be generated and provided regardless of the form of user input.

본 개시의 일 실시예에 의하면, 대화형 AI 에이전트 모듈(110)은, 후술하는 통신 모듈(112)을 통해서, 소정의 외부 서비스 서버(도시되지 않음)와 통신할 수 있다. 외부 서비스 서버는, 예컨대 대화형 AI 에이전트 서비스를 제공하는 서버, 온라인 상담 센터 서버, 금융 서비스 서버, 법률 서비스 서버, 의료 서비스 서버, 온라인 쇼핑몰 서버, 정보 검색 서버, 지도 서비스 서버, 네비게이션 서비스 서버 등일 수 있으며, 본 개시가 이로써 제한되는 것은 아니다.According to an embodiment of the present disclosure, the interactive AI agent module 110 may communicate with a predetermined external service server (not shown) through the communication module 112 described later. The external service server may be, for example, a server providing an interactive AI agent service, an online consultation center server, a financial service server, a legal service server, a medical service server, an online shopping mall server, an information retrieval server, a map service server, a navigation service server, and the like. However, the present disclosure is not limited thereto.

본 개시의 일 실시예에 의하면, 통신 모듈(112)은, 사용자 단말(100)이 소정의 외부 서비스 서버(도시되지 않음)와 통신할 수 있게 한다. 본 개시의 일 실시예에 의하면, 통신 모듈(112)은, 예컨대 사용자 입력 수신 모듈(102) 및 센서 모듈(104) 상에서 획득된 신호가 소정의 프로토콜에 따라 외부 서비스 서버로 전송되도록 하거나, 외부 서비스 서버로부터 수신된 각종 신호, 예컨대 음성 및/또는 텍스트 형태의 자연어 응답을 포함한 응답 신호 또는 각종 제어 신호 등을 수신하고 수신된 신호에 대해 소정의 프로토콜에 따라 적절한 처리를 수행할 수 있다.According to one embodiment of the present disclosure, the communication module 112 enables the user terminal 100 to communicate with a predetermined external service server (not shown). According to an embodiment of the present disclosure, the communication module 112 may allow, for example, signals obtained on the user input receiving module 102 and the sensor module 104 to be transmitted to an external service server according to a predetermined protocol, or to an external service. Various signals received from the server, for example, response signals including natural language responses in the form of voice and / or text, or various control signals, etc. may be received and appropriate processing may be performed on the received signals according to a predetermined protocol.

본 개시의 일 실시예에 의하면, 응답 출력 모듈(114)은, 사용자 입력에 대응하는 응답을 시각, 청각 및/또는 촉각 등 다양한 형태로써 출력할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(114)은, 예컨대 LCD, LED, OLED, QLED 등의 기술에 기초한 터치 스크린 등의 각종 디스플레이 장치를 포함하고, 이들 디스플레이 장치를 통해 사용자 입력에 대응하는 시각적 응답, 예컨대 텍스트, 기호, 비디오, 이미지, 하이퍼링크, 애니메이션, 각종 노티스 등을 사용자에게 제시할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(114)은, 예컨대 스피커 또는 헤드셋을 포함하고, 사용자 입력에 대응하는 청각적 응답, 예컨대 음성 및/또는 음향 응답을 스피커 또는 헤드셋을 통해 사용자에게 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(114)는 모션/햅틱 피드백 생성부를 포함하고, 이를 통해 촉각적 응답, 예컨대 모션/햅틱 피드백을 사용자에게 제공할 수 있다. 본 개시의 일 실시예에 의하면, 응답 출력 모듈(114)은, 사용자 입력에 대응하는 텍스트 응답, 음성 응답 및 모션/햅틱 피드백 중 임의의 두 개 이상의 조합을 동시에 제공할 수 있음을 알아야 한다.According to an embodiment of the present disclosure, the response output module 114 may output a response corresponding to a user input in various forms such as visual, auditory, and / or tactile. According to one embodiment of the present disclosure, the response output module 114 includes various display devices such as a touch screen based on technologies such as LCD, LED, OLED, QLED, etc., and responds to user input through these display devices. Visual responses such as text, symbols, videos, images, hyperlinks, animations, various notes, and the like, to the user. According to one embodiment of the present disclosure, the response output module 114 includes, for example, a speaker or a headset, and provides an audible response, such as a voice and / or acoustic response, to the user via the speaker or the headset, corresponding to the user input. can do. According to an embodiment of the present disclosure, the response output module 114 may include a motion / haptic feedback generator, thereby providing a tactile response, eg, motion / haptic feedback, to a user. According to one embodiment of the present disclosure, it should be appreciated that the response output module 114 may simultaneously provide any two or more combinations of text response, voice response, and motion / haptic feedback corresponding to user input.

본 개시의 일 실시예에 의하면, 사용자 단말(100)은 유선 또는 무선 통신 기능을 구비한 임의의 사용자 전자 장치일 수 있다. 사용자 단말(100)은, 예컨대 스마트 폰, 태블릿 PC, 뮤직 플레이어, 스마트 스피커, 데스크탑, 랩탑, PDA, 게임 콘솔, 디지털 TV, 셋탑박스 등을 포함한 다양한 유선 또는 무선 통신 단말일 수 있으며, 특정 형태로 제한되지 않음을 알아야 한다. According to an embodiment of the present disclosure, the user terminal 100 may be any user electronic device having a wired or wireless communication function. The user terminal 100 may be, for example, various wired or wireless communication terminals including a smart phone, a tablet PC, a music player, a smart speaker, a desktop, a laptop, a PDA, a game console, a digital TV, a set top box, and the like. It should be understood that it is not limited.

도 2는, 본 개시의 일 실시예에 따른, 도 1의 대화형 AI 에이전트 모듈(110)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 대화형 AI 에이전트 모듈(110)은, 사용자 맞춤형 학습 모델(202), 사용자 맞춤형 학습 모델 갱신부(204), 범용 학습 모델(206), 및 대화/태스크 처리부(208)를 포함한다.2 is a functional block diagram schematically illustrating the functional configuration of the interactive AI agent module 110 of FIG. 1, in accordance with an embodiment of the present disclosure. As shown, the interactive AI agent module 110 includes a customized learning model 202, a customized learning model updater 204, a general purpose learning model 206, and a conversation / task processor 208. do.

본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델(202)은, 도 1을 참조하여 전술한 바와 같이, 대화형 AI 에이전트 모듈(110)이 사용자로부터의 입력을 처리하여 사용자 인텐트를 결정하고 그 인텐트에 부합하는 대화 응답 등을 생성 및 제공하는데 이용되는 학습 모델의 일부로서, 개별 사용자(즉, 사용자 단말(100))에 관한 특징적 데이터에 의해 구축 및 갱신되는 학습 모델일 수 있다. 본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델(202)은, 후술하는 사용자 맞춤형 학습 모델 갱신부(204)에 의해 지속적으로 재학습되고 갱신될 수 있다. According to one embodiment of the present disclosure, the user-tailored learning model 202, as described above with reference to Figure 1, the interactive AI agent module 110 processes the input from the user to determine the user intent and As part of the learning model used to generate and provide a conversation response or the like corresponding to the intent, the learning model may be a learning model constructed and updated by characteristic data about an individual user (ie, the user terminal 100). According to one embodiment of the present disclosure, the customized learning model 202 may be continuously re-learned and updated by the customized learning model updating unit 204 which will be described later.

본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델 갱신부(204)는, 사용자 단말(100)을 통해 사용자가 대화형 AI 에이전트 모듈(110)과의 인터랙션을 진행함에 따라 발생하는 데이터, 즉 해당 사용자에 관한 특징적 데이터를 지속적으로 수집할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델 갱신부(204)는, 예컨대 사용자의 발화 기록, 사용자 발화에 관한 인식/처리 실패의 발생 여부, 인식/처리 실패 발생시 원인 및/또는 해결책, 사용자 발화 기록에 따른 대화형 AI 에이전트 모듈(110)에 의한 응답 및/또는 태스크 수행 기록 등(이로써 한정되지 않음)을 사용자에 관한 특징적 데이터로서 수집할 수 있다. 본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델 갱신부(204)는, 지속적으로 수집되는 사용자 특징적 데이터를 이용하여, 사용자 학습 모델(202)을 추가적으로 학습시키고, 그에 따라 사용자 맞춤형 학습 모델(202)을 지속적으로 갱신시킬 수 있다. 본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델 갱신부(204)는, 위 사용자 특징적 데이터의 수집에 따라 거의 실시간으로 사용자 학습 모델(202)을 학습 및 갱신시킬 수 있다. 본 개시의 일 실시예에 의하면, 사용자 맞춤형 학습 모델 갱신부(204)의 사용자 특징적 데이터 수집과 그에 기초한 사용자 맞춤형 학습 모델(202)의 학습 및 갱신은, 사용자 단말(100) 상에서 (외부 서버의 도움 없이) 단독으로 수행될 수 있음을 알아야 한다.According to an embodiment of the present disclosure, the user-tailored learning model update unit 204 may be configured to generate data generated as a user interacts with the interactive AI agent module 110 through the user terminal 100, that is, the corresponding data. Characteristic data about the user can be collected continuously. According to an embodiment of the present disclosure, the user-tailored learning model updating unit 204 may, for example, record a speech of a user, whether a recognition / processing failure occurs with respect to the user speech, a cause and / or a solution when a recognition / processing failure occurs, a user The response by the interactive AI agent module 110 according to the utterance recording and / or the task performance recording, etc. may be collected as characteristic data about the user. According to one embodiment of the present disclosure, the user-tailored learning model updater 204 further learns the user-learning model 202 by using continuously collected user characteristic data, and accordingly, the user-customized learning model 202. ) Can be updated continuously. According to an embodiment of the present disclosure, the user-tailored learning model updating unit 204 may learn and update the user learning model 202 in near real time according to the collection of the user characteristic data. According to one embodiment of the present disclosure, the collection of user characteristic data of the customized learning model updating unit 204 and the training and updating of the customized learning model 202 based thereon are performed on the user terminal 100 (with the help of an external server). It should be understood that the process can be performed alone).

본 개시의 일 실시예에 의하면, 범용 학습 모델(206)은, 도 1을 참조하여 전술한 바와 같이, 대화형 AI 에이전트 모듈(110)이 사용자로부터의 입력을 처리하여 사용자 인텐트를 결정하고 그 인텐트에 부합하는 대화 응답 등을 생성 및 제공하는데 이용되는 학습 모델의 일부로서, 개별 사용자에게 특정적이지 않은 범용의 학습 모델일 수 있다. 본 개시의 일 실시예에 의하면, 범용 학습 모델(206)은, 미리 준비된 데이터 세트에 의해 사전 학습된 상태로 사용자 단말(100) 상에 제공된 것일 수 있다. 본 도면에서는, 사용자 단말(100) 상의 대화형 AI 에이전트 모듈(110)이 범용 학습 모델(206)을 포함하는 것으로 도시되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 범용 학습 모델(206)은, 대화형 AI 에이전트 모듈(110)의 서비스 제공을 위한 외부 서버 상에 구축된 것일 수 있다. 본 개시의 일 실시예에 의하면, 범용 학습 모델(206)은, 사용자 단말(100) 상의 대화형 AI 에이전트 모듈(110)과 외부 서버 상에 분산 배치될 수 있다. 본 개시의 일 실시예에 의하면, 범용 학습 모델(206)은, 전술한 대화형 AI 에이전트 모듈(110)의 서비스 제공을 위한 외부 서버의 개입에 의해 추가적으로 학습 및 갱신될 수 있다. According to one embodiment of the present disclosure, the general-purpose learning model 206, as described above with reference to Figure 1, the interactive AI agent module 110 processes input from the user to determine the user intent and As part of the learning model used to generate and provide conversational responses and the like that conform to the intent, it may be a general purpose learning model that is not specific to an individual user. According to an embodiment of the present disclosure, the general-purpose learning model 206 may be provided on the user terminal 100 in a state of being pre-learned by a data set prepared in advance. In this figure, the interactive AI agent module 110 on the user terminal 100 is shown to include a general-purpose learning model 206, but the present disclosure is not so limited. According to another embodiment of the present disclosure, the general-purpose learning model 206 may be built on an external server for providing a service of the interactive AI agent module 110. According to an embodiment of the present disclosure, the general-purpose learning model 206 may be distributedly distributed on the interactive AI agent module 110 on the user terminal 100 and on an external server. According to one embodiment of the present disclosure, the general-purpose learning model 206 may be additionally learned and updated by the intervention of an external server for providing a service of the interactive AI agent module 110 described above.

본 개시의 일 실시예에 의하면, 대화/태스크 처리부(208)는, 사용자 자연어 입력을 수신하고, 사용자 맞춤형 학습 모델(202) 및 범용 학습 모델(206) 등에 기초하여 수신된 사용자 자연어 입력을 처리하고, 그 사용자 자연어 입력에 대응한 사용자의 인텐트를 결정할 수 있다. 본 개시의 일 실시예에 의하면, 대화/태스크 처리부(208)는 또한 결정된 사용자 인텐트에 부합하는 동작, 예컨대 적절한 대화 응답 및/또는 태스크 수행을 제공할 수 있다.According to an embodiment of the present disclosure, the conversation / task processing unit 208 receives a user natural language input, processes the received user natural language input based on the user-customized learning model 202, the general-purpose learning model 206, and the like. The user's intent corresponding to the user's natural language input can be determined. According to one embodiment of the present disclosure, the conversation / task processing unit 208 may also provide an operation corresponding to the determined user intent, such as appropriate conversation response and / or task performance.

도 3은, 본 개시의 일 실시예에 따른, 도 2의 대화/태스크 처리부(208)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 대화/태스크 처리부(204)는, 음성-텍스트 변환(Speech-To-Text; STT) 모듈(302), 자연어 이해(Natural Language Understanding; NLU) 모듈(304), 대화 관리 모듈(306), 대화 생성 모듈(308), 및 음성 합성(Text-To-Speech; TTS) 모듈(310)을 포함한다.3 is a functional block diagram schematically illustrating a functional configuration of the conversation / task processing unit 208 of FIG. 2, according to an embodiment of the present disclosure. As shown, the conversation / task processing unit 204 may include a speech-to-text (STT) module 302, a natural language understanding (NLU) module 304, and a conversation management module ( 306, conversation creation module 308, and text-to-speech (TTS) module 310.

본 개시의 일 실시예에 의하면, STT 모듈(302)은, 사용자 입력 수신 모듈(102)을 통하여 수신된 사용자 입력 중 음성 입력을 수신하고, 수신된 음성 입력을 패턴 매칭 등에 기초하여 텍스트 데이터로 변환할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(302)은, 사용자의 음성 입력으로부터 특징을 추출하여 특징 벡터열을 생성할 수 있다. 본 개시의 일 실시예에 의하면, STT 모듈(302)은, DTW(Dynamic Time Warping) 방식이나 HMM 모델(Hidden Markov Model), GMM 모델(Gaussian-Mixture Mode), 딥 신경망 모델, n-gram 모델 등의 다양한 통계적 모델에 기초하여, 텍스트 인식 결과, 예컨대 단어들의 시퀀스를 생성할 수 있다. According to an embodiment of the present disclosure, the STT module 302 receives a voice input among user inputs received through the user input receiving module 102 and converts the received voice input into text data based on pattern matching or the like. can do. According to an embodiment of the present disclosure, the STT module 302 may extract a feature from a user's voice input to generate a feature vector sequence. According to an embodiment of the present disclosure, the STT module 302 may include a dynamic time warping (DTW) method, a HMM model (Hidden Markov Model), a GMM model (Gaussian-Mixture Mode), a deep neural network model, an n-gram model, and the like. Based on a variety of statistical models of, a text recognition result, such as a sequence of words, can be generated.

본 개시의 일 실시예에 의하면, NLU 모듈(304)은, 사용자 입력 수신 모듈(102) 또는 STT 모듈(302)로부터 텍스트 입력을 수신할 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(304)에서 수신되는 텍스트 입력은, 예컨대 사용자 입력 수신 모듈(102)로부터 수신되었던 사용자 텍스트 입력 또는 사용자 음성 입력으로부터 STT 모듈(302)에서 생성된 텍스트 인식 결과, 예컨대 단어들의 시퀀스일 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(304)은, 텍스트 입력을 수신하는 것과 함께 또는 그 이후에, 해당 사용자 입력과 연관된 상태 정보, 예컨대 해당 사용자 입력 당시의 사용자 단말(100)의 상태 정보 등을 수신할 수 있다. 전술한 바와 같이, 상태 정보는, 예컨대 사용자 단말(100)에서 사용자 음성 입력 및/또는 텍스트 입력 당시의 해당 사용자 단말(100)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(100)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(100) 주위의 환경 상태 정보 등)일 수 있다.According to an embodiment of the present disclosure, the NLU module 304 may receive a text input from the user input receiving module 102 or the STT module 302. According to one embodiment of the present disclosure, the text input received at the NLU module 304 may be text recognition generated at the STT module 302 from, for example, a user text input or a user voice input received from the user input receiving module 102. The result can be, for example, a sequence of words. According to one embodiment of the present disclosure, the NLU module 304, along with or after receiving the text input, state information associated with the user input, such as state information of the user terminal 100 at the time of the user input. And the like. As described above, the status information may include, for example, various status information related to the user terminal 100 at the time of user voice input and / or text input (eg, physical state of the user terminal 100 and software). And / or hardware status, environmental status information around the user terminal 100, and the like.

본 개시의 일 실시예에 의하면, NLU 모듈(304)은, 소정의 적응형 학습 모델(예컨대, 도 2의 사용자 맞춤형 학습 모델(202) 및 범용 학습 모델(206) 등을 포함한 적응형 학습 모델)에 기초하여, 위 수신된 텍스트 입력을 하나 이상의 사용자 인텐트에 대응시킬 수 있다. 여기서 사용자 인텐트는, 그 사용자 인텐트에 따라 대화형 AI 에이전트 모듈(110)에 의해 이해되고 수행될 수 있는 일련의 동작(들)과 연관될 수 있다. 본 개시의 일 실시예에 의하면, NLU 모듈(304)은, 수신된 텍스트 입력을 하나 이상의 사용자 인텐트에 대응시킴에 있어서 전술한 상태 정보를 참조할 수 있다. According to one embodiment of the present disclosure, the NLU module 304 includes a predetermined adaptive learning model (eg, an adaptive learning model including the user-defined learning model 202 and the general-purpose learning model 206, etc. of FIG. 2). Based on the received text input may correspond to one or more user intents. The user intent here may be associated with a series of action (s) that can be understood and performed by the interactive AI agent module 110 in accordance with the user intent. According to one embodiment of the present disclosure, the NLU module 304 may refer to the aforementioned state information in mapping the received text input to one or more user intents.

본 개시의 일 실시예에 의하면, 대화 관리 모듈(306)은, NLU 모듈(304)에 의해 결정된 사용자 인텐트에 따라, 그에 대응하는 일련의 동작 흐름을 생성할 수 있다. 본 개시의 일 실시예에 의하면, 대화 관리 모듈(306)은, 소정의 학습 모델(예컨대, 도 2의 사용자 맞춤형 학습 모델(202) 및 범용 학습 모델(206) 등을 포함한 적응형 학습 모델)에 기초하여 NLU 모듈(304)로부터 수신된 사용자 인텐트에 대응하여 어떠한 동작, 예컨대 어떠한 대화 응답 및/또는 태스크 수행을 행하여야 할지를 결정하고, 그에 따른 세부 동작 흐름을 생성할 수 있다. According to one embodiment of the present disclosure, the conversation management module 306 may generate a series of operation flows corresponding thereto according to the user intent determined by the NLU module 304. According to one embodiment of the present disclosure, the conversation management module 306 may be configured to a predetermined learning model (eg, an adaptive learning model including the user-defined learning model 202, the general learning model 206, and the like of FIG. 2). Based on the user intent received from the NLU module 304, it may determine which actions to perform, such as which conversation responses and / or tasks to perform, and generate detailed action flows accordingly.

본 개시의 일 실시예에 의하면, 대화 생성 모듈(308)은, 대화 관리 모듈(306)에 의해 생성된 동작 흐름에 기초하여 필요한 대화 응답을 생성할 수 있다. 본 개시의 일 실시예에 의하면, 대화 생성 모듈(308)은, 대화 응답 생성시, 소정의 학습 모델(예컨대, 도 2의 사용자 맞춤형 학습 모델(202) 및 범용 학습 모델(206) 등을 포함한 적응형 학습 모델)에 기초하여 적절한 대화 응답을 생성할 수 있다.According to one embodiment of the present disclosure, the conversation generation module 308 may generate the necessary conversation response based on the operation flow generated by the conversation management module 306. According to an embodiment of the present disclosure, the dialogue generation module 308 may include adapting a predetermined learning model (eg, the customized learning model 202 and the general-purpose learning model 206 of FIG. 2, etc.) when generating a dialogue response. Based on the model learning model).

본 개시의 일 실시예에 의하면, TTS 모듈(310)은, 대화 생성 모듈(3108)에 의해 생성된 대화 응답을 수신할 수 있다. TTS 모듈(310)에서 수신되는 대화 응답은 텍스트 형태를 갖는 자연어 또는 단어들의 시퀀스일 수 있다. 본 개시의 일 실시예에 의하면, TTS 모듈(310)은, 다양한 형태의 알고리즘에 따라, 위 수신된 텍스트 형태의 입력을 음성 형태로 변환할 수 있다.According to one embodiment of the present disclosure, the TTS module 310 may receive a conversation response generated by the conversation generation module 3108. The conversation response received at the TTS module 310 may be a natural language or a sequence of words in text form. According to an embodiment of the present disclosure, the TTS module 310 may convert the received text form input into a speech form according to various types of algorithms.

도 1 내지 3을 참조하여 전술한 본 개시의 실시예에서는, 대화형 AI 에이전트 시스템의 모든 기능 컴포넌트가 사용자 단말(100) 상에서 구현되는 것으로 설명되었으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 대화형 AI 에이전트 시스템의 각 기능 컴포넌트들은, 사용자 단말(100)과, 통신망을 통한 외부의 대화형 AI 에이전트 서버(도시되지 않음) 사이에 분배되어 구현될 수도 있음을 알아야 한다. 본 개시의 일 실시예에 따라 대화형 AI 에이전트 시스템이 그 기능들을 사용자 단말과 서버 사이에 분배하여 구현하는 경우, 사용자 단말과 서버 사이의 대화형 AI 에이전트 시스템의 각 기능의 분배는 실시예마다 달리 구현될 수 있음을 알아야 한다. 또한, 도 1 내지 3을 참조하여 전술한 본 개시의 실시예에서는, 편의상 특정 모듈이 소정의 동작들을 수행하는 것처럼 설명되었으나, 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 위 설명에서 어느 특정 모듈에 의해 수행되는 것과 같이 설명된 동작들이, 그와 다른 별개의 모듈에 의해 각각 수행될 수 있음을 알아야 한다. 또한, 도 1 내지 3을 참조하여 전술한 본 개시의 실시예에서는, 사용자 단말 상의 사용자 맞춤형 학습 모델이 대화형 AI 에이전트 서비스에 이용되는 경우를 중심으로 설명되었으나 본 개시가 이로써 제한되는 것은 아니다. 본 개시의 다른 실시예에 의하면, 사용자 단말 상의 사용자 맞춤형 학습 모델은, 이미지 검색 및/또는 합성, 음성 인식 및/또는 합성 등과 같은, 다른 머신러닝에 기반한 인공지능 서비스에도 확장하여 적용될 수 있음을 알아야 한다.In the embodiments of the present disclosure described above with reference to FIGS. 1 to 3, all functional components of the interactive AI agent system have been described as being implemented on the user terminal 100, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, each functional component of the interactive AI agent system may be distributed and implemented between the user terminal 100 and an external interactive AI agent server (not shown) through a communication network. Should know. According to an embodiment of the present disclosure, when the interactive AI agent system distributes and implements the functions between the user terminal and the server, the distribution of each function of the interactive AI agent system between the user terminal and the server may vary from embodiment to embodiment. It should be understood that this may be implemented. In addition, in the embodiment of the present disclosure described above with reference to FIGS. 1 to 3, for convenience, a specific module has been described as performing certain operations, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that the operations described as performed by any particular module in the above description may be performed by a separate module from each other. In addition, in the above-described embodiment of the present disclosure with reference to FIGS. 1 to 3, the case where the customized learning model on the user terminal is used for the interactive AI agent service has been described, but the present disclosure is not limited thereto. According to another embodiment of the present disclosure, it should be understood that a user-tailored learning model on a user terminal may be extended to other machine learning based AI services, such as image retrieval and / or synthesis, speech recognition and / or synthesis, and the like. do.

당업자라면 알 수 있듯이, 본 발명이 본 개시에 기술된 예시에 한정되는 것이 아니라 본 개시의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 재구성 및 대체될 수 있다. 본 명세서에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있음을 알아야 한다.As will be appreciated by those skilled in the art, the present invention is not limited to the examples described in the present disclosure but may be variously modified, reconfigured and replaced without departing from the scope of the present disclosure. It should be understood that the various techniques described herein may be implemented by hardware or software, or a combination of hardware and software.

본 개시의 일 실시예에 따른 컴퓨터 프로그램은, 컴퓨터 프로세서 등에 의해 판독 가능한 저장 매체, 예컨대 EPROM, EEPROM, 플래시 메모리장치와 같은 비휘발성 메모리, 내장형 하드 디스크와 착탈식 디스크 같은 자기 디스크, 광자기 디스크, 및 CDROM 디스크 등을 포함한 다양한 유형의 저장 매체에 저장된 형태로 구현될 수 있다. 또한, 프로그램 코드(들)는 어셈블리어나 기계어로 구현될 수 있다. 본 개시의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.A computer program according to an embodiment of the present disclosure may include a storage medium readable by a computer processor or the like, such as an EPROM, an EEPROM, a nonvolatile memory such as a flash memory device, a magnetic disk such as an internal hard disk and a removable disk, a magneto-optical disk, and It may be implemented in a form stored in various types of storage media, including a CDROM disk. In addition, the program code (s) may be implemented in assembly or machine language. All modifications and changes that fall within the true spirit and scope of this disclosure are intended to be covered by the following claims.

Claims (1)

사용자 단말로서,
사용자로부터 자연어 입력을 수신하도록 구성된 사용자 입력 모듈.
As a user terminal,
A user input module configured to receive natural language input from a user.
KR1020180145014A 2018-11-22 2018-11-22 User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon KR20190094087A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180145014A KR20190094087A (en) 2018-11-22 2018-11-22 User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180145014A KR20190094087A (en) 2018-11-22 2018-11-22 User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180005343 Division 2018-01-16

Publications (1)

Publication Number Publication Date
KR20190094087A true KR20190094087A (en) 2019-08-12

Family

ID=67625031

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180145014A KR20190094087A (en) 2018-11-22 2018-11-22 User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon

Country Status (1)

Country Link
KR (1) KR20190094087A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210091442A (en) 2020-01-14 2021-07-22 주식회사 해피캔버스 System and server and operating method to curate study contents by VR contents
KR20210102635A (en) * 2020-02-12 2021-08-20 한국과학기술원 Method for providing interactive messages based on heterogeneous mental models in intelligent agents and system therefore
KR20220021221A (en) 2020-08-13 2022-02-22 (주)인포마크 Foreign language learning system and method using artificial speech recognition learner

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072847A (en) 2009-12-23 2011-06-29 삼성전자주식회사 Dialog management system or method for processing information seeking dialog

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110072847A (en) 2009-12-23 2011-06-29 삼성전자주식회사 Dialog management system or method for processing information seeking dialog

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210091442A (en) 2020-01-14 2021-07-22 주식회사 해피캔버스 System and server and operating method to curate study contents by VR contents
KR20210102635A (en) * 2020-02-12 2021-08-20 한국과학기술원 Method for providing interactive messages based on heterogeneous mental models in intelligent agents and system therefore
KR20220021221A (en) 2020-08-13 2022-02-22 (주)인포마크 Foreign language learning system and method using artificial speech recognition learner

Similar Documents

Publication Publication Date Title
CN111837116B (en) Method for automatically constructing or updating dialog flow management model of dialog type AI system
KR101891492B1 (en) Method and computer device for providing contextual natural language conversation by modifying plain response, and computer readable recording medium
US11562744B1 (en) Stylizing text-to-speech (TTS) voice response for assistant systems
KR101945983B1 (en) Method for determining a best dialogue pattern for achieving a goal, method for determining an estimated probability of achieving a goal at a point of a dialogue session associated with a conversational ai service system, and computer readable recording medium
KR101891496B1 (en) Interactive ai agent system and method for actively monitoring and joining a dialogue session among users, computer readable recording medium
KR101891498B1 (en) Method, computer device and computer readable recording medium for multi domain service resolving the mixture of multi-domain intents in interactive ai agent system
KR102120751B1 (en) Method and computer readable recording medium for providing answers based on hybrid hierarchical conversation flow model with conversation management model using machine learning
KR101950387B1 (en) Method, computer device and computer readable recording medium for building or updating knowledgebase models for interactive ai agent systen, by labeling identifiable but not-learnable data in training data set
JP2023531346A (en) Using a single request for multi-person calling in auxiliary systems
KR20190094087A (en) User terminal including a user customized learning model associated with interactive ai agent system based on machine learning, and computer readable recording medium having the customized learning model thereon
KR101959292B1 (en) Method and computer device for providing improved speech recognition based on context, and computer readable recording medium
KR101927050B1 (en) User terminal and computer readable recorindg medium including a user adaptive learning model to be tranined with user customized data without accessing a server
KR20190103951A (en) Method, computer device and computer readable recording medium for building or updating knowledgebase models for interactive ai agent systen, by labeling identifiable but not-learnable data in training data set
KR101924215B1 (en) Method of generating a dialogue template for conversation understainding ai service system having a goal, and computer readable recording medium
US11302332B2 (en) Method, computer device and computer readable recording medium for providing natural language conversation by timely providing substantial reply
KR101914583B1 (en) Interactive ai agent system and method for actively providing a security related service based on monitoring of a dialogue session among users via the dialogue session or a separate session, computer readable recording medium
US11481443B2 (en) Method and computer device for providing natural language conversation by providing interjection response in timely manner, and computer-readable recording medium
KR101932264B1 (en) Method, interactive ai agent system and computer readable recoding medium for providing intent determination based on analysis of a plurality of same type entity information
KR102017544B1 (en) Interactive ai agent system and method for providing seamless chatting service among users using multiple messanger program, computer readable recording medium
KR101970899B1 (en) Method and computer device for providing improved speech-to-text based on context, and computer readable recording medium
KR20190094088A (en) User terminal and computer readable recorindg medium including a user adaptive learning model to be tranined with user customized data without accessing a server
KR20210045704A (en) Method, interactive ai agent system and computer readable recoding medium for providing intent determination based on analysis of a plurality of same type entity information
KR20210092519A (en) helping children to grow up based on AI(Artificial Intelligence) deep learning
KR20200091099A (en) Method, computer device and computer readable recording medium for creating a trascation on a blockchain network, via a conversation understanding service server
KR101914582B1 (en) Method, interactive ai agent system and computer readable recoding medium for providing semantic-free user voiceprint authentication having enhanced security

Legal Events

Date Code Title Description
A107 Divisional application of patent