KR20200141863A - System for providing personal recording data based ai chatting service - Google Patents

System for providing personal recording data based ai chatting service Download PDF

Info

Publication number
KR20200141863A
KR20200141863A KR1020190068954A KR20190068954A KR20200141863A KR 20200141863 A KR20200141863 A KR 20200141863A KR 1020190068954 A KR1020190068954 A KR 1020190068954A KR 20190068954 A KR20190068954 A KR 20190068954A KR 20200141863 A KR20200141863 A KR 20200141863A
Authority
KR
South Korea
Prior art keywords
artificial intelligence
conversation
character
agent
user terminal
Prior art date
Application number
KR1020190068954A
Other languages
Korean (ko)
Inventor
이영진
Original Assignee
이영진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이영진 filed Critical 이영진
Priority to KR1020190068954A priority Critical patent/KR20200141863A/en
Publication of KR20200141863A publication Critical patent/KR20200141863A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Provided is a personal recording data-based artificial intelligence dialogue service providing system, which comprises: a user terminal which provides at least one type of personal record data to generate a character of an artificial intelligence dialogue agent, and conducts a dialogue with the artificial intelligence dialogue agent generated based on the personal record data; a collection unit which collects at least one type of personal record data from the user terminal; a decision unit which trains the collected personal record data to determine the character of the artificial intelligence dialogue agent; a retraining unit which retrains the artificial intelligence dialogue agent with a determined character; and an artificial intelligence dialogue service providing server which sets the artificial intelligence dialogue agent corresponding to the selected character to run on the user terminal when the character is selected from the user terminal.

Description

개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템{SYSTEM FOR PROVIDING PERSONAL RECORDING DATA BASED AI CHATTING SERVICE}System for providing artificial intelligence dialogue service based on personal records data {SYSTEM FOR PROVIDING PERSONAL RECORDING DATA BASED AI CHATTING SERVICE}

본 발명은 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템에 관한 것으로, 개인기록물 데이터로 학습되어 캐릭터 및 정체성을 가진 채팅 에이전트와 대화할 수 있는 플랫폼을 제공한다.The present invention relates to a system for providing an artificial intelligence conversation service based on personal records data, and provides a platform for learning from personal records data to communicate with a chat agent having a character and an identity.

인공지능(Artificial Intelligence)은 비즈니스, 조직운영, 생활방식 그리고 커뮤니케이션 방법에 혁신을 일으키고 있다. 매일매일 빠르게 변화하는 현대적 문화의 생활방식과 다양하게 끊임없이 변화되는 고객의 요구사항에 최적의 서비스를 제공하기 위한 다양한 정보화 프로젝트가 진행되고 있으며, 그 중에서도 최근 빅데이터와 딥러닝 관련 기술이 빠른 속도로 발전하여 특정 분야에서는 실생활에 적용되고 있는 인공지능 기술이 구현되었으며, 특정 데이터에 대한 분석과, 개개인에게 특화된 다양한 분야의 정보를 통합 제공 및 활용하는 지능화된 개인 서비스에도 적용되고 있다. 현재 인공지능과 인간의 인터랙션은 제한적이지만 일상적인 자연어, 즉 대화형태로 이루어진다. 아직은 초보적인 단계이지만, 음성을 통한 대화 방식으로 네트워크로 연결된 각종 생활 가전기기의 제어가 이루어지고 있으며, 딥러닝이 적용된 지식 기반을 통하여 특정된 정보에대한 검색과 질의 및 응답이 가능해지고 있다. Artificial Intelligence is revolutionizing the way business, organizational operations, lifestyles, and communication are done. Various informatization projects are underway to provide optimal services to the lifestyles of modern cultures that change rapidly every day and to the needs of customers that are constantly changing in a variety of ways. Among them, big data and deep learning-related technologies are in progress. Artificial intelligence technology, which has been developed and applied to real life in specific fields, has been implemented, and is also applied to intelligent personal services that provide and utilize information in various fields specialized to individual and analysis of specific data. Currently, the interaction between artificial intelligence and humans is limited, but in everyday natural language, that is, in the form of conversation. Although it is still in a rudimentary stage, various household appliances connected through a network are being controlled through a conversation through voice, and a search, query, and response for specific information is possible through a knowledge base to which deep learning is applied.

이때, 인공지능 챗봇 또는 대화 에이전트에서 정체성(Identity)를 가질 수 있도록 캐릭터를 형성하는 방법에 대한 연구 및 개발이 이루어졌는데, 이와 관련하여 선행기술인 한국공개특허 제2004-0107858호(2004년12월23일 공개)에는, 챗봇과의 채팅을 통하여 콘텐츠를 제공받음에 있어서 제공되는 콘텐츠가 챗봇상에서 선택된 캐릭터의 성격에 따라 제공되는 방식이 다르도록 설정되고, 챗봇과 대화를 위해 필요한 콘텐츠를 수집하고, 수집된 콘텐츠를 캐릭터에 따라 가공하고, 가공된 콘텐츠를 전송함으로써, 사용자는 대화를 통하여 정보를 얻으면서 다양한 방식으로 정보를 접하게 되고, 각 캐릭터는 고유의 정체성을 가지게 되므로 단순한 프로그램이 아닌 하나의 캐릭터로 인식되어 보다 사용자에게 친근하게 다가갈 수 있는 구성이 개시되어 있다.At this time, research and development on a method of forming a character to have an identity in an artificial intelligence chatbot or conversation agent was conducted. In this regard, Korean Patent Publication No. 2004-0107858 (December 23, 2004) In one public), when the content is provided through a chat with the chatbot, the method of providing the content is set differently according to the character of the character selected on the chatbot, and the content necessary for the conversation with the chatbot is collected and collected. By processing the processed content according to the character and transmitting the processed content, the user gets information through conversation and encounters the information in various ways, and each character has a unique identity, so it is not a simple program but a single character. A configuration is disclosed that can be recognized and approached more user-friendly.

다만, 상술한 캐릭터는 사람의 성격을 모방하여 구체화한 것이 아니라 단순히 사람이 가지고 있는 다양한 면(Aspect) 중 하나만을 표현한 것에 불과할 뿐이어서 여전히 챗봇과 대화하는 상대방은 챗봇과 대화하고 있다는 느낌을 가지게 된다. 즉, 사람은 단순히 하나의 면을 가지는 것이 아니라 다양한 면을 동시에 보유한 복잡성을 가지고 있으며, 사회적 지위나 가족관계에 따라 서로 다른 성격을 보여주게 되므로 하나의 캐릭터를 형성했다고 할지라도 이를 모두에게 적용하는 경우, 역시 상대방은 다시 사람이 아니라 챗봇과 대화를 하고 있다는 생각을 할 수 밖에는 없다.However, the above-described characters are not imitating the person's personality, but are merely expressing one of the various aspects that a person has, so the person who is still talking to the chatbot feels that he is talking with the chatbot. . In other words, a person does not simply have one aspect, but has the complexity of possessing various aspects at the same time, and shows different personalities according to social status or family relations, so even if one character is formed, it is applied to all. , After all, you have no choice but to think that the other person is talking with the chatbot, not with people again.

본 발명의 일 실시예는, 개인기록물 데이터를 통하여 객체를 분석하는 것에 그치지 않고, 대화를 하는 상대방인 사용자와 객체 간의 인간관계를 분석하여 각각의 단어 데이터베이스를 구축하고, 각 관계별 성격을 객체의 전체적인 캐릭터 상에 복합적으로 생성함으로서 대화를 하는 상대방은 챗봇과 대화를 하는 느낌이 아니라 실제 객체와 이야기를 하는 것과 같은 실제감을 줄 수 있고, 나아가 고인이 된 객체의 캐릭터 및 관계별 성격을 분석하여 대화 에이전트를 생성하는 경우 고인이 된 상대방과 대화하는 것과 같은 경험을 제공할 수 있는, 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.An embodiment of the present invention is not limited to analyzing the object through personal record data, but also by analyzing the human relationship between the user and the object with whom the conversation is made, and constructing a database of each word, and determining the characteristics of each relationship. By creating a complex on the overall character, the conversation partner can give a sense of reality like talking with a real object, rather than a conversation with a chatbot, and further analyze the character of the deceased object and the character of each relationship to communicate. When creating an agent, it is possible to provide a method of providing an artificial intelligence conversation service based on personal records data that can provide an experience like having a conversation with a deceased person. However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 인공지능 대화 에이전트의 캐릭터를 생성할 적어도 하나의 종류의 개인기록물 데이터를 제공하고, 개인기록물 데이터에 기반하여 생성된 인공지능 대화 에이전트와 대화를 진행하는 사용자 단말, 및 사용자 단말로부터 적어도 하나의 종류의 개인기록물 데이터를 수집하는 수집부, 수집된 개인기록물 데이터를 학습하여 인공지능 대화 에이전트의 캐릭터를 결정하는 결정부, 결정된 캐릭터로 인공지능 대화 에이전트를 재학습시키는 재학습부, 사용자 단말에서 캐릭터를 선택하는 경우, 선택된 캐릭터에 대응하는 인공지능 대화 에이전트가 사용자 단말에서 구동되도록 설정하는 설정부를 포함하는 인공지능 대화 서비스 제공 서버를 포함한다.As a technical means for achieving the above-described technical problem, an embodiment of the present invention provides at least one type of personal record data to generate a character of an artificial intelligence dialogue agent, and is created based on the personal record data. A user terminal that conducts a conversation with the intelligent conversation agent, and a collection unit that collects at least one type of personal record data from the user terminal, a determination unit that determines the character of the artificial intelligence conversation agent by learning the collected personal record data, An artificial intelligence dialogue service providing server including a relearning unit for retraining an artificial intelligence dialogue agent as a character, and a setting unit for setting an artificial intelligence dialogue agent corresponding to the selected character to be run on the user terminal when a character is selected at the user terminal Includes.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 개인기록물 데이터를 통하여 객체를 분석하는 것에 그치지 않고, 대화를 하는 상대방인 사용자와 객체 간의 인간관계를 분석하여 각각의 단어 데이터베이스를 구축하고, 각 관계별 성격을 객체의 전체적인 캐릭터 상에 복합적으로 생성함으로서 대화를 하는 상대방은 챗봇과 대화를 하는 느낌이 아니라 실제 객체와 이야기를 하는 것과 같은 실제감을 줄 수 있고, 나아가 고인이 된 객체의 캐릭터 및 관계별 성격을 분석하여 대화 에이전트를 생성하는 경우 고인이 된 상대방과 대화하는 것과 같은 경험을 제공할 수 있다.According to any one of the above-described problem solving means of the present invention, not only analyzing the object through personal record data, but also analyzing the human relationship between the user who is a conversation partner and the object, constructing each word database, and By creating the personality of each relationship on the overall character of the object, the person who communicates can give a sense of reality like talking with an actual object rather than the feeling of having a conversation with the chatbot, and furthermore, the character and relationship of the deceased object. When a conversation agent is created by analyzing individual characteristics, it is possible to provide an experience similar to conversation with the deceased counterpart.

도 1은 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 인공지능 대화 서비스 제공 서버를 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 도 1의 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
1 is a diagram illustrating a system for providing an artificial intelligence conversation service based on personal record data according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating an artificial intelligence conversation service providing server included in the system of FIG. 1.
3 is a diagram for explaining an embodiment in which an artificial intelligence conversation service based on personal record data according to an embodiment of the present invention is implemented.
4 is a diagram illustrating a process of transmitting and receiving data between components included in the system for providing an artificial intelligence conversation service based on personal record data of FIG. 1 according to an embodiment of the present invention.
5 is a flowchart illustrating a method of providing an artificial intelligence conversation service based on personal record data according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are assigned to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, and one or more other features, not excluding other components, unless specifically stated to the contrary. It is to be understood that it does not preclude the presence or addition of any number, step, action, component, part, or combination thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. The terms "about", "substantially" and the like, as used throughout the specification, are used in or close to the numerical value when manufacturing and material tolerances specific to the stated meaning are presented, and are used in the sense of the present invention. To assist, accurate or absolute figures are used to prevent unfair use of the stated disclosure by unscrupulous infringers. As used throughout the specification of the present invention, the term "step (to)" or "step of" does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다. In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, or two or more units may be realized using one hardware.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by the terminal, device, or device may be performed instead in a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, device, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal means mapping or matching the unique number of the terminal or the identification information of the individual, which is the identification information of the terminal. Can be interpreted as.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 인공지능 대화 서비스 제공 서버(300), 및 적어도 하나의 객체 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.1 is a diagram illustrating a system for providing an artificial intelligence conversation service based on personal records data according to an embodiment of the present invention. Referring to FIG. 1, the system 1 for providing an artificial intelligence dialogue service based on personal record data includes at least one user terminal 100, an artificial intelligence dialogue service providing server 300, and at least one object terminal 400. Can include. However, since the system 1 for providing an artificial intelligence conversation service based on personal record data of FIG. 1 is only an embodiment of the present invention, the present invention is not limitedly interpreted through FIG. 1.

이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 인공지능 대화 서비스 제공 서버(300)와 연결될 수 있다. 그리고, 인공지능 대화 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 객체 단말(400)과 연결될 수 있다. 또한, 적어도 하나의 객체 단말(400)은, 네트워크(200)를 통하여 인공지능 대화 서비스 제공 서버(300)와 연결될 수 있다.In this case, each component of FIG. 1 is generally connected through a network 200. For example, as shown in FIG. 1, at least one user terminal 100 may be connected to an artificial intelligence conversation service providing server 300 through a network 200. In addition, the artificial intelligence conversation service providing server 300 may be connected to at least one user terminal 100 and at least one object terminal 400 through the network 200. In addition, at least one object terminal 400 may be connected to the artificial intelligence conversation service providing server 300 through the network 200.

여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5th Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.Here, the network refers to a connection structure in which information exchange is possible between respective nodes such as a plurality of terminals and servers, and examples of such networks include RF, 3rd Generation Partnership Project (3GPP) network, and Long Term (LTE). Evolution) network, 5GPP (5th Generation Partnership Project) network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network) , Personal Area Network (PAN), Bluetooth (Bluetooth) network, NFC network, satellite broadcasting network, analog broadcasting network, Digital Multimedia Broadcasting (DMB) network, and the like, but are not limited thereto.

하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.In the following, the term “at least one” is defined as a term including the singular number and the plural number, and even if the term “at least one” does not exist, each component may exist in the singular or plural, and may mean the singular or plural. It will be self-evident. In addition, it will be possible to change according to the embodiment that each component is provided in a singular or plural.

적어도 하나의 사용자 단말(100)은, 개인기록물 데이터 기반 인공지능 대화 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 개인기록물 데이터를 인공지능 대화 서비스 제공 서버(300)로 제공하는 단말일 수 있다. 그리고, 적어도 하나의 사용자 단말(100)은, 인공지능 대화 서비스 제공 서버(300)에서 제공하는 채팅 에이전트와 대화를 송수신하는 단말일 수 있다.At least one user terminal 100 may be a terminal that provides personal records data to the artificial intelligence chat service providing server 300 using a web page, app page, program, or application related to an artificial intelligence chat service based on personal records data. have. In addition, the at least one user terminal 100 may be a terminal that transmits and receives a chat agent and a chat agent provided by the artificial intelligence chat service providing server 300.

여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one user terminal 100 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a navigation system, a notebook equipped with a web browser, a desktop, a laptop, and the like. In this case, the at least one user terminal 100 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one user terminal 100, for example, as a wireless communication device that is guaranteed portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) All types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs may be included.

인공지능 대화 서비스 제공 서버(300)는, 개인기록물 데이터 기반 인공지능 대화 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 인공지능 대화 서비스 제공 서버(300)는, 사용자 단말(100)로부터 개인기록물 데이터를 수집하는 서버일 수 있다. 또한, 인공지능 대화 서비스 제공 서버(300)는, 사용자 단말(100)의 사용자와 개인기록물 데이터를 생성한 객체 간의 관계를 정의하고, 정의에 기반하여 성격을 분석하는 서버일 수 있다. 그리고, 인공지능 대화 서비스 제공 서버(300)는 개인기록물 데이터를 생성한 객체의 캐릭터를 분석 및 저장하는 서버일 수 있다. 또한, 인공지능 대화 서비스 제공 서버(300)는, 캐릭터 및 성격에 기반하여 단어 데이터베이스를 구축하고 대화 에이전트를 학습 및 훈련시키는 서버일 수 있다. 그리고, 인공지능 대화 서비스 제공 서버(300)는, 사용자 단말(100)에서 대화 에이전트의 캐릭터를 선택하는 경우, 선택된 캐릭터와 대화를 송수신할 수 있도록 대화 인터페이스를 제공하는 서버일 수 있다. 또한, 인공지능 대화 서비스 제공 서버(300)는, 사용자 단말(100)에서 성격 또는 캐릭터를 부정하는 오류 데이터가 피드백되는 경우, 피드백 데이터에 기반하여 대화 에이전트의 성격 또는 캐릭터를 재훈련 및 재학습시키는 서버일 수 있다.The artificial intelligence chat service providing server 300 may be a server that provides an artificial intelligence chat service web page, an app page, a program, or an application based on personal record data. In addition, the artificial intelligence conversation service providing server 300 may be a server that collects personal record data from the user terminal 100. In addition, the artificial intelligence conversation service providing server 300 may be a server that defines a relationship between a user of the user terminal 100 and an object that has generated personal record data, and analyzes a personality based on the definition. In addition, the artificial intelligence dialogue service providing server 300 may be a server that analyzes and stores a character of an object that has generated personal record data. In addition, the artificial intelligence conversation service providing server 300 may be a server that builds a word database based on characters and personalities, and learns and trains conversation agents. In addition, when the user terminal 100 selects a character of the conversation agent, the artificial intelligence conversation service providing server 300 may be a server that provides a conversation interface to transmit and receive a conversation with the selected character. In addition, the artificial intelligence dialog service providing server 300, when feedback of error data that denies a personality or character from the user terminal 100, retrains and retrains the personality or character of the dialog agent based on the feedback data. It could be a server.

여기서, 인공지능 대화 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.Here, the artificial intelligence conversation service providing server 300 may be implemented as a computer that can access a remote server or terminal through a network. Here, the computer may include, for example, a navigation system, a notebook equipped with a web browser, a desktop, a laptop, and the like.

적어도 하나의 객체 단말(400)은, 개인기록물 데이터 기반 인공지능 대화 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 인공지능 대화 서비스 제공 서버(300)로 개인기록물 데이터를 전송하는 단말일 수 있다. 그리고, 적어도 하나의 객체 단말(400)은 사용자 단말(100)에서 인공지능 대화 서비스 제공 서버(300)에 입력한 식별자에 의해 식별되고, 인공지능 대화 서비스 제공 서버(300)의 요청에 응답하거나 데이터를 피드백하는 단말일 수 있다.The at least one object terminal 400 may be a terminal that transmits personal records data to the artificial intelligence conversation service providing server 300 using a web page, app page, program, or application related to an artificial intelligence conversation service based on personal records data. have. In addition, at least one object terminal 400 is identified by an identifier input to the artificial intelligence dialog service providing server 300 from the user terminal 100, and responds to the request of the artificial intelligence dialog service providing server 300 or provides data It may be a terminal that feeds back.

여기서, 적어도 하나의 객체 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 객체 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 객체 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.Here, the at least one object terminal 400 may be implemented as a computer capable of accessing a remote server or terminal through a network. Here, the computer may include, for example, a navigation system, a notebook equipped with a web browser, a desktop, a laptop, and the like. At this time, the at least one object terminal 400 may be implemented as a terminal capable of accessing a remote server or terminal through a network. At least one object terminal 400, for example, as a wireless communication device that is guaranteed portability and mobility, navigation, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) ) All types of handheld-based wireless communication devices such as terminals, smartphones, smartpads, and tablet PCs may be included.

도 2는 도 1의 시스템에 포함된 인공지능 대화 서비스 제공 서버를 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.FIG. 2 is a block diagram illustrating an artificial intelligence dialog service providing server included in the system of FIG. 1, and FIG. 3 is an embodiment of implementing an artificial intelligence dialog service based on personal records data according to an embodiment of the present invention. It is a figure for explaining.

도 2를 참조하면, 인공지능 대화 서비스 제공 서버(300)는, 수집부(310), 결정부(320), 재학습부(330), 설정부(340), 관계 정의부(350), 제공부(360), 접속부(370)를 포함할 수 있다.Referring to FIG. 2, the artificial intelligence conversation service providing server 300 includes a collection unit 310, a determination unit 320, a relearning unit 330, a setting unit 340, a relationship definition unit 350, and Study 360, may include a connection unit 370.

본 발명의 일 실시예에 따른 인공지능 대화 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 및 적어도 하나의 객체 단말(400)로 개인기록물 데이터 기반 인공지능 대화 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 및 적어도 하나의 객체 단말(400)은, 개인기록물 데이터 기반 인공지능 대화 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 및 적어도 하나의 객체 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hyper text mark-up language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함한다.The artificial intelligence conversation service providing server 300 according to an embodiment of the present invention or another server (not shown) operating in conjunction with at least one user terminal 100 and at least one object terminal 400 When transmitting a data-based artificial intelligence conversation service application, program, app page, web page, etc., at least one user terminal 100 and at least one object terminal 400 may be an artificial intelligence conversation service application based on personal record data , Programs, app pages, web pages, etc. can be installed or opened. In addition, a service program may be driven in at least one user terminal 100 and at least one object terminal 400 by using a script executed in a web browser. Here, the web browser is a program that enables you to use the web (WWW: world wide web) service, and refers to a program that receives and displays hypertext described in HTML (hyper text mark-up language). For example, Netscape , Explorer, chrome, etc. In addition, the application means an application on the terminal, and includes, for example, an app that is executed on a mobile terminal (smartphone).

도 2를 참조하면, 수집부(310)는, 사용자 단말(100)로부터 적어도 하나의 종류의 개인기록물 데이터를 수집할 수 있다. 이때, 사용자 단말(100)은, 인공지능 대화 에이전트의 캐릭터를 생성할 적어도 하나의 종류의 개인기록물 데이터를 제공할 수 있다. 여기서, 개인기록물 데이터는, 동영상, 대화 히스토리 로그, 사진을 포함한 이미지, 음성 데이터, 및 서식기록 데이터를 포함할 수 있지만, 상술한 것들로 그 종류가 한정되지는 않는다. Referring to FIG. 2, the collection unit 310 may collect at least one type of personal record data from the user terminal 100. In this case, the user terminal 100 may provide at least one type of personal record data to generate a character of an artificial intelligence conversation agent. Here, the personal record data may include moving pictures, conversation history logs, images including photos, audio data, and form record data, but the types are not limited to those described above.

이때, 대화 에이전트(Chatting Agent, 또는 챗봇)는 음성 또는 문자를 통하여 인간과 기계가 정보를 주고받는 플랫폼으로, 인간과 기계사이의 의사소통 피상성을 보여주기 위해 만들어졌으며 패턴 매칭과 대체방법론을 사용하여 대화를 구성할 수도 있고, 인간의 대화를 기반으로 인간의 발화 내용을 문자로 전환하는 자동 음성 인식 기술, 인간과의 인터랙션을 조종하기 위한 대화 컨트롤러, 인간에게 정보 전달 방법 등을 위한 플랫폼을 제공할 수 있다. 이때, 대화 에이전트는, 물리적으로 인공지능 대화 서비스 제공 서버(300)에서 인공지능을 알고리즘을 이용하여 사용자의 질의를 분석하고 사용자는 앱 또는 웹으로 정보를 제공받는 구조로 이루어질 수 있다. 인공지능 대화 서비스 제공 서버(300)에서는 사용자의 질의에 적절한 답변을 제공하기 위해 자연어처리(NLP), 상황인식, 빅데이터 분석 등의 기술이 이용될 수 있다. 그리고, 인공지능 대화 서비스 제공 서버(300)와 사용자 사이에는 대규모 메세지 트래픽을 처리하는 하둡(hadoop)과 같은 분산 컴퓨팅 기술을 더 이용할 수도 있다. 그리고, 대화 에이전트는, 단순 규칙(pattern match, rule-based)기반이 아닌 온톨로지(Ontology)기반 지식베이스를 적용한 플랫폼을 이용할 수 있으며, 자연어 처리(NLP, Natural Language Processing)와 온톨로지(Ontology) 기반 검색 기술을 활용하여 명령을 처리하는 방식을 이용할 수 있다. At this time, the conversation agent (Chatting Agent, or chatbot) is a platform through which humans and machines exchange information through voice or text, and was created to show the superficiality of communication between humans and machines, and uses pattern matching and alternative methodologies. Conversation can be configured, and it will provide a platform for automatic speech recognition technology that converts human speech content into text based on human dialogue, dialogue controller to manipulate interactions with humans, and information delivery methods to humans. I can. In this case, the conversation agent may physically analyze a user's query using an artificial intelligence algorithm in the artificial intelligence conversation service providing server 300, and the user may be provided with information through an app or web. In the artificial intelligence conversation service providing server 300, technologies such as natural language processing (NLP), context recognition, and big data analysis may be used to provide appropriate answers to user queries. In addition, a distributed computing technology such as Hadoop processing large-scale message traffic may be further used between the artificial intelligence conversation service providing server 300 and the user. In addition, the conversation agent can use a platform to which an ontology-based knowledge base is applied rather than a simple rule (pattern match, rule-based) basis, and natural language processing (NLP) and ontology-based search You can use technology to process commands.

결정부(320)는, 수집된 개인기록물 데이터를 학습하여 인공지능 대화 에이전트의 캐릭터를 결정할 수 있다. 우선, 사람을 예로 들면 사람의 정체성을 특징짓는 특유의 캐릭터가 존재한다. 그리고, 그 캐릭터(Character)는 인간관계 전반에 내재되어 드러나지만, 각 인간관계별로 성격(Personality)이 다르게 나타날 수 있다. 예를 들어, 캐릭터가 외향적이라고 가정하면, 이는 인간관계 전반에 드러나지만, 인간관계별 지위, 즉 직장에서 상사에게는 부하직원으로서, 부하직원에게는 상사로서, 자식에게는 부모로서, 부모님에게는 자식으로 성격이 다르게 나타날 수 있으며, 사용하는 언어나 말투 등도 달라지게 된다. 그리고, 같은 자식이라도 첫째 자식과의 관계와 둘째 자식과의 관계가 각각 다르므로 이 또한 다르게 나타날 수 있다. 만약, A 캐릭터를 설정하고 어머니로서의 성격을 정의했지만, 둘째 자식과의 관계까지 정의되지 않으면, 둘째 자식이 A 캐릭터와 대화할 때 뭔가 자신의 어머니가 아니라는 느낌이 들 수 있다. 이에 따라, 본 발명에서는, 캐릭터(Character)를 상위 노드에 정의하고, 그 하위 노드에 인간관계별 성격(Personality)을 정의하며, 인간관계별 성격의 하위 노드에 동일한 인간관계일지라도 각 상대방에 따라 사용하는 어휘 및 단어 데이터베이스와 말투 등(Persona)을 별도로 정의함으로써 대화 에이전트와 대화하는 상대방이 기계와 대화하거나 A 캐릭터가 아닌 다른 사람과 대화하고 있다는 느낌이 들지 않도록 할 수 있다(캐릭터-인간관계별 성격-상대방별 성격 정의).The determination unit 320 may determine the character of the artificial intelligence conversation agent by learning the collected personal record data. First of all, for example, there is a unique character that characterizes a person's identity. In addition, the character is inherent and revealed throughout human relationships, but personality may appear differently for each human relationship. For example, assuming that the character is extroverted, this is revealed throughout the relationship, but the status of each relationship, i.e. at work, as a subordinate to a supervisor, as a supervisor to a subordinate, as a parent to a child, and as a child to parents. They may appear differently, and the language and tone used will be different. And, even with the same child, the relationship with the first child and the second child are different, so this can also appear differently. If the character A is set and the personality as a mother is defined, but the relationship with the second child is not defined, when the second child communicates with the character A, it may feel that something is not their mother. Accordingly, in the present invention, a character is defined in an upper node, a personality by human relationship is defined in the lower node, and even if the same human relationship is used in the lower node of the personality by human relationship, it is used according to each other. By separately defining the vocabulary and word database and the persona (persona), it is possible to avoid feeling that the person talking to the conversation agent is talking with the machine or with someone other than the character A (character-human relationship characteristics) -Define the personality of each other).

이때, 성격 유형 분석 도구로 다양한 방법들이 존재하고 다양한 방법을 이용할 수 있는데, 예를 들어 DISC모델을 사용할 수도 있다. 이때, DISC모델에서 성격유형은 4가지로 주도형(D: Dominance), 사교형(I: Influences), 신중형(C: Conscientiousness), 안정형(S: Steadiness)으로 구분된다. 주도형인 D형은 일 중심적 성향으로 빠른 결단과 추진력을 중요시하고, 사교형인 I형은 상대방에게 감화를 잘하고 적극적이며 재미있는 성격이다. C형은 신중형으로 말수가 적고 분석적이고 정확하다. S형은 안정형으로 여유 있으며 합리적인 성격이다. 또는, 성격 심리학의 Big Five Personality 모델을 이용할 수도 있는데, 경험 개방성(Openness), 성실성(Conscientiousness), 외향성(Extraversion), 친화성(Agreeableness), 신경성(Neuroticism)의 5개 축에서 성격과 퍼소나를 정의할 수도 있다. 감성(Affect) 모델은 PAD(Pleasure Arousal Dominance)와 OCC(Ortony, Clore & Collins)로 구성될 수 있는데, PAD의 P(Pleasure)는 긍정적이거나 부정적인 감성을 나타내며, A(Arousal)은 각성의 정도, 그리고 D(Dominance)는 상대에 대한 통제감을 나타내준다. 감성은 P, A, D 각 축 상에서 -1과 1 사이에서 매핑된다. PAD가 1차원적으로 감성 표상을 하고 있다면 이를 보완해주는 것이 OCC 모델이다. OCC 전산 모델은 감정을 22개로 분류하고, 감정별로 필요한 구성요소를 대상(Object), 사건(Event), 행위(Action) 중에서 정의한다. 예를 들어, 행복(Joy)을 느끼는 것은 사건(Event)이 필요한 Entity가 되며, 사랑하는(Love) 감정은 대상(Object)이 필요하며, 자랑스러워(Pride)하는 감정은 자랑스러워 할 행위(Action)가 가장 중요하다. 물론, 상술한 모델 이외에도 다양한 캐릭터, 성격 및 퍼소나 정의 모델이 이용될 수 있으며, 감성 모델도 상술한 것들로 한정되는 것은 아님이 자명하다 할 것이다.At this time, various methods exist as a tool for analyzing personality types, and various methods can be used. For example, a DISC model may be used. At this time, the personality types in the DISC model are divided into four types: Dominance (D), Influences (I), Conscientiousness (C), and Steadiness (S). The leading type D-type is work-oriented and places importance on quick determination and momentum, while the sociable type I-type is good at influencing others and is active and fun. Type C is a cautious type, has few words, is analytical and accurate. S-type is a stable, relaxed and rational personality. Alternatively, the Big Five Personality model of personality psychology can be used. Personality and persona are measured in the five axes of experiential openness, conscientiousness, extraversion, affinity, and neuroticism. You can also define it. The affect model can be composed of PAD (Pleasure Arousal Dominance) and OCC (Ortony, Clore & Collins), where P (Pleasure) of PAD represents positive or negative emotion, and A (Arousal) is the degree of arousal, And D (Dominance) represents a sense of control over the other person. Sentiment is mapped between -1 and 1 on each axis of P, A, and D. If PAD expresses emotion in one dimension, the OCC model complements it. The OCC computational model categorizes emotions into 22, and defines necessary components for each emotion among objects, events, and actions. For example, feeling happiness becomes an entity that needs an event, an emotion of love requires an object, and an emotion of pride is an action to be proud of. Is the most important. Of course, in addition to the above-described models, various character, personality, and persona definition models may be used, and it will be apparent that the emotional model is not limited to those described above.

덧붙여서, 인공지능 캐릭터는, 사전에 정의된 방대한 양의 의사결정트리와 사용자의 선택에 따라 행동하게 된다. 여기서, 맥락은 상황을 특정 짓기 위해 사용된 모든 정보이며, 맥락 인지는 근처의 사람과 사물들, 사용되는 장소 뿐만 아니라 시간에 따른 대상들의 변화에 따라 채택되어진다. 또한 인지심리학의 행동모델에 따르면 세상을 이해하고 지각하는 것은 주관적인 인식을 통해서만 가능하다. 다시 말해 행동모델에 따른 맥락 인지는 사람, 사물, 장소뿐만 아니라 시간에 따른 대상들의 변화마저도 주관적인 관점에 따른 선택을 통해 진행된다는 것이다. 따라서, 본 발명의 일 실시예에 따른 캐릭터 기반 대화형 인공지능이란 연속대화 수행을 통해 대화의 상황을 이해하고 이를 바탕으로 주관적인 의견과 감정을 표현할 수 있는 대화형 인공지능으로 정의한다.In addition, AI characters act according to user choices and a vast amount of predefined decision trees. Here, context is all information used to specify a situation, and context recognition is adopted according to changes in objects over time, as well as nearby people and objects, and places used. Also, according to the behavioral model of cognitive psychology, understanding and perceiving the world is possible only through subjective perception. In other words, the context recognition according to the behavioral model is that not only people, objects, places, but also changes of objects over time are progressed through selection based on a subjective perspective. Accordingly, the character-based interactive artificial intelligence according to an embodiment of the present invention is defined as an interactive artificial intelligence capable of understanding the situation of dialogue through continuous dialogue execution and expressing subjective opinions and emotions based on this.

이때, 기계학습을 이용한 대화형 인공지능과 같이 입력문장에 대한 답변문장을 학습시키거나, Generative Hierachical Neural Network Models을 통해 위의 방식에 대화 직전 한 문장까지 학습 데이터로 추가시킴으로써 연속대화가 가능하도록 할 수도 있다. 또한, 캐릭터 기반 대화형 인공지능을 위해 다중 에이전트를 도입할 수도 있다. 예를 들어, 인식, 의사결정, 계획/행동 등으로 나누고, 각 에이전트는 다시 지식 베이스와 추론 엔진으로 세분화된다. 따라서 복수의 에이전트로 구성된 플랫폼에서는, 상대방의 대화를 읽어내고, 파악하며, 자신의 감정 상태를 고려한 전반적인 대화 상황을 인지하고, 대응 전략을 구상하고, 실행 계획을 수립하여 실행하는 순서로 진행될 수 있다.At this time, it is possible to enable continuous conversation by learning the answer sentence for the input sentence, such as interactive artificial intelligence using machine learning, or by adding the sentence just before the conversation as learning data to the above method through Generative Hierachical Neural Network Models. May be. In addition, multiple agents can be introduced for character-based interactive artificial intelligence. For example, it is divided into perception, decision making, planning/action, etc., and each agent is subdivided into knowledge base and reasoning engine. Therefore, in a platform composed of a plurality of agents, it can proceed in the order of reading and grasping the conversation of the other party, recognizing the overall conversation situation in consideration of one's emotional state, devising a response strategy, and establishing an action plan. .

이때, 대상 언어 분석 에이전트는 상대방으로부터 전달받은 문장을 통해 대상이 전하고자하는 의미와 대상의 감정을 분석하는 에이전트이다. 이 에이전트에서는 의사 결정 에이전트의 피드백과 상대방의 발언으로부터 단편 분석과 심층 분석을 통하여 상대방이 전하고자하는 의미와 감정을 파악하여 이를 대화 상황 판단 에이전트에 전달한다. 단편 분석은 현재 상대방으로부터 전달받은 문장을 통해 의미적·감정적인 분석을 의미한다. 심층 분석은 상황인지 에이전트로부터 받은 피드백을 통해 업데이트 받은 상대의 의도와 감정을 누적시킴으로써 상대의 실제 의도와 감정을 유추하기 위한 분석 모듈이다. 심층 분석은 대화의 초기에는 단편 분석의 값만으로 구성되기 때문에 대상에 대한 선입견이 반영되며 이는 대화가 진행됨에 따라 실제 대상의 의도와 감정에 맞게 업데이트된다.In this case, the target language analysis agent is an agent that analyzes the meaning of the target and the emotions of the target through the sentences received from the other party. In this agent, through short analysis and in-depth analysis from the feedback of the decision-making agent and the speech of the other party, the meaning and emotion that the other party wants to convey is grasped and transmitted to the conversation situation determination agent. Short analysis refers to a semantic and emotional analysis through the sentences received from the other party. In-depth analysis is an analysis module for inferring the other's actual intentions and feelings by accumulating the opponent's intentions and emotions updated through feedback received from the context-aware agent. Since in-depth analysis is composed of only the values of short analysis at the beginning of the dialogue, prejudices about the subject are reflected, and this is updated according to the intention and emotion of the actual subject as the dialogue proceeds.

자기감정 파악 에이전트는 상대방으로부터 전달받은 문장을 통해 인공지능 스스로의 감정의 변화를 모델링하기 위한 에이전트이다. 이 에이전트 또한 대상 언어 분석 에이전트와 마찬가지로 단편 분석과 심층 분석을 통해 상대방의 발언으로 부터 인공지능 스스로의 감정을 파악하여 이를 대화 상황 판단 에이전트에 전달한다. 단편적 반응을 통한 모델링은 상대방의 일정 수준이상의 강한 반응을 통해 일어나는 순간적인 감정적 변화이다. 이는 강한 자극으로 인한 갑작스런 감정의 변화 혹은 순간적인 감정의 표출에 영향을 미친다. 심층적 반응을 통한 모델링은 상대방과의 대화가 진행되어가는 상황으로부터 발생하여 누적되는 감정적 변화를 모델링한다.The self-emotion grasping agent is an agent for modeling changes in the artificial intelligence's own emotions through sentences received from the other party. Like the target language analysis agent, this agent also grasps the AI's own emotions from the counterpart's remarks through short analysis and in-depth analysis and delivers them to the conversational situation determination agent. Modeling through fragmentary reactions is an instantaneous emotional change that occurs through the other's strong reaction over a certain level. This affects the sudden change of emotions or momentary expression of emotions caused by strong stimulation. Modeling through in-depth reaction models the cumulative emotional changes arising from the situation in which the conversation with the other party proceeds.

대화 상황 판단 에이전트는 대상 언어 분석 에이전트와 자기감정 파악 에이전트로부터 전달받은 의미와 감정 상태, 의사결정 에이전트의 피드백 통해 대화의 상황을 파악하며 이를 의사결정 에이전트에 전달한다. 또한 대상 언어 분석 에이전트와 자기감정 파악 에이전트에 파악된 상황에 대하여 피드백을 해주어 각각의 심층 분석 모듈의 업데이트를 위해 제공한다.The conversational situation determination agent grasps the context of the conversation through the meaning and emotional state received from the target language analysis agent and the self-emotion grasping agent, and the feedback of the decision-making agent, and delivers it to the decision-making agent. In addition, feedback is provided to the target language analysis agent and the self-emotion grasping agent on the identified situation, and provides for updating each in-depth analysis module.

의사 결정 에이전트는 대화 상황 판단 에이전트를 통해 파악한 상황에 인공지능의 발화 목적을 포함하여 다음 발언의 의도를 결정하는 에이전트이다. 의사 결정 에이전트는 대상 언어 분석 에이전트 및 대화 상황 판단 에이전트의 추론 엔진에 피드백을 주어 주어진 상황에 대해 주관적인 해석을 이루도록 한다. 인공지능 스스로의 목적을 이루기 위해서는 대상 언어 분석 에이전트와 자기감정 파악 에이전트를 통해 만들어진 감정 모델을 통한 시뮬레이션을 통해 의사를 결정한다.The decision-making agent is an agent that determines the intention of the next speech, including the purpose of speech of artificial intelligence, in the situation identified through the conversational situation determination agent. The decision-making agent provides feedback to the inference engine of the target language analysis agent and the conversational situation determination agent to achieve a subjective interpretation of a given situation. In order to achieve its own purpose, artificial intelligence makes decisions through simulation through an emotional model created through a target language analysis agent and a self-emotion grasp agent.

응답 생성 에이전트는 의사 결정 에이전트를 통해 결정된 다음 발언의 의도를 문장의 수준으로 생성해주는 에이전트이다. 문장 표현 에이전트는 응답 생성 에이전트의 결과 문장을 문법과 특정 어투(사투리 등)에 맞도록 변형해주는 에이전트이다. 따라서, 인터렉션이 가능하도록 캐릭터, 성격 및 관계별 성격까지 모두 정의하고 에이전트를 정의하는 경우, 사용자와의 관계를 맺던 객체의 성격을 그대로 모사한 대화 에이전트가 생성될 수 있고, 이에 따라 사용자 단말(100)은 생성된 대화 에이전트와 대화를 나눌 수 있게 된다.The response generation agent is an agent that generates the intention of the next speech determined by the decision-making agent at the level of the sentence. The sentence expression agent is an agent that transforms the result sentence of the response generating agent to fit the grammar and specific tone (dialect, etc.). Therefore, in the case of defining all characters, personalities, and personalities by relationship so that interaction is possible and an agent is defined, a dialog agent that simulates the personality of the object that has been in the relationship with the user may be created, and accordingly, the user terminal 100 ) Can chat with the created chat agent.

재학습부(330)는, 결정된 캐릭터로 인공지능 대화 에이전트를 재학습시킬 수 있다. 이때, 신경망 학습, 기계 학습, 딥러닝 등 다양한 방법이 이용될 수 있고, 능동 학습이 이용될 수 있다. 여기서, 능동 학습이란 주어진 데이터셋으로 대화 에이전트를 학습시키는 것을 넘어서 에이전트가 환경과 상호작용하며 스스로 지식을 습득하는 것을 말한다. 대화 에이전트는 환경에 대해 적극적 행동을 수행하며 환경으로부터 정보를 수집하고, 이를 다시 학습에 재활용하여 성능을 높이게 된다. 인간의 학습을 살펴보면 정제되어 주어지는 정보를 습득할 뿐 아니라 스스로 활동하며 정보를 얻기도 한다는 점에서 능동 학습이라 할 수 있다. 질의 응답 분야에서 능동 학습이 이루어지기 위해서는 질문이 대화 에이전트로부터 생성되어야 한다. 대화 에이전트는 생성한 질문을 환경에 묻게 되며 사용자 단말(100) 또는 빅데이터는 이에 대한 답변을 대화 에이전트에게 주게 된다. 비용 측면에서 보면 데이터셋을 수집하는 비용에 비해 대화 에이전트와 환경의 상호작용이 비용이 적다. 질의 응답에서 환경은 곧 사용자인데, 사용자는 에이전트를 사용하는 것을 주 목적으로 하지만 종종 에이전트가 묻는 질문에 쉽게 답변해 줄 수 있다. 이 과정을 통해 에이전트의 성능이 점차 증가할 수 있다면, 신경망 학습시 방대한 데이터를 모을 필요가 줄어든다. 신경망이 생성된 질문은 WHAT, HOW, HOW, WHEN, WHICH, WHERE, WHY와 같이 의문사를 기준으로 구분되며 각각의 경우에 좋은 정확도를 보일 수 있다. 예를 들어, 신경망은 두 개의 단어와 그들의 관계를 입력으로 받는다. 그리고 한 단어와 해당 관계에 있는 것은 무엇인지를 묻는 형식의 질문을 생성하게 된다. 이처럼 생성된 질문이 만약 기존 질의 응답 데이터셋을 기반으로 한다면 이 질문들을 사용자에게 되묻고 답변을 받는 방법으로 데이터셋을 확장할 수 있다.The relearning unit 330 may relearn the artificial intelligence conversation agent with the determined character. In this case, various methods such as neural network learning, machine learning, and deep learning may be used, and active learning may be used. In this case, active learning means that the agent learns knowledge by itself by interacting with the environment beyond learning the conversational agent with a given dataset. The conversation agent actively acts on the environment, collects information from the environment, and reuses it for learning to improve performance. Looking at human learning, it can be said that it is active learning in that it not only acquires information that is refined, but also works by itself and obtains information. In order for active learning to take place in the question-and-answer field, questions must be generated from conversation agents. The conversation agent asks the generated question to the environment, and the user terminal 100 or big data gives the answer to the conversation agent. In terms of cost, the interaction between the conversation agent and the environment is less expensive than the cost of collecting the dataset. In Q&A, the environment is the user. The main purpose of the user is to use the agent, but it can easily answer the questions the agent asks. If the agent's performance can gradually increase through this process, the need to collect vast amounts of data during neural network training is reduced. The questions generated by the neural network are classified based on questionable words such as WHAT, HOW, HOW, WHEN, WHICH, WHERE, and WHY, and can show good accuracy in each case. For example, a neural network takes two words and their relationship as input. It then creates a question in the form of asking what is related to a word. If the generated question is based on an existing Q&A dataset, we can expand the dataset by asking the user back questions and receiving answers.

설정부(340)는, 사용자 단말(100)에서 캐릭터를 선택하는 경우, 선택된 캐릭터에 대응하는 인공지능 대화 에이전트가 사용자 단말(100)에서 구동되도록 설정할 수 있다. 이때, 사용자 단말(100)은, 개인기록물 데이터에 기반하여 생성된 인공지능 대화 에이전트와 대화를 진행할 수 있다. 그리고, 캐릭터, 즉 "엄마"라는 캐릭터를 선택했다고 할지라도 설정부(340)는 그 상대방이 누구인지, 즉, "엄마"의 몇 번째 자식인지를 확인해야 한다. 설정부(340)는 사용자 단말(100)에서 정의한 관계를 이용할 수도 있고, 대화 히스토리 로그를 통하여 자동으로 상대방을 정의 및 파악할 수도 있다. 상대방과 캐릭터 간의 관계가 정의되었으면, 해당 관계로 학습된 대화 에이전트가 제공될 수 있고, 해당 관계 내에서 생성된 단어 데이터베이스 및 성격 등을 이용하여 대화가 진행될 수 있도록 제어된다.When selecting a character in the user terminal 100, the setting unit 340 may set an artificial intelligence conversation agent corresponding to the selected character to be driven in the user terminal 100. In this case, the user terminal 100 may conduct a conversation with an artificial intelligence conversation agent generated based on the personal record data. And, even if the character, that is, the character "Mother" is selected, the setting unit 340 must check who the other party is, that is, the number of children of the "Mother". The setting unit 340 may use the relationship defined by the user terminal 100, or may automatically define and grasp the other party through the conversation history log. When the relationship between the other party and the character is defined, a conversation agent learned by the relationship may be provided, and the conversation is controlled to proceed using a word database and personality generated within the relationship.

관계정의부(350)는, 사용자 단말(100)의 사용자와 인공지능 대화 에이전트의 캐릭터를 생성할 객체 간의 인적 네트워크를 이루는 관계를 사용자 단말(100)로부터 정의받고, 정의된 관계에 대응하도록 인공지능 대화 에이전트를 학습시킬 수 있다. 그리고, 관계정의부(350)는, 정의된 관계에 대응하도록 단어 데이터베이스를 구축하고, 하나의 캐릭터에 복수의 관계에 대응하는 복수의 단어 데이터베이스가 각각 연동되도록 설정할 수 있다. 이때, 관계 정의에 대해서는 상술한 바와 같으므로 중복된 설명은 생략하기로 한다. The relationship definition unit 350 defines a relationship that forms a human network between a user of the user terminal 100 and an object to create a character of the artificial intelligence conversation agent from the user terminal 100, and has artificial intelligence to correspond to the defined relationship. You can train conversation agents. In addition, the relationship definition unit 350 may establish a word database to correspond to the defined relationship, and set a plurality of word databases corresponding to a plurality of relationships to one character, respectively. At this time, since the relationship definition is the same as described above, a duplicate description will be omitted.

제공부(360)는, 인공지능 대화 에이전트와 사용자 단말(100) 간 대화를 송수신하는 대화 인터페이스를 제공할 수 있다. 이때, 텍스트 기반 대화 인터페이스도 마찬가지지만, 문제가 되는 것은 음성 인터페이스이다. HRI(Human Robot Interaction) 의인화 관련 알고리즘을 이용하여 객체 단말(400)의 객체의 음성 뿐만 아니라, 톤, 어조, 어투 등을 모두 모방하는 대화 에이전트가 제공되어야 한다. 예를 들어, 강세는 운율적 강조의 변화이다. 이를 측정하기 위하여 각각의 음성 구간에서는 평균 에너지, 기본 형태의 주파수 스펙트럼 엔트로피를 추출하고, 이후 에너지, 포먼트 주파수와 스펙트럼 엔트로피의 평균 스케일 표준편차의 추정치를 얻는다. 이러한 표준 편차는 z-scored의 합을 중점으로 하여 말하는 강세를 측정하고, 이를 대화 에이전트에 적용하여 훈련 및 학습을 하도록 하는 것이다. 마찬가지로, 음성, 어조(Tone), 사투리 여부, 사용하는 단어 데이터베이스 등을 학습하도록 할 수 있다.The providing unit 360 may provide a conversation interface for transmitting and receiving a conversation between the artificial intelligence conversation agent and the user terminal 100. At this time, the same is true for the text-based conversation interface, but the problem is the voice interface. A conversation agent that imitates not only the voice of the object of the object terminal 400, but also tone, tone, tone, etc. should be provided using an algorithm related to human robot interaction (HRI) personification. For example, stress is a change in rhyme emphasis. To measure this, average energy and frequency spectrum entropy of the basic form are extracted from each voice section, and then an estimate of the average scale standard deviation of energy, formant frequency and spectral entropy is obtained. This standard deviation measures speaking stress by focusing on the sum of z-scoreds, and applies it to conversational agents to train and learn. Similarly, it is possible to learn the voice, tone, dialect, and word database to be used.

접속부(370)는, 사용자 단말(100)에서 대화 에이전트의 캐릭터를 생성할 객체의 객체 단말의 식별자가 입력되는 경우, 식별자에 기반하여 객체 단말을 검색하고, 검색된 객체 단말에 포함된 적어도 하나의 콘텐츠를 수집할 수 있다. 예를 들어, 고인이된 객체의 자료를 찾기 위해서는 사용자 단말(100)로부터 수집할 수도 있지만, 객체 단말(400)에 직접 접속하여 자료를 수집하는 것이 더 다양한 자료를 수집할 확률이 높다. 이에 따라, 접속부(370)에서 예를 들어 MAC 주소를 제공했다고 가정하면, MAC 주소로 객체 단말(400)을 검색하여 객체 단말(400)로 자료를 요청하고 수신하는 과정을 거치면서 개인기록물 데이터를 수집할 수 있다.When the identifier of the object terminal of the object for which the character of the conversation agent is to be created is input from the user terminal 100, the connection unit 370 searches for the object terminal based on the identifier, and at least one content included in the searched object terminal Can be collected. For example, in order to find the data of the deceased object, it may be collected from the user terminal 100, but it is more likely to collect data by directly accessing the object terminal 400 to collect data. Accordingly, assuming that the access unit 370 provides, for example, a MAC address, the object terminal 400 is searched for the MAC address to request and receive data from the object terminal 400, while the personal record data is stored. Can be collected.

개인기록물 데이터를 수집할 때, 빅데이터를 구축하는 방법을 이용할 수도 있다. 하나의 객체라도 각 캐릭터별, 성격별로 분류되기 위해서는 다양한 자료가 필요하기 위함이다. 이때, 인공지능 대화 서비스 제공 서버(300)는, 수집된 로우 데이터(Raw Data)를 병렬 및 분산하여 저장할 수 있고, 저장된 로우 데이터 내에 포함된 비정형(Unstructed) 데이터, 정형(Structured) 데이터 및 반정형 데이터(Semi-structured)를 정제하고, 메타 데이터로 분류를 포함한 전처리를 실시할 수 있고, 전처리된 데이터를 데이터 마이닝(Data Mining)을 포함하는 분석을 실시할 수 있다. 그리고, 인공지능 대화 서비스 제공 서버(300)는, 분석된 데이터를 시각화하여 출력할 수 있다. 이때, 데이터 마이닝은, 전처리된 데이터 간의 내재된 관계를 탐색하여 클래스가 알려진 훈련 데이터 셋을 학습시켜 새로운 데이터의 클래스를 예측하는 분류(Classification) 또는 클래스 정보 없이 유사성을 기준으로 데이터를 그룹짓는 군집화(Clustering)를 수행할 수 있다. 물론, 이외에도 다양한 마이닝 방법이 존재할 수 있으며, 수집 및 저장되는 빅데이터의 종류나 이후에 요청될 질의(Query)의 종류에 따라 다르게 마이닝될 수도 있다. 이렇게 구축된 빅데이터는, 인공신경망 딥러닝이나 기계학습 등으로 검증과정을 거칠 수도 있다. When collecting personal record data, you can also use a method of constructing big data. This is because even one object needs various data to be classified by each character and personality. At this time, the artificial intelligence conversation service providing server 300 may store collected raw data in parallel and distributed, and unstructured data, structured data, and semi-structured data included in the stored raw data Data (semi-structured) can be refined, pre-processing including classification as meta data can be performed, and analysis including data mining of pre-processed data can be performed. In addition, the artificial intelligence conversation service providing server 300 may visualize and output the analyzed data. At this time, in data mining, classification (Classification), which predicts a class of new data by learning a training data set with a known class by searching for an intrinsic relationship between preprocessed data, or clustering that group data based on similarity without class information ( Clustering) can be performed. Of course, there may be various other mining methods, and may be mined differently according to the type of big data to be collected and stored or the type of query to be requested later. The big data constructed in this way may be verified through deep learning or machine learning of artificial neural networks.

이때, 인공 신경망은 CNN(Convolutional neural network) 구조가 이용될 수 있는데, CNN은 컨볼루션 층을 이용한 네트워크 구조로 이미지 처리에 적합하며, 이미지 데이터를 입력으로 하여 이미지 내의 특징을 기반으로 이미지를 분류할 수 있기 때문이다. 또한, 텍스트 마이닝(Text Mining)은 비/반정형 텍스트 데이터에서 자연어처리 기술에 기반하여 유용한 정보를 추출, 가공하는 것을 목적으로 하는 기술이다. 텍스트 마이닝 기술을 통해 방대한 텍스트 뭉치에서 의미 있는 정보를 추출해 내고, 다른 정보와의 연계성을 파악하며, 텍스트가 가진 카테고리를 찾아내거나 단순한 정보 검색 그 이상의 결과를 얻어낼 수 있다. 이를 이용하여, 본 발명의 일 실시예에 따른 인공지능 대화 서비스에서는, 질의로 입력되는 식별자나 자연어를 분석하고, 그 안에 숨겨진 정보를 발굴해 내기 위해 대용량 언어자원과 통계적, 규칙적 알고리즘이 사용될 수 있다. 또한, 클러스터 분석(Cluster Analysis)은, 비슷한 특성을 가진 객체를 합쳐가면서 최종적으로 유사 특성의 그룹을 발굴하는데 사용될 수 있다.At this time, the artificial neural network can use a CNN (Convolutional neural network) structure, which is a network structure using a convolutional layer, which is suitable for image processing, and can classify images based on features in the image by inputting image data. Because it can. In addition, text mining is a technology that aims to extract and process useful information from non/semi-structured text data based on natural language processing technology. Through text mining technology, meaningful information can be extracted from a vast bundle of texts, linkages with other information can be grasped, and the results can be obtained beyond finding a category of text or simply searching for information. Using this, in the artificial intelligence conversation service according to an embodiment of the present invention, large-capacity language resources and statistical and regular algorithms can be used to analyze an identifier or natural language input as a query and discover hidden information therein. . In addition, cluster analysis can be used to finally discover groups of similar characteristics while combining objects with similar characteristics.

이하, 상술한 도 2의 인공지능 대화 서비스 제공 서버의 구성에 따른 동작 과정을 도 3을 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.Hereinafter, the operation process according to the configuration of the artificial intelligence conversation service providing server of FIG. 2 will be described in detail with reference to FIG. 3 as an example. However, it will be apparent that the embodiment is only any one of various embodiments of the present invention, and is not limited thereto.

도 3을 참조하면, (a) 인공지능 대화 서비스 제공 서버(300)는 사용자 단말(100)로부터 개인기록물 데이터를 수집하고, 객체 단말(400)에 엑세스하여 자료를 수집한다. 그리고, (b) 인공지능 대화 서비스 제공 서버(300)는, 객체 단말(400)의 객체에 대한 캐릭터를 정립하고 인간관계별로 성격을 정의하여 캐릭터 및 관계별 성격을 분석, 학습 및 훈련하도록 한다. 또한, (c) 인공지능 대화 서비스 제공 서버(300)는 분석된 캐릭터 및 성격으로 대화 에이전트를 학습시키고, (d) 사용자 단말(100)의 사용자를 식별하여 대화 인터페이스를 제공한다.Referring to FIG. 3, (a) the artificial intelligence dialogue service providing server 300 collects personal record data from the user terminal 100 and accesses the object terminal 400 to collect data. Then, (b) the artificial intelligence dialogue service providing server 300 establishes a character for an object of the object terminal 400 and defines a personality for each human relationship to analyze, learn, and train the character and personality for each relationship. In addition, (c) the artificial intelligence dialogue service providing server 300 learns the dialogue agent based on the analyzed character and personality, and (d) identifies the user of the user terminal 100 to provide a dialogue interface.

이와 같은 도 2 및 도 3의 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.Matters that are not described for the method of providing artificial intelligence conversation service based on personal records data of FIGS. 2 and 3 are the same as or described above for the method of providing artificial intelligence conversation service based on personal records data through FIG. Since it can be easily inferred from the contents, the description will be omitted below.

도 4는 본 발명의 일 실시예에 따른 도 1의 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템에 포함된 각 구성들 상호 간에 데이터가 송수신되는 과정을 나타낸 도면이다. 이하, 도 4를 통해 각 구성들 상호간에 데이터가 송수신되는 과정의 일 예를 설명할 것이나, 이와 같은 실시예로 본원이 한정 해석되는 것은 아니며, 앞서 설명한 다양한 실시예들에 따라 도 4에 도시된 데이터가 송수신되는 과정이 변경될 수 있음은 기술분야에 속하는 당업자에게 자명하다.4 is a diagram illustrating a process of transmitting and receiving data between components included in the system for providing an artificial intelligence conversation service based on personal record data of FIG. 1 according to an embodiment of the present invention. Hereinafter, an example of a process in which data is transmitted/received between each component will be described with reference to FIG. 4, but the present application is not limitedly interpreted as such an embodiment, as illustrated in FIG. 4 according to various embodiments described above. It is apparent to those skilled in the art that the process of transmitting and receiving data may be changed.

도 4를 참조하면, 인공지능 대화 서비스 제공 서버(300)는, 사용자 단말(100)로부터 개인기록물 데이터를 제공받아(S4100) 저장한다(S4200). 그리고, 인공지능 대화 서비스 제공 서버(300)는 사용자 단말(100)로부터 사용자와 객체 간의 관계를 정의하는 정의 데이터를 입력받고(S4300), 사용자와 객체 간 관계를 정의 및 저장하고(S4400), 객체 단말(400)로 엑세스하여 자료를 더 수집한 다음(S4500), 수집한 데이터의 분석을 시작한다(S4600).Referring to FIG. 4, the artificial intelligence conversation service providing server 300 receives personal record data from the user terminal 100 (S4100) and stores it (S4200). In addition, the artificial intelligence dialogue service providing server 300 receives definition data defining the relationship between the user and the object from the user terminal 100 (S4300), defines and stores the relationship between the user and the object (S4400), and After accessing the terminal 400 to collect more data (S4500), analysis of the collected data is started (S4600).

분석 결과에 기반하여 인공지능 대화 서비스 제공 서버(300)는, 대화 에이전트의 캐릭터를 생성하고(S4610), 캐릭터를 기반으로 관계별 성격을 추출하고(S4700), 관계별 단어 데이터베이스를 구축하며(S4800), 이를 기반으로 학습을 진행한다(S4810). 인공지능 대화 서비스 제공 서버(300)는, 학습이 완료되고 난 후에는 사용자 단말(100)에서 대화를 요청하면 대화 인터페이스를 제공하고(S4900), 성격에 의문을 제기하는 단어 또는 문장이 입력되는 경우(S4910), 성격에 의문을 제기하기 직전의 대화를 수집하여 오류 피드백으로 저장하고 재학습을 시작한다(S4920).Based on the analysis result, the artificial intelligence dialogue service providing server 300 generates a character of the dialogue agent (S4610), extracts personality for each relationship based on the character (S4700), and builds a word database for each relationship (S4800). ), the learning is conducted based on this (S4810). The artificial intelligence conversation service providing server 300 provides a conversation interface when a conversation is requested from the user terminal 100 after the learning is completed (S4900), and a word or sentence that raises questions about personality is input. (S4910), the conversation immediately before raising a question about the personality is collected, stored as an error feedback, and relearning is started (S4920).

상술한 단계들(S4100~S4920)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S4100~S4920)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.The order between the above-described steps S4100 to S4920 is only an example and is not limited thereto. That is, the order of the above-described steps (S4100 to S4920) may be mutually changed, and some of the steps may be executed or deleted at the same time.

이와 같은 도 4의 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 3을 통해 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described with respect to the method of providing an artificial intelligence dialogue service based on personal records data of FIG. 4 are the same as or described above with respect to the method of providing an artificial intelligence dialogue service based on personal records data through FIGS. 1 to 3. Since it can be easily inferred from the contents, the description will be omitted below.

도 5는 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법을 설명하기 위한 동작 흐름도이다. 도 5를 참조하면, 인공지능 대화 서비스 제공 서버는, 사용자 단말로부터 적어도 하나의 종류의 개인기록물 데이터를 수집하고(S5100), 수집된 개인기록물 데이터를 학습하여 인공지능 대화 에이전트의 캐릭터를 결정한다(S5200).5 is a flowchart illustrating a method of providing an artificial intelligence conversation service based on personal record data according to an embodiment of the present invention. 5, the artificial intelligence conversation service providing server collects at least one type of personal record data from a user terminal (S5100), learns the collected personal record data, and determines a character of the artificial intelligence conversation agent ( S5200).

그리고, 인공지능 대화 서비스 제공 서버는, 결정된 캐릭터로 인공지능 대화 에이전트를 재학습하고(S5300), 사용자 단말에서 캐릭터를 선택하는 경우, 선택된 캐릭터에 대응하는 인공지능 대화 에이전트가 사용자 단말에서 구동되도록 설정한다(S5400).And, the artificial intelligence dialogue service providing server re-learns the artificial intelligence dialogue agent with the determined character (S5300), and when a character is selected in the user terminal, the artificial intelligence dialogue agent corresponding to the selected character is set to run on the user terminal. Do (S5400).

이와 같은 도 5의 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.The matters not described with respect to the method of providing an artificial intelligence dialogue service based on personal records data of FIG. 5 are the same as or described above with respect to the method of providing an artificial intelligence dialogue service based on personal records data through FIGS. 1 to 4 above. Since it can be easily inferred from the contents, the description will be omitted below.

도 5를 통해 설명된 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method of providing an artificial intelligence conversation service based on personal records data according to an embodiment described with reference to FIG. 5 is also implemented in the form of a recording medium including instructions executable by a computer such as an application executed by a computer or a program module. Can be. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 개인기록물 데이터 기반 인공지능 대화 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.In the above-described method for providing an artificial intelligence conversation service based on personal records data according to an embodiment of the present invention, an application basically installed on a terminal (this may include a program included in a platform or operating system basically mounted on the terminal). It may be executed by, and may be executed by an application (ie, a program) directly installed on the master terminal by a user through an application providing server such as an application store server, an application, or a web server related to the service. In this sense, the method for providing an artificial intelligence conversation service based on personal records data according to an embodiment of the present invention described above is implemented as an application (i.e., a program) installed in a terminal or directly installed by a user, and It can be recorded on a recording medium that can be read by.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

Claims (6)

인공지능 대화 에이전트의 캐릭터를 생성할 적어도 하나의 종류의 개인기록물 데이터를 제공하고, 상기 개인기록물 데이터에 기반하여 생성된 인공지능 대화 에이전트와 대화를 진행하는 사용자 단말; 및
상기 사용자 단말로부터 적어도 하나의 종류의 개인기록물 데이터를 수집하는 수집부, 상기 수집된 개인기록물 데이터를 학습하여 인공지능 대화 에이전트의 캐릭터를 결정하는 결정부, 상기 결정된 캐릭터로 상기 인공지능 대화 에이전트를 재학습시키는 재학습부, 상기 사용자 단말에서 상기 캐릭터를 선택하는 경우, 상기 선택된 캐릭터에 대응하는 인공지능 대화 에이전트가 상기 사용자 단말에서 구동되도록 설정하는 설정부를 포함하는 인공지능 대화 서비스 제공 서버;
를 포함하는 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템.
A user terminal that provides at least one type of personal record data for generating a character of the artificial intelligence chat agent, and conducts a chat with the artificial intelligence chat agent generated based on the personal record data; And
A collection unit that collects at least one type of personal record data from the user terminal, a determination unit that learns the collected personal record data to determine a character of an artificial intelligence conversation agent, and replays the artificial intelligence conversation agent with the determined character. An artificial intelligence dialogue service providing server including a relearning unit for learning, and a setting unit for setting an artificial intelligence dialogue agent corresponding to the selected character to be driven on the user terminal when the character is selected in the user terminal;
Personal record data-based artificial intelligence dialogue service providing system comprising a.
제 1 항에 있어서,
상기 개인기록물 데이터는, 동영상, 대화 히스토리 로그, 사진을 포함한 이미지, 음성 데이터, 및 서식기록 데이터를 포함하는 것을 특징으로 하는 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템.
The method of claim 1,
The personal record data includes a video, a conversation history log, an image including a photo, audio data, and form record data.
제 1 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
상기 사용자 단말의 사용자와 상기 인공지능 대화 에이전트의 캐릭터를 생성할 객체 간의 인적 네트워크를 이루는 관계를 상기 사용자 단말로부터 정의받고, 상기 정의된 관계에 대응하도록 상기 인공지능 대화 에이전트를 학습시키는 관계정의부;
를 더 포함하는 것을 특징으로 하는 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템.
The method of claim 1,
The artificial intelligence conversation service providing server,
A relationship defining unit that defines a relationship forming a human network between a user of the user terminal and an object to generate a character of the artificial intelligence conversation agent from the user terminal, and learns the artificial intelligence conversation agent to correspond to the defined relationship;
Personal record data-based artificial intelligence dialogue service providing system, characterized in that it further comprises.
제 3 항에 있어서,
상기 관계정의부는,
상기 정의된 관계에 대응하도록 단어 데이터베이스를 구축하고, 하나의 캐릭터에 복수의 관계에 대응하는 복수의 단어 데이터베이스가 각각 연동되도록 설정하는 것을 특징으로 하는 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템.
The method of claim 3,
The relationship definition unit,
A system for providing an artificial intelligence conversation service based on personal records data, characterized in that a word database is constructed to correspond to the defined relationship, and a plurality of word databases corresponding to a plurality of relationships are set to be linked to one character.
제 1 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
상기 인공지능 대화 에이전트와 상기 사용자 단말 간 대화를 송수신하는 대화 인터페이스를 제공하는 제공부;
를 더 포함하는 것을 특징으로 하는 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템.
The method of claim 1,
The artificial intelligence conversation service providing server,
A providing unit that provides a conversation interface for transmitting and receiving a conversation between the artificial intelligence conversation agent and the user terminal;
Personal record data-based artificial intelligence dialogue service providing system, characterized in that it further comprises.
제 1 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
상기 사용자 단말에서 상기 대화 에이전트의 캐릭터를 생성할 객체의 객체 단말의 식별자가 입력되는 경우, 상기 식별자에 기반하여 상기 객체 단말을 검색하고, 상기 검색된 객체 단말에 포함된 적어도 하나의 콘텐츠를 수집하는 접속부;
를 더 포함하는 것을 특징으로 하는 개인기록물 데이터 기반 인공지능 대화 서비스 제공 시스템.
The method of claim 1,
The artificial intelligence conversation service providing server,
When the user terminal inputs the identifier of the object terminal of the object for which the character of the conversation agent is to be created, the connection unit searches for the object terminal based on the identifier and collects at least one content included in the searched object terminal ;
Personal record data-based artificial intelligence dialogue service providing system, characterized in that it further comprises.
KR1020190068954A 2019-06-11 2019-06-11 System for providing personal recording data based ai chatting service KR20200141863A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190068954A KR20200141863A (en) 2019-06-11 2019-06-11 System for providing personal recording data based ai chatting service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190068954A KR20200141863A (en) 2019-06-11 2019-06-11 System for providing personal recording data based ai chatting service

Publications (1)

Publication Number Publication Date
KR20200141863A true KR20200141863A (en) 2020-12-21

Family

ID=74090498

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190068954A KR20200141863A (en) 2019-06-11 2019-06-11 System for providing personal recording data based ai chatting service

Country Status (1)

Country Link
KR (1) KR20200141863A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008842A1 (en) * 2021-07-26 2023-02-02 마인드로직 주식회사 Artificial intelligence conversation engine learning method and system thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023008842A1 (en) * 2021-07-26 2023-02-02 마인드로직 주식회사 Artificial intelligence conversation engine learning method and system thereof

Similar Documents

Publication Publication Date Title
KR101925440B1 (en) Method for providing vr based live video chat service using conversational ai
JP6753707B2 (en) Artificial intelligence system that supports communication
WO2021093821A1 (en) Intelligent assistant evaluation and recommendation methods, system, terminal, and readable storage medium
CN108536681A (en) Intelligent answer method, apparatus, equipment and storage medium based on sentiment analysis
US20150012464A1 (en) Systems and Methods for Creating and Implementing an Artificially Intelligent Agent or System
Paliwal et al. Ai chatbots: Transforming the digital world
Hung et al. Towards a method for evaluating naturalness in conversational dialog systems
Wilks et al. A prototype for a conversational companion for reminiscing about images
KR20190046062A (en) Method and apparatus of dialog scenario database constructing for dialog system
Baker et al. Approaches for assessing communication in human-autonomy teams
KR20220001875A (en) Method for providing cognitive training contents using assignment allocation for prevention of dementia
Huang et al. Developing context-aware dialoguing services for a cloud-based robotic system
El Hefny et al. Towards a generic framework for character-based chatbots
Zhang et al. Internet of brain, thought, thinking, and creation
Engelmann et al. Argumentation as a method for explainable AI: A systematic literature review
KR20200141863A (en) System for providing personal recording data based ai chatting service
Justo et al. Exploring ontologies to improve the empathy of interactive bots
Acharya et al. AtheNA an avid traveller using LSTM based RNN architecture
KR20200109704A (en) System for providing research paper consulting service with thesis advice contents corresponding to thesis dissertation calendar
Kaviya et al. Artificial intelligence based farmer assistant chatbot
Yadav et al. An Empirical Study of Design Techniques of Chatbot, a Review
WO2022208953A1 (en) Information processing system and virtual human resource
KR102166798B1 (en) Method for providing super self-management service with consulting and mentoring per step of life value house for effective executive
KR102599369B1 (en) CUSTOMIZED CONTENT PROVIDING SYSTEM ANS METHOD FOR PROVIDING WebRTC-BASED REAL-TIME CHAT SERVICE
Mallios Virtual doctor: an intelligent human-computer dialogue system for quick response to people in need

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application