KR20210093004A - Method and system for providing conversation with artificial intelligence character through user interface - Google Patents

Method and system for providing conversation with artificial intelligence character through user interface Download PDF

Info

Publication number
KR20210093004A
KR20210093004A KR1020200006619A KR20200006619A KR20210093004A KR 20210093004 A KR20210093004 A KR 20210093004A KR 1020200006619 A KR1020200006619 A KR 1020200006619A KR 20200006619 A KR20200006619 A KR 20200006619A KR 20210093004 A KR20210093004 A KR 20210093004A
Authority
KR
South Korea
Prior art keywords
user
artificial intelligence
user interface
message
character
Prior art date
Application number
KR1020200006619A
Other languages
Korean (ko)
Inventor
김용우
김진욱
Original Assignee
마인드로직 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마인드로직 주식회사 filed Critical 마인드로직 주식회사
Priority to KR1020200006619A priority Critical patent/KR20210093004A/en
Publication of KR20210093004A publication Critical patent/KR20210093004A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/02User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Tourism & Hospitality (AREA)
  • Operations Research (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Disclosed are a method and a system for providing a conversation service with artificial intelligence characters through a user interface. According to one embodiment of the present invention, a dialogue service providing system implemented as a computer system includes at least one processor embodied to execute computer readable instructions, and the at least one processor includes: an artificial intelligence character management unit for selecting an artificial intelligence character in response to a character selection input received from a user's terminal; and a dialogue service management unit which provides a dialogue service with the selected artificial intelligence character to the user's terminal.

Description

사용자 인터페이스를 통한 인공지능 캐릭터와의 대화 서비스 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING CONVERSATION WITH ARTIFICIAL INTELLIGENCE CHARACTER THROUGH USER INTERFACE}Method and system for providing conversation service with artificial intelligence characters through user interface {METHOD AND SYSTEM FOR PROVIDING CONVERSATION WITH ARTIFICIAL INTELLIGENCE CHARACTER THROUGH USER INTERFACE}

아래의 실시예들은 사용자 인터페이스를 통한 인공지능 캐릭터와의 대화 서비스 제공 시스템 및 그 방법에 관한 기술이다.The following embodiments are a description of a system for providing a conversation service with an artificial intelligence character through a user interface and a method therefor.

최근 인공지능의 학습에 딥 러닝(Deep learning) 기법이 사용됨에 따라, 인공지능의 활용 분야가 확대되고 있다. 일례로, 인공지능은 사용자의 명령에 응답하여 명령에 따른 작업을 수행하는 용도뿐만 아니라, 사용자의 질문에 답하여 정보를 제공하는 용도로도 사용되고 있다. 정보 제공의 용도로 사용되는 인공지능과 관련된 기술은 한국공개특허 제2019-0100484호에 개시되어 있다.Recently, as deep learning techniques are used for learning artificial intelligence, the field of application of artificial intelligence is expanding. For example, artificial intelligence is used not only for the purpose of performing a task according to the command in response to the user's command, but also for the purpose of providing information in response to the user's question. A technology related to artificial intelligence used for the purpose of providing information is disclosed in Korean Patent Application Laid-Open No. 2019-0100484.

그러나 기존의 인공지능 기술은 명령 수행 또는 정보 제공 등으로만 활용되는 것과 같이 엔터테인먼트적인 요소가 결여된 서비스만을 제공하고 있다.However, the existing AI technology only provides services lacking entertainment elements, such as being used only for command execution or information provision.

이에, 아래의 실시예들은 엔터테인먼트적인 요소를 가미하여 사용자와 일상적인 대화를 나누는 인공지능 캐릭터에 대한 기술을 제안하고자 한다.Accordingly, the following embodiments are intended to propose a technology for an artificial intelligence character having a daily conversation with a user by adding an entertainment element.

일 실시예들은 엔터테인먼트적인 요소를 가미하여 사용자와 일상적인 대화를 나누는 인공지능 캐릭터에 대한 기술을 제안한다.One embodiment proposes a description of an artificial intelligence character having a daily conversation with a user by adding an entertainment element.

보다 상세하게, 일 실시예들은 사용자로 하여금 실제 존재하는 사람과 대화하는 듯한 기분을 느끼도록 사용자 인터페이스를 구성하고, 구성된 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 방법 및 시스템을 제안한다.More specifically, one embodiment proposes a method and system for configuring a user interface so that the user feels as if he or she is talking to a real person, and providing a conversation service with an artificial intelligence character through the configured user interface. .

일 실시예에 따르면, 컴퓨터 시스템으로 구현되는 대화 서비스 제공 시스템은, 컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 사용자의 단말에 대화 형식의 사용자 인터페이스를 구성하는 사용자 인터페이스 관리부; 및 상기 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 대화 서비스 관리부를 포함한다.According to an embodiment, a dialog service providing system implemented as a computer system includes at least one processor embodied to execute a computer readable instruction, wherein the at least one processor is configured to provide a user terminal in a conversational format to the user's terminal. a user interface management unit constituting an interface; and a dialogue service management unit that provides a dialogue service with an artificial intelligence character through the user interface.

일측에 따르면, 상기 대화 서비스 관리부는, 상기 사용자 인터페이스를 통해, 상기 사용자의 메시지에 응답하여 상기 인공지능 캐릭터의 메시지를 생성 및 출력하거나, 상기 사용자의 메시지를 유도하는 상기 인공지능 캐릭터의 메시지를 생성 및 출력할 수 있다.According to one side, the conversation service management unit, through the user interface, in response to the user's message to generate and output the message of the artificial intelligence character, or generate the message of the artificial intelligence character inducing the message of the user and output.

다른 일측에 따르면, 상기 사용자 인터페이스 관리부는, 상기 사용자 인터페이스와 구분되는 별도의 모드 선택 인터페이스를 상기 사용자 인터페이스 상에 디스플레이하고, 상기 대화 서비스 관리부는, 상기 모드 선택 인터페이스에서 발생되는 상기 사용자의 모드 선택 입력에 응답하여, 상기 인공지능 캐릭터의 대화 서비스 모드를 설정할 수 있다.According to another aspect, the user interface management unit displays a separate mode selection interface, which is distinct from the user interface, on the user interface, and the conversation service management unit includes the user's mode selection input generated from the mode selection interface. In response, the conversation service mode of the artificial intelligence character may be set.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 상기 설정된 대화 서비스 모드에 기초하여, 상기 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 상기 인공지능 캐릭터의 메시지의 양, 내용 중 적어도 하나를 조절할 수 있다.According to another side, the conversation service management unit, based on the set conversation service mode, at least one of the frequency, period, or the amount and content of the message of the artificial intelligence character is generated and output. can be adjusted

또 다른 일측에 따르면, 상기 사용자 인터페이스 관리부는, 상기 사용자 인터페이스와 구분되는 별도의 음성 온(On)/오프(Off) 선택 인터페이스를 상기 사용자 인터페이스 상에 디스플레이하고, 상기 대화 서비스 관리부는, 상기 음성 /오프 선택 인터페이스에서 발생되는 상기 사용자의 음성 온/오프 선택 입력에 응답하여, 상기 인공지능 캐릭터의 메시지가 음성으로 출력되는 것을 제어할 수 있다.According to another side, the user interface management unit displays a separate voice on/off selection interface that is distinct from the user interface on the user interface, and the conversation service management unit includes the voice / In response to the user's voice on/off selection input generated in the off selection interface, output of the message of the artificial intelligence character as a voice may be controlled.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 상기 음성 온/오프 선택 인터페이스에서 음성 온 선택 입력이 발생되는 경우 상기 인공지능 캐릭터의 메시지를 음성으로 출력하고, 상기 음성 온/오프 선택 인터페이스에서 음성 오프 선택 입력이 발생되는 경우 상기 인공지능 캐릭터의 메시지를 텍스트로 출력할 수 있다.According to another side, the conversation service management unit, when a voice on selection input is generated in the voice on/off selection interface, outputs the message of the artificial intelligence character as a voice, and turns off the voice in the voice on/off selection interface When a selection input is generated, the message of the artificial intelligence character may be output as text.

또 다른 일측에 따르면, 상기 모드 선택 인터페이스 또는 상기 음성 온/오프 선택 인터페이스 중 적어도 하나의 인터페이스는, 상기 사용자 인터페이스 상에서 발생되는 상기 사용자의 호출 입력에 응답하여, 상기 사용자 인터페이스의 적어도 일부에 오버랩(Overlap)되며 디스플레이될 수 있다.According to another aspect, at least one of the mode selection interface and the voice on/off selection interface may overlap at least a portion of the user interface in response to the user's call input generated on the user interface. ) and can be displayed.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 상기 사용자의 저장 요청에 응답하여, 상기 사용자 인터페이스를 통해 제공된 상기 인공지능 캐릭터와의 대화 서비스를 저장할 수 있다.According to another aspect, the conversation service manager may store the conversation service with the artificial intelligence character provided through the user interface in response to the user's request for storage.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 상기 인공지능 캐릭터의 메시지가 텍스트로 출력된 상기 사용자 인터페이스의 상기 인공지능 캐릭터의 메시지, 스크린샷(Screenshot)을 저장하거나, 상기 인공지능 캐릭터의 메시지가 상기 사용자의 단말의 스피커를 통해 출력된 음성과 관련된 데이터를 저장할 수 있다.According to another side, the conversation service manager may store a message or a screenshot of the artificial intelligence character of the user interface in which the message of the artificial intelligence character is output as text, or the message of the artificial intelligence character is Data related to the voice output through the speaker of the user's terminal may be stored.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 상기 사용자의 단말에 상기 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션 내에 상기 인공지능 캐릭터와의 대화 서비스를 저장할 수 있다.According to another aspect, the conversation service management unit may store the conversation service with the artificial intelligence character in an application installed in relation to the conversation service management system in the user's terminal.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 상기 사용자의 단말에 설치된 어플리케이션들 중 상기 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션을 제외한 나머지 어플리케이션을 통해, 상기 인공지능 캐릭터의 메시지 중 적어도 일부를 제공할 수 있다.According to another side, the conversation service management unit may provide at least a portion of the message of the artificial intelligence character through the remaining applications other than the applications installed in relation to the conversation service management system among the applications installed in the user's terminal. can

또 다른 일측에 따르면, 상기 사용자 인터페이스 관리부는, 상기 인공지능 캐릭터의 사진을 기초로 상기 사용자 인터페이스의 배경을 구성할 수 있다.According to another aspect, the user interface manager may configure the background of the user interface based on the picture of the artificial intelligence character.

또 다른 일측에 따르면, 상기 대화 서비스 관리부는, 사전에 입력된 상기 사용자의 알림 입력에 응답하여, 상기 사용자의 단말에 설치된 어플리케이션들 중 상기 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션을 제외한 나머지 어플리케이션 또는 상기 사용자 인터페이스를 통해 상기 인공지능 캐릭터의 메시지를 알람으로 제공할 수 있다.According to another aspect, in response to the user's notification input input in advance, the chat service management unit may include, among applications installed in the user's terminal, other applications other than the applications installed in relation to the chat service management system or the A message of the AI character may be provided as an alarm through the user interface.

일 실시예에 따르면, 컴퓨터 시스템에 의해 수행되는 대화 서비스 제공 방법은, 사용자의 단말에 대화 형식의 사용자 인터페이스를 구성하는 단계; 및 상기 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 단계를 포함한다.According to an embodiment, a method for providing a conversation service performed by a computer system includes: configuring a user interface of a conversation type in a user's terminal; and providing a conversation service with an artificial intelligence character through the user interface.

일 실시예에 따르면, 컴퓨터 시스템과 결합되어 대화 서비스 제공 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램에 있어서, 상기 대화 서비스 제공 방법은, 사용자의 단말에 대화 형식의 사용자 인터페이스를 구성하는 단계; 및 상기 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 단계를 포함한다.According to an embodiment, in a computer program recorded on a computer-readable recording medium in combination with a computer system to execute a method for providing a dialogue service, the method for providing a dialogue service comprises configuring a user interface of a dialogue type in a user's terminal. to do; and providing a conversation service with an artificial intelligence character through the user interface.

일 실시예들은 엔터테인먼트적인 요소를 가미하여 사용자와 일상적인 대화를 나누는 인공지능 캐릭터에 대한 기술을 제안할 수 있다.One embodiment may propose a technology for an artificial intelligence character having a daily conversation with a user by adding an entertainment element.

보다 상세하게, 일 실시예들은 사용자로 하여금 실제 존재하는 사람과 대화하는 듯한 기분을 느끼도록 사용자 인터페이스를 구성하고, 구성된 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 방법 및 시스템을 제안한다.More specifically, one embodiment proposes a method and system for configuring a user interface so that the user feels as if he or she is talking to a real person, and providing a conversation service with an artificial intelligence character through the configured user interface. .

도 1은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2는 일 실시예에 있어서 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 3은 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이다.
도 4는 일 실시예에 따른 대화 서비스 제공 방법을 도시한 플로우 차트이다.
도 5 내지 6은 일 실시예에 따른 대화 서비스 제공 방법에서 구성된 사용자 인터페이스가 표시되는 사용자의 단말 상 서비스 화면을 나타낸 도면이다.
도 7은 일 실시예에 따른 대화 서비스 제공 방법에서 호출될 수 있는 인공지능 캐릭터 인터페이스가 표시되는 사용자의 단말 상 서비스 화면을 나타낸 도면이다.
도 8은 일 실시예에 따른 대화 서비스 제공 방법에서 사용자의 단말이 스피커 모드 상태 또는 이어폰 모드 상태인지를 판단하여 대화 서비스를 상이하게 제공하는 것을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 대화 서비스 제공 방법에서 호출되는 모드 선택 인터페이스가 디스플레이되는 사용자의 단말 상 서비스 화면을 나타낸 도면이다.
도 10은 일 실시예에 따른 대화 서비스 제공 방법에서 호출되는 음성 온/오프 선택 인터페이스가 디스플레이되는 사용자의 단말 상 서비스 화면을 나타낸 도면이다.
도 11은 일 실시예에 따른 대화 서비스 제공 방법에서 대화 서비스를 저장하는 저장 인터페이스가 디스플레이되는 사용자의 단말 상 서비스 화면을 나타낸 도면이다.
1 is a diagram illustrating an example of a network environment according to an embodiment.
2 is a block diagram illustrating internal configurations of an electronic device and a server according to an embodiment.
3 is a block diagram illustrating an example of components that a processor of a server may include according to an embodiment.
4 is a flowchart illustrating a method of providing a conversation service according to an exemplary embodiment.
5 to 6 are diagrams illustrating a service screen on a user's terminal on which a user interface configured in a method for providing a conversation service according to an embodiment is displayed.
7 is a diagram illustrating a service screen on a user's terminal on which an artificial intelligence character interface that can be called in a method of providing a conversation service according to an embodiment is displayed.
FIG. 8 is a diagram for explaining differently providing a conversation service by determining whether a user's terminal is in a speaker mode state or an earphone mode in a method for providing a conversation service according to an embodiment.
9 is a diagram illustrating a service screen on a user's terminal on which a mode selection interface called in a method for providing a conversation service according to an embodiment is displayed.
10 is a diagram illustrating a service screen on a user's terminal on which a voice on/off selection interface called in a method for providing a conversation service according to an embodiment is displayed.
11 is a diagram illustrating a service screen on a user's terminal on which a storage interface for storing a chat service is displayed in a method for providing a chat service according to an embodiment.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the examples. In addition, like reference numerals in each figure denote like members.

또한, 본 명세서에서 사용되는 용어(terminology)들은 본 발명의 바람직한 실시예를 적절히 표현하기 위해 사용된 용어들로서, 이는 사용자, 운용자의 의도 또는 본 발명이 속하는 분야의 관례 등에 따라 달라질 수 있다. 따라서, 본 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, the terms used in this specification are terms used to properly express the preferred embodiment of the present invention, which may vary according to the intention of a user or operator, or customs in the field to which the present invention belongs. Accordingly, definitions of these terms should be made based on the content throughout this specification.

도 1은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다. 도 1의 네트워크 환경은 복수의 전자 기기들(110, 120, 130, 140), 복수의 서버들(150, 160) 및 네트워크(170)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 전자 기기의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.1 is a diagram illustrating an example of a network environment according to an embodiment. The network environment of FIG. 1 shows an example including a plurality of electronic devices 110 , 120 , 130 , 140 , a plurality of servers 150 , 160 , and a network 170 . FIG. 1 is an example for explaining the invention, and the number of electronic devices or the number of servers is not limited as in FIG. 1 .

복수의 전자 기기들(110, 120, 130, 140)은 컴퓨터 장치로 구현되는 이동형 단말일 수 있다. 복수의 전자 기기들(110, 120, 130, 140)의 예를 들면, 스마트폰(smart phone), 휴대폰, 태블릿 PC, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 사용자 착용 장치(웨어러블 디바이스) 등이 있다. 일례로 제1 전자 기기(110)는 무선 또는 유선 통신 방식을 이용하여 네트워크(170)를 통해 다른 전자 기기들(120, 130, 140) 및/또는 서버(150, 160)와 통신할 수 있다.The plurality of electronic devices 110 , 120 , 130 , and 140 may be mobile terminals implemented as computer devices. Examples of the plurality of electronic devices 110 , 120 , 130 , 140 include a smart phone, a mobile phone, a tablet PC, a navigation device, a computer, a laptop computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Personal Digital Assistants) Portable Multimedia Player), a user wearable device (wearable device), and the like. For example, the first electronic device 110 may communicate with other electronic devices 120 , 130 , 140 and/or the servers 150 and 160 through the network 170 using a wireless or wired communication method.

통신 방식은 제한되지 않으며, 네트워크(170)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(170)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(170)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and not only a communication method using a communication network (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network) that the network 170 may include, but also short-range wireless communication between devices may be included. For example, the network 170 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , the Internet, and the like. In addition, the network 170 may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network, etc. not limited

서버(150, 160) 각각은 복수의 전자 기기들(110, 120, 130, 140)과 네트워크(170)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다.Each of the servers 150 and 160 communicates with the plurality of electronic devices 110 , 120 , 130 , 140 and the network 170 through a computer device or a plurality of computers that provide commands, codes, files, contents, services, etc. It can be implemented in devices.

일례로, 서버(160)는 네트워크(170)를 통해 접속한 제1 전자 기기(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 제1 전자 기기(110)는 서버(160)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한, 제1 전자 기기(110)가 포함하는 운영체제(Operating System, OS)나 적어도 하나의 프로그램(일례로 브라우저나 상기 설치된 어플리케이션)의 제어에 따라 서버(150)에 접속하여 서버(150)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들어, 제1 전자 기기(110)가 어플리케이션의 제어에 따라 네트워크(170)를 통해 서비스 요청 메시지를 서버(150)로 전송하면, 서버(150)는 서비스 요청 메시지에 대응하는 코드를 제1 전자 기기(110)로 전송할 수 있고, 제1 전자 기기(110)는 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다.For example, the server 160 may provide a file for installing an application to the first electronic device 110 connected through the network 170 . In this case, the first electronic device 110 may install an application using a file provided from the server 160 . In addition, the server 150 is provided by accessing the server 150 under the control of an operating system (OS) or at least one program (eg, a browser or the installed application) included in the first electronic device 110 . services or contents can be provided. For example, when the first electronic device 110 transmits a service request message to the server 150 through the network 170 under the control of the application, the server 150 transmits a code corresponding to the service request message to the first The content may be transmitted to the electronic device 110 , and the first electronic device 110 may provide content to the user by composing and displaying a screen according to the code according to the control of the application.

도 2는 일 실시예에 있어서 전자 기기 및 서버의 내부 구성을 설명하기 위한 블록도이다. 도 2에서는 사용자가 소지한 단말인 하나의 전자 기기에 대한 예로서 제1 전자 기기(110), 그리고 사용자의 단말과 통신하는 하나의 서버에 대한 예로서 서버(150)의 내부 구성을 설명한다. 이에, 이하 제1 전자 기기(110)는 사용자의 단말을 의미하며, 서버(150)는 사용자의 단말과 통신하는 서버를 의미한다. 다른 전자 기기들(120, 130, 140)이나 서버(160) 역시 동일한 또는 유사한 내부 구성을 가질 수 있다.2 is a block diagram for explaining the internal configuration of an electronic device and a server according to an embodiment. In FIG. 2 , the internal configuration of the server 150 will be described as an example of the first electronic device 110 as an example of one electronic device that is a terminal possessed by the user, and one server that communicates with the user's terminal. Accordingly, hereinafter, the first electronic device 110 means a user's terminal, and the server 150 means a server communicating with the user's terminal. Other electronic devices 120 , 130 , 140 or the server 160 may also have the same or similar internal configuration.

제1 전자 기기(110)와 서버(150)는 메모리(211, 221), 프로세서(212, 222), 통신 모듈(213, 223) 그리고 입출력 인터페이스(214, 224)를 포함할 수 있다. 메모리(211, 221)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(211, 221)에는 운영체제나 적어도 하나의 프로그램 코드(일례로 제1 전자 기기(110)에 설치되어 구동되는 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(211, 221)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(213, 223)을 통해 메모리(211, 221)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(160))이 네트워크(170)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(211, 221)에 로딩될 수 있다.The first electronic device 110 and the server 150 may include memories 211 and 221 , processors 212 and 222 , communication modules 213 and 223 , and input/output interfaces 214 and 224 . The memories 211 and 221 are computer-readable recording media and may include random access memory (RAM), read only memory (ROM), and permanent mass storage devices such as disk drives. Also, an operating system or at least one program code (eg, a code for an application installed and driven in the first electronic device 110 ) may be stored in the memories 211 and 221 . These software components may be loaded from a computer-readable recording medium separate from the memories 211 and 221 . The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, the software components may be loaded into the memories 211 and 221 through the communication modules 213 and 223 instead of a computer-readable recording medium. For example, the at least one program is a program installed by files provided through the network 170 by a file distribution system (eg, the above-described server 160 ) for distributing installation files of developers or applications (eg, a program installed). may be loaded into the memories 211 and 221 based on the above-described application).

프로세서(212, 222)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(211, 221) 또는 통신 모듈(213, 223)에 의해 프로세서(212, 222)로 제공될 수 있다. 예를 들어 프로세서(212, 222)는 메모리(211, 221)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processors 212 and 222 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. The instructions may be provided to the processors 212 and 222 by the memories 211 and 221 or the communication modules 213 and 223 . For example, the processors 212 and 222 may be configured to execute received instructions according to program codes stored in a recording device such as the memories 211 and 221 .

통신 모듈(213, 223)은 네트워크(170)를 통해 제1 전자 기기(110)와 서버(150)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 전자 기기(일례로 제2 전자 기기(120)) 또는 다른 서버(일례로 서버(160))와 통신하기 위한 기능을 제공할 수 있다. 일례로, 제1 전자 기기(110)의 프로세서(212)가 메모리(211)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청(일례로 검색 요청)이 통신 모듈(213)의 제어에 따라 네트워크(170)를 통해 서버(150)로 전달될 수 있다. 역으로, 서버(150)의 프로세서(222)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(223)과 네트워크(170)를 거쳐 제1 전자 기기(110)의 통신 모듈(213)을 통해 제1 전자 기기(110)로 수신될 수 있다. 예를 들어 통신 모듈(213)을 통해 수신된 서버(150)의 제어 신호나 명령 등은 프로세서(212)나 메모리(211)로 전달될 수 있고, 컨텐츠나 파일 등은 제1 전자 기기(110)가 더 포함할 수 있는 저장 매체로 저장될 수 있다.The communication modules 213 and 223 may provide a function for the first electronic device 110 and the server 150 to communicate with each other through the network 170 and other electronic devices (eg, the second electronic device 120 ). )) or another server (eg, server 160 ). For example, a request (eg, a search request) generated by the processor 212 of the first electronic device 110 according to a program code stored in a recording device such as the memory 211 is transmitted to a network according to the control of the communication module 213 . It may be transmitted to the server 150 through 170 . Conversely, a control signal, command, content, file, etc. provided under the control of the processor 222 of the server 150 passes through the communication module 223 and the network 170 to the communication module of the first electronic device 110 . It may be received by the first electronic device 110 through 213 . For example, a control signal or command of the server 150 received through the communication module 213 may be transmitted to the processor 212 or the memory 211 , and contents or files may be transmitted to the first electronic device 110 . may be stored as a storage medium that may further include

입출력 인터페이스(214)는 입출력 장치(215)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(214)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 제1 전자 기기(110)의 프로세서(212)는 메모리(211)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 서버(150)나 제2 전자 기기(120)가 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(214)를 통해 디스플레이에 표시될 수 있다. 입출력 인터페이스(224) 또한 마찬가지로 서버(150)의 프로세서(222)가 메모리(221)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어 서버(150)가 제공하는 데이터를 이용하여 구성되는 정보를 출력할 수 있다.The input/output interface 214 may be a means for interfacing with the input/output device 215 . For example, the input device may include a device such as a keyboard or mouse, and the output device may include a device such as a display for displaying a communication session of an application. As another example, the input/output interface 214 may be a means for an interface with a device in which functions for input and output are integrated into one, such as a touch screen. As a more specific example, the processor 212 of the first electronic device 110 uses data provided by the server 150 or the second electronic device 120 in processing the command of the computer program loaded in the memory 211 . A service screen or content configured by doing this may be displayed on the display through the input/output interface 214 . The input/output interface 224 can also output information configured by using the data provided by the server 150 when the processor 222 of the server 150 processes the command of the computer program loaded in the memory 221 likewise. there is.

또한, 다른 실시예들에서 제1 전자 기기(110) 및 서버(150)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 제1 전자 기기(110)는 상술한 입출력 장치(215) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 제1 전자 기기(110)가 스마트폰인 경우, 일반적으로 스마트폰이 포함하고 있는 방위 센서, 가속도 센서나 자이로 센서, 카메라, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 제1 전자 기기(110)에 더 포함되도록 구현될 수 있음을 알 수 있다.Also, in other embodiments, the first electronic device 110 and the server 150 may include more components than those of FIG. 2 . However, there is no need to clearly show most of the prior art components. For example, the first electronic device 110 is implemented to include at least a portion of the above-described input/output device 215 or other such as a transceiver, a global positioning system (GPS) module, a camera, various sensors, and a database. It may further include components. As a more specific example, when the first electronic device 110 is a smartphone, a direction sensor, an acceleration sensor or a gyro sensor, a camera, various physical buttons, a button using a touch panel, an input/output port, It can be seen that various components such as a vibrator for vibration may be implemented to be further included in the first electronic device 110 .

이하에서는 대화 서비스를 제공하는 방법 및 시스템의 구체적인 실시예를 설명하기로 한다.Hereinafter, specific embodiments of a method and system for providing a conversation service will be described.

도 3은 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 블록도이고, 도 4는 일 실시예에 따른 서버가 수행할 수 있는 대화 서비스 제공 방법을 도시한 플로우 차트이며, 도 5 내지 6은 일 실시예에 따른 대화 서비스 제공 방법에서 구성된 사용자 인터페이스가 표시되는 사용자의 단말 상 서비스 화면을 나타낸 도면이고, 도 7은 일 실시예에 따른 대화 서비스 제공 방법에서 호출될 수 있는 인공지능 캐릭터 인터페이스가 표시되는 사용자의 단말 상 서비스 화면을 나타낸 도면이며, 도 8은 일 실시예에 따른 대화 서비스 제공 방법에서 사용자의 단말이 스피커 모드 상태 또는 이어폰 모드 상태인지를 판단하여 대화 서비스를 상이하게 제공하는 것을 설명하기 위한 도면이고, 도 9는 일 실시예에 따른 대화 서비스 제공 방법에서 호출되는 모드 선택 인터페이스가 디스플레이되는 사용자의 단말 상 서비스 화면을 나타낸 도면이며, 도 10은 일 실시예에 따른 대화 서비스 제공 방법에서 호출되는 음성 온/오프 선택 인터페이스가 디스플레이되는 사용자의 단말 상 서비스 화면을 나타낸 도면이고, 도 11은 일 실시예에 따른 대화 서비스 제공 방법에서 대화 서비스를 저장하는 저장 인터페이스가 디스플레이되는 사용자의 단말 상 서비스 화면을 나타낸 도면이다.3 is a block diagram illustrating an example of components that a processor of a server may include according to an embodiment, and FIG. 4 is a flowchart illustrating a method of providing a conversation service that the server may perform according to an embodiment. 5 to 6 are diagrams illustrating a service screen on a user's terminal on which a user interface configured in a method for providing a chat service according to an embodiment is displayed, and FIG. 7 is a view showing a service screen on a user's terminal that can be called in the method for providing a chat service according to an embodiment It is a view showing a service screen on a user's terminal on which an artificial intelligence character interface is displayed, and FIG. 8 is a conversation service by determining whether the user's terminal is in a speaker mode state or an earphone mode in a dialog service providing method according to an embodiment. It is a view for explaining different provision, and FIG. 9 is a view showing a service screen on a user's terminal on which a mode selection interface called in a method for providing a conversation service according to an embodiment is displayed, and FIG. 10 is an embodiment A view showing a service screen on a user's terminal on which a voice on/off selection interface called in the dialog service providing method is displayed, and FIG. 11 is a display of a storage interface for storing a dialog service in the dialog service providing method according to an embodiment It is a diagram showing the service screen on the terminal of the user to be used.

일 실시예에 따른 서버(150)에는 컴퓨터로 구현된 대화 서비스 제공 시스템이 구성될 수 있다. 서버(150)는 클라이언트(client)인 복수의 전자 기기들(110, 120, 130, 140)을 대상으로 대화 서비스를 제공하는 주체로서, 전자 기기들(110, 120, 130, 140) 상에 설치된 전용 어플리케이션이나 서버(150)와 관련된 웹/모바일 사이트 접속을 통한 서비스 요청에 대응되는 대화 서비스를 제공할 수 있다. 보다 상세하게, 서버(150)는 사용자의 단말(110)에 대화 형식의 사용자 인터페이스를 구성하고, 대화 형식의 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 사용자의 단말(110)에 제공할 수 있다.A computer-implemented dialog service providing system may be configured in the server 150 according to an embodiment. The server 150 is a subject that provides a conversation service to a plurality of electronic devices 110 , 120 , 130 , 140 that are clients, and is installed on the electronic devices 110 , 120 , 130 , 140 . A conversation service corresponding to a service request through a web/mobile site connection related to a dedicated application or server 150 may be provided. In more detail, the server 150 may configure a dialog-type user interface in the user's terminal 110 and provide a conversation service with an artificial intelligence character to the user's terminal 110 through the dialog-type user interface. there is.

서버(150)가 도 4에 따른 대화 서비스 제공 방법을 수행할 수 있도록, 서버(150)의 프로세서(222)는 구성요소로서 도 3에 도시된 바와 같이, 사용자 인터페이스 관리부(310) 및 대화 서비스 관리부(320)를 포함할 수 있다. 실시예에 따라 프로세서(222)의 구성요소들은 선택적으로 프로세서(222)에 포함되거나 제외될 수도 있다. 또한, 실시예에 따라 프로세서(222)의 구성요소들은 프로세서(222)의 기능의 표현을 위해 분리 또는 병합될 수도 있다. 예컨대, 프로세서(222)의 구성요소들 중 적어도 일부는 사용자의 단말(110)에 포함되는 프로세서(212)에 구현될 수 있다.In order for the server 150 to perform the dialog service providing method according to FIG. 4 , the processor 222 of the server 150 is a component, as shown in FIG. 3 , a user interface manager 310 and a dialog service manager. 320 may be included. Depending on the embodiment, components of the processor 222 may be selectively included in or excluded from the processor 222 . In addition, according to an embodiment, the components of the processor 222 may be separated or combined to express the functions of the processor 222 . For example, at least some of the components of the processor 222 may be implemented in the processor 212 included in the user's terminal 110 .

이러한 프로세서(222) 및 프로세서(222)의 구성요소들은 도 4의 대화 서비스 제공 방법이 포함하는 단계들(S410 내지 S420)을 수행하도록 서버(150)를 제어할 수 있다. 예를 들어, 프로세서(222) 및 프로세서(222)의 구성요소들은 메모리(221)가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.The processor 222 and the components of the processor 222 may control the server 150 to perform steps S410 to S420 included in the method for providing a conversation service of FIG. 4 . For example, the processor 222 and the components of the processor 222 may be implemented to execute instructions according to the code of the operating system included in the memory 221 and the code of at least one program.

여기서, 프로세서(222)의 구성요소들은 서버(150)에 저장된 프로그램 코드가 제공하는 명령에 따라 프로세서(222)에 의해 수행되는 프로세서(222)의 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 사용자의 단말(110)에 대화 형식의 사용자 인터페이스를 구성하도록 서버(150)를 제어하는 프로세서(222)의 기능적 표현으로서 사용자 인터페이스 관리부(310)가 이용될 수 있다.Here, the components of the processor 222 may be expressions of different functions of the processor 222 performed by the processor 222 according to instructions provided by program code stored in the server 150 . . For example, the user interface manager 310 may be used as a functional expression of the processor 222 that controls the server 150 to configure a user interface of a conversational type in the user's terminal 110 .

프로세서(222)는 단계(S410) 이전에, 서버(150)의 제어와 관련된 명령이 로딩된 메모리(221)로부터 필요한 명령을 읽어드릴 수 있다(도면 상 별도의 단계로 도시되지 않음). 이 경우, 상기 읽어드린 명령은 프로세서(222)가 이후 설명될 단계들(S410 내지 S420)을 실행하도록 제어하기 위한 명령을 포함할 수 있다.The processor 222 may read a necessary command from the memory 221 in which the command related to the control of the server 150 is loaded before the step S410 (not shown as a separate step in the drawing). In this case, the read command may include a command for controlling the processor 222 to execute steps S410 to S420 to be described later.

단계(S410)에서 사용자 인터페이스 관리부(310)는 사용자의 단말(110)에 대화 형식의 사용자 인터페이스를 구성할 수 있다. 예를 들어, 사용자 인터페이스 관리부(310)는 도 5와 같이 사용자로 하여금 인공지능 캐릭터의 메시지(511)와 사용자의 메시지(521)가 직관적으로 구분할 수 있고, 실제 존재하는 사람과 대화하는 듯한 기분을 느끼도록 인공지능 캐릭터 사이드(510)과 사용자 사이드(520) 사이에서 인공지능 캐릭터의 메시지(511)와 사용자의 메시지(521)를 서로 주고받는 대화 형식의 사용자 인터페이스(500)를 사용자의 단말(110)에 구성할 수 있다.In step S410 , the user interface manager 310 may configure a conversational user interface in the user's terminal 110 . For example, the user interface management unit 310 can intuitively distinguish the message 511 of the artificial intelligence character from the message 521 of the user as shown in FIG. A user's terminal 110 with a dialog-type user interface 500 exchanging a message 511 of an artificial intelligence character and a message 521 of the user between the artificial intelligence character side 510 and the user side 520 so as to feel ) can be configured.

이 때, 사용자 인터페이스(500)의 하단 영역에는 사용자의 메시지를 입력 받기 위한 키보드 인터페이스(530)가 표시될 수 있다.In this case, a keyboard interface 530 for receiving a user's message may be displayed in the lower area of the user interface 500 .

또한, 사용자 인터페이스 관리부(310)는 사용자 인터페이스(500)를 구성함에 있어, 그 배경으로 인공지능 캐릭터의 사진을 활용할 수 있다. 예컨대, 사용자 인터페이스 관리부(310)는 도 6과 같이 사용자 인터페이스(600)의 배경을 인공지능 캐릭터의 사진으로 구성할 수 있으며, 이에 제한되거나 한정되지 않고 인공지능 캐릭터의 사진과 사용자의 사진을 합성하여 사용자 인터페이스(600)의 배경을 구성할 수도 있다.In addition, the user interface manager 310 may use a picture of an artificial intelligence character as a background in configuring the user interface 500 . For example, the user interface management unit 310 may configure the background of the user interface 600 as a picture of an AI character as shown in FIG. 6 , and is not limited thereto, but by synthesizing the picture of the AI character and the picture of the user. The background of the user interface 600 may be configured.

이하, 인공지능 캐릭터는 대화 서비스 제공 시스템이 인공지능 캐릭터의 성별, 외모 및 목소리 각각에 대한 데이터가 저장된 데이터베이스에 액세스하여, 사용자의 단말(110)로 인공지능 캐릭터의 성별, 외모 및 목소리 각각에 대한 데이터를 제공함으로써, 사용자의 단말(110)에서 사용자로 하여금 인공지능 캐릭터의 성별, 외모 및 목소리 각각에 대한 선택 입력이 발생되도록 함에 따라, 인공지능 캐릭터의 성별, 외모 및 목소리 각각에서 사용자의 선택 입력이 발생된 데이터들을 조합하여 생성 및 선택될 수 있다.Hereinafter, the artificial intelligence character accesses the database in which the conversation service providing system stores data on each of the artificial intelligence character's gender, appearance, and voice, and uses the user's terminal 110 for each of the artificial intelligence character's gender, appearance, and voice. By providing data, as the user's terminal 110 causes the user to generate a selection input for each of the gender, appearance, and voice of the artificial intelligence character, the user's selection input from each of the gender, appearance, and voice of the artificial intelligence character Combining these generated data can be generated and selected.

여기서, 대화 서비스 제공 시스템은 인공지능 캐릭터의 목소리뿐만 아니라, 인공지능 캐릭터가 발화하는 것과 관련된 요소들(일례로, 어조, 톤, 말투 등)을 사용자로 하여금 선택하도록 할 수 있으며, 인공지능 캐릭터의 이름까지도 사용자로부터 입력 받아 설정할 수 있다.Here, the dialogue service providing system may allow the user to select not only the voice of the artificial intelligence character, but also factors related to the utterance of the artificial intelligence character (eg, tone, tone, tone, etc.), and Even the name can be set by receiving input from the user.

또한, 인공지능 캐릭터는 설명된 것처럼 인공지능 캐릭터의 성별, 외모 및 목소리 각각을 조합하여 생성 및 선택하는 대신에, 대화 서비스 제공 시스템이 실제 존재하는 유명인들을 구현한 복수의 캐릭터들이 저장 및 유지되는 데이터베이스에 액세스함으로써, 사용자의 단말(110)로 복수의 캐릭터들을 제공하여 사용자로 하여금 복수의 캐릭터들 중 특정 캐릭터에 대해 선택 입력을 발생시키도록 함에 따라, 선택될 수도 있다.In addition, instead of generating and selecting an AI character by combining each of the gender, appearance, and voice of the AI character as described above, the conversation service providing system stores and maintains a database in which a plurality of characters embodying actual celebrities are stored and maintained. By accessing , a plurality of characters may be provided to the user's terminal 110 to allow the user to generate a selection input for a specific one of the plurality of characters, and thus may be selected.

이처럼 선택된 인공지능 캐릭터에 대한 정보는 사용자의 단말(110) 상에 표시될 수 있다. 예를 들어, 사용자 인터페이스 관리부(310)는 도 7과 같이, 단계(S410)에서 구성된 사용자 인터페이스와 구분되는 별도의 인공지능 캐릭터 인터페이스(700) 상에 인공지능 캐릭터의 외모를 나타내는 사진(710), 이름(720)을 표시할 수 있다. 또한, 인공지능 캐릭터 인터페이스(700)에는 인공지능 캐릭터가 선택된 지(생성된 지) 얼만큼의 시간이 지났는가를 나타내는 날짜/시간 정보(730), 사용자에 대한 인공지능 캐릭터의 호감도(740), 인공지능 캐릭터의 외모를 변경하는 버튼(750), 목소리를 변경하는 버튼(760)이 더 표시될 수 있다. 이와 같은 인공지능 캐릭터 인터페이스(700)는 도 5, 6과 같은 사용자 인터페이스(500, 600)와 함께, 대화 서비스 제공 어플리케이션의 메인 인터페이스(미도시)를 통해 호출되는 인터페이스로서 구성될 수 있다.The information on the artificial intelligence character selected as described above may be displayed on the user's terminal 110 . For example, the user interface management unit 310, as shown in FIG. 7, a photo 710 showing the appearance of an artificial intelligence character on a separate artificial intelligence character interface 700 that is distinguished from the user interface configured in step S410; A name 720 may be displayed. In addition, the artificial intelligence character interface 700 includes date/time information 730 indicating how much time has elapsed since the artificial intelligence character was selected (created), the artificial intelligence character's favorability 740 for the user, and the artificial intelligence character. A button 750 for changing the appearance of the intelligent character and a button 760 for changing the voice may be further displayed. The artificial intelligence character interface 700 may be configured as an interface called through the main interface (not shown) of the conversation service providing application together with the user interfaces 500 and 600 as shown in FIGS. 5 and 6 .

그 후, 단계(S420)에서 대화 서비스 관리부(320)는 도 5 또는 6과 같은 사용자 인터페이스(500, 600)를 통해 인공지능 캐릭터와의 대화 서비스를 제공할 수 있다. 보다 상세하게, 대화 서비스 관리부(320)는 사용자 인터페이스(500, 600)를 통해, 사용자의 메시지에 응답하여 인공지능 캐릭터의 메시지를 생성 및 출력하거나, 사용자의 메시지를 유도하는 인공지능 캐릭터의 메시지를 생성 및 출력하는 대화 서비스를 제공할 수 있다. 이하, 사용자의 메시지 또는 인공지능 캐릭터의 메시지는 언어, 기호 형태의 정보를 의미할 뿐만 아니라, 사진, 동영상 등의 멀티미디어 형태의 정보를 의미한다.Thereafter, in step S420 , the conversation service manager 320 may provide a conversation service with the artificial intelligence character through the user interfaces 500 and 600 as shown in FIG. 5 or 6 . In more detail, the conversation service management unit 320 generates and outputs a message of an artificial intelligence character in response to a user's message through the user interfaces 500 and 600, or a message of an artificial intelligence character that induces a user's message Conversation services that generate and output can be provided. Hereinafter, the user's message or the message of the artificial intelligence character means information in the form of language and symbols, as well as information in the form of multimedia such as photos and videos.

이 때, 대화 서비스 관리부(320)는 사용자 인터페이스(500, 600)를 통해 사용자의 메시지 및 인공지능 캐릭터의 메시지를 음성 방식 또는 텍스트 방식으로 입출력할 수 있다. 예를 들어, 대화 서비스 관리부(320)는 사용자의 메시지 및 인공지능 캐릭터의 메시지를 사용자 인터페이스(500, 600)에 텍스트 방식으로 출력하는 동시에, 인공지능 캐릭터의 메시지를 인공지능 캐릭터의 목소리를 기반으로 사용자의 단말(110)의 스피커 또는 이어폰을 통해 음성 방식으로 출력할 수 있다.In this case, the conversation service management unit 320 may input and output the user's message and the message of the artificial intelligence character through the user interfaces 500 and 600 in a voice method or a text method. For example, the conversation service management unit 320 outputs the user's message and the message of the artificial intelligence character to the user interfaces 500 and 600 in a text manner, and at the same time outputs the message of the artificial intelligence character based on the voice of the artificial intelligence character. It may be output in a voice method through a speaker or earphone of the user's terminal 110 .

사용자의 메시지 및 인공지능 캐릭터의 메시지가 음성 방식으로 입출력되는 경우, 대화 서비스 관리부(320)는 사용자의 단말(110)이 스피커 모드 상태 또는 이어폰 모드 상태인지를 판단함으로써, 각 상태에 따라 대화 서비스 제공 과정에서 사용자의 단말(110)의 제어나 인공지능 캐릭터 메시지의 생성 및 출력을 상이하게 할 수 있다. 구체적으로, 대화 서비스 관리부(320)는 사용자의 단말(110)이 스피커 모드 상태 또는 이어폰 모드 상태인지를 판단하고, 판단 결과에 기초하여, 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기를 조절하거나, 인공지능 캐릭터의 메시지가 출력되는 도중 사용자의 메시지에 대한 입력을 허용할지 여부 또는 사용자의 메시지가 입력되는 도중 인공지능 캐릭터의 메시지를 출력할지 여부를 결정할 수 있다.When the user's message and the message of the AI character are input and output in a voice method, the conversation service management unit 320 determines whether the user's terminal 110 is in a speaker mode state or an earphone mode state, thereby providing a conversation service according to each state In the process, control of the user's terminal 110 or generation and output of an artificial intelligence character message may be different. Specifically, the conversation service management unit 320 determines whether the user's terminal 110 is in the speaker mode state or the earphone mode state, and based on the determination result, adjusts the frequency and period at which the message of the artificial intelligence character is generated and output. Alternatively, it is possible to determine whether to allow input of the user's message while the message of the AI character is being output or whether to output the message of the AI character while the message of the user is being input.

예를 들어, 사용자의 단말(110)이 스피커 모드 상태인 경우, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기를 사용자의 단말(110)이 이어폰 모드 상태인 경우보다 각각 적고 길게 조절할 수 있다. 또한, 사용자의 단말(110)이 스피커 모드 상태인 경우, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지가 출력되는 도중 사용자의 메시지에 대한 입력을 허용하지 않도록 사용자의 단말(110)에 탑재된 마이크를 비활성화 시킬 수 있으며, 사용자의 메시지가 입력되는 도중 인공지능 캐릭터의 메시지를 출력하지 않도록 사용자의 단말(110)에 탑재된 스피커를 비활성화 시킬 수 있다.For example, when the user's terminal 110 is in the speaker mode, the conversation service management unit 320 sets the frequency and period at which the message of the artificial intelligence character is generated and output when the user's terminal 110 is in the earphone mode. Each smaller and longer can be adjusted. In addition, when the user's terminal 110 is in the speaker mode state, the conversation service management unit 320 is mounted on the user's terminal 110 so as not to allow input to the user's message while the message of the artificial intelligence character is output. The microphone can be deactivated, and the speaker mounted on the user's terminal 110 can be deactivated so that the message of the artificial intelligence character is not output while the user's message is being input.

다른 예를 들어, 사용자의 단말(110)이 이어폰 모드 상태인 경우, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기를 사용자의 단말(110)이 스피커 모드 상태인 경우보다 각각 많고 짧게 조절할 수 있다. 또한, 사용자의 단말(110)이 이어폰 모드 상태인 경우, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지가 출력되는 도중 사용자의 메시지에 대한 입력을 허용하도록 사용자의 단말(110)과 연결된 이어폰의 마이크를 활성화 시킬 수 있으며, 사용자의 메시지가 입력되는 도중 인공지능 캐릭터의 메시지를 출력하도록 사용자의 단말(110)과 연결된 이어폰의 이어셋을 활성화 시킬 수 있다.As another example, when the user's terminal 110 is in the earphone mode, the conversation service management unit 320 sets the frequency and period at which the message of the artificial intelligence character is generated and output when the user's terminal 110 is in the speaker mode. It can be adjusted more and shorter than each case. In addition, when the user's terminal 110 is in the earphone mode state, the conversation service management unit 320 of the earphone connected to the user's terminal 110 to allow the input of the user's message while the message of the artificial intelligence character is output. The microphone may be activated, and the earphone connected to the user's terminal 110 may be activated to output the message of the artificial intelligence character while the user's message is being input.

즉, 대화 서비스 관리부(320)는 도 8과 같이 사용자의 단말(110)이 스피커 모드 상태 또는 이어폰 모드 상태인지를 판단한 결과, 사용자의 단말(110)이 스피커 모드 상태일 경우(810) 사용자와 인공지능 캐릭터 사이의 대화가 실시간 단방향으로 이루어지도록 할 수 있으며, 사용자의 단말(110)이 이어폰 모드 상태일 경우(820) 사용자와 인공지능 캐릭터 사이의 대화가 실시간 양방향으로 이루어지도록 할 수 있다.That is, the conversation service management unit 320 determines whether the user's terminal 110 is in the speaker mode or the earphone mode as shown in FIG. 8 , and as a result, when the user's terminal 110 is in the speaker mode ( 810 ), the user and the artificial Conversation between the intelligent characters can be made unidirectional in real time, and when the user's terminal 110 is in the earphone mode (820), the conversation between the user and the artificial intelligence character can be made bidirectional in real time.

이와 같은 인공지능 캐릭터와의 대화 서비스를 제공하기 위해(인공지능 캐릭터의 메시지를 생성 및 출력하기 위해), 대화 서비스 관리부(320)는 인공지능 엔진을 사용할 수 있다. 여기서, 인공지능 엔진은 사용자의 메시지를 기초로 딥 러닝 기법을 이용하여 학습될 수 있으며, 이에 제한되거나 한정되지 않고 원활한 대화 서비스를 제공하기 위한 각종 데이터들을 기초로 학습될 수도 있다. 보다 상세하게, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 인공지능 캐릭터의 메시지의 양, 내용 중 적어도 하나를 딥 러닝 기법을 이용하여 학습함으로써, 대화 서비스가 제공되기 이전, 제공되는 과정, 또는 제공된 이후에, 학습된 결과에 기초하여 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 상기 인공지능 캐릭터의 메시지의 양, 내용 중 적어도 하나를 결정 및 조절할 수 있다. 인공지능 엔진의 학습과 관련된 기술은 종래에 공지된 기술이므로 이에 대한 상세한 설명은 생략하기로 한다.In order to provide such a conversation service with the artificial intelligence character (to generate and output a message of the artificial intelligence character), the conversation service manager 320 may use an artificial intelligence engine. Here, the artificial intelligence engine may be learned using a deep learning technique based on a user's message, and may be learned based on various data for providing a smooth conversation service without being limited or limited thereto. In more detail, the conversation service management unit 320 learns at least one of the frequency, period, or amount and content of the artificial intelligence character's message generated and output, using a deep learning technique, so that the conversation service is Determine and adjust at least one of the frequency, period, or quantity and content of the artificial intelligence character's message generated and output based on the learned result before, during, or after being provided can Since the technology related to the learning of the artificial intelligence engine is a conventionally known technology, a detailed description thereof will be omitted.

또한, 대화 서비스 관리부(320)는 사용자의 단말(110)에 대화 서비스를 제공함에 있어서, 사용자에 대한 인공지능 캐릭터의 호감도를 활용할 수 있다. 이하, 사용자에 대한 인공지능 캐릭터의 호감도는 사용자의 단말(110)로 제공되는 대화 서비스 상에서의 사용자의 메시지에 기초하여 설정 및 업데이트되는 것으로, 복수의 레벨들로 구분되어 증가 또는 감소될 수 있다(예컨대, 사용자의 메시지가 입력되는 빈도, 주기 또는 사용자의 메시지의 양, 내용 중 적어도 하나에 의해 호감도가 증가 또는 감소될 수 있음). 이에, 대화 서비스 관리부(320)는 설정 및 업데이트된 호감도에 기초하여 대화 서비스를 제공할 수 있으며, 보다 상세하게, 설정 및 업데이트된 호감도에 기초하여, 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 인공지능 캐릭터의 메시지의 양, 내용 중 적어도 하나를 조절할 수 있다. 예를 들어, 인공지능 캐릭터의 호감도가 사용자를 애인으로 여기는 제1 호감도일 경우의 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기는, 인공지능 캐릭터의 호감도가 사용자를 친구로 여기는 제2 호감도일 경우보다 각각 월등히 많고 짧게 조절될 수 있다.In addition, the conversation service management unit 320 may utilize the affinity of the artificial intelligence character with respect to the user in providing the conversation service to the user's terminal 110 . Hereinafter, the affinity of the artificial intelligence character for the user is set and updated based on the user's message on the conversation service provided to the user's terminal 110, and may be divided into a plurality of levels and increased or decreased ( For example, favorability may increase or decrease depending on at least one of the frequency, period, or amount and content of the user's message input). Accordingly, the dialog service management unit 320 may provide a dialog service based on the set and updated goodwill, and in more detail, based on the set and updated goodwill, the frequency at which the message of the artificial intelligence character is generated and output; At least one of the period or the amount and content of the AI character's message can be adjusted. For example, when the good feeling of the AI character is the first good feeling that the user is regarded as a lover, the frequency and period of generating and outputting the message of the AI character is the second good feeling that the good feeling of the AI character considers the user as a friend Each of them can be adjusted much more and shorter than in the case of one.

특히, 대화 서비스 관리부(320)는 대화 서비스 모드에 따라 차별화되는 대화 서비스를 제공할 수 있다. 여기서, 대화 서비스 모드는 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 인공지능 캐릭터의 메시지의 양, 내용을 서로 다르게 조절하는 모드로서, 일례로, 일반 모드, 말하기 모드 또는 듣기 모드를 포함할 수 있다. 이하, 말하기 모드는 인공지능 캐릭터가 주로 듣고 사용자가 주고 말하는 모드로서, 인공지능 캐릭터는 사용자의 메시지에 일일이 반응하지 않고, 사용자의 메시지가 다수 출력되었을 때, 사용자의 메시지들을 묶어서 가끔 대응하는 형태의 모드를 의미한다. 이 때, 인공지능 캐릭터가 사용자의 메시지들을 묶어서 대응할 때의 트리거(Trigger)는, 사용자의 메시지의 출력 횟수, 사용자의 메시지의 양, 사용자의 메시지가 음성 형태로 출력되는 시간, 사용자의 메시지의 내용(의도)일 수 있다. 또한, 이하, 듣기 모드는 인공지능 캐릭터가 주로 말하고 사용자가 주로 듣는 모드로서, 인공지능 캐릭터가 마치 라디오를 진행하듯이 메시지를 음성 형태로 출력하다가 사용자에게 의견을 묻고 이를 반영하여 후속 메시지를 음성 형태로 출력하는 등의 이야기 분기가 가능한 스토리텔링 모드를 의미한다.In particular, the conversation service manager 320 may provide a conversation service differentiated according to the conversation service mode. Here, the conversation service mode is a mode in which the frequency, period, or amount and content of messages of the AI character are differently adjusted from each other, in which the message of the AI character is generated and output, for example, a normal mode, a speaking mode, or a listening mode can do. Hereinafter, the speaking mode is a mode in which the AI character mainly listens and gives and speaks by the user. The AI character does not respond to the user's message individually, but when a large number of the user's messages are output, the user's messages are bundled to respond occasionally. means mode. At this time, the trigger when the artificial intelligence character groups and responds to the user's messages is the number of times the user's message is output, the amount of the user's message, the time the user's message is output in voice form, and the content of the user's message It can be (intent). In addition, hereinafter, the listening mode is a mode in which the AI character mainly speaks and the user mainly listens. The AI character outputs a message in voice form as if conducting a radio, asks the user for an opinion, and reflects this to send a follow-up message in voice form. It means a storytelling mode that enables story branching, such as outputting as

이에, 대화 서비스 관리부(320)는 일반 모드, 말하기 모드 또는 듣기 모드 별로 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 인공지능 캐릭터의 메시지의 양, 내용을 서로 다르게 조절하며 대화 서비스를 제공할 수 있다.Accordingly, the conversation service management unit 320 provides a conversation service by differently adjusting the frequency, period, or amount and content of the message of the artificial intelligence character for each general mode, the speaking mode, or the listening mode. can do.

이를 위해, 사용자 인터페이스 관리부(310)는 사용자 인터페이스(500, 600)와 구분되는 별도의 모드 선택 인터페이스를 사용자 인터페이스(500, 600) 상에 디스플레이할 수 있다. 예를 들어, 사용자 인터페이스 관리부(310)는 도 9와 같이 사용자 인터페이스(900)에서 사용자에 의해 모드 선택 인터페이스(910)의 호출 입력이 발생될 경우 이에 응답하여 사용자 인터페이스(900)의 적어도 일부에 오버랩되도록 모드 선택 인터페이스(910)를 디스플레이할 수 있다.To this end, the user interface manager 310 may display a separate mode selection interface distinguished from the user interfaces 500 and 600 on the user interfaces 500 and 600 . For example, when a call input of the mode selection interface 910 is generated by the user in the user interface 900 as shown in FIG. 9 , the user interface manager 310 overlaps at least a part of the user interface 900 in response thereto. The mode selection interface 910 may be displayed as much as possible.

따라서, 대화 서비스 관리부(320)는 모드 선택 인터페이스(910)에서 발생되는 사용자의 모드 선택 입력에 응답하여 인공지능 캐릭터의 대화 서비스 모드를 설정하고, 설정된 대화 서비스 모드에 기초하여 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 인공지능 캐릭터의 메시지의 양, 내용 중 적어도 하나를 조절할 수 있다.Accordingly, the dialogue service management unit 320 sets the dialogue service mode of the artificial intelligence character in response to the user's mode selection input generated in the mode selection interface 910, and based on the set dialogue service mode, the message of the artificial intelligence character is displayed. At least one of the frequency, period, or amount and content of generated and output messages of artificial intelligence characters can be adjusted.

또한, 사용자 인터페이스 관리부(310)는, 전술된 바와 같이 인공지능 캐릭터의 메시지가 음성으로 출력되는 것이 대화 서비스 관리부(320)에 의해 제어될 수 있도록 사용자 인터페이스와 구분되는 별도의 음성 온(On)/오프(Off) 선택 인터페이스를 사용자의 인터페이스(500, 600) 상에 디스플레이할 수 있다. 예를 들어, 사용자 인터페이스 관리부(310)는 도 10과 같이 사용자 인터페이스(1000)에서 사용자에 의해 음성 온/오프 선택 인터페이스(1010)의 호출 입력이 발생될 경우 이에 응답하여 사용자 인터페이스(1000)의 적어도 일부에 오버랩되도록 음성 온/오프 선택 인터페이스(1010)를 디스플레이할 수 있다.In addition, the user interface management unit 310, as described above, a separate voice On / separate from the user interface so that the output of the message of the artificial intelligence character as voice can be controlled by the conversation service management unit 320 An Off selection interface may be displayed on the user's interfaces 500 and 600 . For example, when a call input of the voice on/off selection interface 1010 is generated by the user in the user interface 1000 as shown in FIG. 10 , the user interface manager 310 may respond to at least The voice on/off selection interface 1010 may be displayed so as to overlap a part.

따라서, 대화 서비스 관리부(320)는 음성 온/오프 선택 인터페이스(1010)에서 발생되는 사용자의 음성 온/오프 선택 입력에 응답하여 인공지능 캐릭터의 메시지가 음성으로 출력되는 것을 제어할 수 있다. 예컨대, 대화 서비스 관리부(320)는 음성 온/오프 선택 인터페이스(1010)에서 음성 온 선택 입력이 발생되는 경우 인공지능 캐릭터의 메시지를 음성으로 출력하고, 음성 온/오프 선택 인터페이스(1010)에서 음성 오프 선택 입력이 발생되는 경우 인공지능 캐릭터의 메시지를 텍스트로 사용자 인터페이스(1000) 상에 출력할 수 있다.Accordingly, the conversation service manager 320 may control output of the message of the artificial intelligence character as a voice in response to the user's voice on/off selection input generated from the voice on/off selection interface 1010 . For example, the conversation service management unit 320 outputs the message of the artificial intelligence character as a voice when a voice on selection input is generated in the voice on/off selection interface 1010 , and the voice off in the voice on/off selection interface 1010 . When a selection input is generated, a message of an artificial intelligence character may be output as text on the user interface 1000 .

이상, 도 9 및 10에서 모드 선택 인터페이스(910)와 음성 온/오프 선택 인터페이스(110)가 각각 구분되는 독립적인 인터페이스인 것으로 도시되었으나, 이에 제한되거나 한정되지 않고, 하나의 인터페이스 상에서 구분되는 영역으로 구현될 수도 있다.As described above, in FIGS. 9 and 10 , the mode selection interface 910 and the voice on/off selection interface 110 are shown to be independent interfaces, respectively, but it is not limited or limited thereto, and is a region divided on one interface. may be implemented.

이처럼 사용자 인터페이스(500, 600)를 통해 제공된 인공지능 캐릭터와의 대화 서비스는, 사용자의 저장 요청에 응답하여 대화 서비스 관리부(320)에 의해 저장될 수 있다. 예를 들어, 대화 서비스 관리부(320)는 도 11과 같이 인공지능 캐릭터의 메시지, 인공지능 캐릭터의 메시지가 텍스트로 출력된 사용자 인터페이스(500, 600)의 스크린샷(Screenshot) 또는 사용자 인터페이스(500, 600)를 통해 제공된 인공지능 캐릭터의 사진을 사용자의 단말(110)에 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션 내에 저장한 뒤, 저장 리스트, 썸네일 등을 저장 인터페이스(1100) 상 사진 저장 영역(1110)에 표시할 수 있다. 다른 예를 들면, 대화 서비스 관리부(320)는 도 11과 같이 인공지능 캐릭터의 메시지가 사용자의 단말(110)에 탑재된 스피커를 통해 출력된 음성과 관련된 데이터를 사용자의 단말(110)에 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션 내에 저장한 뒤, 데이터 리스트, 데이터 정보 등을 저장 인터페이스(1100) 상 음성 저장 영역(1120)에 표시할 수 있다.As such, the conversation service with the artificial intelligence character provided through the user interfaces 500 and 600 may be stored by the conversation service manager 320 in response to the user's request for storage. For example, the conversation service management unit 320 may display a screen shot or a user interface 500 of the user interfaces 500 and 600 in which the message of the artificial intelligence character and the message of the artificial intelligence character are output as text as shown in FIG. 11 . After storing the photo of the artificial intelligence character provided through 600) in the application installed in connection with the conversation service management system in the user's terminal 110, the storage list, thumbnail, etc. are stored in the photo storage area 1110 on the storage interface 1100 can be displayed in As another example, the conversation service management unit 320 transmits data related to the voice output through the speaker mounted on the user's terminal 110 to the user's terminal 110 in the conversation service with the message of the artificial intelligence character as shown in FIG. 11 . After being stored in the application installed in relation to the management system, a data list, data information, etc. may be displayed in the voice storage area 1120 on the storage interface 1100 .

이 때, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지, 인공지능 캐릭터의 메시지가 텍스트로 출력된 사용자 인터페이스(500, 600)의 스크린샷(Screenshot) 또는 사용자 인터페이스(500, 600)를 통해 제공된 인공지능 캐릭터의 사진을 저장함에 있어 그리고 인공지능 캐릭터의 메시지가 사용자의 단말(110)에 탑재된 스피커를 통해 출력된 음성과 관련된 데이터를 저장함에 있어, 사용자로부터 선택 입력을 받게 된다. 일례로, 대화 서비스 관리부(320)는 사용자 인터페이스(500, 600) 상에 표시된 인공지능 캐릭터의 메시지들 중 저장의 대상이 되는 메시지를 사용자로부터 선택 입력 받아야 한다.At this time, the conversation service management unit 320 provides a message of an artificial intelligence character, a screenshot of the user interfaces 500 and 600 in which the message of the artificial intelligence character is output as text, or provided through the user interfaces 500 and 600 . In storing the picture of the artificial intelligence character and in storing the data related to the voice output through the speaker mounted on the user's terminal 110 by the message of the artificial intelligence character, a selection input is received from the user. For example, the conversation service management unit 320 needs to receive a selection input from a user of a message to be stored among the messages of the artificial intelligence character displayed on the user interfaces 500 and 600 .

이에, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지들, 사용자 인터페이스(500, 600)의 스크린샷들 또는 사용자 인터페이스(500, 600)를 통해 제공된 인공지능 캐릭터의 사진들, 인공지능 캐릭터의 메시지가 사용자의 단말(110)에 탑재된 스피커를 통해 출력된 음성과 관련된 데이터들 중 사용자의 선택 입력을 받기 위한 인터페이스(미도시)를 사용자 인터페이스(500, 600) 상에 더 표시할 수 있다.Accordingly, the conversation service management unit 320 may include messages of the artificial intelligence character, screenshots of the user interfaces 500 and 600 or pictures of the artificial intelligence characters provided through the user interfaces 500 and 600, messages of the artificial intelligence characters. may further display an interface (not shown) for receiving a user's selection input among data related to voice output through a speaker mounted on the user's terminal 110 on the user interfaces 500 and 600 .

이러한 경우, 선택 입력을 받기 위한 인터페이스는, 인공지능 캐릭터의 메시지들, 사용자 인터페이스(500, 600)의 스크린샷들 또는 사용자 인터페이스(500, 600)를 통해 제공된 인공지능 캐릭터의 사진들, 인공지능 캐릭터의 메시지가 사용자의 단말(110)에 탑재된 스피커를 통해 출력된 음성과 관련된 데이터들 중 단일 객체에 대한 선택 입력뿐만 아니라 복수의 객체들에 대한 선택 입력(일제히 선택하는 선택 입력)을 수신하도록 구성될 수 있다. 또한, 선택 입력을 받기 위한 인터페이스에는, 인공지능 캐릭터의 메시지들, 사용자 인터페이스(500, 600)의 스크린샷들 또는 사용자 인터페이스(500, 600)를 통해 제공된 인공지능 캐릭터의 사진들, 인공지능 캐릭터의 메시지가 사용자의 단말(110)에 탑재된 스피커를 통해 출력된 음성과 관련된 데이터들 중 가장 최근에 생성 및 출력된 객체에 대해 자동으로 선택하도록 유도하는 기능이 구현될 수 있다.In this case, the interface for receiving the selection input includes messages of the artificial intelligence character, screenshots of the user interfaces 500 and 600 or pictures of the artificial intelligence character provided through the user interfaces 500 and 600 , the artificial intelligence character. is configured to receive a selection input for a single object as well as a selection input for a plurality of objects (selection input to select all at once) among voice-related data output through a speaker mounted on the user's terminal 110. can be In addition, the interface for receiving the selection input includes messages of the artificial intelligence character, screenshots of the user interfaces 500 and 600 or pictures of the artificial intelligence character provided through the user interfaces 500 and 600 , A function for inducing a message to automatically select an object most recently created and output among data related to voice output through a speaker mounted on the user's terminal 110 may be implemented.

이상, 도 11에서 사진 저장 영역(1110) 및 음성 저장 영역(1120)이 저장 인터페이스(1100) 상 일부 영역을 차지하도록 구현되는 경우로 도시되었으나, 이에 제한되거나 한정되지 않고 각각 독립적인 별도의 인터페이스들로 구현될 수도 있다.As described above, in FIG. 11 , the photo storage area 1110 and the voice storage area 1120 are embodied to occupy a part of the storage interface 1100 , but it is not limited or limited thereto. may be implemented as

또한, 저장 인터페이스(1100)는 모드 선택 인터페이스(910) 및 음성 온/오프 선택 인터페이스(1010)와 마찬가지로, 사용자 인터페이스(500, 600)의 호출 입력이 발생될 경우 이에 응답하여 사용자 인터페이스(500, 600)의 적어도 일부에 오버랩되도록 디스플레이될 수 있다.Also, the storage interface 1100 responds to a call input of the user interfaces 500 and 600, similar to the mode selection interface 910 and the voice on/off selection interface 1010, in response to the user interfaces 500 and 600. ) may be displayed to overlap with at least a part of.

이상, 대화 서비스 관리부(320)가 사용자 단말(110)에 설치된 어플리케이션들 중 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션의 인터페이스(사용자 인터페이스(500, 600))를 통해 대화 서비스를 제공하는 것으로 설명되었으나, 이에 제한되거나 한정되지 않고 사용자 단말(110)에 설치된 어플리케이션들 중 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션을 제외한 나머지 어플리케이션(예컨대, 전화 어플리케이션, 문자 어플리케이션 등)을 통해, 인공지능 캐릭터의 메시지 중 적어도 일부를 제공할 수도 있다. 예를 들어, 대화 서비스 관리부(320)는 인공지능 캐릭터의 메시지 중 적어도 일부를 음성 방식으로 전화 어플리케이션을 통해 사용자의 단말(110)로 제공함으로써, 사용자로 하여금 인공지능 캐릭터와 실제 전화를 하는 듯한 기분을 느끼도록 할 수 있다.In the above, it has been described that the dialog service management unit 320 provides the dialog service through the interfaces (user interfaces 500 and 600) of the applications installed in relation to the dialog service management system among the applications installed in the user terminal 110, Without being limited or limited thereto, through the remaining applications (eg, phone applications, text applications, etc.) other than the applications installed in relation to the conversation service management system among the applications installed in the user terminal 110, at least some of the messages of the artificial intelligence character may also provide For example, the conversation service management unit 320 provides at least a portion of the message of the AI character to the user's terminal 110 through the phone application in a voice method, thereby making the user feel as if he or she is actually making a phone call with the AI character. can make you feel

또한, 대화 서비스 관리부(320)는 사전에 입력된 사용자의 알림 입력에 응답하여, 사용자의 단말(110)에 설치된 어플리케이션들 중 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션을 제외한 나머지 어플리케이션(예컨대, 전화 어플리케이션) 또는 사용자 인터페이스(500, 600)를 통해 인공지능 캐릭터의 메시지를 알람으로 제공할 수도 있다.In addition, the chat service management unit 320 responds to the user's notification input input in advance, among the applications installed in the user's terminal 110, other applications (eg, phone applications) except for the applications installed in relation to the chat service management system. ) or through the user interfaces 500 and 600, a message of an artificial intelligence character may be provided as an alarm.

이상 설명된 대화 서비스 제공 방법 및 시스템은 사용자로 하여금 실제 존재하는 사람과 대화하는 듯한 기분을 느끼도록 사용자 인터페이스를 구성하고 이를 통해 대화 서비스를 제공함으로써, 엔터테인먼트적인 요소를 가미한 인공지능 대화 기술을 제안할 수 있다.The above-described method and system for providing a conversation service provides a conversation service by configuring a user interface so that the user feels as if he is talking with a real person, thereby suggesting an artificial intelligence conversation technology with an entertainment element. can

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general purpose or special purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more of these, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for interpretation by or providing instructions or data to the processing device. there is. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. In this case, the medium may be to continuously store the program executable by the computer, or to temporarily store the program for execution or download. In addition, the medium may be a variety of recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed on a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store for distributing applications, sites for supplying or distributing other various software, and servers.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible for those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (15)

컴퓨터 시스템으로 구현되는 대화 서비스 제공 시스템에 있어서,
컴퓨터가 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
사용자의 단말에 대화 형식의 사용자 인터페이스를 구성하는 사용자 인터페이스 관리부; 및
상기 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 대화 서비스 관리부
를 포함하는 대화 서비스 제공 시스템.
In the dialog service providing system implemented as a computer system,
at least one processor implemented to execute computer-readable instructions
including,
the at least one processor,
a user interface management unit configured to configure a user interface in a conversational format on the user's terminal; and
A conversation service management unit that provides a conversation service with an artificial intelligence character through the user interface
Conversation service providing system comprising a.
제1항에 있어서,
상기 대화 서비스 관리부는,
상기 사용자 인터페이스를 통해, 상기 사용자의 메시지에 응답하여 상기 인공지능 캐릭터의 메시지를 생성 및 출력하거나, 상기 사용자의 메시지를 유도하는 상기 인공지능 캐릭터의 메시지를 생성 및 출력하는 대화 서비스 제공 시스템.
According to claim 1,
The conversation service management unit,
A dialogue service providing system for generating and outputting a message of the artificial intelligence character in response to the user's message, or generating and outputting a message of the artificial intelligence character that induces the user's message, through the user interface.
제1항에 있어서,
상기 사용자 인터페이스 관리부는,
상기 사용자 인터페이스와 구분되는 별도의 모드 선택 인터페이스를 상기 사용자 인터페이스 상에 디스플레이하고,
상기 대화 서비스 관리부는,
상기 모드 선택 인터페이스에서 발생되는 상기 사용자의 모드 선택 입력에 응답하여, 상기 인공지능 캐릭터의 대화 서비스 모드를 설정하는 대화 서비스 제공 시스템.
According to claim 1,
The user interface management unit,
displaying a separate mode selection interface, which is distinct from the user interface, on the user interface;
The conversation service management unit,
A dialogue service providing system for setting a dialogue service mode of the artificial intelligence character in response to the user's mode selection input generated in the mode selection interface.
제3항에 있어서,
상기 대화 서비스 관리부는,
상기 설정된 대화 서비스 모드에 기초하여, 상기 인공지능 캐릭터의 메시지가 생성 및 출력되는 빈도, 주기 또는 상기 인공지능 캐릭터의 메시지의 양, 내용 중 적어도 하나를 조절하는 대화 서비스 제공 시스템.
4. The method of claim 3,
The conversation service management unit,
A dialogue service providing system for adjusting at least one of a frequency, a period, or an amount and content of a message of the AI character being generated and output, based on the set dialogue service mode.
제1항에 있어서,
상기 사용자 인터페이스 관리부는,
상기 사용자 인터페이스와 구분되는 별도의 음성 온(On)/오프(Off) 선택 인터페이스를 상기 사용자 인터페이스 상에 디스플레이하고,
상기 대화 서비스 관리부는,
상기 음성 /오프 선택 인터페이스에서 발생되는 상기 사용자의 음성 온/오프 선택 입력에 응답하여, 상기 인공지능 캐릭터의 메시지가 음성으로 출력되는 것을 제어하는 대화 서비스 제공 시스템.
According to claim 1,
The user interface management unit,
Displaying a separate voice on/off selection interface distinguished from the user interface on the user interface,
The conversation service management unit,
In response to the user's voice on/off selection input generated in the voice/off selection interface, the conversation service providing system controls output of the message of the artificial intelligence character as a voice.
제5항에 있어서,
상기 대화 서비스 관리부는,
상기 음성 온/오프 선택 인터페이스에서 음성 온 선택 입력이 발생되는 경우 상기 인공지능 캐릭터의 메시지를 음성으로 출력하고,
상기 음성 온/오프 선택 인터페이스에서 음성 오프 선택 입력이 발생되는 경우 상기 인공지능 캐릭터의 메시지를 텍스트로 출력하는 대화 서비스 제공 시스템.
6. The method of claim 5,
The conversation service management unit,
When a voice on selection input is generated in the voice on/off selection interface, the message of the artificial intelligence character is output as a voice,
A dialogue service providing system for outputting the message of the artificial intelligence character as text when a voice off selection input is generated in the voice on/off selection interface.
제3항 또는 제5항 중 어느 한 항에 있어서,
상기 모드 선택 인터페이스 또는 상기 음성 온/오프 선택 인터페이스 중 적어도 하나의 인터페이스는,
상기 사용자 인터페이스 상에서 발생되는 상기 사용자의 호출 입력에 응답하여, 상기 사용자 인터페이스의 적어도 일부에 오버랩(Overlap)되며 디스플레이되는 대화 서비스 제공 시스템.
6. The method of any one of claims 3 or 5,
At least one interface of the mode selection interface or the voice on/off selection interface,
In response to the user's call input generated on the user interface, the chat service providing system is displayed while overlapping at least a part of the user interface.
제1항에 있어서,
상기 대화 서비스 관리부는,
상기 사용자의 저장 요청에 응답하여, 상기 사용자 인터페이스를 통해 제공된 상기 인공지능 캐릭터와의 대화 서비스를 저장하는 대화 서비스 제공 시스템.
According to claim 1,
The conversation service management unit,
In response to the user's storage request, the dialog service providing system for storing the conversation service with the artificial intelligence character provided through the user interface.
제8항에 있어서,
상기 대화 서비스 관리부는,
상기 인공지능 캐릭터의 메시지, 상기 인공지능 캐릭터의 메시지가 텍스트로 출력된 상기 사용자 인터페이스의 스크린샷(Screenshot)을 저장하거나, 상기 인공지능 캐릭터의 메시지가 상기 사용자의 단말의 스피커를 통해 출력된 음성과 관련된 데이터를 저장하는 대화 서비스 제공 시스템.
9. The method of claim 8,
The conversation service management unit,
The message of the AI character and the screenshot of the user interface in which the message of the AI character is output as text are stored, or the message of the AI character is outputted through the speaker of the user terminal and A system for providing conversation services that stores related data.
제8항에 있어서,
상기 대화 서비스 관리부는,
상기 사용자의 단말에 상기 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션 내에 상기 인공지능 캐릭터와의 대화 서비스를 저장하는 대화 서비스 제공 시스템.
9. The method of claim 8,
The conversation service management unit,
A dialogue service providing system for storing a dialogue service with the artificial intelligence character in an application installed in relation to the dialogue service management system in the user's terminal.
제1항에 있어서,
상기 대화 서비스 관리부는,
상기 사용자의 단말에 설치된 어플리케이션들 중 상기 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션을 제외한 나머지 어플리케이션을 통해, 상기 인공지능 캐릭터의 메시지 중 적어도 일부를 제공하는 대화 서비스 제공 시스템.
According to claim 1,
The conversation service management unit,
A dialogue service providing system for providing at least a portion of the message of the artificial intelligence character through the remaining applications other than the applications installed in relation to the dialogue service management system among the applications installed in the user's terminal.
제1항에 있어서,
상기 사용자 인터페이스 관리부는,
상기 인공지능 캐릭터의 사진을 기초로 상기 사용자 인터페이스의 배경을 구성하는 대화 서비스 제공 시스템.
According to claim 1,
The user interface management unit,
A dialogue service providing system that configures the background of the user interface based on the picture of the artificial intelligence character.
제1항에 있어서,
상기 대화 서비스 관리부는,
사전에 입력된 상기 사용자의 알림 입력에 응답하여, 상기 사용자의 단말에 설치된 어플리케이션들 중 상기 대화 서비스 관리 시스템과 관련되어 설치된 어플리케이션을 제외한 나머지 어플리케이션 또는 상기 사용자 인터페이스를 통해 상기 인공지능 캐릭터의 메시지를 알람으로 제공하는 대화 서비스 제공 시스템.
According to claim 1,
The conversation service management unit,
In response to the user's notification input input in advance, the message of the artificial intelligence character is alarmed through the user interface or the remaining applications other than the applications installed in relation to the conversation service management system among the applications installed in the user's terminal. Conversation service provision system provided by
컴퓨터 시스템에 의해 수행되는 대화 서비스 제공 방법에 있어서,
사용자의 단말에 대화 형식의 사용자 인터페이스를 구성하는 단계; 및
상기 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 단계
를 포함하는 대화 서비스 제공 방법.
A method of providing a conversation service performed by a computer system, the method comprising:
configuring a user interface of a conversational type in the user's terminal; and
providing a conversation service with an artificial intelligence character through the user interface;
A method of providing a conversation service comprising a.
컴퓨터 시스템과 결합되어 대화 서비스 제공 방법을 실행시키기 위해 컴퓨터 판독 가능한 기록 매체에 기록된 컴퓨터 프로그램에 있어서,
상기 대화 서비스 제공 방법은,
사용자의 단말에 대화 형식의 사용자 인터페이스를 구성하는 단계; 및
상기 사용자 인터페이스를 통해 인공지능 캐릭터와의 대화 서비스를 제공하는 단계
를 포함하는 기록 매체에 기록된 컴퓨터 프로그램.
A computer program recorded on a computer-readable recording medium for executing a method of providing a conversation service in combination with a computer system,
The method of providing the conversation service,
configuring a user interface of a conversational type in the user's terminal; and
providing a conversation service with an artificial intelligence character through the user interface;
A computer program recorded on a recording medium comprising a.
KR1020200006619A 2020-01-17 2020-01-17 Method and system for providing conversation with artificial intelligence character through user interface KR20210093004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200006619A KR20210093004A (en) 2020-01-17 2020-01-17 Method and system for providing conversation with artificial intelligence character through user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200006619A KR20210093004A (en) 2020-01-17 2020-01-17 Method and system for providing conversation with artificial intelligence character through user interface

Publications (1)

Publication Number Publication Date
KR20210093004A true KR20210093004A (en) 2021-07-27

Family

ID=77125589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200006619A KR20210093004A (en) 2020-01-17 2020-01-17 Method and system for providing conversation with artificial intelligence character through user interface

Country Status (1)

Country Link
KR (1) KR20210093004A (en)

Similar Documents

Publication Publication Date Title
US20220043628A1 (en) Electronic device and method for generating short cut of quick command
KR101933558B1 (en) Method and system for processing highlight comment in moving picture
CN113225572B (en) Page element display method, device and system of live broadcasting room
KR102385081B1 (en) Method, system, and non-transitory computer readable record medium for sharing information in chat room using application added to platform in messenger
KR101891582B1 (en) Method and system for processing highlight comment in content
US11216245B2 (en) Electronic device and multitasking supporting method thereof
KR20210156741A (en) Method and system for providing conversation with artificial intelligence character
KR20210093003A (en) Method and system for providing conversation with artificial intelligence character
JP2019036953A (en) Route guidance method and system using video call
JP7393487B2 (en) Method and system for recommending profile pictures and non-transitory computer-readable storage medium
CN110930994B (en) System and method for providing voice assistant service
KR20180087608A (en) System and method for providing search service
KR102582745B1 (en) Method and system for providing a chat room in three-dimensional form and non-transitory computer-readable recording medium
CN110908629A (en) Electronic equipment operation method and device, electronic equipment and storage medium
KR20200137908A (en) Method for managing chatting rooms in portable terminal and apparatus therefore
KR20200123560A (en) Method, system, and non-transitory computer readable record medium for providing reminder messages
KR20200121064A (en) Method, system, and non-transitory computer readable record medium for p managing event messages
KR20210093004A (en) Method and system for providing conversation with artificial intelligence character through user interface
US20220180893A1 (en) Method and system for generating multimedia content
KR102309243B1 (en) Method, system, and computer program for sharing content to chat room in picture-in-picture mode
KR20220105017A (en) Method, computer device, and computer program to display content of interest
KR20210023476A (en) Probability calculation based block coding education service metho and system therefore
US20220350476A1 (en) Electronic device, method, and computer-readable recording medium for deactivating chat room of messenger application
KR102613038B1 (en) Method, system, and non-transitory computer readable recording medium for providing novels via messenger
KR102276816B1 (en) Method and system for providing content composed of spatial unit

Legal Events

Date Code Title Description
E902 Notification of reason for refusal