KR20200073624A - System For Providing Service Of Artificial Intelligence Conversation - Google Patents

System For Providing Service Of Artificial Intelligence Conversation Download PDF

Info

Publication number
KR20200073624A
KR20200073624A KR1020180162001A KR20180162001A KR20200073624A KR 20200073624 A KR20200073624 A KR 20200073624A KR 1020180162001 A KR1020180162001 A KR 1020180162001A KR 20180162001 A KR20180162001 A KR 20180162001A KR 20200073624 A KR20200073624 A KR 20200073624A
Authority
KR
South Korea
Prior art keywords
conversation service
conversation
providing server
service providing
device user
Prior art date
Application number
KR1020180162001A
Other languages
Korean (ko)
Other versions
KR102419192B1 (en
Inventor
김동원
Original Assignee
미스터마인드 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 미스터마인드 주식회사 filed Critical 미스터마인드 주식회사
Priority to KR1020180162001A priority Critical patent/KR102419192B1/en
Publication of KR20200073624A publication Critical patent/KR20200073624A/en
Application granted granted Critical
Publication of KR102419192B1 publication Critical patent/KR102419192B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

The present invention relates to a system for providing an artificial intelligence (AI) conversation service to realize a conversation between an AI conversation service device and a user. According to the present invention, the system comprises: the AI conversation service device providing content to a device user through one or more additional modules electrically connected to a terminal and digitizing a speech of the device user inputted or outputted through a microphone and a speaker; and an AI conversation service providing server receiving the digitized speech of the device user from the AI conversation service device to analyze a corpus of the speech in accordance with types, automatically generating a sentence corresponding to context from the analyzed corpus, which is speech data of the device user, through a machine learning algorithm, and providing the generated sentence to the AI conversation service device.

Description

인공지능 대화 서비스 제공 시스템{System For Providing Service Of Artificial Intelligence Conversation}System for Providing Artificial Intelligence Conversation Service

본 발명은 인공지능 대화 서비스 제공 시스템에 관한 것이다.The present invention relates to an artificial intelligence conversation service providing system.

최근 들어, 다양한 인공지능 서비스가 출시되면서 인공지능 대화 서비스를 사용하기 위한 장치인 인공지능 장치 또한 다양하게 출시되고 있다.Recently, as various artificial intelligence services have been released, artificial intelligence devices, which are devices for using artificial intelligence conversation services, have also been launched in various ways.

일반적으로 인공지능 대화 서비스가 가능한 장치에서 대화 또는 음성의 기능을 구현하는 경우에는 정해진 조건이 되면 미리 정해진 순서대로 단순히 음성을 재생하거나 단순한 명령만으로 설정된 음성을 인식하여 서비스를 실행하는 형태로 구성된다.In general, in the case of implementing a function of a conversation or voice in a device capable of an AI conversation service, it is configured to play a voice simply in a predetermined order or recognize a voice set with a simple command and execute a service when a predetermined condition is met.

이에 따라 장치와 장치 사용자간의 상호 대화가 불가능하며, 단순한 말하기 기능에 한정되어 있어 사용자 특히, 어린이 또는 노인으로 하여금 더 이상의 흥미를 유발하지 못하는 문제점이 있었다.Accordingly, interaction between the device and the user of the device is impossible, and it is limited to a simple speaking function, so that there is a problem that the user, especially a child or an elderly person, cannot cause further interest.

이러한 배경에서, 본 발명의 목적은 사용자가 컨텐츠를 구매하고, 상기 컨텐츠 시청 후 사용자 발화에 대한 응답으로 자연스러운 대화를 유지하는 인공지능 대화 서비스 제공 시스템을 제공하는 데 있다.Against this background, an object of the present invention is to provide an artificial intelligence conversation service providing system in which a user purchases content and maintains a natural conversation in response to a user's speech after viewing the content.

전술한 목적을 달성하기 위하여, 일 측면에서, 본 발명은, 인공지능 대화 서비스 장치를 통해 사용자와 장치가 인공지능 대화가 가능하도록 하는 인공지능 대화 서비스 제공 시스템에 있어서, 하나 이상의 부가 모듈과 전기적으로 연결 또는 분리 가능한 하나 이상의 단자를 가져 상기 단자에 전기적으로 연결된 하나 이상의 부가 모듈을 통해 장치 사용자에게 컨텐츠를 제공할 수 있고, 마이크 및 스피커를 통해 장치 내에 입력 또는 출력된 장치 사용자의 음성을 데이터화하며, 무선 인터넷망을 통해 인공지능 대화 서비스 제공 서버와 무선 통신이 가능한 인공지능 대화 서비스 장치 및 상기 인공지능 대화 서비스 장치에서 데이터화 된 장치 사용자의 음성을 수신받아 형태소 분석, 키워드 인식, 화행 분석 또는 시맨틱 분석과 같은 다수의 자연어 이해 기술 중 하나 이상을 통해 음성의 말뭉치를 형태에 따라 분석을 진행하고, 분석된 말뭉치, 즉 장치 사용자의 음성 데이터를 리지 회귀분석(Ridge Regression), 로지스틱 회기분석(Logistic Regression), 일반화선형모형(Generalized Linear Model), 랜덤 포레스트(Random Forest), 변화 부양 모형(GradientBoostinf Model) 및 뉴럴 네트워크(Neural Network)와 같은 머신러닝 알고리즘을 통해 상기 인공지능 대화 서비스 장치와 장치 사용자가 컨텐츠에 대한 대화가 가능하도록 문맥에 맞는 문장을 자동으로 생성하고 이를 인공지능 대화 서비스 장치에 제공하여 상기 인공지능 대화 서비스 장치와 장치 사용자간의 대화가 가능하도록 기능하는 인공지능 대화 서비스 제공 서버를 포함하는 인공지능 대화 서비스 제공 시스템을 제공한다.In order to achieve the above object, in one aspect, the present invention, an AI conversation service providing system that enables a user and a device to perform AI conversation through an AI conversation service device, the electronic communication with one or more additional modules Having one or more terminals that can be connected or detached, content can be provided to a device user through one or more additional modules electrically connected to the terminal, and data of a device user input or output in the device through a microphone and speaker is dataized, The AI conversation service device capable of wireless communication with the AI conversation service providing server through the wireless Internet network and the voice of the device user who has been data from the AI conversation service device receive morpheme analysis, keyword recognition, dialogue act analysis, or semantic analysis. Analyzes the corpus of speech through one or more of the same multiple natural language understanding technologies, and analyzes the corpus, i.e., the device user's speech data, through Ridge Regression, Logistic Regression, The AI conversation service device and the device user can use the machine learning algorithms such as Generalized Linear Model, Random Forest, GradientBoostinf Model and Neural Network. AI conversation including an AI conversation service providing server that automatically generates context-sensitive sentences to enable conversation and provides them to an AI conversation service device to enable conversation between the AI conversation service device and a device user Provide a service providing system.

이상에서 설명한 바와 같이 본 발명에 의하면, 본원발명의 인공지능 대화 서비스 장치 및 상기 장치 사용자 상호간의 대화를 가능하게 하여 사용자의 흥미를 유발시키는 효과를 보유한다.As described above, according to the present invention, the AI conversation service device of the present invention and the user of the device enable conversation between users, thereby retaining the effect of inducing the user's interest.

또한, 본 발명에 의하면, 컨텐츠를 기반으로 장치 및 상기 장치 사용자간의 음성 대화를 진행하여 장치가 장치 사용자의 의견 및 감정을 쉽게 파악할 수 있도록 하는 효과를 보유한다.In addition, according to the present invention, a voice conversation between a device and the user of the device is performed based on content, so that the device has an effect of easily grasping the opinions and emotions of the device user.

뿐만 아니라, 본 발명에 의하면, 어린이 또는 노인이 특별한 사용법 없이도 장치와 쉽게 대화를 수행할 수 있는 효과를 보유한다.In addition, according to the present invention, it has the effect that the child or the elderly can easily perform a conversation with the device without any special usage.

도 1은 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 시스템의 구성을 간략하게 나타낸 도면,
도 2는 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 장치의 구성을 간략하게 나타낸 도면,
도 3은 본 발명의 실시예에 따른 인공지능 대화부의 구성을 간략하게 나타낸 도면,
도 4는 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 장치의 외형을 예시적으로 나타낸 도면,
도 5는 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 장치에서 인공지능 대화 서비스를 제공하는 과정을 나타낸 순서도이다.
1 is a diagram briefly showing the configuration of an artificial intelligence conversation service providing system according to an embodiment of the present invention;
2 is a diagram briefly showing the configuration of an apparatus for providing AI conversation service according to an embodiment of the present invention;
3 is a diagram briefly showing the configuration of an artificial intelligence dialogue unit according to an embodiment of the present invention;
4 is an exemplary view showing the appearance of an apparatus for providing artificial intelligence conversation service according to an embodiment of the present invention;
5 is a flowchart illustrating a process of providing an AI conversation service in an apparatus for providing an AI conversation service according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다. The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail.

그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.In addition, it should be understood that all detailed descriptions that list the principles, aspects, and embodiments of the invention as well as specific embodiments are intended to include structural and functional equivalents of these matters. It should also be understood that these equivalents include all currently invented equivalents as well as equivalents to be developed in the future, ie, all devices invented to perform the same function regardless of structure.

따라서, 예를 들어, 본 명세서의 블록도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 프로그램 형태로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다. Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flow charts, state transition diagrams, pseudo-codes, and the like can represent a variety of processes performed by a computer or processor, whether or not the computer or processor is explicitly shown in a substantially readable form on a computer-readable medium. It should be understood as indicating.

또한, 본 발명에서 사용되는 '단말' 이라는 용어는 설명의 편의상 사용된 용어로서, '장치' 또는 '서버' 로 표현될 수 있으며 대체 가능하다.In addition, the term'terminal' used in the present invention is a term used for convenience of description, and may be expressed as'device' or'server' and is replaceable.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the clear use of terms presented in terms of processors, controls, or similar concepts should not be interpreted exclusively by reference to hardware capable of executing software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood as implicitly including (ROM), RAM and non-volatile memory. Other hardware for governors may also be included.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features, and advantages will become more apparent through the following detailed description in connection with the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains can easily implement the technical spirit of the present invention. There will be. In addition, in the description of the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 시스템의 구성을 간략하게 나타낸 도면이다. 1 is a diagram briefly showing the configuration of an artificial intelligence conversation service providing system according to an embodiment of the present invention.

도 1에 따르면, 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 시스템은 인공지능 대화 서비스 장치(100), 무선 인터넷망(200) 및 인공지능 대화 서비스 제공 서버(300)를 포함하여 이루어진다. According to FIG. 1, an artificial intelligence conversation service providing system according to an embodiment of the present invention includes an artificial intelligence conversation service device 100, a wireless Internet network 200, and an artificial intelligence conversation service providing server 300.

인공지능 대화 서비스 장치(100)는 무선 인터넷망(120)을 통해 인공지능 대화 서비스 제공 서버(300)와의 데이터 송수신을 통해 인공지능 대화 서비스 제공 서버(300)에 장치 사용자의 음성 신호를 전송하고, 인공지능 대화 서비스 제공 서버(300)로부터 음성 신호에 해당하는 인공지능 대화 서비스 관련 컨텐츠 데이터를 수신할 수 있다. The AI conversation service device 100 transmits a voice signal of a device user to the AI conversation service providing server 300 through data transmission and reception with the AI conversation service providing server 300 through the wireless Internet network 120, The AI conversation service providing server 300 may receive content data related to the AI conversation service corresponding to a voice signal.

또한, 인공지능 대화 서비스 장치(100)는 인공지능 대화 서비스 제공 서버(300)에서 제공하는 특정 컨텐츠를 장치 사용자가 청취 또는 시청한 경우, 해당 컨텐츠와 연관된 질문 및 대답을 인공지능 대화 서비스 제공 서버(300)로부터 전달받아 장치와 장치 사용자간의 대화가 가능하도록 설계될 수 있다. In addition, the AI conversation service device 100, when the device user listens to or views specific content provided by the AI conversation service providing server 300, answers the questions and answers associated with the content to the AI conversation service providing server ( 300) may be designed to enable communication between the device and the user of the device.

아울러, 인공지능 대화 서비스 장치(100)는 인공지능 대화 서비스와 관련된 영상 출력, 영상 입력 등을 위한 하나 이상의 부가 모듈, 즉 인공지능 대화 서비스와 관련된 구성품들이 인공지능 대화 서비스 장치(100)에 결합 또는 분리될 수 있다.In addition, the AI conversation service device 100 may include one or more additional modules for video output and video input related to the AI conversation service, that is, components related to the AI conversation service are coupled to the AI conversation service device 100 or Can be separated.

이를 위해 인공지능 대화 서비스 장치(100)는 도 2와 같이 사운드 입력 단자부(110), 사운드 출력 단자부(120), 하나 이상의 모듈 연결 단자부(130), 무선 통신부(140), 제어부(150) 및 전원부(160)를 포함할 수 있다.To this end, the AI conversation service device 100 includes a sound input terminal unit 110, a sound output terminal unit 120, one or more module connection terminal units 130, a wireless communication unit 140, a control unit 150, and a power unit unit as shown in FIG. It may include 160.

사운드 입력 단자부(110)는 장치 사용자의 음성을 입력받는 마이크 모듈(510)과 전기적으로 연결 또는 분리된다. 여기서 장치 사용자는 모듈 결합형 인공장치(100)를 사용하는 사용자를 의미한다.The sound input terminal unit 110 is electrically connected to or disconnected from the microphone module 510 that receives a device user's voice. Here, the device user means a user who uses the module-coupled artificial device 100.

본 발명의 실시예에서, 사운드 입력 단자부(110)는 장치 사용자가 인공지능 대화 서비스를 이용하기 위해 발생한 음성을 입력받은 마이크 모듈(510)로부터 음성에 대한 음성 신호를 수신한다. 여기서, 음성 신호는 아날로그 신호일 수 있고, 사운드 입력 단자부(110)는 AUX(Auxiliary) 단자로 구현될 수 있다.In an embodiment of the present invention, the sound input terminal unit 110 receives a voice signal for voice from a microphone module 510 that receives a voice generated by a device user to use an artificial intelligence conversation service. Here, the voice signal may be an analog signal, and the sound input terminal unit 110 may be implemented as an auxiliary (AUX) terminal.

사운드 출력 단자부(120)는 장치 사용자가 청취 가능한 가청음을 출력하는 스피커 모듈(520)과 전기적으로 연결 또는 분리된다.The sound output terminal unit 120 is electrically connected to or disconnected from the speaker module 520 that outputs an audible sound audible to a device user.

본 발명의 실시예에서, 사운드 출력 단자부(120)는 제어부(150)에서 전달한 음향 신호를 수신하여 스피커 모듈(520)로 전달할 수 있다.In an embodiment of the present invention, the sound output terminal unit 120 may receive the sound signal transmitted from the control unit 150 and transmit it to the speaker module 520.

특히, 사운드 출력 단자부(120)는 제어부(150)로부터 모듈 미연결 안내 음성 신호를 수신하여 스피커 모듈(520)로 전달할 수 있다. 여기서, 모듈 미연결 안내 음성 신호를 포함한 음향 신호는 아날로그 신호일 수 있고, 사운드 출력 단자부(120)는 사운드 입력 단자부(110)처럼 AUX 단자로 구현될 수 있다.In particular, the sound output terminal unit 120 may receive an unconnected guidance voice signal from the controller 150 and transmit it to the speaker module 520. Here, the acoustic signal including the module unconnected guidance voice signal may be an analog signal, and the sound output terminal unit 120 may be implemented as an AUX terminal like the sound input terminal unit 110.

또한, 사운드 출력 단자부(120)는 후술되는 이동식 기억장치(560)에 저장된 인공지능 대화 서비스 제공 서버(300)로부터 다운로드 받은 컨텐츠의 음성 신호를 수신하여 스피커 모듈(520)로 전달할 수도 있다. 이에 대한 자세한 설명은 도 3에서 후술한다.Also, the sound output terminal unit 120 may receive the voice signal of the content downloaded from the artificial intelligence conversation service providing server 300 stored in the removable memory device 560, which will be described later, and deliver it to the speaker module 520. Detailed description thereof will be described later in FIG. 3.

하나 이상의 모듈 연결 단자부(130)는 인공지능 서비스와 관련된 영상 출력, 영상 입력 등을 위한 하나 이상의 부가 모듈과 전기적으로 연결 또는 분리된다.The one or more module connection terminal units 130 are electrically connected or disconnected from one or more additional modules for image output, image input, and the like related to artificial intelligence services.

여기서, 하나 이상의 모듈 연결 단자부(130)는 제 1 모듈 연결 단자부(132) 내지 제 N 모듈 연결 단자부(136)을 포함할 수 있다.Here, the one or more module connection terminal units 130 may include first module connection terminal units 132 to Nth module connection terminal units 136.

예를 들어, 제 1 모듈 연결 단자부(132)는 도 4와 같이 영상 데이터에 해당하는 영상을 화면 상에 표시하는 디스플레이 모듈(530)과 전기적으로 연결 또는 분리될 수 있다. 이러한 제 1 모듈 연결 단자부(132)는 USB(Universal Serial Bus) 단자 또는 미니 USB 단자 또는 마이크로 USB 단자 또는 HDMI(High-Definition Multimedia Interface) 단자 등 일 수 있다.For example, the first module connection terminal 132 may be electrically connected to or disconnected from the display module 530 displaying an image corresponding to image data on the screen as shown in FIG. 4. The first module connection terminal 132 may be a universal serial bus (USB) terminal, a mini USB terminal, a micro USB terminal, or a high-definition multimedia interface (HDMI) terminal.

제 2 모듈 연결 단자부(134)는 도 4와 같이 피사체를 촬영하여 촬영 데이터를 생성하는 카메라 모듈(540)과 전기적으로 연결 또는 분리될 수 있다. 이러한, 제 2 모듈 연결 단자부(134)는 USB 단자 또는 미니 USB 단자 또는 마이크로 USB 단자 또는 3.5 파이 입력 단자 등 일 수 있다.The second module connection terminal unit 134 may be electrically connected or disconnected from the camera module 540 that captures an object and generates photographing data as illustrated in FIG. 4. The second module connection terminal 134 may be a USB terminal, a mini USB terminal, a micro USB terminal, or a 3.5 pie input terminal.

또한, 제 3 모듈 연결 단자부(미도시)는 도 4와 같이 영상 데이터에 해당하는 영상을 스크린 상에 투사하는 빔 프로젝터 모듈(550)과 전기적으로 연결 또는 분리될 수 있다. 이러한 제 3 모듈 연결 단자부(미도시)는 USB(Universal Serial Bus) 단자 또는 미니 USB 단자 또는 마이크로 USB 단자 또는 HDMI(High-Definition Multimedia Interface) 단자 등 일 수 있다.In addition, the third module connection terminal unit (not shown) may be electrically connected or disconnected from the beam projector module 550 that projects an image corresponding to image data on a screen as shown in FIG. 4. The third module connection terminal (not shown) may be a universal serial bus (USB) terminal, a mini USB terminal, a micro USB terminal, or a high-definition multimedia interface (HDMI) terminal.

제 4 모듈 연결 단자부(미도시)는 도 4와 같이 인공지능 대화 서비스 제공 서버(300)로부터 다운로드한 컨텐츠를 저장하는 이동식 기억장치(560)와 전기적으로 연결 또는 분리될 수 있다. 이러한 제 4 모듈 연결 단자부(미도시)는 USB(Universal Serial Bus) 단자 또는 미니 USB 단자 또는 마이크로 USB 단자 등 일 수 있다.The fourth module connection terminal unit (not shown) may be electrically connected to or disconnected from the removable storage device 560 storing content downloaded from the artificial intelligence conversation service providing server 300 as shown in FIG. 4. The fourth module connection terminal (not shown) may be a Universal Serial Bus (USB) terminal, a mini USB terminal, or a micro USB terminal.

상기 제 4 모듈 연결 단자부(미도시)는 이동식 기억장치(560) 상에 저장된 컨텐츠의 해당 음성 신호 및 영상데이터를 장치의 하나 이상 모듈 연결 단자부(130)와 연결되는 스피커 모듈(520), 디스플레이 모듈(530) 및 빔 프로젝터 모듈(550) 등에 전달하여 스피커 상에서 음성을 출력하게 하거나 화면 상에 영상을 출력하도록 할 수 있다.The fourth module connection terminal unit (not shown) includes a speaker module 520 connected to one or more module connection terminal units 130 of a corresponding audio signal and image data of contents stored on the removable storage device 560, and a display module 530 and the beam projector module 550 to output audio on the speaker or to output an image on the screen.

이때, 상기 컨텐츠는 동화, 소설, 시, 인문, 에세이 등을 포함하는 E-Book 형태의 전자책이거나 K-POP, 동요, 클래식, OST 등을 포함하는 음악이거나 영화, 드라마, 애니메이션 등과 같은 스크린상에 움직이는 영상으로 구성될 수 있으며, 장치 사용자의 음성 명령을 통하여 인공지능 대화 서비스 제공 서버(300)로부터 다운로드 될 수 있다.At this time, the content is an e-book in the form of an e-book containing fairy tales, novels, poetry, humanities, essays, or music including K-POP, nursery rhymes, classical music, OST, etc., or on a screen such as a movie, drama, animation, etc. It may be composed of a moving image, it can be downloaded from the artificial intelligence conversation service providing server 300 through the voice command of the device user.

이에 대한 자세한 설명은 도 3의 인공지능 대화 서비스 제공 서버(300)에서 후술하기로 한다.Detailed description of this will be described later in the artificial intelligence conversation service providing server 300 of FIG. 3.

무선 통신부(140)는 무선 인터넷망(200)을 통해 인공지능 대화 서비스 제공 서버(300)와의 데이터 송수신을 수행한다.The wireless communication unit 140 performs data transmission and reception with the artificial intelligence conversation service providing server 300 through the wireless Internet network 200.

이러한, 무선 통신부(140)는 와이파이(WiFi : Wireless Fidelity) 중 계기를 통해 무선 인터넷망(120)에 접속할 수 있는 와이파이 통신 모듈 또는 테더링 단말과의 블루투스 통신을 통해 무선 인터넷망(200)에 접속할 수 있는 블루투스(Bluetooth) 모듈 중 어느 하나로 구현될 수 있다.The wireless communication unit 140 may access the wireless Internet network 200 through Bluetooth communication with a Wi-Fi communication module or a tethering terminal that can access the wireless Internet network 120 through an instrument among Wi-Fi (Wireless Fidelity). It can be implemented in any one of the Bluetooth (Bluetooth) module.

제어부(150)는 인공지능 대화 서비스 장치(100)의 전반적인 기능을 제어하는 모듈이다.The control unit 150 is a module that controls the overall function of the AI conversation service device 100.

본 발명의 실시예에서 하나 이상의 부가 모듈 중 어느 하나의 부가 모듈이 하나 이상의 모듈 연결 단자부(130) 중 어느 하나의 모듈 연결 단자부에 전기적으로 연결되면, 제어부(150)는 어느 하나의 부가 모듈이 연결된 것을 인공지능 대화 서비스 제공 서버(300)에 알리기 위한 모듈 연결 알림 정보를 생성하고, 무선 통신부(140)를 통해 모듈 연결 알림 정보를 인공지능 대화 서비스 제공 서버(300)에 전송한다. 여기서, 제어부(150)는 어느 하나의 모듈 연결 단자부에 연결된 어느 하나의 부가 모듈로부터 어느 하나의 부가 모듈 식별 정보를 수신할 수 있고, 이를 통해 상기 모듈 연결 알림 정보를 생성할 수 있다. 다시 말해서, 모듈 연결 알림 정보는 어느 하나의 부가 모듈의 식별 정보(예를 들어, 어느 하나의 부가 모듈의 시리얼 번호, 모델명 등)를 포함할 수 있다.In an embodiment of the present invention, when any one of the one or more additional modules is electrically connected to any one of the one or more module connection terminal units 130, the control unit 150 is connected to any one of the additional modules The module connection notification information for notifying the AI conversation service providing server 300 is generated, and the module connection notification information is transmitted to the AI conversation service providing server 300 through the wireless communication unit 140. Here, the control unit 150 may receive any one of the additional module identification information from any one of the additional modules connected to any one of the module connection terminal units, and thereby generate the module connection notification information. In other words, the module connection notification information may include identification information (eg, serial number, model name, etc.) of any one additional module.

인공지능 대화 서비스 제공 서버(300)로 모듈 연결 알림 정보를 전송한 후, 제어부(150)는 마이크 모듈(510)과 전기적으로 연결된 사운드 입력 단자부(110)를 통해 장치 사용자의 음성 신호를 수신할 수 있고, 음성 신호를 디지털 데이터인 음성 데이터로 변환할 수 있다.After transmitting the module connection notification information to the artificial intelligence conversation service providing server 300, the control unit 150 may receive the voice signal of the device user through the sound input terminal unit 110 electrically connected to the microphone module 510. The audio signal can be converted into audio data that is digital data.

제어부(150)는 무선 통신부(140)를 통해 음성 데이터를 인공지능 대화 서비스 제공 서버(300)로 전송할 수 있다. 여기서, 음성 신호는 장치 사용자가 마이크 모듈(510)에 입력한 음성에 해당하는 아날로그 신호로써, 마이크 모듈(510)에서 장치 사용자의 음성을 음성 신호로 변환할 수 있다.The controller 150 may transmit voice data to the artificial intelligence conversation service providing server 300 through the wireless communication unit 140. Here, the voice signal is an analog signal corresponding to the voice input by the device user to the microphone module 510, and the microphone module 510 may convert the device user's voice into a voice signal.

본 발명의 실시예에서 음성 데이터에 어느 하나의 부가 모듈의 동작 관련 명령이 포함되어 있으면, 제어부(150)는 무선 통신부(140)를 통해 인공지능 대화 서비스 제공 서버(300)로부터 어느 하나의 부가 모듈의 동작 관련 데이터를 수신할 수 있고, 어느 하나의 모듈 연결 단자부를 통해 상기 동작 관련 데이터를 어느 하나의 부가 모듈로 전송할 수 있다.In the embodiment of the present invention, if the voice data includes a command related to the operation of any one of the additional modules, the control unit 150 may transmit any one of the additional modules from the artificial intelligence conversation service providing server 300 through the wireless communication unit 140. The operation-related data may be received, and the operation-related data may be transmitted to any one additional module through any one module connection terminal.

한편, 음성 데이터에 하나 이상의 모듈 연결 단자부(130)에 미연결된 부가 모듈인 미연결 부가 모듈의 동작 관련 명령이 음성 데이터에 포함된 경우, 제어부(150)는 무선 통신부(140)를 통해 인공지능 대화 서비스 제공 서버(300)로부터 모듈 미연결 안내 음성 데이터를 수신할 수 있고, 모듈 미연결 안내 음성 데이터를 아날로그 신호인 모듈 미연결 안내 음성 신호로 변환할 수 있다.Meanwhile, when the voice data includes an operation related command of an unconnected additional module, which is an additional module that is not connected to one or more module connection terminal units 130 in the voice data, the controller 150 communicates artificial intelligence through the wireless communication unit 140. The module unconnected guide voice data may be received from the service providing server 300, and the module unconnected guide voice data may be converted into an analog signal module unconnected guide voice signal.

그리고, 제어부(150)는 사운드 출력 단자부(120)를 통해 모듈 미연결 안내 음성 신호를 스피커 모듈(520)로 전달하여 모듈 미연결 안내 음성 데이터가 스피커 모듈(520)을 통해 가청음으로 출력되도록 하고, 이를 통해 장치 사용자가 잘못된 음성을 전달한 것을 인지할 수 있도록 한다.Then, the control unit 150 transmits the module unconnected guidance voice signal to the speaker module 520 through the sound output terminal unit 120 so that the module unconnected guidance voice data is output as an audible sound through the speaker module 520, This allows the device user to recognize that the wrong voice was delivered.

예를 들어, 디스플레이 모듈(530)이 제 1 모듈 연결 단자부(132)에 전기적으로 연결, 즉 디스플레이 모듈(530)의 커넥터가 제 1 모듈 연결 단자부(132)에 접속된 경우, 제어부(150)는 디스플레이 모듈(530)이 연결된 것을 인공지능 대화 서비스 제공 서버(130)에 알리기 위한 모듈 연결 알림 정보를 생성하고, 무선 통신부(140)를 통해 모듈 연결 알림 정보를 인공지능 대화 서비스 제공 서버(300)에 전송할 수 있다.For example, when the display module 530 is electrically connected to the first module connection terminal portion 132, that is, when the connector of the display module 530 is connected to the first module connection terminal portion 132, the control unit 150 The module connection notification information for notifying the AI conversation service providing server 130 that the display module 530 is connected is generated, and the module connection notification information is transmitted to the AI conversation service providing server 300 through the wireless communication unit 140. Can transmit.

이후, 제어부(150)는 장치 사용자의 음성에 해당하는 음성 신호를 사운드 입력 단자부(110)를 통해 수신하여 음성 데이터로 변환할 수 있고, 무선 통신부(140)를 통해 음성 데이터를 인공지능 대화 서비스 제공 서버(300)로 전송할 수 있다.Subsequently, the controller 150 may receive a voice signal corresponding to the voice of the device user through the sound input terminal unit 110 and convert it into voice data, and provide artificial intelligence conversation service through the wireless communication unit 140 It can be transmitted to the server 300.

여기서, 음성 데이터에 디스플레이 모듈(530)의 동작 관련 명령(예를 들어, "△△ 만화 영화 보여줘" 등)이 포함된 경우, 모듈 연결 알림 정보의 수신을 통해 인공지능 대화 서비스 장치(100)에 디스플레이 모듈(530)이 결합된 것을 인지한 인공지능 대화 서비스 제공 서버(300)는 음성 데이터에 포함된 디스플레이 모듈(530)의 동작 관련 명령이 유효한 명령이라는 것을 확인할 수 있고, 디스플레이 모듈(530)의 동작 관련 명령에 해당하는 디스플레이 모듈(530)의 동작 관련 데이터(예를 들어, "△△ 만화 영화" 동영상 데이터)를 내부 데이터베이스에서 검색 및 추출하여 인공지능 대화 서비스 장치(100)에 제공할 수 있다.Here, when the voice data includes a command related to the operation of the display module 530 (for example, “show a △△ cartoon movie”, etc.), the AI communication service device 100 is received through reception of module connection notification information. The AI conversation service providing server 300 recognizing that the display module 530 is combined can confirm that the operation-related command of the display module 530 included in the voice data is a valid command, and the The motion-related data (eg, “△△ cartoon movie” video data) of the display module 530 corresponding to the motion-related command may be searched and extracted from the internal database and provided to the AI conversation service device 100. .

이때, 앞서 예를 든 "△△ 만화 영화" 동영상 데이터(즉, 컨텐츠)가 내부 데이터베이스에서 검색 및 추출되지 않는 경우에 제어부(150)는 사운드 출력 단자부(120)를 통해 "해당 영상이 존재하지 않습니다" 와 같은 문구를 출력하게 설정될 수 있으며, 이 경우 장치 사용자는 인공지능 대화 서비스 제공 서버(300)로부터 해당 영상을 구매 및 다운로드 받아 영상을 시청할 수 있다.In this case, when the video data (ie, content) of the “Δ△ cartoon movie”, for example, is not searched and extracted from the internal database, the control unit 150 may perform a “no corresponding video” through the sound output terminal unit 120. It may be set to output a phrase such as, in this case, the device user can purchase and download the corresponding video from the artificial intelligence conversation service providing server 300 to watch the video.

예를 들어, "해당 영상이 존재하지 않습니다" 와 같은 문구를 수신한 장치 사용자가 새로운 동작 관련 명령(예를 들어, "△△ 만화 영화 구매해줘" 등)을 생성할 경우 제어부(150)는 인공지능 대화 서비스 제공 서버(300)로부터 '△△ 만화 영화'에 해당하는 컨텐츠를 다운로드 받을 수 있고, 이를 이동식 저장장치(260)에 저장되도록 기능하여 장치의 내부 데이터베이스에서 해당 컨텐츠가 검색 및 추출 가능하도록 할 수 있다.For example, when a device user receiving a phrase such as “the corresponding video does not exist” generates a new motion-related command (eg, “Please purchase a △△ cartoon movie”, etc.), the controller 150 is artificial. Content corresponding to'△△ cartoon movie' can be downloaded from the intelligent conversation service providing server 300, and it is stored in the removable storage device 260 so that the content can be searched and extracted from the device's internal database. can do.

이를 통해 제어부(150)는 무선 통신부(140)를 통해 인공지능 대화 서비스 제공 서버(300)로부터 디스플레이 모듈(530)의 동작 관련 데이터를 수신할 수 있고, 제 1 모듈 연결 단자부(132)를 통해 디스플레이 모듈(530)의 동작 관련 데이터를 디스플레이 모듈(530)로 전달하여 디스플레이 모듈(530)에서 동작 관련 데이터에 해당하는 영상을 표시할 수 있도록 한다.Through this, the control unit 150 may receive data related to the operation of the display module 530 from the AI communication service providing server 300 through the wireless communication unit 140, and display it through the first module connection terminal unit 132. The operation-related data of the module 530 is transferred to the display module 530 so that the display module 530 can display an image corresponding to the operation-related data.

한편, 음성 데이터에 하나 이상의 모듈 연결 단자부(130)에 미연결된 카메라 모듈(540)의 동작 관련 명령(예를 들어, "사진 찍어줘" 등)이 포함된 경우, 모듈 연결 알림 정보의 수신을 통해 인공지능 대화 서비스 장치(100)에 디스플레이 모듈(530)만 결합된 것을 인지한 인공지능 대화 서비스 제공 서버(300)는 음성 데이터에 포함된 카메라 모듈(540)의 동작 관련 명령이 유효하지 않은 명령이라는 것을 확인할 수 있다.On the other hand, when the voice data includes an operation-related command (eg, “take a picture”) of the camera module 540 that is not connected to the one or more module connection terminal 130, through reception of module connection notification information The AI conversation service providing server 300, which recognizes that only the display module 530 is coupled to the AI conversation service device 100, indicates that an operation related command of the camera module 540 included in voice data is an invalid command. You can confirm that.

이러한 경우, 인공지능 대화 서비스 제공 서버(300)는 모듈 미연결 안내 음성 데이터(예를 들어, "카메라 모듈이 연결되어 있지 않습니다" 등)를 생성하여 인공지능 대화 서비스 장치(100)에 전송할 수 있다.In this case, the AI conversation service providing server 300 may generate module unconnected guidance voice data (eg, “the camera module is not connected”, etc.) and transmit it to the AI conversation service device 100. .

이를 통해 제어부(150)는 무선 통신부(140)를 통해 인공지능 대화 서비스 제공 서버(300)로부터 모듈 미연결 안내 음성 데이터를 수신하여 모듈 미연결 안내 음성 데이터를 아날로그 신호인 모듈 미연결 안내 음성 신호로 변환할 수 있고, 사운드 출력 단자부(120)를 통해 모듈 미연결 안내 음성 신호를 스피커 모듈(520)로 전달하여 모듈 미연결 안내 음성 데이터가 스피커 모듈(520)을 통해 가청음으로 출력되도록 할 수 있다.Through this, the control unit 150 receives the module unconnected guidance voice data from the artificial intelligence conversation service providing server 300 through the wireless communication unit 140 to convert the module unconnected guidance voice data into an analog signal module unconnected guidance voice signal. It is possible to convert and transmit the voice signal of the module unconnected to the speaker module 520 through the sound output terminal unit 120 so that the module unconnected guide voice data can be output as an audible sound through the speaker module 520.

전원부(160)는 인공지능 대화 서비스 장치(100)에 전원을 공급한다. 이러한 전원부(160)는 충방전이 가능한 니켈 카드뮴 전지, 알카라인 전지, 리튬 이온 전지, 리튬 폴리머 전지 중 어느 하나일 수 있다.The power supply unit 160 supplies power to the artificial intelligence conversation service device 100. The power supply unit 160 may be any one of a rechargeable nickel-cadmium battery, an alkaline battery, a lithium ion battery, and a lithium polymer battery.

이상에서 설명한 바와 같이 본 발명의 실시예에 따른 인공지능 대화 서비스 장치(100)는 하나 이상의 부가 모듈 중 어느 하나의 부가 모듈과 전기적으로 연결되면, 어느 하나의 부가 모듈이 연결된 것을 인공지능 대화 서비스 제공 서버(300)에 알리기 위한 모듈 연결 알림 정보를 생성하여 인공지능 대화 서비스 제공 서버(300)에 전송한다.As described above, when the AI conversation service apparatus 100 according to an embodiment of the present invention is electrically connected to any one of the one or more additional modules, the AI conversation service is provided to which one of the additional modules is connected. Module connection notification information for notifying the server 300 is generated and transmitted to the artificial intelligence conversation service providing server 300.

그리고, 인공지능 대화 서비스 장치(100)는 마이크 모듈(510)을 통해 장치 사용자의 음성을 입력받아서 인공지능 대화 서비스 제공 서버(300)에 전송할 수 있고, 장치 사용자의 음성에 어느 하나의 부가 모듈의 동작 관련 명령이 포함되어 있으면, 인공지능 대화 서비스 제공 서버(300)로부터 어느 하나의 부가 모듈의 동작 관련 데이터를 수신하여 어느 하나의 부가 모듈에 상기 동작 관련 데이터를 전달할 수 있다.Then, the artificial intelligence conversation service device 100 may receive the voice of the device user through the microphone module 510 and transmit it to the artificial intelligence conversation service providing server 300, and the device user voice may include If a motion-related command is included, the motion-related data of any one additional module may be received from the artificial intelligence conversation service providing server 300 and the motion-related data may be delivered to any one of the additional modules.

반면, 장치 사용자의 음성에 어느 하나의 부가 모듈의 동작 관련 명령이 미포함되어 있으면, 인공지능 대화 서비스 제공 서버(300)로부터 모듈 미연결 안내 음성 데이터를 수신할 수 있고, 스피커 모듈(520)을 통해 모듈 미연결 안내 음성 데이터를 가청음으로 출력하여 장치 사용자가 잘못된 음성을 전달한 것을 인지할 수 있도록 한다.On the other hand, if the device user's voice does not include an operation related command of any one of the additional modules, the module unconnected guidance voice data can be received from the artificial intelligence conversation service providing server 300, and through the speaker module 520 The module unconnected guidance voice data is output as an audible tone so that the user of the device can recognize that the wrong voice has been delivered.

무선 인터넷망(200)은 인공지능 대화 서비스 장치(100)와 인공지능 대화 서비스 제공 서버(300) 간의 데이터 송수신을 매개하는 수단으로서, 무선랜망, WCDMA(Wideband Code Division Multiple Access)망, HSDPA(High Speed Downlink Packet Access)망, LTE(Long Term Evolution)망, LTE-A(LTE Advanced)망, 5세대 이동통신망 등을 포함할 수 있다.The wireless Internet network 200 is a means for mediating data transmission and reception between the AI conversation service device 100 and the AI conversation service providing server 300, a wireless LAN network, a WCDMA (Wideband Code Division Multiple Access) network, and an HSDPA (High) Speed Downlink Packet Access (LTE) network, LTE (Long Term Evolution) network, LTE-A (LTE Advanced) network, and may include a 5G mobile communication network.

인공지능 대화 서비스 제공 서버(300)는 인공지능 대화 서비스 장치(100)로부터 장치 사용자의 음성을 수신 및 인식하고, 자체 데이터베이스 또는 외부 데이터베이스 등에서 장치 사용자의 음성에 응대하기 위한 데이터(예를 들어, 동영상 데이터, 이미지 데이터, 소리 데이터 등)를 검색 및 추출하여 인공지능 대화 서비스 장치(100)에 전송할 수 있다.The AI conversation service providing server 300 receives and recognizes a device user's voice from the AI conversation service device 100, and data (for example, a video) for responding to the device user's voice in its own database or external database. Data, image data, sound data, etc.) can be searched and extracted and transmitted to the AI communication service device 100.

본 발명의 실시예에서 인공지능 대화 서비스 제공 서버(300)는 인공지능 장치(100)로부터 모듈 연결 알림 정보를 수신하여 인공지능 대화 서비스 장치(100)에 전기적으로 연결된 어느 하나의 부가 모듈의 종류를 확인할 수 있다. 여기서, 모듈 연결 알림 정보는 어느 하나의 부가 모듈의 식별 정보(예를 들어, 어느 하나의 부가 모듈의 시리얼 번호, 모델명 등)를 포함할 수 있다.In the embodiment of the present invention, the AI conversation service providing server 300 receives module connection notification information from the AI device 100 and determines the type of any one additional module electrically connected to the AI conversation service device 100. Can be confirmed. Here, the module connection notification information may include identification information (eg, serial number, model name, etc.) of any one of the additional modules.

모듈 연결 알림 정보를 수신한 후, 인공지능 대화 서비스 제공 서버(300)는 인공지능 대화 서비스 장치(100)로부터 음성 데이터를 수신하고, 음성 인식 기능을 통해 음성 데이터에 해당하는 음성의 의미를 파악할 수 있다.After receiving the module connection notification information, the AI conversation service providing server 300 receives voice data from the AI conversation service device 100, and can recognize the meaning of voice corresponding to the voice data through the voice recognition function. have.

이때, 상기 음성 인식 기능은 후술되는 도 3의 인공지능 대화 서비스 제공 서버(300)의 말뭉치 분석부(330)에서 음성의 말뭉치를 형태에 따라 분석하여 음성의 의미를 파악할 수 있다.In this case, the speech recognition function may analyze the corpus of speech according to the form in the corpus analysis unit 330 of the artificial intelligence conversation service providing server 300 of FIG. 3 to be described later to grasp the meaning of the speech.

음성 데이터에 해당하는 음성의 의미를 파악한 결과, 음성 데이터에 어느 하나의 부가 모듈의 동작 관련 명령이 포함되어 있으면, 인공지능 대화 서비스 제공 서버(300)는 상기 동작 관련 명령에 응대하기 위한 어느 하나의 부가 모듈의 동작 관련 데이터(예를 들어, 동영상 데이터, 이미지 데이터, 소리 데이터, 모듈 구동 제어 데이터 등)를 자체 데이터베이스 또는 외부 데이터베이스에서 검색 및 추출하여 인공지능 대화 서비스 장치(100)에 전송할 수 있다.As a result of grasping the meaning of the voice corresponding to the voice data, if the voice data includes an operation related command of any one of the additional modules, the artificial intelligence conversation service providing server 300 may use any one to respond to the operation related command. The operation-related data (eg, video data, image data, sound data, module driving control data, etc.) of the additional module may be searched and extracted from its own database or an external database, and transmitted to the artificial intelligence conversation service device 100.

한편, 음성 데이터에 해당하는 음성의 의미를 파악한 결과, 음성 데이터에 어느 하나의 부가 모듈의 동작 관련 명령이 아닌 미연결 부가 모듈의 동작 관련 명령이 포함되어 있으면, 인공지능 대화 서비스 제공 서버(300)는 모듈 미연결 안내 음성 데이터를 생성하여 인공지능 대화 서비스 장치(100)로 전송할 수 있다. 여기서, 미연결 부가 모듈은 인공지능 장치(100)에 미연결된 부가 모듈을 의미할 수 있다. 다시 말해서 모듈 연결 알림 정보를 통해 확인한 부가 모듈의 종류와 상이한 종류의 부가 모듈에 대한 동작 관련 명령이 음성 데이터에 포함되어 있으면, 인공지능 대화 서비스 제공 서버(300)가 모듈 미연결 안내 음성 데이터를 생성하여 인공지능 대화 서비스 장치(100)로 전송하는 것이다.Meanwhile, as a result of understanding the meaning of the voice corresponding to the voice data, if the voice data includes an operation related instruction of an unconnected additional module rather than an operation related instruction of any one additional module, the artificial intelligence conversation service providing server 300 Can generate the module unconnected guidance voice data and transmit it to the artificial intelligence conversation service device 100. Here, the unconnected additional module may refer to an additional module that is not connected to the artificial intelligence device 100. In other words, if an operation related command for an additional module different from the type of the additional module identified through the module connection notification information is included in the voice data, the artificial intelligence conversation service providing server 300 generates the module unconnected guidance voice data To the AI conversation service device 100.

위와 같이 인공지능 대화 서비스 제공 서버(300)가 인공지능 대화 서비스 장치(100)로부터 수신한 모듈 연결 알림 정보를 통해 인공지능 대화 장치(100)에 연결된 부가 모듈의 종류를 확인할 수 있고, 인공지능 대화 서비스 제공 서버(300)가 인공지능 대화 장치(100)에 연결된 부가 모듈과 관련한 인공지능 서비스만을 제공하기 때문에 장치 사용자가 구성한 구성품들에 따라 차별화된 인공지능 대화 서비스를 장치 사용자에게 제공할 수 있게 된다.As described above, through the module connection notification information received from the AI conversation service providing server 300 from the AI conversation service device 100, the type of the additional module connected to the AI conversation device 100 can be confirmed, and the AI conversation Since the service providing server 300 provides only artificial intelligence services related to an additional module connected to the artificial intelligence conversation device 100, it is possible to provide differentiated artificial intelligence conversation services to device users according to components configured by the device user. .

이하에서는 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 서버(300)의 구성에 대해 설명하도록 한다.Hereinafter, the configuration of the artificial intelligence conversation service providing server 300 according to an embodiment of the present invention will be described.

도 3은 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 서버의 구성을 간략하게 나타낸 블록 구성도이다.3 is a block diagram schematically showing the configuration of an AI conversation service providing server according to an embodiment of the present invention.

본 발명의 실시예에 따른 인공지능 대화 제공 장치, 즉 인공지능 대화 서비스 제공 서버(300)는 통신 인터페이스부(310), 데이터 저장부(320), 말뭉치 분석부(330), 인공지능 대화 생성부(340) 및 제어부(350)를 포함하여 구성될 수 있다.The apparatus for providing an AI conversation according to an embodiment of the present invention, that is, the AI conversation service providing server 300 includes a communication interface unit 310, a data storage unit 320, a corpus analysis unit 330, and an AI conversation generation unit It may be configured to include 340 and the control unit 350.

통신 인터페이스부(310)는 무선 인터넷망(200)을 통해 연결된 인공지능 대화 서비스 장치(100)와의 데이터 송수신을 수행한다.The communication interface 310 performs data transmission and reception with the artificial intelligence conversation service device 100 connected through the wireless Internet network 200.

구체적으로, 통신 인터페이스부(310)는 인공지능 대화 서비스 장치(100)에서 전송한 모듈 연결 알림 정보와 장치 사용자의 음성 데이터를 무선 인터넷망(200)을 통해 수신하고, 인공지능 대화 서비스 장치(100)에 연결된 어느 하나의 부가 모듈의 동작 관련 데이터 또는 모듈 미연결 안내 음성 데이터를 무선 인터넷망(200)을 통해 인공지능 대화 서비스 장치(100)에 전송할 수 있다.Specifically, the communication interface unit 310 receives the module connection notification information and the voice data of the user of the device transmitted from the AI conversation service device 100 through the wireless Internet network 200, and the AI conversation service device 100 ) May transmit the operation related data of any one additional module connected to the module or the voice data of the module not connected to the artificial intelligence conversation service device 100 through the wireless Internet network 200.

이러한, 통신 인터페이스부(310)는 네트워크 인터페이스 카드(Network Interface Card) 등으로 구현될 수 있다.The communication interface unit 310 may be implemented with a network interface card or the like.

데이터 저장부(320)는 후술할 제어부(350)가 처리하는 데이터를 일시적으로 저장하거나, 인공지능 대화 서비스 제공 서버(300)의 기능을 수행하기 위한 프로그램을 저장하고, 인공지능 대화 서비스 제공 서버(300)의 작동에 필요한 데이터를 저장한다.The data storage unit 320 temporarily stores data processed by the control unit 350 to be described later, or stores a program for performing the function of the AI conversation service providing server 300, and the AI conversation service providing server ( 300).

이러한 데이터 저장부(320)는 인공지능 대화 서비스 제공 서버(300)의 내부 기억 장치 및 인공지능 대화 서비스 제공 서버(300)와 별개인 스토리지 서버 중 하나 이상으로 구성될 수 있다.The data storage unit 320 may include one or more of an internal storage device of the AI conversation service providing server 300 and a storage server separate from the AI conversation service providing server 300.

말뭉치 분석부(330)는 인공지능 대화 서비스 장치(100)의 사운드 입력 단자부(110)를 통해 입력된 장치 사용자의 음성을 형태소 분석, 키워드 인식, 화행 분석 또는 시맨틱 분석과 같은 다수의 자연어 이해 기술 중 하나 이상을 통해 음성을 분석하여 이에 대응하는 서비스를 인공지능 대화 서비스 장치(100)로 전달할 수 있다.The corpus analysis unit 330 is one of a number of natural language understanding technologies such as morpheme analysis, keyword recognition, dialogue act analysis, or semantic analysis of the voice of a device user input through the sound input terminal unit 110 of the artificial intelligence conversation service device 100. The voice may be analyzed through one or more and a corresponding service may be delivered to the artificial intelligence conversation service device 100.

예를 들어, 상기 말뭉치 분석부(330)는 인공지능 대화 서비스 장치(100)로부터 "△△ 만화 영화 구매해줘" 라는 음성 데이터를 수신받은 경우, 형태소 분석을 통해 "△△", "만화", "영화", "구매해줘" 등을 추출하게 된다. For example, when the corpus analysis unit 330 receives voice data of "△△ buy a cartoon movie" from the artificial intelligence conversation service device 100, "△△", "cartoon" through morpheme analysis, "Movie", "Buy me", etc. are extracted.

다음으로, 말뭉치 분석부(330)는 인공지능 대화 서비스 제공 서버(300)의 내부 기억 장치 및 인공지능 대화 서비스 제공 서버(300)와 별개인 스토리지 서버 등에서 "△△" 의 제목이 포함된 만화 영화를 추출하고, 이를 인공지능 대화 서비스 장치(100)로 전달할 수 있다.Next, the corpus analysis unit 330 is a cartoon movie containing the title of "△△" in the storage server separate from the internal storage of the AI conversation service providing server 300 and the AI conversation service providing server 300, etc. And extract it and deliver it to the AI conversation service device 100.

설계에 따라서는, 상기 "△△"의 제목이 포함된 만화 영화를 추출하는 과정에서 장치 사용자에게 해당 컨텐츠 가격, 컨텐츠 요약글, 다운로드 후 컨텐츠 유효기간 등에 대한 컨텐츠 정보를 인공지능 대화 서비스 장치(100)로 출력하도록 전달할 수 있으며, 장치 사용자가 출력되는 음성 신호를 수신한 후 컨텐츠에 관련된 음성 명령(예를 들어, "컨텐츠 구매" 등)을 장치를 통해 전달하는 경우 해당 컨텐츠가 구매결정되어 인공지능 대화 서비스 장치(100)의 이동식 기억장치(560)에 저장되도록 할 수 있다.Depending on the design, in the process of extracting the cartoon movie containing the title of "△△", the device provides the user with information on the content price, content summary, and expiration date of the content after the download. ), and when a device user receives a voice signal output, and then transmits a voice command related to the content (for example, "buy content") through the device, the corresponding content is determined to be purchased and artificial intelligence It can be stored in the removable storage device 560 of the conversation service device 100.

또한, 상기 말뭉치 분석부(330)는 장치 사용자가 특정 컨텐츠를 청취 또는 시청한 뒤 해당 컨텐츠에 대한 의견 및 감정 등에 대한 음성을 장치를 통해 전달하는 경우, 이를 상술한 방법과 같은 방법으로 분석하는 기능을 수행할 수 있다.In addition, the corpus analysis unit 330, when a device user listens to or views a specific content and then transmits a voice for comments and emotions on the content through the device, analyzes it in the same manner as the above-described method You can do

이때 분석된 정보는 후술되는 인공지능 대화 생성부(340)에 전달되어 장치 사용자와 장치가 원활한 대화가 가능하도록 문맥에 맞는 문장을 자동으로 생성하는데 사용될 수 있다.At this time, the analyzed information may be transmitted to the AI conversation generating unit 340, which will be described later, and may be used to automatically generate context-sensitive sentences so that the device user and the device can communicate smoothly.

예를 들어, 장치 사용자가 특정 컨텐츠를 청취 또는 시청한 뒤 장치를 통해 "주인공이 너무 가엾다. 마음이 아파" 와 같은 음성 데이터를 전달한 경우, 말뭉치 분석부(330)는 형태소 분석을 통해 "주인공", "가엾다", "마음", "아파" 등을 추출하게 되고, "가엾다", "아파" 등을 "감정이 슬픈 상태"로 카테고리 매칭할 수 있다. For example, when a device user listens to or views a specific content and then transmits voice data such as "The main character is too poor. My heart hurts" through the device, the corpus analysis unit 330 uses the morpheme analysis to "the main character" , "Slight", "Mind", "Sick", etc. are extracted, and "Slight", "Sick", etc. can be categorized into "Sentiment of sadness".

또한, 상기 말뭉치 분석부(330)는 설계에 따라 장치 사용자의 음성인 발화음을 통해 장치 사용자의 감정 상태를 판단할 수도 있다. 이는 장치 사용자의 음성 신호의 주파수 대역폭, 스펙트럼 기울기 및 성문의 오픈 비율을 파라미터로 추출하여 감정을 인식할 수 있으며, 이는 통상적으로 사용되는 음성 신호 파라미터를 추출하는 방식으로 설계될 수 있다.In addition, the corpus analysis unit 330 may determine the emotional state of the device user through utterance sound, which is the voice of the device user, according to the design. It can recognize emotions by extracting the frequency bandwidth, spectral slope, and open ratio of voice gates as parameters of a device user's voice signal, which can be designed in such a way as to extract commonly used voice signal parameters.

인공지능 대화 생성부(340)는 말뭉치 분석부(330)를 통해 분석된 장치 사용자의 음성 데이터를 기반으로 인공지능 대화 서비스 장치(100)와 장치 사용자가 특정 컨텐츠에 대한 대화가 가능하도록 문맥에 맞는 문장을 자동으로 생성하는 기능을 수행한다.The AI conversation generating unit 340 is adapted to the context so that the AI conversation service device 100 and the device user can talk about specific content based on the voice data of the device user analyzed through the corpus analysis unit 330. Performs the function to automatically generate sentences.

이때 상기 인공지능 대화 생성부(340)는 머신 러닝 처리부(미도시)를 포함하여 머신 러닝에 따라 문장을 자동으로 생성하도록 처리한다. 상기 머신 러닝 처리부에서의 머신 러닝 알고리즘은 하나 이상의 처리 방식이 이용될 수 있으며, 나아가 입력 변수와 타겟 변수를 복수개의 머신 러닝 알고리즘과 복수개의 머신러닝 알고리즘의 조합에 적용하여 사전 학습하고, 학습한 결과에 따른 알고리즘 각각의 정확도, 정확도 대비 연산시간, 성능비 및 모델의 안정성(fitness) 중에서 적어도 하나를 고려하여 최적의 머신러닝 알고리즘 또는 최적의 조합된 머신러닝 알고리즘이 결정될 수 있다.At this time, the artificial intelligence conversation generation unit 340 includes a machine learning processing unit (not shown) to automatically generate sentences according to machine learning. The machine learning algorithm in the machine learning processing unit may use one or more processing methods, furthermore, by applying input variables and target variables to a combination of a plurality of machine learning algorithms and a plurality of machine learning algorithms, pre-learning and learning results The optimal machine learning algorithm or the optimal combined machine learning algorithm may be determined in consideration of at least one of accuracy, computation time, performance ratio, and model stability.

상기 머신러닝 알고리즘은 예를 들어, 리지 회귀분석(Ridge Regression), 로지스틱 회기분석(Logistic Regression), 일반화선형모형(Generalized Linear Model), 랜덤 포레스트(Random Forest), 변화 부양 모형(GradientBoostinf Model) 및 뉴럴 네트워크(Neural Network) 등이 이용될 수 있다.The machine learning algorithm includes, for example, Ridge Regression, Logistic Regression, Generalized Linear Model, Random Forest, GradientBoostinf Model and Neural. A network (Neural Network) or the like may be used.

리지 회귀분석은 기본적인 linear 모델이며 극단치 또는 이상점(outlier)을 핸들하기 위해 추가적인 파라미터를 제공한다 로지스틱 회기분석은 기본적인 linear 모델이며 타겟변수 즉 예측하려는 대상이 Binomial 분포도를 보일 때 사용하는 것이 효과적이다 일반화선형모형은 기본적인 linear 모델이며 타겟변수가 Poisson 분포도를 보일 때 사용하는 것이 효과적이다 랜덤 포레스트 앙상블 모델로 다수의 decision tree가 모여 이루어진 모델로서, 각 decision tree는 입력 변수들과 타겟 변수의 연관성을 고려하여 개별적으로 개발되며 상위 linear 모델 대비 더욱 유연(flexible)한 특성을 가지고 있다. 변화 부양 모형은 Generalized Boosting Model 또는 GBM 이라고도 불리며 Random Forest와 비슷한 성향을 띠는 앙상블 모델이나 각 decision tree가 이미 만들어진 decision tree의 정확도를 고려하여 개된다는 차이점이 존재해 종종 Random Forest 대비 정확도가 높은 모델로 간주되기도 한다. Ridge regression is a basic linear model and provides additional parameters to handle extremes or outliers. Logistic regression is a basic linear model and is effective when the target variable, or the object to be predicted, shows a binomial distribution. The generalized linear model is a basic linear model, and it is effective to use when the target variable shows a Poisson distribution. It is a random forest ensemble model composed of a number of decision trees. Each decision tree considers the relationship between input variables and target variables. Therefore, it is developed individually and has more flexible characteristics than the upper linear model. The stimulus model is also called the Generalized Boosting Model or GBM, and it is often referred to as a model with high accuracy compared to a Random Forest because there is a difference between an ensemble model with a tendency similar to that of a Random Forest, or that each decision tree is opened considering the accuracy of the decision tree that has already been created. It is also considered.

뉴럴 네트워크는 사실상 어떤 타겟이든 예측할 수 있는 아주 유연한 모델로 파라미터를 조정함에 따라 linear 패턴과 non-linear 패턴 둘 다 아우를 수 있다. 때문에 파라미터 튜닝이 세밀하게 될 필요성이 있다 특히, 뉴럴 네트워크는 기계학습과 인지과학에서 생물학의 신경망에서 영감을 얻은 통계학적 학습 알고리즘으로서, 이러한 신경망을 복합적으로 구성함으로써 딥 러닝 방식이 구현될 수 있다. The neural network is a very flexible model that can predict virtually any target and can accommodate both linear and non-linear patterns by adjusting parameters. In particular, neural networks are statistical learning algorithms inspired by the neural networks of biology in machine learning and cognitive science. Deep learning can be implemented by composing such neural networks in a complex way.

예를 들어, 뉴럴 네트워크는 전체적인 FC(Fully Connected), Max Pooling 및 convolution을 수반하여 최적화되는 CNN(Convolutional Neural Network), 시계열적 데이터에 유용한 순차 신경망(Recurrent Neural Networks, RNN)을 포함할 수 있다. For example, the neural network may include overall fully connected (FC), convolutional neural network (CNN) optimized with Max Pooling and convolution, and sequential neural networks (RNN) useful for time series data.

구체적으로, 상기 인공지능 대화 생성부(340)는 리지 회귀분석(Ridge Regression), 로지스틱 회기분석(Logistic Regression), 일반화선형모형(Generalized Linear Model), 랜덤 포레스트(Random Forest), 변화 부양 모형(GradientBoostinf Model) 및 뉴럴 네트워크(Neural Network) 등이 이용된 머신러닝 알고리즘을 통하여 아래의 예시와 같이 장치 사용자가 인공지능 대화 서비스 장치(100)와 대화하도록 기능을 제공할 수 있다. Specifically, the artificial intelligence dialogue generation unit 340 includes Ridge Regression, Logistic Regression, Generalized Linear Model, Random Forest, and GradientBoostinf Model) and a neural network can provide a function for a device user to interact with the AI conversation service device 100 as shown in the following example through a machine learning algorithm.

우선, 장치 사용자가 특정 영화에 대한 컨텐츠를 인공지능 대화 서비스 제공 서버(300)를 통해 다운로드 받고, 이를 모두 시청한 뒤 인공지능 대화 서비스 장치(100)에 장치 사용자가 느낀 감정, 의견 등을 음성을 통해 이야기하고, 상기 인공지능 대화 서비스 장치(100)는 이를 인공지능 대화 서비스 제공 서버(300)에 전달하여 상기 장치가 장치 사용자의 음성을 듣고 질문 또는 대답을 할 수 있도록 인공지능 대화 서비스 제공 서버(300)는 알맞은 문장을 제공한다. First, the device user downloads the content for a specific movie through the AI conversation service providing server 300, and after viewing all of them, voices emotions, opinions, and the like felt by the device user to the AI conversation service device 100. Talk through, and the AI conversation service device 100 delivers it to the AI conversation service providing server 300 so that the device can listen to the device user's voice and answer questions or answers. 300) provides the appropriate sentence.

예를 들어, 장치 사용자가 인공지능 대화 서비스 제공 서버(300)에서 '신데렐라'를 다운로드 받고 이를 인공지능 대화 서비스 장치(100)를 통해 시청한 뒤, 상기 장치에 "만약 신데렐라의 유리구두가 다른 사람에게도 맞았으면 어떻게 됐을까?" 와 같이 이야기했을 경우, 상기 장치는 이를 인공지능 대화 서비스 제공 서버(300)에 전달하여 말뭉치 분석을 진행하고, 머신 러닝을 통해 "그래도 왕자님이 신데렐라를 기억하니 진짜 신데렐라를 찾았을거예요" 또는 "마법사가 만든 유리구두니까 신데렐라만 맞지 않았을까요?" 와 같은 문장을 생성하도록 하며, 이를 다시 인공지능 대화 서비스 장치(100)로 전달하여 장치 사용자에게 출력하도록 하는 기능을 수행한다. For example, after a device user downloads'Cinderella' from the AI conversation service providing server 300 and views it through the AI conversation service device 100, the device reads, "If Cinderella's glass shoes are different, What would it have been like to be hit by someone?" If said, the device passes this to the AI conversation service providing server 300 to proceed with corpus analysis, and through machine learning, "But the prince remembers Cinderella, so he would have found the real Cinderella" or "Wizard Since it was a glass shoe, wasn't Cinderella right?" To generate the sentence, and transmits it back to the AI conversation service device 100 to perform a function to output to the device user.

이때, 인공지능 대화 서비스 제공 서버(300)로부터 생성되는 문장은 컨텐츠 및 장치 사용자가 전달한 음성과 연관되도록 꾸며질 수 있으며, 설계에 따라 컨텐츠 자체 데이터베이스에 컨텐츠와 관련된 예상 질문 및 답변 등과 같은 문장이 내장되도록 하여 장치 사용자가 의견 및 감정 등을 이야기했을 경우 즉시 내장되어 있던 문장을 답변하도록 하는 기능을 수행할 수 있다. At this time, the sentence generated from the artificial intelligence conversation service providing server 300 may be decorated to be associated with the content and the voice delivered by the device user, and according to the design, a sentence such as an expected question and answer related to the content may be embedded in the content itself database Therefore, when a user of a device talks about opinions and emotions, it can perform a function of promptly answering a built-in sentence.

또한, 인공지능 대화 서비스 제공 서버(300)는 장치 사용자와 진행한 대화를 상술한 데이터 저장부(320)에 저장하도록 하여, 장치 사용자가 다른 컨텐츠를 시청 또는 청취한 뒤 이전 컨텐츠와 관련된 내용을 질문하더라도 이에 알맞은 답변을 하도록 설계될 수 있다.In addition, the AI conversation service providing server 300 allows the device user to store an ongoing conversation in the above-described data storage unit 320, and then the device user views or listens to other content and asks the content related to the previous content. Even if it can be designed to answer appropriately.

예를 들어, 장치 사용자가 첫번째 컨텐츠로 '신데렐라'를 시청한 뒤, 두번째 컨텐츠로 '백설공주와 일곱 난쟁이'를 시청하고 인공지능 대화 서비스 제공 장치(100)에 "신데렐라도 계모들한테 미움을 많이 받았는데 왜 이렇게 공주들은 불쌍할까? 마음이 너무 아프다" 라는 문장을 이야기 한 경우, 상기 인공지능 대화 서비스 제공 장치(100)는 인공지능 대화 서비스 제공 서버(300)에 기저장되어 있던 '신데렐라' 컨텐츠에 대한 장치 사용자와의 대화 이력을 불러올 수 있고, "그래도 신데렐라는 마법사가 하나밖에 없는 구두를 만들어줘서 왕자를 만났고, 백설공주는 일곱 난쟁이들이 도와주어서 왕자를 만났으니 너무 마음 아파하지 마세요" 와 같은 답변을 출력하도록 할 수 있다.For example, after the device user has watched'Cinderella' as the first content, and then watch'Snow White and the seven dwarfs' as the second content, and the device 100 provides AI communication service device 100 "Cinderella hates a lot of stepmother When I said the sentence, "Why are you so sorry for the princesses?", the AI conversation service providing device 100 is connected to the'Cinderella' content previously stored in the AI conversation service providing server 300. It can bring up the conversation history with the user of the Korean device, and answers like, "But Cinderella met the prince by making only one shoe, and Snow White met the prince with the help of the seven dwarves. Can be output.

상술한 예시들을 통해 인공지능 대화 생성부(340)를 설명하였으나, 이에 제한되는 것은 아니며, 장치 사용자와 대화 가능한 모든 문장들이 생성될 수 있음은 물론이다.Although the artificial intelligence conversation generating unit 340 has been described through the above-described examples, it is not limited thereto, and it is needless to say that all sentences that can be communicated with the device user can be generated.

제어부(350)는 인공지능 대화 서비스 제공 서버(300)의 전반적인 기능을 제어하는 모듈로써, CPU(Central Processing Unit)를 포함한 메인보드 등으로 구현될 수 있다.The control unit 350 is a module that controls the overall function of the AI conversation service providing server 300, and may be implemented as a main board including a CPU (Central Processing Unit).

이하에서는 본 발명의 실시예에 따른 인공지능 대화 서비스 제공 서버에서 인공지능 대화 서비스를 제공하는 과정을 나타낸 순서도이다.The following is a flow chart showing a process for providing an AI conversation service in an AI conversation service providing server according to an embodiment of the present invention.

우선, 장치 사용자가 인공지능 대화 서비스 장치(100)에 특정 컨텐츠에 대한구매를 요청하면, 인공지능 대화 서비스 제공 서버(300)는 내부 기억 장치 또는 인공지능 대화 서비스 제공 서버(300)와 별개인 스토리지 서버 중 하나 이상으로 구성된 데이터 저장부(320)에서 해당 컨텐츠를 추출하여 인공지능 대화 서비스 장치(100)로 전송할 수 있으며, 상기 장치는 이를 수신받아 다운로드 및 저장할 수 있다.First, when the device user requests the AI conversation service device 100 to purchase a specific content, the AI conversation service providing server 300 is a storage separate from the internal storage device or the AI conversation service providing server 300 The content may be extracted from the data storage unit 320 composed of one or more servers and transmitted to the artificial intelligence conversation service device 100, which may receive, download, and store the content.

이후, 장치 사용자가 인공지능 대화 서비스 장치(100)에 다운로드 된 특정 컨텐츠를 시청 또는 청취한 뒤 감정, 의견 등을 음성을 통해 이야기하면 상기 인공지능 대화 서비스 장치(100)는 이를 데이터화하여 인공지능 대화 서비스 제공 서버(300)로 전송한다. 인공지능 대화 서비스 제공 서버(300)에서 음성 데이터를 수신받은 후, 상기 서버는 음성 데이터의 말뭉치를 분석한다(S20, S30).Subsequently, when a device user views or listens to specific content downloaded to the AI conversation service device 100 and then speaks emotions, opinions, etc., through voice, the AI conversation service device 100 dataizes it to make an AI conversation It transmits to the service providing server 300. After receiving the voice data from the artificial intelligence conversation service providing server 300, the server analyzes the corpus of voice data (S20, S30).

말뭉치 분석 후 인공지능 대화 서비스 제공 서버(300)는 음성 데이터에 해당하는 음성의 의미를 파악하고, 이를 기반으로 인공지능 대화를 생성한다(S50).After analyzing the corpus, the AI conversation service providing server 300 grasps the meaning of voice corresponding to the voice data, and generates an AI conversation based on the voice (S50).

예를 들어, 장치 사용자가 인공지능 대화 서비스 제공 서버(300)에서 '신데렐라'를 다운로드 받고 이를 인공지능 대화 서비스 장치(100)를 통해 시청한 뒤, 상기 장치에 "만약 신데렐라의 유리구두가 다른 사람에게도 맞았으면 어떻게 됐을까?" 와 같이 이야기했을 경우, 상기 장치는 이를 인공지능 대화 서비스 제공 서버(300)에 전달하여 말뭉치 분석을 진행하고, 머신 러닝을 통해 "그래도 왕자님이 신데렐라를 기억하니 진짜 신데렐라를 찾았을거예요" 또는 "마법사가 만든 유리구두니까 신데렐라만 맞지 않았을까요?" 와 같은 문장을 생성하도록 하며, 이를 다시 인공지능 대화 서비스 장치(100)로 전달하여 장치 사용자에게 출력하도록 하는 기능을 수행한다.For example, after a device user downloads'Cinderella' from the AI conversation service providing server 300 and views it through the AI conversation service device 100, the device reads, "If Cinderella's glass shoes are different, What would it have been like to be hit by someone?" If said, the device passes this to the AI conversation service providing server 300 to proceed with corpus analysis, and through machine learning, "But the prince remembers Cinderella, so he would have found the real Cinderella" or "Wizard Since it was a glass shoe, wasn't Cinderella right?" To generate the sentence, and transmits it back to the AI conversation service device 100 to perform a function to output to the device user.

이러한 인공지능 대화 서비스 제공 서버(300)의 기능을 통해 장치 사용자는 인공지능 대화 서비스 장치(100) 대화가 가능하며, 장치 사용자가 새로운 컨텐츠를 요청할 경우 상술된 과정들을 반복하여 상기 대화 내용들을 누적, 즉 저장시켜 새로운 컨텐츠를 시청 또는 청취하더라도 대화 내용이 이어지게끔 설정되어 새로운 문장을 생성할 수 있다(S60).Through the function of the AI conversation service providing server 300, the device user can communicate with the AI conversation service device 100, and when the device user requests new content, the above-described processes are repeated to accumulate the conversation contents, That is, even if the new content is stored or watched or listened to, the conversation content is set to be continued so that a new sentence can be generated (S60).

예를 들어, 장치 사용자가 첫번째 컨텐츠로 '신데렐라'를 시청한 뒤, 두번째 컨텐츠로 '백설공주와 일곱 난쟁이'를 시청하고 인공지능 대화 서비스 제공 장치(100)에 "신데렐라도 계모들한테 미움을 많이 받았는데 왜 이렇게 공주들은 불쌍할까? 마음이 너무 아프다" 라는 문장을 이야기 한 경우, 상기 인공지능 대화 서비스 제공 장치(100)는 인공지능 대화 서비스 제공 서버(300)에 기저장되어 있던 '신데렐라' 컨텐츠에 대한 장치 사용자와의 대화 이력을 불러올 수 있고, "그래도 신데렐라는 마법사가 하나밖에 없는 구두를 만들어줘서 왕자를 만났고, 백설공주는 일곱 난쟁이들이 도와주어서 왕자를 만났으니 너무 마음 아파하지 마세요" 와 같은 답변을 출력하도록 할 수 있다.For example, after the device user has watched'Cinderella' as the first content, and then watch'Snow White and the seven dwarfs' as the second content, and the device 100 provides AI communication service device 100 "Cinderella hates a lot of stepmother When I said the sentence, "Why are you so sorry for the princesses?", the AI conversation service providing device 100 is connected to the'Cinderella' content previously stored in the AI conversation service providing server 300. It can bring up the conversation history with the user of the Korean device, and answers like, "But Cinderella met the prince by making only one shoe, and Snow White met the prince with the help of the seven dwarves. Can be output.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.In the above, it has been described that all the components constituting the embodiment of the present invention are combined and operated as one, but the present invention is not necessarily limited to these embodiments. That is, if it is within the scope of the present invention, all of the components may be selectively combined and operated. The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and variations without departing from the essential characteristics of the present invention. The scope of protection of the present invention should be interpreted by the claims below, and all technical spirits within the equivalent range should be interpreted as being included in the scope of the present invention.

Claims (5)

인공지능 대화 서비스 장치를 통해 사용자와 장치가 인공지능 대화가 가능하도록 하는 인공지능 대화 서비스 제공 시스템에 있어서,
하나 이상의 부가 모듈과 전기적으로 연결 또는 분리 가능한 하나 이상의 단자를 가져 상기 단자에 전기적으로 연결된 하나 이상의 부가 모듈을 통해 장치 사용자에게 컨텐츠를 제공할 수 있고, 마이크 및 스피커를 통해 장치 내에 입력 또는 출력된 장치 사용자의 음성을 데이터화하며, 무선 인터넷망을 통해 인공지능 대화 서비스 제공 서버와 무선 통신이 가능한 인공지능 대화 서비스 장치 및
상기 인공지능 대화 서비스 장치에서 데이터화 된 장치 사용자의 음성을 수신받아 형태소 분석, 키워드 인식, 화행 분석 또는 시맨틱 분석과 같은 다수의 자연어 이해 기술 중 하나 이상을 통해 음성의 말뭉치를 형태에 따라 분석을 진행하고, 분석된 말뭉치, 즉 장치 사용자의 음성 데이터를 리지 회귀분석(Ridge Regression), 로지스틱 회기분석(Logistic Regression), 일반화선형모형(Generalized Linear Model), 랜덤 포레스트(Random Forest), 변화 부양 모형(GradientBoostinf Model) 및 뉴럴 네트워크(Neural Network)와 같은 머신러닝 알고리즘을 통해 상기 인공지능 대화 서비스 장치와 장치 사용자가 컨텐츠에 대한 대화가 가능하도록 문맥에 맞는 문장을 자동으로 생성하고 이를 인공지능 대화 서비스 장치에 제공하여 상기 인공지능 대화 서비스 장치와 장치 사용자간의 대화가 가능하도록 기능하는 인공지능 대화 서비스 제공 서버를 포함하는
인공지능 대화 서비스 제공 시스템.
In the AI conversation service providing system that enables the user and the device to perform AI conversation through the AI conversation service device,
A device having one or more terminals electrically connected to or detachable from one or more additional modules to provide content to a device user through one or more additional modules electrically connected to the terminals, and devices input or output in a device through a microphone and speakers An artificial intelligence conversation service device capable of wirelessly communicating with an artificial intelligence conversation service providing server through the wireless internet network,
After receiving the voice of the device user who has been data from the artificial intelligence conversation service device, the corpus of speech is analyzed according to the form through one or more of a number of natural language understanding techniques such as morpheme analysis, keyword recognition, speech act analysis, or semantic analysis. , Analyzed corpus, i.e., Ridge Regression, Logistic Regression, Generalized Linear Model, Random Forest, GradientBoostinf Model ) And a neural network such as a machine learning algorithm to automatically generate context-sensitive sentences to enable the AI conversation service device and the device user to talk about the content and provide it to the AI conversation service device. And an artificial intelligence conversation service providing server that functions to enable conversation between the artificial intelligence conversation service device and a device user.
AI conversation service provision system.
제 1 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
인공지능 대화 서비스 장치로부터 수신받은 장치 사용자의 음성 데이터를 기반으로 장치 사용자의 감정 및 의견을 파악하여 이에 대응하는 문장을 자동으로 생성하는 것을 특징으로 하는
인공지능 대화 서비스 제공 시스템.
According to claim 1,
The AI conversation service providing server,
Based on the voice data of the device user received from the AI conversation service device, the device user's emotions and opinions are identified, and a sentence corresponding thereto is automatically generated.
AI conversation service provision system.
제 1 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
인공지능 대화 서비스 장치로부터 수신받은 장치 사용자의 음성 데이터 및 인공지능 대화 서비스 제공 서버로부터 생성된 문장을 누적하여 저장하는 것을 특징으로 하는
인공지능 대화 서비스 제공 시스템.
According to claim 1,
The AI conversation service providing server,
Characterized by accumulating and storing the voice data of the device user received from the AI conversation service device and the sentence generated from the AI conversation service provision server.
AI conversation service provision system.
제 3 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
장치 사용자가 새로운 컨텐츠를 요청할 경우, 상기 누적된 장치 사용자의 음성 데이터 및 인공지능 대화 서비스 제공 서버로부터 생성된 문장 이력을 기반으로 대화 내용이 이어지도록 문장을 생성하는 것을 특징으로 하는
인공지능 대화 서비스 제공 시스템.
The method of claim 3,
The AI conversation service providing server,
When a device user requests new content, a sentence is generated so that the conversation content continues based on the accumulated voice data of the device user and the sentence history generated from the AI conversation service providing server.
AI conversation service provision system.
제 2 항에 있어서,
상기 인공지능 대화 서비스 제공 서버는,
장치 사용자의 음성 신호의 주파수 대역폭, 스펙트럼 기울기 및 성문의 오픈비율을 파라미터로 추출한 장치 사용자의 발화음을 통해 장치 사용자의 감정 상태를 판단하는 것을 특징으로 하는
인공지능 대화 서비스 제공 시스템.
According to claim 2,
The AI conversation service providing server,
Characterized by determining the emotional state of the device user through the voice of the device user extracting the frequency bandwidth, spectral slope and the open ratio of the voice gate as parameters as a parameter of the device user's voice signal
AI conversation service provision system.
KR1020180162001A 2018-12-14 2018-12-14 System For Providing Service Of Artificial Intelligence Conversation KR102419192B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180162001A KR102419192B1 (en) 2018-12-14 2018-12-14 System For Providing Service Of Artificial Intelligence Conversation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180162001A KR102419192B1 (en) 2018-12-14 2018-12-14 System For Providing Service Of Artificial Intelligence Conversation

Publications (2)

Publication Number Publication Date
KR20200073624A true KR20200073624A (en) 2020-06-24
KR102419192B1 KR102419192B1 (en) 2022-07-08

Family

ID=71407985

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180162001A KR102419192B1 (en) 2018-12-14 2018-12-14 System For Providing Service Of Artificial Intelligence Conversation

Country Status (1)

Country Link
KR (1) KR102419192B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092443A1 (en) * 2020-10-26 2022-05-05 주식회사 알파코 Integrated sensory stimulation cushion-type dementia prevention artificial intelligence speaker

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603806B1 (en) 2022-10-26 2023-11-17 주식회사 타이렐 Conversation service system using artificial intelligence and method for the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100128068A (en) * 2009-05-27 2010-12-07 포항공과대학교 산학협력단 User profile automatic creation method and apparatus through voice dialog meaning process, and contents recommendation method and apparatus using the same
KR20180093455A (en) * 2017-02-13 2018-08-22 채송아 Method, apparatus and system for providing contents based artificial intelligence through hologram

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100128068A (en) * 2009-05-27 2010-12-07 포항공과대학교 산학협력단 User profile automatic creation method and apparatus through voice dialog meaning process, and contents recommendation method and apparatus using the same
KR20180093455A (en) * 2017-02-13 2018-08-22 채송아 Method, apparatus and system for providing contents based artificial intelligence through hologram

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022092443A1 (en) * 2020-10-26 2022-05-05 주식회사 알파코 Integrated sensory stimulation cushion-type dementia prevention artificial intelligence speaker

Also Published As

Publication number Publication date
KR102419192B1 (en) 2022-07-08

Similar Documents

Publication Publication Date Title
CN111930940B (en) Text emotion classification method and device, electronic equipment and storage medium
US9900436B2 (en) Coordinating voice calls between representatives and customers to influence an outcome of the call
US9635178B2 (en) Coordinating voice calls between representatives and customers to influence an outcome of the call
US10750018B2 (en) Modeling voice calls to improve an outcome of a call between a representative and a customer
US20200075024A1 (en) Response method and apparatus thereof
KR101984283B1 (en) Automated Target Analysis System Using Machine Learning Model, Method, and Computer-Readable Medium Thereof
CN110880198A (en) Animation generation method and device
CN108877803B (en) Method and apparatus for presenting information
US10360911B2 (en) Analyzing conversations to automatically identify product features that resonate with customers
WO2022229834A1 (en) Artificial intelligence (ai) based automated conversation assistance system and method thereof
KR20200073624A (en) System For Providing Service Of Artificial Intelligence Conversation
CN113314119A (en) Voice recognition intelligent household control method and device
KR20190074508A (en) Method for crowdsourcing data of chat model for chatbot
US20220253609A1 (en) Social Agent Personalized and Driven by User Intent
KR20200080366A (en) Program For Providing Service Of Artificial Intelligence Conversation
CN108877795B (en) Method and apparatus for presenting information
WO2019228140A1 (en) Instruction execution method and apparatus, storage medium, and electronic device
KR20200073644A (en) Method For Providing Service Of Artificial Intelligence Conversation
US20210166685A1 (en) Speech processing apparatus and speech processing method
KR20200073664A (en) Apparatus For Service Of Artificial Intelligence Conversation
KR20200073681A (en) Method For Providing Service Of Artificial Intelligence Conversation
KR20200080363A (en) Program For Providing Service Of Artificial Intelligence Conversation
KR20200080362A (en) Recording Medium
KR20200080365A (en) Recording Medium
CN115222857A (en) Method, apparatus, electronic device and computer readable medium for generating avatar

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant