KR20150045177A - Conversational service apparatus and method based on user utterance - Google Patents

Conversational service apparatus and method based on user utterance Download PDF

Info

Publication number
KR20150045177A
KR20150045177A KR20130124534A KR20130124534A KR20150045177A KR 20150045177 A KR20150045177 A KR 20150045177A KR 20130124534 A KR20130124534 A KR 20130124534A KR 20130124534 A KR20130124534 A KR 20130124534A KR 20150045177 A KR20150045177 A KR 20150045177A
Authority
KR
South Korea
Prior art keywords
sentence
morpheme
user utterance
user
utterance
Prior art date
Application number
KR20130124534A
Other languages
Korean (ko)
Other versions
KR102175539B1 (en
Inventor
이강석
신승은
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020130124534A priority Critical patent/KR102175539B1/en
Publication of KR20150045177A publication Critical patent/KR20150045177A/en
Application granted granted Critical
Publication of KR102175539B1 publication Critical patent/KR102175539B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0638Interactive procedures

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

The present invention relates to an apparatus and method for providing a conversational service according to user speech styles. The apparatus analyzes the meaning of a sentence spoken by a user to identify a user utterance intention, analyzes semantic features of the sentence to generate an utterance style profile of the user according to the user′s utterance style, and generates a response sentence according to the user′s utterance style based on the generated utterance style profile, thereby providing the user with a more friendly and natural response sentence according to the user′s utterance style, not a set response sentence.

Description

사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법{CONVERSATIONAL SERVICE APPARATUS AND METHOD BASED ON USER UTTERANCE}Technical Field [0001] The present invention relates to an interactive service apparatus and method according to a user utterance style,

본 발명은 대화형 서비스에 관한 것으로서, 특히 사용자 발화 스타일에 따른 자연스러운 응답 문장을 생성하여 생성된 응답 문장을 사용자에게 제공하기 위한 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법에 관한 것이다. The present invention relates to an interactive service, and more particularly, to an interactive service apparatus and method according to a user utterance style for providing a response sentence generated by generating a natural response sentence according to a user utterance style.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute the prior art.

최근에는 문명의 발달 이전부터 인간의 의사를 전달하기 위한 도구였던 언어를 기초로 하는 인터페이스가 적용된 제품 및 서비스가 속속 등장하고 있다.In recent years, products and services using interfaces based on language, which was a tool for communicating the will of human beings before the development of civilization, are emerging.

언어를 기초로 하는 인터페이스에 관한 연구는 초기 일방적인 음성 물음에 다이얼 내지 버튼으로 답하는 방식에서, 음성 물음에 제한된 단어로서 답하는 방식까지 발전하였으며, 궁극적으로 자연스러운 음성 대화를 통한 인터페이스를 목표로 하고 있다.Research on language-based interfaces has evolved from a method of answering an initial one-way voice question with a dial or a button, to a method of answering a voice word as a limited word, and ultimately aiming at an interface through natural voice conversation.

이러한 자연스러운 음성 대화를 통한 인터페이스를 적용한 대화형 서비스의 경우, 사용자 발화 의도를 파악하기 위한 언어 이해, 대화 흐름과 의도에 따라 대화 전략을 결정하는 대화 관리 및 발화할 문장을 생성하는 언어 생성 기술들이 필요하다. In the case of the interactive service using the interface through natural voice conversation, it is necessary to understand the language to grasp the user's utterance intention, to manage the dialogue to decide the conversation strategy according to the flow of the conversation and the intention, Do.

그러나 종래의 대화형 서비스에서는 음성 물음에 따라 틀에 박힌 응답을 제공하므로 자연스러운 대화형 서비스를 제공하는 데 한계가 있다. 따라서 자연스러운 대화형 서비스 제공하기 위해 대화 전략에 따라 사용자에게 친화적이면서 자연스러운 응답 문장을 생성하기 위한 기술이 요구되고 있다. However, in the conventional interactive service, since it provides a framed response according to the voice question, there is a limit to providing a natural interactive service. Therefore, in order to provide a natural interactive service, a technique for generating a friendly and natural response sentence according to a conversation strategy is required.

한국등록특허 제0829401호, 2008년 05월 07일 등록(명칭: 세부분류 개체명 인식 장치 및 방법)Korean Registered Patent No. 0829401, May 07, 2008 Registered (name: device and method for recognizing the detailed classification object name)

본 발명은 종래의 불편함을 해소하기 위하여 제안된 것으로서, 사용자 발화 문장의 의미를 분석하여 사용자 발화 의도를 파악하고, 사용자 발화 문장의 의미 자질을 분석하여 사용자의 발화 스타일에 따른 개인 사용자 발화 스타일 프로파일을 생성하고, 생성된 개인 사용자 발화 스타일 프로파일을 기반으로 사용자 발화 스타일에 따른 응답 문장을 생성하여 친화적이면서 자연스러운 응답 문장을 사용자에게 제공하기 위한 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법 을 제공하고자 한다. The present invention has been proposed in order to solve the inconvenience of the prior art, and it is an object of the present invention to analyze the meaning of a user utterance sentence to understand a user utterance intention, analyze the meaning qualities of the user utterance sentence, And an interactive service apparatus and method according to a user utterance style for generating a response sentence according to a user utterance style based on the generated personal user utterance style profile to provide a friendly and natural response sentence to a user .

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 대화형 서비스 장치는, 사용자 발화에 따른 사용자 발화 문장을 입력 받는 인터페이스부; 및 상기 인터페이스부로부터 전달된 상기 사용자 발화 문장을 파악하고, 파악된 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하여 저장하고, 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하도록 제어하는 제어부를 포함할 수 있다. According to an aspect of the present invention, there is provided an interactive service apparatus comprising: an interface unit receiving a user utterance sentence according to user utterance; And analyzing the meaning of the user uttered sentence, analyzing the meaning of the user uttered sentence, analyzing the user uttered style according to the meaning of the analyzed user uttered sentence, Generates and stores a speech style profile, and generates a response sentence corresponding to the user speech based on the stored personalized speech style profile.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 생성된 개인 발화 스타일 프로파일을 저장하고, 상기 응답 문장 시 이용되는 기 설정된 응답 문장 템플릿을 저장하는 저장부를 더 포함할 수 있다. The interactive service apparatus according to the preferred embodiment of the present invention may further include a storage unit for storing the generated personalized speech style profile and storing a predetermined response sentence template used in the response sentence.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 제어부는, 상기 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 개인 발화 스타일 프로파일 생성 모듈; 및 상기 사용자 발화 스타일 프로파일 생성 모듈에서 생성된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 따른 응답 문장을 생성하는 응답 문장 생성 모듈을 포함할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the controller analyzes the meaning of the user utterance sentence, grasps the user utterance style according to the meaning of the analyzed user utterance sentence, A personalized utterance style profile generation module for generating a personal utterance style profile according to the personalized utterance style profile; And a response sentence generation module for generating a response sentence according to the user utterance based on the personalized utterance style profile generated by the user utterance style profile generation module.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 사용자 발화 스타일 프로파일 생성 모듈은, 상기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 상기 사용자 발화 문장의 의미를 분석할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the user utterance style profile generation module applies a lexical pattern (LSP) expressing sentence patterns having the same meaning to each analyzed morpheme The meaning of the user utterance sentence can be analyzed.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 어문패턴은, 상기 상용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성될 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the phrase pattern includes at least one of information on an object name, a semantic feature, a lexicon and a part of speech tag according to the concept of the user's utterance sentence, .

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 사용자 발화 스타일 프로파일 생성 모듈은, 상기 사용자 발화 문장의 형태소를 분석하는 분석기; 분석된 각 형태소에 품사 태그를 부여하는 형태소 태거; 집합 상기 분석된 각 형태소에서 개체명 및 하나 이상의 의미 자질을 인식하고, 상기 인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하고, 상기 인식된 하나 이상의 의미 자질에 따라 사용자 발화 스타일을 분석하는 개체명 및 의미 자질 인식기; 및 상기 인식된 개체명 및 인식된 의미 자질의 실질 형태소 및 형식 형태소를 기반으로 상기 분석된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성 및 저장하는 개인 발화 스타일 프로파일 생성기를 포함할 수 있다. In an interactive service apparatus according to a preferred embodiment of the present invention, the user utterance style profile generation module includes: an analyzer for analyzing a morpheme of the user utterance sentence; A morpheme tag that assigns part mark tags to each analyzed morpheme; And analyzing the meaning of the user utterance sentence by applying a recognized utterance pattern to the recognized entity name and the recognized one or more sense qualities, An object name and a semantic qualifier for analyzing a user utterance style according to one or more recognized semantic qualities; And a personalized utterance style profile generator for generating and storing a personal utterance style profile according to the analyzed user utterance style based on the recognized entity name and the substantial morpheme and formal morpheme of the recognized meaning qualification.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 응답 문장 생성 모듈은, 상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하고, 독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하고, 독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the response sentence generation module reads out a previously stored speech sentence template corresponding to the recognized entity name and semantic qualities, A response sentence can be generated by reading the actual morpheme and morpheme corresponding to the response semantic qualification from the stored personal speech style profile DB and applying the actual morpheme and morpheme of the read semantic feature to the response semantic feature.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 응답 문장 생성 모듈은, 상기 인식된 개체명과 상기 독출된 의미 자질의 실질 형태소 및 형식 형태소를 조합하여 응답 문장을 생성하고, 생성된 응답 문장에 부가 응답 문장을 추가하여 사용자에게 제시할 최종 응답 문장을 생성할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the response sentence generation module generates a response sentence by combining the recognized entity name with the actual morpheme and type morpheme of the read out semantic feature, A final response sentence to be presented to the user can be generated by adding an additional response sentence to the sentence.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법은, 입력된 사용자 발화 문장을 파악하는 단계; 파악된 사용자 발화 문장의 의미를 분석하는 단계; 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하는 단계; 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 단계; 및 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided an interactive service method according to a user utterance style in an interactive service apparatus, comprising: grasping an inputted user utterance sentence; Analyzing the meaning of the identified user utterance sentence; Determining a user utterance style according to the meaning of the analyzed user utterance sentence; Generating a personalized utterance style profile according to the identified user utterance style; And generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 사용자 발화 문장의 의미를 분석하는 단계는, 사용자 발화 문장의 형태소를 분석하는 단계; 분석된 각 형태소에 품사 태그를 부여하는 단계; 분석된 각 형태소에 대한 개체명 및 하나 이상의 의미 자질을 인식하는 단계; 및 인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하는 단계를 포함할 수 있다. In an interactive service method according to a user utterance style in an interactive service apparatus according to a preferred embodiment of the present invention, analyzing the meaning of the user utterance sentence includes analyzing a morpheme of a user utterance sentence; Assigning speech tags to each analyzed morpheme; Recognizing an entity name and at least one semantic feature for each analyzed morpheme; And analyzing the meaning of the user utterance sentence by applying a recognized utterance pattern to the recognized entity name and the recognized one or more sense qualities.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는, 상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하는 단계; 독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하는 단계; 독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성하는 단계를 포함할 수 있다. In an interactive service method according to a user utterance style in an interactive service apparatus according to a preferred embodiment of the present invention, the step of generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile comprises: Reading out a pre-stored speech sentence template corresponding to the object name and the semantic feature; Reading the actual morpheme and morpheme morpheme corresponding to the response semantic qualities used in the read speech sentence template from the stored personal speech style profile DB; And generating a response sentence by applying the substantial morpheme and formal morpheme of the read out semantic feature to the response semantic feature.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는, 상기 생성된 응답 문장을 사용자에게 출력하는 단계를 더 포함할 수 있다. In an interactive service method according to a user utterance style in an interactive service apparatus according to a preferred embodiment of the present invention, the step of generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile comprises: And outputting a response sentence to the user.

본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는, 부가 응답 문장 생성을 위한 응답 문장 템플릿을 독출하는 단계; 독출된 부가 응답 문장 생성을 위한 응답 문장 템플릿을 이용하여 부가 응답 문장을 생성하는 단계를 더 포함할 수 있다. In the interactive service method according to the user utterance style in the interactive service apparatus according to the preferred embodiment of the present invention, the step of generating the response sentence corresponding to the user utterance based on the stored personal utterance style profile, Reading a response sentence template for generating a sentence; And generating an additional response sentence using the response sentence template for generating the readout added response sentence.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 컴퓨터에서 판독 가능한 기록 매체는 용자 발화 스타일에 따른 대화형 서비스 방법을 실행하기 위한 프로그램이 기록되어 있다.According to an aspect of the present invention, there is provided a computer-readable recording medium storing a program for executing an interactive service method according to a user utterance style.

본 발명은 사용자 발화 문장의 의미를 분석하여 사용자 발화 의도를 파악하고, 사용자 발화 문장에서 사용자 발화 의도를 표현하기 위한 다양한 의미 자질에 따른 사용자 발화 스타일을 파악하여 개인 발화 스타일 프로파일을 생성함으로써, 응답 문장 생성 시 사용자가 가장 많이 사용한 발화 스타일을 적용하여 응답 문장을 생성할 수 있으므로 틀에 박힌 응답 문장이 아닌 사용자 발화 스타일에 따라 사용자에게 보다 친화적이면서 자연스러운 응답 문장을 제공할 수 있는 효과가 있다. The present invention analyzes a meaning of a user utterance sentence to grasp a user utterance intention, generates a personal utterance style profile by grasping a user utterance style according to various semantic qualities for expressing a user utterance intention in a user utterance sentence, It is possible to generate a response sentence by applying the most commonly used speech style at the time of creation, thereby providing a more friendly and natural response sentence to the user in accordance with the user utterance style rather than a framed response sentence.

본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description .

도 1은 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 장치의 구성을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 대화형 서비스 장치의 개인 발화 스타일 프로파일 생성 모듈의 구체적인 구성을 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 대화형 서비스 장치의 응답 문장 생성 모듈의 동작을 보여주기 위한 구체적인 구성을 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 인증 방법을 도시한 도면이다.
도 5는 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 응답 문장을 생성하기 위한 일 예를 도시한 도면이다.
1 is a diagram illustrating a configuration of an interactive service apparatus according to a user utterance style according to an embodiment of the present invention.
2 is a diagram illustrating a specific configuration of a personalized utterance style profile generation module of an interactive service apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a concrete configuration for showing the operation of the response sentence generation module of the interactive service apparatus according to the embodiment of the present invention.
4 is a diagram illustrating an interactive service authentication method according to a user utterance style according to an embodiment of the present invention.
5 is a diagram illustrating an example of generating a response sentence according to a user utterance style according to an embodiment of the present invention.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description, together with the accompanying drawings, is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, those skilled in the art will appreciate that the present invention may be practiced without these specific details.

몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.In some instances, well-known structures and devices may be omitted or may be shown in block diagram form, centering on the core functionality of each structure and device, to avoid obscuring the concepts of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when an element is referred to as "comprising" or " including ", it is meant that the element does not exclude other elements, do. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have. Also, the terms " a or ", "one "," the ", and the like are synonyms in the context of describing the invention (particularly in the context of the following claims) May be used in a sense including both singular and plural, unless the context clearly dictates otherwise.

이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.The specific terminology used in the following description is provided to aid understanding of the present invention, and the use of such specific terminology may be changed into other forms without departing from the technical idea of the present invention.

설명에 앞서, 본 발명에서 언급하는 용례(用例, example)는 사전적 의미로 '쓰고 있는 예'를 말하는 것으로, 언어학적 분야에서는 특정 단어가 사용되는 예문을 말한다. 특히, 본 발명에서 언급하는 용례는 정형적인 문법구조에 맞추어 문장이 구성된 코퍼스(corpus)가 아니라, 정형적인 규칙에 벗어나는 문장으로서 실생활에서 사용되고 있는 문장, 다양한 문체를 포함한 문장 등을 모두 포함한다.Prior to the description, an example referred to in the present invention refers to an example in which the specific word is used in the linguistic field. In particular, the examples referred to in the present invention include not only a corpus composed of sentences according to a formal grammar structure but also sentences deviating from regular rules and used in real life, and sentences including various styles.

그러면 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 자연스러운 응답 문장을 제공하기 위한 대화형 서비스 장치 및 방법에 설명하기로 한다. 우선, 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 장치에 대해 첨부된 도면을 참조하여 구체적으로 설명하기로 한다. Hereinafter, an interactive service apparatus and method for providing a natural response sentence according to a user utterance style according to an embodiment of the present invention will be described. First, an interactive service apparatus according to a user utterance style according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of an interactive service apparatus according to a user utterance style according to an embodiment of the present invention.

도 1을 참조하면, 대화형 서비스 장치(100)는 제어부(110), 인터페이스부(120) 및 저장부(130)를 포함하여 구성될 수 있다. Referring to FIG. 1, the interactive service apparatus 100 may include a controller 110, an interface unit 120, and a storage unit 130.

제어부(110)는 대화형 서비스 장치(100)의 전반적인 제어를 수행하며, 인터페이스부(120) 및 저장부(130)와 기능적으로 연결되어 기능 수행을 위한 신호 흐름의 제어를 수행한다. 이때, 제어부(130)는 운영 체제(OS, Operating System), 응용 프로그램 및 각 구성을 구동시키는 프로세스 장치, 예컨대, 중앙처리장치(CPU, Central Processing Unit)로 이루어질 수 있다.The control unit 110 performs overall control of the interactive service apparatus 100 and is functionally connected to the interface unit 120 and the storage unit 130 to perform control of signal flow for performing functions. At this time, the control unit 130 may include an operating system (OS), an application program, and a process unit for driving each configuration, for example, a central processing unit (CPU).

특히, 본 발명의 실시예에 따른 제어부(110)는 사용자 발화 스타일에 따른 자연스러운 응답 문장을 생성하여 사용자에게 제공하기 위한 제어를 수행하며, 이를 위해 제어부(110)는 개인 발화 스타일 프로파일 생성 모듈(111) 및 응답 문장 생성 모듈(112)을 포함하여 구성될 수 있다. In particular, the controller 110 according to the embodiment of the present invention generates a natural response sentence according to a user's utterance style and performs control to provide the response sentence to the user. To this end, the controller 110 generates a personal utterance style profile And a response sentence generation module 112. The response sentence generation module 112 generates a response sentence.

개인 발화 스타일 프로파일 생성 모듈(111)은 인터페이스부(120)를 통해 사용자로부터 입력 받은 사용자 발화에 대한 입력 신호를 전달 받고, 전달된 사용자 발화에 대한 입력 신호에 따라 사용자 발화 문장을 확인하여 확인된 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성할 수 있다. 이를 위해, 개인 발화 스타일 프로파일 생성 모듈(111)은 형태소 분석기(111-1), 형태소 태거(111-2), 개체명 및 의미 자질 인식기(111-3), 개인 발화 스타일 프로파일 생성기(111-4)를 포함하여 구성될 수 있다. The personalized utterance style profile generation module 111 receives an input signal for the user utterance input from the user through the interface unit 120, checks the user utterance sentence according to the input signal for the user utterance, Analyze the meaning of the utterance sentence, identify the user utterance style according to the meaning of the analyzed user utterance sentence, and generate a personal utterance style profile according to the grasped user utterance style. To this end, the personalized utterance style profile generation module 111 includes a morpheme analyzer 111-1, a morpheme tag 111-2, an entity name and semantic feature recognizer 111-3, a personalized utterance style profile generator 111-4 ). ≪ / RTI >

구체적으로, 개인 발화 스타일 프로파일 생성 모듈(111)은 형태소 분석기(111-1)를 통해 사용자 발화 문장을 최소의 의미를 가진 작은 단위의 형태소로 문장을 분석할 수 있다. 여기서, 형태소는 수많은 문법 단위들로 구성되어 있는 문장을 어휘적이든 문법적이든 의미를 전제하는 가장 작은 단위를 의미하며, 실질 형태소 및 형식 형태소로 구분할 수 있다. 실질 형태소는 구체적인 대상이나 동작, 상태와 같은 어휘적 의미를 표시하는 형태소로서, 예를 들어, 첨부된 도 5에 도시된 바와 같은 사용자 발화 문장에서 "서울역", "출발", "코엑스", "가-", "인천공항", "어떻게" 등이 이에 해당하며, 모든 자립형태소와 의존형태소 중 용언의 어간이 실질 형태소에 해당된다. 됩니다 그리고 형식 형태소는 형식 형태소는 실질 형태소에 붙어, 주로 말과 말 사이의 기능을 형식적으로 표시하는 형태소로서, 예를 들어, 첨부된 도 5에 도시된 바와 같은 사용자 발화 문장에서 "~으로", "~시다", "~까지", "~갈까" 등이 이에 해당하며, 각종 조사, 어미, 접사 등이 형식 형태소에 해당되며 문법형태소라고도 한다. Specifically, the personal utterance style profile generation module 111 can analyze the user utterance sentence through a morpheme analyzer 111-1 into a small unit of morpheme having a minimum meaning. Here, a morpheme refers to the smallest unit that presupposes meaning, whether a lexical or a grammatical sentence composed of a large number of grammatical units, and can be classified into a substantial morpheme and a morpheme morpheme. The actual morpheme is a morpheme that indicates a lexical meaning such as a specific object, an action, and a state. For example, in the user utterance sentence as shown in FIG. 5, "Seoul Station", "Departure", "COEX" , "Incheon Airport", "How", and so on. All the independent morphemes and dependence morphemes are the stem of vernacular. And the morpheme morpheme is a morpheme which is attached to the actual morpheme and is a formal morpheme for expressing the function between the horse and the horse. For example, in the user utterance sentence as shown in FIG. 5, These correspond to "to", "to", and "to go", and various investigations, endings, and affixes correspond to formal morphemes and are also called grammatical morphemes.

이에 따라 형태소 분석기(111-1)는 사용자 발화 문장을 더 이상 쪼개면 어떠한 의미도 갖지 못할 때까지 분석하여 사용자 발화 문장의 형태소를 파악한다. Accordingly, the morpheme analyzer 111-1 analyzes morphemes of the user utterance sentence by analyzing the user utterance sentence until it has no meaning.

그런 다음 개인 발화 스타일 프로파일 생성 모듈(111)은 형태소 태거(111-2)를 통해 형태소 분석기(111-1)에서 품사 태깅을 통해 분석된 각 형태소에 품사 태그를 부여할 수 있다. 여기서, 품사는 단어를 공통된 성질을 가진 것끼리 분류해 놓은 갈래 즉, 단어를 문법적 기능, 형태, 의미에 따라 나눈 갈래를 의미하며, 명사, 대명사, 수사, 조사, 동사, 형용사, 관형사, 부사 및 감탄사로 분류할 수 있다. Then, the individual utterance style profile generation module 111 may assign a morphing tag to each morpheme analyzed through the morpheme tagging in the morpheme analyzer 111-1 through the morpheme tag 111-2. In this context, a part-of-speech is a grouping of words with common characteristics, that is, a division of words according to their grammatical functions, forms, and meanings, and nouns, pronouns, investigations, verbs, adjectives, It can be classified as exclamation.

이에 따라 형태소 태거(111-2)는 기계적으로 의미 구문이 가능하도록 분석된 각 형태소의 올바른 품사를 결정하도록 각 형태소의 품사에 대한 태그를 부착함으로써, 부착된 태그를 통해 품사에 해당하는 형태소 즉, 단어들을 불러내도록 할 수 있다. Thus, the morpheme tagger 111-2 attaches the tags of the morpheme parts of each morpheme to determine the correct part of speech of each morpheme analyzed so as to enable the semantics of the morpheme mechanically, You can have the words recalled.

이후, 개인 발화 스타일 프로파일 생성 모듈(111)의 개체명 및 의미 자질 인식기(111-3)는 개체명 및 의미 자질 DB(131)에 저장된 개체명 사전 또는 의미 자질 사전에서 분석된 각 형태소에 상응하는 개체명 및 의미 자질을 검색하여 사용자 발화 문장의 개체명 및 하나 이상의 의미 자질을 인식할 수 있다. 여기서, 개체명 인식은 회사이름, 사람이름, 지역명, 영화명 등 세상에 존재하는 실재물에 대한 이름을 자동으로 인식하는 것을 말하며, 의미 자질은 단어의 의미를 구성하는 최소 성분을 말한다. 예를 들어, 첨부된 도 5에 도시된 바와 같은 사용자 발화 문장에서 "서울+역+으로", "출발하+ㅂ시다" 같은 "서울+역+으로"을 통해 장소+조사에 대한 “서울역”이란 개체명을 인식하고, "출발하+ㅂ시다"을 통해 "이동_용언+어미"에 대한 의미 자질을 인식할 수 있다. Thereafter, the entity name and the semantic feature identifier 111-3 of the personalized utterance style profile generation module 111 correspond to each morpheme analyzed in the entity name dictionary or semantic feature dictionary stored in the entity name and semantic feature database 131 The object name and the semantic qualities of the user utterance sentence can be recognized by recognizing the object name and the semantic qualities of the user utterance sentence. Here, the object name recognition refers to automatically recognizing names of entities existing in the world such as a company name, a person name, a local name, a movie name, and the like, and the semantic qualification means the minimum component constituting the meaning of a word. For example, in a user utterance sentence as shown in the attached FIG. 5, a "Seoul Station" for a place + investigation through "Seoul + Station +" to "Seoul + Station + Recognizes the name of the object and recognizes the meaning qualities of "moving_root + mother" through "departure".

이에 따라 개인 발화 스타일 프로파일 생성 모듈(111)의 개체명 및 의미 자질 인식기(111-3)는 인식된 의미 자질("출발하+ㅂ시다")를 통해 해당 형태소가 이동 용언으로서, 출발하라는 명령(권유) 의미로 분석할 수 있다. 여기서, 개체명 및 의미 자질 인식기(111-3)는 기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 사용자 발화 문장의 의미를 분석할 수 있다. 이러한 어문패턴은 상용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성될 수 있다. Accordingly, the entity name and the semantic feature recognizer 111-3 of the personalized utterance style profile generation module 111 recognize that the corresponding morpheme is a moveable word through a recognized semantic feature (" It can be analyzed as meaning. Here, the entity name and semantic feature recognizer 111-3 can analyze the meaning of the user utterance sentence by applying a LSP (Lexico Syntactic Pattern) representing sentence forms having the same meaning to each analyzed morpheme . Such a phrase pattern may be configured to include at least one or more of information on an object name, a semantic feature, a vocabulary, and a part of speech tag according to the concept of a user utterance sentence.

그런 다음 발화 스타일 프로파일 생성 모듈(111)의 개인 발화 스타일 프로파일 생성기(111-4)는 의미가 분석된 사용자 발화 문장의 발화 스타일을 파악하고, 파악된 발화 스타일을 개인 발화 스타일로 누적하여 관리할 수 있다. 이를 위해 개인 발화 스타일 프로파일 생성기(111-4)는 개체명 및 의미 자질의 인식 결과 즉, 장소+조사에 대한 개체명("서울역")과, 이동_용언+어미에 대한 의미 자질("출발하+ㅂ시다")에 따라 사용자 발화 스타일을 파악할 수 있다. 즉, 개인 발화 스타일 프로파일 생성기(111-4)는 장소에 대한 이동 용언의 "출발하+ㅂ시다"라는 의미 자질을 사용자 발화 스타일로 파악할 수 있다. Then, the individual utterance style profile generator 111-4 of the utterance style profile generation module 111 grasps the utterance style of the user utterance sentence analyzed with meaning and accumulates and manages the uttered utterance style in the personal utterance style have. To this end, the personalized utterance style profile generator 111-4 obtains the recognition result of the object name and the semantic qualification, that is, the name of the object ("Seoul Station") for the place + + Fsd ") to determine the user utterance style. That is, the personalized utterance style profile generator 111-4 can grasp the meaning qualities of " get off the go "of the transliteration of the place into the user utterance style.

그리고 개인 발화 스타일 프로파일 생성기(11-4)는 인식된 개체명(장소+조사)와 의미 자질(이동_용언+어미) 형태로 사용자 발화 스타일에 따른 인식된 개체명 및 의미 자질의 실질 형태소 및 형식 형태소를 포함한 사용자의 개인 발화 스타일 프로파일을 생성할 수 있다. 즉, 개체명(장소+조사: 서울역+으로)과, 의미 자질(이동_용언+어미: 출발하+ㅂ시다)을 개인 발화 스타일 프로파일로 생성하여 저장할 수 있다. 여기서, 개인 발화 스타일 프로파일은 개체명(장소)에 관련하여 사용자의 다양한 발화 스타일에 따른 하나 이상의 의미 자질(예를 들어, 가+ㅂ시다, 가+ㄹ까, 가+자 등)이 매핑되어 저장될 수 있다. Then, the personalized utterance style profile generator 11-4 generates the personalized utterance style profile 11-4 based on the recognized entity name and the substantial morpheme and the type of the semantic feature according to the user utterance style in the form of the recognized entity name (place + survey) A personalized speech style profile of the user including the morpheme can be generated. In other words, it is possible to create and store a personalized speech style profile as an object name (place + inquiry: to Seoul Station +) and a meaning qualification (move_request + mother: departure). Here, the personalized utterance style profile may be mapped and stored in association with one or more semantic qualities (for example, a +, a +, a +, etc.) according to a user's various utterance styles .

다음으로, 응답 문장 생성 모듈(112)은 첨부된 도 3에 도시된 바와 같이, 개인 발화 스타일 프로파일 생성부(111)로부터 응답 요청 신호를 수신하면, 개인 발화 스타일 프로파일 생성부(111)에서 사용자 발화 문장의 인식된 개체명 및 의미 자질을 전달받고, 전달된 개체명 및 의미 자질의 각 형태소를 기반으로 응답 문장 템플릿 DB(133)에서 상응하는 응답 문장 템플릿을 독출할 수 있다. 그런 다음 응답 문장 생성 모듈(112)은 독출한 응답 문장 템플릿에서 사용되는 의미 자질(이하, 응답 의미 자질이라 칭함)을 확인한 후, 확인된 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 개인 발화 스타일 프로파일 DB(132)에 저장된 상응하는 의미 자질들 중에서 선택하여 선택된 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성할 수 있다. 예를 들어, 응답 문장 생성 모듈(112)은 응답 요청에 따라 인식된 개체명(장소+조사: 서울역+으로)과 인식된 의미 자질(이동_용언+어미: 출발하+ㅂ시다)를 확인하고, 이에 상응하는 응답 문장 템플릿(장소+조사, 이동_용언+응답_어미)를 독출하여 응답 문장 템플릿의 개체명(장소+조사)에 인식된 개체명(서울역)+조사(으로)를 매핑하고, 이동_용언+응답_어미에 개인 발화 스타일 프로파일 DB(132)에서 독출한 이동_용언에 대한 "가~"를 매핑하여 "가겠습니다"라는 응답 의미 자질을 생성할 수 있다. 이에 따라 응답 문장 생성 모듈(112)은 "서울역으로 가겠습니다."라는 응답 문장을 생성하고, 여기에 추가적으로 부가 응답 문장("도착 예정 시간은 3시입니다.")를 생성하여 사용자에게 "서울역으로 가겠습니다. 도착 예정 시간은 3시입니다." 라는 응답 문장을 제공할 수 있다. 여기서, 응답 문장 생성 모듈(112)은 개인 발화 스타일 프로파일 DB(132)에서 응답 문장에 적용할 의미 자질에 대한 실질 형태소 및 형식 형태소를 독출 시 사용자가 가장 많이 사용한 발화 스타일의 의미 자질을 독출하여 응답 문장에 적용함으로써, 사용자에게 친숙하고 자연스러운 응답 문장을 생성할 수 있다. 3, the response sentence generation module 112 receives a response request signal from the personalized speech style profile generation unit 111. Then, the personalized speech style profile generation unit 111 generates a personalized speech style The corresponding sentence template can be read from the response sentence template DB 133 based on the morpheme of the sentence name and the sentence qualities. Then, the response sentence generation module 112 checks the meaning qualities (hereinafter referred to as response meaning qualities) used in the read response sentence templates, and then stores the actual morpheme and type morpheme corresponding to the confirmed meaning qualities in the personal speech style profile The response sentence can be generated by applying the selected morphemes and morphemes selected from the corresponding semantic qualities stored in the DB 132 to the response semantic qualities. For example, the response sentence generation module 112 confirms the recognized entity name (place + inquiry: to Seoul Station +) and the recognized meaning property (move_reason + ending: departure) according to the response request , The corresponding response sentence template (place + survey, move_directive + response_emory) is read and the recognized object name (Seoul station) + survey () is mapped to the object name (place + survey) of the response sentence template Quot; to " Go to ", and mapping the " ~ "for the translated term in the personalized utterance style profile database 132 to the translated word " Accordingly, the response sentence generation module 112 generates a response sentence of "Go to Seoul Station ", and additionally generates an additional response sentence (" The expected arrival time is 3 o'clock. " Can be provided. Here, the response sentence generation module 112 reads out the meaning qualities of the utterance style most used by the user when reading the substantial morpheme and formal morpheme about the semantic qualities to be applied to the response sentence in the personal utterance style profile DB 132, By applying it to a sentence, it is possible to generate a response sentence that is familiar and natural to the user.

아울러, 응답 문장 생성 모듈(112)은 기 설정된 응답 패턴에 따라 부가 응답 문장을 생성하며, 사용자 발화 문장에 대응하는 응답 문장 템플릿과 함께 매핑된 부가 응답 문장 템플릿을 독출하고, 부가 응답 문장 템플릿에 적용할 개체명 또는 의미 자질을 필요한 경우, 해당 개체명 또는 의미 자질을 연동하는 DB나 기능을 통해 제공받아 적용하여 최종 사용자에게 제시할 응답 문장을 생성할 수 있다. In addition, the response sentence generation module 112 generates an additional response sentence according to a predetermined response pattern, reads the additional response sentence template mapped together with the response sentence template corresponding to the user uttered sentence, and applies it to the additional response sentence template If the object name or semantic qualification is required, it is possible to generate a response sentence to be presented to the end user by applying and applying the object name or the semantic qualification through DB or function that interlocks with the corresponding object name or semantic qualification.

인터페이스부(120)는 사용자 발화 스타일에 따른 응답 문장을 생성 및 제공하기 위한 인터페이스를 제공하는 수단이다. 특히, 본 발명에 있어서, 인터페이스부(120)는 별도의 통신 모듈(미도시)을 통해 하나 이상의 다른 장치로부터 사용자 발화에 대한 입력 신호를 수신하면, 수신된 입력 신호를 제어부(110)로 전달하고, 별도의 입력 모듈(미도시)을 통해 사용자로부터 사용자 발화에 대한 정보를 입력 받아 입력 신호를 발생할 수 있다. 또한, 인터페이스부(120)는 사용자 발화 스타일에 따라 생성된 응답 문장을 별도의 통신 모듈(미도시)을 통해 하나 이상의 다른 장치로 전송하거나, 별도의 출력 모듈(미도시)을 통해 사용자에게 출력할 수 있다.The interface unit 120 is a means for providing an interface for generating and providing a response sentence according to a user utterance style. In particular, in the present invention, when the interface unit 120 receives an input signal for user's utterance from one or more other devices through a separate communication module (not shown), the interface unit 120 transmits the received input signal to the controller 110 , And input information about a user's utterance from a user through a separate input module (not shown) to generate an input signal. In addition, the interface unit 120 transmits a response sentence generated according to a user's utterance style to one or more other devices through a separate communication module (not shown) or outputs the response sentence to a user through a separate output module .

저장부(130)는 사용자 발화 문장 분석에 필요한 정보들을 저장하기 위한 수단이다. 구체적으로, 저장부(130)는 개체명 및 의미 자질 데이터베이스(DB, 131), 개인 발화 스타일 프로파일 데이터베이스(DB, 132) 및 응답 문장 템플릿 데이터베이스(DB, 133)를 포함하여 구성될 수 있다. The storage unit 130 is a means for storing information necessary for analysis of a user utterance sentence. Specifically, the storage unit 130 may include an object name and semantic feature database DB 131, a personalized speech style profile database DB 132, and a response sentence template database DB 133.

개체명 및 의미 자질 데이터베이스(DB, 131)는 인명, 지명, 기관명, 날짜, 숫자 등과 같은 고유한 의미를 가지는 개체명(Named Entity)의 집합으로 구성되는 개체명 사전 및 어휘와 상기 어휘에 내포된 의미를 구성하는 최소 단위인 의미 자질(意味資質, Semantic Feature)의 집합으로 구성되는 의미 자질 사전을 저장할 수 있다. Object name and meaning The attribute database (DB, 131) includes an object name dictionary and a vocabulary composed of a set of named entities having a unique meaning such as a name, a place name, an institution name, a date, a number, A semantic feature dictionary consisting of a set of semantic features, which is the minimum unit that constitutes meaning, can be stored.

개인 발화 스타일 프로파일 데이터베이스(DB, 132)는 개인 발화 스타일 프로파일 생성 모듈(111)에서 사용자 발화 문장을 분석하여 파악된 발화 스타일에 따라 생성된 개인 발화 스타일 프로파일에 대한 정보들을 저장할 수 있다. The personalized speech style profile database (DB) 132 may analyze the user's utterance sentence in the personalized speech style profile generation module 111 and store information on the personalized speech style profile generated according to the recognized speech style.

응답 문장 템플릿 데이터베이스(DB, 133)는 사용자 발화 문장에 대응하는 응답 문장을 생성하기 위해 필요한 응답 문장 템플릿에 대한 정보를 저장할 수 있다. The response sentence template database (DB) 133 may store information on the response sentence template necessary for generating a response sentence corresponding to the user utterance sentence.

그러면 이와 같이 구성된 사용자 발화 스타일에 따른 응답 문장을 생성하기 위한 대화형 서비스 방법에 대해 첨부된 도면을 참조하여 구체적으로 설명하기로 한다. Hereinafter, an interactive service method for generating a response sentence according to a user utterance style constructed as described above will be described in detail with reference to the accompanying drawings.

도 4는 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 인증 방법을 도시한 도면이다. 4 is a diagram illustrating an interactive service authentication method according to a user utterance style according to an embodiment of the present invention.

도 4를 참조하면, 1101단계에서 대화형 서비스 장치(100)는 인터페이스부(120)를 통해 사용자 발화에 대한 입력 신호가 수신되었는지를 확인하여, 사용자 발화에 대한 입력 신호가 수신되면, 1102단계에서 대화형 서비스 장치(100)는 사용자 발화에 대한 문장을 확인 및 사용자 발화 문장을 분석한다. 여기서, 사용자 발화에 대한 문장 확인은 음성 변환 모듈(도시되지 않음) 등을 통해 음성으로 입력되는 사용자 발화를 음성 변환하여 사용자 발화 문장을 확인할 수 있으며, 구체적인 설명은 생략하기로 한다. Referring to FIG. 4, in step 1101, the interactive service apparatus 100 determines whether an input signal for user utterance has been received through the interface unit 120. When an input signal for user utterance is received, The interactive service apparatus 100 confirms the sentence about the user utterance and analyzes the user utterance sentence. Here, the sentence verification for the user utterance can be performed by verifying the user utterance inputted by voice through the voice conversion module (not shown) or the like to confirm the user utterance sentence, and a detailed description thereof will be omitted.

그리고 사용자 발화 문장 분석에 대해 구체적으로 설명하면, 대화형 서비스 장치(100)는 사용자 발화 문장의 형태소를 분석하고, 분석된 각 형태소에 품사 태그를 부여한다. 그런 다음 대화형 서비스 장치(100)는 분석된 각 형태소에서 개체명 및 하나 이상의 의미 자질을 인식하고, 인식된 개체명 및 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴(LSP)을 적용하여 사용자 발화 문장의 의미를 분석한다. 이때, 대화형 서비스 장치(100)는 인식된 하나 이상의 의미 자질에 따라 사용자 발화 스타일을 파악한다. 여기서, 사용자 발화 문장의 의미 분석 및 사용자 발화 스타일을 파악하기 위한 방법은 첨부된 도 1에 따른 개인 발화 스타일 프로파일 생성 모듈(111) 및 응답 문장 생성 모듈(112)의 동작 설명에서 구체적으로 설명하였으므로 이에 대한 구체적인 설명을 생략하기로 한다. To describe the user utterance sentence analysis in detail, the interactive service apparatus 100 analyzes the morpheme of the user utterance sentence, and assigns a part of speech tag to each analyzed morpheme. The interactive service device 100 then recognizes the entity name and one or more semantic qualities in each morpheme analyzed and applies a language pattern (LSP) preset to the recognized entity name and one or more recognized semantic qualities, Analyze the meaning of the sentence. At this time, the interactive service apparatus 100 grasps the user's utterance style according to one or more recognized qualities. Here, the method for analyzing the meaning of the user utterance sentence and for grasping the user uttered style has been described in detail in the operation description of the personal utterance style profile generation module 111 and the response sentence generation module 112 according to the attached FIG. 1 A detailed description thereof will be omitted.

그런 다음 1103단계에서 대화형 서비스 장치(100)는 인식된 개체명(장소+조사)과 의미 자질(이동_용언+어미) 형태로 사용자 발화 스타일에 따른 인식된 개체명 및 의미 자질의 실질 형태소 및 형식 형태소를 포함한 사용자의 개인 발화 스타일 프로파일을 생성한다. 예를 들어, 대화형 서비스 장치(100)는 첨부된 도 5에 도시된 바와 같이, 개체명(장소+조사: 서울역+으로)과, 의미 자질(이동_용언+어미: 출발하+ㅂ시다)을 개인 발화 스타일 프로파일로 생성하고, 생성된 개인 발화 스타일 프로파일을 개인 발화 스타일 프로파일 DB(132)에 저장한다. 여기서, 개인 발화 스타일 프로파일은 개체명(장소)에 관련하여 사용자의 다양한 발화 스타일에 따른 하나 이상의 의미 자질(예를 들어, 가+ㅂ시다, 가+ㄹ까, 가+자 등)이 매핑되어 저장될 수 있다. Then, in step 1103, the interactive service apparatus 100 extracts the actual morpheme of the recognized entity name and the semantic feature according to the user utterance style in the form of the recognized entity name (place + survey) and the semantic qualification Create a user's personalized speech style profile, including format morphemes. For example, the interactive service apparatus 100 may include the name of the entity (place + inquiry: to Seoul Station +) and the meaning qualities (move_subscription + mother: start) And stores the generated personalized speech style profile in the personalized speech style profile DB 132. Here, the personalized utterance style profile may be mapped and stored in association with one or more semantic qualities (for example, a +, a +, a +, etc.) according to a user's various utterance styles .

이후, 1104단계에서 대화형 서비스 장치(100)는 사용자 발화 문장의 인식된 개체명 및 의미 자질의 각 형태소(실질 형태소 및 형식 형태소)를 기반으로 응답 문장 템플릿 DB(133)에서 상응하는 응답 문장 템플릿을 독출한다. Thereafter, in step 1104, the interactive service apparatus 100 searches the response sentence template DB 133 based on the recognized entity name and semantic qualities of the user utterance sentence (substantial morpheme and morpheme morpheme) .

그런 다음 1105단계에서 대화형 서비스 장치(100)는 독출한 응답 문장 템플릿에서 사용되는 의미 자질(이하, 응답 의미 자질이라 칭함)을 확인한 후, 확인된 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 개인 발화 스타일 프로파일 DB(132)에 저장된 상응하는 의미 자질들 중에서 가장 많이 사용한 의미 자질에 대한 실질 형태소 및 형식 형태소를 독출하고, 독출된 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성한다. 예를 들어, 대화형 서비스 장치(100)는 첨부된 도 5에 도시된 바와 같이, 인식된 개체명(장소+조사: 서울역+으로)과 인식된 의미 자질(이동_용언+어미: 출발하+ㅂ시다)를 확인하고, 이에 상응하는 응답 문장 템플릿(장소+조사, 이동_용언+응답_어미)를 독출하여 응답 문장 템플릿의 개체명(장소+조사)에 인식된 개체명(서울역으로)을 매핑하고, 이동_용언+응답_어미에 개인 발화 스타일 프로파일 DB(132)에서 독출한 이동_용언에 대한 "가~"를 매핑하여 "가겠습니다"라는 응답 의미 자질을 생성한다. 이에 따라 대화형 서비스 장치(100)는 "서울역으로 가겠습니다."라는 응답 문장을 생성하고, 여기에 추가적으로 부가 응답 문장("도착 예정 시간은 3시입니다.")를 생성한다. Then, in step 1105, the interactive service apparatus 100 confirms the semantic qualities (hereinafter referred to as response semantic qualities) used in the read response sentence template, and then stores the actual morpheme and formal morpheme corresponding to the confirmed semantic qualification The main morpheme and morpheme morpheme for the most used semantic feature among the corresponding semantic qualities stored in the utterance style profile DB 132 is read and the response sentence is generated by applying the read actual morpheme and morpheme morpheme to the response semantic feature . For example, the interactive service apparatus 100 can recognize the recognized object name (place + inquiry: to Seoul Station +) and the recognized meaning property (move_subject + (Place + survey, move_directive + response_memory) corresponding to the corresponding response sentence template and reads the recognized object name (to Seoul Station) in the object name (place + survey) of the response sentence template And maps the " ~ "for the translation term read from the personalized speech style profile DB 132 to the translation term " response " Accordingly, the interactive service apparatus 100 generates a response sentence of "Go to Seoul Station ", and additionally generates an additional response sentence (" scheduled arrival time is 3:00 ").

이에 따라 1106단계에서 대화형 서비스 장치(100)는 생성된 응답 문장 예를 들어, "서울역으로 가겠습니다. 도착 예정 시간은 3시입니다." 라는 응답 문장을 사용자에게 제시 즉, 출력 모듈(도시되지 않음)을 통해 출력할 수 있다. Accordingly, in step 1106, the interactive service apparatus 100 transmits a generated response sentence, for example, "Go to Seoul station. (I.e., an output module (not shown)) to the user.

본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments in accordance with the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and the like.

또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of an implementation by firmware or software, an embodiment of the present invention may be embodied in the form of a module, a procedure, a function, and the like for performing the functions or operations described above, Lt; / RTI > Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital video disk (DVD) Optical media such as a floppy disk and a hardware device specifically configured to store and execute program instructions such as ROM, RAM, flash memory and the like. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be apparent to those skilled in the art. Furthermore, although specific terms are used in this specification and the drawings, they are used in a generic sense only to facilitate the description of the invention and to facilitate understanding of the invention, and are not intended to limit the scope of the invention. Accordingly, the foregoing detailed description is to be considered in all respects illustrative and not restrictive. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.

아울러, 본 발명에 따른 장치나 단말은 하나 이상의 프로세서로 하여금 앞서 설명한 기능들과 프로세스를 수행하도록 하는 명령에 의하여 구동될 수 있다. 예를 들어 그러한 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같은 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다. 나아가 본 발명에 따른 장치는 서버 팜(Server Farm)과 같이 네트워크에 걸쳐서 분산형으로 구현될 수 있으며, 혹은 단일의 컴퓨터 장치에서 구현될 수도 있다.In addition, a device or terminal according to the present invention may be driven by instructions that cause one or more processors to perform the functions and processes described above. Such instructions may include, for example, interpreted instructions such as script commands, such as JavaScript or ECMAScript commands, or other instructions stored in executable code or computer readable media. Further, the apparatus according to the present invention may be implemented in a distributed manner across a network, such as a server farm, or may be implemented in a single computer device.

또한, 본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.Further, a computer program (also known as a program, software, software application, script or code) that is embedded in the apparatus according to the present invention and which implements the method according to the present invention includes a compiled or interpreted language, a priori or procedural language , And may be deployed in any form including standalone programs or modules, components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in the file system. The program may be stored in a single file provided to the requested program, or in multiple interactive files (e.g., a file storing one or more modules, subprograms, or portions of code) (E.g., one or more scripts stored in a markup language document). A computer program may be deployed to run on multiple computers or on one computer, located on a single site or distributed across multiple sites and interconnected by a communications network.

아울러, 본 발명에 따른 실시예를 설명하는데 있어서, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Moreover, in describing the embodiments according to the present invention, operations are depicted in the drawings in a particular order, but it is to be understood that they should perform such operations in that particular order or sequential order shown in order to obtain the desired result, Should not be understood as being performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood.

본 발명은 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법에 관한 것으로, 사용자 발화 문장의 의미를 분석하여 사용자 발화 의도를 파악하고, 사용자 발화 문장에서 사용자 발화 의도를 표현하기 위한 다양한 의미 자질에 따른 사용자 발화 스타일을 파악하여 개인 발화 스타일 프로파일을 생성함으로써, 응답 문장 생성 시 사용자가 가장 많이 사용한 발화 스타일을 적용하여 응답 문장을 생성할 수 있으므로 틀에 박힌 응답 문장이 아닌 사용자 발화 스타일에 따라 사용자에게 보다 친화적이면서 자연스러운 응답 문장을 제공할 수 있는 효과가 있다. The present invention relates to an interactive service apparatus and method according to a user utterance style, in which a meaning of a user utterance sentence is analyzed to grasp a user utterance intention, and a user having various semantic qualities for expressing a user utterance intention in a user utterance sentence By generating a personalized speech style profile by grasping the speech style, the user can generate a response sentence by applying the most frequently used speech style in generating a response sentence, so that the user can be more friendly It is possible to provide a natural response sentence.

아울러, 본 발명은 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있다.In addition, the present invention has a possibility of commercial use or business, and is industrially applicable because it is practically possible to carry out clearly.

100: 대화형 서비스 장치 110: 제어부
111: 개인 발화 스타일 프로파일 생성 모듈
112: 응답 문장 생성 모듈 120: 인터페이스부
130: 저장부 131: 개체명 및 의미 자질 DB
132: 개인 발화 스타일 프로파일 DB 133: 응답 문장 템플릿 DB
100: interactive service device 110:
111: Personal Talking Style Profile Creation Module
112: response sentence generation module 120:
130: Storage unit 131: Object name and meaning Qualitative DB
132: Personalized speech style profile DB 133: Response sentence template DB

Claims (13)

사용자 발화에 따른 사용자 발화 문장을 입력 받는 인터페이스부; 및
상기 인터페이스부로부터 전달된 상기 사용자 발화 문장을 파악하고, 파악된 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하여 저장하고, 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하도록 제어하는 제어부;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치.
An interface unit for receiving a user utterance sentence according to user utterance; And
The user recognizes the user utterance sentence transmitted from the interface unit, analyzes the meaning of the user uttered sentence, grasps the user utterance style according to the meaning of the analyzed user utterance sentence, A control unit for generating and storing a style profile and generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile;
And an interactive service device.
제1항에 있어서,
상기 생성된 개인 발화 스타일 프로파일을 저장하고, 상기 응답 문장 시 이용되는 기 설정된 응답 문장 템플릿을 저장하는 저장부;
를 더 포함하는 것을 특징으로 하는 대화형 서비스 장치.
The method according to claim 1,
A storage unit for storing the generated personalized speech style profile and storing a predetermined response sentence template used in the response sentence;
Further comprising: an interactive service device operatively coupled to the interactive service device.
제1항에 있어서, 상기 제어부는,
상기 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 개인 발화 스타일 프로파일 생성 모듈; 및
상기 사용자 발화 스타일 프로파일 생성 모듈에서 생성된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 따른 응답 문장을 생성하는 응답 문장 생성 모듈;
을 포함하는 것을 특징으로 하는 대화형 서비스 장치.
The apparatus of claim 1,
A personalized utterance style profile generation module for analyzing the meaning of the user utterance sentence, determining a user utterance style according to the meaning of the analyzed user utterance sentence, and generating a personal utterance style profile according to the grasped user utterance style; And
A response sentence generation module for generating a response sentence according to the user utterance based on the personalized utterance style profile generated by the user utterance style profile generation module;
And an interactive service device.
제3항에 있어서, 상기 사용자 발화 스타일 프로파일 생성 모듈은,
상기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 상기 사용자 발화 문장의 의미를 분석함을 특징으로 하는 대화형 서비스 장치.
4. The method of claim 3, wherein the user utterance style profile generation module comprises:
Wherein the meaning of the user utterance sentence is analyzed by applying a LSP (Lexico Syntactic Pattern) expressing sentence forms having the same meaning to each analyzed morpheme.
제4항에 있어서, 상기 어문패턴은,
상기 사용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성됨을 특징으로 하는 대화형 서비스 장치.
5. The method according to claim 4,
Wherein the information includes at least one of an object name, a semantic feature, a vocabulary, and a part of speech tag according to a concept of the user utterance sentence.
제3항에 있어서, 상기 사용자 발화 스타일 프로파일 생성 모듈은,
상기 사용자 발화 문장의 형태소를 분석하는 분석기;
분석된 각 형태소에 품사 태그를 부여하는 형태소 태거;
상기 분석된 각 형태소에서 개체명 및 하나 이상의 의미 자질을 인식하고, 상기 인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하고, 상기 인식된 하나 이상의 의미 자질에 따라 사용자 발화 스타일을 분석하는 개체명 및 의미 자질 인식기; 및
상기 인식된 개체명 및 인식된 의미 자질의 실질 형태소 및 형식 형태소를 기반으로 상기 분석된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성 및 저장하는 개인 발화 스타일 프로파일 생성기;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치.
4. The method of claim 3, wherein the user utterance style profile generation module comprises:
An analyzer for analyzing a morpheme of the user utterance sentence;
A morpheme tag that assigns part mark tags to each analyzed morpheme;
Recognizing the entity name and at least one semantic feature in each analyzed morpheme, analyzing the meaning of the user utterance sentence by applying the recognized entity name and a predefined phrase pattern to the recognized one or more semantic features, An entity name and a semantic qualifier for analyzing a user utterance style according to one or more semantic qualities; And
A personalized utterance style profile generator for generating and storing a personalized utterance style profile according to the analyzed user utterance style based on the recognized entity name and the actual morpheme and formal morpheme of the recognized meaning qualifier;
And an interactive service device.
제3항에 있어서, 상기 응답 문장 생성 모듈은,
상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하고, 독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하고, 독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성함을 특징으로 하는 대화형 서비스 장치.
4. The apparatus of claim 3, wherein the response sentence generation module comprises:
Reading out the pre-stored speech sentence template corresponding to the recognized entity name and the semantic feature, reading the actual morpheme and morpheme morpheme corresponding to the response semantic qualities used in the read speech sentence template from the stored personal speech style profile DB, And the response sentence is generated by applying the actual morpheme and the morpheme of the read out semantic feature to the response semantic feature.
제7항에 있어서, 상기 응답 문장 생성 모듈은,
상기 인식된 개체명과 상기 독출된 의미 자질의 실질 형태소 및 형식 형태소를 조합하여 응답 문장을 생성하고, 생성된 응답 문장에 부가 응답 문장을 추가하여 사용자에게 제시할 최종 응답 문장을 생성함을 특징으로 하는 대화형 서비스 장치.
The method of claim 7, wherein the response sentence generation module comprises:
A response sentence is generated by combining the recognized entity name with the actual morpheme and the morpheme morpheme of the read out semantic feature, and an additional response sentence is added to the generated response sentence to generate a final response sentence to be presented to the user Interactive service device.
입력된 사용자 발화 문장을 파악하는 단계;
파악된 사용자 발화 문장의 의미를 분석하는 단계;
분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하는 단계;
파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 단계; 및
저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법.
Recognizing the inputted user utterance sentence;
Analyzing the meaning of the identified user utterance sentence;
Determining a user utterance style according to the meaning of the analyzed user utterance sentence;
Generating a personalized utterance style profile according to the identified user utterance style; And
Generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile;
The interactive service method according to claim 1,
제9항에 있어서, 상기 사용자 발화 문장의 의미를 분석하는 단계는,
사용자 발화 문장의 형태소를 분석하는 단계;
분석된 각 형태소에 품사 태그를 부여하는 단계;
분석된 각 형태소에 대한 개체명 및 하나 이상의 의미 자질을 인식하는 단계; 및
인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하는 단계;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법.
10. The method of claim 9, wherein analyzing the semantics of the user utterance sentence comprises:
Analyzing the morpheme of the user utterance sentence;
Assigning speech tags to each analyzed morpheme;
Recognizing an entity name and at least one semantic feature for each analyzed morpheme; And
Analyzing the meaning of the user utterance sentence by applying a recognized utterance pattern to the recognized entity name and the recognized one or more sense qualities;
The interactive service method according to claim 1,
제9항에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는,
상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하는 단계;
독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하는 단계; 및
독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성하는 단계;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법.
10. The method of claim 9, wherein generating a response sentence corresponding to the user utterance based on the stored personalized utterance style profile comprises:
Reading a previously stored speech sentence template corresponding to the recognized entity name and semantic qualification;
Reading the actual morpheme and morpheme morpheme corresponding to the response semantic qualities used in the read speech sentence template from the stored personal speech style profile DB; And
Generating a response sentence by applying a substantial morpheme and a morpheme morpheme of the read semantic feature to the response semantic feature;
The interactive service method according to claim 1,
제11항에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는,
부가 응답 문장 생성을 위한 응답 문장 템플릿을 독출하는 단계; 및
독출된 부가 응답 문장 생성을 위한 응답 문장 템플릿을 이용하여 부가 응답 문장을 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법.
12. The method of claim 11, wherein generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile comprises:
Reading a response sentence template for generating an additional response sentence; And
Generating an additional response sentence using a response sentence template for generating a readout additional response sentence;
Wherein the interactive service device is further configured to display the interactive style of service according to a style of user's utterance in the interactive service device.
제9항 내지 제12항에 기재된 적어도 하나의 사용자 발화 스타일에 따른 대화형 서비스 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium having recorded therein a program for executing an interactive service method according to at least one user utterance style according to any one of claims 9 to 12.
KR1020130124534A 2013-10-18 2013-10-18 Conversational service apparatus and method based on user utterance KR102175539B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130124534A KR102175539B1 (en) 2013-10-18 2013-10-18 Conversational service apparatus and method based on user utterance

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130124534A KR102175539B1 (en) 2013-10-18 2013-10-18 Conversational service apparatus and method based on user utterance

Publications (2)

Publication Number Publication Date
KR20150045177A true KR20150045177A (en) 2015-04-28
KR102175539B1 KR102175539B1 (en) 2020-11-06

Family

ID=53037217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130124534A KR102175539B1 (en) 2013-10-18 2013-10-18 Conversational service apparatus and method based on user utterance

Country Status (1)

Country Link
KR (1) KR102175539B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028793A (en) * 2016-09-05 2019-03-19 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Human Machine Interactive Method and Device Based on Artificial Intelligence
CN110532558A (en) * 2019-08-29 2019-12-03 杭州涂鸦信息技术有限公司 A kind of more intension recognizing methods and system based on the parsing of sentence structure deep layer
KR20200028158A (en) * 2018-09-06 2020-03-16 주식회사 케이티 Media play device, method and computer program for providing multi language voice command service
WO2020197166A1 (en) * 2019-03-22 2020-10-01 Samsung Electronics Co., Ltd. Electronic device providing response and method of operating same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040050928A (en) * 2002-12-11 2004-06-18 삼성전자주식회사 Apparatus and method of managing dialog between user and agent
US20080010070A1 (en) * 2006-07-10 2008-01-10 Sanghun Kim Spoken dialog system for human-computer interaction and response method therefor
KR20080021486A (en) * 2006-09-04 2008-03-07 한국전자통신연구원 The method and apparatus for making an answer
KR100829401B1 (en) 2006-12-06 2008-05-15 한국전자통신연구원 The method and apparatus for fine-grained named entity recognition
KR20100043360A (en) * 2008-10-20 2010-04-29 에스케이 텔레콤주식회사 An apparatus and method for detecting intention, an information offering service system, server and method and a storage means
KR20110024075A (en) * 2009-09-01 2011-03-09 한국전자통신연구원 Database building apparatus and its method, it used speech understanding apparatus and its method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040050928A (en) * 2002-12-11 2004-06-18 삼성전자주식회사 Apparatus and method of managing dialog between user and agent
US20080010070A1 (en) * 2006-07-10 2008-01-10 Sanghun Kim Spoken dialog system for human-computer interaction and response method therefor
KR20080021486A (en) * 2006-09-04 2008-03-07 한국전자통신연구원 The method and apparatus for making an answer
KR100829401B1 (en) 2006-12-06 2008-05-15 한국전자통신연구원 The method and apparatus for fine-grained named entity recognition
KR20100043360A (en) * 2008-10-20 2010-04-29 에스케이 텔레콤주식회사 An apparatus and method for detecting intention, an information offering service system, server and method and a storage means
KR20110024075A (en) * 2009-09-01 2011-03-09 한국전자통신연구원 Database building apparatus and its method, it used speech understanding apparatus and its method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김현진 외, ‘백과사전 질의응답을 위한 구문정보기반 정답색인방법’, 한국컴퓨터종합학술대회 2005 논문집 Vol.32, No. 1(B), 2005.07* *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190028793A (en) * 2016-09-05 2019-03-19 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Human Machine Interactive Method and Device Based on Artificial Intelligence
US11645547B2 (en) 2016-09-05 2023-05-09 Beijing Baidu Netcom Science And Technology Co., Ltd. Human-machine interactive method and device based on artificial intelligence
KR20200028158A (en) * 2018-09-06 2020-03-16 주식회사 케이티 Media play device, method and computer program for providing multi language voice command service
WO2020197166A1 (en) * 2019-03-22 2020-10-01 Samsung Electronics Co., Ltd. Electronic device providing response and method of operating same
US11430438B2 (en) 2019-03-22 2022-08-30 Samsung Electronics Co., Ltd. Electronic device providing response corresponding to user conversation style and emotion and method of operating same
CN110532558A (en) * 2019-08-29 2019-12-03 杭州涂鸦信息技术有限公司 A kind of more intension recognizing methods and system based on the parsing of sentence structure deep layer

Also Published As

Publication number Publication date
KR102175539B1 (en) 2020-11-06

Similar Documents

Publication Publication Date Title
US9805718B2 (en) Clarifying natural language input using targeted questions
US20180061408A1 (en) Using paraphrase in accepting utterances in an automated assistant
US9330659B2 (en) Facilitating development of a spoken natural language interface
US9449599B2 (en) Systems and methods for adaptive proper name entity recognition and understanding
US6952665B1 (en) Translating apparatus and method, and recording medium used therewith
US8566076B2 (en) System and method for applying bridging models for robust and efficient speech to speech translation
KR102316063B1 (en) Method and apparatus for identifying key phrase in audio data, device and medium
US20170199867A1 (en) Dialogue control system and dialogue control method
KR20180019342A (en) Method and apparatus for performing machine translation
US20150348543A1 (en) Speech Recognition of Partial Proper Names by Natural Language Processing
WO2009014465A2 (en) System and method for multilingual translation of communicative speech
CN110428823A (en) Speech understanding device and the speech understanding method for using the device
Kumar et al. A knowledge graph based speech interface for question answering systems
KR20170090127A (en) Apparatus for comprehending speech
Bastianelli et al. Speaky for robots: the development of vocal interfaces for robotic applications
KR20150045177A (en) Conversational service apparatus and method based on user utterance
KR102106797B1 (en) Apparatus for analyzing complex sentence, and recording medium therefor
EP3005152B1 (en) Systems and methods for adaptive proper name entity recognition and understanding
US8401855B2 (en) System and method for generating data for complex statistical modeling for use in dialog systems
Chen et al. Speech technology
KR101134455B1 (en) Speech recognition apparatus and its method
KR20150042532A (en) Apparatus for analyzing complex sentence, and recording medium therefor
KR20200101891A (en) Apparatus for analyzing complex sentence, and recording medium therefor
Shukla et al. A Framework of Translator from English Speech to Sanskrit Text
KR102147670B1 (en) Apparatus for analyzing complex sentence, and recording medium therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant