KR20150045177A - Conversational service apparatus and method based on user utterance - Google Patents
Conversational service apparatus and method based on user utterance Download PDFInfo
- Publication number
- KR20150045177A KR20150045177A KR20130124534A KR20130124534A KR20150045177A KR 20150045177 A KR20150045177 A KR 20150045177A KR 20130124534 A KR20130124534 A KR 20130124534A KR 20130124534 A KR20130124534 A KR 20130124534A KR 20150045177 A KR20150045177 A KR 20150045177A
- Authority
- KR
- South Korea
- Prior art keywords
- sentence
- morpheme
- user utterance
- user
- utterance
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004044 response Effects 0.000 claims abstract description 120
- 230000002452 interceptive effect Effects 0.000 claims description 65
- 238000012797 qualification Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000011835 investigation Methods 0.000 description 3
- 238000013515 script Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Machine Translation (AREA)
Abstract
Description
본 발명은 대화형 서비스에 관한 것으로서, 특히 사용자 발화 스타일에 따른 자연스러운 응답 문장을 생성하여 생성된 응답 문장을 사용자에게 제공하기 위한 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법에 관한 것이다. The present invention relates to an interactive service, and more particularly, to an interactive service apparatus and method according to a user utterance style for providing a response sentence generated by generating a natural response sentence according to a user utterance style.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute the prior art.
최근에는 문명의 발달 이전부터 인간의 의사를 전달하기 위한 도구였던 언어를 기초로 하는 인터페이스가 적용된 제품 및 서비스가 속속 등장하고 있다.In recent years, products and services using interfaces based on language, which was a tool for communicating the will of human beings before the development of civilization, are emerging.
언어를 기초로 하는 인터페이스에 관한 연구는 초기 일방적인 음성 물음에 다이얼 내지 버튼으로 답하는 방식에서, 음성 물음에 제한된 단어로서 답하는 방식까지 발전하였으며, 궁극적으로 자연스러운 음성 대화를 통한 인터페이스를 목표로 하고 있다.Research on language-based interfaces has evolved from a method of answering an initial one-way voice question with a dial or a button, to a method of answering a voice word as a limited word, and ultimately aiming at an interface through natural voice conversation.
이러한 자연스러운 음성 대화를 통한 인터페이스를 적용한 대화형 서비스의 경우, 사용자 발화 의도를 파악하기 위한 언어 이해, 대화 흐름과 의도에 따라 대화 전략을 결정하는 대화 관리 및 발화할 문장을 생성하는 언어 생성 기술들이 필요하다. In the case of the interactive service using the interface through natural voice conversation, it is necessary to understand the language to grasp the user's utterance intention, to manage the dialogue to decide the conversation strategy according to the flow of the conversation and the intention, Do.
그러나 종래의 대화형 서비스에서는 음성 물음에 따라 틀에 박힌 응답을 제공하므로 자연스러운 대화형 서비스를 제공하는 데 한계가 있다. 따라서 자연스러운 대화형 서비스 제공하기 위해 대화 전략에 따라 사용자에게 친화적이면서 자연스러운 응답 문장을 생성하기 위한 기술이 요구되고 있다. However, in the conventional interactive service, since it provides a framed response according to the voice question, there is a limit to providing a natural interactive service. Therefore, in order to provide a natural interactive service, a technique for generating a friendly and natural response sentence according to a conversation strategy is required.
본 발명은 종래의 불편함을 해소하기 위하여 제안된 것으로서, 사용자 발화 문장의 의미를 분석하여 사용자 발화 의도를 파악하고, 사용자 발화 문장의 의미 자질을 분석하여 사용자의 발화 스타일에 따른 개인 사용자 발화 스타일 프로파일을 생성하고, 생성된 개인 사용자 발화 스타일 프로파일을 기반으로 사용자 발화 스타일에 따른 응답 문장을 생성하여 친화적이면서 자연스러운 응답 문장을 사용자에게 제공하기 위한 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법 을 제공하고자 한다. The present invention has been proposed in order to solve the inconvenience of the prior art, and it is an object of the present invention to analyze the meaning of a user utterance sentence to understand a user utterance intention, analyze the meaning qualities of the user utterance sentence, And an interactive service apparatus and method according to a user utterance style for generating a response sentence according to a user utterance style based on the generated personal user utterance style profile to provide a friendly and natural response sentence to a user .
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 대화형 서비스 장치는, 사용자 발화에 따른 사용자 발화 문장을 입력 받는 인터페이스부; 및 상기 인터페이스부로부터 전달된 상기 사용자 발화 문장을 파악하고, 파악된 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하여 저장하고, 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하도록 제어하는 제어부를 포함할 수 있다. According to an aspect of the present invention, there is provided an interactive service apparatus comprising: an interface unit receiving a user utterance sentence according to user utterance; And analyzing the meaning of the user uttered sentence, analyzing the meaning of the user uttered sentence, analyzing the user uttered style according to the meaning of the analyzed user uttered sentence, Generates and stores a speech style profile, and generates a response sentence corresponding to the user speech based on the stored personalized speech style profile.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 생성된 개인 발화 스타일 프로파일을 저장하고, 상기 응답 문장 시 이용되는 기 설정된 응답 문장 템플릿을 저장하는 저장부를 더 포함할 수 있다. The interactive service apparatus according to the preferred embodiment of the present invention may further include a storage unit for storing the generated personalized speech style profile and storing a predetermined response sentence template used in the response sentence.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 제어부는, 상기 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 개인 발화 스타일 프로파일 생성 모듈; 및 상기 사용자 발화 스타일 프로파일 생성 모듈에서 생성된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 따른 응답 문장을 생성하는 응답 문장 생성 모듈을 포함할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the controller analyzes the meaning of the user utterance sentence, grasps the user utterance style according to the meaning of the analyzed user utterance sentence, A personalized utterance style profile generation module for generating a personal utterance style profile according to the personalized utterance style profile; And a response sentence generation module for generating a response sentence according to the user utterance based on the personalized utterance style profile generated by the user utterance style profile generation module.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 사용자 발화 스타일 프로파일 생성 모듈은, 상기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 상기 사용자 발화 문장의 의미를 분석할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the user utterance style profile generation module applies a lexical pattern (LSP) expressing sentence patterns having the same meaning to each analyzed morpheme The meaning of the user utterance sentence can be analyzed.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 어문패턴은, 상기 상용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성될 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the phrase pattern includes at least one of information on an object name, a semantic feature, a lexicon and a part of speech tag according to the concept of the user's utterance sentence, .
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 사용자 발화 스타일 프로파일 생성 모듈은, 상기 사용자 발화 문장의 형태소를 분석하는 분석기; 분석된 각 형태소에 품사 태그를 부여하는 형태소 태거; 집합 상기 분석된 각 형태소에서 개체명 및 하나 이상의 의미 자질을 인식하고, 상기 인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하고, 상기 인식된 하나 이상의 의미 자질에 따라 사용자 발화 스타일을 분석하는 개체명 및 의미 자질 인식기; 및 상기 인식된 개체명 및 인식된 의미 자질의 실질 형태소 및 형식 형태소를 기반으로 상기 분석된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성 및 저장하는 개인 발화 스타일 프로파일 생성기를 포함할 수 있다. In an interactive service apparatus according to a preferred embodiment of the present invention, the user utterance style profile generation module includes: an analyzer for analyzing a morpheme of the user utterance sentence; A morpheme tag that assigns part mark tags to each analyzed morpheme; And analyzing the meaning of the user utterance sentence by applying a recognized utterance pattern to the recognized entity name and the recognized one or more sense qualities, An object name and a semantic qualifier for analyzing a user utterance style according to one or more recognized semantic qualities; And a personalized utterance style profile generator for generating and storing a personal utterance style profile according to the analyzed user utterance style based on the recognized entity name and the substantial morpheme and formal morpheme of the recognized meaning qualification.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 응답 문장 생성 모듈은, 상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하고, 독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하고, 독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the response sentence generation module reads out a previously stored speech sentence template corresponding to the recognized entity name and semantic qualities, A response sentence can be generated by reading the actual morpheme and morpheme corresponding to the response semantic qualification from the stored personal speech style profile DB and applying the actual morpheme and morpheme of the read semantic feature to the response semantic feature.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에 있어서, 상기 응답 문장 생성 모듈은, 상기 인식된 개체명과 상기 독출된 의미 자질의 실질 형태소 및 형식 형태소를 조합하여 응답 문장을 생성하고, 생성된 응답 문장에 부가 응답 문장을 추가하여 사용자에게 제시할 최종 응답 문장을 생성할 수 있다. In the interactive service apparatus according to the preferred embodiment of the present invention, the response sentence generation module generates a response sentence by combining the recognized entity name with the actual morpheme and type morpheme of the read out semantic feature, A final response sentence to be presented to the user can be generated by adding an additional response sentence to the sentence.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법은, 입력된 사용자 발화 문장을 파악하는 단계; 파악된 사용자 발화 문장의 의미를 분석하는 단계; 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하는 단계; 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 단계; 및 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided an interactive service method according to a user utterance style in an interactive service apparatus, comprising: grasping an inputted user utterance sentence; Analyzing the meaning of the identified user utterance sentence; Determining a user utterance style according to the meaning of the analyzed user utterance sentence; Generating a personalized utterance style profile according to the identified user utterance style; And generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 사용자 발화 문장의 의미를 분석하는 단계는, 사용자 발화 문장의 형태소를 분석하는 단계; 분석된 각 형태소에 품사 태그를 부여하는 단계; 분석된 각 형태소에 대한 개체명 및 하나 이상의 의미 자질을 인식하는 단계; 및 인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하는 단계를 포함할 수 있다. In an interactive service method according to a user utterance style in an interactive service apparatus according to a preferred embodiment of the present invention, analyzing the meaning of the user utterance sentence includes analyzing a morpheme of a user utterance sentence; Assigning speech tags to each analyzed morpheme; Recognizing an entity name and at least one semantic feature for each analyzed morpheme; And analyzing the meaning of the user utterance sentence by applying a recognized utterance pattern to the recognized entity name and the recognized one or more sense qualities.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는, 상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하는 단계; 독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하는 단계; 독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성하는 단계를 포함할 수 있다. In an interactive service method according to a user utterance style in an interactive service apparatus according to a preferred embodiment of the present invention, the step of generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile comprises: Reading out a pre-stored speech sentence template corresponding to the object name and the semantic feature; Reading the actual morpheme and morpheme morpheme corresponding to the response semantic qualities used in the read speech sentence template from the stored personal speech style profile DB; And generating a response sentence by applying the substantial morpheme and formal morpheme of the read out semantic feature to the response semantic feature.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는, 상기 생성된 응답 문장을 사용자에게 출력하는 단계를 더 포함할 수 있다. In an interactive service method according to a user utterance style in an interactive service apparatus according to a preferred embodiment of the present invention, the step of generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile comprises: And outputting a response sentence to the user.
본 발명의 바람직한 실시예에 따른 대화형 서비스 장치에서 사용자 발화 스타일에 따른 대화형 서비스 방법에 있어서, 상기 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계는, 부가 응답 문장 생성을 위한 응답 문장 템플릿을 독출하는 단계; 독출된 부가 응답 문장 생성을 위한 응답 문장 템플릿을 이용하여 부가 응답 문장을 생성하는 단계를 더 포함할 수 있다. In the interactive service method according to the user utterance style in the interactive service apparatus according to the preferred embodiment of the present invention, the step of generating the response sentence corresponding to the user utterance based on the stored personal utterance style profile, Reading a response sentence template for generating a sentence; And generating an additional response sentence using the response sentence template for generating the readout added response sentence.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 컴퓨터에서 판독 가능한 기록 매체는 용자 발화 스타일에 따른 대화형 서비스 방법을 실행하기 위한 프로그램이 기록되어 있다.According to an aspect of the present invention, there is provided a computer-readable recording medium storing a program for executing an interactive service method according to a user utterance style.
본 발명은 사용자 발화 문장의 의미를 분석하여 사용자 발화 의도를 파악하고, 사용자 발화 문장에서 사용자 발화 의도를 표현하기 위한 다양한 의미 자질에 따른 사용자 발화 스타일을 파악하여 개인 발화 스타일 프로파일을 생성함으로써, 응답 문장 생성 시 사용자가 가장 많이 사용한 발화 스타일을 적용하여 응답 문장을 생성할 수 있으므로 틀에 박힌 응답 문장이 아닌 사용자 발화 스타일에 따라 사용자에게 보다 친화적이면서 자연스러운 응답 문장을 제공할 수 있는 효과가 있다. The present invention analyzes a meaning of a user utterance sentence to grasp a user utterance intention, generates a personal utterance style profile by grasping a user utterance style according to various semantic qualities for expressing a user utterance intention in a user utterance sentence, It is possible to generate a response sentence by applying the most commonly used speech style at the time of creation, thereby providing a more friendly and natural response sentence to the user in accordance with the user utterance style rather than a framed response sentence.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtained in the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description .
도 1은 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 장치의 구성을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 대화형 서비스 장치의 개인 발화 스타일 프로파일 생성 모듈의 구체적인 구성을 도시한 도면이다.
도 3은 본 발명의 실시예에 따른 대화형 서비스 장치의 응답 문장 생성 모듈의 동작을 보여주기 위한 구체적인 구성을 도시한 도면이다.
도 4는 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 인증 방법을 도시한 도면이다.
도 5는 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 응답 문장을 생성하기 위한 일 예를 도시한 도면이다. 1 is a diagram illustrating a configuration of an interactive service apparatus according to a user utterance style according to an embodiment of the present invention.
2 is a diagram illustrating a specific configuration of a personalized utterance style profile generation module of an interactive service apparatus according to an embodiment of the present invention.
3 is a diagram illustrating a concrete configuration for showing the operation of the response sentence generation module of the interactive service apparatus according to the embodiment of the present invention.
4 is a diagram illustrating an interactive service authentication method according to a user utterance style according to an embodiment of the present invention.
5 is a diagram illustrating an example of generating a response sentence according to a user utterance style according to an embodiment of the present invention.
이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다. 이하의 상세한 설명은 본 발명의 완전한 이해를 제공하기 위해서 구체적 세부사항을 포함한다. 그러나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 이러한 구체적 세부사항 없이도 실시될 수 있음을 안다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description, together with the accompanying drawings, is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced. The following detailed description includes specific details in order to provide a thorough understanding of the present invention. However, those skilled in the art will appreciate that the present invention may be practiced without these specific details.
몇몇 경우, 본 발명의 개념이 모호해지는 것을 피하기 위하여 공지의 구조 및 장치는 생략되거나, 각 구조 및 장치의 핵심기능을 중심으로 한 블록도 형식으로 도시될 수 있다.In some instances, well-known structures and devices may be omitted or may be shown in block diagram form, centering on the core functionality of each structure and device, to avoid obscuring the concepts of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함(comprising 또는 including)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, "일(a 또는 an)", "하나(one)", "그(the)" 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Throughout the specification, when an element is referred to as "comprising" or " including ", it is meant that the element does not exclude other elements, do. Also, the terms " part, "" module," and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have. Also, the terms " a or ", "one "," the ", and the like are synonyms in the context of describing the invention (particularly in the context of the following claims) May be used in a sense including both singular and plural, unless the context clearly dictates otherwise.
이하의 설명에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.The specific terminology used in the following description is provided to aid understanding of the present invention, and the use of such specific terminology may be changed into other forms without departing from the technical idea of the present invention.
설명에 앞서, 본 발명에서 언급하는 용례(用例, example)는 사전적 의미로 '쓰고 있는 예'를 말하는 것으로, 언어학적 분야에서는 특정 단어가 사용되는 예문을 말한다. 특히, 본 발명에서 언급하는 용례는 정형적인 문법구조에 맞추어 문장이 구성된 코퍼스(corpus)가 아니라, 정형적인 규칙에 벗어나는 문장으로서 실생활에서 사용되고 있는 문장, 다양한 문체를 포함한 문장 등을 모두 포함한다.Prior to the description, an example referred to in the present invention refers to an example in which the specific word is used in the linguistic field. In particular, the examples referred to in the present invention include not only a corpus composed of sentences according to a formal grammar structure but also sentences deviating from regular rules and used in real life, and sentences including various styles.
그러면 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 자연스러운 응답 문장을 제공하기 위한 대화형 서비스 장치 및 방법에 설명하기로 한다. 우선, 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 장치에 대해 첨부된 도면을 참조하여 구체적으로 설명하기로 한다. Hereinafter, an interactive service apparatus and method for providing a natural response sentence according to a user utterance style according to an embodiment of the present invention will be described. First, an interactive service apparatus according to a user utterance style according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 장치의 구성을 도시한 도면이다. 1 is a diagram illustrating a configuration of an interactive service apparatus according to a user utterance style according to an embodiment of the present invention.
도 1을 참조하면, 대화형 서비스 장치(100)는 제어부(110), 인터페이스부(120) 및 저장부(130)를 포함하여 구성될 수 있다. Referring to FIG. 1, the
제어부(110)는 대화형 서비스 장치(100)의 전반적인 제어를 수행하며, 인터페이스부(120) 및 저장부(130)와 기능적으로 연결되어 기능 수행을 위한 신호 흐름의 제어를 수행한다. 이때, 제어부(130)는 운영 체제(OS, Operating System), 응용 프로그램 및 각 구성을 구동시키는 프로세스 장치, 예컨대, 중앙처리장치(CPU, Central Processing Unit)로 이루어질 수 있다.The
특히, 본 발명의 실시예에 따른 제어부(110)는 사용자 발화 스타일에 따른 자연스러운 응답 문장을 생성하여 사용자에게 제공하기 위한 제어를 수행하며, 이를 위해 제어부(110)는 개인 발화 스타일 프로파일 생성 모듈(111) 및 응답 문장 생성 모듈(112)을 포함하여 구성될 수 있다. In particular, the
개인 발화 스타일 프로파일 생성 모듈(111)은 인터페이스부(120)를 통해 사용자로부터 입력 받은 사용자 발화에 대한 입력 신호를 전달 받고, 전달된 사용자 발화에 대한 입력 신호에 따라 사용자 발화 문장을 확인하여 확인된 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성할 수 있다. 이를 위해, 개인 발화 스타일 프로파일 생성 모듈(111)은 형태소 분석기(111-1), 형태소 태거(111-2), 개체명 및 의미 자질 인식기(111-3), 개인 발화 스타일 프로파일 생성기(111-4)를 포함하여 구성될 수 있다. The personalized utterance style
구체적으로, 개인 발화 스타일 프로파일 생성 모듈(111)은 형태소 분석기(111-1)를 통해 사용자 발화 문장을 최소의 의미를 가진 작은 단위의 형태소로 문장을 분석할 수 있다. 여기서, 형태소는 수많은 문법 단위들로 구성되어 있는 문장을 어휘적이든 문법적이든 의미를 전제하는 가장 작은 단위를 의미하며, 실질 형태소 및 형식 형태소로 구분할 수 있다. 실질 형태소는 구체적인 대상이나 동작, 상태와 같은 어휘적 의미를 표시하는 형태소로서, 예를 들어, 첨부된 도 5에 도시된 바와 같은 사용자 발화 문장에서 "서울역", "출발", "코엑스", "가-", "인천공항", "어떻게" 등이 이에 해당하며, 모든 자립형태소와 의존형태소 중 용언의 어간이 실질 형태소에 해당된다. 됩니다 그리고 형식 형태소는 형식 형태소는 실질 형태소에 붙어, 주로 말과 말 사이의 기능을 형식적으로 표시하는 형태소로서, 예를 들어, 첨부된 도 5에 도시된 바와 같은 사용자 발화 문장에서 "~으로", "~시다", "~까지", "~갈까" 등이 이에 해당하며, 각종 조사, 어미, 접사 등이 형식 형태소에 해당되며 문법형태소라고도 한다. Specifically, the personal utterance style
이에 따라 형태소 분석기(111-1)는 사용자 발화 문장을 더 이상 쪼개면 어떠한 의미도 갖지 못할 때까지 분석하여 사용자 발화 문장의 형태소를 파악한다. Accordingly, the morpheme analyzer 111-1 analyzes morphemes of the user utterance sentence by analyzing the user utterance sentence until it has no meaning.
그런 다음 개인 발화 스타일 프로파일 생성 모듈(111)은 형태소 태거(111-2)를 통해 형태소 분석기(111-1)에서 품사 태깅을 통해 분석된 각 형태소에 품사 태그를 부여할 수 있다. 여기서, 품사는 단어를 공통된 성질을 가진 것끼리 분류해 놓은 갈래 즉, 단어를 문법적 기능, 형태, 의미에 따라 나눈 갈래를 의미하며, 명사, 대명사, 수사, 조사, 동사, 형용사, 관형사, 부사 및 감탄사로 분류할 수 있다. Then, the individual utterance style
이에 따라 형태소 태거(111-2)는 기계적으로 의미 구문이 가능하도록 분석된 각 형태소의 올바른 품사를 결정하도록 각 형태소의 품사에 대한 태그를 부착함으로써, 부착된 태그를 통해 품사에 해당하는 형태소 즉, 단어들을 불러내도록 할 수 있다. Thus, the morpheme tagger 111-2 attaches the tags of the morpheme parts of each morpheme to determine the correct part of speech of each morpheme analyzed so as to enable the semantics of the morpheme mechanically, You can have the words recalled.
이후, 개인 발화 스타일 프로파일 생성 모듈(111)의 개체명 및 의미 자질 인식기(111-3)는 개체명 및 의미 자질 DB(131)에 저장된 개체명 사전 또는 의미 자질 사전에서 분석된 각 형태소에 상응하는 개체명 및 의미 자질을 검색하여 사용자 발화 문장의 개체명 및 하나 이상의 의미 자질을 인식할 수 있다. 여기서, 개체명 인식은 회사이름, 사람이름, 지역명, 영화명 등 세상에 존재하는 실재물에 대한 이름을 자동으로 인식하는 것을 말하며, 의미 자질은 단어의 의미를 구성하는 최소 성분을 말한다. 예를 들어, 첨부된 도 5에 도시된 바와 같은 사용자 발화 문장에서 "서울+역+으로", "출발하+ㅂ시다" 같은 "서울+역+으로"을 통해 장소+조사에 대한 “서울역”이란 개체명을 인식하고, "출발하+ㅂ시다"을 통해 "이동_용언+어미"에 대한 의미 자질을 인식할 수 있다. Thereafter, the entity name and the semantic feature identifier 111-3 of the personalized utterance style
이에 따라 개인 발화 스타일 프로파일 생성 모듈(111)의 개체명 및 의미 자질 인식기(111-3)는 인식된 의미 자질("출발하+ㅂ시다")를 통해 해당 형태소가 이동 용언으로서, 출발하라는 명령(권유) 의미로 분석할 수 있다. 여기서, 개체명 및 의미 자질 인식기(111-3)는 기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 사용자 발화 문장의 의미를 분석할 수 있다. 이러한 어문패턴은 상용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성될 수 있다. Accordingly, the entity name and the semantic feature recognizer 111-3 of the personalized utterance style
그런 다음 발화 스타일 프로파일 생성 모듈(111)의 개인 발화 스타일 프로파일 생성기(111-4)는 의미가 분석된 사용자 발화 문장의 발화 스타일을 파악하고, 파악된 발화 스타일을 개인 발화 스타일로 누적하여 관리할 수 있다. 이를 위해 개인 발화 스타일 프로파일 생성기(111-4)는 개체명 및 의미 자질의 인식 결과 즉, 장소+조사에 대한 개체명("서울역")과, 이동_용언+어미에 대한 의미 자질("출발하+ㅂ시다")에 따라 사용자 발화 스타일을 파악할 수 있다. 즉, 개인 발화 스타일 프로파일 생성기(111-4)는 장소에 대한 이동 용언의 "출발하+ㅂ시다"라는 의미 자질을 사용자 발화 스타일로 파악할 수 있다. Then, the individual utterance style profile generator 111-4 of the utterance style
그리고 개인 발화 스타일 프로파일 생성기(11-4)는 인식된 개체명(장소+조사)와 의미 자질(이동_용언+어미) 형태로 사용자 발화 스타일에 따른 인식된 개체명 및 의미 자질의 실질 형태소 및 형식 형태소를 포함한 사용자의 개인 발화 스타일 프로파일을 생성할 수 있다. 즉, 개체명(장소+조사: 서울역+으로)과, 의미 자질(이동_용언+어미: 출발하+ㅂ시다)을 개인 발화 스타일 프로파일로 생성하여 저장할 수 있다. 여기서, 개인 발화 스타일 프로파일은 개체명(장소)에 관련하여 사용자의 다양한 발화 스타일에 따른 하나 이상의 의미 자질(예를 들어, 가+ㅂ시다, 가+ㄹ까, 가+자 등)이 매핑되어 저장될 수 있다. Then, the personalized utterance style profile generator 11-4 generates the personalized utterance style profile 11-4 based on the recognized entity name and the substantial morpheme and the type of the semantic feature according to the user utterance style in the form of the recognized entity name (place + survey) A personalized speech style profile of the user including the morpheme can be generated. In other words, it is possible to create and store a personalized speech style profile as an object name (place + inquiry: to Seoul Station +) and a meaning qualification (move_request + mother: departure). Here, the personalized utterance style profile may be mapped and stored in association with one or more semantic qualities (for example, a +, a +, a +, etc.) according to a user's various utterance styles .
다음으로, 응답 문장 생성 모듈(112)은 첨부된 도 3에 도시된 바와 같이, 개인 발화 스타일 프로파일 생성부(111)로부터 응답 요청 신호를 수신하면, 개인 발화 스타일 프로파일 생성부(111)에서 사용자 발화 문장의 인식된 개체명 및 의미 자질을 전달받고, 전달된 개체명 및 의미 자질의 각 형태소를 기반으로 응답 문장 템플릿 DB(133)에서 상응하는 응답 문장 템플릿을 독출할 수 있다. 그런 다음 응답 문장 생성 모듈(112)은 독출한 응답 문장 템플릿에서 사용되는 의미 자질(이하, 응답 의미 자질이라 칭함)을 확인한 후, 확인된 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 개인 발화 스타일 프로파일 DB(132)에 저장된 상응하는 의미 자질들 중에서 선택하여 선택된 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성할 수 있다. 예를 들어, 응답 문장 생성 모듈(112)은 응답 요청에 따라 인식된 개체명(장소+조사: 서울역+으로)과 인식된 의미 자질(이동_용언+어미: 출발하+ㅂ시다)를 확인하고, 이에 상응하는 응답 문장 템플릿(장소+조사, 이동_용언+응답_어미)를 독출하여 응답 문장 템플릿의 개체명(장소+조사)에 인식된 개체명(서울역)+조사(으로)를 매핑하고, 이동_용언+응답_어미에 개인 발화 스타일 프로파일 DB(132)에서 독출한 이동_용언에 대한 "가~"를 매핑하여 "가겠습니다"라는 응답 의미 자질을 생성할 수 있다. 이에 따라 응답 문장 생성 모듈(112)은 "서울역으로 가겠습니다."라는 응답 문장을 생성하고, 여기에 추가적으로 부가 응답 문장("도착 예정 시간은 3시입니다.")를 생성하여 사용자에게 "서울역으로 가겠습니다. 도착 예정 시간은 3시입니다." 라는 응답 문장을 제공할 수 있다. 여기서, 응답 문장 생성 모듈(112)은 개인 발화 스타일 프로파일 DB(132)에서 응답 문장에 적용할 의미 자질에 대한 실질 형태소 및 형식 형태소를 독출 시 사용자가 가장 많이 사용한 발화 스타일의 의미 자질을 독출하여 응답 문장에 적용함으로써, 사용자에게 친숙하고 자연스러운 응답 문장을 생성할 수 있다. 3, the response
아울러, 응답 문장 생성 모듈(112)은 기 설정된 응답 패턴에 따라 부가 응답 문장을 생성하며, 사용자 발화 문장에 대응하는 응답 문장 템플릿과 함께 매핑된 부가 응답 문장 템플릿을 독출하고, 부가 응답 문장 템플릿에 적용할 개체명 또는 의미 자질을 필요한 경우, 해당 개체명 또는 의미 자질을 연동하는 DB나 기능을 통해 제공받아 적용하여 최종 사용자에게 제시할 응답 문장을 생성할 수 있다. In addition, the response
인터페이스부(120)는 사용자 발화 스타일에 따른 응답 문장을 생성 및 제공하기 위한 인터페이스를 제공하는 수단이다. 특히, 본 발명에 있어서, 인터페이스부(120)는 별도의 통신 모듈(미도시)을 통해 하나 이상의 다른 장치로부터 사용자 발화에 대한 입력 신호를 수신하면, 수신된 입력 신호를 제어부(110)로 전달하고, 별도의 입력 모듈(미도시)을 통해 사용자로부터 사용자 발화에 대한 정보를 입력 받아 입력 신호를 발생할 수 있다. 또한, 인터페이스부(120)는 사용자 발화 스타일에 따라 생성된 응답 문장을 별도의 통신 모듈(미도시)을 통해 하나 이상의 다른 장치로 전송하거나, 별도의 출력 모듈(미도시)을 통해 사용자에게 출력할 수 있다.The
저장부(130)는 사용자 발화 문장 분석에 필요한 정보들을 저장하기 위한 수단이다. 구체적으로, 저장부(130)는 개체명 및 의미 자질 데이터베이스(DB, 131), 개인 발화 스타일 프로파일 데이터베이스(DB, 132) 및 응답 문장 템플릿 데이터베이스(DB, 133)를 포함하여 구성될 수 있다. The
개체명 및 의미 자질 데이터베이스(DB, 131)는 인명, 지명, 기관명, 날짜, 숫자 등과 같은 고유한 의미를 가지는 개체명(Named Entity)의 집합으로 구성되는 개체명 사전 및 어휘와 상기 어휘에 내포된 의미를 구성하는 최소 단위인 의미 자질(意味資質, Semantic Feature)의 집합으로 구성되는 의미 자질 사전을 저장할 수 있다. Object name and meaning The attribute database (DB, 131) includes an object name dictionary and a vocabulary composed of a set of named entities having a unique meaning such as a name, a place name, an institution name, a date, a number, A semantic feature dictionary consisting of a set of semantic features, which is the minimum unit that constitutes meaning, can be stored.
개인 발화 스타일 프로파일 데이터베이스(DB, 132)는 개인 발화 스타일 프로파일 생성 모듈(111)에서 사용자 발화 문장을 분석하여 파악된 발화 스타일에 따라 생성된 개인 발화 스타일 프로파일에 대한 정보들을 저장할 수 있다. The personalized speech style profile database (DB) 132 may analyze the user's utterance sentence in the personalized speech style
응답 문장 템플릿 데이터베이스(DB, 133)는 사용자 발화 문장에 대응하는 응답 문장을 생성하기 위해 필요한 응답 문장 템플릿에 대한 정보를 저장할 수 있다. The response sentence template database (DB) 133 may store information on the response sentence template necessary for generating a response sentence corresponding to the user utterance sentence.
그러면 이와 같이 구성된 사용자 발화 스타일에 따른 응답 문장을 생성하기 위한 대화형 서비스 방법에 대해 첨부된 도면을 참조하여 구체적으로 설명하기로 한다. Hereinafter, an interactive service method for generating a response sentence according to a user utterance style constructed as described above will be described in detail with reference to the accompanying drawings.
도 4는 본 발명의 실시예에 따른 사용자 발화 스타일에 따른 대화형 서비스 인증 방법을 도시한 도면이다. 4 is a diagram illustrating an interactive service authentication method according to a user utterance style according to an embodiment of the present invention.
도 4를 참조하면, 1101단계에서 대화형 서비스 장치(100)는 인터페이스부(120)를 통해 사용자 발화에 대한 입력 신호가 수신되었는지를 확인하여, 사용자 발화에 대한 입력 신호가 수신되면, 1102단계에서 대화형 서비스 장치(100)는 사용자 발화에 대한 문장을 확인 및 사용자 발화 문장을 분석한다. 여기서, 사용자 발화에 대한 문장 확인은 음성 변환 모듈(도시되지 않음) 등을 통해 음성으로 입력되는 사용자 발화를 음성 변환하여 사용자 발화 문장을 확인할 수 있으며, 구체적인 설명은 생략하기로 한다. Referring to FIG. 4, in
그리고 사용자 발화 문장 분석에 대해 구체적으로 설명하면, 대화형 서비스 장치(100)는 사용자 발화 문장의 형태소를 분석하고, 분석된 각 형태소에 품사 태그를 부여한다. 그런 다음 대화형 서비스 장치(100)는 분석된 각 형태소에서 개체명 및 하나 이상의 의미 자질을 인식하고, 인식된 개체명 및 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴(LSP)을 적용하여 사용자 발화 문장의 의미를 분석한다. 이때, 대화형 서비스 장치(100)는 인식된 하나 이상의 의미 자질에 따라 사용자 발화 스타일을 파악한다. 여기서, 사용자 발화 문장의 의미 분석 및 사용자 발화 스타일을 파악하기 위한 방법은 첨부된 도 1에 따른 개인 발화 스타일 프로파일 생성 모듈(111) 및 응답 문장 생성 모듈(112)의 동작 설명에서 구체적으로 설명하였으므로 이에 대한 구체적인 설명을 생략하기로 한다. To describe the user utterance sentence analysis in detail, the
그런 다음 1103단계에서 대화형 서비스 장치(100)는 인식된 개체명(장소+조사)과 의미 자질(이동_용언+어미) 형태로 사용자 발화 스타일에 따른 인식된 개체명 및 의미 자질의 실질 형태소 및 형식 형태소를 포함한 사용자의 개인 발화 스타일 프로파일을 생성한다. 예를 들어, 대화형 서비스 장치(100)는 첨부된 도 5에 도시된 바와 같이, 개체명(장소+조사: 서울역+으로)과, 의미 자질(이동_용언+어미: 출발하+ㅂ시다)을 개인 발화 스타일 프로파일로 생성하고, 생성된 개인 발화 스타일 프로파일을 개인 발화 스타일 프로파일 DB(132)에 저장한다. 여기서, 개인 발화 스타일 프로파일은 개체명(장소)에 관련하여 사용자의 다양한 발화 스타일에 따른 하나 이상의 의미 자질(예를 들어, 가+ㅂ시다, 가+ㄹ까, 가+자 등)이 매핑되어 저장될 수 있다. Then, in
이후, 1104단계에서 대화형 서비스 장치(100)는 사용자 발화 문장의 인식된 개체명 및 의미 자질의 각 형태소(실질 형태소 및 형식 형태소)를 기반으로 응답 문장 템플릿 DB(133)에서 상응하는 응답 문장 템플릿을 독출한다. Thereafter, in
그런 다음 1105단계에서 대화형 서비스 장치(100)는 독출한 응답 문장 템플릿에서 사용되는 의미 자질(이하, 응답 의미 자질이라 칭함)을 확인한 후, 확인된 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 개인 발화 스타일 프로파일 DB(132)에 저장된 상응하는 의미 자질들 중에서 가장 많이 사용한 의미 자질에 대한 실질 형태소 및 형식 형태소를 독출하고, 독출된 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성한다. 예를 들어, 대화형 서비스 장치(100)는 첨부된 도 5에 도시된 바와 같이, 인식된 개체명(장소+조사: 서울역+으로)과 인식된 의미 자질(이동_용언+어미: 출발하+ㅂ시다)를 확인하고, 이에 상응하는 응답 문장 템플릿(장소+조사, 이동_용언+응답_어미)를 독출하여 응답 문장 템플릿의 개체명(장소+조사)에 인식된 개체명(서울역으로)을 매핑하고, 이동_용언+응답_어미에 개인 발화 스타일 프로파일 DB(132)에서 독출한 이동_용언에 대한 "가~"를 매핑하여 "가겠습니다"라는 응답 의미 자질을 생성한다. 이에 따라 대화형 서비스 장치(100)는 "서울역으로 가겠습니다."라는 응답 문장을 생성하고, 여기에 추가적으로 부가 응답 문장("도착 예정 시간은 3시입니다.")를 생성한다. Then, in
이에 따라 1106단계에서 대화형 서비스 장치(100)는 생성된 응답 문장 예를 들어, "서울역으로 가겠습니다. 도착 예정 시간은 3시입니다." 라는 응답 문장을 사용자에게 제시 즉, 출력 모듈(도시되지 않음)을 통해 출력할 수 있다. Accordingly, in
본 발명에 따른 실시예는 다양한 수단, 예를 들어, 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 본 발명의 일 실시예는 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.Embodiments in accordance with the present invention may be implemented by various means, for example, hardware, firmware, software, or a combination thereof. In the case of hardware implementation, an embodiment of the present invention may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) field programmable gate arrays, processors, controllers, microcontrollers, microprocessors, and the like.
또한, 펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 일 실시예는 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차, 함수 등의 형태로 구현되어, 다양한 컴퓨터 수단을 통하여 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, in the case of an implementation by firmware or software, an embodiment of the present invention may be embodied in the form of a module, a procedure, a function, and the like for performing the functions or operations described above, Lt; / RTI > Here, the recording medium may include program commands, data files, data structures, and the like, alone or in combination. Program instructions to be recorded on a recording medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. For example, the recording medium may be an optical recording medium such as a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, a compact disk read only memory (CD-ROM), a digital video disk (DVD) Optical media such as a floppy disk and a hardware device specifically configured to store and execute program instructions such as ROM, RAM, flash memory and the like. Examples of program instructions may include machine language code such as those generated by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으나, 여기에 개시된 실시예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서, 상술한 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 선정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be apparent to those skilled in the art. Furthermore, although specific terms are used in this specification and the drawings, they are used in a generic sense only to facilitate the description of the invention and to facilitate understanding of the invention, and are not intended to limit the scope of the invention. Accordingly, the foregoing detailed description is to be considered in all respects illustrative and not restrictive. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the scope of equivalents of the present invention are included in the scope of the present invention.
아울러, 본 발명에 따른 장치나 단말은 하나 이상의 프로세서로 하여금 앞서 설명한 기능들과 프로세스를 수행하도록 하는 명령에 의하여 구동될 수 있다. 예를 들어 그러한 명령으로는, 예컨대 JavaScript나 ECMAScript 명령 등의 스크립트 명령과 같은 해석되는 명령이나 실행 가능한 코드 혹은 컴퓨터로 판독 가능한 매체에 저장되는 기타의 명령이 포함될 수 있다. 나아가 본 발명에 따른 장치는 서버 팜(Server Farm)과 같이 네트워크에 걸쳐서 분산형으로 구현될 수 있으며, 혹은 단일의 컴퓨터 장치에서 구현될 수도 있다.In addition, a device or terminal according to the present invention may be driven by instructions that cause one or more processors to perform the functions and processes described above. Such instructions may include, for example, interpreted instructions such as script commands, such as JavaScript or ECMAScript commands, or other instructions stored in executable code or computer readable media. Further, the apparatus according to the present invention may be implemented in a distributed manner across a network, such as a server farm, or may be implemented in a single computer device.
또한, 본 발명에 따른 장치에 탑재되고 본 발명에 따른 방법을 실행하는 컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일 되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.Further, a computer program (also known as a program, software, software application, script or code) that is embedded in the apparatus according to the present invention and which implements the method according to the present invention includes a compiled or interpreted language, a priori or procedural language , And may be deployed in any form including standalone programs or modules, components, subroutines, or other units suitable for use in a computer environment. A computer program does not necessarily correspond to a file in the file system. The program may be stored in a single file provided to the requested program, or in multiple interactive files (e.g., a file storing one or more modules, subprograms, or portions of code) (E.g., one or more scripts stored in a markup language document). A computer program may be deployed to run on multiple computers or on one computer, located on a single site or distributed across multiple sites and interconnected by a communications network.
아울러, 본 발명에 따른 실시예를 설명하는데 있어서, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다.Moreover, in describing the embodiments according to the present invention, operations are depicted in the drawings in a particular order, but it is to be understood that they should perform such operations in that particular order or sequential order shown in order to obtain the desired result, Should not be understood as being performed. In certain cases, multitasking and parallel processing may be advantageous. Also, the separation of the various system components of the above-described embodiments should not be understood as requiring such separation in all embodiments, and the described program components and systems will generally be integrated together into a single software product or packaged into multiple software products It should be understood.
본 발명은 사용자 발화 스타일에 따른 대화형 서비스 장치 및 방법에 관한 것으로, 사용자 발화 문장의 의미를 분석하여 사용자 발화 의도를 파악하고, 사용자 발화 문장에서 사용자 발화 의도를 표현하기 위한 다양한 의미 자질에 따른 사용자 발화 스타일을 파악하여 개인 발화 스타일 프로파일을 생성함으로써, 응답 문장 생성 시 사용자가 가장 많이 사용한 발화 스타일을 적용하여 응답 문장을 생성할 수 있으므로 틀에 박힌 응답 문장이 아닌 사용자 발화 스타일에 따라 사용자에게 보다 친화적이면서 자연스러운 응답 문장을 제공할 수 있는 효과가 있다. The present invention relates to an interactive service apparatus and method according to a user utterance style, in which a meaning of a user utterance sentence is analyzed to grasp a user utterance intention, and a user having various semantic qualities for expressing a user utterance intention in a user utterance sentence By generating a personalized speech style profile by grasping the speech style, the user can generate a response sentence by applying the most frequently used speech style in generating a response sentence, so that the user can be more friendly It is possible to provide a natural response sentence.
아울러, 본 발명은 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있다.In addition, the present invention has a possibility of commercial use or business, and is industrially applicable because it is practically possible to carry out clearly.
100: 대화형 서비스 장치 110: 제어부
111: 개인 발화 스타일 프로파일 생성 모듈
112: 응답 문장 생성 모듈 120: 인터페이스부
130: 저장부 131: 개체명 및 의미 자질 DB
132: 개인 발화 스타일 프로파일 DB 133: 응답 문장 템플릿 DB100: interactive service device 110:
111: Personal Talking Style Profile Creation Module
112: response sentence generation module 120:
130: Storage unit 131: Object name and meaning Qualitative DB
132: Personalized speech style profile DB 133: Response sentence template DB
Claims (13)
상기 인터페이스부로부터 전달된 상기 사용자 발화 문장을 파악하고, 파악된 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하여 저장하고, 저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하도록 제어하는 제어부;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치. An interface unit for receiving a user utterance sentence according to user utterance; And
The user recognizes the user utterance sentence transmitted from the interface unit, analyzes the meaning of the user uttered sentence, grasps the user utterance style according to the meaning of the analyzed user utterance sentence, A control unit for generating and storing a style profile and generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile;
And an interactive service device.
상기 생성된 개인 발화 스타일 프로파일을 저장하고, 상기 응답 문장 시 이용되는 기 설정된 응답 문장 템플릿을 저장하는 저장부;
를 더 포함하는 것을 특징으로 하는 대화형 서비스 장치.The method according to claim 1,
A storage unit for storing the generated personalized speech style profile and storing a predetermined response sentence template used in the response sentence;
Further comprising: an interactive service device operatively coupled to the interactive service device.
상기 사용자 발화 문장의 의미를 분석하고, 분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하고, 파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 개인 발화 스타일 프로파일 생성 모듈; 및
상기 사용자 발화 스타일 프로파일 생성 모듈에서 생성된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 따른 응답 문장을 생성하는 응답 문장 생성 모듈;
을 포함하는 것을 특징으로 하는 대화형 서비스 장치.The apparatus of claim 1,
A personalized utterance style profile generation module for analyzing the meaning of the user utterance sentence, determining a user utterance style according to the meaning of the analyzed user utterance sentence, and generating a personal utterance style profile according to the grasped user utterance style; And
A response sentence generation module for generating a response sentence according to the user utterance based on the personalized utterance style profile generated by the user utterance style profile generation module;
And an interactive service device.
상기 분석된 각 형태소에 동일한 의미를 가진 문장 형태들을 표현한 어문패턴(LSP: Lexico Syntactic Pattern)을 적용하여 상기 사용자 발화 문장의 의미를 분석함을 특징으로 하는 대화형 서비스 장치. 4. The method of claim 3, wherein the user utterance style profile generation module comprises:
Wherein the meaning of the user utterance sentence is analyzed by applying a LSP (Lexico Syntactic Pattern) expressing sentence forms having the same meaning to each analyzed morpheme.
상기 사용자 발화 문장의 컨셉에 따라 개체명, 의미 자질, 어휘 및 품사 태그에 대한 정보 중 적어도 하나 이상을 포함하여 구성됨을 특징으로 하는 대화형 서비스 장치. 5. The method according to claim 4,
Wherein the information includes at least one of an object name, a semantic feature, a vocabulary, and a part of speech tag according to a concept of the user utterance sentence.
상기 사용자 발화 문장의 형태소를 분석하는 분석기;
분석된 각 형태소에 품사 태그를 부여하는 형태소 태거;
상기 분석된 각 형태소에서 개체명 및 하나 이상의 의미 자질을 인식하고, 상기 인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하고, 상기 인식된 하나 이상의 의미 자질에 따라 사용자 발화 스타일을 분석하는 개체명 및 의미 자질 인식기; 및
상기 인식된 개체명 및 인식된 의미 자질의 실질 형태소 및 형식 형태소를 기반으로 상기 분석된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성 및 저장하는 개인 발화 스타일 프로파일 생성기;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치.4. The method of claim 3, wherein the user utterance style profile generation module comprises:
An analyzer for analyzing a morpheme of the user utterance sentence;
A morpheme tag that assigns part mark tags to each analyzed morpheme;
Recognizing the entity name and at least one semantic feature in each analyzed morpheme, analyzing the meaning of the user utterance sentence by applying the recognized entity name and a predefined phrase pattern to the recognized one or more semantic features, An entity name and a semantic qualifier for analyzing a user utterance style according to one or more semantic qualities; And
A personalized utterance style profile generator for generating and storing a personalized utterance style profile according to the analyzed user utterance style based on the recognized entity name and the actual morpheme and formal morpheme of the recognized meaning qualifier;
And an interactive service device.
상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하고, 독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하고, 독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성함을 특징으로 하는 대화형 서비스 장치. 4. The apparatus of claim 3, wherein the response sentence generation module comprises:
Reading out the pre-stored speech sentence template corresponding to the recognized entity name and the semantic feature, reading the actual morpheme and morpheme morpheme corresponding to the response semantic qualities used in the read speech sentence template from the stored personal speech style profile DB, And the response sentence is generated by applying the actual morpheme and the morpheme of the read out semantic feature to the response semantic feature.
상기 인식된 개체명과 상기 독출된 의미 자질의 실질 형태소 및 형식 형태소를 조합하여 응답 문장을 생성하고, 생성된 응답 문장에 부가 응답 문장을 추가하여 사용자에게 제시할 최종 응답 문장을 생성함을 특징으로 하는 대화형 서비스 장치. The method of claim 7, wherein the response sentence generation module comprises:
A response sentence is generated by combining the recognized entity name with the actual morpheme and the morpheme morpheme of the read out semantic feature, and an additional response sentence is added to the generated response sentence to generate a final response sentence to be presented to the user Interactive service device.
파악된 사용자 발화 문장의 의미를 분석하는 단계;
분석된 사용자 발화 문장의 의미에 따라 사용자 발화 스타일을 파악하는 단계;
파악된 사용자 발화 스타일에 따른 개인 발화 스타일 프로파일을 생성하는 단계; 및
저장된 개인 발화 스타일 프로파일을 기반으로 상기 사용자 발화에 대응하는 응답 문장을 생성하는 단계;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법. Recognizing the inputted user utterance sentence;
Analyzing the meaning of the identified user utterance sentence;
Determining a user utterance style according to the meaning of the analyzed user utterance sentence;
Generating a personalized utterance style profile according to the identified user utterance style; And
Generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile;
The interactive service method according to claim 1,
사용자 발화 문장의 형태소를 분석하는 단계;
분석된 각 형태소에 품사 태그를 부여하는 단계;
분석된 각 형태소에 대한 개체명 및 하나 이상의 의미 자질을 인식하는 단계; 및
인식된 개체명 및 상기 인식된 하나 이상의 의미 자질에 기 설정된 어문 패턴을 적용하여 상기 사용자 발화 문장의 의미를 분석하는 단계;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법. 10. The method of claim 9, wherein analyzing the semantics of the user utterance sentence comprises:
Analyzing the morpheme of the user utterance sentence;
Assigning speech tags to each analyzed morpheme;
Recognizing an entity name and at least one semantic feature for each analyzed morpheme; And
Analyzing the meaning of the user utterance sentence by applying a recognized utterance pattern to the recognized entity name and the recognized one or more sense qualities;
The interactive service method according to claim 1,
상기 인식된 개체명 및 의미 자질에 대응하는 기 저장된 음성 문장 템플릿을 독출하는 단계;
독출된 음성 문장 템플릿에서 사용되는 응답 의미 자질에 상응하는 실질 형태소 및 형식 형태소를 저장된 개인 발화 스타일 프로파일 DB에서 독출하는 단계; 및
독출된 의미 자질의 실질 형태소 및 형식 형태소를 응답 의미 자질에 적용하여 응답 문장을 생성하는 단계;
를 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법. 10. The method of claim 9, wherein generating a response sentence corresponding to the user utterance based on the stored personalized utterance style profile comprises:
Reading a previously stored speech sentence template corresponding to the recognized entity name and semantic qualification;
Reading the actual morpheme and morpheme morpheme corresponding to the response semantic qualities used in the read speech sentence template from the stored personal speech style profile DB; And
Generating a response sentence by applying a substantial morpheme and a morpheme morpheme of the read semantic feature to the response semantic feature;
The interactive service method according to claim 1,
부가 응답 문장 생성을 위한 응답 문장 템플릿을 독출하는 단계; 및
독출된 부가 응답 문장 생성을 위한 응답 문장 템플릿을 이용하여 부가 응답 문장을 생성하는 단계;
를 더 포함하는 것을 특징으로 하는 대화형 서비스 장치에서의 사용자 발화 스타일에 따른 대화형 서비스 방법. 12. The method of claim 11, wherein generating a response sentence corresponding to the user utterance based on the stored personal utterance style profile comprises:
Reading a response sentence template for generating an additional response sentence; And
Generating an additional response sentence using a response sentence template for generating a readout additional response sentence;
Wherein the interactive service device is further configured to display the interactive style of service according to a style of user's utterance in the interactive service device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130124534A KR102175539B1 (en) | 2013-10-18 | 2013-10-18 | Conversational service apparatus and method based on user utterance |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130124534A KR102175539B1 (en) | 2013-10-18 | 2013-10-18 | Conversational service apparatus and method based on user utterance |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150045177A true KR20150045177A (en) | 2015-04-28 |
KR102175539B1 KR102175539B1 (en) | 2020-11-06 |
Family
ID=53037217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130124534A KR102175539B1 (en) | 2013-10-18 | 2013-10-18 | Conversational service apparatus and method based on user utterance |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102175539B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190028793A (en) * | 2016-09-05 | 2019-03-19 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Human Machine Interactive Method and Device Based on Artificial Intelligence |
CN110532558A (en) * | 2019-08-29 | 2019-12-03 | 杭州涂鸦信息技术有限公司 | A kind of more intension recognizing methods and system based on the parsing of sentence structure deep layer |
KR20200028158A (en) * | 2018-09-06 | 2020-03-16 | 주식회사 케이티 | Media play device, method and computer program for providing multi language voice command service |
WO2020197166A1 (en) * | 2019-03-22 | 2020-10-01 | Samsung Electronics Co., Ltd. | Electronic device providing response and method of operating same |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040050928A (en) * | 2002-12-11 | 2004-06-18 | 삼성전자주식회사 | Apparatus and method of managing dialog between user and agent |
US20080010070A1 (en) * | 2006-07-10 | 2008-01-10 | Sanghun Kim | Spoken dialog system for human-computer interaction and response method therefor |
KR20080021486A (en) * | 2006-09-04 | 2008-03-07 | 한국전자통신연구원 | The method and apparatus for making an answer |
KR100829401B1 (en) | 2006-12-06 | 2008-05-15 | 한국전자통신연구원 | The method and apparatus for fine-grained named entity recognition |
KR20100043360A (en) * | 2008-10-20 | 2010-04-29 | 에스케이 텔레콤주식회사 | An apparatus and method for detecting intention, an information offering service system, server and method and a storage means |
KR20110024075A (en) * | 2009-09-01 | 2011-03-09 | 한국전자통신연구원 | Database building apparatus and its method, it used speech understanding apparatus and its method |
-
2013
- 2013-10-18 KR KR1020130124534A patent/KR102175539B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040050928A (en) * | 2002-12-11 | 2004-06-18 | 삼성전자주식회사 | Apparatus and method of managing dialog between user and agent |
US20080010070A1 (en) * | 2006-07-10 | 2008-01-10 | Sanghun Kim | Spoken dialog system for human-computer interaction and response method therefor |
KR20080021486A (en) * | 2006-09-04 | 2008-03-07 | 한국전자통신연구원 | The method and apparatus for making an answer |
KR100829401B1 (en) | 2006-12-06 | 2008-05-15 | 한국전자통신연구원 | The method and apparatus for fine-grained named entity recognition |
KR20100043360A (en) * | 2008-10-20 | 2010-04-29 | 에스케이 텔레콤주식회사 | An apparatus and method for detecting intention, an information offering service system, server and method and a storage means |
KR20110024075A (en) * | 2009-09-01 | 2011-03-09 | 한국전자통신연구원 | Database building apparatus and its method, it used speech understanding apparatus and its method |
Non-Patent Citations (1)
Title |
---|
김현진 외, ‘백과사전 질의응답을 위한 구문정보기반 정답색인방법’, 한국컴퓨터종합학술대회 2005 논문집 Vol.32, No. 1(B), 2005.07* * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190028793A (en) * | 2016-09-05 | 2019-03-19 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Human Machine Interactive Method and Device Based on Artificial Intelligence |
US11645547B2 (en) | 2016-09-05 | 2023-05-09 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Human-machine interactive method and device based on artificial intelligence |
KR20200028158A (en) * | 2018-09-06 | 2020-03-16 | 주식회사 케이티 | Media play device, method and computer program for providing multi language voice command service |
WO2020197166A1 (en) * | 2019-03-22 | 2020-10-01 | Samsung Electronics Co., Ltd. | Electronic device providing response and method of operating same |
US11430438B2 (en) | 2019-03-22 | 2022-08-30 | Samsung Electronics Co., Ltd. | Electronic device providing response corresponding to user conversation style and emotion and method of operating same |
CN110532558A (en) * | 2019-08-29 | 2019-12-03 | 杭州涂鸦信息技术有限公司 | A kind of more intension recognizing methods and system based on the parsing of sentence structure deep layer |
Also Published As
Publication number | Publication date |
---|---|
KR102175539B1 (en) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9805718B2 (en) | Clarifying natural language input using targeted questions | |
US20180061408A1 (en) | Using paraphrase in accepting utterances in an automated assistant | |
US9330659B2 (en) | Facilitating development of a spoken natural language interface | |
US9449599B2 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
US6952665B1 (en) | Translating apparatus and method, and recording medium used therewith | |
US8566076B2 (en) | System and method for applying bridging models for robust and efficient speech to speech translation | |
KR102316063B1 (en) | Method and apparatus for identifying key phrase in audio data, device and medium | |
US20170199867A1 (en) | Dialogue control system and dialogue control method | |
KR20180019342A (en) | Method and apparatus for performing machine translation | |
US20150348543A1 (en) | Speech Recognition of Partial Proper Names by Natural Language Processing | |
WO2009014465A2 (en) | System and method for multilingual translation of communicative speech | |
CN110428823A (en) | Speech understanding device and the speech understanding method for using the device | |
Kumar et al. | A knowledge graph based speech interface for question answering systems | |
KR20170090127A (en) | Apparatus for comprehending speech | |
Bastianelli et al. | Speaky for robots: the development of vocal interfaces for robotic applications | |
KR20150045177A (en) | Conversational service apparatus and method based on user utterance | |
KR102106797B1 (en) | Apparatus for analyzing complex sentence, and recording medium therefor | |
EP3005152B1 (en) | Systems and methods for adaptive proper name entity recognition and understanding | |
US8401855B2 (en) | System and method for generating data for complex statistical modeling for use in dialog systems | |
Chen et al. | Speech technology | |
KR101134455B1 (en) | Speech recognition apparatus and its method | |
KR20150042532A (en) | Apparatus for analyzing complex sentence, and recording medium therefor | |
KR20200101891A (en) | Apparatus for analyzing complex sentence, and recording medium therefor | |
Shukla et al. | A Framework of Translator from English Speech to Sanskrit Text | |
KR102147670B1 (en) | Apparatus for analyzing complex sentence, and recording medium therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
E90F | Notification of reason for final refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |