KR20080052279A - Apparatus and method of dialogue tv agent service for providing daily information - Google Patents

Apparatus and method of dialogue tv agent service for providing daily information Download PDF

Info

Publication number
KR20080052279A
KR20080052279A KR1020070074287A KR20070074287A KR20080052279A KR 20080052279 A KR20080052279 A KR 20080052279A KR 1020070074287 A KR1020070074287 A KR 1020070074287A KR 20070074287 A KR20070074287 A KR 20070074287A KR 20080052279 A KR20080052279 A KR 20080052279A
Authority
KR
South Korea
Prior art keywords
user
information
unit
real
request
Prior art date
Application number
KR1020070074287A
Other languages
Korean (ko)
Inventor
오효정
이충희
김현진
이창기
황이규
왕지현
장명길
이윤근
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020070119262A priority Critical patent/KR100881334B1/en
Priority to US11/951,154 priority patent/US20080134038A1/en
Publication of KR20080052279A publication Critical patent/KR20080052279A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

An interactive TV agency service method for providing real-life information and an apparatus therefor are provided to acquire real-life information updated on a web in real time and expand the acquired information to various region when necessary by performing operation for which a user wishes through an interactive interface including a voice, a remote controller, and a text input and providing a corresponding suitable response. A dialogue sentence analyzing unit(20) analyzes an input sentence received from a user. A dialogue management unit(30) analyzes the request of the user by using the analyzed result of the dialogue sentence analyzing unit. When a real-time information update is requested from the dialogue management unit, a real-time automatic knowledge constructing unit(70) extracts daily life information updated on a web in real time and stores the extracted information in a daily information database. A response generating unit(40) generates a response for the request of the user analyzed in the dialogue management unit and provides the response to the user. When it is impossible to respond to the request of the user or an error is generated in the response for the request of the user, an exception processing unit(80) recovers a system to allow the user to cancel the request of the user.

Description

실생활 정보제공 대화형 TV 에이전트 서비스 방법 및 장치{Apparatus and method of dialogue TV agent service for providing daily information}Apparatus and method of dialogue TV agent service for providing daily information

본 발명은 다양한 인터페이스를 통해 입력된 사용자 요구에 대해 알맞은 응답을 제공하고, 웹 상에 존재하는 다양한 생활 정보를 실시간으로 획득하여 지식원을 구축하고 갱신함으로써 일상생활 정보를 대화형 TV에이전트를 통해 제공하기 위한 방법 및 장치에 관한 것이다. The present invention provides an appropriate response to user requests input through various interfaces, and provides daily life information through an interactive TV agent by acquiring and realizing a knowledge source by obtaining various life information existing on the web in real time. A method and apparatus for

본 발명은 정보통신부 및 정보통신연구진흥원의 IT신성장동력핵심기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2006-S-036-01, 과제명: 신성장동력산업용 대용량 대화형 분산 처리 음성인터페이스 기술개발].The present invention is derived from a study conducted as part of the IT new growth engine core technology development project of the Ministry of Information and Communication and the Ministry of Information and Telecommunication Research and Development. [Task Management No .: 2006-S-036-01, Task name: Large-capacity interactive for new growth engine industry] Development of distributed processing voice interface technology].

대한민국 등록번호 10-0580619호는 사용자의 음성정보, 표정정보 및 시간지연정보와 같은 멀티모달 정보를 이용하여 신속하고 정확하게 사람과 에이전트 간의 대화를 관리하기 위한 방법 및 장치와, 이를 이용한 음성 대화시스템을 개시하고 있다. 상기 기술은 멀티모달 정보를 이용하여 대화를 정확하게 끌어갈 수 있지만 멀티모달 정보를 이용할 수 없는 환경에서는 사용할 수 없는 단점이 있다.Republic of Korea Registration No. 10-0580619 is a method and apparatus for quickly and accurately managing the dialogue between a person and an agent using multi-modal information such as voice information, facial expression information and time delay information of the user, and a voice dialogue system using the same It is starting. The technique can draw the conversation accurately using the multi-modal information, but has a disadvantage that it cannot be used in an environment in which the multi-modal information is not available.

그 외에 종래기술로서 인터랙티브 TV가 사용자의 음성 요구를 받아 채널을 자동으로 선택할 수 있도록 한 음성 인식 시스템과, 음성대화를 이용해서 전화기로부터 전세계의 날씨 정보를 얻을 수 있는 대화 시스템이 개시되어 있으나, 이는 음성인식만을 이용하고 TV 또는 날씨와 같은 단일 영역의 정보만을 제공하고 있는 것이 단점이다.In addition, as a related art, there is disclosed a speech recognition system that allows an interactive TV to automatically select a channel in response to a user's voice request, and a conversation system that can obtain weather information from around the world from a telephone using a voice conversation. The disadvantage is that it uses only voice recognition and provides only a single area of information such as TV or weather.

상기 문제점을 해결하기 위한 본 발명의 목적은 상기의 종래기술이 단일 영역 정보(예:TV 가이드)만을 제공하는 것과는 달리 음성뿐만 아니라 리모콘, 텍스트 입력을 포함한 대화 인터페이스를 통해 사용자가 원하는 동작을 수행하고, 이에 대응되는 적합한 응답을 제시함으로써 웹 상에 갱신되는 실생활 정보(예:TV 가이드, 날씨, 일정, 뉴스, 주식, 교통정보 등)를 실시간으로 획득하고 필요에 따라 다양한 영역으로 확장 가능하도록 하는 대화형 TV 에이전트 서비스 장치 및 그 방법을 제공하는 데 있다.  An object of the present invention for solving the above problems is that unlike the prior art provides only a single area information (for example, TV guide) to perform the operation desired by the user through a conversation interface including a remote control, text input as well as voice and And, by presenting the appropriate response, a conversation that enables you to obtain real-time information (e.g., TV guides, weather, schedules, news, stocks, traffic information, etc.) updated on the web in real time and expands to various areas as needed There is provided a type TV agent service apparatus and a method thereof.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 실생활 정보제공 대화형 TV에이전트 서비스 방법은 사용자로부터 수신된 입력문을 분석하는 단계; 상기 분석된 입력문을 기반으로 사용자의 요구를 분석하는 단계; 웹 상에 갱신되는 일상생활 정보를 실시간으로 추출하여 일상정보 데이터베이스에 저장하는 단계; 상기 분석된 사용자의 요구에 상응하는 정보를 상기 일상정보 데이터베이스로부터 추출하는 단계; 및 상기 추출된 정보를 TV를 통하여 출력하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of providing an interactive TV agent for providing real-life information, comprising: analyzing input text received from a user; Analyzing a user's request based on the analyzed input statement; Extracting daily life information updated on the web in real time and storing the same in a daily information database; Extracting information corresponding to the analyzed user's request from the daily information database; And outputting the extracted information through a TV.

바람직하게, 상기 사용자로부터 수신된 입력문은 사용자의 음성인식, 리모콘 조작 또는 문자열입력을 통해서 입력된다.      Preferably, the input text received from the user is input through the user's voice recognition, remote control operation or string input.

상기 일상정보 데이터베이스는 웹 상에 갱신되는 일상정보 또는 개인정보 단말기에 갱신되는 개인일정 정보를 실시간으로 입력받아 정보영역별 데이터베이스로 구축한다. 바람직하게, 상기 정보영역은 TV가이드, 뉴스, 날씨, 개인일정을 포함한다.      The daily information database receives daily information that is updated on the web or personal schedule information that is updated in a personal information terminal in real time and builds a database for each information area. Preferably, the information area includes a TV guide, news, weather, personal schedule.

상기 사용자로부터 수신된 입력문을 분석하는 단계는 상기 수신된 입력문에 오류가 있는 경우, 상기 입력문을 보정하는 단계; 상기 입력문에 대한 형태소분석, 개체명 인식 및 구문분석을 통하여 언어분석을 수행하는 단계; 및 미리 저장된 화행지식 및 개념열 지식 데이터베이스를 기반으로 상기 언어분석된 입력문으로부터 화행 및 개념열을 추출하는 단계를 포함한다.     Analyzing the input text received from the user, if there is an error in the received input text, correcting the input text; Performing language analysis through morphological analysis, entity name recognition, and syntax analysis of the input text; And extracting a speech act and a concept string from the language-analyzed input sentence based on a pre-stored speech act knowledge and a concept string knowledge database.

상기 사용자의 요구를 분석하는 단계는 상기 분석된 입력문을 기반으로 사용자가 원하는 정보의 영역을 분석하고 상기 입력문을 정규화하는 단계; 미리 저장된 이전 대화내용 데이터를 참조하여 상기 입력문의 생략어 및 대용어를 분석하는 단계; 상기 화행, 개념열, 정보영역, 대용어 및 생략어를 이용하여 사용자 요구를 분석하는 단계; 상기 분석된 사용자 요구에 대응하는 동작을 선택하는 단계; 상기 사용자 요구에 대한 응답이 불가능한 경우, 사용자에게 상기 사용자 요구를 검증하도록 하는 단계; 및 상기 사용자 요구에 대한 응답에 오류가 있는 경우, 사용자로 하여금 상기 사용자 요구를 취소할 수 있도록 하는 단계를 포함한다.      The analyzing of the user's request may include analyzing an area of information desired by the user based on the analyzed input sentence and normalizing the input sentence; Analyzing abbreviations and substitute terms of the input sentence with reference to previously stored conversation data; Analyzing a user request using the dialogue act, the concept sequence, the information area, the substitute term, and the abbreviation word; Selecting an action corresponding to the analyzed user request; If the response to the user request is not available, causing the user to verify the user request; And if there is an error in the response to the user request, allowing the user to cancel the user request.

상기 추출된 정보를 TV를 통하여 출력하는 단계는 음성, TV 스크린 및 TV 제어신호 전송 중 어느 하나를 통하여 이루어진다.      The outputting of the extracted information through the TV is performed through any one of voice, TV screen, and TV control signal transmission.

상기 기술적 과제를 달성하기 위한 본 발명에 따른 실생활 정보제공 대화형 TV에이전트 서비스 장치는 사용자로부터 수신된 입력문을 분석하는 대화문분석부;       In accordance with another aspect of the present invention, there is provided a real-time information providing interactive TV agent service apparatus comprising: a dialogue analysis unit analyzing an input text received from a user;

상기 대화문분석부의 분석결과를 이용하여 사용자의 요구를 분석하는 대화관리부; 상기 대화관리부로부터 실시간 정보 갱신요청이 있는 경우, 웹상에 갱신되는 일상생활 정보를 실시간으로 추출하여 일상정보 데이터베이스에 저장하는 실시간 자동 지식 구축부; 상기 대화관리부에서 분석된 사용자의 요구에 대한 응답을 생성하고 사용자에게 응답을 제공하는 응답 생성부; 및 상기 사용자의 요구에 응답이 불가능한 경우 또는 상기 사용자 요구에 대한 응답에 오류가 있는 경우, 사용자로 하여금 상기 사용자 요구를 취소할 수 있도록 하고 시스템을 복원하는 예외처리부를 포함한다.A conversation manager for analyzing a user's request by using the analysis result of the conversation analyzer; A real-time automatic knowledge construction unit for extracting real-time information updated on the web in real time and storing it in a daily information database when a real-time information update request is received from the conversation manager; A response generation unit generating a response to the request of the user analyzed by the conversation manager and providing a response to the user; And an exception processing unit for enabling the user to cancel the user request and restoring the system when the user request is impossible to respond or when there is an error in the response to the user request.

바람직하게, 상기 대화문분석부는 사용자로부터 수신된 입력문을 인식하는 입력신호 인식부; 상기 입력문에 오류가 있는 경우, 상기 입력문을 보정하는 오류처리부; 상기 입력문에 대한 형태소 분석, 개체명 인식 및 구문분석을 수행하는 언어분석부; 및 상기 입력문의 화행 및 개념열을 분석하는 화행 및 개념열 분석부를 포함한다.      Preferably, the dialogue analysis unit comprises: an input signal recognition unit recognizing an input sentence received from a user; An error processing unit for correcting the input text when the input text has an error; A language analyzer configured to perform morphological analysis, entity name recognition, and syntax analysis on the input text; And a speech act and concept string analysis unit that analyzes the speech act and the concept string of the input statement.

바람직하게, 상기 대화관리부는 상기 입력문의 화행 및 개념열을 이용하여 사용자가 원하는 정보의 영역을 파악하는 다중영역 인식부; 상기 입력문을 정규화하는 문장 정규화부; 미리 저장된 대화내용 데이터를 참조하여 상기 입력문의 대용어 및 생략어를 분석하는 담화분석부; 상기 화행, 개념열, 정보영역, 대용어 및 생략어를 이용하여 사용자요구를 분석하는 사용자요구 파악부; 및 상기 분석된 사용자요구에 따른 동작을 지시하는 동작 지시부를 포함한다.       Preferably, the conversation manager comprises: a multi-region recognition unit for identifying an area of information desired by a user using a dialogue act and a concept string of the input sentence; A sentence normalizer for normalizing the input sentence; Discourse analysis unit for analyzing the substitute words and abbreviations of the input statement with reference to the previously stored conversation content data; A user request grasp unit for analyzing a user request using the dialogue act, the concept sequence, the information area, the substitute term, and the abbreviation word; And an operation instruction unit for instructing an operation according to the analyzed user request.

바람직하게, 상기 응답 생성부는 상기 사용자요구가 단일정보의 획득인 것으 로 분석된 경우, 음성응답을 제공하는 음성응답 생성부; 상기 사용자요구가 복수 개의 정보 또는 영상정보의 획득인 것으로 분석된 경우, TV화면을 통하여 영상응답을 제공하는 화면응답 생성부; 및 상기 사용자요구가 TV제어인 것으로 분석된 경우, TV에 제어신호를 전송하는 제어신호 생성부를 포함한다.      Preferably, the response generator comprises a voice response generator for providing a voice response when the user request is analyzed to be acquisition of a single information; A screen response generation unit for providing a video response through a TV screen when the user request is analyzed to be acquisition of a plurality of information or video information; And a control signal generator for transmitting a control signal to the TV when the user request is analyzed to be TV control.

바람직하게, 상기 예외처리부는 사용자가 응답 가능한 질문을 입력했는지 검증하는 대화문 검증부; 사용자가 요구한 동작이 실행 가능한지 판단하고, 상기 사용자 요구가 실행 가능하지 않은 경우 사용자로 하여금 상기 사용자의 요구를 검증하도록 하는 동작 검증부; 및 상기 사용자 요구에 대한 응답에 오류가 있는 경우, 사용자로 하여금 상기 사용자 요구를 취소할 수 있도록 하고 시스템을 복원하는 오류 복원부를 포함한다.Preferably, the exception processing unit includes a dialog verification unit for verifying whether the user inputs a question answerable; An operation verification unit for determining whether an operation requested by the user is executable and allowing the user to verify the request of the user when the user request is not executable; And an error recovery unit for allowing a user to cancel the user request and restoring the system when there is an error in response to the user request.

바람직하게, 상기 실시간 자동 지식 구축부는 웹 문서를 실시간으로 수집하는 웹 문서 수집부; 상기 웹 문서 수집부에 수집된 웹 문서를 파싱(parsing)하고 분석하여 일상정보를 추출하는 웹 문서 처리부; 개인단말기에 저장된 개인일정 정보를 입력받는 단말기 입출력부; 상기 단말기 입출력부에 저장된 정보를 분석하여 유효한 정보를 추출하는 개인정보 처리부; 상기 웹 문서 처리부 및 상기 개인정보 처리부에서 처리된 정보 중에서 일상생활 정보를 추출하는 영역별 지식추출부; 및 상기 영역별 지식 추출부에서 추출된 정보를 구조화된 정보로 저장하는 영역별 지식 저장부를 포함한다.Preferably, the real-time automatic knowledge building unit Web collection unit for collecting the web document in real time; A web document processing unit for parsing and analyzing web documents collected in the web document collecting unit to extract daily information; A terminal input / output unit configured to receive personal schedule information stored in the personal terminal; A personal information processing unit which extracts valid information by analyzing the information stored in the terminal input / output unit; A knowledge extracting unit for extracting daily life information from the information processed by the web document processing unit and the personal information processing unit; And an area knowledge storage unit that stores the information extracted by the area knowledge extraction unit as structured information.

상기한 바와 같이, 본 발명에 따르면, 사용자가 다양한 형태의 대화 인터페이스를 통해 대화형 TV와 자연스러운 대화를 진행함으로써 일상생활 정보를 편리하고 쉽게 획득하고 원하는 동작을 수행할 수 있으며, 웹 상에 매일 갱신되는 각종 새로운 정보를 실시간으로 수집할 수 있으며, 오동작을 수행한 경우 이를 쉽게 복원할 수 있으며 다양한 형태의 예외처리를 수행할 수 있다.As described above, according to the present invention, the user can conveniently and easily obtain daily life information and perform a desired action by conducting a natural conversation with the interactive TV through various types of conversation interfaces, and updating daily on the web. Various new information can be collected in real time. If a malfunction is performed, it can be easily restored and various types of exception processing can be performed.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 실생활 정보제공 대화형 TV에이전트 장치의 일실시예의 구성을 나타낸 블록도이다.  1 is a block diagram showing the configuration of an embodiment of a real-time information providing interactive TV agent device according to the present invention.

도 1을 참조하면, 본 발명의 대화형 TV에이전트 장치는 사용자입력부(10), 대화문분석부(20), 대화관리부(30), 응답생성부(40), 질의 응답부(50), 실시간 자동 지식구축부(70), 예외처리부(80)를 포함한다.     Referring to FIG. 1, the interactive TV agent device of the present invention includes a user input unit 10, a conversation analysis unit 20, a conversation management unit 30, a response generation unit 40, a query response unit 50, and real-time automatic The knowledge constructing unit 70 and the exception processing unit 80 are included.

사용자 입력부(10)는 사용자로부터 음성신호, 리모콘 신호, 문자열 신호 중 적어도 하나의 입력신호를 수신하여 대화문분석부(20)에 전달한다. 대화문분석부(20)는 상기 입력신호를 언어분석하여 대화관리부(30)에 보내고, 대화관리부(30)에서는 대화문분석부(20)의 분석결과를 이용하여 사용자의 요구를 파악한 후 질의응답부(50)에 정답을 요청한다. 질의응답부(50)는 일상정보 데이터베이스(60)를 검색하여 사용자가 요구하는 정답을 추출하고 이를 대화관리부(30)로 보낸다. 대화관리부(30)는 응답 생성부(40)를 통해 사용자에게 정답을 제공한다.       The user input unit 10 receives an input signal of at least one of a voice signal, a remote control signal, and a string signal from a user and transmits the input signal to the conversation text analyzing unit 20. The conversation analysis unit 20 analyzes the input signal and sends the language to the conversation management unit 30. The conversation management unit 30 uses the analysis result of the conversation analysis unit 20 to grasp the user's request and then the question answering unit ( 50) ask the correct answer. The question and answer unit 50 searches the daily information database 60 to extract the correct answer required by the user and sends it to the conversation manager 30. The conversation manager 30 provides a correct answer to the user through the response generator 40.

사용자가 입력한 입력문에 대한 응답이 불가능한 경우, 예외처리부(80)는 사용자에게 상기 입력문에 대해 확인을 요청하는 방법으로 입력문을 검증한다. 시스템 동작에 오류가 발생한 경우, 예외처리부(80)는 사용자에게 동작 또는 명령을 취소할 수 있도록 하고 시스템을 복원한다.       When the response to the input statement input by the user is not possible, the exception processing unit 80 verifies the input statement by requesting the user for confirmation of the input statement. If an error occurs in the system operation, the exception processing unit 80 allows the user to cancel the operation or command and restores the system.

실시간 자동 지식 구축부(70)는 대화관리부(30)로부터 실시간 정보갱신 요청이 있는 경우, 웹 상에 갱신되는 일상생활 정보를 실시간으로 추출하고 대화관리부(30) 및 대화문분석부(20)에 갱신정보를 전달한다. 저장된 갱신정보는 TV 가이드, 날씨, 뉴스, 일정 등 각 영역별로 일상정보 데이터베이스(60)로 구축되어 질의응답부(50)의 정답추출에 활용된다.      The real-time automatic knowledge construction unit 70 extracts the daily life information updated on the web in real time when there is a real-time information update request from the conversation management unit 30 and updates it in the conversation management unit 30 and the dialogue text analysis unit 20. Communicate information The stored update information is constructed as a daily information database 60 for each area such as TV guide, weather, news, schedule, and the like, and is used for extracting the correct answer of the question answering unit 50.

도 2는 도 1에 도시된 대화문분석부(20), 대화관리부(30) 및 응답생성부(40)의 세부 구성을 나타낸 블록도이다.      2 is a block diagram showing the detailed configuration of the dialogue analysis unit 20, the dialogue management unit 30 and the response generator 40 shown in FIG.

도 2를 참조하여 대화문분석부(20)의 세부 동작을 설명하면, 우선 입력신호 인식부(201)는 사용자가 입력한 음성, 리모콘, 텍스트 신호 등을 인식하는데, 이때 사용자가 입력하는 입력문의 형태는 자연어(연속어)와 고립어를 포함한다. 다음은 자연어(연속어), 고립어 입력의 예이다.      Referring to FIG. 2, a detailed operation of the dialogue analyzing unit 20 will be described. First, the input signal recognizing unit 201 recognizes a voice, a remote control, a text signal, etc. input by a user. Includes natural (continuous) and isolated words. The following is an example of natural language (continuous word) and isolated word input.

-자연어(연속어) 입력문: 내일 SBS에서 드라마 뭐 하지? 유재석 나오는 프로 좀 찾아봐.-Natural language (continuous language) input sentence: What do you do drama on SBS tomorrow? Find a pro that comes out Yoo Jae Suk.

-고립어 입력문: 내일 SBS 드라마 검색. 유재석 프로 검색.-Isolated phrase: SBS drama search tomorrow. Yoo Jae Suk Pro Search.

오류 처리부(202)는 상기 입력문에 오류가 있는 경우에 오류를 수정하여 보정된 입력문을 추출한다. 언어분석부(203)는 상기 입력문에 대한 형태소분석, 개체명 인식, 구문분석 등의 언어분석을 수행하고, 화행 및 개념열 분석부(204)는 미리 저장된 화행지식 및 개념열 지식 데이터베이스를 기반으로 하여 상기 언어분석된 입력문으로부터 사용자가 원하는 정보의 종류인 화행과 개념열을 분석한다. 분석된 입력문의 처리결과는 대화관리부(30)에 전달된다. 미리 저장된 화행 지식 및 개념열 지식 데이터에 의해 분석된 입력문의 화행, 개념열의 예는 다음과 같다.If there is an error in the input statement, the error processing unit 202 corrects the error and extracts the corrected input statement. The language analysis unit 203 performs linguistic analysis such as morpheme analysis, entity name recognition, and syntax analysis on the input text, and the speech act and concept string analysis unit 204 is based on a pre-stored speech act knowledge and concept string knowledge database. As a result, the speech act and the concept string, which are types of information desired by the user, are analyzed from the language-analyzed input statement. The processing result of the analyzed input text is transmitted to the conversation manager 30. Examples of speech acts and concept strings analyzed by pre-stored speech act knowledge and concept string knowledge data are as follows.

-사용자 입력문: 오늘 대전 날씨가 어때?-User input: How is the weather in Daejeon today?

-개념열 분석결과: <오늘: date><대전: location>날씨가 어때?-Result of analysis of concept sequence: <Today: date> <Daejeon: location> How is the weather?

-화행 분석결과: search_weather-Speech act analysis result: search_weather

도 2를 참조하여 대화관리부(30)의 세부 동작을 설명하면,      Referring to Figure 2 describes the detailed operation of the conversation management unit 30,

다중영역 인식부(301)는 분석된 화행 및 개념열 정보를 이용하여 사용자가 어떤 영역의 일상생활 정보를 원하는지 분석하고, 문장 정규화부(302)는 입력문을 정규화한다. 담화분석부(303)는 미리 저장된 이전 대화흐름 데이터를 참조하여 담화분석을 수행한다. 다중 영역인식(301) 및 문장정규화(302)는 현재 입력된 입력문을 대상으로 수행하는 반면, 담화분석(303)은 미리 저장된 이전 대화내용을 기반으로 대용어, 생략어 등 참조된 정보를 보강한다. The multi-domain recognition unit 301 analyzes the user's desired daily life information using analyzed speech act and concept string information, and the sentence normalization unit 302 normalizes the input sentence. The discourse analysis unit 303 performs discourse analysis with reference to previously stored conversation flow data. The multi-domain recognition 301 and sentence normalization 302 are performed on the input text currently input, while the discourse analysis 303 reinforces the referenced information such as substitute words and abbreviations based on previously stored conversation contents. do.

사용자요구 파악부(304)는 화행 및 개념열 분석(204)과 담화분석(303)을 통해 추출된 화행, 개념열, 영역정보, 대용어 및 생략어를 이용해 사용자의 요구를 파악한다. 사용자 요구는 프레임 형태로 분석되어 동작지시부(305)에 전달된다. 다음은 동작지시부(305)에 전달되는 최종 대화 분석 결과의 예이다.      The user request grasping unit 304 grasps the user's needs using speech acts, concept strings, area information, substitute terms, and abbreviations extracted through speech act and concept string analysis 204 and discourse analysis 303. The user request is analyzed in the form of a frame and transmitted to the operation instruction unit 305. The following is an example of the final dialogue analysis result transmitted to the operation instruction unit 305.

-이전 발화: KBS2로 돌려.-Previous ignition: back to KBS2.

-현재 발화: 이번 주말 드라마 뭐해?Current speech: What are you doing this weekend?

-개념열 분석결과: <이번 주말: date><드라마: genre>뭐해?Conceptual analysis: <Weekend: date> <Drama: genre> What are you doing?

-화행 분석결과: search_programSpeech act analysis result: search_program

-영역인식: TV 가이드 영역Area Recognition: TV Guide Area

-문장정규화 결과: <이번 주말=2006/10/07~2006/10/08>Result of normalization of sentence: <This weekend = 2006/10/07 ~ 2006/10/08>

-담화분석: <KBS2에서: 생략어>이번 주말 드라마 뭐해?-Discourse Analysis: <In KBS2: Abbreviation> What are you doing this weekend?

-사용자의도 파악:Identify your intent:

frame slotframe slot value ProgramProgram ?? ChannelChannel KBS2KBS2 DateDate 2006/10/07~2006/10/082006/10/07 ~ 2006/10/08 TimeTime ??

동작 지시부(305)는 입력문의 최종 분석결과를 이용하여 사용자가 정보획득을 원하는 경우에는 질의 응답부(50)를 호출하여 정답을 검색하고, 사용자의 요구가 유효한지 검증하는 경우 및 시스템에 오류가 발생한 경우에는 예외처리부(80)를 호출한다. 또한, 사용자가 원하는 동작을 수행한 최종결과를 응답생성부(40)를 통해 사용자에게 전달하며, 실시간으로 일상정보를 갱신하기 위해 실시간 자동 지식구축 부(70)와 피드백을 수행한다.      When the user wants to obtain information by using the final analysis result of the input statement, the operation instruction unit 305 retrieves the correct answer by calling the query response unit 50, and verifies that the user's request is valid and an error occurs in the system. If so, the exception processing unit 80 is called. In addition, the final result of performing the desired operation is delivered to the user through the response generation unit 40, and performs a real-time automatic knowledge construction unit 70 and feedback to update the daily information in real time.

도 2를 참조하여 응답 생성부(40)의 세부 동작을 설명하면, 사용자가 단일정보 획득을 목적으로 한 대화를 수행한 경우에는 문장 생성부(401)를 통해 자연스러운 응답문을 생성하고 이를 음성응답 생성부(403)를 통해 합성음으로 사용자에게 제시한다. 복수 개의 정보획득 또는 뉴스 등과 같이 출력 제시를 목적으로 한 대화를 수행한 경우에는 화면응답 생성기(402)를 통해 TV스크린에 영상정보를 제시한다. TV 채널변경, 프로그램 녹화예약, 소리 크기변경 등과 같은 TV 제어를 목적으로 한 대화를 수행한 경우에는 제어신호 생성부(404)를 통해 TV 제어 신호를 전송한다. 다음은 사용자가 입력한 대화문에 따른 응답생성 결과의 예이다.     Referring to FIG. 2, the detailed operation of the response generator 40 will be described. When the user performs a conversation for the purpose of obtaining single information, the sentence generator 401 generates a natural response and generates a voice response. The synthesis unit 403 presents the synthesized sound to the user. When a dialog is performed for the purpose of output presentation such as a plurality of information acquisition or news, the screen response generator 402 presents the image information on the TV screen. When the conversation for the purpose of controlling the TV, such as changing the TV channel, program recording reservation, changing the sound volume, etc. is performed, the control signal generator 404 transmits the TV control signal. The following is an example of the response generation result according to the dialog input by the user.

예1) -사용자 입력: 오늘 야구 어디서 하지?Example 1) User Input: Where do you play baseball today?

-대화 응답: KBS2에서 저녁 6시에 ‘코리안 시리즈 3차전’이 방송될 예정입니다.Dialogue Response: The Korean Series 3rd Game will air at 6 pm on KBS2.

예2) - 사용자 입력: 오늘 경제 뉴스 좀 보여줘.Example 2)-User Input: Show me some economic news today.

-대화 응답: 2006년 10월 23일 경제뉴스입니다. 화면을 보세요.Dialogue response: October 23, 2006 Economic News. Look at the screen.

예3) -사용자 입력: KBS2로 돌려.Example 3)-User Input: Return to KBS2.

-대화 응답:(채널 변경).-Chat response: (change channel).

도 3은 도 1에 도시된 실시간 자동지식 구축부의 세부 구성을 나타낸 블록도이다. 실시간 자동 지식 구축부(70)는 대화관리부(30)로부터 실시간 정보 갱신요청이 있는 경우, 웹 상에 갱신되는 다중영역의 일상생활 정보를 실시간으로 획득하여 가공, 저장, 확장하는 일을 수행한다.       3 is a block diagram showing the detailed configuration of the real-time automatic knowledge construction unit shown in FIG. When the real-time automatic knowledge construction unit 70 receives a real-time information update request from the conversation manager 30, the real-time automatic knowledge construction unit 70 acquires, processes, stores, and expands the multi-area daily life information updated on the web in real time.

도 3을 참조하여 실시간 자동 지식구축부(70) 세부 동작을 설명하면, 웹 문서 수집부(701)는 매일 갱신되는 새로운 정보를 포함하는 웹문서를 실시간으로 수집하고, 웹 문서 처리부(702)는 수집된 웹 문서를 파싱(parsing)하고 분석하여 필요한 일상정보를 추출하는 역할을 수행한다. PDA나 휴대폰에 저장된 개인일정 정보는 단말기 입출력부(703)와 개인정보 처리부(704)를 통해 수집된다.      Referring to FIG. 3, the detailed operation of the real-time automatic knowledge building unit 70 will be described. The web document collecting unit 701 collects a web document including new information updated daily, in real time, and the web document processing unit 702 Parsing and analyzing the collected web documents to extract the necessary daily information. The personal schedule information stored in the PDA or the mobile phone is collected through the terminal input / output unit 703 and the personal information processing unit 704.

웹 문서나 개인단말기로부터 수집된 일상생활 정보는 영역별 지식 추출부(705)를 통해 추출되고 영역별 지식저장부(706)를 통해 구조화된 정보로 저장된다. 저장된 정보는 TV가이드, 날씨, 뉴스, 일정 등 각 영역별로 일상정보 데이터베이스(60)로 구축되어 질의 응답부(50)의 정답추출에 활용된다.     The daily life information collected from the web document or the personal terminal is extracted through the knowledge extraction unit 705 for each region and stored as structured information through the knowledge storage unit 706 for each region. The stored information is constructed as a daily information database 60 for each area such as TV guide, weather, news, schedule, and the like, and is used for extracting the correct answer of the question answering unit 50.

갱신된 정보는 대화관리부(30)를 통해 피드백을 수행함으로써, 대화문분석부(20)의 입력신호 인식부(201)에까지 전달되어 전체 시스템에 신규지식 갱신정보를 알려준다.      The updated information is transmitted to the input signal recognition unit 201 of the conversation analysis unit 20 by performing feedback through the conversation management unit 30 to inform the whole system of new knowledge update information.

일상정보 데이터베이스(60)는 확장성을 가진 구조로 되어 있어, 기존영역 이외의 신규 영역 서비스에 대한 추가 및 확장 요청에 대응할 수 있다.       The daily information database 60 has a structure that is scalable, and can respond to requests for addition and expansion of a new area service other than the existing area.

도 4는 도 1에 도시된 예외처리부의 세부 구성을 나타낸 블럭도이다.       4 is a block diagram showing the detailed configuration of the exception processing unit shown in FIG.

예외처리부(80)는 사용자가 응답 또는 실행 불가능한 명령을 지시하거나, 시스템이 오동작을 수행한 경우, 시스템을 복원해주고 검증하는 역할을 수행한다. The exception processing unit 80 instructs the user to respond to a command that cannot be executed or executes, or restores and verifies the system when the system malfunctions.

도 4를 참조하여 예외처리부(80)의 세부 동작을 설명하면,      Referring to Figure 4 describes the detailed operation of the exception processing unit 80,

대화문 검증부(801)에서는 대화관리부(30)를 통해 분석된 대화프레임을 이용해서 사용자가 응답 가능한 질문을 입력했는지 검증하고, 동작 검증부(802)는 사용자가 요청한 최종 임무 수행을 위한 명령이 실행 가능한지 검증한다. 사용자가 응답 또는 실행 불가능한 대화를 시도한 경우, 시스템은 사용자에게 사용자 입력문이 정확한지 확인하는 방법으로 검증한다.The conversation verification unit 801 verifies whether the user inputs a question that can be answered using the conversation frame analyzed by the conversation management unit 30, and the operation verification unit 802 executes a command for performing a final task requested by the user. Verify that it is possible. If the user attempts a response or an impractical conversation, the system verifies the user by verifying that the user input statement is correct.

오류 복원부(803)는 시스템이 오동작을 수행한 경우에 사용자로 하여금 사용자 요구를 취소할 수 있도록 하고 시스템을 복원한다. 오류 복원부(803)를 통해 시스템이 복원되면 사용자의 현재발화 이전 상태로 시스템이 복구된다. 다음은 사용자의 요구동작 검증 및 오류복원의 예이다.     The error recovery unit 803 allows a user to cancel a user request and restores the system when the system malfunctions. When the system is restored through the error restoration unit 803, the system is restored to the state before the current ignition of the user. The following is an example of verifying user request operation and recovering error.

예1) -사용자 입력1: 어제 MBC에서 밤 10시에 드라마 뭐 했지?Example 1)-User input 1: What did you do at 10 pm at MBC yesterday?

-대화 응답1: 주몽이 방송되었습니다.Dialogue 1: Jumong was broadcast.

-사용자 입력2: 그거 녹화해 줘.User Input 2: Record that.

-대화 응답2: 과거시간 프로그램에 대한 동작이므로 수행할 수 없습니다. 다시 확인하고 말씀해 주십시오.-Chat Response 2: It is the operation for the past time program and therefore cannot be performed. Please check and speak again.

예2)- 사용자 입력1: 오늘 ‘인간극장’ 녹화.Example 2)-User Input 1: Recorded 'Human Theater' today.

-대화 응답1: 오늘 저녁 KBS2에서 밤 9시에 방송되는 ‘인간극장’ 프로그램의 녹화를 예약하겠습니다.      -Dialogue 1: We will schedule a recording of the ‘Human Theater’ program to be broadcast at 9 pm on KBS2 tonight.

-사용자 입력2: 아니 그거 취소.-User input 2: No that cancel.

-대화 응답2:‘인간극장’ 녹화예약이 취소되었습니다.-Chat Response 2: The recording schedule for 'Human Theater' has been cancelled.

이상으로 본 발명에 대하여 바람직한 실시 예를 중심으로 살펴보았으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 본질적인 특성에서 벗어나지 않는 균등한 범위 내에서 변형된 형태로 구현하는 것은 본 발명의 범위에 속한다고 해석되어야 한다.      The present invention has been described above with reference to the preferred embodiments, and the person skilled in the art to implement the present invention may be embodied in a modified form within an equivalent range without departing from the essential characteristics of the present invention. It should be interpreted that it belongs to the scope of the invention.

한편, 상기한 본 발명의 실시 예는 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 예컨대 롬, 플로피 디스크, 하드디스크 등과 같은 마그네틱 저장매체, 예컨대 씨디롬(CD-ROM), 디브이디(DVD) 등과 같은 광학적 판독매체, 및 예컨대 인터넷을 통한 전송과 같은 캐리어 웨이브와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments of the present invention can be written as a program that can be executed in a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. The computer-readable recording medium may be, for example, a magnetic storage medium such as a ROM, a floppy disk, a hard disk, or the like, an optical read medium such as a CD-ROM, a DVD, or the like, and a carrier such as a transmission through the Internet. It includes a storage medium such as a wave.

도 1은 본 발명에 따른 대화형 TV 에이전트의 구성도이다.1 is a block diagram of an interactive TV agent according to the present invention.

도 2는 도 1에 도시된 대화문분석부, 대화관리부 및 응답생성부의 세부 구성을 나타낸 블럭도이다.FIG. 2 is a block diagram showing the detailed configuration of the dialogue analyzing unit, the dialogue managing unit, and the response generating unit shown in FIG.

도 3은 도 1에 도시된 실시간 자동 지식구축부의 세부 구성을 나타낸 블럭도이다.3 is a block diagram showing the detailed configuration of the real-time automatic knowledge building unit shown in FIG.

도 4는 도 1에 도시된 예외처리부의 세부 구성을 나타낸 블럭도이다.4 is a block diagram showing the detailed configuration of the exception processing unit shown in FIG.

Claims (15)

사용자로부터 수신된 입력문을 분석하는 단계;Analyzing the input text received from the user; 상기 분석된 입력문을 기반으로 사용자의 요구를 분석하는 단계;Analyzing a user's request based on the analyzed input statement; 웹 상에 갱신되는 일상생활 정보를 실시간으로 추출하여 일상정보 데이터베이스에 저장하는 단계;Extracting daily life information updated on the web in real time and storing the same in a daily information database; 상기 분석된 사용자의 요구에 상응하는 정보를 상기 일상정보 데이터베이스로부터 추출하는 단계; 및Extracting information corresponding to the analyzed user's request from the daily information database; And 상기 추출된 정보를 TV를 통하여 출력하는 단계Outputting the extracted information through a TV; 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.Real-life information providing interactive TV agent service method comprising a. 제 1항에 있어서,       The method of claim 1, 상기 사용자로부터 수신된 입력문은The input received from the user 사용자의 음성인식, 리모콘 조작 또는 문자열 입력을 통해서 입력된 수신된 것을 특징으로 하는 실생활 정보제공 대화형 TV에이전트 서비스방법.A real-time information providing interactive TV agent service method characterized in that the input received through the user's voice recognition, remote control operation or string input. 제 1항에 있어서, 상기 일상정보 데이터베이스는 The method of claim 1, wherein the daily information database 웹 상에 갱신되는 일상정보 또는 개인정보 단말기에 갱신되는 개인일정 정보를 실시간으로 입력받아 정보영역별로 저장하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.A real-time information providing interactive TV agent service method for receiving daily information updated on the web or personal schedule information updated in a personal information terminal in real time and storing the information in each information area. 제 3항에 있어서,       The method of claim 3, wherein 상기 정보영역은 TV가이드, 뉴스, 날씨, 개인일정을 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.The information area is a real-time information providing interactive TV agent service method including a TV guide, news, weather, personal schedule. 제 1항에 있어서, The method of claim 1, 상기 사용자로부터 수신된 입력문을 분석하는 단계는Analyzing the input text received from the user 상기 수신된 입력문에 오류가 있는 경우, 상기 입력문을 보정하는 단계;Correcting the input text when there is an error in the received text; 상기 입력문에 대한 형태소분석, 개체명 인식 및 구문분석을 통하여 언어분석을 수행하는 단계; 및Performing language analysis through morphological analysis, entity name recognition, and syntax analysis of the input text; And 미리 저장된 화행지식 및 개념열 지식 데이터베이스를 기반으로 상기 언어분석된 입력문으로부터 화행 및 개념열을 추출하는 단계Extracting speech acts and concept strings from the linguistic analysis input sentences based on prestored speech act knowledge and concept string knowledge databases; 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.Real-life information providing interactive TV agent service method comprising a. 제 5항에 있어서, The method of claim 5, 상기 사용자의 요구를 분석하는 단계는Analyzing the user's needs 상기 분석된 입력문을 기반으로 사용자가 원하는 정보의 영역을 분석하고 상기 입력문을 정규화하는 단계;Analyzing a region of information desired by a user based on the analyzed input sentence and normalizing the input sentence; 미리 저장된 이전 대화내용 데이터를 참조하여 상기 입력문의 생략어 및 대용어를 분석하는 단계;Analyzing abbreviations and substitute terms of the input sentence with reference to previously stored conversation data; 상기 화행, 개념열, 정보영역, 대용어 및 생략어를 이용하여 사용자 요구를 분석하는 단계; 및Analyzing a user request using the dialogue act, the concept sequence, the information area, the substitute term, and the abbreviation word; And 상기 분석된 사용자 요구에 대응하는 동작을 선택하는 단계Selecting an action corresponding to the analyzed user request 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.Real-life information providing interactive TV agent service method comprising a. 제 6항에 있어서,The method of claim 6, 상기 사용자 요구에 대한 응답이 불가능한 경우, 사용자에게 상기 사용자 요구를 검증하도록 하는 단계; 및If the response to the user request is not available, causing the user to verify the user request; And 상기 사용자 요구에 대한 응답에 오류가 있는 경우, 사용자로 하여금 상기 사용자 요구를 취소할 수 있도록 하는 단계Enabling the user to cancel the user request if there is an error in response to the user request 를 더 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.Real-life information providing interactive TV agent service method further comprising. 제 7항에 있어서, The method of claim 7, wherein 상기 추출된 정보를 TV를 통하여 출력하는 단계는Outputting the extracted information through a TV 음성, TV 스크린 및 TV 제어신호 전송 중 어느 하나를 통하여 이루어지는 것을 특징으로 하는 실생활 정보제공 대화형 TV 에이전트 서비스 방법.A real-life information providing interactive TV agent service method, characterized in that it is made through any one of voice, TV screen and TV control signal transmission. 제 1항 내지 제 8항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 1 to 8. 사용자로부터 수신된 입력문을 분석하는 대화문 분석부; A dialogue analyzer for analyzing an input sentence received from a user; 상기 대화문분석부의 분석결과를 이용하여 사용자의 요구를 분석하는 대화 관리부; A conversation manager that analyzes a user's request by using an analysis result of the conversation analyzer; 상기 대화관리부로부터 실시간 정보 갱신요청이 있는 경우, 웹상에 갱신되는 일상생활 정보를 실시간으로 추출하여 일상정보 데이터베이스에 저장하는 실시간 자동 지식 구축부;A real-time automatic knowledge construction unit for extracting real-time information updated on the web in real time and storing it in a daily information database when a real-time information update request is received from the conversation manager; 상기 대화관리부에서 분석된 사용자의 요구에 대한 응답을 생성하고 사용자에게 응답을 제공하는 응답 생성부; 및 A response generation unit generating a response to the request of the user analyzed by the conversation manager and providing a response to the user; And 상기 사용자의 요구에 응답이 불가능한 경우 또는 상기 사용자 요구에 대한 응답에 오류가 있는 경우, 사용자로 하여금 상기 사용자 요구를 취소할 수 있도록 하고 시스템을 복원하는 예외 처리부An exception processing unit that enables the user to cancel the user request and restores the system when the user request is impossible to respond or when there is an error in the response to the user request. 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 장치.Real-life information providing interactive TV agent service device comprising a. 제 10항에 있어서, 상기 대화문 분석부는The method of claim 10, wherein the dialogue analysis unit 사용자로부터 수신된 입력문을 인식하는 입력신호 인식부;An input signal recognition unit recognizing an input text received from a user; 상기 입력문에 오류가 있는 경우, 상기 입력문을 보정하는 오류 처리부;An error processing unit to correct the input text when the input text has an error; 상기 입력문에 대한 형태소 분석, 개체명 인식 및 구문분석을 수행하는 언어분석부; 및A language analyzer configured to perform morphological analysis, entity name recognition, and syntax analysis on the input text; And 상기 입력문의 화행 및 개념열을 분석하는 화행 및 개념열 분석부Speech act and concept string analysis unit for analyzing the dialogue act and concept string of the input statement 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 장치.Real-life information providing interactive TV agent service device comprising a. 제 11항에 있어서, 상기 대화관리부는The method of claim 11, wherein the conversation management unit 상기 입력문의 화행 및 개념열을 이용하여 사용자가 원하는 정보의 영역을 파악하는 다중영역 인식부;A multi-domain recognizing unit which grasps an area of information desired by a user using a dialogue act and a concept string of the input text; 상기 입력문을 정규화하는 문장 정규화부;A sentence normalizer for normalizing the input sentence; 미리 저장된 대화내용 데이터를 참조하여 상기 입력문의 대용어 및 생략어를 분석하는 담화 분석부;A discourse analysis unit for analyzing substitute terms and abbreviations of the input sentence with reference to previously stored conversation contents data; 상기 화행, 개념열, 정보영역, 대용어 및 생략어를 이용하여 사용자요구를 분석하는 사용자요구 파악부; 및A user request grasp unit for analyzing a user request using the dialogue act, the concept sequence, the information area, the substitute term, and the abbreviation word; And 상기 분석된 사용자요구에 따른 동작을 지시하는 동작 지시부An operation instruction unit for instructing an operation according to the analyzed user request 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 장치.Real-life information providing interactive TV agent service device comprising a. 제 12항에 있어서, 상기 응답 생성부는The method of claim 12, wherein the response generating unit 상기 사용자요구가 단일정보의 획득인 것으로 분석된 경우, 음성응답을 제공하는 음성응답 생성부;A voice response generating unit for providing a voice response when the user request is analyzed to be acquisition of single information; 상기 사용자요구가 복수 개의 정보 또는 영상정보의 획득인 것으로 분석된 경우, TV화면을 통하여 영상응답을 제공하는 화면응답 생성부; 및A screen response generation unit for providing a video response through a TV screen when the user request is analyzed to be acquisition of a plurality of information or video information; And 상기 사용자요구가 TV제어인 것으로 분석된 경우, TV에 제어신호를 전송하는 제어신호 생성부를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 장치.And a control signal generator for transmitting a control signal to a TV when the user request is analyzed to be TV control. 제 13항에 있어서, 상기 예외처리부는The method of claim 13, wherein the exception handling unit 사용자가 응답 가능한 질문을 입력했는지 검증하는 대화문 검증부;A dialog verification unit for verifying whether a user inputs a question that can be answered; 사용자가 요구한 동작이 실행 가능한지 판단하고, 상기 사용자 요구가 실행 가능하지 않은 경우 사용자로 하여금 상기 사용자의 요구를 검증하도록 하는 동작 검증부; 및An operation verification unit for determining whether an operation requested by the user is executable and allowing the user to verify the request of the user when the user request is not executable; And 상기 사용자 요구에 대한 응답에 오류가 있는 경우, 사용자로 하여금 상기 사용자 요구를 취소할 수 있도록 하고 시스템을 복원하는 오류 복원부If there is an error in response to the user request, the error recovery unit for allowing the user to cancel the user request and restore the system 를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 장치.Real-life information providing interactive TV agent service device comprising a. 제 14항에 있어서, 상기 실시간 자동 지식 구축부는 15. The method of claim 14, wherein the real-time automatic knowledge building unit 웹 문서를 실시간으로 수집하는 웹 문서 수집부; A web document collecting unit collecting the web document in real time; 상기 웹 문서 수집부에 수집된 웹 문서를 파싱(parsing)하고 분석하여 일상정보를 추출하는 웹 문서 처리부; A web document processing unit for parsing and analyzing web documents collected in the web document collecting unit to extract daily information; 개인단말기에 저장된 개인일정 정보를 입력받는 단말기 입출력부;A terminal input / output unit configured to receive personal schedule information stored in the personal terminal; 상기 단말기 입출력부에 저장된 정보를 분석하여 유효한 정보를 추출하는 개인정보 처리부; A personal information processing unit which extracts valid information by analyzing the information stored in the terminal input / output unit; 상기 웹 문서 처리부 및 상기 개인정보 처리부에서 처리된 정보 중에서 일상생활 정보를 추출하는 영역별 지식 추출부; 및 A region-specific knowledge extracting unit for extracting daily life information from the information processed by the web document processing unit and the personal information processing unit; And 상기 영역별 지식추출부에서 추출된 정보를 구조화된 정보로 저장하는 영역별 지식 저장부를 포함하는 실생활 정보제공 대화형 TV 에이전트 서비스 장치.Real-time information providing interactive TV agent service apparatus comprising a knowledge storage for each area for storing the information extracted by the knowledge extraction for each area as structured information.
KR1020070074287A 2006-12-05 2007-07-25 Apparatus and method of dialogue tv agent service for providing daily information KR20080052279A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020070119262A KR100881334B1 (en) 2006-12-05 2007-11-21 Apparatus and Method of Dialogue Service for Providing Information
US11/951,154 US20080134038A1 (en) 2006-12-05 2007-12-05 Interactive information providing service method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20060122319 2006-12-05
KR1020060122319 2006-12-05

Publications (1)

Publication Number Publication Date
KR20080052279A true KR20080052279A (en) 2008-06-11

Family

ID=39807120

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020070074287A KR20080052279A (en) 2006-12-05 2007-07-25 Apparatus and method of dialogue tv agent service for providing daily information
KR1020070119262A KR100881334B1 (en) 2006-12-05 2007-11-21 Apparatus and Method of Dialogue Service for Providing Information

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020070119262A KR100881334B1 (en) 2006-12-05 2007-11-21 Apparatus and Method of Dialogue Service for Providing Information

Country Status (1)

Country Link
KR (2) KR20080052279A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974895B1 (en) * 2008-06-27 2010-08-11 주식회사 한국스테노 Information service system for a deaf and dumb person
KR101483191B1 (en) * 2012-11-22 2015-01-15 주식회사 케이티 Apparatus and method for providing conversation service and, server
KR20180069660A (en) * 2016-12-15 2018-06-25 삼성전자주식회사 Method and Apparatus for Voice Recognition
US11687319B2 (en) 2016-12-15 2023-06-27 Samsung Electronics Co., Ltd. Speech recognition method and apparatus with activation word based on operating environment of the apparatus

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101934280B1 (en) 2016-10-05 2019-01-03 현대자동차주식회사 Apparatus and method for analyzing speech meaning
KR20200054360A (en) 2018-11-05 2020-05-20 삼성전자주식회사 Electronic apparatus and control method thereof
KR102189568B1 (en) * 2019-03-27 2020-12-11 주식회사 포시에스 Apparatus and method for controlling electronic document based on natural language processing
KR102189567B1 (en) * 2019-03-27 2020-12-11 주식회사 포시에스 System for writing electronic document by detecting key and corresponding value from sentence with multiple key
KR102215091B1 (en) * 2019-03-29 2021-02-10 주식회사 포시에스 Apparatus and method for matching natural language based on morphological analysis and system for controlling electronic document using the same
KR102436242B1 (en) * 2019-08-26 2022-08-25 주식회사 포켓메모리 An apparatus and method for providing biometrics conversation service based on artifical intelligence

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020030545A (en) * 2000-10-18 2002-04-25 남 데이비드 이 Automatic answer and search method - based on artificial intelligence and natural languane process technology - for natural and sentencial questions.
KR100445943B1 (en) * 2000-10-25 2004-08-25 전석진 Method and System for Retrieving Information using Proximity Search Formula
KR100452024B1 (en) * 2001-01-08 2004-10-08 한용운 Searching engine and searching method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100974895B1 (en) * 2008-06-27 2010-08-11 주식회사 한국스테노 Information service system for a deaf and dumb person
KR101483191B1 (en) * 2012-11-22 2015-01-15 주식회사 케이티 Apparatus and method for providing conversation service and, server
US9456254B2 (en) 2012-11-22 2016-09-27 Kt Corporation Internet protocol television service
KR20180069660A (en) * 2016-12-15 2018-06-25 삼성전자주식회사 Method and Apparatus for Voice Recognition
US11687319B2 (en) 2016-12-15 2023-06-27 Samsung Electronics Co., Ltd. Speech recognition method and apparatus with activation word based on operating environment of the apparatus

Also Published As

Publication number Publication date
KR100881334B1 (en) 2009-02-02
KR20080052382A (en) 2008-06-11

Similar Documents

Publication Publication Date Title
KR20080052279A (en) Apparatus and method of dialogue tv agent service for providing daily information
US10410627B2 (en) Automatic language model update
JP3944159B2 (en) Question answering system and program
US8082142B2 (en) Speech recognition method, speech recognition system and server thereof
US20080134038A1 (en) Interactive information providing service method and apparatus
US8108212B2 (en) Speech recognition method, speech recognition system, and server thereof
US8326634B2 (en) Systems and methods for responding to natural language speech utterance
US9626959B2 (en) System and method of supporting adaptive misrecognition in conversational speech
US20020087328A1 (en) Automatic dynamic speech recognition vocabulary based on external sources of information
KR102225404B1 (en) Method and Apparatus of Speech Recognition Using Device Information
US20170372695A1 (en) Information providing system
KR20150085145A (en) System for translating a language based on user&#39;s reaction and method thereof
US11651158B2 (en) Entity resolution for chatbot conversations
JP2009042968A (en) Information selection system, information selection method, and program for information selection
CN110232921A (en) Voice operating method, apparatus, smart television and system based on service for life
JP5300576B2 (en) SEARCH DEVICE, SEARCH METHOD, AND SEARCH PROGRAM
US20210335359A1 (en) Barrier-free intelligent voice system and control method thereof
KR20240042964A (en) Selection and Transmission Method of Related Video Data through Keyword Analysis of Voice Commands
JP2022059732A (en) Information processing device, control method, and program
KR20200118744A (en) System of cloud-based conversion speech source to text and method performing the same
KR20110030947A (en) Internet protocol television broadcasting system, server and apparatus for generating lexicon

Legal Events

Date Code Title Description
A201 Request for examination