WO2015102124A1 - 대화 서비스 제공 장치 및 방법 - Google Patents

대화 서비스 제공 장치 및 방법 Download PDF

Info

Publication number
WO2015102124A1
WO2015102124A1 PCT/KR2013/012409 KR2013012409W WO2015102124A1 WO 2015102124 A1 WO2015102124 A1 WO 2015102124A1 KR 2013012409 W KR2013012409 W KR 2013012409W WO 2015102124 A1 WO2015102124 A1 WO 2015102124A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
response
external data
storage unit
user
Prior art date
Application number
PCT/KR2013/012409
Other languages
English (en)
French (fr)
Inventor
김주희
신원호
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2013/012409 priority Critical patent/WO2015102124A1/ko
Publication of WO2015102124A1 publication Critical patent/WO2015102124A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems

Definitions

  • the present invention relates to an apparatus and method for providing a chat service, and more particularly, to an apparatus and method for more intelligently responding to user speech.
  • Conventional interactive applications include secretary applications, intelligent conversation applications, and the like.
  • Such a conventional secretary application or intelligent conversation application when a user speaks, grasps what the user wants through an intention analysis operation of the user's speech, and generates a response by providing information about it, performing a specific task, and generating an answer.
  • FIG. 1 is a flowchart showing an embodiment of such a conventional method of providing a conversation service.
  • FIG. 2 is a diagram illustrating an embodiment of a conventional chat service providing screen. That is, as shown in the left side of FIG. 2 (a), when the user executes the corresponding application for the chat service in the terminal such as a smart phone, and utters "tell me about Kim Yu-na", the terminal supports a search for a portal site ( Yes, connect to Naver) and search for “Kim Yu-na”. And as shown in the right of Figure 2 (a) displays a web page with information about Kim Yu-na.
  • the terminal searches again from the beginning based on the newly spoken question contents. That is, when the user utters “Kim Yu-na key,” as shown on the left side of FIG. 2 (b), the terminal reconnects to the portal site and performs a search for “Kim Yu-na key”. Display a web page with information about Kim Yu-na, as shown at right.
  • the same web page is provided to the user for a similar question spoken by the user, but the terminal performs a new web search every time the user speaks.
  • the user may have to find the information again within the web page in order to obtain the desired information.
  • FIG. 3 is a view showing another embodiment of a conventional chat service providing screen. That is, as shown in the left side of FIG. 3 (a), when the user executes the corresponding application for the conversation service in the terminal such as a smart phone and utters the “tell me the local telephone number”, the terminal accesses the portal site and “ Perform a search for “local village phone number”. Then, as shown in the right side of FIG. 3A, a web page with a local telephone number is displayed.
  • the conventional method of providing a conversation service provides information to a user through a web search.
  • the information is one-time information and cannot be reused.
  • the information is provided by searching the web every time a user speaks. This encourages users to access more web pages, resulting in higher data usage charges.
  • the present invention has been made to solve the above problems, and an object of the present invention is to accumulate and use external data, thereby reducing unnecessary web page access, and providing a conversation service to generate a response more suited to a user's intention.
  • An apparatus and method are provided.
  • the apparatus may further include an external data capture unit which captures, processes and stores new external data acquired through a web search under the control of the controller.
  • the external data capture unit automatically captures and processes new external data and stores the new external data in the storage unit.
  • the external data capture unit captures and processes new external data according to a user's request and stores the new external data in the storage unit.
  • the external data capture unit checks whether the new external data overlaps with the data stored in the storage unit and stores the new external data in the storage unit according to the confirmation result.
  • the external data capture unit processes the captured new external data using at least one of a machine vision technique and a character recognition technique.
  • a chat service providing method of a chat service providing apparatus having a storage unit, the method comprising: recognizing a user voice and analyzing an intention of user speech using the recognized user voice; Confirming whether data necessary for a response is stored in the storage unit by using the result analyzed in the step; If data necessary for the response is stored in the storage unit, extracting data necessary for the response from the storage unit, generating response data, and outputting the response data; If data necessary for the response is not stored in the storage unit, obtaining new external data through a web search and outputting the response data as response data; And storing the new external data in the storage unit.
  • the new external data acquired through the web search is captured and processed and stored in the storage unit.
  • the new external data is automatically captured and processed and stored in the storage unit.
  • the new external data is captured and processed according to a user's request and stored in the storage unit.
  • the captured new external data is processed using at least one of a machine vision technique and a character recognition technique.
  • the present invention processes and accumulates external data obtained from external data, for example, a web page, and then uses it, thereby reducing unnecessary web page access when generating a response to user utterance, and providing a response more suited to the user's intention. It has the effect of generating. That is, when a response is possible within the accumulated data on user utterance, the response is performed without linking the web page, thereby reducing the number of web page accesses. In particular, when a user asks for a specific content, the user can obtain information more conveniently by providing the user with only the corresponding information within the accumulated result, rather than providing a web page as it is.
  • FIG. 1 is a flowchart illustrating an embodiment of a conventional method of providing a chat service.
  • 2 (a) and 2 (b) show an example of a conventional conversation service providing screen.
  • 3 (a) and 3 (b) show another example of a conventional conversation service providing screen.
  • FIG. 4 is a block diagram showing an embodiment of a chat service providing apparatus according to the present invention.
  • FIG. 5 is a flowchart showing an embodiment of a chat service providing method according to the present invention.
  • 6 (a) and 6 (b) show an example of a chat service providing screen according to the present invention.
  • 7 (a) and 7 (b) show another example of a chat service providing screen according to the present invention.
  • first and / or second may be used to describe various components, but the components should not be limited by the terms.
  • the terms are used only for the purpose of distinguishing one component from another, for example, without departing from the scope of rights in accordance with the inventive concept, and the first component may be called a second component and similarly The second component may also be referred to as the first component.
  • the accumulated external data is used when accumulating external data and generating a response to user speech, thereby effectively responding to user speech while reducing the number of web page accesses.
  • FIG. 4 is a block diagram showing an embodiment of a conversation service providing apparatus according to the present invention, wherein the controller 400, the voice recognition unit 401, the voice analysis unit 402, the storage unit 403, and the external data system are provided. Study 404, response output unit 405, and an external data capture unit 406 may be included.
  • the conversation service providing apparatus may be any terminal capable of accessing the Internet.
  • mobile phones such as smartphones, home / wireless phones, smart pads, portable multimedia players (PMPs), navigation, digital cameras, ultra mobile PCs (UMPCs), tablets, laptops, desktops, TVs, etc. It can be used as a service providing device.
  • PMPs portable multimedia players
  • UMPCs ultra mobile PCs
  • the apparatus for providing a chat service is used interchangeably with a terminal.
  • the voice recognition unit 401 recognizes the user's voice.
  • the voice analyzer 402 analyzes the recognized user voice to analyze the intention of the user's speech.
  • the result analyzed by the voice analyzer 402 is output to the controller 400.
  • the controller 400 may be a central processing unit (CPU), and may further include storage means such as a ROM and a RAM.
  • the ROM may also be referred to as an internal memory and may not be detached from a conversation service providing apparatus.
  • the controller 400 uses the analysis result of the voice analyzer 402 to grasp the data necessary for the response and to determine a position to bring the data necessary for the response. That is, it is determined whether to use the terminal's own data as the data required for the response, to newly acquire and use external data through a web search, or to use the external data previously stored in the storage unit 403 (that is, accumulated). . In this case, the controller 400 may combine one or more data among the terminal own data, the new external data, and the accumulated external data as data required for the response.
  • the terminal itself data is, for example, data stored when the chat service providing apparatus is released.
  • the external data accumulated in the storage unit 403 is external data that has been used as a response to the user's speech since the release of the conversation service providing apparatus.
  • the terminal itself data is stored in an internal memory (eg, a ROM) of the apparatus for providing a chat service.
  • an internal memory eg, a ROM
  • the storage unit 403 may be attached to or detached from the conversation service providing apparatus in a slot form such as an SD or CF memory.
  • the storage unit 403 may also be referred to as an external memory.
  • the new external data is data obtained through a web search or the like for use in response to user speech.
  • new external data is stored in the storage unit 403 according to an embodiment. That is, the external data stored in the storage unit 403 becomes accumulated external data.
  • the storage of the external data may be automatically performed, or whenever a new external data occurs, the user may be asked whether or not to save the data, and may be stored only at the request of the user.
  • the data may be stored in the storage unit 403 only when the user captures external data using a camera, a key, or the like.
  • the external data accumulated in the storage unit 403 may be automatically deleted from old data in association with the capacity of the storage unit 403 or may be deleted at the request of a user.
  • the external data accumulated in the storage unit 403 may be an image, a text, or a combination of an image and text.
  • the image capturing image / picture / text displayed on the screen is captured by a camera mounted on the conversation service providing apparatus, and processed using a machine vision technique and a character recognition technique, and then the storage unit 403. ) Can be stored.
  • the controller 400 obtains data from the determined position and generates a response.
  • the terminal itself data extraction module for extracting the terminal itself data the accumulated external data extraction module for extracting the external data accumulated in the storage unit 403, new for requesting external data through a web search, etc.
  • a response generation module that generates a response to a user's speech using at least one of the terminal's own data, accumulated external data, and new external data obtained through a web search.
  • the terminal self data extracting module, the accumulated external data extracting module, the new external data requesting module, and the response generating module are provided in the controller 400.
  • the terminal's own data extraction module, accumulated external data extraction module, new external data extraction module, and response generation module may each be made of one of firmware, software, hardware, and middleware, or at least two combinations thereof. It may be.
  • at least one of the terminal self data extraction module, the accumulated external data extraction module, the new external data request module, and the response generation module may be provided outside the controller 400.
  • the terminal self data extraction module extracts data necessary for a response from an internal memory (eg, a ROM), and the accumulated external data extraction module extracts data necessary for a response from an external memory (eg, the storage 403).
  • an internal memory eg, a ROM
  • an external memory eg, the storage 403
  • the new external data request module requests data required for a response from the external data provider 404.
  • the external data providing unit 404 may be a server of a specific portal site having a search function. That is, the external data providing unit 404 retrieves a web page corresponding to the data requested by the new external data request module and provides the same to the controller 400 and / or the response output unit 405.
  • the control unit 400 and / or the response output unit 405 are connected to the external data providing unit 404 via the Internet.
  • the present invention grasps the user's intention from the speech and searches for data necessary for generating a response.
  • the information can be divided into three types, the terminal itself data stored in the internal memory (eg, ROM) of the conversation service providing apparatus, the existing external data by processing the external memory (eg, the storage unit 403) It is new external data that must be obtained by using accumulated external data and web interworking. That is, the controller 400 determines whether the data necessary for generating the response is in the internal memory, the external memory, or the web page interworking, and generates a response from at least one of the internal memory, the external memory, and the web server. Acquire the data necessary to do so.
  • Response data is generated using the data obtained by the controller 400, and the generated response data is provided to the user through the response output unit 405.
  • the response data may be the web page itself or may be part of the processed and accumulated external data.
  • the response output unit 405 includes a speaker and a screen.
  • the response data is provided to the user through at least one of the speaker and the screen.
  • new external data obtained through the new external data request module for example, a web page is captured by a capture means (eg, a camera) in the external data capture unit 406, and the captured external data is machine vision / character recognition. After processing by technology, it is stored in the storage unit 403.
  • a capture means eg, a camera
  • the external data capture unit 406 checks whether the processed external data is already stored in the storage unit 403. In one embodiment, the processed external data is stored in the storage unit 403 only when it is not stored.
  • the storage unit 403 After the user's utterance is input, and the data necessary to generate response data for the user's utterance is stored in the storage unit 403, the storage is not requested again from outside through web interworking or the like.
  • the response data is generated using the data processed and stored in the unit 403. By doing so, the user can reduce the number of opening of the web page, thereby reducing the user's data fee, and using the processed data to provide a response more suited to the user's intention than displaying the web page.
  • FIG. 5 is a flowchart illustrating an embodiment of a chat service providing method according to the present invention. That is, when the user's speech is input (S501), the user's intention is analyzed from the user's speech (S502). Then, based on the analyzed user intention, the data necessary for the response is identified, and whether the identified data is stored in the storage unit 403 is searched (S504). At this time, whether the identified data is included in the terminal's own data may be searched simultaneously or sequentially.
  • a method of using the terminal itself data will be referred to the above description, and detailed description thereof will be omitted herein.
  • step S504 If it is confirmed in step S504 that the data necessary for the response is stored in the storage unit 403, the storage unit 403 extracts the data necessary for the response, generates response data based on the extracted data, and outputs the response.
  • the display unit 405 outputs at least one of the screen and the speaker (S505).
  • step S504 if it is confirmed in step S504 that the data necessary for the response is not stored in the storage unit 403, new external data is requested to the external data provider 404 (S506).
  • response data is generated based on this data and output to at least one of a screen and a speaker of the response output unit (S507).
  • the new external data is captured using the capture means (S508), processed by machine vision / character recognition technology, and stored in the storage unit 403 (S509). At this time, capturing, processing, and storing new external data may be performed only at the request of a user, or may be automatically performed whenever new external data is provided.
  • FIG. 6 is a diagram illustrating an example of a chat service providing screen according to the present invention. That is, as shown in the left side of FIG. 6 (a), after the user executes the corresponding application for a conversation service in a terminal such as a smart phone, the user ignites “Information about Kim Yu-na,” and information about Kim Yu-na is stored in the storage unit 403. ), The controller 400 accesses a specific portal site (eg, Naver) that has a search function and searches for “Kim Yu-na”. And as shown in the right of Figure 6 (a) provides a user with a web page with information about Kim Yu-na. At this time, the web page provided to the user is captured and processed and stored in the storage unit 403.
  • a specific portal site eg, Naver
  • the controller 400 searches whether the data necessary for the response of the new speech is stored in the storage 403. If the data necessary for the response is stored in the storage unit 403, the response data is generated and provided to the user based on the stored data. That is, when the user utters "Kim Yu-na key," as shown on the left side of Figure 6 (b), the control unit 400 performs a search for the "Kim Yu-na key" in the storage unit 403, the Kim Yu-na key If the information is stored in the storage unit 403, response data is generated based on this data and provided to the user. For example, as shown in the right screen of FIG.
  • “Kim Yu-na's key is 164” may be displayed on the screen, or may be output as a voice through a speaker. Or you can output the response data "Kim Yu-na's key is 164" through the screen and the speaker at the same time.
  • new external data is acquired through web search to generate response data, and at the same time, new external data is captured and processed and stored in the storage unit 403.
  • response data is generated using data stored in the storage unit 403.
  • FIG. 7 is a view showing another example of a chat service providing screen according to the present invention. That is, as shown in the left side of FIG. 7 (a), the user executes the corresponding application for a conversation service in a terminal such as a smart phone, and then utters a “tell me a native village telephone number”, and the information about the “local village telephone number”. If is not stored in the storage unit 403, the control unit 400 accesses a specific portal site (eg, Naver) having a search function and performs a search for the "local village telephone number”. Then, as shown in the right side of FIG. At this time, the web page provided to the user is captured and processed and stored in the storage unit 403.
  • a specific portal site eg, Naver
  • the address and telephone number of the local village are processed in text form and stored in the storage unit 403.
  • the location information of the local village may be stored in the storage unit 403 in the form of a text, or may be stored in the storage unit 403 in the form of an image.
  • the controller 400 may provide data necessary for the response of the new utterance. Search whether it is stored in the storage unit 403. In this case, since the data necessary for the response (that is, the local telephone number) is stored in the storage unit 403, the controller 400 reads the data necessary for the response from the storage unit 403 to generate the response data and then gives the user a message. to provide. That is, since the telephone number of the native village included in the external data acquired through the user's utterance is captured and processed and stored in the storage unit 403, the user generates a response data such as “I will call the native village”. After providing it to the local village, make a phone call. At this time, “I'll call local village” can be displayed on the screen, or it can be output through voice. Or you can output through the screen and speakers at the same time.
  • the present invention captures, processes, and stores new external data acquired through web search, which is convenient to use the data and can improve the performance of the conversation service provided to the user.
  • the present invention can be applied to all terminals capable of speech recognition and internet access.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 발명은 대화 서비스 제공 장치 및 방법이 개시된다. 대화 서비스 제공 장치는 사용자 음성을 인식하는 음성 인식부, 상기 인식된 사용자 음성을 이용하여 사용자 발화의 의도를 분석하는 음성 분석부, 상기 분석된 결과를 이용하여 응답에 필요한 데이터를 확인하고, 응답에 필요한 데이터를 가져올 위치의 결정과 제어를 수행하는 제어부, 상기 제어부의 제어에 따라 새로운 외부 데이터를 저장하고, 저장된 데이터 중 응답에 필요한 데이터를 제공하는 저장부, 상기 제어부의 제어에 따라 웹 검색을 수행하여 새로운 외부 데이터를 획득하고 응답에 필요한 데이터로 제공하는 외부 데이터 제공부, 및 상기 제어부의 제어에 따라 상기 저장부와 외부 데이터 제공부 중 하나로부터 응답에 필요한 데이터를 제공받아 응답 데이터를 생성하여 출력하는 응답 생성부를 포함한다.

Description

대화 서비스 제공 장치 및 방법
본 발명은 대화 서비스 제공 장치 및 방법에 관한 것으로서, 더욱 상세하게는 사용자 발화에 대해 좀 더 지능적으로 응답하도록 하는 장치 및 방법에 관한 것이다.
종래의 대화형 어플리케이션으로는 비서 어플리케이션, 지능형 대화 어플리케이션 등이 있다. 이러한 종래의 비서 어플리케이션이나 지능형 대화 어플리케이션은 사용자가 발화하면, 사용자 발화의 의도 분석 작업을 통하여 사용자가 원하는 바를 파악하고, 그에 대한 정보 제공, 특정 작업의 수행, 답변 생성 등을 통하여 응답을 생성하였다.
도 1은 이러한 종래의 대화 서비스 제공 방법의 일 실시예를 보인 흐름도이다.
즉, 사용자 발화가 있으면(S101), 사용자 발화의 의도를 분석한다(S102). 그리고 단계 S102에서 분석된 의도를 기반으로 웹 페이지 등에 접속하여 외부 데이터를 요청한다(S103). 이어 요청된 외부 데이터를 기반으로 응답을 생성하여 출력한다(S104).
도 2는 종래의 대화 서비스 제공 화면의 일 실시예를 보인 도면이다. 즉, 도 2의 (a)의 왼쪽에서와 같이 사용자가 스마트 폰과 같은 단말기에서 대화 서비스를 위해 해당 어플리케이션을 실행시킨 후 “김연아에 대해 알려줘”라고 발화하면, 단말기는 검색을 지원하는 포털 사이트(예, 네이버)에 접속하여 “김연아”에 대해 검색을 수행한다. 그리고 도 2의 (a)의 오른쪽에서와 같이 김연아에 대한 정보가 있는 웹 페이지를 디스플레이한다.
이 후 사용자가 질문 내용을 조금 바꿔 다시 발화하면, 단말기는 새로이 발화된 질문 내용을 기반으로 다시 처음부터 검색을 수행한다. 즉, 도 2의 (b)의 왼쪽에서와 같이 사용자가 “김연아 키 알려줘”라고 발화하면, 단말기는 포털 사이트에 다시 접속하여 “김연아 키”에 대해 검색을 수행한 후, 도 2의 (b)의 오른쪽에서와 같이 김연아에 대한 정보가 있는 웹 페이지를 디스플레이한다.
도 2의 (a), (b)에서 보는 바와 같이 사용자가 발화한 비슷한 질문에 대해 동일한 웹 페이지가 사용자에게 제공되지만, 단말기는 사용자가 발화를 할 때마다 매번 새로이 웹 검색을 수행한다.
이와 같이 사용자의 질문이 다르더라도 똑같은 웹 페이지가 제공되는 경우가 많다. 이 경우 사용자는 자신이 원하는 정보를 얻기 위해 웹 페이지 내에서 다시 해당 정보를 찾아야 하는 번거로움이 있다.
도 3은 종래의 대화 서비스 제공 화면의 다른 실시예를 보인 도면이다. 즉, 도 3의 (a)의 왼쪽에서와 같이 사용자가 스마트 폰과 같은 단말기에서 대화 서비스를 위해 해당 어플리케이션을 실행시킨 후 “토속촌 전화번호 알려줘”라고 발화를 하면, 단말기는 포털 사이트에 접속하여 “토속촌 전화 번호”에 대해 검색을 수행한다. 그리고 도 3의 (a)의 오른쪽에서와 같이 토속촌 전화 번호가 있는 웹 페이지를 디스플레이한다.
이 후 사용자가 질문 내용을 조금 바꿔 다시 발화하면, 예를 들어, 도 3의 (b)와 같이 “토속촌으로 전화 걸어줘”라고 발화하면, 단말기는 토속촌으로 저장된 전화 번호가 없으므로 “토속촌 전화 번호가 없습니다”라고 발화한다. 만일,“토속촌으로 전화 걸어줘”와 같은 기능을 수행하기 위해서는 사용자가 웹 페이지 상에서 본 토속촌의 전화 번호를 수동으로 단말기에 저장시켜야 한다.
이와 같이 종래의 대화 서비스 제공 방법은 웹 검색 등을 통하여 사용자에게 정보를 제공하는데, 이러한 정보는 1회성 정보이며, 재사용이 불가능 하였다. 또한 동일한 질문이나 비슷한 질문과 같이 동일한 웹 페이지로 제공할 수 있는 정보임에도 사용자 발화시마다 웹 검색을 하여 정보를 제공하였다. 이는 사용자로 하여금 더 많은 웹 페이지 접속을 유도하여 더 많은 데이터 사용 요금을 내도록 한다. 또한 웹 검색을 통해 제공한 웹 페이지 속에서 사용자가 원하는 답을 찾도록 하는 불편함이 있다.
본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 본 발명의 목적은 외부 데이터를 축적한 후 이용하도록 함으로써, 불필요한 웹 페이지 접속을 줄이고, 좀 더 사용자의 의도에 알맞은 응답을 생성하도록 하는 대화 서비스 제공 장치 및 방법을 제공함에 있다.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 대화 서비스 제공 장치는 사용자 음성을 인식하는 음성 인식부; 상기 음성 인식부에서 인식된 사용자 음성을 이용하여 사용자 발화의 의도를 분석하는 음성 분석부; 상기 음성 분석부에서 분석된 결과를 이용하여 응답에 필요한 데이터를 확인하고, 응답에 필요한 데이터를 가져올 위치의 결정과 제어를 수행하는 제어부; 상기 제어부의 제어에 따라 새로운 외부 데이터를 저장하고, 저장된 데이터 중 응답에 필요한 데이터를 제공하는 저장부; 상기 제어부의 제어에 따라 웹 검색을 수행하여 새로운 외부 데이터를 획득하고 응답에 필요한 데이터로 제공하는 외부 데이터 제공부; 및 상기 제어부의 제어에 따라 상기 저장부와 외부 데이터 제공부 중 하나로부터 응답에 필요한 데이터를 제공받아 응답 데이터를 생성하여 출력하는 응답 생성부를 포함하는 것을 일 실시예로 한다.
상기 제어부의 제어에 따라 웹 검색을 통해 획득한 새로운 외부 데이터를 캡쳐한 후 가공하여 상기 저장부에 저장하는 외부 데이터 캡쳐부를 더 포함하는 것을 일 실시예로 한다.
상기 외부 데이터 캡쳐부는 자동으로 새로운 외부 데이터를 캡쳐 및 가공하여 상기 저장부에 저장하는 것을 일 실시예로 한다.
상기 외부 데이터 캡쳐부는 사용자의 요청에 따라 새로운 외부 데이터를 캡쳐 및 가공하여 상기 저장부에 저장하는 것을 일 실시예로 한다.
상기 외부 데이터 캡쳐부는 새로운 외부 데이터와 상기 저장부에 저장된 데이터와의 중복 여부를 확인하고, 확인 결과에 따라 새로운 외부 데이터를 상기 저장부에 저장하는 것을 일 실시예로 한다.
상기 외부 데이터 캡쳐부는 캡쳐된 새로운 외부 데이터를 머신 비젼 기술과 문자 인식 기술 중 적어도 하나를 이용하여 가공하는 것을 일 실시예로 한다.
본 발명에 따른 저장부를 구비한 대화 서비스 제공 장치의 대화 서비스 제공 방법은 사용자 음성을 인식하고, 인식된 사용자 음성을 이용하여 사용자 발화의 의도를 분석하는 단계; 상기 단계에서 분석된 결과를 이용하여 응답에 필요한 데이터가 상기 저장부에 저장되어 있는지를 확인하는 단계; 상기 응답에 필요한 데이터가 상기 저장부에 저장되어 있으면, 상기 저장부로부터 상기 응답에 필요한 데이터를 추출하여 응답 데이터를 생성한 후 출력하는 단계; 상기 응답에 필요한 데이터가 상기 저장부에 저장되어 있지 않으면, 웹 검색을 통해 새로운 외부 데이터를 획득하여 응답 데이터로 출력하는 단계; 및 상기 새로운 외부 데이터를 상기 저장부에 저장하는 단계를 포함하여 이루어지는 것을 일 실시예로 한다.
상기 웹 검색을 통해 획득한 새로운 외부 데이터는 캡쳐 및 가공되어 상기 저장부에 저장되는 것을 일 실시예로 한다.
상기 새로운 외부 데이터는 자동으로 캡쳐 및 가공되어 상기 저장부에 저장되는 것을 일 실시예로 한다.
상기 새로운 외부 데이터는 사용자의 요청에 따라 캡쳐 및 가공되어 상기 저장부에 저장되는 것을 일 실시예로 한다.
상기 캡쳐된 새로운 외부 데이터는 머신 비젼 기술과 문자 인식 기술 중 적어도 하나를 이용하여 가공되는 것을 일 실시예로 한다.
본 발명은 외부 데이터, 예를 들어 웹 페이지 등으로부터 얻은 외부 데이터를 가공하여 축적한 후 이용함으로써, 사용자 발화에 대한 응답을 생성할 때 불필요한 웹 페이지 접속을 줄이고, 좀 더 사용자의 의도에 알맞은 응답을 생성하는 효과가 있다. 즉, 사용자 발화에 대해 축적된 데이터 내에서 응답이 가능할 경우 별도의 웹 페이지 연동 없이 답변을 수행함으로써, 웹 페이지 접속 횟수를 줄이는 효과가 있다. 특히 사용자가 특정 내용을 물을 경우 웹 페이지를 그대로 제공하는 것이 아니라 축적된 결과 내에서 그에 해당하는 정보만을 사용자에게 제공함으로써, 사용자는 보다 더 편리하게 정보를 얻을 수 있게 된다.
도 1은 종래의 대화 서비스 제공 방법의 일 실시예를 보인 흐름도
도 2의 (a),(b)는 종래의 대화 서비스 제공 화면의 일 예를 보인 도면
도 3의 (a),(b)는 종래의 대화 서비스 제공 화면의 다른 예를 보인 도면
도 4는 본 발명에 따른 대화 서비스 제공 장치의 일 실시예를 보인 구성 블록도
도 5는 본 발명에 따른 대화 서비스 제공 방법의 일 실시예를 보인 흐름도
도 6의 (a),(b)는 본 발명에 따른 대화 서비스 제공 화면의 일 예를 보인 도면
도 7의 (a),(b)는 본 발명에 따른 대화 서비스 제공 화면의 다른 예를 보인 도면
이하 상기의 목적을 구체적으로 실현할 수 있는 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 이때 도면에 도시되고 또 이것에 의해서 설명되는 본 발명의 구성과 작용은 적어도 하나의 실시예로서 설명되는 것이며, 이것에 의해서 본 발명의 기술적 사상과 그 핵심 구성 및 작용이 제한되지는 않는다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 함을 밝혀두고자 한다.
또한 본 발명에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 개념에 따른 실시 예들은 다양한 형태로 실시될 수 있으며 본 발명에 설명된 실시 예들에 한정되는 것으로 해석되어서는 아니된다.
본 발명의 개념에 따른 실시 예는 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있으므로 특정 실시예들을 도면에 예시하고 본 발명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예를 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
그리고 본 발명에서 제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
또한 발명 전체에서, 어떤 부분이 어떤 구성 요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 발명에 기재된 “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
본 발명은 외부 데이터를 축적하고 사용자 발화에 대한 응답을 생성할 때 축적된 외부 데이터를 이용하도록 함으로써, 웹 페이지 접속 횟수를 줄이면서 사용자 발화에 대해 효과적으로 응답을 하도록 하는데 있다.
도 4는 본 발명에 따른 대화 서비스 제공 장치의 일 실시예를 보인 구성 블록도로서, 제어부(400), 음성 인식부(401), 음성 분석부(402), 저장부(403), 외부 데이터 제공부(404), 응답 출력부(405), 및 외부 데이터 캡쳐부(406)를 포함할 수 있다.
본 발명에 따른 대화 서비스 제공 장치는 인터넷 접속이 가능한 단말기는 모두 가능하다. 예를 들면, 스마트 폰과 같은 모바일 폰, 가정용 유/무선 전화기, 스마트 패드, PMP(Portable Multimedia Player), 네비게이션, 디지털 카메라, UMPC(Ultra Mobile PC), 태블릿, 노트북, 데스크 탑, TV 등이 대화 서비스 제공 장치로 이용될 수 있다. 또한 본 발명에서 대화 서비스 제공 장치는 단말기와 혼용하여 사용하기로 한다.
이와 같이 구성된 도 4의 대화 서비스 제공 장치에서 사용자가 대화 서비스를 위해 해당 어플리케이션을 실행시킨 후 발화를 하면 음성 인식부(401)는 사용자의 음성을 인식한다. 상기 음성 인식부(401)에서 사용자의 음성이 인식되면, 상기 음성 분석부(402)는 인식된 사용자 음성을 분석하여 사용자 발화의 의도를 분석한다. 상기 음성 분석부(402)에서 분석된 결과는 상기 제어부(400)로 출력된다.
상기 제어부(400)는 CPU (Central Processing Unit)가 될 수 있으며, 롬(ROM), 램(RAM) 등의 저장 수단을 더 구비할 수도 있다. 상기 롬은 내장 메모리라 하기도 하며, 대화 서비스 제공 장치에서 탈착이 불가능하다.
상기 제어부(400)는 상기 음성 분석부(402)의 분석 결과를 이용하여 응답에 필요한 데이터를 파악하고, 응답에 필요한 데이터를 가져올 위치를 결정한다. 즉, 응답에 필요한 데이터로 단말기 자체 데이터를 사용할지, 웹 검색 등을 통해 외부 데이터를 새로이 획득하여 사용할지, 상기 저장부(403)에 기 저장된 (즉, 축적된) 외부 데이터를 사용할지를 결정한다. 이때 상기 제어부(400)는 단말기 자체 데이터, 새로운 외부 데이터, 및 축적된 외부 데이터 중 하나 이상의 데이터를 조합하여 응답에 필요한 데이터로 이용할 수 있다.
여기서 단말기 자체 데이터는 일 예로, 대화 서비스 제공 장치가 출시될 때 저장되어 있던 데이터이다. 그리고 상기 저장부(403)에 축적된 외부 데이터는 대화 서비스 제공 장치의 출시 이후에 사용자의 발화에 대한 응답으로 이용되었던 외부 데이터이다.
상기 단말기 자체 데이터는 상기 대화 서비스 제공 장치의 내장 메모리 (예, 롬)에 저장되어 있는 것을 일 실시예로 한다.
상기 저장부(403)는 SD나 CF 메모리와 같은 슬롯 형태로서 상기 대화 서비스 제공 장치에 착탈 가능한 것을 일 실시예로 한다. 상기 저장부(403)는 외장 메모리라 하기도 한다.
상기 새로운 외부 데이터는 사용자 발화에 대한 응답으로 사용하기 위해 웹 검색 등을 통해 획득한 데이터이다. 이때 새로운 외부 데이터는 상기 저장부(403)에 저장되는 것을 일 실시예로 한다. 즉, 상기 저장부(403)에 저장된 외부 데이터는 축적된 외부 데이터가 된다. 여기서 외부 데이터의 저장은 자동으로 수행될 수도 있고, 새로운 외부 데이터가 발생할 때마다 사용자에게 저장 유무를 묻고, 사용자의 요청이 있을 때에만 저장할 수도 있다. 또는 사용자가 카메라, 키 등을 이용하여 외부 데이터를 캡쳐하는 경우에만 저장부(403)에 저장할 수도 있다.
상기 저장부(403)에 축적된 외부 데이터는 저장부(403)의 용량에 연동되어 오래된 데이터부터 자동으로 삭제될 수도 있고, 사용자의 요청에 따라 삭제될 수도 있다.
상기 저장부(403)에 축적되는 외부 데이터는 이미지가 될 수도 있고, 텍스트가 될 수도 있으며, 이미지와 텍스트의 조합이 될 수도 있다. 일 예로, 대화 서비스 제공 장치에 장착된 카메라를 통해 화면에 디스플레이된 영상/사진/텍스트 등을 캡쳐하고, 이를 머신 비젼(machine vision) 기술 및 문자 인식 기술 등을 이용하여 가공한 후 저장부(403)에 저장할 수 있다.
이와 같이 상기 제어부(400)는 사용자 발화에 대한 응답에 필요한 데이터를 가져올 위치가 결정되면, 결정된 위치로부터 데이터를 가져와 응답을 생성한다.
이를 위해, 단말기 자체 데이터를 추출하기 위한 단말기 자체 데이터 추출 모듈, 상기 저장부(403)에 축적된 외부 데이터를 추출하기 위한 축적된 외부 데이터 추출 모듈, 웹 검색 등을 통해 외부 데이터를 요청하기 위한 새로운 외부 데이터 요청 모듈이 필요하다. 또한 단말기 자체 데이터, 축적된 외부 데이터, 웹 검색 등을 통해 얻은 새로운 외부 데이터 중 적어도 하나를 이용하여 사용자 발화에 대한 응답을 생성하는 응답 생성 모듈이 필요하다.
본 발명은 단말기 자체 데이터 추출 모듈, 축적된 외부 데이터 추출 모듈, 새로운 외부 데이터 요청 모듈, 및 응답 생성 모듈이 상기 제어부(400) 내부에 구비되는 것을 일 실시예로 한다. 이때 상기 단말기 자체 데이터 추출 모듈, 축적된 외부 데이터 추출 모듈, 새로운 외부 데이터 추출 모듈, 응답 생성 모듈은 각각 펌웨어, 소프트웨어, 하드웨어, 미들웨어 중 어느 하나로 이루어질 수도 있고, 또는 그러한 것 중 적어도 두개의 결합으로 이루어질 수도 있다. 본 발명은 다른 실시예로, 단말기 자체 데이터 추출 모듈, 축적된 외부 데이터 추출 모듈, 새로운 외부 데이터 요청 모듈, 및 응답 생성 모듈 중 적어도 하나는 제어부(400) 외부에 구비될 수도 있다.
상기 단말기 자체 데이터 추출 모듈은 내장 메모리(예, 롬)로부터 응답에 필요한 데이터를 추출하고, 상기 축적된 외부 데이터 추출 모듈은 외장 메모리(예, 저장부(403))로부터 응답에 필요한 데이터를 추출하는 것을 일 실시예로 한다.
상기 새로운 외부 데이터 요청 모듈은 외부 데이터 제공부(404)에 응답에 필요한 데이터를 요청한다. 상기 외부 데이터 제공부(404)는 검색 기능이 있는 특정 포털 사이트의 서버 등이 될 수 있다. 즉, 상기 외부 데이터 제공부(404)는 새로운 외부 데이터 요청 모듈에서 요청하는 데이터에 해당하는 웹 페이지를 검색하여 제어부(400) 및/또는 응답 출력부(405)로 제공한다. 이때 상기 제어부(400) 및/또는 응답 출력부(405)는 상기 외부 데이터 제공부(404)와 인터넷으로 연결되는 것을 일 실시예로 한다.
이와 같이 본 발명은 사용자의 발화가 수신되면, 그 발화로부터 사용자의 의도를 파악하고, 응답을 생성하기 위해 필요한 데이터를 검색한다. 이때, 정보는 3가지로 나눌 수 있는데, 대화 서비스 제공 장치의 내장 메모리(예, 롬)에 저장되어 있는 단말기 자체 데이터, 기존에 외부 데이터를 가공하여 외장 메모리(예, 저장부(403))에 저장해 둔 축적된 외부 데이터, 그리고 웹 연동 등을 이용하여 얻어야 하는 새로운 외부 데이터이다. 즉, 상기 제어부(400)는 응답을 생성하기 위해 필요한 데이터가 내부 메모리에 있는지, 외장 메모리에 있는지, 웹 페이지 연동이 필요한지를 확인하여, 내장 메모리, 외장 메모리, 웹 서버 중 적어도 하나로부터 응답을 생성하기 위해 필요한 데이터를 획득하다.
상기 제어부(400)에서 획득된 데이터를 이용하여 응답 데이터를 생성하고, 생성된 응답 데이터를 상기 응답 출력부(405)를 통해 사용자에게 제공한다. 일 예로, 응답 데이터는 웹 페이지 자체일 수도 있고, 가공되어 축적된 외부 데이터의 일부가 될 수도 있다.
상기 응답 출력부(405)는 스피커와 화면으로 구성되는 것을 일 실시예로 한다. 그리고 응답 데이터는 스피커와 화면 중 적어도 하나를 통해 사용자에게 제공된다.
한편, 새로운 외부 데이터 요청 모듈을 통해 얻어진 새로운 외부 데이터 예를 들어, 웹 페이지는 외부 데이터 캡쳐부(406)에서 캡쳐 수단(예, 카메라)에 의해 캡쳐되고, 캡쳐된 외부 데이터는 머신 비젼/문자 인식 기술에 의해 가공된 후 상기 저장부(403)에 저장된다.
이때 중복 데이터의 저장으로 인해 상기 저장부(403)의 용량이 낭비되는 것을 방지하기 위해, 상기 외부 데이터 캡쳐부(406)는 가공된 외부 데이터가 상기 저장부(403)에 이미 저장되어 있는지를 확인하고, 저장되어 있지 않는 경우에만 가공된 외부 데이터를 상기 저장부(403)에 저장하는 것을 일 실시예로 한다.
이후 사용자의 발화가 입력되고, 사용자의 발화에 대한 응답 데이터를 생성하기 위해 필요한 데이터가 상기 저장부(403)에 저장되어 있으면, 웹 연동 등을 통해 외부로부터 새로운 데이터를 다시 요청하는 것이 아니라 상기 저장부(403)에 가공되어 저장된 데이터를 이용하여 응답 데이터를 생성한다. 이렇게 함으로써, 웹 페이지를 여는 횟수를 줄여 사용자의 데이터 요금을 절감시키고, 또한 가공된 데이터를 사용함으로써 웹 페이지를 띄워주는 것보다 좀 더 사용자의 의도에 맞는 응답을 제공할 수 있게 된다.
도 5는 본 발명에 따른 대화 서비스 제공 방법의 일 실시예를 보인 흐름도이다. 즉, 사용자의 발화가 입력되면(S501), 사용자의 발화로부터 사용자의 의도를 분석한다(S502). 그리고 분석된 사용자 의도를 기반으로 응답에 필요한 데이터를 파악하고, 파악된 데이터가 상기 저장부(403)에 저장되어 있는지를 검색한다(S504). 이때 파악된 데이터가 단말기 자체 데이터에 포함되어 있는지를 동시에 또는 순차적으로 검색할 수도 있다. 단말기 자체 데이터를 이용하는 방법은 전술한 내용을 참조하기로 하고, 여기서는 상세 설명을 생략하기로 한다.
상기 단계 S504에서 응답에 필요한 데이터가 상기 저장부(403)에 저장되어 있다고 확인되면, 상기 저장부(403)에서 응답에 필요한 데이터를 추출하고, 추출된 데이터를 기반으로 응답 데이터를 생성하여 응답 출력부(405)의 화면과 스피커 중 적어도 하나로 출력한다(S505).
한편 상기 단계 S504에서 응답에 필요한 데이터가 상기 저장부(403)에 저장되어 있지 않다고 확인되면, 상기 외부 데이터 제공부(404)에 새로운 외부 데이터를 요청한다(S506).
새로운 외부 데이터의 요청에 따라 상기 외부 데이터 제공부(404)에서 새로운 외부 데이터를 제공하면, 이 데이터를 기반으로 응답 데이터를 생성하여 응답 출력부의 화면과 스피커 중 적어도 하나로 출력한다(S507).
그리고 새로운 외부 데이터는 캡쳐 수단을 이용하여 캡쳐한 후(S508), 머신 비젼/문자 인식 기술에 의해 가공하여 상기 저장부(403)에 저장한다(S509). 이때 새로운 외부 데이터의 캡쳐, 가공, 및 저장은 사용자의 요청이 있을때에만 수행될 수도 있고, 새로운 외부 데이터가 제공될 때마다 자동으로 수행될 수도 있다.
도 6은 본 발명에 따른 대화 서비스 제공 화면의 일 예를 보인 도면이다. 즉, 도 6의 (a)의 왼쪽에서와 같이 사용자가 스마트 폰과 같은 단말기에서 대화 서비스를 위해 해당 어플리케이션을 실행시킨 후 “김연아에 대해 알려줘”라고 발화하고, 김연아에 대한 정보가 저장부(403)에 저장되어 있지 않으면, 상기 제어부(400)는 검색 기능이 있는 특정 포털 사이트(예, 네이버)에 접속하여 “김연아”에 대해 검색을 수행한다. 그리고 도 6의 (a)의 오른쪽에서와 같이 김연아에 대한 정보가 있는 웹 페이지를 사용자에게 제공한다. 이때 사용자에게 제공된 웹 페이지는 캡쳐 및 가공되어 저장부(403)에 저장된다.
이 후 사용자가 질문 내용을 조금 바꿔 다시 발화하면, 상기 제어부(400)는 새로운 발화의 응답에 필요한 데이터가 저장부(403)에 저장되어 있는지를 검색한다. 그리고 저장부(403)에 응답에 필요한 데이터가 저장되어 있으면, 저장된 데이터를 기반으로 응답 데이터를 생성하여 사용자에게 제공한다. 즉, 도 6의 (b)의 왼쪽에서와 같이 사용자가 “김연아 키 알려줘”라고 발화하면, 제어부(400)는 상기 저장부(403)에서 “김연아 키”에 대해 검색을 수행하고, 김연아 키에 대한 정보가 저장부(403)에 저장되어 있으면 이 데이터를 기반으로 응답 데이터를 생성하여 사용자에게 제공한다. 예를 들어, 도 6의 (b)의 오른쪽 화면에서와 같이 “김연아의 키는 164입니다”라고 화면에 표시할 수도 있고, 스피커를 통해 음성으로 출력할 수도 있다. 또는 화면과 스피커를 통해 동시에 “김연아의 키는 164입니다”라는 응답 데이터를 출력할 수도 있다.
이와 같이 도 6의 (a)에 대응하는 첫 번째 사용자 질문에서는 웹 검색을 통해 새로운 외부 데이터를 획득하여 응답 데이터를 생성하고, 동시에 새로운 외부 데이터를 캡쳐 및 가공하여 저장부(403)에 저장한다. 그리고 도 6의 (b)에 대응하는 두 번째 사용자 질문에서는 저장부(403)에 저장된 데이터를 이용하여 응답 데이터를 생성한다. 이렇게 함으로써, 사용자가 원하는 답변만을 제공할 수 있으며, 또한 웹 페이지를 검색하는 횟수도 2회에서 1회를 줄일 수 있어 사용자의 데이터 사용 요금도 절감할 수 있다.
도 7은 본 발명에 따른 대화 서비스 제공 화면의 다른 예를 보인 도면이다. 즉, 도 7의 (a)의 왼쪽에서와 같이 사용자가 스마트 폰과 같은 단말기에서 대화 서비스를 위해 해당 어플리케이션을 실행시킨 후 “토속촌 전화번호 알려줘”라고 발화를 하고, “토속촌 전화 번호”에 대한 정보가 저장부(403)에 저장되어 있지 않으면, 상기 제어부(400)는 검색 기능이 있는 특정 포털 사이트(예, 네이버)에 접속하여 “토속촌 전화 번호”에 대해 검색을 수행한다. 그리고 도 7의 (a)의 오른쪽에서와 같이 토속촌의 전화 번호가 있는 웹 페이지를 사용자에게 제공한다. 이때 사용자에게 제공된 웹 페이지는 캡쳐 및 가공되어 저장부(403)에 저장된다. 예를 들어, 토속촌의 주소, 전화 번호가 텍스트 형태로 가공되어 저장부(403)에 저장된다. 또한 토속촌의 위치 정보가 텍스트 형태로 저장부(403)에 저장될 수도 있고, 이미지 형태로 저장부(403)에 저장될 수도 있다.
이 후 사용자가 질문 내용을 조금 바꿔 다시 발화하면, 예를 들어, 도 7의 (b)와 같이 “토속촌으로 전화 걸어줘”라고 발화하면, 상기 제어부(400)는 새로운 발화의 응답에 필요한 데이터가 저장부(403)에 저장되어 있는지를 검색한다. 이때 응답에 필요한 데이터(즉, 토속촌 전화 번호)가 저장부(403)에 저장되어 있으므로, 상기 제어부(400)는 저장부(403)로부터 응답에 필요한 데이터를 읽어 와 응답 데이터를 생성한 후 사용자에게 제공한다. 즉, 이전에 사용자 발화를 통해 획득한 외부 데이터에 포함된 토속촌의 전화 번호가 캡쳐 및 가공되어 상기 저장부(403)에 저장되어 있기 때문에, “토속촌으로 전화하겠습니다”와 같은 응답 데이터를 생성하여 사용자에게 제공한 후 토속촌으로 전화 걸기를 수행한다. 이때 “토속촌으로 전화하겠습니다”는 화면에 표시할 수도 있고, 스피커를 통해 음성으로 출력할 수도 있다. 또는 화면과 스피커를 통해 동시에 출력할 수도 있다.
이와 같이 본 발명은 웹 검색을 통해 획득한 새로운 외부 데이터를 캡쳐 및 가공하여 저장하기 때문에 데이터에 대한 사용이 편리할 뿐만 아니라, 사용자에게 제공하는 대화 서비스의 성능을 높일 수 있다.
지금까지 설명한 본 발명은 상술한 실시예에 한정되지 않으며, 첨부된 청구범위에서 알 수 있는 바와 같이 본 발명이 속한 분야의 통상의 지식을 가지 자에 의해 변형이 가능하고 이러한 변형은 본 발명의 범위에 속한다.
전술한 바와 같이, 상기 발명의 실시를 위한 최선의 형태에서, 관련된 사항을 기술하였다.
전술한 바와 같이, 본 발명은 음성 인식이 가능하고, 인터넷 접속이 가능한 단말기에는 모두 적용될 수 있다. 

Claims (15)

  1. 사용자 음성을 인식하는 음성 인식부;
    상기 음성 인식부에서 인식된 사용자 음성을 이용하여 사용자 발화의 의도를 분석하는 음성 분석부;
    상기 음성 분석부에서 분석된 결과를 이용하여 응답에 필요한 데이터를 확인하고, 응답에 필요한 데이터를 가져올 위치의 결정과 제어를 수행하는 제어부;
    상기 제어부의 제어에 따라 새로운 외부 데이터를 저장하고, 저장된 데이터 중 응답에 필요한 데이터를 제공하는 저장부;
    상기 제어부의 제어에 따라 웹 검색을 수행하여 새로운 외부 데이터를 획득하고 응답에 필요한 데이터로 제공하는 외부 데이터 제공부; 및
    상기 제어부의 제어에 따라 상기 저장부와 외부 데이터 제공부 중 하나로부터 응답에 필요한 데이터를 제공받아 응답 데이터를 생성하여 출력하는 응답 생성부를 포함하여 구성되는 대화 서비스 제공 장치.
  2. 제 1 항에 있어서,
    상기 제어부의 제어에 따라 웹 검색을 통해 획득한 새로운 외부 데이터를 캡쳐한 후 가공하여 상기 저장부에 저장하는 외부 데이터 캡쳐부를 더 포함하는 것을 특징으로 하는 대화 서비스 제공 장치.
  3. 제 2 항에 있어서, 상기 외부 데이터 캡쳐부는
    자동으로 새로운 외부 데이터를 캡쳐 및 가공하여 상기 저장부에 저장하는 것을 특징으로 하는 대화 서비스 제공 장치.
  4. 제 2 항에 있어서, 상기 외부 데이터 캡쳐부는
    사용자의 요청에 따라 새로운 외부 데이터를 캡쳐 및 가공하여 상기 저장부에 저장하는 것을 특징으로 하는 대화 서비스 제공 장치.
  5. 제 2 항에 있어서, 상기 외부 데이터 캡쳐부는
    새로운 외부 데이터와 상기 저장부에 저장된 데이터와의 중복 여부를 확인하고, 확인 결과에 따라 새로운 외부 데이터를 상기 저장부에 저장하는 것을 특징으로 하는 대화 서비스 제공 장치.
  6. 제 2 항에 있어서,
    상기 외부 데이터 캡쳐부는 캡쳐된 새로운 외부 데이터를 머신 비젼 기술과 문자 인식 기술 중 적어도 하나를 이용하여 가공하는 것을 특징으로 하는 대화 서비스 제공 장치.
  7. 제 1 항에 있어서, 상기 응답 생성부는
    상기 응답 데이터를 스피커와 화면 중 적어도 하나로 출력하는 것을 특징으로 하는 대화 서비스 제공 장치.
  8. 제 1 항에 있어서, 상기 응답 생성부는
    상기 응답에 필요한 데이터가 상기 외부 데이터 제공부에서 제공되면, 상기 응답 데이터를 웹 페이지 형태로 출력하는 것을 특징으로 하는 대화 서비스 제공 장치.
  9. 제 1 항에 있어서, 상기 응답 생성부는
    상기 응답에 필요한 데이터가 상기 저장부에서 제공되면, 상기 응답 데이터를 텍스트, 이미지, 음성 중 적어도 하나로 출력하는 것을 특징으로 하는 대화 서비스 제공 장치.
  10. 저장부를 구비한 대화 서비스 제공 장치의 대화 서비스 제공 방법에 있어서,
    사용자 음성을 인식하고, 인식된 사용자 음성을 이용하여 사용자 발화의 의도를 분석하는 단계;
    상기 단계에서 분석된 결과를 이용하여 응답에 필요한 데이터가 상기 저장부에 저장되어 있는지를 확인하는 단계;
    상기 응답에 필요한 데이터가 상기 저장부에 저장되어 있으면, 상기 저장부로부터 상기 응답에 필요한 데이터를 추출하여 응답 데이터를 생성한 후 출력하는 단계;
    상기 응답에 필요한 데이터가 상기 저장부에 저장되어 있지 않으면, 웹 검색을 통해 새로운 외부 데이터를 획득하여 응답 데이터로 출력하는 단계; 및
    상기 새로운 외부 데이터를 상기 저장부에 저장하는 단계를 포함하여 이루어지는 것을 특징으로 하는 대화 서비스 제공 방법.
  11. 제 10 항에 있어서,
    상기 웹 검색을 통해 획득한 새로운 외부 데이터는 캡쳐 및 가공되어 상기 저장부에 저장되는 것을 특징으로 하는 대화 서비스 제공 방법.
  12. 제 11 항에 있어서,
    상기 새로운 외부 데이터는 자동으로 캡쳐 및 가공되어 상기 저장부에 저장되는 것을 특징으로 하는 대화 서비스 제공 방법.
  13. 제 11 항에 있어서,
    상기 새로운 외부 데이터는 사용자의 요청에 따라 캡쳐 및 가공되어 상기 저장부에 저장되는 것을 특징으로 하는 대화 서비스 제공 방법.
  14. 제 11 항에 있어서,
    상기 새로운 외부 데이터와 상기 저장부에 저장된 데이터와의 중복 여부를 확인하는 단계; 및
    상기 확인 결과에 따라 새로운 외부 데이터를 상기 저장부에 저장하는 단계를 더 포함하는 것을 특징으로 하는 대화 서비스 제공 방법.
  15. 제 11 항에 있어서,
    상기 캡쳐된 새로운 외부 데이터는 머신 비젼 기술과 문자 인식 기술 중 적어도 하나를 이용하여 가공되는 것을 특징으로 하는 대화 서비스 제공 방법.
      
PCT/KR2013/012409 2013-12-31 2013-12-31 대화 서비스 제공 장치 및 방법 WO2015102124A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/012409 WO2015102124A1 (ko) 2013-12-31 2013-12-31 대화 서비스 제공 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2013/012409 WO2015102124A1 (ko) 2013-12-31 2013-12-31 대화 서비스 제공 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2015102124A1 true WO2015102124A1 (ko) 2015-07-09

Family

ID=53493462

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/012409 WO2015102124A1 (ko) 2013-12-31 2013-12-31 대화 서비스 제공 장치 및 방법

Country Status (1)

Country Link
WO (1) WO2015102124A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199483A1 (ko) * 2017-04-27 2018-11-01 삼성전자 주식회사 지능형 에이전트 관리 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020010226A (ko) * 2000-07-28 2002-02-04 정명수 자연어로 입력된 사용자의 질문을 인공지능 시스템이분석하여 인터넷에 존재하는 정보를 효과적으로 제시하는서비스에 대한방법
KR20040013097A (ko) * 2001-07-04 2004-02-11 코기줌 인터메디아 아게 카테고리 기반의 확장가능한 대화식 문서 검색 시스템
KR20070058953A (ko) * 2005-12-05 2007-06-11 한국전자통신연구원 음성 대화 시스템에서 답변 문장 생성 방법 및 장치
KR20120135449A (ko) * 2011-06-02 2012-12-14 포항공과대학교 산학협력단 웹을 이용한 정보 검색 방법 및 이를 사용하는 음성 대화 방법
KR20130016655A (ko) * 2011-08-08 2013-02-18 삼성전자주식회사 휴대용 단말기에서 화면 캡쳐를 위한 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020010226A (ko) * 2000-07-28 2002-02-04 정명수 자연어로 입력된 사용자의 질문을 인공지능 시스템이분석하여 인터넷에 존재하는 정보를 효과적으로 제시하는서비스에 대한방법
KR20040013097A (ko) * 2001-07-04 2004-02-11 코기줌 인터메디아 아게 카테고리 기반의 확장가능한 대화식 문서 검색 시스템
KR20070058953A (ko) * 2005-12-05 2007-06-11 한국전자통신연구원 음성 대화 시스템에서 답변 문장 생성 방법 및 장치
KR20120135449A (ko) * 2011-06-02 2012-12-14 포항공과대학교 산학협력단 웹을 이용한 정보 검색 방법 및 이를 사용하는 음성 대화 방법
KR20130016655A (ko) * 2011-08-08 2013-02-18 삼성전자주식회사 휴대용 단말기에서 화면 캡쳐를 위한 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018199483A1 (ko) * 2017-04-27 2018-11-01 삼성전자 주식회사 지능형 에이전트 관리 방법 및 장치
US11301266B2 (en) 2017-04-27 2022-04-12 Samsung Electronics Co., Ltd. Method and apparatus for managing intelligent agent

Similar Documents

Publication Publication Date Title
WO2011053010A2 (en) Apparatus and method for synchronizing e-book content with video content and system thereof
WO2015053541A1 (ko) 전자 장치에서 연관 정보 표시 방법 및 장치
WO2011081379A2 (en) Display device and control method thereof
US20190342108A1 (en) Host a conference call
WO2014119975A1 (en) Method and system for sharing part of web page
WO2014190742A1 (en) Method, device and system for identity verification
WO2013070024A1 (en) Method and apparatus for designating entire area using partial area touch in a portable equipment
WO2015009066A1 (en) Method for operating conversation service based on messenger, user interface and electronic device using the same
WO2014175520A1 (en) Display apparatus for providing recommendation information and method thereof
WO2018004021A1 (ko) 전자 문서의 공동 편집을 위한 협업 지원 장치 및 그 동작 방법
CN111222063A (zh) 富文本渲染方法、装置、电子设备及存储介质
WO2015041434A1 (ko) 다국어 메시지 번역 시스템 및 그 방법
WO2015102125A1 (ko) 문자형 대화 시스템 및 방법
US20160105620A1 (en) Methods, apparatus, and terminal devices of image processing
WO2013048184A1 (ko) 화면 스크랩방법 및 스크랩 관리서버
WO2014061905A1 (ko) 동작 및 음성 기반 북마크 제공 시스템 과 그 방법
CN110970011A (zh) 图片处理方法、装置、设备及计算机可读存储介质
WO2016175443A1 (ko) 음성 인식을 이용한 정보 검색 방법 및 장치
WO2013125915A1 (en) Method and apparatus for processing information of image including a face
WO2015102124A1 (ko) 대화 서비스 제공 장치 및 방법
WO2011021906A2 (en) Method and apparatus for requesting data, and method and apparatus for obtaining data
EP3555883A1 (en) Security enhanced speech recognition method and device
WO2020138909A1 (ko) 콘텐트 공유 방법 및 그 전자 장치
WO2017213454A1 (ko) 사용자 서버를 이용한 파일 제어 시스템 및 방법
CN113194279B (zh) 网络会议的记录方法、计算机可读存储介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13900768

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13900768

Country of ref document: EP

Kind code of ref document: A1