KR101891492B1 - 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 - Google Patents

답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 Download PDF

Info

Publication number
KR101891492B1
KR101891492B1 KR1020170145692A KR20170145692A KR101891492B1 KR 101891492 B1 KR101891492 B1 KR 101891492B1 KR 1020170145692 A KR1020170145692 A KR 1020170145692A KR 20170145692 A KR20170145692 A KR 20170145692A KR 101891492 B1 KR101891492 B1 KR 101891492B1
Authority
KR
South Korea
Prior art keywords
user
natural language
response
present
input
Prior art date
Application number
KR1020170145692A
Other languages
English (en)
Inventor
장세영
설재호
윤도상
Original Assignee
주식회사 머니브레인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 머니브레인 filed Critical 주식회사 머니브레인
Priority to KR1020170145692A priority Critical patent/KR101891492B1/ko
Priority to CN201880085479.XA priority patent/CN111542814A/zh
Priority to US16/761,413 priority patent/US20210004538A1/en
Priority to PCT/KR2018/005936 priority patent/WO2019088384A1/ko
Application granted granted Critical
Publication of KR101891492B1 publication Critical patent/KR101891492B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • G06F17/30654
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F17/2785
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

대화형 에이전트 시스템에 의해 구현되는 자연어 대화 제공 방법이 제공된다. 본 발명에 따른 자연어 대화 제공 방법은, 자연어 입력을 수신하는 단계; 자연어 입력을 처리하여, 자연어 입력에 기초한 사용자 의도(intent)를 결정하는 단계; 및 자연어 입력 및 결정된 사용자 의도 중 적어도 하나에 기초하여, 자연어 입력에 대응한 자연어 응답을 제공하는 단계를 포함한다. 본 발명의 자연어 응답을 제공하는 단계는, 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계를 포함한다.

Description

답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체{METHOD AND COMPUTER DEVICE FOR PROVIDING CONTEXTUAL NATURAL LANGUAGE CONVERSATION BY MODIFYING PLAIN RESPONSE, AND COMPUTER READABLE RECORDING MEDIUM}
본 발명은, 대화형 에이전트 시스템에 관한 것이며, 보다 구체적으로는 사람들 간의 대화와 더욱 유사한 형태의 감성적이고 자연스러운 인터랙션을 제공할 수 있는 대화형 에이전트 시스템에 관한 것이다.
근래, 인공지능 분야, 특히 자연어 이해 분야의 기술 발전에 따라, 전통적인 기계 중심의 명령 입출력 방식에 따른 기계 조작에서 벗어나, 사용자로 하여금, 보다 사람 친화적인 방식, 예컨대 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화 방식으로 기계를 조작하고 기계로부터 원하는 서비스를 얻을 수 있도록 하는 대화형 에이전트 시스템의 개발 및 활용이 점차 늘어나고 있다. 그에 따라, 온라인 상담 센터나 온라인 쇼핑몰 등을 비롯한 (그러나 이에 한정되지 않은 더 많은) 다양한 분야에서, 사용자는 음성 및/또는 텍스트 형태의 자연어 대화를 통해, 대화형 에이전트 시스템에게 원하는 서비스를 요청하고 그로부터 원하는 결과를 얻을 수 있게 되었다.
점점 더 많은 분야에서 대화형 에이전트 시스템이 활용됨에 따라, 이제는 단순히 사용자의 의도를 해석하고 그에 부합하는 결과를 제공하는 것에 국한한 것이 아니라, 실제 사람들 간의 대화와 더욱 유사한 형태의 감성적이고 자연스러운 인터랙션까지 제공할 수 있는 대화형 에이전트 시스템에 관한 요구가 늘어나고 있다. 또, 사물 인터넷 시대의 도래 및 그에 따른 사람-기계 사이의 대화형 인터랙션의 필요성 증가에 따라, 감성적이고 자연스러운 대화를 제공할 수 있는 대화형 에이전트 시스템에 관한 요구는 더욱 더 늘어나고 있다.
대화형 에이전트 시스템은, 사용자와 자연어 대화를 주고 받음에 있어서, 통상적으로, 사용자로부터 한 문장의 입력이 있을 때마다 즉각적으로 그에 대한 한 번의 실질적 답변을 제공한다. 그런데, 사용자로부터의 한 문장의 입력이 있더라도 실질적 답변을 하기에는 아직 충분한 정보가 포함되지 않아서 그 시점에 답변이 제공될 경우 오히려 자연스러운 대화를 해치는 경우가 많다. 또한, 실제 사람들 간의 대화를 살펴보면, 사람은, 대화형 에이전트 시스템과 같이 한 번의 문장 입력에 대해 한 번의 실질적 답변이라고 하는 형태를 고수하기보다는, 대화 중에 실질적 답변이 기대되는 적절한 시점에 이르렀는지 여부를 판단하면서, 그 적절한 시점에 이르기까지 상대방이 하나 또는 여러 개의 문장을 연달아 이야기하도록 아무 말 없이 기다리거나 단순히 상대방의 말을 듣고 있음을 알리는 간단한 간투사 정도를 말하는 경우가 많다.
그러므로, 현재 사용자로부터 한 문장의 입력이 있을 때마다 즉각적으로 그에 대한 한번의 실질적 답변을 제공하려는 대화형 에이전트 시스템의 응답 방식은, 실제 사람들 간의 대화에 비추어 자연스럽지 않은 면이 있다.
또한, 실제 사람들 간의 대화를 살펴보면, 사람은, 동일한 화자가 상황에 따라서 다른 어투, 단어, 표현 등을 사용하는 것을 관찰할 수 있다. 상황이란, 대화 상대방, 대화가 일어나는 시간, 장소일 수 있고 대화의 주제가 어떤 것이냐에 따라서도 어투나 표현을 달리하게 된다.
본 발명의 일 특징에 의하면, 대화형 에이전트 시스템에 의해 구현되는 자연어 대화 제공 방법이 제공된다. 본 발명에 따른 자연어 대화 제공 방법은, 자연어 입력을 수신하는 단계; 자연어 입력을 처리하여, 자연어 입력에 기초한 사용자 의도(intent)를 결정하는 단계; 및 자연어 입력 및 결정된 사용자 의도 중 적어도 하나에 기초하여, 자연어 입력에 대응한 자연어 응답을 제공하는 단계를 포함한다. 본 발명의 자연어 응답을 제공하는 단계는, 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 의하면, 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계는 상기 자연어 응답을 분석하여 상기 자연어 응답과 연관되어 미리 정해진 응답 변환 데이터베이스에 기초하여 상기 자연어 응답을 변환하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 의하면, 상기 응답 변환 데이터베이스는, 사용자별 특징 데이터를 저장하고 있는 사용자 데이터베이스 - 상기 사용자별 특징 데이터는, 해당 사용자의 이전 대화 기록, 발음 특징, 어휘 선호도, 소재지, 설정 언어, 설정 대화모드, 간투사 활용 빈도, 선호 간투사 및 선호 상용구 중 적어도 하나의 정보를 포함함 - 와, 어휘 데이터베이스 - 상기 어휘 데이터베이스는, 화자의 성별, 연령대, 출신 지역, 및 성격 중 어느 하나의 기준에 맞추어 미리 설정해 둔, 사용 어휘, 줄임말, 유행어, 단어 사이의 공백 개수 및 비표준어 중 적어도 하나의 정보를 포함함 - 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 의하면, 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계는 사용자의 말하는 특성을 판단하는 단계를 더 포함하고, 사용자의 말하는 특성을 판단하는 단계는 상기 사용자의 정보에 기초하여 또는 사용자 미리 정한 대화모드를 선택하는 단계 - 상기 대화 모드는 비서 모드, 동성친구 모드, 이성친구 모드, 부하 모드, 일반 모드 중 하나 임 -, 를 더 포함할 수 있다.
본 발명의 일 실시예에 의하면, 사용자의 말하는 특성을 판단하는 단계는 상기 사용자의 정보를 입력 받거나, 상기 사용자의 이전 자연어 입력을 분석함으로써 사용자의 정보를 판정하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 의하면, 사용자의 말하는 특성을 판단하는 단계는 상기 자연어 입력이 발생한 시간과 장소에 따라 상기 사용자의 감정 정보를 판정하는 단계를 포함하고, 상기 자연어 입력이 발생한 시간이 낮이거나 상기 자연어 입력이 발생한 장소가 회사인 경우, 상기 사용자의 감정 정보를 이성적으로 판정하고, 상기 자연어 입력이 발생한 시간이 밤이거나 상기 자연어 입력이 발생한 장소가 집인 경우, 상기 사용자의 감정 정보를 감성적으로 판정하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 의하면, 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계는 상기 응답 변환 데이터베이스를 기초로, 상기 자연어 응답에 포함된 적어도 하나의 단어를 변경하거나, 상기 자연어 응답에 포함된 적어도 하나의 단어와 연관되는 어휘, 간투사, 표시 중 적어도 하나를 추가하거나, 상기 자연어 응답을 전체로서 변경하는 단계를 포함할 수 있다.
본 발명의 다른 특징에 의하면, 하나 이상의 명령어를 포함하는 컴퓨터 판독 가능 기록 매체로서, 하나 이상의 명령어는, 컴퓨터에 위해 실행되는 경우, 컴퓨터로 하여금, 전술한 방법들 중 어느 하나의 방법을 수행하게 하는, 컴퓨터 판독 가능 기록 매체가 제공된다.
본 발명의 다른 특징에 의하면, 자연어 대화를 제공하도록 구성된 컴퓨터 장치로서, 자연어 입력을 수신하도록 구성된 사용자 입력 수신 모듈; 상기 자연어 입력을 처리하여, 상기 자연어 입력에 기초한 사용자 의도(intent)를 결정하도록 구성된 입력 해석 모듈; 및 상기 자연어 입력 및 상기 결정된 사용자 의도 중 적어도 하나에 기초하여, 상기 자연어 입력에 대응한 자연어 응답을 제공하도록 구성된 응답 제공 모듈이 제공된다. 본 발명의 응답 제공 모듈은, 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하도록 구성될 수 있다.
본 발명의 일 실시예에 의하면, 컴퓨터 장치는, 사용자 단말 또는 상기 사용자 단말과 통신 가능하게 결합된 서버를 포함할 수 있다.
사람들 간의 대화와 유사한 형태의 감성적이고 자연스러운 인터랙션을 제공할 수 있는 대화형 에이전트 시스템을 제공할 수 있다.
도 1은, 본 발명의 일 실시예에 따라, 대화형 에이전트 시스템이 구현될 수 있는 시스템 환경을 개략적으로 도시한 도면이다.
도 2는, 본 발명의 일 실시예에 따른, 도 1의 사용자 단말(102)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 3은, 본 발명의 일 실시예에 따른, 도 1의 대화형 에이전트 서버(106)의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 4는, 본 발명의 일 실시예에 따른, 대화형 에이전트 시스템의 기능적 구성을 개략적으로 도시한 기능 블록도이다.
도 5는, 본 발명의 일 실시예에 따른, 대화형 에이전트 시스템에 의해 수행되는 예시적 동작 흐름을 보여주는 흐름도이다.
도 6은, 본 발명의 일 실시예에 따른, 사용자와 대화형 에이전트 시스템 간의 대화의 일 예를 보여주는 도면이다.
도 7은, 본 발명의 다른 실시예에 따른, 사용자와 대화형 에이전트 시스템 간의 대화의 일 예를 보여주는 도면이다.
이하, 첨부 도면을 참조하여 본 발명의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 발명의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 발명의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.
본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 발명을 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.
본 발명의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.
본 발명의 실시예에 있어서 '대화형 에이전트 시스템'은, 사용자와의 사이에서 음성 및/또는 텍스트 형태의 자연어를 매개로 한 대화형 인터랙션을 통해, 사용자로부터 입력되는 자연어 입력(예컨대, 자연어로 된 사용자로부터의 명령, 진술, 요청, 질문 등)을 수신 및 해석하여 사용자의 의도(intent)를 알아내고 그 알아낸 사용자의 의도에 기초하여 필요한 동작을 적절히 수행할 수 있는 임의의 정보 처리 시스템을 지칭할 수 있으며, 특정 형태로 제한되는 것은 아니다. 본 발명의 실시예에 있어서, '대화형 에이전트 시스템'에 의해 수행되는 동작은, 예컨대 대화 응답의 제공을 포함할 수 있다. 본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 수행되는 동작은, 예컨대 태스크의 수행을 더 포함할 수 있다. 본 발명의 실시예에 있어서, '대화형 에이전트 시스템'에 의해 제공되는 대화 응답은 시각, 청각 및/또는 촉각 형태(예컨대, 음성, 음향, 텍스트, 비디오, 이미지, 기호, 이모티콘, 하이퍼링크, 애니메이션, 각종 노티스, 모션, 햅틱 피드백 등을 포함할 수 있으며, 이로써 제한되는 것은 아님) 등 다양한 형태로써 제공될 수 있음을 알아야 한다. 본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 수행되는 태스크는, 예컨대 정보의 검색, 물품 구매, 메시지 작성, 이메일 작성, 전화 걸기, 음악 재생, 사진 촬영, 사용자 위치 탐색, 지도/내비게이션 서비스 등을 비롯한 각종 다양한 형태의 태스크(다만, 예시일 뿐이며 이로써 제한되는 것은 아님)를 포함할 수 있다.
본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 제공되는 대화 응답은 '실질적 답변'일 수 있다. 본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 제공되는 '실질적 답변'이란, 사용자 의도에 부합하는 태스크의 수행 완료를 알리거나(예컨대, '요청하신 작업을 완료하였습니다' 등), 사용자의 의도에 기초하여 얻어진 새로운 내용을 제공하여 사용자의 의도를 이해하였음을 알리거나, 사용자 의도에 부합하는 유의미한 정보(예컨대, 실질적 데이터 콘텐츠 등)의 적어도 일부를 포함하는 실질적 내용의 답변일 수 있다. 본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 제공되는 대화 응답은 '추가 정보의 요청'일 수 있다. 본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 제공되는 대화 응답은, 위 유의미한 정보를 포함한 '실질적 답변'이나 '추가 정보의 요청'이 아니라, 간단한 '간투사'일 수 있다. 본 발명의 실시예에 있어서 '대화형 에이전트 시스템'에 의해 제공되는 '간투사'는, 보다 자연스럽고 매끄러운 대화의 지속을 위한 단순한 호응/응답 표현(예컨대, '예', '네', '응', '그래', 등과 같이, 유의미한 정보 없이 단순히 상대방의 말을 듣고 있음을 알리는 표현), 기타 감탄사, 각종 음향이나 이미지, 기호, 이모티콘 등을 포함하는 것일 수 있다.
본 발명의 실시예에 있어서 '대화형 에이전트 시스템'은, 메신저 플랫폼에 기초한 챗봇(chatbot) 시스템, 예컨대 메신저 상에서 사용자와 메시지를 주고받으며 사용자가 원하는 다양한 정보를 제공하거나 태스크를 수행하는 챗봇 시스템을 포함할 수 있으며, 다만 본 발명이 이로써 제한되는 것은 아님을 알아야 한다.
덧붙여, 달리 정의되지 않는 한 기술적 또는 과학적인 용어를 포함하여, 본 개시에서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의된 용어들은, 관련 기술의 문맥상 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 개시에서 명백하게 달리 정의하지 않는 한 과도하게 제한 또는 확장하여 해석되지 않는다는 점을 알아야 한다.
이하, 첨부된 도면을 참조하여, 본 발명의 실시예에 대해 구체적으로 설명하기로 한다.
도 1은, 본 발명의 일 실시예에 따라, 대화형 에이전트 시스템이 구현될 수 있는 시스템 환경(100)을 개략적으로 도시한 도면이다. 도시된 바에 의하면, 시스템 환경(100)은, 복수의 사용자 단말(102a-102n), 통신망(104), 대화형 에이전트 서버(106), 및 외부 서비스 서버(108)를 포함한다.
본 발명의 일 실시예에 의하면, 복수의 사용자 단말(102a-102n) 각각은 유선 또는 무선 통신 기능을 구비한 임의의 사용자 전자 장치일 수 있다. 사용자 단말(102a-102n) 각각은, 예컨대 스마트 폰, 태블릿 PC, 뮤직 플레이어, 스마트 스피커, 데스크탑, 랩탑, PDA, 게임 콘솔, 디지털 TV, 셋탑박스 등을 포함한 다양한 유선 또는 무선 통신 단말일 수 있으며, 특정 형태로 제한되지 않음을 알아야 한다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 통신망(104)을 통해서, 대화형 에이전트 서버(106)와 통신, 즉 필요한 정보를 송수신할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 통신망(104)을 통해서, 외부 서비스 서버(108)와 통신, 즉 필요한 정보를 송수신할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 외부로부터 음성 및/또는 텍스트 형태의 사용자 입력을 수신할 수 있고, 통신망(104)을 통한 대화형 에이전트 서버(106) 및/또는 외부 서비스 서버(108)와의 통신(및/또는 사용자 단말(102a-102n) 내 처리)을 통해 얻어진, 위 사용자 입력에 대응한 동작 결과(예컨대, 특정 대화 응답의 제공 및/또는 특정 태스크의 수행 등)를 사용자에게 제공할 수 있다.
본 발명의 실시예에 있어서, 사용자 입력에 대응한 동작으로서의 태스크 수행은, 예컨대 정보의 검색, 물품 구매, 메시지 작성, 이메일 작성, 전화 걸기, 음악 재생, 사진 촬영, 사용자 위치 탐색, 지도/내비게이션 서비스 등을 비롯한 각종 다양한 형태의 태스크(그러나 이로써 제한되는 것은 아님) 수행을 포함할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n)에 의해 제공되는 사용자 입력에 대응한 동작 결과로서의 대화 응답은, 예컨대 사용자의 의도에 부합하는 작업 완료를 알리거나(예컨대, '요청하신 작업을 완료하였습니다' 등), 사용자의 의도에 기초하여 얻어진 새로운 내용을 제공하여 사용자의 의도를 이해하였음을 알리거나, 사용자 의도에 부합하는 유의미한 정보(예컨대, 실질적 데이터 콘텐츠 등)를 포함한 실질적 답변일 수 있다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n)에 의해 제공되는 사용자 입력에 대응한 대화 응답은, 예컨대 전술한 사용자의 의도를 명확하게 파악하기 위한 후속 질문 또는 추가 정보의 요청일 수 있다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n)에 의해 제공되는 사용자 입력에 대응한 대화 응답은, 예컨대 전술한 실질적 답변이나 추가 정보 요청 등이 아니라, 보다 자연스럽고 매끄러운 대화의 지속을 위한 단순한 호응/응답 표현(예컨대, '예', '네', '응', '그래', 등과 같이, 유의미한 정보 없이 단순히 상대방의 말을 듣고 있음을 알리는 표현), 기타 감탄사, 각종 음향이나 이미지, 기호, 이모티콘 등 간단한 간투사일 수 있음을 알아야 한다. 본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n) 각각은, 사용자 입력에 대응한 동작 결과로서의 대화 응답을, 시각, 청각 및/또는 촉각 형태(예컨대, 음성, 음향, 텍스트, 비디오, 이미지, 기호, 이모티콘, 하이퍼링크, 애니메이션, 각종 노티스, 모션, 햅틱 피드백 등을 포함할 수 있으며, 이로써 제한되는 것은 아님) 등 다양한 형태로써 사용자에게 제공할 수 있다.
본 발명의 일 실시예에 의하면, 통신망(104)은, 임의의 유선 또는 무선 통신망, 예컨대 TCP/IP 통신망을 포함할 수 있다. 본 발명의 일 실시예에 의하면, 통신망(104)은, 예컨대 Wi-Fi망, LAN망, WAN망, 인터넷망 등을 포함할 수 있으며, 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 일 실시예에 의하면, 통신망(104)은, 예컨대 이더넷, GSM, EDGE(Enhanced Data GSM Environment), CDMA, TDMA, OFDM, 블루투스, VoIP, Wi-MAX, Wibro 기타 임의의 다양한 유선 또는 무선 통신 프로토콜을 이용하여 구현될 수 있다.
본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 통신망(104)을 통해 사용자 단말(102a-102n)과 통신할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 통신망(104)을 통해 사용자 단말(102a-102n)과 필요한 정보를 송수신하고, 이를 통해 사용자 단말(102a-102n) 상에서 수신된 사용자 입력에 대응한, 즉 사용자 의도에 부합하는 동작 결과가, 사용자에게 제공되도록 동작할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 예컨대 통신망(104)을 통해 사용자 단말(102a-102n)로부터 음성 및/또는 텍스트 형태의 사용자 자연어 입력을 수신하고, 미리 준비된 모델들에 기초해서 그 수신된 자연어 입력을 처리하여 사용자의 의도(intent)를 결정할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 위 결정된 사용자 의도에 기초하여 대응하는 동작이 수행되도록 할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 예컨대 사용자 단말(102a-102n)이 사용자 의도에 부합하는 특정한 태스크를 수행하도록 특정한 제어 신호를 생성하여 해당 사용자 단말(102a-102n)로 전송할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 예컨대 사용자 단말(102a-102n)이 사용자 의도에 부합하는 특정한 태스크를 수행하게 하기 위하여, 통신망(104)을 통해 외부 서비스 서버(108)에 접속할 수 있다.
본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 예컨대 사용자 의도에 부합하는 특정한 대화 응답을 생성하여 사용자 단말(102a-102n)로 전송할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 위 결정된 사용자 의도에 기초하여, 대응하는 대화 응답을 음성 및/또는 텍스트 형태로써 생성하고, 생성된 응답을, 통신망(104)을 통해, 사용자 단말(102a-102n)로 전달할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)에 의해 생성되는 대화 응답은, 전술한 음성 및/또는 텍스트 형태의 자연어 응답과 함께, 이미지, 비디오, 기호, 이모티콘 등 다른 시각적 요소들이나, 음향 등의 다른 청각적 요소들이나, 기타 다른 촉각적 요소들을 포함할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)로부터 사용자 단말(102a-102n)로 전달되는, 사용자 의도에 기초한 대화 응답은, 예컨대 사용자의 의도에 부합하는 태스크 수행의 완료를 알리거나(예컨대, '요청하신 작업을 완료하였습니다' 등), 사용자의 의도에 기초하여 얻어진 새로운 내용을 제공하여 사용자의 의도를 이해하였음을 알리거나, 사용자의 의도에 부합하는 유의미한 정보(예컨대, 실질적 데이터 콘텐츠 등)를 포함한 실질적 답변일 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)로부터 사용자 단말(102a-102n)로 전달되는, 사용자 의도에 기초한 대화 응답은, 예컨대 전술한 사용자의 의도를 명확하게 파악하기 위한 후속 질문 또는 추가 정보의 요청일 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)로부터 사용자 단말(102a-102n)로 전달되는, 사용자 의도에 기초한 대화 응답은, 예컨대 전술한 실질적 답변이나 추가 정보의 요청 등이 아니라, 보다 자연스럽고 매끄러운 대화의 지속을 위한 단순한 호응/응답 표현(예컨대, '예', '네', '응', '그래', 등과 같이, 유의미한 정보 없이 단순히 상대방의 말을 듣고 있음을 알리는 표현), 기타 감탄사, 각종 음향이나 이미지, 기호, 이모티콘 등의 간단한 간투사일 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)로부터 사용자 단말(102a-102n)로 전달되는, 사용자 의도에 기초한 대화 응답은, 예컨대 전술한 실질적 답변이나 추가 정보의 요청, 또는 간투사를 사용자의 말하는 특성에 따라 변환한 결과일 수 있다.
본 발명의 일 실시예에 의하면, 사용자 단말(102a-102n) 상에서 수신된 사용자 입력의 형태(예컨대, 음성 입력인지 아니면 텍스트 입력인지)에 따라, 대화형 에이전트 서버(106) 상에서 동일한 형태의 응답이 생성될 수 있으며(예컨대, 음성 입력이 주어진 경우에는 음성 응답이 생성되고 텍스트 입력이 주어진 경우에는 텍스트 응답이 생성됨), 다만 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 사용자 입력의 형태와 무관하게 음성 및/또는 텍스트 형태의 응답이 생성 및 제공될 수 있음을 알아야 한다.
본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)는, 앞서 언급한 바와 같이, 통신망(104)을 통해서 외부 서비스 서버(108)와 통신할 수 있다. 외부 서비스 서버(108)는, 예컨대 메시징 서비스 서버, 온라인 상담 센터 서버, 온라인 쇼핑몰 서버, 정보 검색 서버, 지도 서비스 서버, 네비게이션 서비스 서버 등일 수 있으며, 본 개시가 이로써 제한되는 것은 아니다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 서버(106)로부터 사용자 단말(102a-102n)로 전달되는, 사용자 의도에 기초한 대화 응답은, 예컨대 외부 서비스 서버(108)로부터 검색 및 획득된 데이터 콘텐츠를 포함한 것일 수 있음을 알아야 한다.
본 도면에서는, 대화형 에이전트 서버(106)가 외부 서비스 서버(108)와 통신망(104)을 통해 통신 가능하게 구성된 별도의 물리 서버인 것으로 도시되어 있으나, 본 개시가 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 대화형 에이전트 서버(106)는, 예컨대 온라인 상담 센터 서버 또는 온라인 쇼핑몰 서버 등 각종 서비스 서버의 일부로 포함되어 구성될 수도 있음을 알아야 한다.
도 2는, 본 발명의 일 실시예에 따른, 도 1에 도시된 사용자 단말(102)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 사용자 단말(102)은, 사용자 입력 수신 모듈(202), 센서 모듈(204), 프로그램 메모리 모듈(206), 프로세싱 모듈(208), 통신 모듈(210), 및 응답 출력 모듈(212)을 포함한다.
본 발명의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 사용자로부터 다양한 형태의 입력, 예컨대 음성 입력 및/또는 텍스트 입력 등의 자연어 입력(및 부가적으로 터치 입력 등의 다른 형태의 입력)을 수신할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 예컨대 마이크로폰 및 오디오 회로를 포함하며, 마이크로폰을 통해 사용자 음성 입력 신호를 획득하고 획득된 신호를 오디오 데이터로 변환할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)은, 예컨대 마우스, 조이스틱, 트랙볼 등의 각종 포인팅 장치, 키보드, 터치패널, 터치스크린, 스타일러스 등 다양한 형태의 입력 장치를 포함할 수 있고, 이들 입력 장치를 통해 사용자로부터 입력된 텍스트 입력 및/또는 터치 입력 신호를 획득할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 소정의 태스크 수행, 예컨대 소정의 애플리케이션 실행이나 소정 정보의 검색 등과 연관될 수 있으나, 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 소정의 애플리케이션 실행이나 정보의 검색 등과는 무관하게 단순한 대화 응답 만을 필요로 하는 것일 수도 있다. 본 발명의 다른 실시예에 의하면, 사용자 입력 수신 모듈(202)에서 수신되는 사용자 입력은, 일방적 의사 전달을 위한 단순 진술에 관한 것일 수도 있다.
본 발명의 일 실시예에 의하면, 센서 모듈(204)은 하나 이상의 서로 다른 유형의 센서를 포함하고, 이들 센서를 통해 사용자 단말(102)의 상태 정보, 예컨대 해당 사용자 단말(102)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 또는 사용자 단말(102)의 주위 환경 상태에 관한 정보 등을 획득할 수 있다. 본 발명의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 광 센서를 포함하고, 광 센서를 통해 해당 사용자 단말(102)의 주변 광 상태를 감지할 수 있다. 본 발명의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 이동 센서를 포함하고, 이동 센서를 통해 해당 사용자 단말(102)의 이동 상태 여부를 감지할 수 있다. 본 발명의 일 실시예에 의하면, 센서 모듈(204)은, 예컨대 속도 센서 및 GPS 센서를 포함하고, 이들 센서를 통해 해당 사용자 단말(102)의 위치 및/또는 배향 상태를 감지할 수 있다. 본 발명의 다른 실시예에 의하면, 센서 모듈(204)은 온도 센서, 이미지 센서, 압력 센서, 접촉 센서 등을 비롯한 다른 다양한 형태의 센서를 포함할 수 있음을 알아야 한다.
본 발명의 일 실시예에 의하면, 프로그램 메모리 모듈(206)은, 사용자 단말(102) 상에서 실행될 수 있는 각종 프로그램, 예컨대 각종 애플리케이션 프로그램 및 관련 데이터 등이 저장된 임의의 저장 매체일 수 있다. 본 발명의 일 실시예에 의하면, 프로그램 메모리 모듈(206)에는, 예컨대 전화 걸기 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 카메라 애플리케이션, 음악 재생 애플리케이션, 비디오 재생 애플리케이션, 이미지 관리 애플리케이션, 지도 애플리케이션, 브라우저 애플리케이션 등을 비롯한 다양한 애플리케이션 프로그램들과 이들 프로그램의 실행과 관련된 데이터들이 저장될 수 있다. 본 발명의 일 실시예에 의하면, 프로그램 메모리 모듈(206)은, DRAM, SRAM, DDR RAM, ROM, 자기 디스크, 광 디스크, 플래시 메모리 등 다양한 형태의 휘발성 또는 비휘발성 메모리를 포함하도록 구성될 수 있다.
본 발명의 일 실시예에 의하면, 프로세싱 모듈(208)은, 사용자 단말(102)의 각 컴포넌트 모듈과 통신하고 사용자 단말(102) 상에서 각종 연산을 수행할 수 있다. 본 발명의 일 실시예에 의하면, 프로세싱 모듈(208)은, 프로그램 메모리 모듈(206) 상의 각종 애플리케이션 프로그램을 구동 및 실행시킬 수 있다. 본 발명의 일 실시예에 의하면, 프로세싱 모듈(208)은, 필요한 경우, 사용자 입력 수신 모듈(202) 및 센서 모듈(204)에서 획득된 신호를 수신하고, 이들 신호에 관한 적절한 처리를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 프로세싱 모듈(208)은, 필요한 경우, 통신 모듈(210)을 통해 외부로부터 수신되는 신호에 대해 적절한 처리를 수행할 수 있다.
본 발명의 일 실시예에 의하면, 통신 모듈(210)은, 사용자 단말(102)이 도 1의 통신망(104)을 통하여, 대화형 에이전트 서버(106) 및/또는 외부 서비스 서버(108)와 통신할 수 있게 한다. 본 발명의 일 실시예에 의하면, 통신 모듈(212)은, 예컨대 사용자 입력 수신 모듈(202) 및 센서 모듈(204) 상에서 획득된 신호가 소정의 프로토콜에 따라 통신망(104)을 통하여 대화형 에이전트 서버(106) 및/또는 외부 서비스 서버(108)로 전송되도록 할 수 있다. 본 발명의 일 실시예에 의하면, 통신 모듈(210)은, 예컨대 통신망(104)을 통하여 대화형 에이전트 서버(106) 및/또는 외부 서비스 서버(108)로부터 수신된 각종 신호, 예컨대 음성 및/또는 텍스트 형태의 자연어 응답을 포함한 응답 신호 또는 각종 제어 신호 등을 수신하고, 소정의 프로토콜에 따라 적절한 처리를 수행할 수 있다.
본 발명의 일 실시예에 의하면, 응답 출력 모듈(212)은, 사용자 입력에 대응하는 응답을 시각, 청각 및/또는 촉각 등 다양한 형태로써 출력할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(212)은, 예컨대 LCD, LED, OLED, QLED 등의 기술에 기초한 터치 스크린 등의 각종 디스플레이 장치를 포함하고, 이들 디스플레이 장치를 통해 사용자 입력에 대응하는 시각적 응답, 예컨대 텍스트, 기호, 비디오, 이미지, 하이퍼링크, 애니메이션, 각종 노티스 등을 사용자에게 제시할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(212)은, 예컨대 스피커 또는 헤드셋을 포함하고, 사용자 입력에 대응하는 청각적 응답, 예컨대 음성 및/또는 음향 응답을 스피커 또는 헤드셋을 통해 사용자에게 제공할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(212)는 모션/햅틱 피드백 생성부를 포함하고, 이를 통해 촉각적 응답, 예컨대 모션/햅틱 피드백을 사용자에게 제공할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(212)은, 사용자 입력에 대응하는 텍스트 응답, 음성 응답 및 모션/햅틱 피드백 중 임의의 두 개이상의 조합을 동시에 제공할 수 있음을 알아야 한다.
도 3은, 본 발명의 일 실시예에 따른, 도 1의 대화형 에이전트 서버(106)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 도시된 바에 의하면, 대 화형 에이전트 서버(106)는, 통신 모듈(302), 음성-텍스트 변환(Speech-To-Text; STT) 모듈(304), 자연어 이해(Natural Language Understanding; NLU) 모듈(306), 사용자 데이터베이스(308), 동작 관리 모듈(310), 태스크 처리 모듈(312), 대화 관리 모듈(314), 어휘집(316) 및 음성 합성(Text-To-Speech; TTS) 모듈(318)을 포함한다.
본 발명의 일 실시예에 의하면, 통신 모듈(302)은, 소정의 유선 또는 무선 통신 프로토콜에 따라, 통신망(104)을 통하여, 대화형 에이전트 서버(106)가 사용자 단말(102) 및/또는 외부 서비스 서버(108)와 통신할 수 있게 한다. 본 발명의 일 실시예에 의하면, 통신 모듈(302)은, 통신망(104)을 통해, 사용자 단말(102)로부터 전송되어 온, 사용자로부터의 음성 입력 및/또는 텍스트 입력 등을 수신할 수 있다. 본 발명의 일 실시예에 의하면, 통신 모듈(302)은, 사용자 단말(102)로부터 전송되어 온 사용자로부터의 음성 입력 및/또는 텍스트 입력과 함께 또는 그와 별도로, 통신망(104)을 통해, 사용자 단말(102)로부터 전송되어온, 사용자 단말(102)의 상태 정보를 수신할 수 있다. 본 발명의 일 실시예에 의하면, 상태 정보는, 예컨대 사용자로부터의 음성 입력 및/또는 텍스트 입력 당시의 해당 사용자 단말(102)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(102)의 물리적 상태, 사용자 단말(102)의 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(102) 주위의 환경 상태 정보 등)일 수 있다. 본 발명의 일 실시예에 의하면, 통신 모듈(302)은, 또한, 위 수신된 사용자 입력에 대응하여 대화형 에이전트 서버(106)에서 생성된 대화 응답(예컨대, 음성 및/또는 텍스트 형태의 자연어 대화 응답 등) 및/또는 제어 신호를, 통신망(104)을 통해, 사용자 단말(102)로 전달하기 위해 필요한 적절한 조치를 수행할 수 있다.
본 발명의 일 실시예에 의하면, STT 모듈(304)은, 통신 모듈(302)을 통해 수신된 사용자 입력 중 음성 입력을 수신하고, 수신된 음성 입력을 패턴 매칭 등에 기초하여 텍스트 데이터로 변환할 수 있다. 본 발명의 일 실시예에 의하면, STT 모듈(304)은, 사용자의 음성 입력으로부터 특징을 추출하여 특징 벡터열을 생성할 수 있다. 본 발명의 일 실시예에 의하면, STT 모듈(304)은, DTW(Dynamic Time Warping) 방식이나 HMM 모델(Hidden Markov Model), GMM 모델(Gaussian-Mixture Mode), 딥 신경망 모델, n-gram 모델 등의 다양한 통계적 모델에 기초하여, 텍스트 인식 결과, 예컨대 단어들의 시퀀스를 생성할 수 있다. 본 발명의 일 실시예에 의하면, STT 모듈(304)은, 수신된 음성 입력을 패턴 매칭에 기초하여 텍스트 데이터로 변환할 때, 후술하는 사용자 데이터베이스(308)의 각 사용자 특징적 데이터를 참조할 수 있다.
본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 통신 모듈(302) 또는 STT 모듈(304)로부터 텍스트 입력을 수신할 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)에서 수신되는 텍스트 입력은, 예컨대 통신 모듈(302)에서 통신망(104)을 통하여 사용자 단말(102)로부터 수신되었던 사용자 텍스트 입력 또는 통신 모듈(302)에서 수신된 사용자 음성 입력으로부터 STT 모듈(304)에서 생성된 텍스트 인식 결과, 예컨대 단어들의 시퀀스일 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 텍스트 입력을 수신하는 것과 함께 또는 그 이후에, 해당 사용자 입력과 연관된 상태 정보, 예컨대 해당 사용자 입력 당시의 사용자 단말(102)의 상태 정보 등을 수신할 수 있다. 전술한 바와 같이, 상태 정보는, 예컨대 사용자 단말(102)에서 사용자 음성 입력 및/또는 텍스트 입력 당시의 해당 사용자 단말(102)에 관련된 여러가지 상태 정보(예컨대, 사용자 단말(102)의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 사용자 단말(102) 주위의 환경 상태 정보 등)일 수 있다.
본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 수신된 텍스트 입력을 하나 이상의 사용자 의도(intent)에 대응시킬 수 있다. 여기서 사용자 의도는, 그 사용자 의도에 따라 대화형 에이전트 서버(106)에 의해 이해되고 수행될 수 있는 일련의 동작(들)과 연관될 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 수신된 텍스트 입력을 하나 이상의 사용자 의도에 대응시킴에 있어서 전술한 상태 정보를 참조할 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 수신된 텍스트 입력을 하나 이상의 사용자 의도에 대응시킴에 있어서 후술하는 사용자 데이터베이스(308)의 각 사용자 특징적 데이터를 참조할 수 있다.
본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 예컨대 미리 정의된 온톨로지 모델에 기초하여 동작할 수 있다. 본 발명의 일 실시예에 의하면, 온톨로지 모델은, 예컨대 노드들 간의 계층 구조로 표현될 수 있는데, 각 노드는 사용자의 의도에 대응한 "의도" 노드 또는 "의도" 노드에 링크된 하위 "속성" 노드("의도" 노드에 직접 링크되거나 "의도" 노드의 "속성" 노드에 다시 링크된 하위 "속성" 노드) 중 하나일 수 있다. 본 발명의 일 실시예에 의하면, "의도" 노드와 그 "의도" 노드에 직접 또는 간접 링크된 "속성" 노드들은 하나의 도메인을 구성할 수 있고, 온톨로지는 이러한 도메인들의 집합으로 구성될 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)에서 활용되기 위한 온톨로지 모델은, 예컨대 대화형 에이전트 시스템이 이해하고 그에 대응한 동작을 수행할 수 있는 모든 의도들에 각각 대응하는 도메인들을 포함하도록 구성될 수 있다. 본 발명의 일 실시예에 의하면, 온톨로지 모델은, 노드의 추가나 삭제, 또는 노드 간의 관계의 수정 등에 의해 동적으로 변경될 수 있음을 알아야 한다.
본 발명의 일 실시예에 의하면, 온톨로지 모델 내의 각 도메인의 의도 노드 및 속성 노드들은, 그에 대응하는 사용자 의도 또는 속성들에 관련된 단어들 및/또는 구절들과 각각 연관될 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 온톨로지 모델을, 계층 구조의 노드들과, 각 노드 별로 연관된 단어들 및/또는 구절들의 집합으로 구성된, 예컨대 어휘 사전 형태(구체적으로 도시되지 않음)로 구현할 수 있고, NLU 모듈(306)은 이와 같이 어휘 사전 형태로 구현된 온톨로지 모델에 기초하여 사용자 의도를 결정할 수 있다. 예컨대, 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 텍스트 입력 또는 단어들의 시퀀스를 수신하면, 그 시퀀스 내의 각 단어들이 온톨로지 모델 내의 어떤 도메인의 어떤 노드들에 연관되는지 결정할 수 있고, 그러한 결정에 기초하여 대응하는 도메인, 즉 사용자 의도를 결정할 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 사용자 의도를 결정한 경우, 그 결정된 사용자 의도에 따른 동작을 위한 질의를 생성할 수 있다.
본 발명의 일 실시예에 의하면, 사용자 데이터베이스(308)는, 각 사용자별 특징적 데이터를 저장 및 관리하는 데이터베이스일 수 있다. 본 발명의 일 실시예에 의하면, 사용자 데이터베이스(308)는, 예컨대 각 사용자별로 해당 사용자의 이전 대화 기록, 사용자의 발음 특징 정보, 사용자 어휘 선호도, 사용자의 출신 지역, 설정 언어, 설정 대화모드, 선호 상용구, 나이, 성별, 직업, 연락처/친구 목록, 기타 다양한 사용자 특징적 정보를 포함할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 데이터베이스(308)는, 예컨대 각 사용자별로 해당 사용자의 이전 대화 기록으로부터 획득된, 해당 사용자의 간투사 활용 빈도, 주로 쓰는 간투사 종류, 대화의 분위기나 감정 상태에 따라 사용하는 어휘 또는 기타 상용구의 종류 등을 포함한 사용자 특징적 정보를 포함할 수 있다.
본 발명의 일 실시예에 의하면, 전술한 바와 같이, STT 모듈(304)은, 음성 입력을 텍스트 데이터로 변환할 때 사용자 데이터베이스(308)의 각 사용자 특징적 데이터, 예컨대 각 사용자별 발음 특징을 참조함으로써, 보다 정확한 텍스트 데이터를 얻을 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)은, 사용자 의도를 결정할 때 사용자 데이터베이스(308)의 각 사용자 특징적 데이터, 예컨대 각 사용자별 특징이나 맥락을 참조함으로써, 보다 정확한 사용자 의도 결정을 할 수 있다. 본 발명의 일 실시예에 의하면, 후술하는 바와 같이, 대화 관리 모듈(314)은, 대화 응답의 생성, 예컨대 실질적 답변의 생성, 간투사의 선택 및 추가 정보 요청을 위한 질문의 선택 등에 있어서, 사용자 데이터베이스(308)의 사용자 특징적 데이터를 참조할 수 있다.
본 도면에서는, 각 사용자별 특징적 데이터를 저장 및 관리하는 사용자 데이터베이스(308)가 대화형 에이전트 서버(106)에 배치되는 것으로 도시되어 있으나, 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 각 사용자별 특징적 데이터를 저장 및 관리하는 사용자 데이터베이스는, 예컨대 사용자 단말(102)에 존재할 수도 있고, 사용자 단말(102) 및 대화형 에이전트 서버(106)에 분산되어 배치될 수도 있음을 알아야 한다.
본 발명의 일 실시예에 의하면, 동작 관리 모듈(310)은, NLU 모듈(306)에 의해 생성된 질의를 수신하고, 소정의 동작 관리 모델(도시되지 않음)에 따라, 위 수신된 질의에 따른 일련의 동작 흐름을 생성할 수 있다. 본 발명의 일 실시예에 의하면, 동작 관리 모듈(310)은, 예컨대 NLU 모듈(306)로부터 수신된 질의가, 사용자 의도를 명확히 표현하기에 충분한 정보를 갖고 있는지(예를 들어, 문장의 구성에 필요한 기본적인 품사가 모두 포함되어 있는지, 추가적인 정보 없이도 사용자 의도에 대응하는 태스크를 수행하거나 대화 응답 등을 제공을 하기에 충분한 정보를 갖고 있는지 등)를 판정할 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)로부터 수신된 질의가 사용자 의도를 명확히 표현하기에 충분한 정보를 갖고 있다고 판정한 경우, 동작 관리 모듈(310)은, 해당 질의에 부합하는 태스크 수행 및/또는 대화 응답의 제공 등을 위한 세부 동작 흐름을 생성할 수 있다. 본 발명의 일 실시예에 의하면, NLU 모듈(306)로부터 수신된 질의가 사용자 의도를 명확히 표현하기에 충분한 정보를 갖고 있지 못하다고 판정한 경우, 동작 관리 모듈(310)은, 소정의 시간 동안 추가적인 사용자 입력을 대기하거나 부족한 정보를 얻기 위한 추가 정보의 요청/추가 질문을 하는 절차의 세부 동작 흐름을 생성할 수 있다. 본 발명의 일 실시예에 의하면, 동작 관리 모듈(310)은, 생성된 동작 흐름의 실행을 위해 태스크 처리 모듈(312) 및/또는 대화 관리 모듈(314)과 상호 작용할 수 있다.
본 발명의 일 실시예에 의하면, 태스크 처리 모듈(312)은, 전술한 바와 같이, 동작 관리 모듈(310)과 상호 작용하여, 질의에 부합하는 소정의 태스크 수행을 위한 동작 흐름을 통지 받을 수 있다. 본 발명의 일 실시예에 의하면, 태스크 처리 모듈(312)은, 수신된 동작 흐름을 처리하여 사용자 의도에 부합하는 태스크가 완료되도록 할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 처리 모듈(312)은, 수신된 동작 흐름의 처리를 위하여, 통신 모듈(302) 및 통신망(104)을 통하여 사용자 단말(102) 및/또는 외부 서비스 서버(108)와 통신할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 처리 모듈(312)은, 예컨대 사용자 단말(102)을 위한 소정의 제어 신호를 생성하여 통신 모듈(302) 및 통신망(104)을 통하여 사용자 단말(102)로 전송할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 처리 모듈(312)은, 예컨대 외부 서비스 서버(108)에 액세스하고 그로부터 필요한 서비스를 요청 및 수신할 수 있다.
본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 전술한 바와 같이, 동작 관리 모듈(310)과 상호 작용하여, 사용자에게 대화 응답 등을 제공하기 위한 동작 흐름을 통지 받을 수 있다. 본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 예컨대 동작 관리 모듈(310)로부터 사용자 의도에 부합하는 실질적 답변 및/또는 간투사 제공 등을 위한 동작 흐름을 통지 받고, 그에 따라 필요한 절차를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 예컨대 사용자 의도에 부합하는 실질적 답변이 필요한지 여부를 판정하고, 필요한 경우라면 적절한 답변을 생성하여 통신 모듈(302) 및 통신망(104)을 통해 그 생성된 실질적 답변을 사용자 단말(102)에 제공하는 절차를 수행할 수 있다.
본 발명의 일 실시예에 의하면, 실질적 답변이 필요하지 않은 경우라고 판정한 경우, 대화 관리 모듈(314)은, 예컨대 간투사가 필요한지를 판정하고, 필요하다면 적절한 간투사를 선택하여, 통신 모듈(302) 및 통신망(104)을 통해 그 선택된 간투사를 사용자 단말(102)에 제공하는 절차를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 예컨대 동작 관리 모듈(310)로부터 추가 정보 요청 또는 추가 질문을 위한 동작 흐름을 통지 받고, 그에 따라 필요한 절차를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 예컨대 필요한 정보를 얻기 위한 필요한 추가 질문을 선택하고, 통신 모듈(302) 및 통신망(104)을 통해 위 선택된 추가 질문을 사용자 단말(102)에 제공하고 추가 질문에 대응한 추가적 사용자 응답을 수신하는 절차를 수행할 수 있다.
본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 대화 응답의 생성, 예컨대 실질적 답변의 생성, 간투사의 선택 및 추가 질문의 선택 등에 있어서, 전술한 사용자 데이터베이스(308)의 사용자 특징적 데이터(예컨대, 사용자의 이전 대화 기록, 사용자의 발음 특징 정보, 사용자 어휘 선호도, 사용자의 소재지, 설정 언어, 연락처/친구 목록, 각 사용자별로 해당 사용자의 이전 대화 기록으로부터 획득된, 해당 사용자의 간투사 활용 빈도, 주로 쓰는 간투사 종류, 대화의 분위기나 감정 상태에 따라 사용하는 간투사 또는 기타 상용구의 종류 등)를 참조할 수 있다. 본 발명의 일 실시예에 의하면, 대화 관리 모듈(314)은, 대화 응답의 생성, 예컨대 실질적 답변의 생성, 간투사의 선택 및 추가 질문의 선택 등에 있어서, 어휘집(316)을 참조할 수 있다. 본 발명의 일 실시예에 의하면 어휘집(316)은, 대화형 에이전트 시스템의 각 persona, 예컨대 성별, 연령대, 출신 지역, 설정된 성격마다에 할당된 어휘들, 줄임말들, 유행어들, 비표준어들 등을 포함한 소정의 어휘 데이터베이스일수 있다. 본 발명의 일 실시예에 의하면, 어휘집(316)은 당시의 유행이나 이슈 등을 반영하여 지속적으로 갱신될 수 있다.
본 발명의 일 실시예에 의하면, 전술한 일련의 동작들, 예컨대 사용자 입력의 수신, 사용자 의도의 결정, 결정된 사용자 의도에 부합하는 질의의 생성, 및 질의에 부합하는 동작 흐름의 생성과 처리의 과정은, 사용자의 궁극적 목표 달성을 위하여 수 회 반복/연속하여 이루어질 수 있음을 알아야 한다.
본 발명의 일 실시예에 의하면, TTS 모듈(318)은, 대화 관리 모듈(312)에 의해 사용자 단말(102)로 전송되도록 선택된 대화 응답을 수신할 수 있다. TTS 모듈(318)에서 수신되는 대화 응답은 텍스트 형태를 갖는 자연어 또는 단어들의 시퀀스일 수 있다. 본 발명의 일 실시예에 의하면, TTS 모듈(318)은, 다양한 형태의 알고리즘에 따라, 위 수신된 텍스트 형태의 입력을 음성 형태로 변환할 수 있다.
도 1 내지 3을 참조하여 전술한 본 발명의 실시예에서는, 대화형 에이전트 시스템이 사용자 단말(102)과 대화형 에이전트 서버(106) 간의 클라이언트-서버 모델, 특히 클라이언트는 오로지 사용자 입출력 기능만을 제공하고 그 외 대화형 에이전트 시스템의 다른 모든 기능들을 서버에 위임된, 소위 "씬 클라이언트-서버 모델"에 기초하여 구현된 것과 같이 설명되어 있으나, 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 대화형 에이전트 시스템은 그 기능들이 사용자 단말과 서버 사이에 분배되어 구현될 수 있고, 또는 그와 달리 사용자 단말 상에 설치된 독립형 애플리케이션으로 구현될 수도 있음을 알아야 한다. 또한, 본 발명의 일 실시예에 따라 대화형 에이전트 시스템이 그 기능들을 사용자 단말과 서버 사이에 분배하여 구현하는 경우, 클라이언트와 서버 사이의 대화형 에이전트 시스템의 각 기능의 분배는 실시예마다 달리 구현될 수 있음을 알아야 한다. 또한, 도 1 내지 3을 참조하여 전술한 본 발명의 실시예에서는, 편의상 특정 모듈이 소정의 동작들을 수행하는 것처럼 설명되었으나, 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 위 설명에서 어느 특정 모듈에 의해 수행되는 것과 같이 설명된 동작들이, 그와 다른 별개의 모듈에 의해 각각 수행될 수 있음을 알아야 한다.
도 4는, 본 발명의 일 실시예에 따른, 대화형 에이전트 시스템(400)의 기능적 구성을 개략적으로 도시한 기능 블록도이다. 전술한 바와 같이, 대화형 에이전트 시스템은, 클라이언트와 서버, 예컨대 도 1의 사용자 단말(102)과 대화형 에이전트 서버(106) 간에, 기능들이 분배되어 구현될 수 있으며, 본 도면에서는 각 기능의 구현이 클라이언트와 서버 중 어디에서 이루어지는 가와 무관하게 기능의 관점에서 대화형 에이전트 시스템의 구성을 개략적으로 도시한 것임을 알아야 한다. 도시된 바에 의하면, 대화형 에이전트 시스템(400)은, 사용자 입력 수신 모듈(402), 센서 모듈(404), 입출력 인터페이스(406), 음성 인식/입력 해석 모듈(408), 사용자 데이터베이스(410), 어휘집(412), 태스크 수행/응답 제공 모듈(414), 및 응답 출력 모듈(416)를 포함한다.
본 발명의 일 실시예에 의하면, 사용자 입력 수신 모듈(402)은, 사용자로부터 다양한 형태의 입력, 예컨대 음성 입력 및/또는 텍스트 입력 등의 자연어 입력(및 부가적으로 터치 입력 등의 다른 형태의 입력)을 수신할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 입력 수신 모듈(402)에서 수신되는 사용자 입력은, 소정의 태스크 수행, 예컨대 소정의 애플리케이션 실행이나 정보의 검색 등과 연관될 수 있으나, 본 발명이 이로써 제한되는 것은 아니다. 본 발명의 다른 실시예에 의하면, 사용자 입력 수신 모듈(402)에서 수신되는 사용자 입력은, 소정의 애플리케이션 실행이나 정보의 검색 등과는 무관하게 단순한 대화 응답 만을 필요로 하는 것일 수 있다. 본 발명의 다른 실시예에 의하면, 사용자 입력 수신 모듈(402)에서 수신되는 사용자 입력은, 일방적 의사 전달을 위한 단순 진술에 관한 것일 수도 있다.
본 발명의 일 실시예에 의하면, 센서 모듈(404)은, 사용자 단말의 상태 정보, 예컨대 해당 사용자 단말의 물리적 상태, 소프트웨어 및/또는 하드웨어 상태, 또는 사용자 단말의 주위 환경 상태에 관한 정보 등을 획득할 수 있다. 본 발명의 일 실시예에 의하면, 센서 모듈(404)은, 하나 이상의 서로 다른 유형의 센서를 포함하고 이들 센서를 통해 사용자 단말의 상태 정보를 감지할 수 있다.
본 발명의 일 실시예에 의하면, 입출력 인터페이스(406)는, 사용자 입력 수신 모듈(402)로부터 수신된 사용자 입력과, 센서 모듈(404)로부터 획득된 장치 상태 정보가, 대화형 에이전트 시스템(400) 내의 다른 모듈들에 의해 이용될 수 있도록 제어할 수 있다. 본 발명의 일 실시예에 의하면, 입출력 인터페이스(406)는, 후술하는 응답 출력 모듈(416)에 대해 대화형 에이전트 시스템(400) 내의 다른 모듈들에 의해 생성된 대화 응답 등이 제공되도록 제어할 수 있다.
본 발명의 일 실시예에 의하면, 음성 인식/입력 해석 모듈(408)은, 소정의 모델에 따라, 예컨대 외부로부터 음성 입력이 수신된 경우 그 음성 입력을 처리 및 인식하고 그 입력을 해석할 수 있다. 본 발명의 일 실시예에 의하면, 음성 인식/ 입력 해석 모듈(408)은 또한, 외부로부터 텍스트 입력이 수신된 경우, 소정의 모델에 따라, 그 텍스트 입력을 해석할 수 있다. 본 발명의 일 실시예에 의하면, 음성 인식/입력 해석 모듈(408)에 의한 사용자 입력의 해석 결과는, 예컨대 사용자 의도의 결정이나 소정의 대화 응답 및/또는 특정한 태스크의 수행과 연관된 질의의 생성을 포함할 수 있다.
본 발명의 일 실시예에 의하면, 사용자 데이터베이스(410)는 각 사용자별 특징적 데이터를 저장 및 관리하는 데이터베이스일 수 있다. 본 발명의 일 실시예에 의하면, 사용자 데이터베이스(410)는, 예컨대 각 사용자별로 해당 사용자의 이전 대화 기록, 사용자의 발음 특징 정보, 사용자 어휘 선호도, 사용자의 소재지, 사용자의 출신 지역, 설정 언어, 설정 대화모드, 선호 상용구, 나이, 성별, 직업, 연락처/친구 목록, 기타 다양한 사용자 특징적 정보를 포함할 수 있다. 본 발명의 일 실시예에 의하면, 사용자 데이터베이스(410)는, 예컨대 각 사용자별로 해당 사용자의 이전 대화 기록으로부터 획득된, 해당 사용자의 간투사 활용 빈도, 주로 쓰는 간투사 종류, 대화의 분위기나 감정 상태에 따라 사용하는 어휘 또는 기타 상용구의 종류 등을 포함한 사용자 특징적 정보를 포함할 수 있다. 본 발명의 일 실시예에 의하면, 음성 인식/입력 해석 모듈(408)은, 사용자 데이터베이스(410)를 참조하여 음성 인식 또는 사용자 입력의 해석에 필요한 동작을 수행할 수 있다.
본 발명의 일 실시예에 의하면 어휘집(412)은, 대화형 에이전트 시스템의 각 persona, 예컨대 성별, 연령대, 출신 지역, 설정된 성격마다에 할당된 사용 어휘들, 줄임말들, 유행어들, 비표준어들 등을 포함한 소정의 어휘 데이터베이스일수 있다. 본 발명의 일 실시예에 의하면, 어휘집(412)은 당시의 유행이나 이슈 등을 반영하여 지속적으로 갱신될 수 있다.
본 발명의 일 실시예에 의하면, 태스크 수행/응답 제공 모듈(414)은, 음성 인식/입력 해석 모듈(408)로부터의 사용자 의도 및/또는 질의 등에 기초하여, 사용자 입력에 대응한 특정 태스크의 수행 및/또는 대화 응답 제공 절차를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 수행/응답 제공 모듈(414)은, 예컨대 추가적인 정보 없이도 위 질의에 의해 사용자 의도에 대응하는 태스크를 수행하거나 대화 응답을 제공하기에 충분한 정보가 획득되는지 판정하고, 충분한 정보가 획득된다고 판정한 경우, 해당 질의, 즉 사용자 입력에 부합하는 태스크 수행 및 응답 제공 절차를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 수행/응답 제공 모듈(414)은, 사용자 입력에 부합하는 대화 응답의 제공과 관련하여, 예컨대 소정의 기준에 따라, 실질적 답변이 제공될 필요가 있는지 판정하고, 실질적 답변이 제공될 필요가 있다고 판정된 경우, 사용자 데이터베이스(410) 및 어휘집(412)을 참조하여 적절한 실질적 답변을 생성할 수 있다.
본 발명의 일 실시예에 의하면, 태스크 수행/응답 제공 모듈(414)은, 사용자 입력에 부합하는 대화 응답의 제공과 관련하여, 생성된 답변을 사용자 데이터베이스(410) 및 어휘집(412)을 참조하여 사용자의 말하는 특성에 따라 변환하여 재생성할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 수행/응답 제공 모듈(414)는, 사용자 입력에 부합하는 대화 응답의 제공과 관련하여, 예컨대 실질적 답변이 제공될 필요가 없다고 판정된 경우, 소정의 기준에 따라, 간투사가 제공될 필요가 있는지 판정하고, 간투사가 제공될 필요가 있다고 판정된 경우, 사용자 데이터베이스(410) 및 어휘집(412)을 참조하여 적절한 간투사를 선택할 수 있다.
본 발명의 일 실시예에 의하면, 질의에 의해 사용자 입력에 대응한 태스크를 수행하거나 대화 응답을 제공을 하기에 충분한 정보가 획득되지 못한다고 판정한 경우, 태스크 수행/응답 제공 모듈(414)는, 소정의 시간 동안 추가적인 사용자 입력을 대기하거나 부족한 정보를 얻기 위한 추가 질문을 하는 절차를 수행할 수 있다. 본 발명의 일 실시예에 의하면, 태스크 수행/응답 제공 모듈(414)는, 대화 응답의 생성, 예컨대 실질적 답변의 생성, 간투사의 선택 및 추가 질문의 선택 등에 있어서, 사용자 데이터베이스(410) 및 어휘집(412)을 참조할 수 있다.
본 발명의 일 실시예에 의하면, 응답 출력 모듈(416)은, 사용자 입력에 대응하는 응답을 시각, 청각 및/또는 촉각 등 다양한 형태로써 출력할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(416)은, 예컨대 각종 디스플레이 장치를 포함하고, 이들 디스플레이 장치를 통해 사용자 입력에 대응하는 시각적 응답, 예컨대 텍스트, 기호, 비디오, 이미지, 하이퍼링크, 애니메이션, 각종 노티스 등을 사용자에게 제시할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(416)은, 예컨대 스피커 또는 헤드셋을 포함하고, 사용자 입력에 대응하는 청각적 응답, 예컨대 음성 및/또는 음향 응답을 스피커 또는 헤드셋을 통해 사용자에게 제공할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(416)는 모션/햅틱 피드백 생성부를 포함하고, 이를 통해 촉각적 응답, 예컨대 모션/햅틱 피드백을 사용자에게 제공할 수 있다. 본 발명의 일 실시예에 의하면, 응답 출력 모듈(416)은, 사용자 입력에 대응하는 텍스트 응답, 음성 응답 및 모션/햅틱 피드백 중 임의의 두 개 이상의 조합을 동시에 제공할 수 있음을 알아야 한다.
도 5는, 본 발명의 일 실시예에 따른, 대화형 에이전트 시스템에 의해 수행되는 예시적 동작 흐름을 보여주는 흐름도이다.
단계(502)에서, 대화형 에이전트 시스템은, 하나 이상의 단어로 구성된 자연어 입력을 포함한 사용자 입력을 수신할 수 있다.  본 발명의 일 실시예에 의하면, 자연어 입력은, 예컨대 마이크로폰을 통하여 수신되는 음성 입력일 수 있다. 본 발명의 다른 실시예에 의하면, 자연어 입력은, 키보드나 터치패드 등을 통해 수신되는 텍스트 입력일 수 있다.
단계(504)에서, 단계(502)에서 수신된 사용자 입력에 포함된 음성 입력이 텍스트로 변환될 수 있다. 만약, 단계(502)에서 수신된 사용자 입력이 음성 입력이 아닌 텍스트 입력만이라면 단계(504)는 스킵될 수 있다. 이어서, 단계(506)에서, 사용자로부터 입력되었거나 사용자로부터 입력된 음성 입력을 변환하여 얻어진 텍스트에 대해 자연어 이해 처리를 수행하여, 그에 부합하는 사용자 의도를 결정할 수 있다. 음성 입력의 텍스트 변환 및 자연어 이해 처리와 그에 따른 사용자 의도 결정 등에 대해서는 전술 하였으며 여기서는 자세한 설명을 생략하기로 한다.
단계(508)에서는, 추가적인 정보를 요청할 필요 없이 사용자 의도에 대응하는 태스크를 수행하거나 대화 응답을 제공을 하기에 충분한 정보가 모두 획득되었는지 판정될 수 있다. 본 발명의 일 실시예에 의하면, 예컨대 생성된 질의는 배달 주문에 관한 것일 수 있고(예컨대, 치킨 두 마리 주문 질의), 단계(508)에서 사용자 입력으로부터 해당 질의에 필요한 충분한 정보(예컨대, 제품명, 주소, 수량 등 배달 주문에 필요한 각 정보)가 모두 획득되었다고 판정된 경우, 절차는 단계(510)로 진행하고 해당 질의가 특정한 태스크를 수행할 것을 요구하는지가 판정될 수 있다. 단계(510)에서, 특정한 태스크의 수행(예컨대, 배달 접수 신청)이 요구된다고 판정된 경우, 절차는 단계(512)로 진행하고 그 특정한 태스크의 수행이 완료될 수 있다. 단계(512)에서 특정한 태스크의 수행이 완료된 후, 또는 단계(510)에서 특정한 태스크의 수행이 필요하지 않다고 판정한 경우, 절차는 단계(514)로 진행할 수 있다.
단계(514)에서, 소정의 기준에 따라, 사용자에게 실질적 답변이 제공될 필요가 있는지 여부가 판정될 수 있다. 본 발명의 일 실시예에 의하면, 실질적 답변이란, 사용자 의도에 부합하는 특정 태스크의 수행의 완료를 알리거나(예컨대, '요청하신 작업을 완료하였습니다' 등), 사용자의 의도에 기초하여 얻어진 새로운 내용을 제공하여 사용자의 의도를 이해하였음을 알리거나, 사용자 의도에 부합하는 유의미한 정보(예컨대, 실질적 데이터 콘텐츠 등)를 포함하는 실질적 내용의 답변일 수 있다.
본 발명의 일 실시예에 의하면, 예컨대 입력된 질의에 관련된 문장의 종류가 무엇인지에 따라 실질적 답변이 제공되어야 하는지 판정될 수 있다. 예컨대, "이름이 뭐니"와 같은 의문문이나 "오늘 날씨를 알려줘"와 같은 명령문의 경우에는 통상 실질적 답변(예컨대, "내 이름은 OOO이야" 또는 "오늘 날씨는 맑고 바람이 많으며 습도가 낮은 날씨야" 등)이 제공되어야 할 것이다. 예컨대, 치킨 배달 주문의 태스크를 수행한 경우에는, 그 태스크 수행의 완료를 알리는 실질적 답변(예컨대, "치킨 배달 주문을 완료하였습니다" 등)이 제공되어야 할 것이다. 또, 입력된 질의에 관련된 문장이, 예컨대 "어제 먹은 야식이 참 맛있었는데 말이야"와 같은 이전 대화의 내용에 기초하고 있는 경우라면, 대화형 에이전트 시스템은 대응하는 이전 대화 내용을 참조하여 "크러스트 피자가 그렇게 맛있었나요?"와 같은 새로운 내용(즉, 사용자의 입력에 직접적으로 포함되어 있지는 않았던 새로운 내용)을 제공하여 자신이 사용자의 의도를 이해하였음을 알리는 사용자 입력에 호응하는 실질적 답변을 제공할 필요가 있을 수 있다. 본 발명의 일 실시예에 의하면, 입력된 질의에 관련된 문장이 특정한 상용구를 포함하는 경우(예컨대, "날씨가 좋다", "춥네" 등과 같이 호응의 표현을 해주는 것이 적절한 특정한 상용구를 포함하거나, "이제 잘래", "나중에 보자", "오늘 고마웠어" 등과 같이 대화의 종료를 확인할 필요가 있는 특정한 상용구를 포함하는 경우)에는 그에 대응하는 상용구적 답변(예컨대, "날씨 진짜 좋네요", "진짜로 추워" 등이나, "잘 자", "다음에 보자", "또 불러줘" 등)을 제공할 필요가 있을 수 있다. 한편, 입력된 질의에 관련된 문장이, 예컨대 "먹고 싶은 게 있는데"나 "내 이름은 말이야"와 같은 단순한 진술이나 "아 좋다"와 같은 단순한 감탄문인 경우에는, 통상 즉각적인 실질적 답변이 제공될 필요가 없을 수 있다. 여기서 사용자에게 실질적 답변이 제공될 필요가 있는지 여부를 판정하기 위한 전술한 조건들은 어디까지나 예시일 뿐이며, 다양한 기준이 고려될 수 있음을 알아야 한다. 단계(514)에서 실질적 답변이 제공될 필요가 있다고 판정된 경우, 대화형 에이전트 시스템은, 단계(516)에서 적절한 실질적 답변을 생성하고, 단계(528)로 진행할 수 있다.
단계(514)에서, 실질적 답변이 제공될 필요가 없다고 판정된 경우, 절차는 단계(518)로 진행하고 대화형 에이전트 시스템은, 소정의 기준에 따라, 간투사가 제공될 필요가 있는지 판정할 수 있다. 본 발명의 일 실시예에 의하면, 간투사는, 보다 자연스럽고 매끄러운 대화의 지속을 위한 단순한 호응/응답 표현, 감탄사, 각종 음향이나 이미지, 기호, 이모티콘 등을 포함하는 것일 수 있다. 본 발명의 일 실시예에 의하면, 간투사가 제공될 필요가 있는지 여부는, 사용자 특징적 데이터, 예컨대 해당 사용자의 이전 대화 기록으로부터 도출된 정보(예를 들어, 해당 사용자의 간투사 사용 빈도)에 기초하여 결정될 수 있다. 본 발명의 일 실시예에 의하면, 간투사가 제공될 필요가 있는지 여부는, 예컨대 대화형 에이전트 시스템에 의한 대화 응답(예컨대, 실질적 답변, 간투사, 또는 추가 정보 요청 등)의 제공이 없는 상태에서 계속하여 입력된 사용자 입력의 문장 수, 입력 단어 개수, 텍스트 입력 중의 구두점 개수 등이 소정 기준 이상이 되었는지, 대화형 에이전트 시스템에 의한 대화 응답의 제공이 없는 상태에서 사용자 입력 이후 소정의 시간이 경과되었는지 등에 기초하여, 결정될 수 있다. 여기서 사용자에게 간투사가 제공될 필요가 있는지 여부를 판정하기 위한 전술한 조건들은 어디까지나 예시일 뿐이며, 다양한 기준이 고려될 수 있음을 알아야 한다.
단계(518)에서, 소정의 기준에 따라, 간투사가 제공될 필요가 있다고 판정한 경우, 절차는 단계(520)로 진행되고 적절한 간투사가 선택되어 제공으로 결정될 수 있다. 단계(518)에서, 간투사가 제공될 필요가 없다고 판정된 경우, 절차는 단계(522)로 진행할 수 있다. 본 발명의 일 실시예에 의하면, 대화형 에이전트 시스템은 단계(522)에서 소정 시간 동안 추가적인 정보가 입력되는지 대기할 수 있다.
단계(508)로 돌아가서, 사용자 의도에 대응하는 질의를 위하여 필요한 정보가 아직 다 획득되지는 않은 것으로 판정된 경우, 절차는 단계(522)로 진행하고 대화형 에이전트 시스템은 소정 시간 동안 추가적인 입력을 대기할 수 있다. 본 발명의 일 실시예에 의하면, 예컨대 생성된 질의는 배달 주문에 관한 것인데, 질의에 관련된 입력 문장이 단순히 "치킨 주문하고 싶은데"로 끝나고, 필요한 정보, 예컨대 제품명, 주소, 수량 등 배달 주문에 필요한 각 정보를 포함하고 있지 않은 경우에는 충분한 정보가 포함되어 있지 않다고 판정할 것이다. 단계(524)에서, 사용자로부터 추가 정보 입력이 있었는지가 판정되고, 추가 정보 입력이 있은 경우 절차는 단계(508)로 복귀할 수 있다. 이와 달리, 단계(524)에서, 사용자로부터 추가 정보 입력이 아직 없는 것으로 판정된 경우, 절차는 단계(526)로 진행하고, 대화형 에이전트 시스템은 추가 정보를 얻기 위한 질문이나 정보 요청을 위한 적절한 문장을 선택할 수 있다. 본 발명의 일 실시예에 의하면, 전술한 바와 같이, 단순히 "치킨 주문하고 싶은데"라는 입력 이후 소정 시간이 경과하도록 추가적인 정보의 입력이 없는 경우, 대화형 에이전트 시스템은, 예컨대 "어떤 제품으로 주문할까요?"와 같은 추가 질문을 생성할 수 있다. 이와 달리, "치킨 주문하고 싶은데"라는 입력 이후 소정 시간 경과 중에 "교촌의 순살치킨 두 마리를 우리집으로 보내줘"와 같은 추가 정보가 입력된 경우라면, 절차는 단계(508)로 진행하고 후속 절차가 진행될 것이다.
단계(528)에서, 생성된 답변, 선택된 간투사, 또는 생성된 추가 질문 등의 자연어 응답을 사용자의 말하는 특성에 따라 변환하여 사용자 단말(102)에 제공할 수 있다. 본 발명의 일 실시예에 의하면, 답변, 간투사, 질문 등의 변환은, 상기 자연어 응답을 분석하여 상기 자연어 응답과 연관되어 미리 정해진 응답 변환 데이터베이스에 기초하여 상기 자연어 응답을 변환할 수 있다. 일 실시예에서, 응답 변환 데이터베이스는, 사용자별 특징 데이터를 저장하고 있는 사용자 데이터베이스 - 상기 사용자별 특징 데이터는, 해당 사용자의 이전 대화 기록, 발음 특징, 어휘 선호도, 소재지, 설정 언어, 설정 대화모드, 간투사 활용 빈도, 선호 간투사 및 선호 상용구 중 적어도 하나의 정보를 포함함 - 와, 어휘 데이터베이스 - 상기 어휘 데이터베이스는, 화자의 성별, 연령대, 출신 지역, 및 성격 중 어느 하나의 기준에 맞추어 미리 설정해 둔, 사용 어휘, 줄임말, 유행어, 단어 사이의 공백 개수 및 비표준어 중 적어도 하나의 정보를 포함함 - 중 적어도 하나를 포함할 수 있다. 일 실시예에서, 사용자의 말하는 특성에 따라 자연어 응답을 변환하여 제공하는 것은 응답 변환 데이터베이스를 기초로, 자연어 응답에 포함된 적어도 하나의 단어를 변경하거나, 자연어 응답에 포함된 적어도 하나의 단어와 연관되는 어휘, 간투사, 표시 중 적어도 하나를 추가하거나, 자연어 응답을 전체로서 변경하는 것일 수 있다.
일 실시예에서, 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 것은 사용자의 말하는 특성을 판단하고, 사용자의 말하는 특성을 판단하는 것은 상기 사용자의 정보에 기초하여 또는 사용자 미리 정한 대화모드- 상기 대화 모드는 비서 모드, 동성친구 모드, 이성친구 모드, 부하 모드, 일반 모드 중 하나 임 - 를 선택하는 것을 더 포함할 수 있다.
일 실시예에서, 예컨대 사용자의 말하는 특성을 판단하는 것은 자연어 입력이 발생한 시간과 장소에 따라 상기 사용자의 감정 정보를 판정하는 단계를 포함하고, 자연어 입력이 발생한 시간이 낮이거나 상기 자연어 입력이 발생한 장소가 회사인 경우, 상기 사용자의 감정 정보를 이성적으로 판정하고, 자연어 입력이 발생한 시간이 밤이거나 상기 자연어 입력이 발생한 장소가 집인 경우, 사용자의 감정 정보를 감성적으로 판정하는 것일 수 있다.
도 6은, 본 발명의 일 실시예에 따른, 사용자와 대화형 에이전트 시스템 간의 대화의 일 예를 보여주는 도면이다. 도시된 대화는 어디까지나 본 발명의 일 실시예를 설명하기 위하여 포함된 것일 뿐, 본 발명이 이러한 예시에 의하여 제한되는 것은 결코 아님을 알아야 한다.
본 발명의 일 실시예에 의하면, 대화형 에이전트 시스템은 10대 친구모드로 설정될 수 있다. 도 6에 도시된 바에 의하면, 대화형 에이전트 시스템은 사용자로부터 "내가 이번 주말에 약속이 있는지 확인해주라?"라는 질문을 수신함을 알 수 있다. 대화형 에이전트 시스템은 실질적 답변이 필요한 상황임을 인식하고, 실질적 답변을 생성할 수 있다. 상기 요청에 대해 생성된 실질적 답변이 "예정된 스케줄이 없습니다"라면, 대화형 에이전트 시스템은 상기 실질적 답변을 설정된 모드에 맞게 변환하여 제공할 수 있다. 설명하면, 상기 실질적 답변을 분석하여 상기 실질적 답변과 연관되어 미리 정해진 응답 변환 데이터베이스에 기초하여 상기 실질적 답변을 변환할 수 있다. 예컨대, 대화형 에이전트 시스템은 응답 변환 데이터베이스에 저장된 "뭐, 늘 그렇듯 한가할거야. 데헷"이라는 문장 전체로 치환하여 답변할 수 있다.
일 실시예에서, 대화형 에이전트 시스템은 생성된 실질적 답변인 "예정된 스케줄이 없습니다"를 "한가할거야"로 변환하고, 10대 친구모드에서 자주 쓰는 간투사, 어휘, 줄임말, 유행어로서 "뭐, 늘 그렇듯" 및/또는 "데헷"이 추가하여, 저장된 "뭐, 늘 그렇듯 한가할거야. 데헷"이라는 문장을 생성할 수 있다.
도 7은, 본 발명의 다른 실시예에 따른, 사용자와 대화형 에이전트 시스템 간의 채팅의 일 예를 보여주는 도면이다.
도 7에 도시된 바에 의하면, 사용자의 "이번주 금요일이 결혼기념일인가"에 대한 질문에 대화형 에이전트 시스템은 실질적 답변이 필요한 상황임을 인식하고, 실질적 답변을 생성할 수 있다. 상기 요청에 대해 생성된 실질적 답변이 "네"라면, 대화형 에이전트 시스템은 상기 실질적 답변을 상기 사용자의 말하는 특성에 따라 변환하여 제공할 수 있다. 설명하면, 상기 실질적 답변을 분석하여 상기 실질적 답변과 연관되어 미리 정해진 응답 변환 데이터베이스에 기초하여 상기 실질적 답변을 변환할 수 있다. 상기 사용자의 이전 자연어 입력을 분석함으로써 사용자의 정보를 판정하여, 사용자가 자주 쓰는 습관, 간투사, 어휘, 표현 등을 분석하여 "물론이지", "!", "문장 내 쉼표, 문장부호" 등을 파악하여 저장된 응답 변환 데이터베이스에 기초하여 상기 실질적 답변을 변환할 수 있다. 예컨대, 도시된 예에서 대화형 에이전트 시스템이 사용자의 말하는 특성에 따라 변환한 응답은 "물!론! 이지요!"이다.
당업자라면 알 수 있듯이, 본 발명이 본 명세서에 기술된 예시에 한정되는 것이 아니라 본 발명의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 재구성 및 대체될 수 있다. 본 명세서에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있음을 알아야 한다.
본 발명의 일 실시예에 따른 컴퓨터 프로그램은, 컴퓨터 프로세서 등에 의해 판독 가능한 저장 매체, 예컨대 EPROM, EEPROM, 플래시 메모리장치와 같은 비휘발성 메모리, 내장형 하드 디스크와 착탈식 디스크 같은 자기 디스크, 광자기 디스크, 및 CDROM 디스크 등을 포함한 다양한 유형의 저장 매체에 저장된 형태로 구현될 수 있다. 또한, 프로그램 코드(들)는 어셈블리어나 기계어로 구현될 수 있다. 본 발명의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.

Claims (10)

  1. 대화형 에이전트 시스템에 의해 구현되는 자연어 대화 제공 방법으로서,
    자연어 입력을 수신하는 단계;
    상기 자연어 입력을 처리하여, 상기 자연어 입력에 기초한 사용자 의도(intent)를 결정하는 단계; 및
    상기 자연어 입력 및 상기 결정된 사용자 의도 중 적어도 하나에 기초하여, 상기 자연어 입력에 대응한 자연어 응답을 제공하는 단계를 포함하고,
    상기 자연어 응답을 제공하는 단계는 상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계를 포함하고,
    상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계는 사용자의 말하는 특성을 판단하는 단계를 더 포함하고,
    사용자의 말하는 특성을 판단하는 단계는
    상기 자연어 입력이 발생한 시간과 장소에 따라 상기 사용자의 감정 정보를 판정하는 단계를 포함하고,
    상기 자연어 입력이 발생한 시간이 낮이거나 상기 자연어 입력이 발생한 장소가 회사인 경우, 상기 사용자의 감정 정보를 이성적으로 판정하고,
    상기 자연어 입력이 발생한 시간이 밤이거나 상기 자연어 입력이 발생한 장소가 집인 경우, 상기 사용자의 감정 정보를 감성적으로 판정하는 단계를 더 포함하는, 자연어 대화 제공 방법.
  2. 제1항에 있어서,
    상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계는
    상기 자연어 응답을 분석하여 상기 자연어 응답과 연관되어 미리 정해진 응답 변환 데이터베이스에 기초하여 상기 자연어 응답을 변환하는 단계를 포함하는, 자연어 대화 제공 방법.
  3. 제2항에 있어서,
    상기 응답 변환 데이터베이스는, 사용자별 특징 데이터를 저장하고 있는 사용자 데이터베이스 - 상기 사용자별 특징 데이터는, 해당 사용자의 이전 대화 기록, 발음 특징, 어휘 선호도, 소재지, 설정 언어, 설정 대화모드, 간투사 활용 빈도, 선호 간투사 및 선호 상용구 중 적어도 하나의 정보를 포함함 - 와, 어휘 데이터베이스 - 상기 어휘 데이터베이스는, 화자의 성별, 연령대, 출신 지역, 및 성격 중 어느 하나의 기준에 맞추어 미리 설정해 둔, 사용 어휘, 줄임말, 유행어, 단어 사이의 공백 개수 및 비표준어 중 적어도 하나의 정보를 포함함 - 중 적어도 하나를 포함하는, 자연어 대화 제공 방법.
  4. 제2항에 있어서,
    사용자의 말하는 특성을 판단하는 단계는 상기 사용자의 정보에 기초하여 또는 사용자 미리 정한 대화모드를 선택하는 단계 - 상기 대화 모드는 비서 모드, 동성친구 모드, 이성친구 모드, 부하 모드, 일반 모드 중 하나 임 -,
    를 더 포함하는, 자연어 대화 제공 방법.
  5. 제4항에 있어서,
    사용자의 말하는 특성을 판단하는 단계는
    상기 사용자의 정보를 입력 받거나, 상기 사용자의 이전 자연어 입력을 분석함으로써 사용자의 정보를 판정하는 단계
    를 더 포함하는, 자연어 대화 제공 방법.
  6. 삭제
  7. 제3항에 있어서,
    상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하는 단계는
    상기 응답 변환 데이터베이스를 기초로, 상기 자연어 응답에 포함된 적어도 하나의 단어를 변경하거나, 상기 자연어 응답에 포함된 적어도 하나의 단어와 연관되는 어휘, 간투사, 표시 중 적어도 하나를 추가하거나, 상기 자연어 응답을 전체로서 변경하는 단계를 포함하는 자연어 대화 제공 방법.
  8. 하나 이상의 명령어를 포함하는 컴퓨터 판독 가능 기록 매체로서,
    상기 하나 이상의 명령어는, 컴퓨터에 위해 실행되는 경우, 상기 컴퓨터로 하여금, 제1항 내지 제5항 및 제7항 중 어느 한 항의 방법을 수행하게 하는, 컴퓨터 판독 가능 기록 매체.
  9. 자연어 대화를 제공하도록 구성된 컴퓨터 장치로서,
    자연어 입력을 수신하도록 구성된 사용자 입력 수신 모듈;
    상기 자연어 입력을 처리하여, 상기 자연어 입력에 기초한 사용자 의도(intent)를 결정하도록 구성된 입력 해석 모듈; 및
    상기 자연어 입력 및 상기 결정된 사용자 의도 중 적어도 하나에 기초하여, 상기 자연어 입력에 대응한 자연어 응답을 제공하도록 구성된 응답 제공 모듈을 포함하고,
    상기 응답 제공 모듈은,
    상기 사용자의 말하는 특성에 따라 상기 자연어 응답을 변환하여 제공하도록 구성되고,
    사용자의 말하는 특성을 판단하는 것은 상기 자연어 입력이 발생한 시간과 장소에 따라 상기 사용자의 감정 정보를 판정하는 것을 포함하고,
    상기 자연어 입력이 발생한 시간이 낮이거나 상기 자연어 입력이 발생한 장소가 회사인 경우, 상기 사용자의 감정 정보를 이성적으로 판정하고, 상기 자연어 입력이 발생한 시간이 밤이거나 상기 자연어 입력이 발생한 장소가 집인 경우, 상기 사용자의 감정 정보를 감성적으로 판정하도록 구성되는 컴퓨터 장치.
  10. 제9항에 있어서,
    상기 컴퓨터 장치는, 사용자 단말 또는 상기 사용자 단말과 통신 가능하게 결합된 서버를 포함하는, 컴퓨터 장치.
KR1020170145692A 2017-11-03 2017-11-03 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체 KR101891492B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170145692A KR101891492B1 (ko) 2017-11-03 2017-11-03 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
CN201880085479.XA CN111542814A (zh) 2017-11-03 2018-05-25 改变应答以提供表现丰富的自然语言对话的方法、计算机装置及计算机可读存储介质
US16/761,413 US20210004538A1 (en) 2017-11-03 2018-05-25 Method for providing rich-expression natural language conversation by modifying reply, computer device and computer-readable recording medium
PCT/KR2018/005936 WO2019088384A1 (ko) 2017-11-03 2018-05-25 답변을 변형하여 풍부한 표현의 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170145692A KR101891492B1 (ko) 2017-11-03 2017-11-03 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체

Publications (1)

Publication Number Publication Date
KR101891492B1 true KR101891492B1 (ko) 2018-08-24

Family

ID=63454398

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170145692A KR101891492B1 (ko) 2017-11-03 2017-11-03 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체

Country Status (4)

Country Link
US (1) US20210004538A1 (ko)
KR (1) KR101891492B1 (ko)
CN (1) CN111542814A (ko)
WO (1) WO2019088384A1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909135A (zh) * 2018-08-28 2020-03-24 三星电子株式会社 对话代理的操作方法和对话代理设备
KR20200077853A (ko) * 2018-12-21 2020-07-01 인하대학교 산학협력단 성격 정보를 이용한 대화 생성기
CN111368549A (zh) * 2018-12-25 2020-07-03 深圳市优必选科技有限公司 一种支持多种服务的自然语言处理方法、装置及系统
WO2020196977A1 (ko) * 2019-03-26 2020-10-01 한국과학기술원 사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법
KR20200114230A (ko) * 2019-03-28 2020-10-07 서울대학교산학협력단 사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법
WO2020214011A1 (en) * 2019-04-19 2020-10-22 Samsung Electronics Co., Ltd. Information processing method, apparatus, electronic device and computer readable storage medium
KR20210120236A (ko) * 2020-03-26 2021-10-07 삼성생명보험주식회사 데이터 관리 방법
KR20220071791A (ko) * 2020-11-24 2022-05-31 경희대학교 산학협력단 응답과 질의 토큰의 관계에 기초하여 상기 질의에 대한 답변을 제공하는 방법 및 전자 장치
US11538476B2 (en) 2019-11-28 2022-12-27 Samsung Electronics Co., Ltd. Terminal device, server and controlling method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101891489B1 (ko) * 2017-11-03 2018-08-24 주식회사 머니브레인 적시에 간투사 답변을 제공함으로써 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345604A (ja) * 2002-05-28 2003-12-05 Inst Of Physical & Chemical Res 言語コンピュータ、言語処理方法、ならびに、プログラム
US20160294739A1 (en) * 2015-04-03 2016-10-06 Xsell Technologies Method and apparatus to increase personalization and enhance chat experiences on the internet

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728679B1 (en) * 2000-10-30 2004-04-27 Koninklijke Philips Electronics N.V. Self-updating user interface/entertainment device that simulates personal interaction
KR101113938B1 (ko) * 2008-11-21 2012-03-05 공경용 망자와의 대화를 제공하는 망자 커뮤니티 시스템 및 그 망자 커뮤니티 방법
US8949211B2 (en) * 2011-01-31 2015-02-03 Hewlett-Packard Development Company, L.P. Objective-function based sentiment
US20120253792A1 (en) * 2011-03-30 2012-10-04 Nec Laboratories America, Inc. Sentiment Classification Based on Supervised Latent N-Gram Analysis
BR112014010157A2 (pt) * 2011-10-28 2017-06-13 Intel Corp adaptação da linguagem usada em um dispositivo
JP6375605B2 (ja) * 2013-09-25 2018-08-22 ヤマハ株式会社 音声制御装置、音声制御方法およびプログラム
KR101567154B1 (ko) * 2013-12-09 2015-11-09 포항공과대학교 산학협력단 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치
KR101749706B1 (ko) * 2016-06-02 2017-06-22 충남대학교산학협력단 사용자 장치를 사용하여 획득된 상황 정보 및 생체 정보를 기반으로 사용자의 감정을 예측하는 방법 및 시스템
CN106997343A (zh) * 2017-03-28 2017-08-01 联想(北京)有限公司 信息处理方法及设备
WO2019068203A1 (en) * 2017-10-06 2019-04-11 Dynamicly Inc. SYSTEM AND METHOD FOR A GRAPHIC AND CONVERSATIONAL HYBRID USER INTERFACE

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003345604A (ja) * 2002-05-28 2003-12-05 Inst Of Physical & Chemical Res 言語コンピュータ、言語処理方法、ならびに、プログラム
US20160294739A1 (en) * 2015-04-03 2016-10-06 Xsell Technologies Method and apparatus to increase personalization and enhance chat experiences on the internet

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909135A (zh) * 2018-08-28 2020-03-24 三星电子株式会社 对话代理的操作方法和对话代理设备
KR20200077853A (ko) * 2018-12-21 2020-07-01 인하대학교 산학협력단 성격 정보를 이용한 대화 생성기
KR102183935B1 (ko) 2018-12-21 2020-11-27 인하대학교 산학협력단 성격 정보를 이용한 대화 생성기
CN111368549A (zh) * 2018-12-25 2020-07-03 深圳市优必选科技有限公司 一种支持多种服务的自然语言处理方法、装置及系统
WO2020196977A1 (ko) * 2019-03-26 2020-10-01 한국과학기술원 사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법
KR20200113775A (ko) * 2019-03-26 2020-10-07 한국과학기술원 사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법
KR102199928B1 (ko) * 2019-03-26 2021-01-08 한국과학기술원 사용자 페르소나를 고려한 대화형 에이전트 장치 및 방법
KR102385899B1 (ko) 2019-03-28 2022-04-12 서울대학교산학협력단 사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법
KR20200114230A (ko) * 2019-03-28 2020-10-07 서울대학교산학협력단 사용자 감정 파악에 따른 응답을 생성하는 시스템 및 방법
WO2020214011A1 (en) * 2019-04-19 2020-10-22 Samsung Electronics Co., Ltd. Information processing method, apparatus, electronic device and computer readable storage medium
US11538476B2 (en) 2019-11-28 2022-12-27 Samsung Electronics Co., Ltd. Terminal device, server and controlling method thereof
KR102359661B1 (ko) * 2020-03-26 2022-02-07 삼성생명보험주식회사 데이터 관리 방법
KR20210120236A (ko) * 2020-03-26 2021-10-07 삼성생명보험주식회사 데이터 관리 방법
KR20220071791A (ko) * 2020-11-24 2022-05-31 경희대학교 산학협력단 응답과 질의 토큰의 관계에 기초하여 상기 질의에 대한 답변을 제공하는 방법 및 전자 장치
KR102464121B1 (ko) 2020-11-24 2022-11-04 경희대학교 산학협력단 응답과 질의 토큰의 관계에 기초하여 상기 질의에 대한 답변을 제공하는 방법 및 전자 장치

Also Published As

Publication number Publication date
CN111542814A (zh) 2020-08-14
WO2019088384A1 (ko) 2019-05-09
US20210004538A1 (en) 2021-01-07

Similar Documents

Publication Publication Date Title
KR101891492B1 (ko) 답변을 변형하여 상황에 맞는 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
CN111837116B (zh) 自动构建或更新对话式ai系统的对话流管理模型的方法
KR101891496B1 (ko) 사용자간 대화 세션에 대한 능동적 모니터링 및 개입을 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
KR101945983B1 (ko) 대화 이해 ai 서비스 시스템과 연관된 대화 세션 중의 특정 시점에서 목표 달성을 위한 최적의 대화 패턴을 결정하는 방법, 목표 달성 예측 확률을 결정하는 방법, 및 컴퓨터 판독가능 기록 매체
KR101891489B1 (ko) 적시에 간투사 답변을 제공함으로써 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR101959292B1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR101891498B1 (ko) 대화형 ai 에이전트 시스템에서 멀티 도메인 인텐트의 혼재성을 해소하는 멀티 도메인 서비스를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR101950387B1 (ko) 학습 데이터 중 식별 가능하지만 학습 가능성이 없는 데이터의 레이블화를 통한, 대화형 ai 에이전트 시스템을 위한 지식베이스 모델의 구축 또는 갱신 방법, 컴퓨터 장치, 및 컴퓨터 판독 가능 기록 매체
KR20190143583A (ko) 대화 이해 ai 시스템에 의하여, 머신러닝을 대화 관리 기술에 적용한 하이브리드 계층적 대화 흐름 모델을 기초로 답변을 제공하는 방법 및 컴퓨터 판독가능 기록 매체
KR101932263B1 (ko) 적시에 실질적 답변을 제공함으로써 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR101914583B1 (ko) 보안 등과 관련된 서비스를, 사용자간 대화 세션에 대한 모니터링에 기초하고 대화 세션 또는 별도의 세션을 통해, 능동적으로 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
KR101932264B1 (ko) 복수 개의 같은 유형의 엔티티 정보의 분석에 기초한 인텐트 결정을 제공하는 방법 및 대화형 ai 에이전트 시스템, 및 컴퓨터 판독가능 기록 매체
KR101924215B1 (ko) 소정의 목표를 갖는 대화 이해 ai 서비스 시스템을 위한 대화 템플릿의 생성 방법 및 컴퓨터 판독가능 기록 매체
KR101949470B1 (ko) 보안성을 강화한 사용자 문맥 기반 인증 방법, 대화형 ai 에이전트 시스템 및 컴퓨터 판독가능 기록 매체
KR20190103951A (ko) 학습 데이터 중 식별 가능하지만 학습 가능성이 없는 데이터의 레이블화를 통한, 대화형 ai 에이전트 시스템을 위한 지식베이스 모델의 구축 또는 갱신 방법, 컴퓨터 장치, 및 컴퓨터 판독 가능 기록 매체
KR101891495B1 (ko) 사용자 발화 입력에 대한 대화 응답 후보를 표시하도록 하는 디스플레이 제어 방법, 컴퓨터 판독가능 기록 매체 및 컴퓨터 장치
KR102017544B1 (ko) 메신저 플랫폼에 관계없이 복수의 메신저를 이용하는 사용자간 다양한 형식의 채팅 서비스를 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
KR101970899B1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR20190094080A (ko) 사용자간 대화 세션에 대한 모니터링에 기초하여 능동적으로 주문 또는 예약 서비스를 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
KR102004092B1 (ko) 복수의 메신저를 이용하는 사용자간 심리스한 채팅 서비스를 제공하기 위해 관계 데이터베이스를 생성하는 방법 및 컴퓨터 판독가능 기록 매체
KR101934582B1 (ko) 복수의 메신저를 이용하는 사용자간 심리스한 채팅 서비스를 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체
KR20210045704A (ko) 엔티티 정보의 분석에 기초한 인텐트 결정을 제공하는 방법 및 대화형 ai 에이전트 시스템, 및 컴퓨터 판독가능 기록 매체
KR20190050702A (ko) 적시에 실질적 답변을 제공함으로써 자연어 대화를 제공하는 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
KR20190038489A (ko) 보안성을 강화한 사용자 문맥 기반 인증 방법, 대화형 ai 에이전트 시스템 및 컴퓨터 판독가능 기록 매체
KR101924217B1 (ko) 대화 세션 내의 이전의 이력 정보를 이용하여, 사용자간 대화 세션에 대한 모니터링에 기초해서 능동적으로 주문 또는 예약 서비스를 제공하는 대화형 ai 에이전트 시스템, 방법 및 컴퓨터 판독가능 기록 매체

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant