KR20180098711A - 마인드맵을 이용한 대화형인터페이스 시스템 및 방법 - Google Patents

마인드맵을 이용한 대화형인터페이스 시스템 및 방법 Download PDF

Info

Publication number
KR20180098711A
KR20180098711A KR1020170025161A KR20170025161A KR20180098711A KR 20180098711 A KR20180098711 A KR 20180098711A KR 1020170025161 A KR1020170025161 A KR 1020170025161A KR 20170025161 A KR20170025161 A KR 20170025161A KR 20180098711 A KR20180098711 A KR 20180098711A
Authority
KR
South Korea
Prior art keywords
mind map
conversation
node
story
interactive interface
Prior art date
Application number
KR1020170025161A
Other languages
English (en)
Inventor
정우식
Original Assignee
정우식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 정우식 filed Critical 정우식
Priority to KR1020170025161A priority Critical patent/KR20180098711A/ko
Publication of KR20180098711A publication Critical patent/KR20180098711A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F17/2705
    • G06F17/2755

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 인간과 지능형객체간에 자연스러운 대화를 진행하기 위한 대화형 인터페이스 시스템 및 방법에 관한 것으로, 사용자 통신인터페이스부, 제어부, 저장부, 그리고 대화형인터페이스 제작부로 구성되어진 대화형인터페이스 시스템으로 마인맵을를 이용하여 대화스토리를 작성하고 또한 마인드맵의 흐름을 이용하여 일정한 방법등을 이용하여 대화를 처리하는 것을 특징으로 하고 있다.

Description

마인드맵을 이용한 대화형인터페이스 시스템 및 방법{Interactive interface system and method using mind map}
본 발명은 인간과 지능형객체(챗봇, 로봇, 앱, 웹, 기계 등)간에 자연스러운 대화를 진행하기 위한 대화형 인터페이스 시스템 및 방법에 관한 것이다. 더욱 상세하게는 상호대화에 필요한 핵심요소인 대화스토리를 적용한 마인드맵을 제작할 수 있게 하고, 이 마인드맵 제작정보를 바탕으로 대화형 인터페이스를 구현하기 위한 가공데이터 및 코드를 생성할 수 있으며, 생성된 데이터를 통해서 사용자가 기획의도한 대화형 인터페이스를 코딩없이 쉽게 제작할 수 있게 하는 시스템 및 방법에 관한 것이다.
최근에 4차산업으로의 진입과정에서 인공지능 분야의 기계학습, 강화학습, 딥러닝에서 종래의 오버피팅(Overfitting)등의 문젯거리가 해결되어 획기적으로 지능형분야에 발전을 이루고 있다. 이와 더불어 대화형 인터페이스 기술 역시 주목되어 자연어처리, 대화관리방식 및 그 관련 기술들이 많이 발전하고 있다.
인간과의 대화처리를 자연스럽게 하기 위해서 필요한 자연어 처리기술로는 형태소분석 기술 그리고 개체를 분류하는 기술 등이 있어서 발화자의 의도를 추론하는데 필요한 요소를 문장에서 분류할 수 있으며, 그리고 개체를 사전에 정의하는 기술 등이 있어서 보다 발화자의 의도에 부응한 대답을 할 수 있도록 도와주고 필요한 요소들을 추출하는 기능을 할 수 있게 되었다.
그리고 사람의 생각을 일목요연하게 정리 및 기술하는 방법으로는 마인드맵원리를 이용한 마인드맵 제작기술이 대표적이다. 웹, 앱, PC애플리케이션을 통해서 자신의 생각과 흐름을 담고 있는 마인드맵을 작성하여 필요할 때 비주얼화된 마인드맵을 보고서 자신의 의도 및 생각을 즉시 정리, 파악할 수 있을 뿐만 아니라 상대에게 쉽게 전달할 수 있는 기능도 수행할 수 있게 되었다.
그리고 최근에는 챗봇(Chatbot)제작 기술들이 많이 나와서 이의 제작에 필요한 대화형 인터페이스 제작 기술들이 나오기 시작한 단계이며, 아직은 대화관리를 위한 기술은 단순한 수준에 머물러 있기도 하다.
본 발명은 대화형 인터페이스를 어떻게 하면, 일반 사용자가 쉽고 편리하게 구현하게 하는 것을 목적으로 한다.
사용자의 기획한 대화시나리오를 머릿속에서 그리는 형태대로 대화형 인터페이스의 대화스토리 역시 같은 흐름으로 비주얼하게 작성할 수 있게 하며, 그리고 또한 프로그램처리, 실행과정 역시 동일한 비주얼성과 흐름을 가지고 서로 매칭시킬 수 있으면, 대화 흐름이 원만할 뿐만 아니라 사용자의 기획의도 그대로 대화형 시스템에 반영할 수 있게 되는 대화형 인터페이스 시스템을 구축함으로서 정보제공시스템이 보다 지능화 되고, 사용자의 만족도뿐만 아니라 이를 제품화한 챗봇의 일반 사용자의 만족도 역시 향상시킬 수 있는 과제를 동시에 해결하는 기술적 과제가 있다.
본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 포함될 수 있다.
상기와 같은 과제를 해결하기 위해서 본 발명은 발화문이 전달되는 사용자통신 인터페이스부; 상기 통신인터페이스부로부터 발화문을 수신하고 분석하여 대화문을 결정하고 일반유저에게 응답, 출력하는 제어부; 대화이력과 질의정보를 취득하고 축적된 지식데이터를 저장하는 데이터베이스를 포함하는 저장부; 사용자에 의해서 만들어진 대화형인터페이스 마인드맵을 제작하고 제어부에 전달하는 마인드맵스토리부; 를 포함하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예에 따른 관리장치는, 상기 대화형인터페이스 제작시스템의 대화스토리 마인드맵 표시영역; 그리고 선택노드실행정보를 담고 있는 표시영역; #INTENT 마인드맵 호출영역; @ENTITY 마인드맵 호출영역; 마인드맵 코드빌딩영역; 대화스토리PLAY영역; 을 포함하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예에 따른 관리장치는, 대화스토리 마인드맵 표시영역에서 노드를 만들고 노드 상에 일반적인 프로그램의 if 문과 같은 조건의 형태를 갖는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예에 따른 관리장치는, 대화스토리 마인드맵 표시영역에서 각 노드와 매칭하여 선택노드실행정보 표시영역에 노드가 선택되고 실행되었을 때 대화스토리를 제어하고 프로그램할 수 있는 정보를 입력할 수 있는 수단을 제공하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예에 따른 관리장치는, 마인드맵의 노드들과 담고 있는 노드실행정보를 바탕으로 JSON 같은 데이터 코드들을 생성하고 이를 사용자가 다운로드 업로드 할 수 있는 수단을 제공하는 것을 특징으로 한다.
또한, 본 발명의 일 실시 예에 따른 관리장치는, 만들어진 마인드맵의 대화스토리를 즉시 실행하여 테스트할 수 있는 스토리PLAY와 같은 수단을 제공하는 것을 특징으로 한다.
한편, 상기와 같은 과제를 해결하기 위한 본 발명의 일 실시 예에 따른 대화형 인터페이스 제작 시스템은, 마인드맵 제작 유저인터페이스를 구현하기 위한 데이터를 제어부에 전송하고, 상기 마인드맵 제작 인터페이스를 통해 제작된 대화스토리 마인드맵, 의도마인드맵, 개체마인드맵을 이용하여 대화스토리의 정보를 분석하며, 분석된 정보를 바탕으로 대화형 인터페이스를 구현하기 위한 JSON코드를 생성하는 관리장치; 및 상기 마인드맵 제작 유저인터페이스를 통해 입력되는 정보를 상기 관리장치에 전송하고, 상기 관리 장치로부터 상기 JSON 코드를 수신하는 장치; 를 포함하는 것을 특징으로 한다.
또한, 대화스토리에서 노드의 선택 및 실행방법적 수단으로 자연어분석 처리에 의해 추출된 의도, 개체 등의 요소들, 대화상에서 만들어진 대화로그정보, 대화스토리용으로 작성된 대화마인드맵, 의도마인드맵, 개체마인드맵 그리고 각 마인드맵 노드들에 내재된 각각의 데이터들을 대화스토리 마인드맵에 프로그램적으로 맵핑하는 방법 및 가공하고 제어하는 방법 등을 포함하는 것 등을 수단으로 하는 것을 특징으로 한다.
한편, 상기에서 얘기한 “대화형인터페이스 제작시스템을 제공하는 수단“ 및 “대화스토리에서 노드의 선택 및 실행방법”은, 프로그램이 구현된 후 전자장치에 판독 가능한 기록 매체에 기록되거나, 프로그램 다운로드를 통해 배포될 수 있으며, 또한 대화스토리 마인드맵은 일반적인 전자이북과 같은 콘텐츠개념으로 공유 배포될 수 있는 수단으로 하는 것을 특징으로 한다.
일반적으로 마인드맵이란 그 정의가 "인간이 생각하는 정보를 시각적으로 구성하는 데 필요한 것을 계층적이며 전체 부분 간의 관계들의 집합 형태로 구성하는 다이어그램이다." 라는 데에서 알 수 있듯이 비주얼적인 요소들과 그 흐름으로 이해 할 수 있다.
따라서 이를 대화스토리의 제작방법에 적용하면, 대화스토리 역시 인간의 뇌에서 그리는 방법과 유사하게 적용되어, 챗봇 제작자가 자신의 기획의도를 마인드맵에 쉽게 담을 수 있다.
또한, 전체적인 대화스토리를 비주얼하게 그릴 수 있을 뿐만 아니라 또한 대화처리의 진행순서를 테스트하면서 대화의 흐름을 쉽게 수정할 수 있다.
그뿐만 아니라. 이렇게 마인드맵을 제작하게 되면 제작시간도 월등히 줄이 수 있는 있어서, 사용자의 편의성을 향상시킬 수 있다.
또한, 본 발명은 프로그래밍 지식이 없는 일반 사용자도 쉽게 코딩 없이 비주얼 한 유저인터페이스 환경에서 대화형 인터페이스를 제작할 수 있는 제작환경을 구축할 수 있다.
또한, 대화스토리 마인드맵은 파일형태로 저장되고 배포될 수 있기에 이를 공유할 수 있으며, 팀 또는 다른 사용자와 함께 협업하면서 대화형 인터페이스를 제작할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 “마인드맵을 이용한 대화형인터페이스 정보제공시스템”을 설명하기 위한 도면,
도 2는 도 1에 도시된 것의 상세내용을 포함한 “대화형인터페이스 정보제공시스템 상세도” 도면,
도 3은 도 1에 도시된 마인드맵 대화스토리부로 “마인드맵 제작유저인터페이스” 도면,
도 4는 도 3에 도시된 “대화스토리 마인드맵” 도면,
도 5는 도 3에 도시된 “#INTENT 의도 마인드맵” 도면,
도 6은 도 3에 도시된 “#ENTITY 개체 마인드맵” 도면,
도 7은 “대화형인터페이스 전체처리과정”의 흐름도,
도 8은 “대화스토리에서 노드선택 및 실행방법”을 나타내는 흐름도이다.
첨부된 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 대화형 시스템을 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 대화형인터페이스 시스템(1000)은 통신사용자 인터페이스부(100), 제어부(200), 저장부(300), 마인드맵대화스토리부(400)를 포함한다. 여기서 마인드맵대화스토리부(400)은 본 발명에서의 대화형인터페이스 시스템의 핵심요소로 대화스토리 마인드맵을 제작하는 시스템을 포함하고 있다.
한편, 도 2는 도 1의 내용을 보다 상세하게 각 기능 및 장치를 표시한 대화형인터페이스 시스템(1000)을 설명하고 있다.
통신사용자인터페이스부(100)는 일반 사용자가 챗봇, TV, 모바일, 로봇 등의 사용자 인터페이스(101)를 통해서 자신의 의도를 담은 일반 사용자의 대화를 제어부(200)에 전달할 수 있다.
제어부(200)는 전달된 자연어 대화정보를 처리하는 서버로 입력처리(201a), 대화결정(201b), 출력처리(201c), 머신러닝처리(201d), 검색형질의처리(201e)를 위한 어댑터처리 역할을 하는 자연어처리(NLP: Nature Language Process) 연동서버(201)와 자연어분석 및 대화유형을 분석하는 NLU(Nature Language Understanding)(202a), 대화스토리 알고리즘 해석처리부(202b) ,응답발화문을 생성하는 NLG(Nature Language Generating)(202c)등 지능형 대화처리엔진서버(202)를 통해서 사용자에게 응답과 정보를 제공하는 동작을 수행한다.
저장부(300)는 제어부에서 요청하는 축적된 지식데이터를 제공하기도 하고 또한 외부 AP(애플리케이션 서버)(301)와 연동하여 검색된 질의에 대응한 정보를 제어부(200)에 전달하기도 한다. 그리고 제어부(200)에서 머신러닝처리(201d)에 의해서 훈련된 데이터를 지식데이터DB(302)와 동기화 작업도 수행한다.
마인드맵 대화스토리부(400)는 제어부(200)에서 요청하는 대화의 응답을 결정하는데 핵심요소의 기능을 수행하는 곳으로 대화스토리 마인드맵(401)을 제작하고 이의 정보를 가공하여 제어부(200)에서 전송하면 제어부(200)의 대화스토리 알고리즘 해석처리(202b)과정을 통해서 저장부(300)의 지식데이터DB(302)에 저장한다. 사업자 또는 기획자등의 사용자가 소기의 목적을 달성할 수 있도록 대화형인터페이스 마인드맵을 구성하는 시스템으로 상세한 구성요소는 도 3을 참조한다.
대화형인터페이스 제작시스템(400)은 대화스토리 마인드맵(401), 의도마인드맵(500), 개체마인드맵(600), 마인드맵빌딩(403), 스토리PLAY(404)로 구성되어 있다.
대화스토리 마인드맵(401)은 루트노드(401a)와 그의 자식노드(401b), 그리고 그 자식노드의 자식노드(401c) 그리고 계속 반복해서 n차노드(407) 등으로 구성된다. 이러한 노드들의 연결과 집합의 구성조합이 그리고 이에 정해진 일정한 대화스토리 룰에 의해서 사용자의 질문에 제작자의 기획대로 응답을 하게 하는 대화스토리의 기능을 수행한다.
마인드맵에서 선택된 노드(401d)는 처음으로 대화가 진행되었을 첫 번째로 선택된 노드를 표시하고 있으며 선택되는 과정은 노드의 조건이 부합되어야 한다. 일시 예로 선택된 노드(401d)의 경우는 #설명 이라는 유저의 발화문을 분석하여 제어부에서 #설명 이라는 의도가 추출되고, 조건과 일치하기에 선택되었다. 즉 노드 상에 직접적으로 조건이 되는 요소를 기재 또는 상당하는 행위에 의해서 노드의 선택조건을 기재하는 곳으로 일반적인 개발 프로그램의 if 조건문과 유사한 역할을 수행한다.
선택노드실행정보(402)는 노드가 선택되고 실행될 때 필요한 각 노드의 정보를 담고 있는 역할을 하며, 대화표시(402a), 컨텍스트(402b), 링크정보(402c), 기타정보(402d) 등으로 되어 기획자는 여기에 필요한 응답정보, 컨텍스트변수요소, 링크할 노드정보 등을 담아서 노드가 실행되었을 때를 이를 메타정보 혹은 JSON 포멧으로 담아서 제어부(200)에 넘길 정보를 담는 역할 및 대화스토리 제어에 필요한 기능을 수행한다.
대화표시(402a)는 노드가 선택 실행되면 응답할 텍스트 및 관 콘텐츠정보를 제공하는 역할을 하며, 이를 위해서 제작자는 여기에 관련정보를 입력 또는 이미지, 멀티미디어요소 등을 업로드하여 응답 시에 필요한 정보를 담고 있는 기능을 한다.
컨텍스트(402b)는 대화가 입력되고 노드가 실행되기 전에 노드의 진행방향, 정지 또는 다음 대화를 할 때 노드의 초기위치선택 등에 필요한 변수 등의 컨텍스트를 담고 있는 곳으로 여기에 변수들을 설정하여 노드가 실행되기 전에 필요한 방향을 정하는 역할을 주로 하며, 그리고 노드에서 검색질의가 필요할 때는 여기에 설정하여 검색질의를 도와주는 역할도 수행한다.
링크정보(402c)는 노드가 실행된 후 정해진 다음 노드로 진행하기 전에 점프할 노드가 있는지의 정보를 담고 있어서 점프할 노드가 필요할 경우에 링크조건을 달고 노드 실행시에 링크조건에 따라 링크를 수행할지 말지를 결정하는 정보를 담고 있는 역할을 수행한다.
기타정보(402d)는 노드와 관련된 기타 필요정보를 담고 있으며 이의 역할을 수행한다.
마인드맵상의 #INTENT 마인드맵(500)은 대화형인터페이스 제작시스템(400)에서 대화스토리 마인드맵(401)에 사용할 의도요소들을 사전에 정의하는 곳으로 여기 또한 대화스토리 마인드맵(401)과 같이 마인드맵형태로 되어 있다.
마인드맵상의 #ENTITY 마인드맵(600)은 대화형인터페이스 제작시스템(400)에서 대화스토리 마인드맵(401)에 사용할 개체요소들을 사전에 정의하는 곳으로 여기 또한 대화스토리 마인드맵(401)과 같이 마인드맵형태로 되어 있다.
마인드맵상의 마인드맵빌딩(403)은 대화형인터페이스 제작시스템(400)에서 마인드맵의 빌드된 코드들을 JSON포멧으로 수입(Import), 외부제공(Export)하는 기능과 역할을 수행한다.
또한 스토리PLAY(404)는 대화형인터페이스 제작시스템(400)에서 만들어진 대화스토리를 실행하여 제작작업을 하면서 미리 대화스토리의 응답기능을 체크할 수 있는 기능을 수행한다.
도 5의 의도마인드맵(500)은 루트노드의 1차자식노드(501), 2차자식노드(502)로 구성되어 있다. 1차자식노드(501)에는 의도들을 정의하는 곳으로 대화시나리오 마인드맵에서 사용되어질 요소인 의도를 사전에 정의하는 마인드맵상의 위치이다. 2차자식노드(502)에는 의도를 대표하는 대화 예들을 사전에 정의하는 마인드맵상의 위치이다. 이들 1차자식노드(501)의 의도명을 가진 노드와 그 2차자식노드(502)의 대표적인 대화예들을 가진 노드들은 지능형대화엔진서버(202)가 저장부(300)의 훈련된 데이터를 이용하여 발화자의 발화문에서 의도를 추출할 때 함께 사용되는 역할을 하고 있다.
도 6의 개체마인드맵(600)은 루트노드의 1차자식노드(601), 2차자식노드(602), 3차자식노드(603)로 구성되어 있다. 1차자식노드(601)에는 개체명을 정의하는 곳으로 대화시나리오 마인드맵에서 사용되어질 요소인 개체명을 사전에 정의하는 마인드맵상의 위치이다. 2차자식노드(602)에는 개체값을 사전에 정의하는 마인드맵상의 위치이다. 3차자식노드(603)에는 개체값의 동의어들을 사전에 정의하는 마인드맵상의 추출할 때 함께 사용되는 역할을 하고 있다.
지금까지는 제작시스템의 구성부의 역할에 대해서 설명하였으며, 다음으로 일시 예를 통해서 대화형인터페이스 마인드맵의 전체처리과정 및 대화스토리 룰의 노드선택 및 실행하는 방법을 얘기할 차례입니다.
다음은 일 실시 예로, 챗봇이 처음 기동할 때 “안녕하세요. 특허에 관해서 무엇을 도와드릴까요”의 첫인사에 대해서 일반사용자의 “특허에 대해서 설명해 주세요”라는 질문에 챗봇이 “특허의 어떤 분야를 설명해 드릴까요? 출원, 등록, 검색 등이 있습니다.”라고 응답하고 다시 사용자가 “국내출원에 대해서 설명해주세요.”라고 다시 질문하면 챗봇이 “국내출원은 다음과 같이 처리되고 있습니다. … …”라고 대답하는 하나의 예를 제작자의 기획시나리오를 바탕으로 대화형인터페이스 마인드맵들을 제작하고 이를 이용하여 어떻게 대화시나리오 룰이 적용되는지를 나타내는 일 실시 예의 챗봇을 구현하는 방법이다.
먼저, 제작자는 제작시스템을 통해서 대화스토리 마인드맵(401)을 제작한다. 기획의도를 담고 있는 도 4의 일 실시 예처럼, 대화스토리 마인드맵의 1차 자식노드(405) 위치에 챗봇이 시작할 때 나타내는 첫인사를 위해서 시스템내장노드 “.시작” 을 생성하고 고. 그리고 2차 자식노드(406) 위치에 의도내의 개체들을 분기하여 @국내특허, @PCT특허, @상표특허, @디자인특허, @그외 등의 개체들 생성한다.
그리고 1차자식노드(405)에는 부가적으로 필요한 #등록, #검색, .인사, .간단대화, .그외 등의 노드들을 생성하고 이에 알맞은 선택노드실행정보들을 기재한다.
.시작 에는 “안녕하세요. 특허에 관해서 무엇을 도와드릴까요”을 대화표시에 기입한다.
#설명 에는 “특허의 어떤 분야를 설명해 드릴까요? 출원, 등록, 검색 등이 있습니다.”를 대화표시에 기입한다.
#국내출원 에는 “국내출원은 다음과 같이 처리되고 있습니다. … …”를 대화표시에 기입한다.
그리고, #INTENT 마인드맵을 도 5의 일시 예처럼 #설명 과 그 대화예를 제작한다. #ENTITY 마인드맵을 도 6의 일시 예처럼 @국내출원과 그 개체값을 제작한다. 제작 후 이를 저장하면서 각 마인드맵의 노드상의 값들이 웹의 경우는 html5 DOM에 기초하여 메타데이터 또는 JSON값으로 저장되어 제어부에 송신한다. 그외 기타 응용프로그램의 경우는 키값과 밸류값을 토대로 JSON값 또는 상당하는 값으로 제어부(200)에 송신한다.
제어부(200)에서는 송신된 값을 기초로 데이터를 가공하여 대화가 진행될 때 사용할 수 있도록 저장부(300)의 지식데이터DB(302)에 저장한다.
이제, 대화가 시작되면 도 7의 대화형인터페이스 전체처리과정에서 “자연어가 입력”(S101) 되고, 제어부의 입력처리(201a)에서 지능형 대화처리엔진 서버(202)에 송신하면 NLU 자연어분석 및 대화유형분석(202a)에서 “형태소분석 개체명분석 등 알고리즘에 의해 마인드맵에 사전 정의된 #의도 @개체 대화이력 등 요소추출”(S102) 과정을 거쳐서, “정보화된 추출요소들을 이용하여 대화시나리오에 적용”(S103)을 위해서 대화시나리오(401)의 가공된 데이터가 저장된 저장부(300)의 지식데이터DB(302)에서 가져온 데이터를 근거하여 “대화시나리오 룰에 의해서 노드결정, 실행 및 대화정보결정”(S104)를 진행한다. 그리고 “응답텍스트 및 부가정보 등 출력”(S105)을 위해서 지능형 대화처리엔진 서버(202)의 대화스토리 알고리즘 해석처리(202b)에서 처리된 결과값을 NLG응답 발화문 생성(202c)에 전송하면 여기서 발화문과 관련정보가 자연어처리연동서버(201)의 출력처리(201c) 과정을 거쳐 통신인터페이스부(100)을 통해서 유저에게 응답하는 과정을 하게 된다.
상기 처리과정에서 핵심부분은 “대화시나리오 룰에 의해서 노드결정, 실행 및 대화정보결정”(S202) 과정으로 이는 도 8에서 상세히 그 기능을 설명하고 있다.
자세한 처리과정은 다음과 같이 진행된다.
대화가 시작되면 “대화시작”(S201) 되면 사용자의 발화문 및 저장부(300)의 대화이력등 기초데이터가 지능형 대화처리엔진 서버(202)에 전송되고 NLU자연어분석 및 대화유형분석(202a) 처리기능을 통해서 “추출된 #의도 @개체 및 대화이력 등 정보화된 요소들 준비”(S202) 하는 과정을 통해서 대화스토리 룰을 각 노드에 적용할 수 있다. NLU(Nature Language Understanding)(202a)과정을 통해서 추출된 #의도, @개체 및 노드상의 컨텍스트변수, 링크정보 및 대화이력정보 들을 이용한다.
컨텐스트변수(S203)에 의해서 대화시나리오 마인드맵의 위치를 루트노드부터 시작할지 아니면 이전대화에서 최종 실행된 노드로 이동할지를 대화시나리오에서 정의된 위치결정 컨텍스트(402b) 변수에 의해서 결정한다. 컨텍스트변수가 루트노드를 선택하였을 경우에는 “마인드맵의 1차노드들에 순서대로 요소들을 대입 노드결정 및 실행”(S204)과정을 거친다. 혹은 컨텍스트변수가 이전대화의 직전노드를 선택하였을 경우에는 “이전대화에서 실행된 마지막 노드로 이동”(S205)과정을 거친다. 그리고 선택된 노드의 링크조건(S206)에 부합하는 경우는 링크된 노드로 이동하며 그렇지 않으면 다음대화대기(S210) 상태로 전환한다. 링크노드로 이동(S207)된 경우는 노드조건(S208)을 비교하여 부합하는지 아닌지를 판단하여 노드실행(S209)순서로 이동한다. 부합하지 아니할 경우는 다음대화대기(S210) 상태로 전환한다. 상기에서 노드실행(S209)후 다시 링크조건으로 이동하여 반복 수행한다.
이러한 일련의 과정을 통해서 일반사용자의 대화를 인식하고 제작사용자의 대화스토리 마인드맵상의 흐름대로 대화처리를 하는 대화형인터페이스 시스템을 구축할 수 있다.
1000 : 대화형인터페이스 시스템
100: 사용자통신 인터페이스부
200: 제어부
300: 저장부
400: 마인드맵 대화스토리부
500: 의도마인드맵
600: 개체마인드맵

Claims (6)

  1. 일반사용자의 자연어대화에 대응하는 응답 및 관련정보를 제공하는 대화형인터페이스 시스템에 있어서, 챗봇, TV, 모바일, 웹 등의 채널로부터 발화자의 대화를 수신하는 사용자인터페이스, 채널관리 등의 사용자통신인터페이스부; 및, 사용자의 발화의도를 형태소분석, 개체명분석 등의 자연어처리를 담당하고 연동하는 서버, 대화유형을 분석하고 응답 발화문을 생성하는 지능형 대화처리 엔진을 포함하는 제어부; 및, 개인정보, 대화이력, 학습데이터 등 축적된 지식데이터DB 및 외부AP서버 등의 저장부; 및, 제작사용자의 의도대로 대화스토리 마인드맵을 제작하는 시스템인 대화형인터페이스 대화스토리부; 를 포함하는 마인드맵을 이용한 대화형인터페이스 시스템.
  2. 제 1 항에 있어서 대화형인터페이스 대화스토리부를 구성하는 대화스토리 마인드맵; 선택노드실행정보; #INTENT 마인드맵; @ENTITY 마인드맵; 마인드맵 빌딩; 스토리PLAY; 를 포함하는 것을 특징으로 하는 대화형인터페이스 제작시스템.
  3. 제 2 항에 있어서 대화형인터페이스 마인드맵 제작시스템에서 대화스토리 , 의도 및 개체의 사전정의를 마인드맵을 수단으로 제작하는 것을 특징으로 하는 대화형인터페이스 장치.
  4. 제 2 항에 있어서 대화스토리 마인드맵, #의도마인드맵, @개체마인드맵을 구성하는 노드들 및 각 노드들과 대응하는 정보들이 JSON형태 또는 그 유사형태로 관리되는 것을 특징으로 하는 관리장치.
  5. 제 2 항에 있어서 대화형인터페이스 제작시스템에서 마인드맵을 제작 유저인터페이스를 이용하여 대화스토리 마인드맵을 제작하고, 제작정보를 제어부에 전송하는 단계; 저장부에 전송하는 단계; 및, 대화진행 중 제어부의 대화스토리 알고리즘 해석처리;를 포함하는 것을 특징으로 하는, 마인드맵 대화형 인터페이스 제작 서비스를 제공하는 방법.
  6. 제 5 항에 있어서 대화스토리 알고리즘 해석처리; 관리장치는
    추출된 #의도 @개체 및 대화이력 등 정보화된 요소들 준비;
    컨텍스트변수;
    루트의 경우, 마인드맵의 1차노드들에 순서대로 요소들을 대입 노드결정 및 실행;
    이전대화의 경우, 이전대화에서 실행된 마지막 노드로 이동;
    링크조건;
    링크된 노드로 이동;
    노드조건;
    노드실행;등의 순차적인 제어과정들을 거쳐서 대화의 흐름이 실행되는 것을 특징으로 하는 제어방법.
KR1020170025161A 2017-02-27 2017-02-27 마인드맵을 이용한 대화형인터페이스 시스템 및 방법 KR20180098711A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170025161A KR20180098711A (ko) 2017-02-27 2017-02-27 마인드맵을 이용한 대화형인터페이스 시스템 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170025161A KR20180098711A (ko) 2017-02-27 2017-02-27 마인드맵을 이용한 대화형인터페이스 시스템 및 방법

Publications (1)

Publication Number Publication Date
KR20180098711A true KR20180098711A (ko) 2018-09-05

Family

ID=63594652

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170025161A KR20180098711A (ko) 2017-02-27 2017-02-27 마인드맵을 이용한 대화형인터페이스 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20180098711A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444306A (zh) * 2020-03-23 2020-07-24 长沙禾子教育科技有限公司 一种微环境家庭教育系统
KR102215286B1 (ko) * 2020-08-25 2021-02-10 건국대학교 산학협력단 문서 이해에 기반한 문장 생성 챗봇 서비스 제공 방법 및 장치
CN112529318A (zh) * 2020-12-17 2021-03-19 迪爱斯信息技术股份有限公司 一种预案处置方法、系统、计算机设备及存储介质
CN113407164A (zh) * 2021-06-21 2021-09-17 邬恩国 一种基于思维导图和树状结构技术软件代码生成方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111444306A (zh) * 2020-03-23 2020-07-24 长沙禾子教育科技有限公司 一种微环境家庭教育系统
CN111444306B (zh) * 2020-03-23 2023-11-14 长沙禾子教育科技有限公司 一种微环境家庭教育系统
KR102215286B1 (ko) * 2020-08-25 2021-02-10 건국대학교 산학협력단 문서 이해에 기반한 문장 생성 챗봇 서비스 제공 방법 및 장치
CN112529318A (zh) * 2020-12-17 2021-03-19 迪爱斯信息技术股份有限公司 一种预案处置方法、系统、计算机设备及存储介质
CN113407164A (zh) * 2021-06-21 2021-09-17 邬恩国 一种基于思维导图和树状结构技术软件代码生成方法及系统
CN113407164B (zh) * 2021-06-21 2022-07-29 邬恩国 一种基于思维导图和树状结构技术软件代码生成方法及系统

Similar Documents

Publication Publication Date Title
Pérez-Soler et al. Collaborative modeling and group decision making using chatbots in social networks
Bercher et al. Plan, repair, execute, explain—how planning helps to assemble your home theater
KR20180098711A (ko) 마인드맵을 이용한 대화형인터페이스 시스템 및 방법
CN115796299A (zh) 经由机器学习语言模型的链的透明且可控的人智交互
CN112639827A (zh) 从计算应用自动地生成对话式服务
CN111597312A (zh) 一种多轮对话脚本的生成方法和装置
Gu et al. Shape grammars: A key generative design algorithm
US20220414320A1 (en) Interactive content generation
CN112927692B (zh) 一种自动语言交互方法、装置、设备和介质
Williams et al. Dempster-shafer theoretic resolution of referential ambiguity
CN115630146A (zh) 基于人机交互的需求文档自动生成方法、装置和存储介质
Zheng et al. Synergizing human-AI agency: a guide of 23 heuristics for service co-creation with LLM-based agents
Khurana et al. Why and when llm-based assistants can go wrong: Investigating the effectiveness of prompt-based interactions for software help-seeking
Martínez-Gárate et al. Model-driven approaches for conversational agents development: A systematic mapping study
Wang et al. Enhancing user experience in large language models through human-centered design: Integrating theoretical insights with an experimental study to meet diverse software learning needs with a single document knowledge base
JP6895037B2 (ja) 音声認識方法、コンピュータプログラム及び装置
Olaso et al. A Multi-lingual evaluation of the vAssist spoken dialog system. Comparing Disco and RavenClaw
Allen et al. Conversational agents for complex collaborative tasks
Hershcovich et al. It’s the meaning that counts: the state of the art in NLP and semantics
Buschmeier et al. Co-constructing grounded symbols—feedback and incremental adaptation in human–agent dialogue
Ahmed An Architecture for Dynamic Conversational Agents for Citizen Participation and Ideation
CN112487170A (zh) 面向场景配置的人机交互对话机器人系统
Koussaifi et al. Putting the end-user in the loop in smart ambient systems: an approach based on model-driven engineering
Melo dos Santos Adaptive Human-Chatbot Interactions: Contextual Factors, Variability Design and Levels of Automation
Riabacke et al. Conceptualisation of the gap between managerial decision-making and the use of decision analytic tools

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application