KR20180101991A - Creative thinking support apparatus and creative thinking support method - Google Patents
Creative thinking support apparatus and creative thinking support method Download PDFInfo
- Publication number
- KR20180101991A KR20180101991A KR1020170147764A KR20170147764A KR20180101991A KR 20180101991 A KR20180101991 A KR 20180101991A KR 1020170147764 A KR1020170147764 A KR 1020170147764A KR 20170147764 A KR20170147764 A KR 20170147764A KR 20180101991 A KR20180101991 A KR 20180101991A
- Authority
- KR
- South Korea
- Prior art keywords
- relation
- node
- graph
- knowledge
- proposition
- Prior art date
Links
Images
Classifications
-
- G06F17/2705—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G06F17/30654—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
본 발명은 발상 지원 장치 및 발상 지원 방법에 관한 것이다.The present invention relates to an idea support apparatus and an idea support method.
본 기술 분야의 배경 기술로서, 일본국 특개 2007-241901호 공보(특허문헌 1)가 있다. 이 공보에는,「입력된 테마에 관련된 의견 텍스트군 중에서 상기 테마에 관련된 복수의 논점을 추출하는 논점 추출 수단과, 상기 복수의 논점마다, 당해 논점을 포함하고 있는 상기 의견 텍스트 중에서 당해 논점에 하나의 입장을 가지는 의견의 비율을 나타내는 고유도를 산출하는 고유도 산출 수단과, 상기 복수의 논점마다 상기 하나의 입장을 포함하고 있는 의견의 중요도를 산출하는 중요도 산출 수단과, 상기 복수의 논점에 관련된 관련어를 추출하는 관련어 추출 수단과, 상기 복수의 논점마다에 대한 긍정 또는 부정의 의견에 있어서의 복수의 대표 의견을 선택하는 대표 의견 선택 수단과, 상기 각 수단으로부터 출력된 상기 복수의 논점마다의 상기 고유도 및 상기 중요도를 출력하는 인터페이스 수단을 구비한다.」고 기재되어 있다(요약 참조).BACKGROUND ART [0002] Japanese Patent Application Laid-Open No. 2007-241901 (Patent Document 1) is known as a background art in this technical field. This publication discloses a technique for extracting a plurality of points related to the theme among a group of comment texts related to an inputted theme, and a method for extracting a plurality of points of interest related to the theme from among the plurality of points of view, A degree of importance calculation means for calculating a degree of opinion representing a ratio of opinions having an admission; a degree of importance calculation means for calculating a degree of importance of the opinion including the one admission for each of the plurality of topics; A representative opinion selection means for selecting a plurality of representative opinions in an affirmative or negative opinion for each of the plurality of issues; And an interface means for outputting the degree of importance and the importance. &Quot;
예를 들면 유저가, 주어진 테마에 관한 작문이나 발화(發話)를 행하는 것을 상정한다. 특허문헌 1에 기재된 기술은, 주어진 테마에 관한 논점을 미리 추출 함으로써, 유저에 의한 작문이나 발화를 지원한다.For example, it is assumed that the user performs writing or uttering about a given theme. The technique described in
그러나, 유저가 작문이나 발화를 진행했을 경우, 특허문헌 1에 기재된 기술이 추출한 각 논점은, 당해 작문이나 당해 회화의 컨텍스트에 적합한 논점이라고는 단정할 수 없다. 그래서, 본 발명의 일 태양은, 유저가 작문이나 발화를 행하고 있는 도중에, 유저에 의한 작문이나 발화의 컨텍스트에 따라, 유저의 발상을 지원 하는 것을 목적으로 한다.However, when a user proceeds writing or uttering, each issue extracted by the technique described in
상기 과제를 해결하기 위해, 본 발명의 일 태양은 이하의 구성을 채용한다. 유저의 발상을 지원하는 발상(發想) 지원 장치로서, 프로세서와 메모리를 포함하고, 상기 메모리는, 지식을 정의하는 문서에 포함되는 명제(命題)를 구성하는 요소를 나타내는 노드와, 상기 명제가 나타내는 상기 요소간의 릴레이션(relation)을 나타내는 제 1 종(種) 에지를 포함하는 제 1 그래프의 구조를 나타내는 그래프 정보와, 상기 문서에 있어서의 릴레이션의 출현 순서를 나타내는 컨텍스트 정보를 유지하며, 상기 프로세서는, 명제의 입력을 접수하고, 상기 입력을 접수한 명제에 포함되는 요소와, 상기 입력을 접수한 명제가 나타내는 당해 요소간의 릴레이션을 추출하고, 상기 추출한 요소를 나타내는 노드를 포함하며, 또한 상기 추출한 요소간의 릴레이션을 상기 제 1 종 에지로서 포함하는 제 2 그래프를 생성하고, 상기 그래프 정보를 참조하여, 상기 제 2 그래프가 나타내는 릴레이션이 상기 제 1 그래프에 포함되는 것으로 판정했을 경우, 상기 컨텍스트 정보를 참조하여, 상기 문서에 있어서 당해 릴레이션의 후에 출현한 릴레이션을 특정하고, 상기 특정한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.In order to solve the above problems, one aspect of the present invention employs the following configuration. 1. An idea support apparatus for supporting a user's idea, comprising: a processor and a memory, the memory comprising: a node representing an element constituting a proposition contained in a document defining knowledge; The graph information indicating a structure of a first graph including a first kind of edge indicating a relation between the elements representing the first graph and context information indicating a sequence of appearance of a relation in the document, Extracts a relation between an element included in the proposition in which the input has been accepted and an element between the element in which the input has been accepted and an element that represents the extracted element and includes a node indicating the extracted element, Generating a second graph including a relation between elements as the first type edge, referring to the graph information, And when it is determined that the relation represented by the second graph is included in the first graph, referring to the context information, specifies a relation appearing after the relation in the document, and outputs information indicating the specified relation The idea support device.
본 발명의 일 태양은, 유저가 작문이나 발화를 행하고 있는 도중에, 유저에 의한 작문이나 발화의 컨텍스트에 따라, 유저의 발상을 지원할 수 있다.One aspect of the present invention can support the user's idea in accordance with the context of writing or uttering by the user while the user is writing or uttering.
상기한 것 이외의 과제, 구성 및 효과는, 이하의 실시예의 설명에 의해 명백해진다.The problems, the constitution and the effects other than the above are clarified by the following description of the embodiment.
도 1은 실시예 1에 있어서의 발상 지원 장치의 구성예를 나타내는 블록도.
도 2는 본 실시예에 있어서의 발상 지원 장치가 실시하는 처리의 일례를 나타내는 플로우 차트.
도 3a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 3b는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 3c는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 3d는 실시예 1에 있어서의 노드 테이블의 일례.
도 3e는 실시예 1에 있어서의 에지 테이블의 일례.
도 4a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 4b는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 4c는 실시예 1에 있어서의 노드 테이블의 일례.
도 4d는 실시예 1에 있어서의 에지 테이블의 일례.
도 5a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5b는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5c는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5d는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5e는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 6a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 6b는 실시예 1에 있어서의 노드 테이블의 일례.
도 6c는 실시예 1에 있어서의 에지 테이블의 일례.
도 7a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 7b는 실시예 1에 있어서의 후속 지식 테이블의 일례.
도 8a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 8b는 실시예 1에 있어서의 후속 지식 테이블의 일례.
도 9a는 실시예 1에 있어서의 발화 이해 처리로 생성되는 지식 그래프의 일례.
도 9b는 실시예 1에 있어서의 발화 이해 처리로 생성되는 지식 그래프의 일례.
도 9c는 실시예 1에 있어서의 표시 장치에 표시되는 화면의 변천의 일례.1 is a block diagram showing a configuration example of an idea support apparatus according to the first embodiment;
Fig. 2 is a flowchart showing an example of processing performed by the idea support apparatus in the present embodiment. Fig.
3A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
3B is an example of a knowledge graph showing knowledge in a document in the first embodiment;
3C is an example of a knowledge graph showing knowledge in a document in the first embodiment;
FIG. 3D is an example of a node table in the first embodiment; FIG.
3E is an example of an edge table in the first embodiment;
4A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
4B is an example of a knowledge graph showing knowledge in a document in the first embodiment;
4C is an example of a node table in the first embodiment;
4D is an example of an edge table in the first embodiment;
5A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5B is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5C is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5D is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5E is an example of a knowledge graph showing knowledge in a document in the first embodiment;
6A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
6B is an example of a node table in the first embodiment;
6C is an example of an edge table in the first embodiment;
7A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
FIG. 7B is an example of a follow-up knowledge table in the first embodiment; FIG.
8A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
8B is an example of a follow-up knowledge table in the first embodiment;
FIG. 9A is an example of a knowledge graph generated by the ignition understanding processing in the first embodiment. FIG.
FIG. 9B is an example of a knowledge graph generated by the ignition understanding processing in the first embodiment; FIG.
9C is an example of the transition of the screen displayed on the display device in the first embodiment;
이하, 첨부 도면을 참조하여 본 발명의 실시형태를 설명한다. 본 실시형태는 본 발명을 실현하기 위한 일례에 지나지 않으며, 본 발명의 기술적 범위를 한정하는 것이 아님에 주의해야 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that this embodiment is only one example for realizing the present invention, and does not limit the technical scope of the present invention.
표현력 및 사고력 등을 기르기 위해서, 학교 등에서(예를 들면, 논술문의) 작문 훈련이 실시된다. 작문은, 문제집 등에서 수득할 수 있는 지식과 달라서, 자주 학습이 어렵고, 학생의 작문 기술 향상을 위해, 선생님에 의한 개별 지도가 필요한 케이스가 많다. 또한 학생은, 작문에 익숙하지 않은 단계에서는, 먼저, 무엇을 적어야 좋은지 모른다고 하는 문제도 있어, 당해 문제를 해결하기 위해 선생님에 의한 정중한 지도가 필요한 케이스가 많다. 또한, 외국어에서의 회화 훈련을 실시할 경우에도, 마찬가지로 먼저 무엇을 이야기해야 좋은지 모른다고 하는 상황이 생기는 케이스가 많다.Writing exercises are conducted at schools, for example, in essay writing, to develop expressive and thinking skills. Writing is different from the knowledge that can be obtained from problem books, so it is difficult to learn frequently and there are many cases where individual instruction by a teacher is needed to improve the writing skills of students. In addition, there is a problem that the student does not know what to write at the stage which is not familiar with writing first, and there are many cases that need a polite instruction by the teacher to solve the problem concerned. In addition, there are many cases in which conversation training is conducted in a foreign language, in which situations such as not knowing what to talk about are likely to occur.
그래서, 본 실시형태는, 유저의 작문에 대하여 힌트나 코멘트를 제시함으로써, 작문을 쓰기 위한 발상을 지원한다. 또한 마찬가지로, 본 실시형태는, 외국어 회화에 있어서, 다음 발언을 위한 힌트를 주는 등, 회화의 보조를 한다. 이에 따라, 유저는 외국어 회화에 익숙해질 수 있으며, 나아가서는 사람과의 회화를 실천하기 쉬워진다. 본 실시형태의 발상 지원 장치는, 작문이나 회화에 있어서, 유저에게 다음 발언의 힌트를 주거나, 코멘트를 주는 등에 의해 유저의 발상을 지원하며, 나아가서는 유저의 작문 작성이나 회화를 지원한다.Thus, the present embodiment supports the idea of writing a writing by presenting a hint or a comment to a user's writing. Likewise, in the present embodiment, in a foreign language conversation, a hint is given for the next utterance, and the conversation is assisted. As a result, the user can become accustomed to conversation in a foreign language, and further, it becomes easy to practice conversation with a person. The idea support apparatus of the present embodiment supports the user's idea by giving the user a hint of the next utterance or giving a comment in writing or conversation, and further supports the writing and conversation of the user.
[실시예 1][Example 1]
도 1은 본 실시형태의 발상 지원 장치의 구성예를 나타내는 블록도이다. 본 실시형태의 발상 지원 장치는, 예를 들면 입력 장치(202), 표시 장치(203), 통신 장치(204), 연산 장치(CPU)(205), 메모리(206), 및 보조 기억 장치(207)를 구비하는 계산기에 의해 구성된다.1 is a block diagram showing a configuration example of an idea support apparatus according to the present embodiment. The inventive idea supporting apparatus of the present embodiment includes an
입력 장치(202)는 유저로부터의 커맨드 등의 입력을 접수하며, 예를 들면 키보드 및 마우스 등이다. 입력 장치(202)는, 연산 장치(CPU)(205)가 실행하는 프로그램의 제어, 및 발상 지원 장치(201)에 접속된 기기의 제어를 위해 실행되는 커맨드 등의 입력을 접수한다. 통신 장치(204)는, 예를 들면 소정의 프로토콜에 따라서, 발상 지원 장치(201)에 의한 처리 내용을 외부 기기에 송신하거나, 외부 기기로부터 정보를 수신하거나 한다.The
연산 장치(CPU)(205)는 프로세서를 포함하며, 메모리(206)에 저장된 프로그램을 실행한다. 메모리(206)는 비휘발성의 기억 소자인 ROM 및 휘발성의 기억 소자인 RAM을 포함한다. ROM은 불변의 프로그램(예를 들면, BIOS) 등을 저장한다. RAM은 DRAM(Dynamic Random Access Memory)과 같은 고속이면서 또한 휘발성의 기억 소자이며, 프로세서가 실행하는 프로그램 및 프로그램의 실행 시에 사용되는 데이터를 일시적으로 저장한다.A computing device (CPU) 205 includes a processor and executes a program stored in the
보조 기억 장치(207)는, 예를 들면 자기 기억 장치(HDD), 플래시 메모리(SSD) 등의 대용량이면서 또한 비휘발성의 기억 장치이며, 연산 장치(CPU)(205)가 실행하는 프로그램 및 프로그램의 실행 시에 사용되는 데이터를 저장한다. 즉, 프로그램은, 보조 기억 장치(207)로부터 읽어내져, 메모리(206)에 로드되어서, 연산 장치(CPU)(205)에 의해 실행된다.The
연산 장치(CPU)(205)가 실행하는 프로그램은, 리무버블 미디어(CD-ROM, 플래시 메모리 등) 또는 네트워크를 통해 발상 지원 장치(201)에 제공되어, 비일시적 기억 매체인 비휘발성의 보조 기억 장치(207)에 저장된다. 이를 위해, 발상 지원 장치(201)는 리무버블 미디어로부터 데이터를 읽어들이는 인터페이스를 가지면 된다.The program executed by the computing device (CPU) 205 is provided to the inventive
발상 지원 장치(201)는, 물리적으로 하나의 계산기 상에서, 또는, 논리적 또는 물리적으로 구성된 복수의 계산기 상에서 구성되는 계산기 시스템이며, 동일한 계산기 상에서 별개의 스레드로 동작해도 되고, 복수의 물리적 계산기 자원 상에 구축된 가상 계산기 상에서 동작해도 된다.The
연산 장치(CPU)(205)는 지식 그래프 생성부(211), 컨텍스트 계산부(212), 발화 이해부(213), 컨텍스트 인식부(214), 및 페이즈 인식부(215)를 포함한다. 예를 들면, 연산 장치(CPU)(205)는 메모리(206)에 로드된 지식 그래프 생성 프로그램에 따라서 동작함으로써 지식 그래프 생성부(211)로서 기능하고, 메모리(206)에 로드된 컨텍스트 계산 프로그램에 따라서 동작함으로써 컨텍스트 계산부(212)로서 기능한다. 연산 장치(CPU)(205)에 포함되는 다른 부에 관해서도 마찬가지이다.The
지식 그래프 생성부(211)는, 후술하는 문서 DB(103)의 문서가 나타내는 지식을 표현하는 그래프(지식 그래프)를 생성한다. 컨텍스트 계산부(212)는, 후술하는 지식 그래프 DB(105)가 유지하는 지식 그래프가 나타내는 지식의, 문서 DB(103)의 문서 내에 있어서의 출현 순서를 계산한다. 발화 이해부(213)는, 유저로부터 작문이나 회화의 입력을 접수하고, 당해 작문이나 회화의 텍스트 데이터를 작성한다.The knowledge
컨텍스트 인식부(214)는, 발화 이해부(213)에 의해 작성된 텍스트 데이터에 있어서의 지식의 출현 순서를 계산하고, 당해 출현 순서와, 컨텍스트 계산부(212)가 계산한 지식의 출현 순서를 비교한다. 페이즈 인식부(215)는, 작문이나 회화에 요구되는 미리 정해진 내용이, 유저가 입력한 텍스트에 부족한지의 여부를 판정함으로써, 유저의 작문이나 회화의 페이즈를 인식한다.The
보조 기억 장치(207)는 문서 DB(103), 지식 그래프 DB(105), 및 컨텍스트 DB(107)를 유지한다. 문서 DB(103)는 자연 언어로 쓰여진 문서, 특히 논술문 등을 유지한다. 문서 DB(103)가 유지하는 문서는, 발상 지원 장치(201)에 있어서의 지식을 정의하기 위한 문서, 즉 지식원으로 되는 문서이기 때문에, 문서 DB(103)는, 의논의 대상이 되는 사항이나, 의논에 관련된 내용이 기재된 문서를 유지하고 있는 것이 바람직하다.The
웹 문서, 뉴스 기사, 조직 내 리포트, 학술 논문, 관공청 및 국제기관의 공보, 및 싱크 탱크 등의 조사 문서 등은, 문서 DB(103)가 유지하는 문서의 예이다. 또한, 유저에 의한 과거의 발화 이력 등도, 문서 DB(103)가 유지하는 문서의 예이다. 또한, 문서 DB(103)는 각 문서의 서지 정보 등을 더 유지해도 된다.Web documents, news articles, internal reports, academic papers, public announcements from public authorities and international organizations, and research documents such as think tanks are examples of documents maintained by
지식 그래프 DB(105)는, 지식 그래프 생성부(211)가 생성한 지식 그래프의 구조를 나타내는 정보를 저장한다. 컨텍스트 DB(107)는, 컨텍스트 계산부(212)가 계산한 지식의 출현 순서를 나타내는 정보를 저장한다.The
또, 본 실시형태에 있어서, 발상 지원 장치(201)가 사용하는 정보는, 데이터 구조에 의존하지 않으며 어떠한 데이터 구조로 표현되어 있어도 된다. 예를 들면, 테이블, 리스트, 데이터베이스 또는 큐(queue)로부터 적절하게 선택한 데이터 구조체가, 정보를 저장할 수 있다. 또, 본 실시형태에서는, 보조 기억 장치(207)가 유지하는 각 데이터가 테이블 구조로 표현되어 있는 예를 나타낸다.In the present embodiment, the information used by the
또, 발상 지원 장치(201)는 입력 장치(202), 표시 장치(203) 및 통신 장치(204) 중의 적어도 하나를 구비하고 있으면 된다. 발상 지원 장치(201)가 입력 장치(202)를 구비하고 있지 않을 경우, 예를 들면 통신 장치(204)가 외부 기기로부터 커맨드 등의 입력을 접수한다. 발상 지원 장치(201)가 표시 장치(203)를 구비하고 있지 않을 경우, 예를 들면 통신 장치(204)가, 발상 지원 장치(201)가 생성한 처리 결과를 외부 기기에 송신한다.The
각 처리부는, 메모리(206) 또는 보조 기억 장치(207)를 통해, 다른 처리부에의 입출력을 실행해도 된다. 예를 들면, 지식 그래프 생성부(211)는, 처리 결과를 컨텍스트 계산부(212)에 출력할 경우, 실제로는, 지식 그래프 생성부(211)가 처리 결과를 메모리(206) 또는 보조 기억 장치(207)에 저장하고, 컨텍스트 계산부(212)는, 메모리(206) 또는 보조 기억 장치(207)에 저장되어 있는 당해 출력 결과를 입력으로서 취득해도 된다.Each processing unit may execute input / output to another processing unit through the
도 2는 본 실시형태에 있어서의 발상 지원 장치(201)가 실시하는 처리의 일례를 나타내는 플로우 차트이다. 발상 지원 장치(201)가 실행하는 처리는, 크게 나누어, 학습 처리(S110), 및 운용 처리(S120)의 2개의 부분으로 나눌 수 있다. 학습 처리는 스텝 S111∼S112의 처리를 포함하며, 운용 페이즈는 스텝 S121∼S125의 처리를 포함한다. 우선, 학습 처리(S110)의 처리에 대해 설명한다. 먼저, 지식 그래프 생성부(211)는, 문서 DB(103)에 저장된 문서의 정보를 그래프형 지식으로 변환함으로써, 지식 그래프 DB(105)에 저장하는 지식 그래프를 생성한다(S111). 이하, 스텝 S111의 상세를 설명한다.Fig. 2 is a flowchart showing an example of processing executed by the
도 3a∼도 3c는, 문서 내의 지식을 나타내는 지식 그래프의 일례이다. 또, 본 실시형태에서는, 일본어로 기재된 문서의 예를 사용하고 있지만, 영어 등 다른 언어여도 마찬가지의 처리가 실시된다. 이하, 도면 중의 그래프에 있어서의, 일중선(一重線)의 타원형으로 나타나 있는 노드는, 사람, 물건, 조직 등의 실체, 또는 추상적인 개념 등을 나타내는 엔티티를 가리키는 노드이다. 또한, 엔티티 사이의 화살표에 따라 기재되어 있는 문자는, 엔티티간의 릴레이션을 나타낸다.3A to 3C are examples of a knowledge graph representing knowledge in a document. In the present embodiment, an example of a document written in Japanese is used, but the same processing is performed in another language such as English. Hereinafter, a node represented by an ellipse of a single line in the graph in the figure is a node indicating an entity representing a person, an object, an organization, or an abstract concept or the like. In addition, the characters described in accordance with the arrows between the entities indicate relations between the entities.
지식 그래프(301)는, 지식 그래프 생성부(211)가, 문서 DB(103)의 문서 내의「전문가는, 학교에서의 제복의 채용은, 규율을 높인다.」라고 하는 문장으로부터 생성한 지식 그래프이다.The
지식 그래프 생성부(211)는, 지식 그래프의 생성에 있어서, 먼저, 문장으로부터 엔티티를 추출한다. 지식 그래프 생성부(211)는, 예를 들면 기계 학습을 이용하여, 엔티티를 추출한다. 즉, 추출하고자 하는 엔티티에 라벨을 붙인 학습용의 문서 세트가 미리 준비되어 있으며, 지식 그래프 생성부(211)는, 엔티티를 추출하기 위한 식별기(classifier)를 작성하고, 작성한 식별기를 이용하여 문장 내의 엔티티를 추출한다. 또, 도 3a의 문장 중에 있어서의 엔티티는,「전문가」,「제복」, 및「규율」인 것으로 한다.The knowledge
또한, 지식 그래프 생성부(211)는, 미리 준비된 단어 사전이나 단어의 온톨로지를 참조하여, 엔티티를 추출해도 된다. 또한, 엔티티의 대부분은, 명사나 형용사에 해당하는 프레이즈(phrase)에 의해 표현되기 때문에, 지식 그래프 생성부(211)는, 구문 해석을 행하여, 명사나 형용사를 엔티티로서 추출해도 된다.Further, the knowledge
다음으로, 지식 그래프 생성부(211)는, 엔티티간의 릴레이션을 계산한다. 「전문가는, 학교에서의 제복의 채용은, 규율을 높인다.」라고 하는 문장에 있어서,「제복」과「규율」은, 술어인「높인다」의 인수(「제복」이 주어,「규율」이 목적어)이다. 지식 그래프 생성부(211)는, 예를 들면 이와 같이, 구문 해석에 의해, 2개의 엔티티를 인수로 하는 술어를 엔티티간의 릴레이션으로서 추출한다.Next, the knowledge
지식 그래프 생성부(211)는, 이 2개의 엔티티와 그 사이의 릴레이션을, 에지로 잇는 것에 의해, 지식 그래프(301)를 생성한다. 지식 그래프 생성부(211)는, 지식 그래프의 생성에 있어서, 주어인 엔티티를 가리키는 노드를 기점, 술어인 엔티티를 가리키는 노드를 종점으로 한 에지를 생성한다. 또, 지식 그래프는 무향(無向) 그래프여도 된다.The knowledge
또한 여기서는, 지식 그래프 생성부(211)가, 엔티티(주어와 목적어)를 인수로 하는 술어를 릴레이션으로서 추출하는 예를 나타냈지만, 엔티티간의 다른 릴레이션을 추출해도 된다. 예를 들면, 지식 그래프 생성부(211)는, 엔티티간의 연결관계를 릴레이션으로서 추출해도 되고, 엔티티간의 문장 중에서의 거리를 릴레이션으로서 추출해도 된다. 또한 지식 그래프 생성부(211)는, 예를 들면, Semantic Role Labelling 등의 방법을 이용하여, 릴레이션을 추출해도 된다.In this example, the knowledge
지식 그래프(302)는, 지식 그래프 생성부(211)가, 문서 DB(103)의 문서 내의「학교에서의 제복은, 자유를 저해한다.」고 하는 문장으로부터 생성한 지식 그래프이다. 지식 그래프 생성부(211)는, 도 3a의 예와 마찬가지의 방법으로, 당해 문장으로부터, 2개의 엔티티「제복」및「자유」, 그리고 엔티티간의 릴레이션「저해한다」를 추출하여, 지식 그래프(302)을 생성한다.The
지식 그래프 생성부(211)는, 이와 같이, 주어진 문서 중의 각 문장으로부터, 엔티티를 추출하고, 엔티티간의 당해 문장 중에 있어서의 릴레이션을, 지식 그래프를 이용하여 기술한다.The knowledge
도 3c는 2개의 지식 그래프가 통합된 지식 그래프의 일례이다. 예를 들면, 복수의 지식 그래프에 동일한 노드가 존재할 경우, 지식 그래프 생성부(211)는, 당해 노드를 동일시함으로써, 당해 복수의 지식 그래프를 통합해도 된다. 지식 그래프(303)는, 지식 그래프 생성부(211)가, 지식 그래프(301)에 있어서의「제복」노드와, 지식 그래프(302)에 있어서의「제복」노드를 동일시함으로써 생성된 지식 그래프이다.3C is an example of a knowledge graph incorporating two knowledge graphs. For example, when there are the same nodes in a plurality of knowledge graphs, the knowledge
지식 그래프 생성부(211)는, 예를 들면 표층(表層) 표현이 같은 노드를 동일시한다. 또한, 단어 사전이나 온톨로지 등을 이용하여 노드가 생성되었을 경우, 지식 그래프 생성부(211)는, 예를 들면 단어 사전 또는 온톨로지 상에서 동일한 표현을 동일한 노드로서 취급해도 된다. 구체적으로는, 예를 들면 지식 그래프 생성부(211)는, 동의어의 노드를 동일시해도 된다. 또한, 지식 그래프 생성부(211)는, 그래프 상의 2개의 노드를 잇는 에지 중, 같은 릴레이션을 나타내는 에지를, 동일시해도 된다.The knowledge
지식 그래프 생성부(211)는, 생성한 지식 그래프의 정보를, 예를 들면 도 3d 및 도 3e에 보여주는 테이블로 나타내고, 당해 테이블을 지식 그래프 DB(105)에 저장한다. 도 3d는, 지식 그래프 DB(105)에 저장되는 노드 테이블의 일례이다. 노드 테이블(304)은, 지식 그래프의 노드의 정보를 유지하는 테이블이다. 도 3d의 노드 테이블(304)은, 지식 그래프(303)의 노드의 정보를 유지하고 있다.The knowledge
지식 그래프 생성부(211)는, 생성한 지식 그래프의 노드에, 당해 지식 그래프 상에서의 노드를 식별하기 위한 ID를 부여하고, 부여한 ID를 노드 테이블(304)에 저장한다. 또한, 지식 그래프 생성부(211)는, 노드에 관한 다른 정보를 노드 테이블(304)에 포함시켜도 된다. 도 3d의 예에 있어서, 노드 테이블(304)은, 각 노드의 표층 표현의 정보를 포함한다. 또한, 예를 들면 노드 테이블(304)은, 각 노드에 대응하는 표층 표현이 추출된 문서의 서지 정보 등을 포함해도 된다.The knowledge
도 3e는 지식 그래프 DB(105)에 저장되는 에지 테이블의 일례이다. 에지 테이블(305)은, 지식 그래프의 에지의 정보를 포함한 테이블이다. 도 3e의 예에서는, 에지 테이블(305)은, 지식 그래프(303)의 에지의 정보를 유지하고 있다.3E is an example of an edge table stored in the
지식 그래프 생성부(211)는, 생성한 지식 그래프의 에지에, 당해 지식 그래프 상에서의 에지를 식별하기 위한 ID를 부여하고, 각 에지의 ID, 기점 노드의 ID, 및 종점 노드의 ID를 대응시켜서 에지 테이블(305)에 저장한다. 또한, 지식 그래프 생성부(211)는, 에지에 관한 다른 정보를 에지 테이블(305)에 포함시켜도 된다. 도 3e의 예에 있어서, 에지 테이블(305)은, 각 에지의 표층 표현의 정보를 포함한다. 또한, 예를 들면 에지 테이블(305)은, 각 에지에 대응하는 표층 표현이 추출된 문서의 서지 정보 등을 포함해도 된다. 노드 테이블(304)과 에지 테이블(305)에 의하여, 지식 그래프의 구조가 정의된다.The knowledge
이하, 지식 그래프 생성 처리의 다른 예를 설명한다. 도 4a∼도 4c는 지식 그래프의 예이다. 도 4a의 문장은, 도 3a의 문장과 동일하다. 지식 그래프(301)는, 당해 문장이 나타내는「제복은 규율을 높인다」는 것을 보여주는 정보를 표현하고 있다. 그러나, 지식 그래프(301)는, 당해 문장이 나타내는,「제복은 규율을 높인다는 것」을,「전문가가 말했다」는 것을 나타내는 정보(즉,「말했다」라고 하는 릴레이션에 관한 정보)를 표현하고 있지 않다.Hereinafter, another example of the knowledge graph generation process will be described. 4A to 4C are examples of knowledge graphs. The sentence in Fig. 4A is the same as the sentence in Fig. 3A. The
지식 그래프 생성부(211)는, 예를 들면「제복은 규율을 높인다」라고 하는 스테이트먼트(statement)를 엔티티로 간주하면, 지식 그래프(301)에 더해서, 지식 그래프(402)를 생성할 수 있다. 스테이트먼트는, 문장을 구성하는 복수의 요소와, 당해 복수의 요소간의 릴레이션을 나타내는 명제이다. 또, 각 요소는, 예를 들면 엔티티여도 되고, 절 또는 문장이어도 된다. 또한, 각 요소는 스테이트먼트여도 된다.The knowledge
지식 그래프(301)와 지식 그래프(402)는 독립한 지식 그래프이기 때문에, 도 4a의 문장이 나타내는 2개의 지식 그래프 사이의 관계를 표현가능하게 되어 있지 않다. 또한, 관련이 있는 복수의 지식 각각이, 이와 같이 독립한 지식 그래프로 표현되어 있을 경우, 엔티티의 수가 방대해진다.Since the
그래서, 지식 그래프 생성부(211)는, 이러한 정보를 표현하기 위해서, 도 4b에 나타내는 지식 그래프(403)를 생성한다. 지식 그래프(403)의 생성 처리의 일례를 설명한다. 전술한 바와 같이, 지식 그래프 생성부(211)는, 문서의 문장 중에 있어서 릴레이션으로 이어지는 대상 중의 적어도 한쪽이 스테이트먼트일 경우, 지식 그래프(402)와 같이, 당해 스테이트먼트를 잠정적으로 엔티티로 간주해서 지식 그래프를 생성한다.Thus, the knowledge
지식 그래프 생성부(211)는, 지식 그래프의 노드이며, 동일한 문서로부터 생성한 다른 지식 그래프가 나타내는 스테이트먼트의 정보가 모두 포함되는 노드가 있다고 판정했을 경우(즉 네스팅 구조로 되어 있는 노드가 있을 경우), 당해 다른 지식 그래프로부터, 당해 스테이트먼트를 대표하는 노드(이하, 대표 노드라고도 함)를 생성한다.When it is determined that there is a node including all the information of a statement represented by another knowledge graph generated from the same document (that is, when there is a node in a nesting structure) ), And a node (hereinafter also referred to as a representative node) representing this statement is generated from the other knowledge graph.
도 4a의 예에서는, 지식 그래프(402)의「제복은 규율을 높인다」노드는, 지식 그래프(402)와 동일한 문서로부터 생성된 지식 그래프(301)가 나타내는 스테이트먼트의 정보를 모두 포함하기 때문에, 지식 그래프 생성부(211)는 대표 노드를 생성한다. 지식 그래프 생성부(211)는, 예를 들면 지식 그래프(301)의 릴레이션을 나타내는「높인다」에지를「높인다」노드로 변경하고, 대표 노드로 결정한다. 그리고, 지식 그래프 생성부(211)는,「높인다」에지의 기점이었던「제복」노드를 기점으로 하고, 대표 노드를 종점으로 하는 에지, 및 대표 노드를 기점으로 하고,「높인다」에지의 종점이었던「규율」노드를 종점으로 하는 에지를 생성한다. 이에 따라, 지식 그래프(403)의 사각형의 점선으로 둘러싸여진 부분이 생성된다.In the example of Fig. 4A, since the " increase uniformity " node of the
전술한 바와 같이, 지식 그래프(403)의 이중선으로 나타나 있는「높인다」노드는, 3개의 노드(「제복」,「높인다」,「규율」)를 포함하는 1개의 스테이트먼트를 대표하는 대표 노드이다. N개(N은 1 이상의 정수)의 스테이트먼트를 대표하는 대표 노드를, N+1차 노드라고 부른다. 즉, 지식 그래프(403)의 이중선으로 나타나 있는「높인다」노드는, 2차 노드이다. 또한, 엔티티 그 자체를 나타내는 노드를 1차 노드라고 부른다. 즉, N차 노드간의 릴레이션이 대표 노드로 변환되었을 경우, 당해 대표 노드는 N+1차 노드이다.As noted above, the "raise" node, represented by the double line in the
또한, 지식 그래프(403)에 있어서의, 이중선으로 나타나 있는 에지는, 노드간의 릴레이션을 나타내는 것이 아니라, 지식 그래프(403)의 사각형의 점선으로 둘러싸여진 부분에 포함되는 3개의 노드로 이루어지는 스테이트먼트를, 대표 노드가 대표하는 것을 나타내기 위한 에지이다. 이하, 이러한 에지를 스테이트먼트 에지라고 부른다.The edges indicated by the double lines in the
또한 전술한 바와 같이, 지식 그래프(402)에 있어서, 기점인「전문가」노드와, 종점인「제복은 규율을 높인다」노드가,「말했다」라고 하는 릴레이션을 나타내는 에지에 의해 접속되어 있다. 따라서, 지식 그래프 생성부(211)는,「제복은 규율을 높인다」라고 하는 스테이트먼트를 대표하는「높인다」노드를 종점으로 하고,「전문가」노드를 기점으로 해서, 2개의 노드를「말했다」라고 하는 릴레이션을 나타내는 에지로 접속함으로써, 지식 그래프(403)를 생성한다.As described above, in the
이에 따라, 지식 그래프 생성부(211)는,「제복이 규율을 높인다」는 것, 및「전문가」가「제복은 규율을 높인다」라고 말한 것을 하나의 지식 그래프(403)로 표현할 수 있다. 또, 전술한 바와 같은 그래프의 통합 처리가 행해진 후에도, 스테이트먼트 그 자체를 엔티티로서 포함하는 지식 그래프가 남았을 경우에는, 지식 그래프 생성부(211)는, 당해 지식 그래프를 삭제해도 된다.Accordingly, the knowledge
도 4c는 노드 테이블(304)의 일례이다. 노드 테이블(304)은 노드의 차수를 더 유지해도 된다. 즉, 지식 그래프 생성부(211)는, 노드 ID와 노드의 차수를 대응시켜서, 노드 테이블(304)에 저장한다.4C is an example of the node table 304. FIG. The node table 304 may further maintain the degree of the node. That is, the knowledge
도 4d는 에지 테이블(305)의 일례이다. 에지 테이블(305)은, 에지가 스테이트먼트 에지인지의 여부를 나타내는 플래그를 유지해도 된다. 즉, 지식 그래프 생성부(211)는 에지 ID와, 에지가 스테이트먼트 에지인지의 여부를 나타내는 플래그를 대응시켜서, 에지 테이블(305)에 저장한다. 또, 스테이트먼트 에지는 표층 표현을 나타내고 있지 않기 때문에, 에지 테이블(305)에 있어서, 스테이트먼트 에지에 대응하는 표층 표현에는 null 값이 저장되어 있다.Fig. 4D is an example of the edge table 305. Fig. The edge table 305 may hold a flag indicating whether or not the edge is a statement edge. That is, the knowledge
지식 그래프 생성부(211)는, 이와 같이 하여, 스테이트먼트를 나타내는 2차 노드를 포함하는 그래프 구조를 갖는 지식 그래프를 작성함으로써, 단순한 엔티티간의 릴레이션뿐만 아니라, 보다 복잡한 정보를 지식 그래프로 표현할 수 있다.The knowledge
도 5a∼도 5c는 지식 그래프의 일례이다. 지식 그래프(501)는,「제복은 규율을 높이지만, 자유를 저해한다.」라고 하는 문장으로부터 작성된 지식 그래프이다. 지식 그래프 생성부(211)는, 도 3c를 사용하여 설명한 바와 같이, 먼저, 당해 문장으로부터,「제복은 규율을 높인다」는 것과,「제복이 자유를 저해한다」는 것을 나타내는 지식 그래프(303)를 작성한다.5A to 5C are examples of the knowledge graph. The
지식 그래프 생성부(211)는, 예를 들면 미리 준비된 사전 등을 참조하여, 당해 문장에 역설(逆說)을 나타내는 표층 표현이 있다고 판정했을 경우, 주절인「제복은 규율을 높인다」라고 하는 스테이트먼트, 및 종속절인「제복이 자유를 저해한다」라고 하는 스테이트먼트 각각으로부터, 대표 노드를 생성한다. 예를 들면, 지식 그래프 생성부(211)는, 전술한 방법과 마찬가지로, 주절로부터 대표 노드「높인다」를, 종속절로부터 대표 노드「저해한다」를 생성한다. 이들 대표 노드는, 어느 것이나 2차 노드이다.The knowledge
그리고, 지식 그래프 생성부(211)는,「높인다」에지의 기점이었던「제복」노드를 기점으로 하고 대표 노드를 종점으로 하는 에지와, 대표 노드를 기점으로 하고「높인다」에지의 종점이었던「규율」노드를 종점으로 하는 에지를 생성한다. 마찬가지로, 지식 그래프 생성부(211)는,「저해」에지의 기점이었던「제복」노드를 기점으로 하고, 대표 노드를 종점으로 하는 에지, 및 대표 노드를 기점으로 하고,「저해한다」에지의 종점이었던「자유」노드를 종점으로 하는 에지를 생성한다. 이들 생성된 에지는, 어느 것이나 스테이트먼트 에지이다.Then, the knowledge
또한, 지식 그래프 생성부(211)는, 주절의 대표 노드「높인다」를 기점으로 하고, 종속절의 대표 노드「저해한다」를 종점으로 하는, 역설의 릴레이션을 나타내는「역설」에지를 생성한다. 이 처리에 의해, 지식 그래프 생성부(211)는, 지식 그래프(501)를 생성할 수 있다.The knowledge
이하, 도 5b에 나타내는「조사에 따르면, 제복은 규율을 높인다」라고 하는 문장으로부터, 지식 그래프 생성부(211)가, 도 5c에 나타내는 지식 그래프(503)를 생성하는 예를 설명한다. 지식 그래프 생성부(211)는, 먼저, 도 4a의 예와 마찬가지로, 지식 그래프(301)를 생성한다. 또한, 지식 그래프 생성부(211)는 지식 그래프(502)를 생성한다. 지식 그래프(502)의 생성 방법의 일례를 설명한다.Hereinafter, an example in which the knowledge
지식 그래프 생성부(211)는, 예를 들면 미리 준비된 사전을 참조하여, 문장 중에 정보원(情報源)을 나타내는 단어(도 5b에 있어서의「조사」)가 존재하는 것으로 판정했을 경우, 구문 해석 등을 실행하여, 당해 정보원이 나타내는 정보(도 5b에 있어서의「제복은 규율을 높인다」)를 추출한다.The knowledge
지식 그래프 생성부(211)는,「제복은 규율을 높인다」라고 하는 스테이트먼트를 엔티티로 간주한다. 지식 그래프 생성부(211)는,「조사」노드를 기점으로 하고,「제복은 규율을 높인다」노드를 종점으로 하는,「정보원」에지를, 이 2개의 엔티티간의 릴레이션으로서 생성한다. 이에 따라, 지식 그래프 생성부(211)는, 도 5c에 나타내는 지식 그래프(502)를 생성할 수 있다.The knowledge
또한 지식 그래프 생성부(211)는, 도 4a 및 도 4b를 사용하여 설명한 방법과 마찬가지의 방법에 의해, 지식 그래프(301)와 지식 그래프(502)를 통합해서, 지식 그래프(503)를 생성할 수 있다.The
이하, 도 5d에 나타내는「전문가는, 제복은 규율을 높이지만, 자유를 저해한고 말했다.」라고 하는 문장으로부터, 지식 그래프 생성부(211)가, 도 5e에 나타내는 지식 그래프(505)를 생성하는 예를 설명한다. 지식 그래프 생성부(211)는, 당해 문장의「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 부분으로부터, 도 5a를 사용하여 설명한 방법에 의해, 지식 그래프(501)를 생성한다. 또한, 지식 그래프 생성부(211)는「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 스테이트먼트를 엔티티로 간주하여, 지식 그래프(504)를 생성한다.Hereinafter, the knowledge
지식 그래프(504)의「제복은 규율을 높이지만, 자유를 저해한다」노드는, 동일한 문장으로부터 생성된 지식 그래프(501)가 나타내는 스테이트먼트의 정보를 모두 포함하기 때문에, 지식 그래프(501)의 릴레이션을 나타내는「역설」에지를「역설」노드로 변환하고, 대표 노드로 결정한다. 대표 노드「역설」의 차수는 3이다.Since the node of the
그리고, 지식 그래프 생성부(211)는,「역설」에지의 기점이었던「높인다」노드를 기점으로 하고,「역설」노드를 종점으로 하는 스테이트먼트 에지, 및「역설」노드를 기점으로 하고,「역설」에지의 종점이었던「저해한다」노드를 종점으로 하는 스테이트먼트 에지를 생성한다.Then, the knowledge
또한 지식 그래프 생성부(211)는,「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 스테이트먼트를 대표하는「역설」노드를 종점으로 하고,「전문가」노드를 기점으로 해서, 2개의 노드를「말했다」라고 하는 릴레이션을 나타내는 에지로 접속함으로써, 지식 그래프(505)를 생성한다.The knowledge
이와 같이, 본 실시형태의 지식 그래프 생성부(211)는, 고차(高次) 노드와 그것을 잇는 특수한 에지(스테이트먼트 에지)를 사용함으로써, 네스팅으로 된 정보를 그래프형 지식으로 표현한다. 이에 따라, 지식 그래프 생성부(211)는, 단순한 정보뿐만 아니라, 복잡한 컨텍스트를 적은 지식 그래프에 의해 표현할 수 있다. 즉, 본 실시형태의 발상 지원 장치(201)는, 복잡한 컨텍스트를 취급할 수 있음에도 불구하고, 지식 그래프 DB(105)의 데이터량을 억제하며, 또한 후술하는 발화 이해 처리에 있어서의 지식 그래프의 대조 처리를 고속으로 행할 수 있다.As described above, the knowledge
도 2의 설명으로 돌아간다. 계속해서, 컨텍스트 계산부(212)는, 지식 그래프 DB(105)가 유지하는 지식 그래프를 이용하여, 문장 내에 있어서 정보가 출현하는 순서를 계산하는 컨텍스트 계산 처리를 실행한다(S112).Returning to the description of FIG. Subsequently, the
전술한 바와 같이, 지식 그래프 생성부(211)는, 문장으로부터 추출한 개별의 정보를 그래프화한 다음에, 예를 들면 미리 정한 기준(표층 표현, 단어 사전, 온톨로지에서의 위치 부여 등)에 따라서 노드를 동일시함으로써, 도 3c, 도 4b, 도 5a, 도 5c, 및 도 5d 등에 나타내는 지식 그래프를 생성한다.As described above, the knowledge
도 6a는 지식 그래프의 일례이다. 문장(601)은, 학교에서의 제복의 도입에 반대하는 논술문의 예이다. 문장(601)에 있어서, 제복의 도입에 반대한다고 하는 의견이 표명되고, 그 후 규율이 높아진다고 하는 메리트가 기술되며, 역시 학생의 자유를 저해한다고 하는 디메리트가 기술되어 있다. 또한, 문장(601)에 있어서, 특정한 제복의 채용에 의해 시장의 공평성을 저해한다고 하는 관점의 의견이 기술되어 있다.6A is an example of a knowledge graph. Sentence (601) is an example of an essay contesting the introduction of school uniforms. In the sentence (601), the opinion to oppose the introduction of the uniform is expressed, and the merit that the discipline increases afterwards is described, and the demerit that the student's freedom is inhibited is described. Further, in the
이와 같이, 작문, 회화, 및 논술문 등에는, 정보 제시의 흐름(컨텍스트)이 있다. 본 실시형태의 컨텍스트 계산부(212)는, 문서 DB(103)에 있는 문장의 컨텍스트를 계산하고, 계산 결과를 컨텍스트 DB(107)에 저장한다. 컨텍스트 계산부(212)는, 문장에 출현하는 지식의 순서를 계산함으로써, 컨텍스트 계산을 행한다.As such, writing, conversation, essay writing, etc. have a flow of information presentation (context). The
본 실시형태의 발상 지원 장치(201)는, 지식 그래프 DB(105)와 컨텍스트 DB(107)를 이용하여, 유저에 의한 작문이나 회화의 컨텍스트를 인식하고, 컨텍스트를 고려한 적절한 힌트, 코멘트, 및 질문 등을 유저에게 제시한다. 이에 따라, 발상 지원 장치(201)는, 유저의 사고를 깊어지게 하고, 발상을 지원할 수 있다.The
이하, 컨텍스트 계산 처리(S112)의 상세에 대해 설명한다. 또, 컨텍스트 계산 처리에 있어서의 지식이란, 스테이트먼트에 포함되는 릴레이션이 나타내는 지식, 즉 2차 이상의 노드 또는 스테이트먼트 에지가 아닌 에지가 나타내는 지식이다. 도 6a의 지식 그래프(602)는 문장(601)으로부터 생성된 지식 그래프의 일례이다. 도 6b는 지식 그래프(602)에 대응하는 노드 테이블(304)의 일례이다. 도 6c는 지식 그래프(602)에 대응하는 에지 테이블(305)의 일례이다.Hereinafter, the details of the context calculation processing (S112) will be described. The knowledge in the context calculation process is the knowledge represented by the relation included in the statement, that is, the knowledge represented by an edge other than a node or a statement edge that is second or higher order. The
컨텍스트 계산부(212)는, 예를 들면 문서 DB(103)에 포함되는 각 문서에 대해서, 문서 중에 나타나는 지식의 순서를, 지식 그래프 상에서 계산한다. 컨텍스트 계산부(212)는, 예를 들면 지식 그래프(602) 중의 지식「제복은 규율을 높인다」에 대하여, 당해 지식에 관계되는 노드 및 에지의 ID를, 문장 중의 출현 순서로 늘어 놓은 벡터(N1, E1, N2, E2, N3)로서, 당해 지식을 표현해도 된다. 이 방법에 의하면, 예를 들면「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 지식은, 예를 들면 (N1, E1, N2, E2, N3, E3, N4, E5, N1, E6, N6, E7, N7)으로 표현된다.For each document included in the
또, 컨텍스트 계산부(212)는, 하기에 설명하는 방법을 이용하여, 보다 간결하게 지식을 표현하는 것이 바람직하다. 구체적으로는, 컨텍스트 계산부(212)는, 스테이트먼트 에지가 아닌 에지와, 2차 이상의 노드를 지정함으로써, 지식을 표현한다. 이에 따라, 컨텍스트 계산부(212)는 지식 그래프 중의「제복은 규율을 높이지만, 자유를 저해한다」와 같은, 복문, 중문, 및 접속사 등을 포함하는 복잡한 지식을, 간결하게 취급할 수 있다. 이하, 구체적인 예를 사용하여 설명한다.In addition, it is preferable that the
먼저, 지식 그래프(602)는, 2차 이상의 노드로서, 2차 노드(N2 및 N6), 및 3차 노드(N4)를 포함한다. 2차 노드(N2)「높인다」는, 노드(N1)「제복」및 노드(N3)「규율」과 스테이트먼트 에지로 이어져 있어서,「제복은 규율을 높인다」라고 하는 지식을 나타낸다. 마찬가지로, 2차 노드(N6)「저해한다」는,「제복은 자유를 저해한다」라고 하는 지식을 나타낸다. 3차 노드(N4)「역설」은,「제복은 규율을 높인다」를 대표하는 N2와「제복은 자유를 저해한다」를 대표하는 N6에 스테이트먼트 에지로 이어져 있기 때문에,「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 지식을 나타낸다.First, the
다음으로, 지식 그래프(602)는, 스테이트먼트 에지가 아닌 에지로서, E4와 E8을 포함한다. 에지(E4)는, 노드(N5)「전문가」와 노드(N4)「역설」을 잇고 있으며,「전문가는, 제복은 규율을 높이지만, 자유를 저해한다고 말했다」라는 지식을 나타낸다. 또한, 마찬가지로, 에지(E8)는,「제복은 시장 공평성을 손상시킨다」라고 하는 지식을 나타낸다.Next, the
컨텍스트 계산부(212)는, 이상의 방법을 사용함으로써, 예를 들면「제복은 규율을 높이지만, 자유를 저해한다」와 같은 복잡한 지식을 N4로 나타낸 바와 같이, 스테이트먼트 에지가 아닌 에지의 ID, 또는 2차 이상의 노드의 ID를 이용하여, 지식을 간결하게 나타낼 수 있다.The
컨텍스트 계산부(212)는, 컨텍스트 계산 처리에 있어서, 문서 내에 지식이 나타나는 순서를 계산한다. 도 7a 및 도 7b를 사용하여, 그 계산 방법의 일례를 설명한다. 도 7a는 지식 그래프의 일례이다. 지식 그래프(703)는, 문서 DB(103)에 포함되는 문장(701) 및 문장(702)으로부터 생성된 지식 그래프이다. 전술한 바와 같이 스테이트먼트 에지가 아닌 에지와 2차 이상의 노드를 이용하여 지식이 표현되었을 경우, 문장(701)에는, N6, E8, N2, E9의 순서로 지식이 출현하고 있다. 또한, 마찬가지로 문장(702)에는, N6, E9의 순서로 지식이 출현하고 있다.The
컨텍스트 계산부(212)는, 지식 그래프(703)에 출현하는 지식 각각에 대해서, 문서 DB(103) 내의 문서에 있어서, 당해 지식보다 후에 출현한 지식(이하, 후속 지식이라고도 함)의 출현 횟수를 산출하고, 컨텍스트 DB(107)가 유지하는 후속 지식 테이블에 저장한다.The
즉, 컨텍스트 계산부(212)는, 지식 그래프(703)에 출현하는 2차 이상의 노드 및 스테이트먼트 에지가 아닌 에지에 대응하는 지식을 특정한다. 컨텍스트 계산부(212)는, 특정한 지식 각각에 대해서, 문서 DB(103) 내의 문서에 있어서, 당해 지식보다 후에 출현한 지식으로서, 지식 그래프(703)에 출현하는 2차 이상의 노드 및 스테이트먼트 에지가 아닌 에지가 나타내는 지식의 출현 횟수를 산출한다.In other words, the
도 7b는 후속 지식 테이블의 일례이다. 후속 지식 테이블(704)은, 지식에 대응하는 노드 ID 또는 에지 ID와, 당해 지식의 후속 지식과, 당해 지식의 후에 당해 후속 지식이 출현한 횟수를 대응시켜서 유지한다. 예를 들면, 도 7b의 후속 지식 테이블(704)의 2행째는, 지식(N6)의 후에, 지식(E8)이 1회, 지식(N2)이 1회, 지식(E9)이 2회 출현한 것을 나타낸다. 지식(E9)은, 문장(701)과 문장(702)에 있어서, 각각 1회씩, N6보다 후에 출현하고 있기 때문에, 도 7b의 후속 지식 테이블(704)에 있어서, N6의 후속 지식으로서의 E9의 출현 횟수는 2회로 되어 있다.FIG. 7B is an example of the following knowledge table. The subsequent knowledge table 704 holds the node ID or edge ID corresponding to the knowledge, the subsequent knowledge of the knowledge, and the number of occurrences of the subsequent knowledge after the knowledge in association with each other. For example, the second line of the subsequent knowledge table 704 of FIG. 7B is a table in which knowledge E8 is once, knowledge N2 is once, knowledge E9 appears twice after knowledge N6 . Since the knowledge E9 appears after N6 once in each of the
컨텍스트 계산부(212)는, 이와 같이, 지식마다, 후속 지식과 후속 지식의 출현 횟수를 대응시켜서 후속 지식 테이블(704)에 저장함으로써, 컨텍스트 DB(107)는, 문서 내에 있어서의 지식의 순서 및 전후 관계 등을 나타내는 정보를 유지할 수 있다.By storing the subsequent knowledge and the number of occurrences of the subsequent knowledge in the knowledge table 704 in correspondence with each knowledge as described above, the
또, 컨텍스트 계산부(212)는, 각 지식에 대해서, 후속 지식과의 문서 상에서의 거리를 계산하여, 후속 지식 테이블(704)에 저장해도 된다. 출현 횟수가 2회 이상인 후속 지식에 대해서는, 컨텍스트 계산부(212)는, 당해 지식과 당해 후속 지식의 문서 상에서의 거리의 평균값 또는 최소값 등을 후속 지식 테이블(704)에 저장한다. 이상, 학습 처리에 대하여 설명했다.For each knowledge, the
다음으로, 운용 처리(S120)에 대해 설명한다. 운용 처리에 있어서, 발상 지원 장치(201)는, 학습 처리에서 작성한 지식 그래프와 후속 지식을 이용하여, 유저에 의한 작문이나 회화에 있어서의 컨텍스트를 이해하고, 작문이나 회화의 도중에, 적절한 힌트를 제시함으로써, 유저의 발상을 촉구한다.Next, the operation processing (S120) will be described. In the operation processing, the
먼저, 발화 이해부(213)는, 스테이트먼트를 포함하는 작문이나 회화의 입력을 유저로부터 접수하여, 텍스트로 변환한다(S121). 구체적으로는, 발화 이해부(213)는, 예를 들면 키보드 등의 입력 인터페이스로부터 텍스트 입력을 접수해도 되고, 마이크 등으로부터 입력된 발화 음성을 음성 인식 기술에 의해 텍스트 변환해도 된다. 또한, 예를 들면 발화 이해부(213)는, 종이에 쓰여진 문장을 OCR 등에 의해 텍스트 변환해도 된다. 또한, 발화 이해부(213)는 수화 인식 등의 방법을 이용하여, 유저의 움직임을 텍스트 변환해도 된다.First, the
계속해서, 발화 이해부(213)는, 스텝 S121에서 취득한 텍스트를, 지식 그래프를 이용하여 이해하는, 발화 이해 처리를 실시한다(S122). 여기서는, 발화 이해부(213)는 입력된 텍스트를 지식 그래프에 매칭함으로써, 유저의 발화를 이해한다. 이하, 도 8a, 도 8b, 도 9a, 도 9b, 및 도 9c를 사용하여 발화 이해 처리의 상세를 설명한다.Subsequently, the
도 8a의 지식 그래프(801)는, 지식 그래프 DB(105)에 저장된 노드 테이블(304) 및 에지 테이블(305)이 나타내는 지식 그래프의 일부이다. 또한, 도 8b의 후속 지식 테이블은, 컨텍스트 DB(107)에 저장된 후속 지식 테이블(704)의 일부이다.8A is a part of the knowledge graph represented by the node table 304 and the edge table 305 stored in the
예를 들면,「제복을 학교에 도입해야 하는가」라고 하는 테마에 대하여, 유저가「제복을 학교에 도입하는 것에 찬성」이라고 하는 입장에서, 논술문을 작성하고 있는 것으로 한다. 그리고, 발화 이해부(213)가, 도 9c에 나타내는 표시 화면(903)에 있어서의「학교에서 제복을 도입해야 합니다.」라고 하는 문장의 입력을 접수한 것으로 한다. 발화 이해부(213)는, 스텝 S111의 지식 그래프 생성 처리와 마찬가지의 방법을 이용하여, 당해 문장으로부터 도 9a의 지식 그래프(901)를 생성한다.For example, about the theme "should uniform should be introduced to school", user shall make essay writing in the position of "in favor of introducing uniform to school". It is assumed that the
계속해서, 발화 이해부(213)는, 지식 그래프(901)와 지식 그래프(801)를 대조하여, 지식 그래프(901)가 나타내는 지식에 포함되는 지식을 지식 그래프(801)로부터 검색한다. 컨텍스트 계산 처리에서 설명한 지식의 표현 방법을 이용하면, 지식 그래프(801)가 나타내는 지식(E10)(즉「학교」노드와「제복」노드를「도입한다」릴레이션으로 이은 지식)은, 지식 그래프(901)가 나타내는 지식에 포함되기 때문에, 발화 이해부(213)는 E10을 추출한다. 이와 같이, 발화 이해부(213)는, 유저의 입력에 포함되는 지식을 추출하고, 추출한 지식과 미리 학습한 지식 그래프를 대조함으로써, 유저의 입력을 이해한다.Next, the
또한, 발화 이해부(213)는, 예를 들면 컨텍스트 계산 처리와 동일한 표현 방법을 이용하여, 유저에 의해 입력된 텍스트가 나타내는 지식의 지식 그래프(801) 상의 노드 ID 및 에지 ID와, 당해 텍스트에 있어서의 지식 출현 순서를 나타내는 정보를 컨텍스트 인식부(214)에 출력한다. 표시 화면(903)이 나타내는 문장이 입력되었을 경우, 발화 이해부(213)는, 예를 들면 E10을 컨텍스트 인식부(214)에 출력한다. 도 7a의 문장(702)이 입력되었을 경우, 발화 이해부(213)는, 예를 들면 N6, E9의 순서로, 에지 ID를 컨텍스트 인식부(214)에 출력한다.The
그런데, 지식 그래프(901)는, 지식 그래프(801)의 일부(N10, E10, 및 N1로 이루어지는 부분)와 완전히 일치하고 있다. 발화 이해부(213)는, 지식 그래프의 대조에 있어서, 한쪽의 릴레이션 또는 엔티티가, 다른 쪽의 릴레이션 또는 엔티티와 완전 일치하지 않아도, 예를 들면 유사도가 소정값 이상일 경우에는, 당해 한쪽과 당해 다른 쪽을 동일한 것으로서 취급해도 된다.By the way, the
예를 들면, 발화 이해부(213)가 유저로부터 입력된 텍스트로부터 도 9b의 지식 그래프(902)를 생성한 것으로 한다. 지식 그래프(902)의 에지는「받아들인다」이지만, 발화 이해부(213)는,「받아들인다」와 지식 그래프(801)의 E10「도입한다」가 동의(同義)라고 간주하여, 지식 그래프(902)가 나타내는 지식이 E10과 일치하는 것으로 판정해도 된다.For example, it is assumed that the
발화 이해부(213)는, 엔티티나 릴레이션간의 유사도를, 예를 들면 단어 사전이나 온톨로지 등에 있어서의 유의(類義) 관계에 의해 산출한다. 발화 이해부(213)는, 유사도가 소정 이상인 릴레이션이나 엔티티를 동의인 것으로서 취급함으로써, 유저 입력으로부터 추출한 지식에 일치하는, 지식 그래프 DB(105) 내의 지식을 늘릴 수 있으며, 나아가서는 유저에 적절한 힌트를 줄 수 있을 가능성이 높아진다.The
도 2의 설명으로 돌아간다. 계속해서, 컨텍스트 인식부(214)는, 발화 이해 처리에서 취득한 유저 입력의 텍스트가 나타내는 지식의 출현 순서를, 후속 지식 테이블(704)과 대조하는, 컨텍스트 인식 처리를 실행한다(S123). 예를 들면, 지식 그래프(901)에 해당하는 텍스트가 유저로부터 입력되었을 경우, 전술한 바와 같이 스텝 S122에서 E10이 출력된다. 이 때, 컨텍스트 인식부(214)는, 도 8b의 후속 지식 테이블(704)의 2행째(지식의 값이 E10인 행)가 나타내는 정보를, 페이즈 인식부(215)에 출력한다.Returning to the description of FIG. Next, the
다음으로, 페이즈 인식부(215)에서는, 유저의 작문이나 회화의 페이즈를 인식하는, 페이즈 인식 처리를 실행한다(S124). 예를 들면, 어떤 테마(도 9a∼도 9c의 예에서는,「학교에 제복을 도입해야 하는가」)에 대하여, 찬성 또는 반대의 입장에서, 유저가 논술할 경우에, 논술문에 요구되는 내용이 있다.Next, the
찬부(贊否)의 표명, 찬성 또는 반대의 논점을 드는 것, 및 찬부의 이유 및 근거의 제시 등은, 당해 논술문에 요구되는 내용의 예이다. 페이즈 인식부(215)는, 작문이나 회화에 요구되는 미리 정해진 내용이, 유저가 입력한 텍스트에 부족한지의 여부를 판정함으로써, 유저의 작문이나 회화의 페이즈를 인식한다.The expressions of the pros and cons, the issue of the pros and cons, and the reasons and rationale of pros and cons are examples of what is required of the essay. The
도 9c는 표시 장치(203)에 표시되는 화면의 변천의 일례를 나타낸다. 예를 들면, 표시 화면(903)에 표시된 문장의 페이즈는, 제복의 도입에 찬성인 입장은 표명되어 있지만, 논점이 들어져 있지 않거나, 이유나 근거가 제시되어 있지 않다고 하는 페이즈이다. 페이즈 인식부(215)는, 미리 정해 놓은 내용 중, 유저에 의해 입력된 텍스트에 있어서 기술되어 있지 않은 내용을 특정한다.Fig. 9C shows an example of the transition of the screen displayed on the
또, 작문이나 회화에 요구되는 내용은 미리 정의되어 있으며, 예를 들면 발상 지원 장치(201)는 학습용의 문서를 미리 유지하고 있다. 예를 들면, 발상 지원 장치(201)는 운용 처리의 개시 전에, 당해 내용에 해당하는 개소의 라벨을 작성하고, 당해 라벨을 이용한 기계 학습에 의해, 당해 내용을 인식할 수 있는 식별기를 작성해 놓는다. 페이즈 인식부(215)는, 이 식별기를 이용하여, 유저가 입력한 텍스트 중에, 당해 내용이 포함되어 있는지의 여부를 판별한다. 도 9c의 예에서는, 작문에 있어서, 학교에의 제복 도입에 대한 찬부의 표명, 및 표명한 찬부를 위한 논점이 필요한 것으로 한다.In addition, contents required for composition and conversation are defined in advance. For example, the
또, 발상 지원 장치(201)는, 예를 들면 문서 DB(103)의 당해 내용에 해당하는 개소(예를 들면, 상기 내용을 포함하는 문서 또는 상기 내용을 포함하는 텍스트)에, 당해 내용에 해당하는 개소임을 나타내는 애너테이션(annotation)을 부여해도 된다.In addition, the
그리고, 지식 그래프 생성부(211)는, 지식 그래프 생성 처리에 있어서, 애너테이션 부분을 이용한 지식을 포함하는 지식 그래프를 생성했을 경우, 당해 애너테이션 부분이 나타내는 내용을 당해 지식이 나타냄을, 지식 그래프 상에 부가 정보로서 제공해도 된다. 즉, 예를 들면 지식 그래프 생성부(211)는, 노드 테이블(304), 및 에지 테이블(305)에, 열을 더 추가하고, 추가한 열에 당해 부가 정보를 저장한다.When generating a knowledge graph including knowledge using an annotation part in the knowledge graph generation process, the knowledge
도 2의 설명으로 돌아간다. 계속해서, 페이즈 인식부(215)는, 컨텍스트 인식 처리 및 페이즈 인식 처리의 결과에 의거하여, 유저에게 힌트를 제시하는 힌트 제시 처리를 실시한다(S125). 페이즈 인식부(215)는, 후속 지식 테이블(704)이 나타내는 후속 지식으로부터 제시하는 힌트를 생성한다.Returning to the description of FIG. Subsequently, the
전술한 바와 같이, 표시 화면(903)에 표시되어 있는 문장이 입력되었을 경우, 컨텍스트 인식 처리에 있어서, 후속 지식 테이블(704)의 지식이 E10인 레코드의 정보가 출력된다. 즉, 페이즈 인식부(215)는, 지식(E10)의 후속 지식이 N2 및 E9임을 나타내는 정보를 이미 취득하고 있다.As described above, when a sentence displayed on the
따라서, 페이즈 인식부(215)는, 후속 지식(N2) 및 후속 지식(E9)의 릴레이션이 나타내는 스테이트먼트를, 유저에게 제시할 힌트의 후보로 결정한다. 페이즈 인식부(215)는, 당해 후보 모두를 힌트로서, 표시 장치(203)에 출력해도 된다.Therefore, the
또한, 예를 들면 페이즈 인식부(215)는, 페이즈 인식 처리에 있어서, 표시 화면(903)에 표시되어 있는 문장에 부족한 것으로 판정된 내용을 나타내는 지식에 해당하는 후보가 있을 경우, 당해 후보를 우선해서 표시 장치(203)에 힌트로서 표시해도 된다.Further, for example, in the phase recognition processing, if there is a candidate corresponding to the knowledge indicating the content determined to be insufficient in the sentence displayed on the
또,「어떤 후보가 우선해서 표시된다」란, 예를 들면 당해 후보만이 표시 장치(203)에 표시되는 것, 및 모든 후보가 표시 장치(203)에 표시될 경우에 당해 후보가 강조 표시되는 것 등을 의미한다.The phrase " any candidate is displayed in preference " means, for example, that only the candidate is displayed on the
또한, 페이즈 인식부(215)는, 후속 지식 테이블(704)의 지식이 E10인 레코드에 있어서의 출현 횟수가 많은(도 8b의 예에서는, N2는 10회, E9는 5회) 지식을 우선하여, 표시 장치(203)에 힌트로서 제시해도 된다(예를 들면, 출현 횟수가 큰 순서로 소정수의 후보를 제시하거나, 출현 횟수가 소정수 이상인 후보를 모두 제시하거나 함). 이에 따라, 페이즈 인식부(215)는, 유저가 입력한 내용과 관련성이 강한 지식을 힌트로서 출력할 수 있다.In addition, the
또한, 후속 지식 테이블(704)에 지식과 후속 지식 사이의 문서 상의 거리가 저장되어 있을 경우에는, 페이즈 인식부(215)는, 후속 지식 테이블(704)의 지식이 E10인 레코드에 있어서의 거리가 작은 지식을 우선하여, 표시 장치(203)에 힌트로서 제시해도 된다(예를 들면, 거리가 작은 순서로 소정수의 후보를 제시하거나, 거리가 소정값 이하인 후보를 모두 제시하거나 함). 이에 따라, 페이즈 인식부(215)는, 유저가 입력한 내용과 관련성이 강한 지식을 힌트로서 출력할 수 있다.If the distance between the knowledge and the subsequent knowledge is stored in the subsequent knowledge table 704, the
예를 들면, 지식(N2) 및 지식(E9)의 찬성 또는 반대의 논점인 것으로 한다. 이 때, 페이즈 인식부(215)는, 예를 들면 출현 횟수를 우선하여, 도 9c의 표시 화면(904) 중에 표시되어 있는 바와 같이,「제복은 규율을 높인다」라고 하는 내용을 힌트로서 제시한다. 또, 페이즈 인식부(215)는, 예를 들면 유저가 힌트를 필요로 하고 있는 것으로 추정했을 경우, 또는 유저로부터의 힌트 제시 요구를 접수했을 경우에, 힌트를 표시 장치(203)에 표시한다. 구체적으로는, 예를 들면 페이즈 인식부(215)는, 유저의 입력으로부터 일정 시간이 경과해도, 다음 입력이 없을 경우에 힌트를 제시해도 되고, 유저에 의한 버튼 누름 등의 유저로부터의 요구가 있었을 경우에 힌트를 제시해도 된다.For example, it should be a matter of or against the knowledge (N2) and the knowledge (E9). At this time, the
또, 여기서는, 페이즈 인식부(215)는, 표시 화면(904)에 있어서, 하나의 힌트만을 제시했지만, 복수의 힌트를 제시해도 된다. 또, 페이즈 인식 처리는, 제시할 힌트를 좁히기 위한 처리이기 때문에, 실행되지 않아도 된다.In this example, the
유저는, 표시 화면(904) 중에 제시된 힌트를 참고로 하여, 표시 화면(905)에 표시되어 있는 바와 같이 유저는 텍스트의 입력을 계속하고, 발화 이해 처리로 돌아간다. 또, 유저는, 제시된 힌트와는 관계가 없는 텍스트를 입력해도 된다. 그리고, 입력된 텍스트에 대하여, 발화 이해 처리, 및 컨텍스트 인식 처리가 다시 실행된다. 표시 화면(905)에 표시되어 있는 문장이 입력되었을 경우의 컨텍스트 인식 처리에 있어서의 출력은, E10 및 N2이다.The user continues inputting the text as shown on the
이 때, 도 8b의 후속 지식 테이블(704)에 있어서, E10 및 N2에 공통되는 후속 지식은, E9이기 때문에, 페이즈 인식부(215)는, 힌트 제시 처리에 있어서, 예를 들면 표시 화면(906)과 같이,「제복은 학습 의욕을 높인다」를 힌트로서 제시한다.8B, since the following knowledge common to E10 and N2 is E9, the
본 실시형태의 발상 지원 장치(201)는, 전술한 처리에 의해, 유저가 텍스트 입력에 막혔을 때나, 유저가 힌트를 요구했을 때에, 유저에게 적절한 힌트를 줄 수 있으며, 나아가서는 유저의 발상을 지원하고, 유저에 의한 다음 발화를 지원할 수 있다.According to the above-described processing, the
또, 페이즈 인식부(215)는, 힌트 제시 처리에 있어서, 지식 그래프를 사용한 이하에 나타내는 처리를 행해도 된다. 전술한 바와 같이, 유저가 표시 화면(905)에 표시되어 있는 문장을 입력했을 경우, 컨텍스트 인식 처리에 있어서 지식(E10) 및 지식(N2)이 출력된다.The
지식 그래프(801)에 있어서, 컨텍스트 인식 처리에서 출력된 지식(N2)의 역접(逆接)인 지식(N6)이 있다. 페이즈 인식부(215)는, 이와 같이, 컨텍스트 인식부(214)로부터 입력된 지식의 역설의 지식이 지식 그래프 상에 포함되고, 또한 당해 역설의 지식이 컨텍스트 인식부(214)로부터 입력되어 있지 않을 경우, 당해 역설의 지식에 해당하는 힌트를 제시해도 된다. 구체적으로는, 예를 들면 페이즈 인식부(215)는, 표시 화면(907)에 나타내는,「제복은 규율을 높이지만, 제복은 자유를 저해한다라고 하는 의견도 있는데, 어떻게 생각합니까?」등의 질문이나 코멘트를, 힌트로서 제시해도 된다.In the
당해 처리에 의해, 유저는 자신의 반대의 입장으로부터의 의견을 알 수 있으며, 나아가서는 논술이나 작문, 회화에 있어서의 유저의 발상을 깊게 하기 위한 지원을 할 수 있다. 또, 상기의 예에서는, 페이즈 인식부(215)가 컨텍스트 인식부(214)로부터 입력된 지식의 역설의 지식을 힌트로서 제시하는 예를 설명했지만, 페이즈 인식부(215)는, 컨텍스트 인식부(214)로부터 입력된 지식의 역설 이외의 릴레이션에 있는 지식으로서, 또한 컨텍스트 인식부(214)로부터 입력되어 있지 않은 지식을 힌트로서 제시해도 된다.By this processing, the user can know the opinion from the opposite side of his / her own opinion, and can further assist in deepening the user's idea in essay writing, writing, and conversation. Although the example in which the
또, 본 발명은 상기한 실시형태에 한정되는 것이 아니며, 다양한 변형예가 포함된다. 예를 들면, 상기한 실시형태는 본 발명을 이해하기 쉽게 설명하기 위해서 상세하게 설명한 것이며, 반드시 설명한 모든 구성을 구비하는 것에 한정되는 것이 아니다. 또한, 어느 실시형태의 구성의 일부를 다른 실시형태의 구성으로 치환하는 것도 가능하며, 또한 어느 실시형태의 구성에 다른 실시형태의 구성을 부가하는 것도 가능하다. 또한, 각 실시형태의 구성의 일부에 대해서, 다른 구성의 추가·삭제·치환을 하는 것이 가능하다.The present invention is not limited to the above-described embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to facilitate understanding of the present invention, and are not limited to those having all the configurations described above. It is also possible to replace some of the configurations of the embodiments with the configurations of other embodiments, and it is also possible to add configurations of other embodiments to the configurations of any of the embodiments. Further, it is possible to add, delete, or substitute another configuration with respect to a part of the configuration of each embodiment.
또한, 상기의 각 구성, 기능, 처리부, 처리 수단 등은, 그들의 일부 또는 전부를, 예를 들면 집적 회로로 설계하는 등에 의해 하드웨어로 실현해도 된다. 또한, 상기의 각 구성, 기능 등은, 프로세서가 각각의 기능을 실현하는 프로그램을 해석하고, 실행함으로써 소프트웨어로 실현해도 된다. 각 기능을 실현하는 프로그램, 테이블, 파일 등의 정보는, 메모리나, 하드디스크, SSD(Solid State Drive) 등의 기록 장치, 또는, IC 카드, SD 카드, DVD 등의 기록 매체에 놓일 수 있다.Further, the above-described components, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, the above-described respective configurations, functions, and the like may be realized by software by analyzing and executing a program that realizes the respective functions of the processor. Information such as a program, a table, and a file that realize each function can be stored in a recording device such as a memory, a hard disk, a solid state drive (SSD), or a recording medium such as an IC card, an SD card, or a DVD.
또한, 제어선이나 정보선은 설명상 필요한 것으로 생각되는 것을 나타내고 있으며, 제품상 모든 제어선이나 정보선을 반드시 나타내고 있다고는 할 수 없다. 실제로는 거의 모든 구성이 서로 접속되어 있다고 생각해도 된다.In addition, the control lines and the information lines are considered to be necessary for explanation, and not necessarily all the control lines and information lines on the product. In practice, it can be considered that almost all configurations are connected to each other.
103: 문서 DB, 105: 지식 그래프 DB, 107: 컨텍스트 DB, 201: 발상 지원 장치, 202: 입력 장치, 203: 표시 장치, 204: 통신 장치, 205: 연산 장치(CPU), 206: 메모리, 207: 보조 기억 장치, 211: 지식 그래프 생성부, 212: 컨텍스트 계산부, 213: 발화 이해부, 214: 컨텍스트 인식부, 215: 페이즈 인식부The present invention relates to an information processing apparatus and an information processing apparatus which are capable of providing a knowledge DB with a knowledge DB and a context DB. 212: context calculation unit, 213: speech recognition unit, 214: context recognition unit, 215: phase recognition unit,
Claims (10)
프로세서와 메모리를 포함하고,
상기 메모리는,
지식을 정의하는 문서에 포함되는 명제(命題)를 구성하는 요소를 나타내는 노드와, 상기 명제가 나타내는 상기 요소간의 릴레이션(relation)을 나타내는 제 1 종(種) 에지를 포함하는 제 1 그래프의 구조를 나타내는 그래프 정보와,
상기 문서에 있어서의 릴레이션의 출현 순서를 나타내는 컨텍스트 정보를 유지하며,
상기 프로세서는,
명제의 입력을 접수하고,
상기 입력을 접수한 명제에 포함되는 요소와, 상기 입력을 접수한 명제가 나타내는 당해 요소간의 릴레이션을 추출하고,
상기 추출한 요소를 나타내는 노드를 포함하며, 또한 상기 추출한 요소간의 릴레이션을 상기 제 1 종 에지로서 포함하는 제 2 그래프를 생성하고,
상기 그래프 정보를 참조하여, 상기 제 2 그래프가 나타내는 릴레이션이 상기 제 1 그래프에 포함되는 것으로 판정했을 경우, 상기 컨텍스트 정보를 참조하여, 상기 문서에 있어서 당해 릴레이션의 후에 출현한 릴레이션을 특정하고,
상기 특정한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.As an idea support device for supporting user's ideas,
Comprising a processor and a memory,
The memory comprising:
A structure of a first graph including a node representing an element constituting a proposition included in a document defining knowledge and a first kind edge representing a relation between the elements indicated by the proposition, And
Retaining context information indicating a sequence of occurrence of a relation in the document,
The processor comprising:
We accept input of proposition,
Extracts a relation between an element included in the proposition in which the input is accepted and the element indicated by the proposition in which the input is received,
Generating a second graph including a node indicating the extracted element and including a relation between the extracted elements as the first kind edge,
Refers to the graph information to specify a relation appearing after the relation in the document by referring to the context information when it is determined that the relation represented by the second graph is included in the first graph,
And outputs information indicating the specific relation.
상기 문서는, 복수의 명제를 포함하고,
상기 제 1 그래프의 노드는,
상기 복수의 명제에 포함되는 엔티티를 나타내는 제 1 종 노드와,
상기 복수의 명제에 포함되는 명제로서, 모든 요소와 릴레이션이 상기 복수의 명제에 있어서의 다른 명제의 하나의 요소에 포함되는 명제인 제 1 종 명제의 릴레이션을 나타내는 제 2 종 노드를 포함하고,
상기 제 1 그래프는, 상기 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 제 2 종 노드를 접속하는 제 2 종 에지를 포함하며,
상기 프로세서는,
복수의 명제의 입력을 접수하고,
상기 제 2 그래프의 생성에 있어서,
상기 추출한 요소 중 엔티티를 상기 제 1 종 노드로 결정하고,
상기 입력을 접수한 복수의 명제가, 상기 제 1 종 명제를 포함하는 것으로 판정했을 경우, 당해 제 1 종 명제의 릴레이션을 상기 제 2 종 노드로 결정하고,
당해 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 결정한 제 2 종 노드를 상기 제 2 종 에지로 접속하는, 발상 지원 장치.The method according to claim 1,
The document includes a plurality of propositions,
Wherein the node of the first graph comprises:
A first kind node indicating an entity included in the plurality of propositions,
And a second kind node indicating a relation of a first kind proposition, in which all elements and relations are contained in one element of another proposition in the plurality of propositions, as a proposition contained in the plurality of propositions,
Wherein the first graph includes a node indicating an element constituting the first kind of specification and a second kind of edge connecting the second kind of node,
The processor comprising:
Accepting input of a plurality of propositions,
In generating the second graph,
Determining an entity among the extracted elements as the first seed node,
Wherein when determining that the plurality of propositions that have accepted the input include the first kind proposition, the relation of the first kind proposition is determined to be the second kind node,
And connects the node indicating the elements constituting the first type specification and the determined second kind node to the second type edge.
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션의 출현 횟수를 나타내며,
상기 프로세서는,
상기 컨텍스트 정보가 나타내는, 상기 특정한 릴레이션의 출현 횟수에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.The method according to claim 1,
Wherein the context information indicates the number of occurrences of relations appearing after the relation in the document for each relation indicated by the proposition of the document,
The processor comprising:
Selects a relation from the specific relation on the basis of the occurrence count of the specific relation indicated by the context information,
And outputs information indicating the selected relation.
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션과의 상기 문서 상에서의 거리를 나타내며,
상기 프로세서는,
상기 컨텍스트 정보가 나타내는, 상기 제 1 그래프에 포함되는 상기 제 2 그래프가 나타내는 릴레이션과, 상기 특정한 릴레이션과의 거리에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.The method according to claim 1,
Wherein the context information indicates a distance on the document to a relation appearing after the relation in the document for each relation indicated by the proposition of the document,
The processor comprising:
Selects a relation from the specific relation on the basis of a relation represented by the second graph included in the first graph and a distance between the relation indicated by the context information and the specific relation,
And outputs information indicating the selected relation.
상기 프로세서는, 상기 특정한 릴레이션에 미리 정해진 릴레이션이 포함될 경우, 상기 미리 정해진 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.The method according to claim 1,
Wherein the processor outputs information indicating the predetermined relation when a predetermined relation is included in the specific relation.
상기 발상 지원 장치는,
지식을 정의하는 문서에 포함되는 명제를 구성하는 요소를 나타내는 노드와, 상기 명제가 나타내는 상기 요소간의 릴레이션을 나타내는 제 1 종 에지를 포함하는 제 1 그래프의 구조를 나타내는 그래프 정보와,
상기 문서에 있어서의 릴레이션의 출현 순서를 나타내는 컨텍스트 정보를 유지하며,
상기 방법은,
상기 발상 지원 장치가,
명제의 입력을 접수하고,
상기 입력을 접수한 명제에 포함되는 요소와, 상기 입력을 접수한 명제가 나타내는 당해 요소간의 릴레이션을 추출하고,
상기 추출한 요소를 나타내는 노드를 포함하며, 또한 상기 추출한 요소간의 릴레이션을 상기 제 1 종 에지로서 포함하는 제 2 그래프를 생성하고,
상기 그래프 정보를 참조하여, 상기 제 2 그래프가 나타내는 릴레이션이 상기 제 1 그래프에 포함되는 것으로 판정했을 경우, 상기 컨텍스트 정보를 참조하여, 상기 문서에 있어서 당해 릴레이션의 후에 출현한 릴레이션을 특정하고,
상기 특정한 릴레이션을 나타내는 정보를 출력하는, 방법.A method for supporting an idea of a user by an idea support device,
The idea support apparatus comprises:
Graph information indicating a structure of a first graph including a node representing an element constituting a proposition included in a document defining knowledge and a first kind edge representing a relation between the elements indicated by the proposition;
Retaining context information indicating a sequence of appearance of a relation in the document,
The method comprises:
Wherein the idea support apparatus comprises:
We accept input of proposition,
Extracts a relation between an element included in the proposition in which the input is accepted and the element indicated by the proposition in which the input is received,
Generating a second graph including a node indicating the extracted element and including a relation between the extracted elements as the first kind edge,
Refers to the graph information to specify a relation appearing after the relation in the document by referring to the context information when it is determined that the relation represented by the second graph is included in the first graph,
And outputting information indicating the specific relation.
상기 문서는, 복수의 명제를 포함하고,
상기 제 1 그래프의 노드는,
상기 복수의 명제에 포함되는 엔티티를 나타내는 제 1 종 노드와,
상기 복수의 명제에 포함되는 명제로서, 모든 요소와 릴레이션이 상기 복수의 명제에 있어서의 다른 명제의 하나의 요소에 포함되는 명제인 제 1 종 명제의 릴레이션을 나타내는 제 2 종 노드를 포함하고,
상기 제 1 그래프는, 상기 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 제 2 종 노드를 접속하는 제 2 종 에지를 포함하며,
상기 방법은,
상기 발상 지원 장치가,
복수의 명제의 입력을 접수하고,
상기 제 2 그래프의 생성에 있어서,
상기 추출한 요소 중 엔티티를 상기 제 1 종 노드로 결정하고,
상기 입력을 접수한 복수의 명제가, 상기 제 1 종 명제를 포함하는 것으로 판정했을 경우, 당해 제 1 종 명제의 릴레이션을 상기 제 2 종 노드로 결정하고,
당해 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 결정한 제 2 종 노드를 상기 제 2 종 에지로 접속하는, 방법.The method according to claim 6,
The document includes a plurality of propositions,
Wherein the node of the first graph comprises:
A first kind node indicating an entity included in the plurality of propositions,
And a second kind node indicating a relation of a first kind proposition, in which all elements and relations are contained in one element of another proposition in the plurality of propositions, as a proposition contained in the plurality of propositions,
Wherein the first graph includes a node indicating an element constituting the first kind of specification and a second kind of edge connecting the second kind of node,
The method comprises:
Wherein the idea support apparatus comprises:
Accepting input of a plurality of propositions,
In generating the second graph,
Determining an entity among the extracted elements as the first seed node,
Wherein when determining that the plurality of propositions that have accepted the input include the first kind proposition, the relation of the first kind proposition is determined to be the second kind node,
Connecting a node representing the element constituting the first type specification and the determined second kind node to the second type edge.
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션의 출현 횟수를 나타내며,
상기 방법은,
상기 발상 지원 장치가,
상기 컨텍스트 정보가 나타내는, 상기 특정한 릴레이션의 출현 횟수에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 방법.The method according to claim 6,
Wherein the context information indicates the number of occurrences of relations appearing after the relation in the document for each relation indicated by the proposition of the document,
The method comprises:
Wherein the idea support apparatus comprises:
Selects a relation from the specific relation on the basis of the occurrence count of the specific relation indicated by the context information,
And outputting information indicating the selected relation.
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션과의 상기 문서 상에서의 거리를 나타내며,
상기 방법은,
상기 발상 지원 장치가,
상기 컨텍스트 정보가 나타내는, 상기 제 1 그래프에 포함되는 상기 제 2 그래프가 나타내는 릴레이션과, 상기 특정한 릴레이션과의 거리에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 방법.The method according to claim 6,
Wherein the context information indicates a distance on the document to a relation appearing after the relation in the document for each relation indicated by the proposition of the document,
The method comprises:
Wherein the idea support apparatus comprises:
Selects a relation from the specific relation on the basis of a relation represented by the second graph included in the first graph and a distance between the relation indicated by the context information and the specific relation,
And outputting information indicating the selected relation.
상기 발상 지원 장치가, 상기 특정한 릴레이션에 미리 정해진 릴레이션이 포함될 경우, 상기 미리 정해진 릴레이션을 나타내는 정보를 출력하는, 방법.
The method according to claim 6,
Wherein the idea support apparatus outputs information indicating the predetermined relation when a predetermined relation is included in the specific relation.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017041822A JP6622236B2 (en) | 2017-03-06 | 2017-03-06 | Idea support device and idea support method |
JPJP-P-2017-041822 | 2017-03-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180101991A true KR20180101991A (en) | 2018-09-14 |
KR102039393B1 KR102039393B1 (en) | 2019-11-04 |
Family
ID=63489748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170147764A KR102039393B1 (en) | 2017-03-06 | 2017-11-08 | Creative thinking support apparatus and creative thinking support method |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6622236B2 (en) |
KR (1) | KR102039393B1 (en) |
CN (1) | CN108536720B (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230140938A1 (en) * | 2020-04-10 | 2023-05-11 | Nippon Telegraph And Telephone Corporation | Sentence data analysis information generation device using ontology, sentence data analysis information generation method, and sentence data analysis information generation program |
CN112148871B (en) * | 2020-09-21 | 2024-04-12 | 北京百度网讯科技有限公司 | Digest generation method, digest generation device, electronic equipment and storage medium |
JP2022070523A (en) * | 2020-10-27 | 2022-05-13 | 株式会社日立製作所 | Semantic expression analysis system and semantic expression analysis method |
WO2022091413A1 (en) | 2020-11-02 | 2022-05-05 | 富士通株式会社 | Machine learning program, inference program, device, and method |
JP7474536B1 (en) | 2023-08-07 | 2024-04-25 | Linked Ideal合同会社 | Information processing system and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004342064A (en) * | 2003-05-16 | 2004-12-02 | Seki Tama Yonezawa | Human inference engine |
WO2007027967A2 (en) * | 2005-08-31 | 2007-03-08 | Eagleforce Associates | System for hypothesis generation |
JP2007241901A (en) | 2006-03-10 | 2007-09-20 | Univ Of Tsukuba | Decision making support system and decision support method |
KR20110134314A (en) * | 2010-06-08 | 2011-12-14 | 인터내셔널 비지네스 머신즈 코포레이션 | Graphical models for representing text documents for computer analysis |
KR20130125999A (en) * | 2012-05-10 | 2013-11-20 | 경북대학교 산학협력단 | A method and an apparatus of keyword extraction and a communication assist device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5841900A (en) * | 1996-01-11 | 1998-11-24 | Xerox Corporation | Method for graph-based table recognition |
AUPR295501A0 (en) * | 2001-02-08 | 2001-03-08 | Wong, Kwok Kay | Proximity for computer represented graphs |
JP2003006191A (en) * | 2001-06-27 | 2003-01-10 | Ricoh Co Ltd | Device and method for supporting preparation of foreign language document and program recording medium |
JP2006301967A (en) * | 2005-04-20 | 2006-11-02 | Sony Computer Entertainment Inc | Conversation support device |
WO2007049800A1 (en) * | 2005-10-27 | 2007-05-03 | Raytec Co., Ltd. | Document creation support device |
JPWO2007060780A1 (en) * | 2005-11-22 | 2009-05-07 | 日本電気株式会社 | Idea support device, idea support method, and idea support program |
US9002773B2 (en) * | 2010-09-24 | 2015-04-07 | International Business Machines Corporation | Decision-support application and system for problem solving using a question-answering system |
JP5426710B2 (en) * | 2012-03-19 | 2014-02-26 | 株式会社東芝 | Search support device, search support method and program |
CN104699758B (en) * | 2015-02-04 | 2017-10-27 | 中国人民解放军装甲兵工程学院 | The commanding document intelligent generating system and method for a kind of graphics and text library association |
-
2017
- 2017-03-06 JP JP2017041822A patent/JP6622236B2/en not_active Expired - Fee Related
- 2017-11-08 KR KR1020170147764A patent/KR102039393B1/en active IP Right Grant
- 2017-11-30 CN CN201711235125.2A patent/CN108536720B/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004342064A (en) * | 2003-05-16 | 2004-12-02 | Seki Tama Yonezawa | Human inference engine |
WO2007027967A2 (en) * | 2005-08-31 | 2007-03-08 | Eagleforce Associates | System for hypothesis generation |
JP2007241901A (en) | 2006-03-10 | 2007-09-20 | Univ Of Tsukuba | Decision making support system and decision support method |
KR20110134314A (en) * | 2010-06-08 | 2011-12-14 | 인터내셔널 비지네스 머신즈 코포레이션 | Graphical models for representing text documents for computer analysis |
KR20130125999A (en) * | 2012-05-10 | 2013-11-20 | 경북대학교 산학협력단 | A method and an apparatus of keyword extraction and a communication assist device |
Also Published As
Publication number | Publication date |
---|---|
CN108536720B (en) | 2021-09-21 |
KR102039393B1 (en) | 2019-11-04 |
CN108536720A (en) | 2018-09-14 |
JP6622236B2 (en) | 2019-12-18 |
JP2018147238A (en) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102039393B1 (en) | Creative thinking support apparatus and creative thinking support method | |
US8719006B2 (en) | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis | |
RU2592395C2 (en) | Resolution semantic ambiguity by statistical analysis | |
Biber | Multi-dimensional analysis: A historical synopsis | |
RU2579873C2 (en) | Resolution of semantic ambiguity using semantic classifier | |
Lu et al. | Sentence-level readability assessment for L2 Chinese learning | |
Dong et al. | Revisit input perturbation problems for llms: A unified robustness evaluation framework for noisy slot filling task | |
Ramanarayanan et al. | Automatic turn-level language identification for code-switched spanish–english dialog | |
Amri et al. | Amazigh POS tagging using TreeTagger: a language independant model | |
Kim et al. | Automatic scoring system for short descriptive answer written in Korean using lexico-semantic pattern | |
Irmawati et al. | Exploiting Syntactic Similarities for Preposition Error Corrections on Indonesian Sentences Written by Second Language Learner | |
Samir et al. | Amazigh PoS tagging using machine learning techniques | |
WO2020012813A1 (en) | Information processing device, information processing method, and program | |
Tarish et al. | Text correction algorithms for correct grammar and lex-ical errors in the English language | |
Babhulgaonkar et al. | Experimenting with factored language model and generalized back-off for Hindi | |
Hasegawa-Johnson et al. | Arabic speech and language technology | |
Bernhard et al. | Elal: An emotion lexicon for the analysis of alsatian theatre plays | |
JP7258627B2 (en) | Scoring support device, its method, and program | |
Samir et al. | Training and evaluation of TreeTagger on Amazigh corpus | |
Mahi et al. | PURAN: word prediction system for Punjabi language news | |
Balcha et al. | Design and Development of Sentence Parser for Afan Oromo Language | |
Potapova et al. | A New Software Approach to Automated Translation (On the Example of the Logistics Sublanguage) | |
Begum Mustafa et al. | Code-Switching in Automatic Speech Recognition: The Issues and Future Directions | |
Ribeck et al. | Lexical bundles in Swedish secondary school textbooks | |
Almuntashiri et al. | Arabic Auto-CON: Automated Arabic Concordancer Construction from Arabic Corpus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |