KR20180101991A - Creative thinking support apparatus and creative thinking support method - Google Patents

Creative thinking support apparatus and creative thinking support method Download PDF

Info

Publication number
KR20180101991A
KR20180101991A KR1020170147764A KR20170147764A KR20180101991A KR 20180101991 A KR20180101991 A KR 20180101991A KR 1020170147764 A KR1020170147764 A KR 1020170147764A KR 20170147764 A KR20170147764 A KR 20170147764A KR 20180101991 A KR20180101991 A KR 20180101991A
Authority
KR
South Korea
Prior art keywords
relation
node
graph
knowledge
proposition
Prior art date
Application number
KR1020170147764A
Other languages
Korean (ko)
Other versions
KR102039393B1 (en
Inventor
도시노리 미요시
미아오메리 레이
Original Assignee
가부시끼가이샤 히다치 세이사꾸쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 히다치 세이사꾸쇼 filed Critical 가부시끼가이샤 히다치 세이사꾸쇼
Publication of KR20180101991A publication Critical patent/KR20180101991A/en
Application granted granted Critical
Publication of KR102039393B1 publication Critical patent/KR102039393B1/en

Links

Images

Classifications

    • G06F17/2705
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • G06F17/30654

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

An objective of the present invention is to support creative thinking of a user in accordance with writing or speaking by the user while the user writes or speaks. In order to achieve the objective, a creative thinking support apparatus maintains nodes showing elements making up a proposition included in a document defining knowledge, information showing a first graph structure including edges showing relations between the elements shown by the proposition, and information showing an appearance order of relations in the document, receives input of a proposition, extracts elements included in the proposition and relations between the elements shown by the proposition, includes nodes showing the extracted elements, generates a second graph including the relations between the extracted elements as edges, and specifies relations appearing after relations shown by the second graph in the document if the corresponding relations are determined to be included in the first graph.

Description

발상 지원 장치 및 발상 지원 방법{CREATIVE THINKING SUPPORT APPARATUS AND CREATIVE THINKING SUPPORT METHOD}TECHNICAL FIELD [0001] The present invention relates to an apparatus and a method for supporting an idea,

본 발명은 발상 지원 장치 및 발상 지원 방법에 관한 것이다.The present invention relates to an idea support apparatus and an idea support method.

본 기술 분야의 배경 기술로서, 일본국 특개 2007-241901호 공보(특허문헌 1)가 있다. 이 공보에는,「입력된 테마에 관련된 의견 텍스트군 중에서 상기 테마에 관련된 복수의 논점을 추출하는 논점 추출 수단과, 상기 복수의 논점마다, 당해 논점을 포함하고 있는 상기 의견 텍스트 중에서 당해 논점에 하나의 입장을 가지는 의견의 비율을 나타내는 고유도를 산출하는 고유도 산출 수단과, 상기 복수의 논점마다 상기 하나의 입장을 포함하고 있는 의견의 중요도를 산출하는 중요도 산출 수단과, 상기 복수의 논점에 관련된 관련어를 추출하는 관련어 추출 수단과, 상기 복수의 논점마다에 대한 긍정 또는 부정의 의견에 있어서의 복수의 대표 의견을 선택하는 대표 의견 선택 수단과, 상기 각 수단으로부터 출력된 상기 복수의 논점마다의 상기 고유도 및 상기 중요도를 출력하는 인터페이스 수단을 구비한다.」고 기재되어 있다(요약 참조).BACKGROUND ART [0002] Japanese Patent Application Laid-Open No. 2007-241901 (Patent Document 1) is known as a background art in this technical field. This publication discloses a technique for extracting a plurality of points related to the theme among a group of comment texts related to an inputted theme, and a method for extracting a plurality of points of interest related to the theme from among the plurality of points of view, A degree of importance calculation means for calculating a degree of opinion representing a ratio of opinions having an admission; a degree of importance calculation means for calculating a degree of importance of the opinion including the one admission for each of the plurality of topics; A representative opinion selection means for selecting a plurality of representative opinions in an affirmative or negative opinion for each of the plurality of issues; And an interface means for outputting the degree of importance and the importance. &Quot;

일본국 특개 2007-241901호 공보Japanese Patent Application Laid-Open No. 2007-241901

예를 들면 유저가, 주어진 테마에 관한 작문이나 발화(發話)를 행하는 것을 상정한다. 특허문헌 1에 기재된 기술은, 주어진 테마에 관한 논점을 미리 추출 함으로써, 유저에 의한 작문이나 발화를 지원한다.For example, it is assumed that the user performs writing or uttering about a given theme. The technique described in Patent Document 1 supports the writing and uttering by the user by extracting the points related to a given theme in advance.

그러나, 유저가 작문이나 발화를 진행했을 경우, 특허문헌 1에 기재된 기술이 추출한 각 논점은, 당해 작문이나 당해 회화의 컨텍스트에 적합한 논점이라고는 단정할 수 없다. 그래서, 본 발명의 일 태양은, 유저가 작문이나 발화를 행하고 있는 도중에, 유저에 의한 작문이나 발화의 컨텍스트에 따라, 유저의 발상을 지원 하는 것을 목적으로 한다.However, when a user proceeds writing or uttering, each issue extracted by the technique described in Patent Document 1 can not be said to be a matter suitable to the context of the composition or the conversation concerned. Therefore, one aspect of the present invention aims at supporting the user's idea in accordance with the context of writing or uttering by the user while the user is writing or uttering.

상기 과제를 해결하기 위해, 본 발명의 일 태양은 이하의 구성을 채용한다. 유저의 발상을 지원하는 발상(發想) 지원 장치로서, 프로세서와 메모리를 포함하고, 상기 메모리는, 지식을 정의하는 문서에 포함되는 명제(命題)를 구성하는 요소를 나타내는 노드와, 상기 명제가 나타내는 상기 요소간의 릴레이션(relation)을 나타내는 제 1 종(種) 에지를 포함하는 제 1 그래프의 구조를 나타내는 그래프 정보와, 상기 문서에 있어서의 릴레이션의 출현 순서를 나타내는 컨텍스트 정보를 유지하며, 상기 프로세서는, 명제의 입력을 접수하고, 상기 입력을 접수한 명제에 포함되는 요소와, 상기 입력을 접수한 명제가 나타내는 당해 요소간의 릴레이션을 추출하고, 상기 추출한 요소를 나타내는 노드를 포함하며, 또한 상기 추출한 요소간의 릴레이션을 상기 제 1 종 에지로서 포함하는 제 2 그래프를 생성하고, 상기 그래프 정보를 참조하여, 상기 제 2 그래프가 나타내는 릴레이션이 상기 제 1 그래프에 포함되는 것으로 판정했을 경우, 상기 컨텍스트 정보를 참조하여, 상기 문서에 있어서 당해 릴레이션의 후에 출현한 릴레이션을 특정하고, 상기 특정한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.In order to solve the above problems, one aspect of the present invention employs the following configuration. 1. An idea support apparatus for supporting a user's idea, comprising: a processor and a memory, the memory comprising: a node representing an element constituting a proposition contained in a document defining knowledge; The graph information indicating a structure of a first graph including a first kind of edge indicating a relation between the elements representing the first graph and context information indicating a sequence of appearance of a relation in the document, Extracts a relation between an element included in the proposition in which the input has been accepted and an element between the element in which the input has been accepted and an element that represents the extracted element and includes a node indicating the extracted element, Generating a second graph including a relation between elements as the first type edge, referring to the graph information, And when it is determined that the relation represented by the second graph is included in the first graph, referring to the context information, specifies a relation appearing after the relation in the document, and outputs information indicating the specified relation The idea support device.

본 발명의 일 태양은, 유저가 작문이나 발화를 행하고 있는 도중에, 유저에 의한 작문이나 발화의 컨텍스트에 따라, 유저의 발상을 지원할 수 있다.One aspect of the present invention can support the user's idea in accordance with the context of writing or uttering by the user while the user is writing or uttering.

상기한 것 이외의 과제, 구성 및 효과는, 이하의 실시예의 설명에 의해 명백해진다.The problems, the constitution and the effects other than the above are clarified by the following description of the embodiment.

도 1은 실시예 1에 있어서의 발상 지원 장치의 구성예를 나타내는 블록도.
도 2는 본 실시예에 있어서의 발상 지원 장치가 실시하는 처리의 일례를 나타내는 플로우 차트.
도 3a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 3b는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 3c는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 3d는 실시예 1에 있어서의 노드 테이블의 일례.
도 3e는 실시예 1에 있어서의 에지 테이블의 일례.
도 4a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 4b는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 4c는 실시예 1에 있어서의 노드 테이블의 일례.
도 4d는 실시예 1에 있어서의 에지 테이블의 일례.
도 5a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5b는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5c는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5d는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 5e는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 6a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 6b는 실시예 1에 있어서의 노드 테이블의 일례.
도 6c는 실시예 1에 있어서의 에지 테이블의 일례.
도 7a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 7b는 실시예 1에 있어서의 후속 지식 테이블의 일례.
도 8a는 실시예 1에 있어서의 문서 내의 지식을 나타내는 지식 그래프의 일례.
도 8b는 실시예 1에 있어서의 후속 지식 테이블의 일례.
도 9a는 실시예 1에 있어서의 발화 이해 처리로 생성되는 지식 그래프의 일례.
도 9b는 실시예 1에 있어서의 발화 이해 처리로 생성되는 지식 그래프의 일례.
도 9c는 실시예 1에 있어서의 표시 장치에 표시되는 화면의 변천의 일례.
1 is a block diagram showing a configuration example of an idea support apparatus according to the first embodiment;
Fig. 2 is a flowchart showing an example of processing performed by the idea support apparatus in the present embodiment. Fig.
3A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
3B is an example of a knowledge graph showing knowledge in a document in the first embodiment;
3C is an example of a knowledge graph showing knowledge in a document in the first embodiment;
FIG. 3D is an example of a node table in the first embodiment; FIG.
3E is an example of an edge table in the first embodiment;
4A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
4B is an example of a knowledge graph showing knowledge in a document in the first embodiment;
4C is an example of a node table in the first embodiment;
4D is an example of an edge table in the first embodiment;
5A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5B is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5C is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5D is an example of a knowledge graph showing knowledge in a document in the first embodiment;
5E is an example of a knowledge graph showing knowledge in a document in the first embodiment;
6A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
6B is an example of a node table in the first embodiment;
6C is an example of an edge table in the first embodiment;
7A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
FIG. 7B is an example of a follow-up knowledge table in the first embodiment; FIG.
8A is an example of a knowledge graph showing knowledge in a document in the first embodiment;
8B is an example of a follow-up knowledge table in the first embodiment;
FIG. 9A is an example of a knowledge graph generated by the ignition understanding processing in the first embodiment. FIG.
FIG. 9B is an example of a knowledge graph generated by the ignition understanding processing in the first embodiment; FIG.
9C is an example of the transition of the screen displayed on the display device in the first embodiment;

이하, 첨부 도면을 참조하여 본 발명의 실시형태를 설명한다. 본 실시형태는 본 발명을 실현하기 위한 일례에 지나지 않으며, 본 발명의 기술적 범위를 한정하는 것이 아님에 주의해야 한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that this embodiment is only one example for realizing the present invention, and does not limit the technical scope of the present invention.

표현력 및 사고력 등을 기르기 위해서, 학교 등에서(예를 들면, 논술문의) 작문 훈련이 실시된다. 작문은, 문제집 등에서 수득할 수 있는 지식과 달라서, 자주 학습이 어렵고, 학생의 작문 기술 향상을 위해, 선생님에 의한 개별 지도가 필요한 케이스가 많다. 또한 학생은, 작문에 익숙하지 않은 단계에서는, 먼저, 무엇을 적어야 좋은지 모른다고 하는 문제도 있어, 당해 문제를 해결하기 위해 선생님에 의한 정중한 지도가 필요한 케이스가 많다. 또한, 외국어에서의 회화 훈련을 실시할 경우에도, 마찬가지로 먼저 무엇을 이야기해야 좋은지 모른다고 하는 상황이 생기는 케이스가 많다.Writing exercises are conducted at schools, for example, in essay writing, to develop expressive and thinking skills. Writing is different from the knowledge that can be obtained from problem books, so it is difficult to learn frequently and there are many cases where individual instruction by a teacher is needed to improve the writing skills of students. In addition, there is a problem that the student does not know what to write at the stage which is not familiar with writing first, and there are many cases that need a polite instruction by the teacher to solve the problem concerned. In addition, there are many cases in which conversation training is conducted in a foreign language, in which situations such as not knowing what to talk about are likely to occur.

그래서, 본 실시형태는, 유저의 작문에 대하여 힌트나 코멘트를 제시함으로써, 작문을 쓰기 위한 발상을 지원한다. 또한 마찬가지로, 본 실시형태는, 외국어 회화에 있어서, 다음 발언을 위한 힌트를 주는 등, 회화의 보조를 한다. 이에 따라, 유저는 외국어 회화에 익숙해질 수 있으며, 나아가서는 사람과의 회화를 실천하기 쉬워진다. 본 실시형태의 발상 지원 장치는, 작문이나 회화에 있어서, 유저에게 다음 발언의 힌트를 주거나, 코멘트를 주는 등에 의해 유저의 발상을 지원하며, 나아가서는 유저의 작문 작성이나 회화를 지원한다.Thus, the present embodiment supports the idea of writing a writing by presenting a hint or a comment to a user's writing. Likewise, in the present embodiment, in a foreign language conversation, a hint is given for the next utterance, and the conversation is assisted. As a result, the user can become accustomed to conversation in a foreign language, and further, it becomes easy to practice conversation with a person. The idea support apparatus of the present embodiment supports the user's idea by giving the user a hint of the next utterance or giving a comment in writing or conversation, and further supports the writing and conversation of the user.

[실시예 1][Example 1]

도 1은 본 실시형태의 발상 지원 장치의 구성예를 나타내는 블록도이다. 본 실시형태의 발상 지원 장치는, 예를 들면 입력 장치(202), 표시 장치(203), 통신 장치(204), 연산 장치(CPU)(205), 메모리(206), 및 보조 기억 장치(207)를 구비하는 계산기에 의해 구성된다.1 is a block diagram showing a configuration example of an idea support apparatus according to the present embodiment. The inventive idea supporting apparatus of the present embodiment includes an input device 202, a display device 203, a communication device 204, a computing device (CPU) 205, a memory 206, and an auxiliary storage device 207 ).

입력 장치(202)는 유저로부터의 커맨드 등의 입력을 접수하며, 예를 들면 키보드 및 마우스 등이다. 입력 장치(202)는, 연산 장치(CPU)(205)가 실행하는 프로그램의 제어, 및 발상 지원 장치(201)에 접속된 기기의 제어를 위해 실행되는 커맨드 등의 입력을 접수한다. 통신 장치(204)는, 예를 들면 소정의 프로토콜에 따라서, 발상 지원 장치(201)에 의한 처리 내용을 외부 기기에 송신하거나, 외부 기기로부터 정보를 수신하거나 한다.The input device 202 accepts input of a command or the like from a user, and is, for example, a keyboard and a mouse. The input device 202 accepts input of commands and the like to be executed for control of a program executed by the computing device (CPU) 205 and control of devices connected to the idea supporting device 201. [ The communication device 204 transmits processing contents by the idea supporting device 201 to an external device or receives information from an external device, for example, according to a predetermined protocol.

연산 장치(CPU)(205)는 프로세서를 포함하며, 메모리(206)에 저장된 프로그램을 실행한다. 메모리(206)는 비휘발성의 기억 소자인 ROM 및 휘발성의 기억 소자인 RAM을 포함한다. ROM은 불변의 프로그램(예를 들면, BIOS) 등을 저장한다. RAM은 DRAM(Dynamic Random Access Memory)과 같은 고속이면서 또한 휘발성의 기억 소자이며, 프로세서가 실행하는 프로그램 및 프로그램의 실행 시에 사용되는 데이터를 일시적으로 저장한다.A computing device (CPU) 205 includes a processor and executes a program stored in the memory 206. [ The memory 206 includes ROM, which is a nonvolatile memory element, and RAM, which is a volatile memory element. The ROM stores an immutable program (e.g., BIOS) and the like. The RAM is a high-speed and volatile memory element such as a dynamic random access memory (DRAM), and temporarily stores data to be used by the processor and programs executed by the processor.

보조 기억 장치(207)는, 예를 들면 자기 기억 장치(HDD), 플래시 메모리(SSD) 등의 대용량이면서 또한 비휘발성의 기억 장치이며, 연산 장치(CPU)(205)가 실행하는 프로그램 및 프로그램의 실행 시에 사용되는 데이터를 저장한다. 즉, 프로그램은, 보조 기억 장치(207)로부터 읽어내져, 메모리(206)에 로드되어서, 연산 장치(CPU)(205)에 의해 실행된다.The auxiliary memory 207 is a large-capacity nonvolatile memory such as a magnetic storage device (HDD), a flash memory (SSD), and the like. And stores data used at the time of execution. That is, the program is read from the auxiliary memory 207, loaded into the memory 206, and executed by the computing device (CPU) 205.

연산 장치(CPU)(205)가 실행하는 프로그램은, 리무버블 미디어(CD-ROM, 플래시 메모리 등) 또는 네트워크를 통해 발상 지원 장치(201)에 제공되어, 비일시적 기억 매체인 비휘발성의 보조 기억 장치(207)에 저장된다. 이를 위해, 발상 지원 장치(201)는 리무버블 미디어로부터 데이터를 읽어들이는 인터페이스를 가지면 된다.The program executed by the computing device (CPU) 205 is provided to the inventive idea support device 201 via a removable medium (CD-ROM, flash memory or the like) or a network and is stored in a nonvolatile auxiliary memory And is stored in the device 207. To this end, the idea support apparatus 201 may have an interface for reading data from the removable medium.

발상 지원 장치(201)는, 물리적으로 하나의 계산기 상에서, 또는, 논리적 또는 물리적으로 구성된 복수의 계산기 상에서 구성되는 계산기 시스템이며, 동일한 계산기 상에서 별개의 스레드로 동작해도 되고, 복수의 물리적 계산기 자원 상에 구축된 가상 계산기 상에서 동작해도 된다.The idea support apparatus 201 is a computer system that is physically configured on one computer or on a plurality of computers configured logically or physically and may operate as separate threads on the same computer and may be operated on a plurality of physical computer resources It may be operated on the virtual computer.

연산 장치(CPU)(205)는 지식 그래프 생성부(211), 컨텍스트 계산부(212), 발화 이해부(213), 컨텍스트 인식부(214), 및 페이즈 인식부(215)를 포함한다. 예를 들면, 연산 장치(CPU)(205)는 메모리(206)에 로드된 지식 그래프 생성 프로그램에 따라서 동작함으로써 지식 그래프 생성부(211)로서 기능하고, 메모리(206)에 로드된 컨텍스트 계산 프로그램에 따라서 동작함으로써 컨텍스트 계산부(212)로서 기능한다. 연산 장치(CPU)(205)에 포함되는 다른 부에 관해서도 마찬가지이다.The CPU 205 includes a knowledge graph generation unit 211, a context calculation unit 212, a speech understanding unit 213, a context recognition unit 214, and a phase recognition unit 215. For example, the computing device (CPU) 205 functions as the knowledge graph generating section 211 by operating in accordance with the knowledge graph generating program loaded in the memory 206, and outputs to the context calculating program And thus functions as the context calculation unit 212 by operating. The same applies to other units included in the computing device (CPU) 205.

지식 그래프 생성부(211)는, 후술하는 문서 DB(103)의 문서가 나타내는 지식을 표현하는 그래프(지식 그래프)를 생성한다. 컨텍스트 계산부(212)는, 후술하는 지식 그래프 DB(105)가 유지하는 지식 그래프가 나타내는 지식의, 문서 DB(103)의 문서 내에 있어서의 출현 순서를 계산한다. 발화 이해부(213)는, 유저로부터 작문이나 회화의 입력을 접수하고, 당해 작문이나 회화의 텍스트 데이터를 작성한다.The knowledge graph generation unit 211 generates a graph (knowledge graph) expressing knowledge represented by a document of the document DB 103, which will be described later. The context calculation unit 212 calculates the appearance order of the knowledge represented by the knowledge graph held by the knowledge graph DB 105, which will be described later, in the document of the document DB 103. [ The utterance understanding unit 213 accepts input of a writing or a conversation from a user and creates text data of the composition or conversation.

컨텍스트 인식부(214)는, 발화 이해부(213)에 의해 작성된 텍스트 데이터에 있어서의 지식의 출현 순서를 계산하고, 당해 출현 순서와, 컨텍스트 계산부(212)가 계산한 지식의 출현 순서를 비교한다. 페이즈 인식부(215)는, 작문이나 회화에 요구되는 미리 정해진 내용이, 유저가 입력한 텍스트에 부족한지의 여부를 판정함으로써, 유저의 작문이나 회화의 페이즈를 인식한다.The context recognition unit 214 calculates the appearance order of knowledge in the text data created by the speech understanding unit 213 and compares the appearance order with the appearance order of the knowledge calculated by the context calculation unit 212 do. The phase recognizing unit 215 recognizes the user's writing or conversation phase by judging whether or not the predetermined content required for writing or conversation is insufficient for the text inputted by the user.

보조 기억 장치(207)는 문서 DB(103), 지식 그래프 DB(105), 및 컨텍스트 DB(107)를 유지한다. 문서 DB(103)는 자연 언어로 쓰여진 문서, 특히 논술문 등을 유지한다. 문서 DB(103)가 유지하는 문서는, 발상 지원 장치(201)에 있어서의 지식을 정의하기 위한 문서, 즉 지식원으로 되는 문서이기 때문에, 문서 DB(103)는, 의논의 대상이 되는 사항이나, 의논에 관련된 내용이 기재된 문서를 유지하고 있는 것이 바람직하다.The auxiliary storage device 207 holds the document DB 103, the knowledge graph DB 105, and the context DB 107. [ The document DB 103 maintains a document written in a natural language, in particular, a sentence. Since the document held by the document DB 103 is a document for defining knowledge in the idea support apparatus 201, that is, a document serving as an information source, the document DB 103 is a document to be discussed , It is desirable to keep a document describing contents related to consultation.

웹 문서, 뉴스 기사, 조직 내 리포트, 학술 논문, 관공청 및 국제기관의 공보, 및 싱크 탱크 등의 조사 문서 등은, 문서 DB(103)가 유지하는 문서의 예이다. 또한, 유저에 의한 과거의 발화 이력 등도, 문서 DB(103)가 유지하는 문서의 예이다. 또한, 문서 DB(103)는 각 문서의 서지 정보 등을 더 유지해도 된다.Web documents, news articles, internal reports, academic papers, public announcements from public authorities and international organizations, and research documents such as think tanks are examples of documents maintained by document DB 103. In addition, the history of past utterances by the user is an example of a document maintained by the document DB 103. Further, the document DB 103 may further maintain bibliographic information of each document.

지식 그래프 DB(105)는, 지식 그래프 생성부(211)가 생성한 지식 그래프의 구조를 나타내는 정보를 저장한다. 컨텍스트 DB(107)는, 컨텍스트 계산부(212)가 계산한 지식의 출현 순서를 나타내는 정보를 저장한다.The knowledge graph DB 105 stores information indicating the structure of the knowledge graph generated by the knowledge graph generation unit 211. [ The context DB 107 stores information indicating the appearance order of knowledge calculated by the context calculation unit 212. [

또, 본 실시형태에 있어서, 발상 지원 장치(201)가 사용하는 정보는, 데이터 구조에 의존하지 않으며 어떠한 데이터 구조로 표현되어 있어도 된다. 예를 들면, 테이블, 리스트, 데이터베이스 또는 큐(queue)로부터 적절하게 선택한 데이터 구조체가, 정보를 저장할 수 있다. 또, 본 실시형태에서는, 보조 기억 장치(207)가 유지하는 각 데이터가 테이블 구조로 표현되어 있는 예를 나타낸다.In the present embodiment, the information used by the idea support apparatus 201 does not depend on the data structure, but may be represented by any data structure. For example, a properly selected data structure from a table, list, database or queue can store information. In this embodiment, each data held by the auxiliary storage device 207 is shown in a table structure.

또, 발상 지원 장치(201)는 입력 장치(202), 표시 장치(203) 및 통신 장치(204) 중의 적어도 하나를 구비하고 있으면 된다. 발상 지원 장치(201)가 입력 장치(202)를 구비하고 있지 않을 경우, 예를 들면 통신 장치(204)가 외부 기기로부터 커맨드 등의 입력을 접수한다. 발상 지원 장치(201)가 표시 장치(203)를 구비하고 있지 않을 경우, 예를 들면 통신 장치(204)가, 발상 지원 장치(201)가 생성한 처리 결과를 외부 기기에 송신한다.The idea support apparatus 201 may include at least one of the input device 202, the display device 203, and the communication device 204. When the idea support apparatus 201 does not have the input device 202, for example, the communication device 204 accepts input of a command or the like from an external device. When the idea support apparatus 201 does not have the display apparatus 203, for example, the communication apparatus 204 transmits the processing result generated by the idea support apparatus 201 to the external apparatus.

각 처리부는, 메모리(206) 또는 보조 기억 장치(207)를 통해, 다른 처리부에의 입출력을 실행해도 된다. 예를 들면, 지식 그래프 생성부(211)는, 처리 결과를 컨텍스트 계산부(212)에 출력할 경우, 실제로는, 지식 그래프 생성부(211)가 처리 결과를 메모리(206) 또는 보조 기억 장치(207)에 저장하고, 컨텍스트 계산부(212)는, 메모리(206) 또는 보조 기억 장치(207)에 저장되어 있는 당해 출력 결과를 입력으로서 취득해도 된다.Each processing unit may execute input / output to another processing unit through the memory 206 or the auxiliary memory 207. [ For example, when the knowledge graph generating unit 211 outputs the processing result to the context calculating unit 212, the knowledge graph generating unit 211 actually outputs the processing result to the memory 206 or the auxiliary storage device 207, and the context calculation unit 212 may acquire the output result stored in the memory 206 or the auxiliary storage 207 as an input.

도 2는 본 실시형태에 있어서의 발상 지원 장치(201)가 실시하는 처리의 일례를 나타내는 플로우 차트이다. 발상 지원 장치(201)가 실행하는 처리는, 크게 나누어, 학습 처리(S110), 및 운용 처리(S120)의 2개의 부분으로 나눌 수 있다. 학습 처리는 스텝 S111∼S112의 처리를 포함하며, 운용 페이즈는 스텝 S121∼S125의 처리를 포함한다. 우선, 학습 처리(S110)의 처리에 대해 설명한다. 먼저, 지식 그래프 생성부(211)는, 문서 DB(103)에 저장된 문서의 정보를 그래프형 지식으로 변환함으로써, 지식 그래프 DB(105)에 저장하는 지식 그래프를 생성한다(S111). 이하, 스텝 S111의 상세를 설명한다.Fig. 2 is a flowchart showing an example of processing executed by the idea support apparatus 201 in the present embodiment. The processing executed by the idea support apparatus 201 can roughly be divided into two parts: a learning process (S110) and an operation process (S120). The learning process includes the processes of steps S111 to S112, and the operation phase includes the processes of steps S121 to S125. First, the processing of the learning process (S110) will be described. First, the knowledge graph generation unit 211 generates a knowledge graph to be stored in the knowledge graph DB 105 by converting the information of a document stored in the document DB 103 into a graph type knowledge (S111). The details of step S111 will be described below.

도 3a∼도 3c는, 문서 내의 지식을 나타내는 지식 그래프의 일례이다. 또, 본 실시형태에서는, 일본어로 기재된 문서의 예를 사용하고 있지만, 영어 등 다른 언어여도 마찬가지의 처리가 실시된다. 이하, 도면 중의 그래프에 있어서의, 일중선(一重線)의 타원형으로 나타나 있는 노드는, 사람, 물건, 조직 등의 실체, 또는 추상적인 개념 등을 나타내는 엔티티를 가리키는 노드이다. 또한, 엔티티 사이의 화살표에 따라 기재되어 있는 문자는, 엔티티간의 릴레이션을 나타낸다.3A to 3C are examples of a knowledge graph representing knowledge in a document. In the present embodiment, an example of a document written in Japanese is used, but the same processing is performed in another language such as English. Hereinafter, a node represented by an ellipse of a single line in the graph in the figure is a node indicating an entity representing a person, an object, an organization, or an abstract concept or the like. In addition, the characters described in accordance with the arrows between the entities indicate relations between the entities.

지식 그래프(301)는, 지식 그래프 생성부(211)가, 문서 DB(103)의 문서 내의「전문가는, 학교에서의 제복의 채용은, 규율을 높인다.」라고 하는 문장으로부터 생성한 지식 그래프이다.The knowledge graph 301 is a knowledge graph generated from a sentence in which the knowledge graph generating unit 211 finds that "the employer of a school uniform in the school increases the discipline" in the document of the document DB 103 .

지식 그래프 생성부(211)는, 지식 그래프의 생성에 있어서, 먼저, 문장으로부터 엔티티를 추출한다. 지식 그래프 생성부(211)는, 예를 들면 기계 학습을 이용하여, 엔티티를 추출한다. 즉, 추출하고자 하는 엔티티에 라벨을 붙인 학습용의 문서 세트가 미리 준비되어 있으며, 지식 그래프 생성부(211)는, 엔티티를 추출하기 위한 식별기(classifier)를 작성하고, 작성한 식별기를 이용하여 문장 내의 엔티티를 추출한다. 또, 도 3a의 문장 중에 있어서의 엔티티는,「전문가」,「제복」, 및「규율」인 것으로 한다.The knowledge graph generation unit 211 first extracts an entity from a sentence in the generation of the knowledge graph. The knowledge graph generating unit 211 extracts an entity using, for example, machine learning. That is, a learning document set labeled with an entity to be extracted is prepared in advance, and the knowledge graph generating unit 211 creates a classifier for extracting an entity, and uses the generated identifier to generate an entity in the sentence . It is assumed that the entities in the sentence of Fig. 3A are "expert", "uniform", and "discipline".

또한, 지식 그래프 생성부(211)는, 미리 준비된 단어 사전이나 단어의 온톨로지를 참조하여, 엔티티를 추출해도 된다. 또한, 엔티티의 대부분은, 명사나 형용사에 해당하는 프레이즈(phrase)에 의해 표현되기 때문에, 지식 그래프 생성부(211)는, 구문 해석을 행하여, 명사나 형용사를 엔티티로서 추출해도 된다.Further, the knowledge graph generation unit 211 may extract an entity by referring to a prepared word dictionary or an ontology of a word. Since most of the entities are represented by phrases corresponding to nouns and adjectives, the knowledge graph generating unit 211 may perform a syntax analysis to extract nouns and adjectives as entities.

다음으로, 지식 그래프 생성부(211)는, 엔티티간의 릴레이션을 계산한다. 「전문가는, 학교에서의 제복의 채용은, 규율을 높인다.」라고 하는 문장에 있어서,「제복」과「규율」은, 술어인「높인다」의 인수(「제복」이 주어,「규율」이 목적어)이다. 지식 그래프 생성부(211)는, 예를 들면 이와 같이, 구문 해석에 의해, 2개의 엔티티를 인수로 하는 술어를 엔티티간의 릴레이션으로서 추출한다.Next, the knowledge graph generation unit 211 calculates relations between entities. "Uniform" and "discipline" are given by the argument ("uniform") of the predicate which is a predicate, and "discipline" is given in the sentence "the expert raises the discipline" Object). The knowledge graph generation unit 211 extracts, as a relation between entities, a predicate using two entities as arguments, for example, by syntactic analysis.

지식 그래프 생성부(211)는, 이 2개의 엔티티와 그 사이의 릴레이션을, 에지로 잇는 것에 의해, 지식 그래프(301)를 생성한다. 지식 그래프 생성부(211)는, 지식 그래프의 생성에 있어서, 주어인 엔티티를 가리키는 노드를 기점, 술어인 엔티티를 가리키는 노드를 종점으로 한 에지를 생성한다. 또, 지식 그래프는 무향(無向) 그래프여도 된다.The knowledge graph generating unit 211 generates the knowledge graph 301 by connecting the two entities and the relations therebetween by an edge. The knowledge graph generation unit 211 generates an edge based on a node pointing to a given entity as an origin point and a node pointing to an entity as a predicate as an endpoint in generation of the knowledge graph. In addition, the knowledge graph may be an irregular graph.

또한 여기서는, 지식 그래프 생성부(211)가, 엔티티(주어와 목적어)를 인수로 하는 술어를 릴레이션으로서 추출하는 예를 나타냈지만, 엔티티간의 다른 릴레이션을 추출해도 된다. 예를 들면, 지식 그래프 생성부(211)는, 엔티티간의 연결관계를 릴레이션으로서 추출해도 되고, 엔티티간의 문장 중에서의 거리를 릴레이션으로서 추출해도 된다. 또한 지식 그래프 생성부(211)는, 예를 들면, Semantic Role Labelling 등의 방법을 이용하여, 릴레이션을 추출해도 된다.In this example, the knowledge graph generation unit 211 has shown an example of extracting a predicate having a factor as an argument as an argument, but it is also possible to extract another relation between entities. For example, the knowledge graph generation unit 211 may extract a connection relationship between entities as a relation, or may extract a distance in a sentence between entities as a relation. The knowledge graph generating unit 211 may extract the relation using, for example, Semantic Role Labeling.

지식 그래프(302)는, 지식 그래프 생성부(211)가, 문서 DB(103)의 문서 내의「학교에서의 제복은, 자유를 저해한다.」고 하는 문장으로부터 생성한 지식 그래프이다. 지식 그래프 생성부(211)는, 도 3a의 예와 마찬가지의 방법으로, 당해 문장으로부터, 2개의 엔티티「제복」및「자유」, 그리고 엔티티간의 릴레이션「저해한다」를 추출하여, 지식 그래프(302)을 생성한다.The knowledge graph 302 is a knowledge graph generated from a sentence in which the knowledge graph generator 211 determines that "the uniform at school is inhibiting freedom" in the document of the document DB 103. The knowledge graph generating unit 211 extracts two entities " uniform " and " freedom " and a relation " inhibit " between entities from the sentence in the same manner as in the example of Fig. ).

지식 그래프 생성부(211)는, 이와 같이, 주어진 문서 중의 각 문장으로부터, 엔티티를 추출하고, 엔티티간의 당해 문장 중에 있어서의 릴레이션을, 지식 그래프를 이용하여 기술한다.The knowledge graph generation unit 211 thus extracts the entities from each sentence in the given document and describes the relations in the sentences between the entities using the knowledge graph.

도 3c는 2개의 지식 그래프가 통합된 지식 그래프의 일례이다. 예를 들면, 복수의 지식 그래프에 동일한 노드가 존재할 경우, 지식 그래프 생성부(211)는, 당해 노드를 동일시함으로써, 당해 복수의 지식 그래프를 통합해도 된다. 지식 그래프(303)는, 지식 그래프 생성부(211)가, 지식 그래프(301)에 있어서의「제복」노드와, 지식 그래프(302)에 있어서의「제복」노드를 동일시함으로써 생성된 지식 그래프이다.3C is an example of a knowledge graph incorporating two knowledge graphs. For example, when there are the same nodes in a plurality of knowledge graphs, the knowledge graph generating unit 211 may integrate the plurality of knowledge graphs by identifying the nodes. The knowledge graph 303 is a knowledge graph generated by the knowledge graph generating unit 211 identifying a "uniform" node in the knowledge graph 301 and a "uniform" node in the knowledge graph 302 .

지식 그래프 생성부(211)는, 예를 들면 표층(表層) 표현이 같은 노드를 동일시한다. 또한, 단어 사전이나 온톨로지 등을 이용하여 노드가 생성되었을 경우, 지식 그래프 생성부(211)는, 예를 들면 단어 사전 또는 온톨로지 상에서 동일한 표현을 동일한 노드로서 취급해도 된다. 구체적으로는, 예를 들면 지식 그래프 생성부(211)는, 동의어의 노드를 동일시해도 된다. 또한, 지식 그래프 생성부(211)는, 그래프 상의 2개의 노드를 잇는 에지 중, 같은 릴레이션을 나타내는 에지를, 동일시해도 된다.The knowledge graph generating unit 211 identifies nodes having the same surface layer (surface layer) representation, for example. When a node is created by using a word dictionary or an ontology, the knowledge graph generation unit 211 may treat the same expression as the same node, for example, on a word dictionary or an ontology. Specifically, for example, the knowledge graph generation unit 211 may identify the nodes of synonyms. The knowledge graph generating unit 211 may identify the edge indicating the same relation among the edges connecting the two nodes on the graph.

지식 그래프 생성부(211)는, 생성한 지식 그래프의 정보를, 예를 들면 도 3d 및 도 3e에 보여주는 테이블로 나타내고, 당해 테이블을 지식 그래프 DB(105)에 저장한다. 도 3d는, 지식 그래프 DB(105)에 저장되는 노드 테이블의 일례이다. 노드 테이블(304)은, 지식 그래프의 노드의 정보를 유지하는 테이블이다. 도 3d의 노드 테이블(304)은, 지식 그래프(303)의 노드의 정보를 유지하고 있다.The knowledge graph generating unit 211 displays information of the generated knowledge graph in a table shown in, for example, FIGS. 3D and 3E, and stores the table in the knowledge graph DB 105. FIG. FIG. 3D is an example of a node table stored in the knowledge graph DB 105. FIG. The node table 304 is a table for holding information of nodes of the knowledge graph. The node table 304 in Fig. 3D holds the information of nodes of the knowledge graph 303. Fig.

지식 그래프 생성부(211)는, 생성한 지식 그래프의 노드에, 당해 지식 그래프 상에서의 노드를 식별하기 위한 ID를 부여하고, 부여한 ID를 노드 테이블(304)에 저장한다. 또한, 지식 그래프 생성부(211)는, 노드에 관한 다른 정보를 노드 테이블(304)에 포함시켜도 된다. 도 3d의 예에 있어서, 노드 테이블(304)은, 각 노드의 표층 표현의 정보를 포함한다. 또한, 예를 들면 노드 테이블(304)은, 각 노드에 대응하는 표층 표현이 추출된 문서의 서지 정보 등을 포함해도 된다.The knowledge graph generating unit 211 assigns an ID for identifying a node on the knowledge graph to a node of the generated knowledge graph, and stores the assigned ID in the node table 304. [ The knowledge graph generation unit 211 may include other information about the node in the node table 304. [ In the example of FIG. 3D, the node table 304 contains information of the surface layer representation of each node. For example, the node table 304 may include bibliographic information or the like of a document in which a surface expression corresponding to each node is extracted.

도 3e는 지식 그래프 DB(105)에 저장되는 에지 테이블의 일례이다. 에지 테이블(305)은, 지식 그래프의 에지의 정보를 포함한 테이블이다. 도 3e의 예에서는, 에지 테이블(305)은, 지식 그래프(303)의 에지의 정보를 유지하고 있다.3E is an example of an edge table stored in the knowledge graph DB 105. FIG. The edge table 305 is a table including information of edges of the knowledge graph. In the example of FIG. 3E, the edge table 305 holds edge information of the knowledge graph 303. FIG.

지식 그래프 생성부(211)는, 생성한 지식 그래프의 에지에, 당해 지식 그래프 상에서의 에지를 식별하기 위한 ID를 부여하고, 각 에지의 ID, 기점 노드의 ID, 및 종점 노드의 ID를 대응시켜서 에지 테이블(305)에 저장한다. 또한, 지식 그래프 생성부(211)는, 에지에 관한 다른 정보를 에지 테이블(305)에 포함시켜도 된다. 도 3e의 예에 있어서, 에지 테이블(305)은, 각 에지의 표층 표현의 정보를 포함한다. 또한, 예를 들면 에지 테이블(305)은, 각 에지에 대응하는 표층 표현이 추출된 문서의 서지 정보 등을 포함해도 된다. 노드 테이블(304)과 에지 테이블(305)에 의하여, 지식 그래프의 구조가 정의된다.The knowledge graph generation unit 211 assigns IDs for identifying the edges on the knowledge graph to the edges of the generated knowledge graphs and associates the IDs of the respective edges, the IDs of the starting nodes and the IDs of the end nodes And stores it in the edge table 305. The knowledge graph generation unit 211 may include other information about the edge in the edge table 305. [ In the example of FIG. 3E, the edge table 305 includes information of the surface representation of each edge. For example, the edge table 305 may include bibliographic information or the like of a document in which a surface expression corresponding to each edge is extracted. The structure of the knowledge graph is defined by the node table 304 and the edge table 305.

이하, 지식 그래프 생성 처리의 다른 예를 설명한다. 도 4a∼도 4c는 지식 그래프의 예이다. 도 4a의 문장은, 도 3a의 문장과 동일하다. 지식 그래프(301)는, 당해 문장이 나타내는「제복은 규율을 높인다」는 것을 보여주는 정보를 표현하고 있다. 그러나, 지식 그래프(301)는, 당해 문장이 나타내는,「제복은 규율을 높인다는 것」을,「전문가가 말했다」는 것을 나타내는 정보(즉,「말했다」라고 하는 릴레이션에 관한 정보)를 표현하고 있지 않다.Hereinafter, another example of the knowledge graph generation process will be described. 4A to 4C are examples of knowledge graphs. The sentence in Fig. 4A is the same as the sentence in Fig. 3A. The knowledge graph 301 represents information showing that the sentence "increases the discipline" indicated by the sentence. However, the knowledge graph 301 expresses information indicating that the "expert said" (that is, information on a relation called "said") indicated by "the uniform increases the discipline" indicated by the sentence It is not.

지식 그래프 생성부(211)는, 예를 들면「제복은 규율을 높인다」라고 하는 스테이트먼트(statement)를 엔티티로 간주하면, 지식 그래프(301)에 더해서, 지식 그래프(402)를 생성할 수 있다. 스테이트먼트는, 문장을 구성하는 복수의 요소와, 당해 복수의 요소간의 릴레이션을 나타내는 명제이다. 또, 각 요소는, 예를 들면 엔티티여도 되고, 절 또는 문장이어도 된다. 또한, 각 요소는 스테이트먼트여도 된다.The knowledge graph generating unit 211 can generate the knowledge graph 402 in addition to the knowledge graph 301, for example, when a statement such as " the uniform is to increase the discipline " is regarded as an entity. A statement is a proposition indicating a plurality of elements constituting a sentence and a relation between the plurality of elements. Each element may be, for example, an entity, a clause or a sentence. In addition, each element may be a statement.

지식 그래프(301)와 지식 그래프(402)는 독립한 지식 그래프이기 때문에, 도 4a의 문장이 나타내는 2개의 지식 그래프 사이의 관계를 표현가능하게 되어 있지 않다. 또한, 관련이 있는 복수의 지식 각각이, 이와 같이 독립한 지식 그래프로 표현되어 있을 경우, 엔티티의 수가 방대해진다.Since the knowledge graph 301 and the knowledge graph 402 are independent knowledge graphs, it is not possible to express the relationship between two knowledge graphs represented by the sentence in FIG. 4A. In addition, when each of a plurality of related knowledge is represented by such an independent knowledge graph, the number of entities becomes large.

그래서, 지식 그래프 생성부(211)는, 이러한 정보를 표현하기 위해서, 도 4b에 나타내는 지식 그래프(403)를 생성한다. 지식 그래프(403)의 생성 처리의 일례를 설명한다. 전술한 바와 같이, 지식 그래프 생성부(211)는, 문서의 문장 중에 있어서 릴레이션으로 이어지는 대상 중의 적어도 한쪽이 스테이트먼트일 경우, 지식 그래프(402)와 같이, 당해 스테이트먼트를 잠정적으로 엔티티로 간주해서 지식 그래프를 생성한다.Thus, the knowledge graph generation unit 211 generates the knowledge graph 403 shown in FIG. 4B in order to express such information. An example of the generation process of the knowledge graph 403 will be described. As described above, when at least one of the objects leading to the relation in the sentence of the document is a statement, the knowledge graph generating unit 211 regards the statement as an entity provisionally, as in the knowledge graph 402, .

지식 그래프 생성부(211)는, 지식 그래프의 노드이며, 동일한 문서로부터 생성한 다른 지식 그래프가 나타내는 스테이트먼트의 정보가 모두 포함되는 노드가 있다고 판정했을 경우(즉 네스팅 구조로 되어 있는 노드가 있을 경우), 당해 다른 지식 그래프로부터, 당해 스테이트먼트를 대표하는 노드(이하, 대표 노드라고도 함)를 생성한다.When it is determined that there is a node including all the information of a statement represented by another knowledge graph generated from the same document (that is, when there is a node in a nesting structure) ), And a node (hereinafter also referred to as a representative node) representing this statement is generated from the other knowledge graph.

도 4a의 예에서는, 지식 그래프(402)의「제복은 규율을 높인다」노드는, 지식 그래프(402)와 동일한 문서로부터 생성된 지식 그래프(301)가 나타내는 스테이트먼트의 정보를 모두 포함하기 때문에, 지식 그래프 생성부(211)는 대표 노드를 생성한다. 지식 그래프 생성부(211)는, 예를 들면 지식 그래프(301)의 릴레이션을 나타내는「높인다」에지를「높인다」노드로 변경하고, 대표 노드로 결정한다. 그리고, 지식 그래프 생성부(211)는,「높인다」에지의 기점이었던「제복」노드를 기점으로 하고, 대표 노드를 종점으로 하는 에지, 및 대표 노드를 기점으로 하고,「높인다」에지의 종점이었던「규율」노드를 종점으로 하는 에지를 생성한다. 이에 따라, 지식 그래프(403)의 사각형의 점선으로 둘러싸여진 부분이 생성된다.In the example of Fig. 4A, since the " increase uniformity " node of the knowledge graph 402 includes all of the information of the statement represented by the knowledge graph 301 generated from the same document as the knowledge graph 402, The graph generating unit 211 generates a representative node. The knowledge graph generating unit 211 changes the node to "raise" the edge of "raise" representing the relation of the knowledge graph 301, for example, and decides it as the representative node. The knowledge graph generating unit 211 generates a knowledge graph using the representative node as the starting point and the edge that has the representative node as the starting point and the starting point as the starting point of the " Quot; discipline " node as an end point. As a result, a portion surrounded by a dotted line of the rectangle of the knowledge graph 403 is generated.

전술한 바와 같이, 지식 그래프(403)의 이중선으로 나타나 있는「높인다」노드는, 3개의 노드(「제복」,「높인다」,「규율」)를 포함하는 1개의 스테이트먼트를 대표하는 대표 노드이다. N개(N은 1 이상의 정수)의 스테이트먼트를 대표하는 대표 노드를, N+1차 노드라고 부른다. 즉, 지식 그래프(403)의 이중선으로 나타나 있는「높인다」노드는, 2차 노드이다. 또한, 엔티티 그 자체를 나타내는 노드를 1차 노드라고 부른다. 즉, N차 노드간의 릴레이션이 대표 노드로 변환되었을 경우, 당해 대표 노드는 N+1차 노드이다.As noted above, the "raise" node, represented by the double line in the knowledge graph 403, is a representative node that represents one statement that contains three nodes ("uniform", "raise", "discipline"). A representative node representing N (N is an integer equal to or greater than 1) statement is called an (N + 1) th node. That is, the " raise " node represented by the double line of the knowledge graph 403 is a secondary node. A node representing the entity itself is called a primary node. That is, when a relation between N-order nodes is converted into a representative node, the representative node is an N + 1-order node.

또한, 지식 그래프(403)에 있어서의, 이중선으로 나타나 있는 에지는, 노드간의 릴레이션을 나타내는 것이 아니라, 지식 그래프(403)의 사각형의 점선으로 둘러싸여진 부분에 포함되는 3개의 노드로 이루어지는 스테이트먼트를, 대표 노드가 대표하는 것을 나타내기 위한 에지이다. 이하, 이러한 에지를 스테이트먼트 에지라고 부른다.The edges indicated by the double lines in the knowledge graph 403 do not represent the relations between the nodes but represent the statements composed of the three nodes included in the portion surrounded by the dotted line of the rectangle of the knowledge graph 403, It is an edge for representing representative nodes. Hereinafter, such an edge is referred to as a statement edge.

또한 전술한 바와 같이, 지식 그래프(402)에 있어서, 기점인「전문가」노드와, 종점인「제복은 규율을 높인다」노드가,「말했다」라고 하는 릴레이션을 나타내는 에지에 의해 접속되어 있다. 따라서, 지식 그래프 생성부(211)는,「제복은 규율을 높인다」라고 하는 스테이트먼트를 대표하는「높인다」노드를 종점으로 하고,「전문가」노드를 기점으로 해서, 2개의 노드를「말했다」라고 하는 릴레이션을 나타내는 에지로 접속함으로써, 지식 그래프(403)를 생성한다.As described above, in the knowledge graph 402, the "Expert" node as the starting point and the node "Increase discipline" as the end point are connected by an edge indicating the relation "said". Therefore, the knowledge graph generation unit 211 sets the "increase" node representing the statement "to increase the discipline" as the end point, the two nodes as the "start" , The knowledge graph 403 is generated.

이에 따라, 지식 그래프 생성부(211)는,「제복이 규율을 높인다」는 것, 및「전문가」가「제복은 규율을 높인다」라고 말한 것을 하나의 지식 그래프(403)로 표현할 수 있다. 또, 전술한 바와 같은 그래프의 통합 처리가 행해진 후에도, 스테이트먼트 그 자체를 엔티티로서 포함하는 지식 그래프가 남았을 경우에는, 지식 그래프 생성부(211)는, 당해 지식 그래프를 삭제해도 된다.Accordingly, the knowledge graph generation unit 211 can express a statement that "the uniform increases the discipline" and "the expert" says "the uniform increases the discipline" by one knowledge graph 403. If the knowledge graph including the statement itself as an entity remains after the integration processing of the graph as described above, the knowledge graph generation unit 211 may delete the knowledge graph.

도 4c는 노드 테이블(304)의 일례이다. 노드 테이블(304)은 노드의 차수를 더 유지해도 된다. 즉, 지식 그래프 생성부(211)는, 노드 ID와 노드의 차수를 대응시켜서, 노드 테이블(304)에 저장한다.4C is an example of the node table 304. FIG. The node table 304 may further maintain the degree of the node. That is, the knowledge graph generation unit 211 associates the node ID with the degree of the node, and stores it in the node table 304. [

도 4d는 에지 테이블(305)의 일례이다. 에지 테이블(305)은, 에지가 스테이트먼트 에지인지의 여부를 나타내는 플래그를 유지해도 된다. 즉, 지식 그래프 생성부(211)는 에지 ID와, 에지가 스테이트먼트 에지인지의 여부를 나타내는 플래그를 대응시켜서, 에지 테이블(305)에 저장한다. 또, 스테이트먼트 에지는 표층 표현을 나타내고 있지 않기 때문에, 에지 테이블(305)에 있어서, 스테이트먼트 에지에 대응하는 표층 표현에는 null 값이 저장되어 있다.Fig. 4D is an example of the edge table 305. Fig. The edge table 305 may hold a flag indicating whether or not the edge is a statement edge. That is, the knowledge graph generation unit 211 associates the edge ID with a flag indicating whether or not the edge is a statement edge, and stores it in the edge table 305. [ Since the statement edge does not represent a surface expression, a null value is stored in the surface expression corresponding to the statement edge in the edge table 305. [

지식 그래프 생성부(211)는, 이와 같이 하여, 스테이트먼트를 나타내는 2차 노드를 포함하는 그래프 구조를 갖는 지식 그래프를 작성함으로써, 단순한 엔티티간의 릴레이션뿐만 아니라, 보다 복잡한 정보를 지식 그래프로 표현할 수 있다.The knowledge graph generating unit 211 can express not only relations between simple entities but also more complicated information as a knowledge graph by creating a knowledge graph having a graph structure including a secondary node indicating a statement in this manner.

도 5a∼도 5c는 지식 그래프의 일례이다. 지식 그래프(501)는,「제복은 규율을 높이지만, 자유를 저해한다.」라고 하는 문장으로부터 작성된 지식 그래프이다. 지식 그래프 생성부(211)는, 도 3c를 사용하여 설명한 바와 같이, 먼저, 당해 문장으로부터,「제복은 규율을 높인다」는 것과,「제복이 자유를 저해한다」는 것을 나타내는 지식 그래프(303)를 작성한다.5A to 5C are examples of the knowledge graph. The knowledge graph 501 is a knowledge graph prepared from the sentence "The uniform increases the discipline, but hinders the freedom". 3C, the knowledge graph generating unit 211 first obtains from the sentence a knowledge graph 303 indicating that "the uniform increases the discipline" and "the uniform inhibits the uniform" .

지식 그래프 생성부(211)는, 예를 들면 미리 준비된 사전 등을 참조하여, 당해 문장에 역설(逆說)을 나타내는 표층 표현이 있다고 판정했을 경우, 주절인「제복은 규율을 높인다」라고 하는 스테이트먼트, 및 종속절인「제복이 자유를 저해한다」라고 하는 스테이트먼트 각각으로부터, 대표 노드를 생성한다. 예를 들면, 지식 그래프 생성부(211)는, 전술한 방법과 마찬가지로, 주절로부터 대표 노드「높인다」를, 종속절로부터 대표 노드「저해한다」를 생성한다. 이들 대표 노드는, 어느 것이나 2차 노드이다.The knowledge graph generating unit 211 refers to, for example, a dictionary prepared in advance, and, when judging that the sentence has a superficial expression representing a paradox, the knowledge graph generating unit 211 generates a statement saying " , And a statement that the subordinate clause " uniformity hinders freedom ". For example, the knowledge graph generating unit 211 generates a representative node " raise " from the main verse and a representative node " inhibit " from the subordinate clause in the same manner as the above-described method. Each of these representative nodes is a secondary node.

그리고, 지식 그래프 생성부(211)는,「높인다」에지의 기점이었던「제복」노드를 기점으로 하고 대표 노드를 종점으로 하는 에지와, 대표 노드를 기점으로 하고「높인다」에지의 종점이었던「규율」노드를 종점으로 하는 에지를 생성한다. 마찬가지로, 지식 그래프 생성부(211)는,「저해」에지의 기점이었던「제복」노드를 기점으로 하고, 대표 노드를 종점으로 하는 에지, 및 대표 노드를 기점으로 하고,「저해한다」에지의 종점이었던「자유」노드를 종점으로 하는 에지를 생성한다. 이들 생성된 에지는, 어느 것이나 스테이트먼트 에지이다.Then, the knowledge graph generating unit 211 generates a knowledge graph using an edge that has a "uniform" node as a starting point and a representative node as an end point, which is the starting point of an edge, and a "discipline &Quot; node as an end point. Likewise, the knowledge graph generating unit 211 generates the knowledge graph generating unit 211 based on the "uniform" node that was the starting point of the "inhibition" edge, the edge whose representative node is the end point, Quot; free " Each of these generated edges is a statement edge.

또한, 지식 그래프 생성부(211)는, 주절의 대표 노드「높인다」를 기점으로 하고, 종속절의 대표 노드「저해한다」를 종점으로 하는, 역설의 릴레이션을 나타내는「역설」에지를 생성한다. 이 처리에 의해, 지식 그래프 생성부(211)는, 지식 그래프(501)를 생성할 수 있다.The knowledge graph generating unit 211 generates a paradoxical edge indicating the relation of the paradox with the representative node "raise" of the main routine as a starting point and the representative node "inhibit" of the dependent flag as the end point. By this processing, the knowledge graph generating unit 211 can generate the knowledge graph 501. [

이하, 도 5b에 나타내는「조사에 따르면, 제복은 규율을 높인다」라고 하는 문장으로부터, 지식 그래프 생성부(211)가, 도 5c에 나타내는 지식 그래프(503)를 생성하는 예를 설명한다. 지식 그래프 생성부(211)는, 먼저, 도 4a의 예와 마찬가지로, 지식 그래프(301)를 생성한다. 또한, 지식 그래프 생성부(211)는 지식 그래프(502)를 생성한다. 지식 그래프(502)의 생성 방법의 일례를 설명한다.Hereinafter, an example in which the knowledge graph generating unit 211 generates the knowledge graph 503 shown in Fig. 5C will be described from the sentence " The uniform increases the discipline according to the investigation "shown in Fig. 5B. The knowledge graph generating unit 211 first generates the knowledge graph 301 as in the example of FIG. 4A. Also, the knowledge graph generating unit 211 generates the knowledge graph 502. An example of a method of generating the knowledge graph 502 will be described.

지식 그래프 생성부(211)는, 예를 들면 미리 준비된 사전을 참조하여, 문장 중에 정보원(情報源)을 나타내는 단어(도 5b에 있어서의「조사」)가 존재하는 것으로 판정했을 경우, 구문 해석 등을 실행하여, 당해 정보원이 나타내는 정보(도 5b에 있어서의「제복은 규율을 높인다」)를 추출한다.The knowledge graph generating unit 211 refers to a dictionary prepared in advance, and when it is judged that a word ("search" in FIG. 5B) indicating an information source (information source) is present in the sentence, And extracts the information indicated by the information source (" Increase discipline " in Fig. 5B).

지식 그래프 생성부(211)는,「제복은 규율을 높인다」라고 하는 스테이트먼트를 엔티티로 간주한다. 지식 그래프 생성부(211)는,「조사」노드를 기점으로 하고,「제복은 규율을 높인다」노드를 종점으로 하는,「정보원」에지를, 이 2개의 엔티티간의 릴레이션으로서 생성한다. 이에 따라, 지식 그래프 생성부(211)는, 도 5c에 나타내는 지식 그래프(502)를 생성할 수 있다.The knowledge graph generation unit 211 regards a statement that "the uniform increases the discipline" as an entity. The knowledge graph generation unit 211 generates an "information source" edge as a relation between the two entities, starting from the "irradiation" node and ending with the node "increase uniformity" as the end point. Accordingly, the knowledge graph generating unit 211 can generate the knowledge graph 502 shown in FIG. 5C.

또한 지식 그래프 생성부(211)는, 도 4a 및 도 4b를 사용하여 설명한 방법과 마찬가지의 방법에 의해, 지식 그래프(301)와 지식 그래프(502)를 통합해서, 지식 그래프(503)를 생성할 수 있다.The knowledge graph generator 211 integrates the knowledge graph 301 and the knowledge graph 502 to generate the knowledge graph 503 in a manner similar to that described with reference to Figures 4A and 4B .

이하, 도 5d에 나타내는「전문가는, 제복은 규율을 높이지만, 자유를 저해한고 말했다.」라고 하는 문장으로부터, 지식 그래프 생성부(211)가, 도 5e에 나타내는 지식 그래프(505)를 생성하는 예를 설명한다. 지식 그래프 생성부(211)는, 당해 문장의「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 부분으로부터, 도 5a를 사용하여 설명한 방법에 의해, 지식 그래프(501)를 생성한다. 또한, 지식 그래프 생성부(211)는「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 스테이트먼트를 엔티티로 간주하여, 지식 그래프(504)를 생성한다.Hereinafter, the knowledge graph generating unit 211 generates the knowledge graph 505 shown in Fig. 5E from the sentence " Expert says that the uniform increases the discipline, but hinders freedom ". An example is given. The knowledge graph generating unit 211 generates the knowledge graph 501 from the portion of the sentence that says, "The uniform increases the discipline, but hinders freedom", by the method described with reference to FIG. 5A. Further, the knowledge graph generating unit 211 regards the statement " the uniform increases the discipline but inhibits the freedom " as an entity, and generates the knowledge graph 504.

지식 그래프(504)의「제복은 규율을 높이지만, 자유를 저해한다」노드는, 동일한 문장으로부터 생성된 지식 그래프(501)가 나타내는 스테이트먼트의 정보를 모두 포함하기 때문에, 지식 그래프(501)의 릴레이션을 나타내는「역설」에지를「역설」노드로 변환하고, 대표 노드로 결정한다. 대표 노드「역설」의 차수는 3이다.Since the node of the knowledge graph 504 increases the discipline, but inhibits the freedom, the node includes all of the information of the statement represented by the knowledge graph 501 generated from the same sentence, Quot; paradoxical " node representing the " paradoxical " node indicating the " paradoxical " node. The degree of the representative node "paradox" is three.

그리고, 지식 그래프 생성부(211)는,「역설」에지의 기점이었던「높인다」노드를 기점으로 하고,「역설」노드를 종점으로 하는 스테이트먼트 에지, 및「역설」노드를 기점으로 하고,「역설」에지의 종점이었던「저해한다」노드를 종점으로 하는 스테이트먼트 에지를 생성한다.Then, the knowledge graph generating unit 211 generates a knowledge graph using a node that has a starting point of a "paradoxical" edge as a starting point, a statement edge whose end point is a "paradoxical" node, Quot; edge " node which is the end point of the " edge " edge.

또한 지식 그래프 생성부(211)는,「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 스테이트먼트를 대표하는「역설」노드를 종점으로 하고,「전문가」노드를 기점으로 해서, 2개의 노드를「말했다」라고 하는 릴레이션을 나타내는 에지로 접속함으로써, 지식 그래프(505)를 생성한다.The knowledge graph generation unit 211 also has a "paradox" node representing the statement "uniform is high in discipline, but inhibits freedom" as an end point, and two nodes To the edge indicating the relation "said", thereby generating the knowledge graph 505.

이와 같이, 본 실시형태의 지식 그래프 생성부(211)는, 고차(高次) 노드와 그것을 잇는 특수한 에지(스테이트먼트 에지)를 사용함으로써, 네스팅으로 된 정보를 그래프형 지식으로 표현한다. 이에 따라, 지식 그래프 생성부(211)는, 단순한 정보뿐만 아니라, 복잡한 컨텍스트를 적은 지식 그래프에 의해 표현할 수 있다. 즉, 본 실시형태의 발상 지원 장치(201)는, 복잡한 컨텍스트를 취급할 수 있음에도 불구하고, 지식 그래프 DB(105)의 데이터량을 억제하며, 또한 후술하는 발화 이해 처리에 있어서의 지식 그래프의 대조 처리를 고속으로 행할 수 있다.As described above, the knowledge graph generation unit 211 of the present embodiment expresses nested information as a graph type knowledge by using a special node (a statement edge) connecting the node with a higher order (higher order) node. Accordingly, the knowledge graph generating unit 211 can represent not only simple information but also a knowledge graph with a small complex context. In other words, although the idea support apparatus 201 of the present embodiment can handle a complicated context, it suppresses the data amount of the knowledge graph DB 105, and also controls the comparison of the knowledge graph in the speech understanding process Processing can be performed at a high speed.

도 2의 설명으로 돌아간다. 계속해서, 컨텍스트 계산부(212)는, 지식 그래프 DB(105)가 유지하는 지식 그래프를 이용하여, 문장 내에 있어서 정보가 출현하는 순서를 계산하는 컨텍스트 계산 처리를 실행한다(S112).Returning to the description of FIG. Subsequently, the context calculation unit 212 executes a context calculation process for calculating the order in which information appears in the sentence using the knowledge graph held by the knowledge graph DB 105 (S112).

전술한 바와 같이, 지식 그래프 생성부(211)는, 문장으로부터 추출한 개별의 정보를 그래프화한 다음에, 예를 들면 미리 정한 기준(표층 표현, 단어 사전, 온톨로지에서의 위치 부여 등)에 따라서 노드를 동일시함으로써, 도 3c, 도 4b, 도 5a, 도 5c, 및 도 5d 등에 나타내는 지식 그래프를 생성한다.As described above, the knowledge graph generating unit 211 graphs the individual information extracted from the sentence, and then, based on a predetermined criterion (e.g., surface expression, word dictionary, or position on the ontology) The knowledge graph shown in Figs. 3C, 4B, 5A, 5C, 5D, and the like is generated.

도 6a는 지식 그래프의 일례이다. 문장(601)은, 학교에서의 제복의 도입에 반대하는 논술문의 예이다. 문장(601)에 있어서, 제복의 도입에 반대한다고 하는 의견이 표명되고, 그 후 규율이 높아진다고 하는 메리트가 기술되며, 역시 학생의 자유를 저해한다고 하는 디메리트가 기술되어 있다. 또한, 문장(601)에 있어서, 특정한 제복의 채용에 의해 시장의 공평성을 저해한다고 하는 관점의 의견이 기술되어 있다.6A is an example of a knowledge graph. Sentence (601) is an example of an essay contesting the introduction of school uniforms. In the sentence (601), the opinion to oppose the introduction of the uniform is expressed, and the merit that the discipline increases afterwards is described, and the demerit that the student's freedom is inhibited is described. Further, in the sentence 601, the opinion of the viewpoint that the fairness of the market is hindered by the adoption of the specific uniform is described.

이와 같이, 작문, 회화, 및 논술문 등에는, 정보 제시의 흐름(컨텍스트)이 있다. 본 실시형태의 컨텍스트 계산부(212)는, 문서 DB(103)에 있는 문장의 컨텍스트를 계산하고, 계산 결과를 컨텍스트 DB(107)에 저장한다. 컨텍스트 계산부(212)는, 문장에 출현하는 지식의 순서를 계산함으로써, 컨텍스트 계산을 행한다.As such, writing, conversation, essay writing, etc. have a flow of information presentation (context). The context calculation unit 212 of the present embodiment calculates the context of a sentence in the document DB 103 and stores the calculation result in the context DB 107. [ The context calculation unit 212 performs context calculation by calculating the order of knowledge appearing in a sentence.

본 실시형태의 발상 지원 장치(201)는, 지식 그래프 DB(105)와 컨텍스트 DB(107)를 이용하여, 유저에 의한 작문이나 회화의 컨텍스트를 인식하고, 컨텍스트를 고려한 적절한 힌트, 코멘트, 및 질문 등을 유저에게 제시한다. 이에 따라, 발상 지원 장치(201)는, 유저의 사고를 깊어지게 하고, 발상을 지원할 수 있다.The idea supporting apparatus 201 of the present embodiment recognizes the context of writing and conversation by the user by using the knowledge graph DB 105 and the context DB 107 and generates appropriate hints, And the like to the user. Accordingly, the idea support apparatus 201 can deepen the accident of the user and support the idea.

이하, 컨텍스트 계산 처리(S112)의 상세에 대해 설명한다. 또, 컨텍스트 계산 처리에 있어서의 지식이란, 스테이트먼트에 포함되는 릴레이션이 나타내는 지식, 즉 2차 이상의 노드 또는 스테이트먼트 에지가 아닌 에지가 나타내는 지식이다. 도 6a의 지식 그래프(602)는 문장(601)으로부터 생성된 지식 그래프의 일례이다. 도 6b는 지식 그래프(602)에 대응하는 노드 테이블(304)의 일례이다. 도 6c는 지식 그래프(602)에 대응하는 에지 테이블(305)의 일례이다.Hereinafter, the details of the context calculation processing (S112) will be described. The knowledge in the context calculation process is the knowledge represented by the relation included in the statement, that is, the knowledge represented by an edge other than a node or a statement edge that is second or higher order. The knowledge graph 602 of FIG. 6A is an example of the knowledge graph generated from the sentence 601. FIG. 6B is an example of the node table 304 corresponding to the knowledge graph 602. FIG. 6C is an example of an edge table 305 corresponding to the knowledge graph 602. FIG.

컨텍스트 계산부(212)는, 예를 들면 문서 DB(103)에 포함되는 각 문서에 대해서, 문서 중에 나타나는 지식의 순서를, 지식 그래프 상에서 계산한다. 컨텍스트 계산부(212)는, 예를 들면 지식 그래프(602) 중의 지식「제복은 규율을 높인다」에 대하여, 당해 지식에 관계되는 노드 및 에지의 ID를, 문장 중의 출현 순서로 늘어 놓은 벡터(N1, E1, N2, E2, N3)로서, 당해 지식을 표현해도 된다. 이 방법에 의하면, 예를 들면「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 지식은, 예를 들면 (N1, E1, N2, E2, N3, E3, N4, E5, N1, E6, N6, E7, N7)으로 표현된다.For each document included in the document DB 103, for example, the context calculation unit 212 calculates the order of knowledge displayed in the document on the knowledge graph. The context calculator 212 calculates the ID of the node and the edge related to the knowledge in the knowledge graph 602 to increase the discipline, , E1, N2, E2, N3). According to this method, for example, the knowledge that "the uniform increases the discipline, but inhibits the freedom" is (N1, E1, N2, E2, N3, E3, N4, E5, N1, E6, N6, E7, N7).

또, 컨텍스트 계산부(212)는, 하기에 설명하는 방법을 이용하여, 보다 간결하게 지식을 표현하는 것이 바람직하다. 구체적으로는, 컨텍스트 계산부(212)는, 스테이트먼트 에지가 아닌 에지와, 2차 이상의 노드를 지정함으로써, 지식을 표현한다. 이에 따라, 컨텍스트 계산부(212)는 지식 그래프 중의「제복은 규율을 높이지만, 자유를 저해한다」와 같은, 복문, 중문, 및 접속사 등을 포함하는 복잡한 지식을, 간결하게 취급할 수 있다. 이하, 구체적인 예를 사용하여 설명한다.In addition, it is preferable that the context calculation unit 212 express knowledge more concisely using a method described below. More specifically, the context calculation unit 212 expresses knowledge by designating an edge that is not a statement edge and a node that is second or higher order. Accordingly, the context calculation unit 212 can concisely treat complex knowledge including complex sentences, Chinese sentences, and conjunctions, such as " uniforms increase discipline, but inhibits freedom " Hereinafter, a specific example will be used to explain the present invention.

먼저, 지식 그래프(602)는, 2차 이상의 노드로서, 2차 노드(N2 및 N6), 및 3차 노드(N4)를 포함한다. 2차 노드(N2)「높인다」는, 노드(N1)「제복」및 노드(N3)「규율」과 스테이트먼트 에지로 이어져 있어서,「제복은 규율을 높인다」라고 하는 지식을 나타낸다. 마찬가지로, 2차 노드(N6)「저해한다」는,「제복은 자유를 저해한다」라고 하는 지식을 나타낸다. 3차 노드(N4)「역설」은,「제복은 규율을 높인다」를 대표하는 N2와「제복은 자유를 저해한다」를 대표하는 N6에 스테이트먼트 에지로 이어져 있기 때문에,「제복은 규율을 높이지만, 자유를 저해한다」라고 하는 지식을 나타낸다.First, the knowledge graph 602 includes the secondary nodes N2 and N6, and the tertiary node N4 as secondary nodes or more. The secondary node N2 "increases" is connected to the node N1 "uniform" and the node N3 "discipline" and the statement edge, indicating knowledge that "the uniform increases the discipline". Likewise, the secondary node N6 " inhibits " indicates knowledge that " the uniform damages the freedom. &Quot; The third node (N4) "paradox" means that N2 is represented as "the uniform increases the discipline" and N6 which represents "the uniform hinders the freedom" leads to the statement edge. , And inhibit freedom ".

다음으로, 지식 그래프(602)는, 스테이트먼트 에지가 아닌 에지로서, E4와 E8을 포함한다. 에지(E4)는, 노드(N5)「전문가」와 노드(N4)「역설」을 잇고 있으며,「전문가는, 제복은 규율을 높이지만, 자유를 저해한다고 말했다」라는 지식을 나타낸다. 또한, 마찬가지로, 에지(E8)는,「제복은 시장 공평성을 손상시킨다」라고 하는 지식을 나타낸다.Next, the knowledge graph 602 includes E4 and E8 as edges, not a statement edge. The edge E4 is connected to the node N5 "expert" and the node N4 "paradox", and "expert indicates the knowledge that the uniform increases the discipline but inhibits the freedom". Likewise, the edge E8 represents knowledge that " the uniform damages the market fairness ".

컨텍스트 계산부(212)는, 이상의 방법을 사용함으로써, 예를 들면「제복은 규율을 높이지만, 자유를 저해한다」와 같은 복잡한 지식을 N4로 나타낸 바와 같이, 스테이트먼트 에지가 아닌 에지의 ID, 또는 2차 이상의 노드의 ID를 이용하여, 지식을 간결하게 나타낼 수 있다.The context calculation unit 212 uses the above method to identify the edge of an edge that is not a statement edge, as indicated by N4, for example, a complicated knowledge such as " uniform is high in discipline, Knowledge can be represented concisely using the ID of the second or higher node.

컨텍스트 계산부(212)는, 컨텍스트 계산 처리에 있어서, 문서 내에 지식이 나타나는 순서를 계산한다. 도 7a 및 도 7b를 사용하여, 그 계산 방법의 일례를 설명한다. 도 7a는 지식 그래프의 일례이다. 지식 그래프(703)는, 문서 DB(103)에 포함되는 문장(701) 및 문장(702)으로부터 생성된 지식 그래프이다. 전술한 바와 같이 스테이트먼트 에지가 아닌 에지와 2차 이상의 노드를 이용하여 지식이 표현되었을 경우, 문장(701)에는, N6, E8, N2, E9의 순서로 지식이 출현하고 있다. 또한, 마찬가지로 문장(702)에는, N6, E9의 순서로 지식이 출현하고 있다.The context calculation unit 212 calculates the order in which the knowledge appears in the document in the context calculation process. An example of the calculation method will be described with reference to Figs. 7A and 7B. 7A is an example of a knowledge graph. The knowledge graph 703 is a knowledge graph generated from a sentence 701 and a sentence 702 included in the document DB 103. [ As described above, when knowledge is expressed by using an edge other than a statement edge and a node having a second degree or higher, knowledge appears in the order of N6, E8, N2, and E9 in the sentence 701. [ Similarly, in the sentence 702, knowledge appears in the order of N6 and E9.

컨텍스트 계산부(212)는, 지식 그래프(703)에 출현하는 지식 각각에 대해서, 문서 DB(103) 내의 문서에 있어서, 당해 지식보다 후에 출현한 지식(이하, 후속 지식이라고도 함)의 출현 횟수를 산출하고, 컨텍스트 DB(107)가 유지하는 후속 지식 테이블에 저장한다.The context calculation unit 212 calculates the number of occurrences of knowledge (hereinafter referred to as " subsequent knowledge ") appearing later than the knowledge in the document DB 103 for each knowledge appearing in the knowledge graph 703 And stores it in the subsequent knowledge table maintained by the context DB 107. [

즉, 컨텍스트 계산부(212)는, 지식 그래프(703)에 출현하는 2차 이상의 노드 및 스테이트먼트 에지가 아닌 에지에 대응하는 지식을 특정한다. 컨텍스트 계산부(212)는, 특정한 지식 각각에 대해서, 문서 DB(103) 내의 문서에 있어서, 당해 지식보다 후에 출현한 지식으로서, 지식 그래프(703)에 출현하는 2차 이상의 노드 및 스테이트먼트 에지가 아닌 에지가 나타내는 지식의 출현 횟수를 산출한다.In other words, the context calculation unit 212 specifies knowledge corresponding to an edge other than a node or a statement edge appearing in the knowledge graph 703. The context calculation unit 212 calculates the degree of similarity between each of the specific knowledge items in the document DB 103 as a knowledge that appears later than the knowledge in the document DB 103, The number of occurrences of knowledge represented by the edge is calculated.

도 7b는 후속 지식 테이블의 일례이다. 후속 지식 테이블(704)은, 지식에 대응하는 노드 ID 또는 에지 ID와, 당해 지식의 후속 지식과, 당해 지식의 후에 당해 후속 지식이 출현한 횟수를 대응시켜서 유지한다. 예를 들면, 도 7b의 후속 지식 테이블(704)의 2행째는, 지식(N6)의 후에, 지식(E8)이 1회, 지식(N2)이 1회, 지식(E9)이 2회 출현한 것을 나타낸다. 지식(E9)은, 문장(701)과 문장(702)에 있어서, 각각 1회씩, N6보다 후에 출현하고 있기 때문에, 도 7b의 후속 지식 테이블(704)에 있어서, N6의 후속 지식으로서의 E9의 출현 횟수는 2회로 되어 있다.FIG. 7B is an example of the following knowledge table. The subsequent knowledge table 704 holds the node ID or edge ID corresponding to the knowledge, the subsequent knowledge of the knowledge, and the number of occurrences of the subsequent knowledge after the knowledge in association with each other. For example, the second line of the subsequent knowledge table 704 of FIG. 7B is a table in which knowledge E8 is once, knowledge N2 is once, knowledge E9 appears twice after knowledge N6 . Since the knowledge E9 appears after N6 once in each of the sentence 701 and the sentence 702, in the following knowledge table 704 of Fig. 7B, the appearance of E9 as a follower knowledge of N6 The number of times is two.

컨텍스트 계산부(212)는, 이와 같이, 지식마다, 후속 지식과 후속 지식의 출현 횟수를 대응시켜서 후속 지식 테이블(704)에 저장함으로써, 컨텍스트 DB(107)는, 문서 내에 있어서의 지식의 순서 및 전후 관계 등을 나타내는 정보를 유지할 수 있다.By storing the subsequent knowledge and the number of occurrences of the subsequent knowledge in the knowledge table 704 in correspondence with each knowledge as described above, the context calculator 212 calculates the order of knowledge in the document and And can maintain the information indicating the relationship before and after.

또, 컨텍스트 계산부(212)는, 각 지식에 대해서, 후속 지식과의 문서 상에서의 거리를 계산하여, 후속 지식 테이블(704)에 저장해도 된다. 출현 횟수가 2회 이상인 후속 지식에 대해서는, 컨텍스트 계산부(212)는, 당해 지식과 당해 후속 지식의 문서 상에서의 거리의 평균값 또는 최소값 등을 후속 지식 테이블(704)에 저장한다. 이상, 학습 처리에 대하여 설명했다.For each knowledge, the context calculation unit 212 may calculate the distance on the document with the subsequent knowledge and store it in the subsequent knowledge table 704. [ For subsequent knowledge where the number of occurrences is two or more, the context calculation unit 212 stores in the following knowledge table 704 the average value or the minimum value of the distance of the knowledge and the following knowledge on the document. The learning process has been described above.

다음으로, 운용 처리(S120)에 대해 설명한다. 운용 처리에 있어서, 발상 지원 장치(201)는, 학습 처리에서 작성한 지식 그래프와 후속 지식을 이용하여, 유저에 의한 작문이나 회화에 있어서의 컨텍스트를 이해하고, 작문이나 회화의 도중에, 적절한 힌트를 제시함으로써, 유저의 발상을 촉구한다.Next, the operation processing (S120) will be described. In the operation processing, the idea support apparatus 201 understands the context in writing and conversation by the user, and provides appropriate hints during writing and conversation, using the knowledge graph created in the learning process and the follow-up knowledge Thereby urging the user to start thinking.

먼저, 발화 이해부(213)는, 스테이트먼트를 포함하는 작문이나 회화의 입력을 유저로부터 접수하여, 텍스트로 변환한다(S121). 구체적으로는, 발화 이해부(213)는, 예를 들면 키보드 등의 입력 인터페이스로부터 텍스트 입력을 접수해도 되고, 마이크 등으로부터 입력된 발화 음성을 음성 인식 기술에 의해 텍스트 변환해도 된다. 또한, 예를 들면 발화 이해부(213)는, 종이에 쓰여진 문장을 OCR 등에 의해 텍스트 변환해도 된다. 또한, 발화 이해부(213)는 수화 인식 등의 방법을 이용하여, 유저의 움직임을 텍스트 변환해도 된다.First, the utterance understanding unit 213 accepts input of a composition or a conversation containing a statement from a user and converts it into text (S121). Specifically, the speech understanding unit 213 may receive text input from an input interface such as a keyboard, for example, or may convert texts input by a microphone or the like into text by speech recognition technology. For example, the speech understanding unit 213 may text-convert a sentence written on a paper by OCR or the like. Further, the utterance understanding unit 213 may text-convert the user's movement using a method such as sign language recognition.

계속해서, 발화 이해부(213)는, 스텝 S121에서 취득한 텍스트를, 지식 그래프를 이용하여 이해하는, 발화 이해 처리를 실시한다(S122). 여기서는, 발화 이해부(213)는 입력된 텍스트를 지식 그래프에 매칭함으로써, 유저의 발화를 이해한다. 이하, 도 8a, 도 8b, 도 9a, 도 9b, 및 도 9c를 사용하여 발화 이해 처리의 상세를 설명한다.Subsequently, the speech understanding unit 213 performs a speech understanding process to understand the text acquired in step S121 using the knowledge graph (S122). Here, the utterance understanding unit 213 comprehends the utterance of the user by matching the input text with the knowledge graph. 8A, 8B, 9A, 9B, and 9C, the details of the speech understanding processing will be described.

도 8a의 지식 그래프(801)는, 지식 그래프 DB(105)에 저장된 노드 테이블(304) 및 에지 테이블(305)이 나타내는 지식 그래프의 일부이다. 또한, 도 8b의 후속 지식 테이블은, 컨텍스트 DB(107)에 저장된 후속 지식 테이블(704)의 일부이다.8A is a part of the knowledge graph represented by the node table 304 and the edge table 305 stored in the knowledge graph DB 105. The knowledge graph 801 shown in FIG. 8B is a part of the subsequent knowledge table 704 stored in the context DB 107. [

예를 들면,「제복을 학교에 도입해야 하는가」라고 하는 테마에 대하여, 유저가「제복을 학교에 도입하는 것에 찬성」이라고 하는 입장에서, 논술문을 작성하고 있는 것으로 한다. 그리고, 발화 이해부(213)가, 도 9c에 나타내는 표시 화면(903)에 있어서의「학교에서 제복을 도입해야 합니다.」라고 하는 문장의 입력을 접수한 것으로 한다. 발화 이해부(213)는, 스텝 S111의 지식 그래프 생성 처리와 마찬가지의 방법을 이용하여, 당해 문장으로부터 도 9a의 지식 그래프(901)를 생성한다.For example, about the theme "should uniform should be introduced to school", user shall make essay writing in the position of "in favor of introducing uniform to school". It is assumed that the utterance understanding unit 213 receives an input of a sentence such as " School should introduce uniforms " on the display screen 903 shown in Fig. 9C. The speech understanding unit 213 generates the knowledge graph 901 of FIG. 9A from the sentence using the same method as the knowledge graph generation process of step S111.

계속해서, 발화 이해부(213)는, 지식 그래프(901)와 지식 그래프(801)를 대조하여, 지식 그래프(901)가 나타내는 지식에 포함되는 지식을 지식 그래프(801)로부터 검색한다. 컨텍스트 계산 처리에서 설명한 지식의 표현 방법을 이용하면, 지식 그래프(801)가 나타내는 지식(E10)(즉「학교」노드와「제복」노드를「도입한다」릴레이션으로 이은 지식)은, 지식 그래프(901)가 나타내는 지식에 포함되기 때문에, 발화 이해부(213)는 E10을 추출한다. 이와 같이, 발화 이해부(213)는, 유저의 입력에 포함되는 지식을 추출하고, 추출한 지식과 미리 학습한 지식 그래프를 대조함으로써, 유저의 입력을 이해한다.Next, the utterance understanding unit 213 collates the knowledge graph 901 with the knowledge graph 801, and retrieves knowledge contained in the knowledge represented by the knowledge graph 901 from the knowledge graph 801. Then, Using the knowledge representation method described in the context calculation process, the knowledge E10 represented by the knowledge graph 801 (i.e., the knowledge of the relation between the "school" node and the "uniform" node) 901), the utterance understanding unit 213 extracts E10. Thus, the utterance understanding unit 213 extracts the knowledge contained in the input of the user, and compares the extracted knowledge with the previously learned knowledge graph to understand the user's input.

또한, 발화 이해부(213)는, 예를 들면 컨텍스트 계산 처리와 동일한 표현 방법을 이용하여, 유저에 의해 입력된 텍스트가 나타내는 지식의 지식 그래프(801) 상의 노드 ID 및 에지 ID와, 당해 텍스트에 있어서의 지식 출현 순서를 나타내는 정보를 컨텍스트 인식부(214)에 출력한다. 표시 화면(903)이 나타내는 문장이 입력되었을 경우, 발화 이해부(213)는, 예를 들면 E10을 컨텍스트 인식부(214)에 출력한다. 도 7a의 문장(702)이 입력되었을 경우, 발화 이해부(213)는, 예를 들면 N6, E9의 순서로, 에지 ID를 컨텍스트 인식부(214)에 출력한다.The speech understanding unit 213 uses the same expression method as the context calculation process, for example, to generate a node ID and an edge ID on the knowledge knowledge graph 801 represented by the text input by the user, To the context recognition unit 214. The context recognition unit 214 receives the information indicating the knowledge appearance order in the context recognition unit 214. [ When the sentence indicated by the display screen 903 is input, the utterance understanding unit 213 outputs, for example, E10 to the context recognition unit 214. [ When the sentence 702 of FIG. 7A is input, the speech understanding unit 213 outputs the edge ID to the context recognition unit 214 in the order of, for example, N6 and E9.

그런데, 지식 그래프(901)는, 지식 그래프(801)의 일부(N10, E10, 및 N1로 이루어지는 부분)와 완전히 일치하고 있다. 발화 이해부(213)는, 지식 그래프의 대조에 있어서, 한쪽의 릴레이션 또는 엔티티가, 다른 쪽의 릴레이션 또는 엔티티와 완전 일치하지 않아도, 예를 들면 유사도가 소정값 이상일 경우에는, 당해 한쪽과 당해 다른 쪽을 동일한 것으로서 취급해도 된다.By the way, the knowledge graph 901 completely coincides with a part (N10, E10, and N1) of the knowledge graph 801. In the contrast of the knowledge graph, the utterance understanding unit 213 can determine whether or not one relation or entity does not completely coincide with the other relation or entity, for example, when the degree of similarity is equal to or larger than a predetermined value, May be handled as the same.

예를 들면, 발화 이해부(213)가 유저로부터 입력된 텍스트로부터 도 9b의 지식 그래프(902)를 생성한 것으로 한다. 지식 그래프(902)의 에지는「받아들인다」이지만, 발화 이해부(213)는,「받아들인다」와 지식 그래프(801)의 E10「도입한다」가 동의(同義)라고 간주하여, 지식 그래프(902)가 나타내는 지식이 E10과 일치하는 것으로 판정해도 된다.For example, it is assumed that the speech understanding unit 213 generates the knowledge graph 902 of FIG. 9B from the text input from the user. Although the edge of the knowledge graph 902 is " accepted ", the utterance understanding unit 213 regards E10 " introduce " of the knowledge graph 801 as " 902) corresponds to E10.

발화 이해부(213)는, 엔티티나 릴레이션간의 유사도를, 예를 들면 단어 사전이나 온톨로지 등에 있어서의 유의(類義) 관계에 의해 산출한다. 발화 이해부(213)는, 유사도가 소정 이상인 릴레이션이나 엔티티를 동의인 것으로서 취급함으로써, 유저 입력으로부터 추출한 지식에 일치하는, 지식 그래프 DB(105) 내의 지식을 늘릴 수 있으며, 나아가서는 유저에 적절한 힌트를 줄 수 있을 가능성이 높아진다.The utterance understanding unit 213 calculates the degree of similarity between the entities and the relations based on a similarity relationship in a word dictionary, an ontology, or the like. The utterance understanding unit 213 can increase the knowledge in the knowledge graph DB 105 that matches the knowledge extracted from the user input by treating the relation or entity having the similarity degree equal to or higher than the predetermined degree as agreement, It is more likely to be able to give.

도 2의 설명으로 돌아간다. 계속해서, 컨텍스트 인식부(214)는, 발화 이해 처리에서 취득한 유저 입력의 텍스트가 나타내는 지식의 출현 순서를, 후속 지식 테이블(704)과 대조하는, 컨텍스트 인식 처리를 실행한다(S123). 예를 들면, 지식 그래프(901)에 해당하는 텍스트가 유저로부터 입력되었을 경우, 전술한 바와 같이 스텝 S122에서 E10이 출력된다. 이 때, 컨텍스트 인식부(214)는, 도 8b의 후속 지식 테이블(704)의 2행째(지식의 값이 E10인 행)가 나타내는 정보를, 페이즈 인식부(215)에 출력한다.Returning to the description of FIG. Next, the context recognition unit 214 executes context recognition processing for collating the appearance order of knowledge represented by the text of the user input acquired in the speech understanding processing with the subsequent knowledge table 704 (S123). For example, when a text corresponding to the knowledge graph 901 is input from the user, E10 is output in step S122 as described above. At this time, the context recognition unit 214 outputs to the phase recognition unit 215 information represented by the second row (knowledge value E10 row) of the subsequent knowledge table 704 in Fig. 8B.

다음으로, 페이즈 인식부(215)에서는, 유저의 작문이나 회화의 페이즈를 인식하는, 페이즈 인식 처리를 실행한다(S124). 예를 들면, 어떤 테마(도 9a∼도 9c의 예에서는,「학교에 제복을 도입해야 하는가」)에 대하여, 찬성 또는 반대의 입장에서, 유저가 논술할 경우에, 논술문에 요구되는 내용이 있다.Next, the phase recognizing unit 215 executes a phase recognizing process for recognizing the user's writing or conversation phase (S124). For example, in a case where a user writes a certain theme (in the example of FIGS. 9A to 9C, "Should a uniform be introduced to the school") in favor or against the case, have.

찬부(贊否)의 표명, 찬성 또는 반대의 논점을 드는 것, 및 찬부의 이유 및 근거의 제시 등은, 당해 논술문에 요구되는 내용의 예이다. 페이즈 인식부(215)는, 작문이나 회화에 요구되는 미리 정해진 내용이, 유저가 입력한 텍스트에 부족한지의 여부를 판정함으로써, 유저의 작문이나 회화의 페이즈를 인식한다.The expressions of the pros and cons, the issue of the pros and cons, and the reasons and rationale of pros and cons are examples of what is required of the essay. The phase recognizing unit 215 recognizes the user's writing or conversation phase by judging whether or not the predetermined content required for writing or conversation is insufficient for the text inputted by the user.

도 9c는 표시 장치(203)에 표시되는 화면의 변천의 일례를 나타낸다. 예를 들면, 표시 화면(903)에 표시된 문장의 페이즈는, 제복의 도입에 찬성인 입장은 표명되어 있지만, 논점이 들어져 있지 않거나, 이유나 근거가 제시되어 있지 않다고 하는 페이즈이다. 페이즈 인식부(215)는, 미리 정해 놓은 내용 중, 유저에 의해 입력된 텍스트에 있어서 기술되어 있지 않은 내용을 특정한다.Fig. 9C shows an example of the transition of the screen displayed on the display device 203. Fig. For example, the phase of the sentence displayed on the display screen 903 is a phase in which the position for the introduction of the uniform is expressed, but there are no issues, or a reason or ground is not presented. The phase recognizing unit 215 specifies the contents not described in the text input by the user from the predetermined contents.

또, 작문이나 회화에 요구되는 내용은 미리 정의되어 있으며, 예를 들면 발상 지원 장치(201)는 학습용의 문서를 미리 유지하고 있다. 예를 들면, 발상 지원 장치(201)는 운용 처리의 개시 전에, 당해 내용에 해당하는 개소의 라벨을 작성하고, 당해 라벨을 이용한 기계 학습에 의해, 당해 내용을 인식할 수 있는 식별기를 작성해 놓는다. 페이즈 인식부(215)는, 이 식별기를 이용하여, 유저가 입력한 텍스트 중에, 당해 내용이 포함되어 있는지의 여부를 판별한다. 도 9c의 예에서는, 작문에 있어서, 학교에의 제복 도입에 대한 찬부의 표명, 및 표명한 찬부를 위한 논점이 필요한 것으로 한다.In addition, contents required for composition and conversation are defined in advance. For example, the idea support apparatus 201 holds a document for learning in advance. For example, before starting the operation processing, the inventive support apparatus 201 prepares a label corresponding to the contents and prepares an identifier capable of recognizing the contents by machine learning using the label. The phase recognition unit 215 uses this identifier to determine whether or not the contents are included in the text input by the user. In the example of Fig. 9c, in writing, it is necessary to express the pros and cons of the introduction of the uniform to the school, and to issue arguments for the pros and cons expressed.

또, 발상 지원 장치(201)는, 예를 들면 문서 DB(103)의 당해 내용에 해당하는 개소(예를 들면, 상기 내용을 포함하는 문서 또는 상기 내용을 포함하는 텍스트)에, 당해 내용에 해당하는 개소임을 나타내는 애너테이션(annotation)을 부여해도 된다.In addition, the idea support apparatus 201 may be provided in a place corresponding to the content of the document DB 103 (for example, a document including the content or a text including the content) corresponding to the content of the document DB 103 An annotation indicating that the point is located may be added.

그리고, 지식 그래프 생성부(211)는, 지식 그래프 생성 처리에 있어서, 애너테이션 부분을 이용한 지식을 포함하는 지식 그래프를 생성했을 경우, 당해 애너테이션 부분이 나타내는 내용을 당해 지식이 나타냄을, 지식 그래프 상에 부가 정보로서 제공해도 된다. 즉, 예를 들면 지식 그래프 생성부(211)는, 노드 테이블(304), 및 에지 테이블(305)에, 열을 더 추가하고, 추가한 열에 당해 부가 정보를 저장한다.When generating a knowledge graph including knowledge using an annotation part in the knowledge graph generation process, the knowledge graph generation unit 211 generates knowledge graphs indicating that the knowledge represented by the annotation part is represented by the knowledge, And may be provided as additional information. That is, for example, the knowledge graph generation unit 211 adds columns to the node table 304 and the edge table 305, and stores the additional information in the added column.

도 2의 설명으로 돌아간다. 계속해서, 페이즈 인식부(215)는, 컨텍스트 인식 처리 및 페이즈 인식 처리의 결과에 의거하여, 유저에게 힌트를 제시하는 힌트 제시 처리를 실시한다(S125). 페이즈 인식부(215)는, 후속 지식 테이블(704)이 나타내는 후속 지식으로부터 제시하는 힌트를 생성한다.Returning to the description of FIG. Subsequently, the phase recognizing unit 215 performs a hint presenting process of presenting a hint to the user based on the results of the context recognizing process and the phase recognizing process (S125). The phase recognition unit 215 generates a hint to be presented from the subsequent knowledge represented by the subsequent knowledge table 704. [

전술한 바와 같이, 표시 화면(903)에 표시되어 있는 문장이 입력되었을 경우, 컨텍스트 인식 처리에 있어서, 후속 지식 테이블(704)의 지식이 E10인 레코드의 정보가 출력된다. 즉, 페이즈 인식부(215)는, 지식(E10)의 후속 지식이 N2 및 E9임을 나타내는 정보를 이미 취득하고 있다.As described above, when a sentence displayed on the display screen 903 is input, in the context recognition processing, information of a record in which knowledge of the following knowledge table 704 is E10 is output. In other words, the phase recognizing unit 215 has already obtained information indicating that the subsequent knowledge of knowledge E10 is N2 and E9.

따라서, 페이즈 인식부(215)는, 후속 지식(N2) 및 후속 지식(E9)의 릴레이션이 나타내는 스테이트먼트를, 유저에게 제시할 힌트의 후보로 결정한다. 페이즈 인식부(215)는, 당해 후보 모두를 힌트로서, 표시 장치(203)에 출력해도 된다.Therefore, the phase recognizing unit 215 determines a statement indicated by the relation of the subsequent knowledge N2 and the subsequent knowledge E9 as a candidate of a hint to be presented to the user. The phase recognizing unit 215 may output all of the candidates to the display device 203 as a hint.

또한, 예를 들면 페이즈 인식부(215)는, 페이즈 인식 처리에 있어서, 표시 화면(903)에 표시되어 있는 문장에 부족한 것으로 판정된 내용을 나타내는 지식에 해당하는 후보가 있을 경우, 당해 후보를 우선해서 표시 장치(203)에 힌트로서 표시해도 된다.Further, for example, in the phase recognition processing, if there is a candidate corresponding to the knowledge indicating the content determined to be insufficient in the sentence displayed on the display screen 903, the phase recognizing section 215 gives priority to the candidate It may be displayed as a hint on the display device 203. [

또,「어떤 후보가 우선해서 표시된다」란, 예를 들면 당해 후보만이 표시 장치(203)에 표시되는 것, 및 모든 후보가 표시 장치(203)에 표시될 경우에 당해 후보가 강조 표시되는 것 등을 의미한다.The phrase " any candidate is displayed in preference " means, for example, that only the candidate is displayed on the display device 203 and that the candidate is highlighted when all the candidates are displayed on the display device 203 And the like.

또한, 페이즈 인식부(215)는, 후속 지식 테이블(704)의 지식이 E10인 레코드에 있어서의 출현 횟수가 많은(도 8b의 예에서는, N2는 10회, E9는 5회) 지식을 우선하여, 표시 장치(203)에 힌트로서 제시해도 된다(예를 들면, 출현 횟수가 큰 순서로 소정수의 후보를 제시하거나, 출현 횟수가 소정수 이상인 후보를 모두 제시하거나 함). 이에 따라, 페이즈 인식부(215)는, 유저가 입력한 내용과 관련성이 강한 지식을 힌트로서 출력할 수 있다.In addition, the phase recognizing unit 215 gives priority to the knowledge in which the knowledge of the knowledge table 704 having knowledge is more frequent in the record having E10 (in the example of Fig. 8B, N2 is 10 times and E9 is 5 times) (For example, a predetermined number of candidates may be presented in the order of greater number of occurrences, or all candidates whose number of occurrences is equal to or greater than a predetermined number) may be presented as a hint to the display device 203. Accordingly, the phase recognizing unit 215 can output, as a hint, knowledge that is highly related to the contents inputted by the user.

또한, 후속 지식 테이블(704)에 지식과 후속 지식 사이의 문서 상의 거리가 저장되어 있을 경우에는, 페이즈 인식부(215)는, 후속 지식 테이블(704)의 지식이 E10인 레코드에 있어서의 거리가 작은 지식을 우선하여, 표시 장치(203)에 힌트로서 제시해도 된다(예를 들면, 거리가 작은 순서로 소정수의 후보를 제시하거나, 거리가 소정값 이하인 후보를 모두 제시하거나 함). 이에 따라, 페이즈 인식부(215)는, 유저가 입력한 내용과 관련성이 강한 지식을 힌트로서 출력할 수 있다.If the distance between the knowledge and the subsequent knowledge is stored in the subsequent knowledge table 704, the phase recognition unit 215 determines that the distance in the record with the knowledge of the following knowledge table 704 is E10 (For example, a predetermined number of candidates may be presented in descending order of distances, or all candidates whose distances are equal to or less than a predetermined value) may be presented on the display device 203 in preference to a small knowledge. Accordingly, the phase recognizing unit 215 can output, as a hint, knowledge that is highly related to the contents inputted by the user.

예를 들면, 지식(N2) 및 지식(E9)의 찬성 또는 반대의 논점인 것으로 한다. 이 때, 페이즈 인식부(215)는, 예를 들면 출현 횟수를 우선하여, 도 9c의 표시 화면(904) 중에 표시되어 있는 바와 같이,「제복은 규율을 높인다」라고 하는 내용을 힌트로서 제시한다. 또, 페이즈 인식부(215)는, 예를 들면 유저가 힌트를 필요로 하고 있는 것으로 추정했을 경우, 또는 유저로부터의 힌트 제시 요구를 접수했을 경우에, 힌트를 표시 장치(203)에 표시한다. 구체적으로는, 예를 들면 페이즈 인식부(215)는, 유저의 입력으로부터 일정 시간이 경과해도, 다음 입력이 없을 경우에 힌트를 제시해도 되고, 유저에 의한 버튼 누름 등의 유저로부터의 요구가 있었을 경우에 힌트를 제시해도 된다.For example, it should be a matter of or against the knowledge (N2) and the knowledge (E9). At this time, the phase recognizing section 215 gives priority to, for example, the frequency of appearance, and hints that "the uniform will increase the discipline" as displayed on the display screen 904 in FIG. 9C . The phase recognizing unit 215 displays a hint on the display device 203 when it is assumed that the user needs a hint, or when the user has received a hint presentation request from the user. Concretely, for example, the phase recognizing unit 215 may provide a hint when there is no next input even after a predetermined time elapses from the input of the user, or there may be a request from the user such as button pressing by the user You may also provide a hint in this case.

또, 여기서는, 페이즈 인식부(215)는, 표시 화면(904)에 있어서, 하나의 힌트만을 제시했지만, 복수의 힌트를 제시해도 된다. 또, 페이즈 인식 처리는, 제시할 힌트를 좁히기 위한 처리이기 때문에, 실행되지 않아도 된다.In this example, the phase recognizing unit 215 presents only one hint on the display screen 904, but a plurality of hints may be presented. Since the phase recognition process is a process for narrowing the hint to be presented, it is not necessary to execute the phase recognition process.

유저는, 표시 화면(904) 중에 제시된 힌트를 참고로 하여, 표시 화면(905)에 표시되어 있는 바와 같이 유저는 텍스트의 입력을 계속하고, 발화 이해 처리로 돌아간다. 또, 유저는, 제시된 힌트와는 관계가 없는 텍스트를 입력해도 된다. 그리고, 입력된 텍스트에 대하여, 발화 이해 처리, 및 컨텍스트 인식 처리가 다시 실행된다. 표시 화면(905)에 표시되어 있는 문장이 입력되었을 경우의 컨텍스트 인식 처리에 있어서의 출력은, E10 및 N2이다.The user continues inputting the text as shown on the display screen 905 with reference to the hint presented in the display screen 904, and returns to the speech understanding processing. The user may input text that is not related to the presented hint. Then, for the input text, the speech understanding processing and the context recognition processing are executed again. The outputs in the context recognition processing when the sentence displayed on the display screen 905 is input are E10 and N2.

이 때, 도 8b의 후속 지식 테이블(704)에 있어서, E10 및 N2에 공통되는 후속 지식은, E9이기 때문에, 페이즈 인식부(215)는, 힌트 제시 처리에 있어서, 예를 들면 표시 화면(906)과 같이,「제복은 학습 의욕을 높인다」를 힌트로서 제시한다.8B, since the following knowledge common to E10 and N2 is E9, the phase recognizing unit 215 recognizes, in the hint presenting process, for example, the display screen 906 ), "The uniform increases the motivation to learn" as a hint.

본 실시형태의 발상 지원 장치(201)는, 전술한 처리에 의해, 유저가 텍스트 입력에 막혔을 때나, 유저가 힌트를 요구했을 때에, 유저에게 적절한 힌트를 줄 수 있으며, 나아가서는 유저의 발상을 지원하고, 유저에 의한 다음 발화를 지원할 수 있다.According to the above-described processing, the idea support apparatus 201 of the present embodiment can give a proper hint to the user when the user is blocked in the text input or when the user requests the hint. In addition, And can support the next utterance by the user.

또, 페이즈 인식부(215)는, 힌트 제시 처리에 있어서, 지식 그래프를 사용한 이하에 나타내는 처리를 행해도 된다. 전술한 바와 같이, 유저가 표시 화면(905)에 표시되어 있는 문장을 입력했을 경우, 컨텍스트 인식 처리에 있어서 지식(E10) 및 지식(N2)이 출력된다.The phase recognizing unit 215 may perform the following processing using the knowledge graph in the hint presenting process. As described above, when the user inputs a sentence displayed on the display screen 905, knowledge E10 and knowledge N2 are output in context recognition processing.

지식 그래프(801)에 있어서, 컨텍스트 인식 처리에서 출력된 지식(N2)의 역접(逆接)인 지식(N6)이 있다. 페이즈 인식부(215)는, 이와 같이, 컨텍스트 인식부(214)로부터 입력된 지식의 역설의 지식이 지식 그래프 상에 포함되고, 또한 당해 역설의 지식이 컨텍스트 인식부(214)로부터 입력되어 있지 않을 경우, 당해 역설의 지식에 해당하는 힌트를 제시해도 된다. 구체적으로는, 예를 들면 페이즈 인식부(215)는, 표시 화면(907)에 나타내는,「제복은 규율을 높이지만, 제복은 자유를 저해한다라고 하는 의견도 있는데, 어떻게 생각합니까?」등의 질문이나 코멘트를, 힌트로서 제시해도 된다.In the knowledge graph 801, there is knowledge N6 that is the inverse of the knowledge N2 output in the context recognition process. The phase recognition unit 215 recognizes that the knowledge of the paradox of knowledge inputted from the context recognition unit 214 is included in the knowledge graph and that the knowledge of the paradox is not input from the context recognition unit 214 In this case, a hint corresponding to the knowledge of the paradox may be presented. Concretely, for example, the phase recognizing unit 215 recognizes that the display screen 907 is displayed on the display screen 907, such as " How do you think that the uniform has high opinion on discipline, You may present questions or comments as a hint.

당해 처리에 의해, 유저는 자신의 반대의 입장으로부터의 의견을 알 수 있으며, 나아가서는 논술이나 작문, 회화에 있어서의 유저의 발상을 깊게 하기 위한 지원을 할 수 있다. 또, 상기의 예에서는, 페이즈 인식부(215)가 컨텍스트 인식부(214)로부터 입력된 지식의 역설의 지식을 힌트로서 제시하는 예를 설명했지만, 페이즈 인식부(215)는, 컨텍스트 인식부(214)로부터 입력된 지식의 역설 이외의 릴레이션에 있는 지식으로서, 또한 컨텍스트 인식부(214)로부터 입력되어 있지 않은 지식을 힌트로서 제시해도 된다.By this processing, the user can know the opinion from the opposite side of his / her own opinion, and can further assist in deepening the user's idea in essay writing, writing, and conversation. Although the example in which the phase recognition unit 215 presents the knowledge of paradoxical knowledge inputted from the context recognition unit 214 as a hint has been described in the above example, the phase recognition unit 215 may be configured to include the context recognition unit 214 may be presented as a knowledge in a relation other than the paradox of knowledge input from knowledge input from the context recognition unit 214 as a hint.

또, 본 발명은 상기한 실시형태에 한정되는 것이 아니며, 다양한 변형예가 포함된다. 예를 들면, 상기한 실시형태는 본 발명을 이해하기 쉽게 설명하기 위해서 상세하게 설명한 것이며, 반드시 설명한 모든 구성을 구비하는 것에 한정되는 것이 아니다. 또한, 어느 실시형태의 구성의 일부를 다른 실시형태의 구성으로 치환하는 것도 가능하며, 또한 어느 실시형태의 구성에 다른 실시형태의 구성을 부가하는 것도 가능하다. 또한, 각 실시형태의 구성의 일부에 대해서, 다른 구성의 추가·삭제·치환을 하는 것이 가능하다.The present invention is not limited to the above-described embodiment, and various modifications are included. For example, the above-described embodiments have been described in detail in order to facilitate understanding of the present invention, and are not limited to those having all the configurations described above. It is also possible to replace some of the configurations of the embodiments with the configurations of other embodiments, and it is also possible to add configurations of other embodiments to the configurations of any of the embodiments. Further, it is possible to add, delete, or substitute another configuration with respect to a part of the configuration of each embodiment.

또한, 상기의 각 구성, 기능, 처리부, 처리 수단 등은, 그들의 일부 또는 전부를, 예를 들면 집적 회로로 설계하는 등에 의해 하드웨어로 실현해도 된다. 또한, 상기의 각 구성, 기능 등은, 프로세서가 각각의 기능을 실현하는 프로그램을 해석하고, 실행함으로써 소프트웨어로 실현해도 된다. 각 기능을 실현하는 프로그램, 테이블, 파일 등의 정보는, 메모리나, 하드디스크, SSD(Solid State Drive) 등의 기록 장치, 또는, IC 카드, SD 카드, DVD 등의 기록 매체에 놓일 수 있다.Further, the above-described components, functions, processing units, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. Further, the above-described respective configurations, functions, and the like may be realized by software by analyzing and executing a program that realizes the respective functions of the processor. Information such as a program, a table, and a file that realize each function can be stored in a recording device such as a memory, a hard disk, a solid state drive (SSD), or a recording medium such as an IC card, an SD card, or a DVD.

또한, 제어선이나 정보선은 설명상 필요한 것으로 생각되는 것을 나타내고 있으며, 제품상 모든 제어선이나 정보선을 반드시 나타내고 있다고는 할 수 없다. 실제로는 거의 모든 구성이 서로 접속되어 있다고 생각해도 된다.In addition, the control lines and the information lines are considered to be necessary for explanation, and not necessarily all the control lines and information lines on the product. In practice, it can be considered that almost all configurations are connected to each other.

103: 문서 DB, 105: 지식 그래프 DB, 107: 컨텍스트 DB, 201: 발상 지원 장치, 202: 입력 장치, 203: 표시 장치, 204: 통신 장치, 205: 연산 장치(CPU), 206: 메모리, 207: 보조 기억 장치, 211: 지식 그래프 생성부, 212: 컨텍스트 계산부, 213: 발화 이해부, 214: 컨텍스트 인식부, 215: 페이즈 인식부The present invention relates to an information processing apparatus and an information processing apparatus which are capable of providing a knowledge DB with a knowledge DB and a context DB. 212: context calculation unit, 213: speech recognition unit, 214: context recognition unit, 215: phase recognition unit,

Claims (10)

유저의 발상(發想)을 지원하는 발상 지원 장치로서,
프로세서와 메모리를 포함하고,
상기 메모리는,
지식을 정의하는 문서에 포함되는 명제(命題)를 구성하는 요소를 나타내는 노드와, 상기 명제가 나타내는 상기 요소간의 릴레이션(relation)을 나타내는 제 1 종(種) 에지를 포함하는 제 1 그래프의 구조를 나타내는 그래프 정보와,
상기 문서에 있어서의 릴레이션의 출현 순서를 나타내는 컨텍스트 정보를 유지하며,
상기 프로세서는,
명제의 입력을 접수하고,
상기 입력을 접수한 명제에 포함되는 요소와, 상기 입력을 접수한 명제가 나타내는 당해 요소간의 릴레이션을 추출하고,
상기 추출한 요소를 나타내는 노드를 포함하며, 또한 상기 추출한 요소간의 릴레이션을 상기 제 1 종 에지로서 포함하는 제 2 그래프를 생성하고,
상기 그래프 정보를 참조하여, 상기 제 2 그래프가 나타내는 릴레이션이 상기 제 1 그래프에 포함되는 것으로 판정했을 경우, 상기 컨텍스트 정보를 참조하여, 상기 문서에 있어서 당해 릴레이션의 후에 출현한 릴레이션을 특정하고,
상기 특정한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.
As an idea support device for supporting user's ideas,
Comprising a processor and a memory,
The memory comprising:
A structure of a first graph including a node representing an element constituting a proposition included in a document defining knowledge and a first kind edge representing a relation between the elements indicated by the proposition, And
Retaining context information indicating a sequence of occurrence of a relation in the document,
The processor comprising:
We accept input of proposition,
Extracts a relation between an element included in the proposition in which the input is accepted and the element indicated by the proposition in which the input is received,
Generating a second graph including a node indicating the extracted element and including a relation between the extracted elements as the first kind edge,
Refers to the graph information to specify a relation appearing after the relation in the document by referring to the context information when it is determined that the relation represented by the second graph is included in the first graph,
And outputs information indicating the specific relation.
제 1 항에 있어서,
상기 문서는, 복수의 명제를 포함하고,
상기 제 1 그래프의 노드는,
상기 복수의 명제에 포함되는 엔티티를 나타내는 제 1 종 노드와,
상기 복수의 명제에 포함되는 명제로서, 모든 요소와 릴레이션이 상기 복수의 명제에 있어서의 다른 명제의 하나의 요소에 포함되는 명제인 제 1 종 명제의 릴레이션을 나타내는 제 2 종 노드를 포함하고,
상기 제 1 그래프는, 상기 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 제 2 종 노드를 접속하는 제 2 종 에지를 포함하며,
상기 프로세서는,
복수의 명제의 입력을 접수하고,
상기 제 2 그래프의 생성에 있어서,
상기 추출한 요소 중 엔티티를 상기 제 1 종 노드로 결정하고,
상기 입력을 접수한 복수의 명제가, 상기 제 1 종 명제를 포함하는 것으로 판정했을 경우, 당해 제 1 종 명제의 릴레이션을 상기 제 2 종 노드로 결정하고,
당해 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 결정한 제 2 종 노드를 상기 제 2 종 에지로 접속하는, 발상 지원 장치.
The method according to claim 1,
The document includes a plurality of propositions,
Wherein the node of the first graph comprises:
A first kind node indicating an entity included in the plurality of propositions,
And a second kind node indicating a relation of a first kind proposition, in which all elements and relations are contained in one element of another proposition in the plurality of propositions, as a proposition contained in the plurality of propositions,
Wherein the first graph includes a node indicating an element constituting the first kind of specification and a second kind of edge connecting the second kind of node,
The processor comprising:
Accepting input of a plurality of propositions,
In generating the second graph,
Determining an entity among the extracted elements as the first seed node,
Wherein when determining that the plurality of propositions that have accepted the input include the first kind proposition, the relation of the first kind proposition is determined to be the second kind node,
And connects the node indicating the elements constituting the first type specification and the determined second kind node to the second type edge.
제 1 항에 있어서,
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션의 출현 횟수를 나타내며,
상기 프로세서는,
상기 컨텍스트 정보가 나타내는, 상기 특정한 릴레이션의 출현 횟수에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.
The method according to claim 1,
Wherein the context information indicates the number of occurrences of relations appearing after the relation in the document for each relation indicated by the proposition of the document,
The processor comprising:
Selects a relation from the specific relation on the basis of the occurrence count of the specific relation indicated by the context information,
And outputs information indicating the selected relation.
제 1 항에 있어서,
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션과의 상기 문서 상에서의 거리를 나타내며,
상기 프로세서는,
상기 컨텍스트 정보가 나타내는, 상기 제 1 그래프에 포함되는 상기 제 2 그래프가 나타내는 릴레이션과, 상기 특정한 릴레이션과의 거리에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.
The method according to claim 1,
Wherein the context information indicates a distance on the document to a relation appearing after the relation in the document for each relation indicated by the proposition of the document,
The processor comprising:
Selects a relation from the specific relation on the basis of a relation represented by the second graph included in the first graph and a distance between the relation indicated by the context information and the specific relation,
And outputs information indicating the selected relation.
제 1 항에 있어서,
상기 프로세서는, 상기 특정한 릴레이션에 미리 정해진 릴레이션이 포함될 경우, 상기 미리 정해진 릴레이션을 나타내는 정보를 출력하는, 발상 지원 장치.
The method according to claim 1,
Wherein the processor outputs information indicating the predetermined relation when a predetermined relation is included in the specific relation.
발상 지원 장치가, 유저의 발상을 지원하는 방법으로서,
상기 발상 지원 장치는,
지식을 정의하는 문서에 포함되는 명제를 구성하는 요소를 나타내는 노드와, 상기 명제가 나타내는 상기 요소간의 릴레이션을 나타내는 제 1 종 에지를 포함하는 제 1 그래프의 구조를 나타내는 그래프 정보와,
상기 문서에 있어서의 릴레이션의 출현 순서를 나타내는 컨텍스트 정보를 유지하며,
상기 방법은,
상기 발상 지원 장치가,
명제의 입력을 접수하고,
상기 입력을 접수한 명제에 포함되는 요소와, 상기 입력을 접수한 명제가 나타내는 당해 요소간의 릴레이션을 추출하고,
상기 추출한 요소를 나타내는 노드를 포함하며, 또한 상기 추출한 요소간의 릴레이션을 상기 제 1 종 에지로서 포함하는 제 2 그래프를 생성하고,
상기 그래프 정보를 참조하여, 상기 제 2 그래프가 나타내는 릴레이션이 상기 제 1 그래프에 포함되는 것으로 판정했을 경우, 상기 컨텍스트 정보를 참조하여, 상기 문서에 있어서 당해 릴레이션의 후에 출현한 릴레이션을 특정하고,
상기 특정한 릴레이션을 나타내는 정보를 출력하는, 방법.
A method for supporting an idea of a user by an idea support device,
The idea support apparatus comprises:
Graph information indicating a structure of a first graph including a node representing an element constituting a proposition included in a document defining knowledge and a first kind edge representing a relation between the elements indicated by the proposition;
Retaining context information indicating a sequence of appearance of a relation in the document,
The method comprises:
Wherein the idea support apparatus comprises:
We accept input of proposition,
Extracts a relation between an element included in the proposition in which the input is accepted and the element indicated by the proposition in which the input is received,
Generating a second graph including a node indicating the extracted element and including a relation between the extracted elements as the first kind edge,
Refers to the graph information to specify a relation appearing after the relation in the document by referring to the context information when it is determined that the relation represented by the second graph is included in the first graph,
And outputting information indicating the specific relation.
제 6 항에 있어서,
상기 문서는, 복수의 명제를 포함하고,
상기 제 1 그래프의 노드는,
상기 복수의 명제에 포함되는 엔티티를 나타내는 제 1 종 노드와,
상기 복수의 명제에 포함되는 명제로서, 모든 요소와 릴레이션이 상기 복수의 명제에 있어서의 다른 명제의 하나의 요소에 포함되는 명제인 제 1 종 명제의 릴레이션을 나타내는 제 2 종 노드를 포함하고,
상기 제 1 그래프는, 상기 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 제 2 종 노드를 접속하는 제 2 종 에지를 포함하며,
상기 방법은,
상기 발상 지원 장치가,
복수의 명제의 입력을 접수하고,
상기 제 2 그래프의 생성에 있어서,
상기 추출한 요소 중 엔티티를 상기 제 1 종 노드로 결정하고,
상기 입력을 접수한 복수의 명제가, 상기 제 1 종 명제를 포함하는 것으로 판정했을 경우, 당해 제 1 종 명제의 릴레이션을 상기 제 2 종 노드로 결정하고,
당해 제 1 종 명제를 구성하는 요소를 나타내는 노드와 상기 결정한 제 2 종 노드를 상기 제 2 종 에지로 접속하는, 방법.
The method according to claim 6,
The document includes a plurality of propositions,
Wherein the node of the first graph comprises:
A first kind node indicating an entity included in the plurality of propositions,
And a second kind node indicating a relation of a first kind proposition, in which all elements and relations are contained in one element of another proposition in the plurality of propositions, as a proposition contained in the plurality of propositions,
Wherein the first graph includes a node indicating an element constituting the first kind of specification and a second kind of edge connecting the second kind of node,
The method comprises:
Wherein the idea support apparatus comprises:
Accepting input of a plurality of propositions,
In generating the second graph,
Determining an entity among the extracted elements as the first seed node,
Wherein when determining that the plurality of propositions that have accepted the input include the first kind proposition, the relation of the first kind proposition is determined to be the second kind node,
Connecting a node representing the element constituting the first type specification and the determined second kind node to the second type edge.
제 6 항에 있어서,
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션의 출현 횟수를 나타내며,
상기 방법은,
상기 발상 지원 장치가,
상기 컨텍스트 정보가 나타내는, 상기 특정한 릴레이션의 출현 횟수에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 방법.
The method according to claim 6,
Wherein the context information indicates the number of occurrences of relations appearing after the relation in the document for each relation indicated by the proposition of the document,
The method comprises:
Wherein the idea support apparatus comprises:
Selects a relation from the specific relation on the basis of the occurrence count of the specific relation indicated by the context information,
And outputting information indicating the selected relation.
제 6 항에 있어서,
상기 컨텍스트 정보는, 상기 문서의 명제가 나타내는 릴레이션 각각에 대해서, 상기 문서에 있어서 당해 릴레이션보다 후에 출현한 릴레이션과의 상기 문서 상에서의 거리를 나타내며,
상기 방법은,
상기 발상 지원 장치가,
상기 컨텍스트 정보가 나타내는, 상기 제 1 그래프에 포함되는 상기 제 2 그래프가 나타내는 릴레이션과, 상기 특정한 릴레이션과의 거리에 의거하여 상기 특정한 릴레이션으로부터 릴레이션을 선택하고,
상기 선택한 릴레이션을 나타내는 정보를 출력하는, 방법.
The method according to claim 6,
Wherein the context information indicates a distance on the document to a relation appearing after the relation in the document for each relation indicated by the proposition of the document,
The method comprises:
Wherein the idea support apparatus comprises:
Selects a relation from the specific relation on the basis of a relation represented by the second graph included in the first graph and a distance between the relation indicated by the context information and the specific relation,
And outputting information indicating the selected relation.
제 6 항에 있어서,
상기 발상 지원 장치가, 상기 특정한 릴레이션에 미리 정해진 릴레이션이 포함될 경우, 상기 미리 정해진 릴레이션을 나타내는 정보를 출력하는, 방법.
The method according to claim 6,
Wherein the idea support apparatus outputs information indicating the predetermined relation when a predetermined relation is included in the specific relation.
KR1020170147764A 2017-03-06 2017-11-08 Creative thinking support apparatus and creative thinking support method KR102039393B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017041822A JP6622236B2 (en) 2017-03-06 2017-03-06 Idea support device and idea support method
JPJP-P-2017-041822 2017-03-06

Publications (2)

Publication Number Publication Date
KR20180101991A true KR20180101991A (en) 2018-09-14
KR102039393B1 KR102039393B1 (en) 2019-11-04

Family

ID=63489748

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170147764A KR102039393B1 (en) 2017-03-06 2017-11-08 Creative thinking support apparatus and creative thinking support method

Country Status (3)

Country Link
JP (1) JP6622236B2 (en)
KR (1) KR102039393B1 (en)
CN (1) CN108536720B (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230140938A1 (en) * 2020-04-10 2023-05-11 Nippon Telegraph And Telephone Corporation Sentence data analysis information generation device using ontology, sentence data analysis information generation method, and sentence data analysis information generation program
CN112148871B (en) * 2020-09-21 2024-04-12 北京百度网讯科技有限公司 Digest generation method, digest generation device, electronic equipment and storage medium
JP2022070523A (en) * 2020-10-27 2022-05-13 株式会社日立製作所 Semantic expression analysis system and semantic expression analysis method
WO2022091413A1 (en) 2020-11-02 2022-05-05 富士通株式会社 Machine learning program, inference program, device, and method
JP7474536B1 (en) 2023-08-07 2024-04-25 Linked Ideal合同会社 Information processing system and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342064A (en) * 2003-05-16 2004-12-02 Seki Tama Yonezawa Human inference engine
WO2007027967A2 (en) * 2005-08-31 2007-03-08 Eagleforce Associates System for hypothesis generation
JP2007241901A (en) 2006-03-10 2007-09-20 Univ Of Tsukuba Decision making support system and decision support method
KR20110134314A (en) * 2010-06-08 2011-12-14 인터내셔널 비지네스 머신즈 코포레이션 Graphical models for representing text documents for computer analysis
KR20130125999A (en) * 2012-05-10 2013-11-20 경북대학교 산학협력단 A method and an apparatus of keyword extraction and a communication assist device

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5841900A (en) * 1996-01-11 1998-11-24 Xerox Corporation Method for graph-based table recognition
AUPR295501A0 (en) * 2001-02-08 2001-03-08 Wong, Kwok Kay Proximity for computer represented graphs
JP2003006191A (en) * 2001-06-27 2003-01-10 Ricoh Co Ltd Device and method for supporting preparation of foreign language document and program recording medium
JP2006301967A (en) * 2005-04-20 2006-11-02 Sony Computer Entertainment Inc Conversation support device
WO2007049800A1 (en) * 2005-10-27 2007-05-03 Raytec Co., Ltd. Document creation support device
JPWO2007060780A1 (en) * 2005-11-22 2009-05-07 日本電気株式会社 Idea support device, idea support method, and idea support program
US9002773B2 (en) * 2010-09-24 2015-04-07 International Business Machines Corporation Decision-support application and system for problem solving using a question-answering system
JP5426710B2 (en) * 2012-03-19 2014-02-26 株式会社東芝 Search support device, search support method and program
CN104699758B (en) * 2015-02-04 2017-10-27 中国人民解放军装甲兵工程学院 The commanding document intelligent generating system and method for a kind of graphics and text library association

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004342064A (en) * 2003-05-16 2004-12-02 Seki Tama Yonezawa Human inference engine
WO2007027967A2 (en) * 2005-08-31 2007-03-08 Eagleforce Associates System for hypothesis generation
JP2007241901A (en) 2006-03-10 2007-09-20 Univ Of Tsukuba Decision making support system and decision support method
KR20110134314A (en) * 2010-06-08 2011-12-14 인터내셔널 비지네스 머신즈 코포레이션 Graphical models for representing text documents for computer analysis
KR20130125999A (en) * 2012-05-10 2013-11-20 경북대학교 산학협력단 A method and an apparatus of keyword extraction and a communication assist device

Also Published As

Publication number Publication date
CN108536720B (en) 2021-09-21
KR102039393B1 (en) 2019-11-04
CN108536720A (en) 2018-09-14
JP6622236B2 (en) 2019-12-18
JP2018147238A (en) 2018-09-20

Similar Documents

Publication Publication Date Title
KR102039393B1 (en) Creative thinking support apparatus and creative thinking support method
US8719006B2 (en) Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis
RU2592395C2 (en) Resolution semantic ambiguity by statistical analysis
Biber Multi-dimensional analysis: A historical synopsis
RU2579873C2 (en) Resolution of semantic ambiguity using semantic classifier
Lu et al. Sentence-level readability assessment for L2 Chinese learning
Dong et al. Revisit input perturbation problems for llms: A unified robustness evaluation framework for noisy slot filling task
Ramanarayanan et al. Automatic turn-level language identification for code-switched spanish–english dialog
Amri et al. Amazigh POS tagging using TreeTagger: a language independant model
Kim et al. Automatic scoring system for short descriptive answer written in Korean using lexico-semantic pattern
Irmawati et al. Exploiting Syntactic Similarities for Preposition Error Corrections on Indonesian Sentences Written by Second Language Learner
Samir et al. Amazigh PoS tagging using machine learning techniques
WO2020012813A1 (en) Information processing device, information processing method, and program
Tarish et al. Text correction algorithms for correct grammar and lex-ical errors in the English language
Babhulgaonkar et al. Experimenting with factored language model and generalized back-off for Hindi
Hasegawa-Johnson et al. Arabic speech and language technology
Bernhard et al. Elal: An emotion lexicon for the analysis of alsatian theatre plays
JP7258627B2 (en) Scoring support device, its method, and program
Samir et al. Training and evaluation of TreeTagger on Amazigh corpus
Mahi et al. PURAN: word prediction system for Punjabi language news
Balcha et al. Design and Development of Sentence Parser for Afan Oromo Language
Potapova et al. A New Software Approach to Automated Translation (On the Example of the Logistics Sublanguage)
Begum Mustafa et al. Code-Switching in Automatic Speech Recognition: The Issues and Future Directions
Ribeck et al. Lexical bundles in Swedish secondary school textbooks
Almuntashiri et al. Arabic Auto-CON: Automated Arabic Concordancer Construction from Arabic Corpus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant