KR100921563B1 - 의존 문법 구문 트리를 이용한 문장 요약 방법 - Google Patents

의존 문법 구문 트리를 이용한 문장 요약 방법 Download PDF

Info

Publication number
KR100921563B1
KR100921563B1 KR1020080038708A KR20080038708A KR100921563B1 KR 100921563 B1 KR100921563 B1 KR 100921563B1 KR 1020080038708 A KR1020080038708 A KR 1020080038708A KR 20080038708 A KR20080038708 A KR 20080038708A KR 100921563 B1 KR100921563 B1 KR 100921563B1
Authority
KR
South Korea
Prior art keywords
node
syntax tree
dependency
sentence
parent
Prior art date
Application number
KR1020080038708A
Other languages
English (en)
Inventor
최기선
최동현
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020080038708A priority Critical patent/KR100921563B1/ko
Priority to PCT/KR2009/002165 priority patent/WO2009131417A2/ko
Application granted granted Critical
Publication of KR100921563B1 publication Critical patent/KR100921563B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Abstract

본 발명은 문장의 의존 문법 구문 트리를 일정한 법칙에 따라 변형한 새로운 의존 문법 구문 트리를 생성하고 이를 이용하여 문장을 요약하는 의존 문법 구문 트리를 이용한 문장 요약 방법에 관한 것으로, 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법은,
규칙을 기반으로 하는 구문 분석기를 이용하여 제1 의존 문법 구문 트리를 생성하는 제1 단계; 상기 제1 단계에서 애매성으로 인하여 의존 관계를 찾아 내지 못한 단어들에 대해 확률을 기반으로 하는 구문 분석기를 이용하여 제2 의존 문법 구문 트리를 생성하는 제2 단계; 상기 제1 단계에서 생성된 제1 의존 문법 구문 트리와 상기 제2 단계에서 생성된 제2 의존 문법 구문 트리를 결합하여 제3 의존 문법 구문 트리를 생성하는 제3 단계; 상기 제3 의존 문법 구문 트리의 각 노드에 대해 해당 노드를 유지하는'REMAIN'동작, 또는 해당 노드와 그 자식 노드를 모두 삭제하는 'DELETE'동작, 또는 해당 노드를 삭제하고 그 자식 노드를 해당 노드의 자리에 두는 'CHILD_UP'동작을 판별하는 인공지능 모델을 사용하고 이를 적용하여 변형된 제4 의존 문법 구문 트리를 생성하는 제4 단계; 및, 상기 변형된 제4 의존 문법 구문 트리로부터 요약문을 생성하는 제5 단계를 포함하는 것을 특징으로 한다.
문장 요약, 규칙 기반 구문 분석기, 확률 기반 구문 분석기

Description

의존 문법 구문 트리를 이용한 문장 요약 방법{Method of Sentence compression using the Dependency Grammar parse tree}
본 발명은 문장 요약 방법에 관한 것으로, 보다 상세하게는 문장의 의존 문법 구문 트리를 일정한 법칙에 따라 변형한 새로운 의존 문법 구문 트리를 생성하고 이를 이용하여 문장을 요약하는 의존 문법 구문 트리를 이용한 문장 요약 방법에 관한 것이다.
인터넷 등의 발전으로 정보가 대량으로 증가하고 있는 상황에서 사용자들이 문서 정보를 효율적으로 관리하고 검색하는 문제가 중요하게 되었다. 이러한 문제에 대해 효과적인 해결책을 제시해줄 수 있는 방법으로 문서 요약이 요구된다.
문서 요약이란 문서의 기본적인 내용을 유지하면서 원문으로부터 가장 의미 있는 내용만을 추출하여 문서의 길이를 줄이는 작업을 의미한다.
문서 요약 방법과 관련하여 많은 연구가 행해지고, 관련된 논문이 발표되어 왔다. 그 중 Kevin Knight와 Daniel Marcu가 2002년에 Artificial Intelligence에 발표한 논문 "Summarization beyond sentence extraction: A probabilistic approach to sentence compression"에서는 구문 트리의 변화 규칙을 코퍼스를 통해 찾아내는 방법을 사용하고 있지만. 단어 간의 의존 관계에 대하여서는 고려하고 있지 않다.
또한 Michel Gagnon과 Lyne Da Sylva가 2005년에 Computational Linguistics in the North-East에 발표한 논문 "Text Summarization by Sentence Extraction and Syntactic Pruning"에서는 의존 구문 분석 트리를 변형시켜서 문장을 요약하는 방법을 개시하고 있으나, 변형 규칙을 사람이 일일이 지정해주어야 하는 문제점이 있으며, 프랑스어를 제외한 다른 언어에 대하여 적용하기가 극히 어렵다는 문제점이 있다.
본 발명은 상기한 바와 같은 과제를 해결하기 위해 안출된 것으로, 텔레비전 뉴스에서 부제목을 만들거나, 문장을 PDA나 휴대폰과 같은 작은 화면에 출력하기 위하여 긴 문장을 그 핵심 내용을 포함하면서 전체 문장의 길이가 짧아지도록 하는 의존 문법 구문 트리를 이용한 문장 요약 방법을 제공하는 것을 그 목적으로 한다.
상기한 바와 같은 목적을 달성하기 위한 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법은,
규칙을 기반으로 하는 구문 분석기를 이용하여 제1 의존 문법 구문 트리를 생성하는 제1 단계; 상기 제1 단계에서 애매성으로 인하여 의존 관계를 찾아 내지 못한 단어들에 대해 확률을 기반으로 하는 구문 분석기를 이용하여 제2 의존 문법 구문 트리를 생성하는 제2 단계; 상기 제1 단계에서 생성된 제1 의존 문법 구문 트리와 상기 제2 단계에서 생성된 제2 의존 문법 구문 트리를 결합하여 제3 의존 문법 구문 트리를 생성하는 제3 단계; 상기 제3 의존 문법 구문 트리의 각 노드에 대해 해당 노드를 유지하는'REMAIN'동작, 또는 해당 노드와 그 자식 노드를 모두 삭제하는 'DELETE'동작, 또는 해당 노드를 삭제하고 그 자식 노드를 해당 노드의 자리에 두는 'CHILD_UP'동작을 판별하는 인공지능 모델을 사용하고 이를 적용하여 변형된 제4 의존 문법 구문 트리를 생성하는 제4 단계; 및, 상기 변형된 제4 의존 문 법 구문 트리로부터 요약문을 생성하는 제5 단계를 포함하는 것을 특징으로 한다.
여기서, 상기 제4 단계에서 사용되는 인공지능 모델은 해당 노드의 선조 노드에 대한 의존 관계, 해당 노드가 가지는 단어의 품사, 해당 노드의 부모 노드가 가지는 품사, 해당 노드의 자식 노드의 갯수, 해당 노드 및 그 선조 노드의 기능 태그, 그리고 해당 노드의 자손 노드 중에 동사의 존재 여부를 이용하여 동작을 판별하는 것을 특징으로 한다.
또한, 상기 해당 노드의 선조 노드에 대한 의존 관계는 상기 해당 노드의 부모에 대한 의존 관계, 상기 해당 노드의 부모가 그 부모에게 의존하는 관계, 상기 해당 노드의 조부모가 그 부모에게 의존하는 관계, 상기 해당 노드의 증조부모가 그 부모에게 의존하는 관계, 상기 해당 노드의 고조부모가 그 부모에게 의존하는 관계 중 어느 하나인 것을 특징으로 한다.
또한, 상기 선조 노드의 기능 태그는 해당 노드의 부모의 기능 태그, 상기 해당 노드의 조부모의 기능 태그, 상기 해당 노드의 증조부모의 기능 태그 중 어느 하나인 것을 특징으로 한다.
또한, 상기 인공지능 모델은 Ziff-Davis 코퍼스를 사용하는 것을 특징으로 한다.
상기한 바와 같은 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법에 의하면,
의존 문법 구문 트리를 이용하지 않은 기존 방법 보다 문서의 요약 효율을 높임과 동시에 가독율을 향상시킬 수 있으며, 또한 기존에 수동으로 의존 문법 구문 트리의 변형 규칙을 만들었던 방법보다 더 쉽고 정확하게 여러 종류의 언어에 적용할 수 있다는 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 우선, 도면들 중 동일한 구성요소 또는 부품들은 가능한 한 동일한 참조부호를 나타내고 있음에 유의해야 한다. 본 발명을 설명함에 있어서 관련된 공지기능 혹은 구성에 대한 구체적인 설명은 본 발명의 요지를 모호하게 하지 않기 위해 생략한다.
도 1은 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법을 도시한 순서도, 도 2 및 도 3은 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법에서 사용하는 의존 문법 구문 트리 변형의 예시로써, 도 2는 변형되기 전의 의존 문법 구문 트리의 예시도이고, 도 3은 변형된 후의 의존 문법 구문 트리의 예시도이다.
본 발명은 단어 간의 의존 관계를 주로 사용하기 때문에 문장이 포함하는 단어 간의 의존 관계가 최대한 많이 올바르게 밝혀지는 것이 매우 중요하다. 이를 위 해 규칙을 사용하는 구문 분석기와 확률을 사용하는 구문 분석기를 동시에 사용하고 그 결과를 통합하여 의존 문법 구문 트리의 정확도를 높인다. 두 구문 분석기의 결과를 통합하는 방법은 다음과 같다.
먼저, 규칙을 기반으로 하는 구문 분석기를 이용하여 제1 의존 문법 구문 트리를 생성한다.(S10) 상기 규칙 기반 구문 분석기는 사람에 의해 정해진 일정한 규칙을 따라서 구문 분석을 하는 것을 말한다. 규칙에 적용되지 않는 경우, 상기 규칙 기반 구문 분석기에 의하면, 하나로 통합된 구문 분석 결과가 나오지 않을 수 있으나, 나온 결과의 정확도에 대한 신뢰도는 높다. 예를 들면, Conexor사의 구문 분석기를 사용하는 것이 바람직하다.
이때, 상기 규칙 기반 구문 분석기의 애매성으로 인하여 의존 관계가 존재하지 않는 단어들이 존재할 수 있다. 따라서, 애매성으로 인하여 의존 관계를 찾아 내지 못한 단어들에 대해서만 확률을 기반으로 하는 구문 분석기를 이용하여 제2 의존 문법 구문 트리를 생성한다.(S20) 상기 확률 기반 구문 분석기는 확률적 모델을 이용하여 구문 분석을 하는 것을 말한다. 확률적 모델은 대체로 인공 지능 기법을 사용하여 도출된다.
상기 확률 기반 구문 분석기에 의한 구문 분석 결과는 항상 단 하나의 의존 문법 구문 트리로 결정되나, 구문 분석에 대한 정확도는 상기 규칙 기반 구문 분석기에 비해 떨어진다. 상기 확률 기반 구문 분석기는, 예를 들면, Stanford대학에서 open source로 제공하는 확률 기반 구문 분석기를 사용할 수 있다.
이렇게 함으로써, S10 단계에서 의존 관계를 찾아내지 못한 단어들에 대해서만 S20단계에서 생성된 의존 문법 구문 트리를 사용하여 의존 관계를 설정해 줄 수 있게 된다.
그 다음, 상기 S10 단계에서 생성된 제1 의존 문법 구문 트리와 상기 S20 단계에서 생성된 제2 의존 문법 구문 트리를 결합하여 제3 의존 문법 구문 트리를 생성한다.(S30) 즉, 상기 규칙 기반 구문 분석기에서 분석해내지 못한 부분(즉, 구조가 결정되지 않은 부분)에 대하여 그 구조를 결정하기 위해 상기 확률 기반 구문 분석기를 사용함으로써 해당 부분의 구조를 결정하는 방식으로 상기 제1 의존 문법 구문 트리와 제2 의존 문법 구문 트리를 결합한다.
그 다음, 인공지능 모델을 사용하여 변형된 의존 문법 구문 트리를 생성한다.(S40)
본 발명에서는 요약 전 문장과 요약 후 문장에서 각 단어 간 의존 관계가 동일해야 한다는 점에 주목한다. 임의의 두 단어의 의존 관계가 요약 전 문장과 요약 후 문장에서 서로 다르다면 각 문장에서 단어 간의 수식 관계가 달라지게 되므로 그 의미 또한 바뀌게 된다.
즉, 요약 전 문장의 뜻이 요약 후 문장에서 달라지게 되므로 잘못된 요약이 된다. 그러므로 의존 문법 구문 트리의 변형 시 기존의 의존 관계가 바뀌지 않아야 한다.
이를 위해 본 발명에서는 의존 문법 구문 트리의 변형 시 각 노드에 대하여 아래 서술된 세 가지 동작만 사용함으로써 단어 간의 의존 관계가 변형될 가능성이 제거되도록 하였다.
REMAIN : 의존 문법 구문 트리의 해당 노드를 삭제하지 않는다.
DELETE : 의존 문법 구문 트리의 해당 노드 및 그 자식 노드를 모두 삭제한다.
CHILD_UP : 의존 문법 구문 트리의 해당 노드를 삭제하고 그 자식 노드를 해당 노드의 자리에 둔다. 자식 노드의 개수가 하나일 때만 실행 가능하다.
또한, 각 노드에 대해 사용되어야 할 동작을 판별하기 위해 인공지능 모델을 사용한다. 동작 판별에 사용되는 특징(feature)들은 다음과 같다:
1. RelToParent1 : 해당 노드의 부모에 대한 의존 관계
2. RelToParent2 : 해당 노드의 부모가 그 부모에게 의존하는 관계
3. RelToParent3 : 해당 노드의 조부모가 그 부모에게 의존하는 관계
4. RelToParent4 : 해당 노드의 증조부모가 그 부모에게 의존하는 관계
5. RelToParent5 : 해당 노드의 고조부모가 그 부모에게 의존하는 관계
6. POS : 해당 노드가 가지는 단어의 품사
7. parentPOS : 해당 노드의 부모가 가지는 단어의 품사
8. numChild : 자식 노드의 개수
9. functionalTag1 : 해당 노드의 기능 태그
10. functionalTag2 : 해당 노드의 부모의 기능 태그
11. functionalTag3 : 해당 노드의 조부모의 기능 태그
12. functionalTag4 : 해당 노드의 증조부모의 기능 태그
13. verbOnChild : 해당 노드의 자손들 중에 동사가 있는지 표시
즉, 상기 S40 단계에서는 인공지능 모델으로 해당 노드의 선조 노드에 대한 의존 관계, 해당 노드가 가지는 단어의 품사, 해당 노드의 부모 노드가 가지는 품사, 해당 노드의 자식 노드의 갯수, 해당 노드 및 그 선조 노드의 기능 태그, 그리고 해당 노드의 자손 노드 중에 동사의 존재 여부를 이용하여 동작을 판별하고 이를 적용하여 단어 간의 의존 관계가 변형될 가능성을 제거한다.
상기 13개의 특징들을 이용하여 인공지능 모델(결정 트리)을 구축한다. 결정 트리는 간노드(nonterminal node)에서는 상기 특징들 중 하나의 값을 판별하여 그 자식 노드 중 하나로 이동시키고, 리프 노드(leaf node)에는 REMAIN, DELETE, CHILD_UP 중 하나가 존재하게 된다. 동작을 판별하기 위한 노드에 대하여 상기 13개의 특징들의 값을 추출하고, 그것을 이용하여 결정 트리에서 리프 노드까지 진행하여 리프 노드에서의 동작을 대상 노드에 수행한다.
한편, 인공지능 모델을 구축하기 위해서 Ziff-Davis 코퍼스를 사용한다.
상기 Ziff-Davis 코퍼스는 문장과, 그 문장의 요약된 형태가 나열되어 있다. 훈련 데이터를 만들기 위해 다음의 과정을 거친다:
1. 원래 문장과 그 문장이 요약된 문장의 의존 문법 구문 트리를 만든다.
2. 원래 문장의 노드들 중 요약된 문장에도 포함된 노드를 찾아 표시한다.
3. 원래 문장이 요약된 문장이 되기 위하여 각 노드에 적용되어야 할 동작을 찾는다.
4. 위 3.의 내용을 토대로 훈련 데이터를 추출한다.
상기 훈련 데이터는 결정 트리를 만들기 위해 사용되는 것으로, Ziff-Davis Corpus에서 원래 문장이 요약된 문장으로 변형되기 위해서는, 원래 문장의 의존 문법 구문 트리의 각각의 노드에 대하여 어떤 동작이 적용되어야만 하는지를 찾아 낸다. 각 노드의 특징들과, 그 상황에서 적용된 동작을 나열한 것이 훈련 데이터이다. 상기 훈련 데이터를 기존에 이미 알려진 도구를 통해 사용하여 결정 트리를 만든다.
변형된 의존 문법 구문 트리 생성 과정을 도 2 및 도 3을 참조하여 설명하면, 도 2의 변형 전의 의존 문법 구문 트리에서 상기 13가지 특징으로 인공지능 모델을 이용하여 각 노드의 동작을 판별한다. 판별 결과, 'DELETE'동작으로 판별된 NODE 4와 NODE 10은 삭제된다. 또한, NODE 4의 자식 노드인 NODE 7, NODE 8도 함께 삭제된다. 'REMAIN'동작으로 판별된 NODE 1, NODE 2, NODE 6, NODE 9는 삭제되지 않고 유지된다. 'CHILD_UP'동작으로 판별된 NODE 3은 삭제되고 그 자식 노드인 NODE 6이 NODE 3의 자리에 위치한다. 그 결과, 도 3에 도시된 바와 같이 10개의 노드에서 단어 간의 의존 관계가 변형되지 않은 채로 5개의 노드가 삭제되고 5개의 노드가 남는 변형된 의존 문법 구문 트리가 생성된다.
그 다음, 상기 변형된 제4 의존 문법 구문 트리에 존재하는 단어들을 요약되기 전 문장에서 사용된 순서대로 나열하여 새로운 문장인 요약문을 생성(S50)하여 문장 요약을 완료한다.
이상과 같이 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법을 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상 범위내에서 당업자에 의해 다양한 변형이 이루어질 수 있음은 물론이다.
도 1은 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법을 도시한 순서도,
도 2 및 도 3은 본 발명에 따른 의존 문법 구문 트리를 이용한 문장 요약 방법에서 사용하는 의존 문법 구문 트리 변형의 예시로써, 도 2는 변형되기 전의 의존 문법 구문 트리의 예시도이고, 도 3은 변형된 후의 의존 문법 구문 트리의 예시도이다.

Claims (5)

  1. 규칙을 기반으로 하는 구문 분석기를 이용하여 제1 의존 문법 구문 트리를 생성하는 제1 단계;
    상기 제1 단계에서 애매성으로 인하여 의존 관계를 찾아 내지 못한 단어들에 대해 확률을 기반으로 하는 구문 분석기를 이용하여 제2 의존 문법 구문 트리를 생성하는 제2 단계;
    상기 제1 단계에서 생성된 제1 의존 문법 구문 트리와 상기 제2 단계에서 생성된 제2 의존 문법 구문 트리를 결합하여 제3 의존 문법 구문 트리를 생성하는 제3 단계;
    상기 제3 의존 문법 구문 트리의 각 노드에 대해 해당 노드를 유지하는'REMAIN'동작, 또는 해당 노드와 그 자식 노드를 모두 삭제하는 'DELETE'동작, 또는 해당 노드를 삭제하고 그 자식 노드를 해당 노드의 자리에 두는 'CHILD_UP'동작을 판별하는 인공지능 모델을 사용하고 이를 적용하여 변형된 제4 의존 문법 구문 트리를 생성하는 제4 단계; 및,
    상기 변형된 제4 의존 문법 구문 트리로부터 요약문을 생성하는 제5 단계
    를 포함하는 것을 특징으로 하는 의존 문법 구문 트리를 이용한 문장 요약 방법.
  2. 청구항 1에 있어서,
    상기 제4 단계에서 사용되는 인공지능 모델은 해당 노드의 선조 노드에 대한 의존 관계, 해당 노드가 가지는 단어의 품사, 해당 노드의 부모 노드가 가지는 품사, 해당 노드의 자식 노드의 갯수, 해당 노드 및 그 선조 노드의 기능 태그, 그리고 해당 노드의 자손 노드 중에 동사의 존재 여부를 이용하여 동작을 판별하는 것을 특징으로 하는 의존 문법 구문 트리를 이용한 문장 요약 방법.
  3. 청구항 2에 있어서,
    상기 해당 노드의 선조 노드에 대한 의존 관계는 상기 해당 노드의 부모에 대한 의존 관계, 상기 해당 노드의 부모가 그 부모에게 의존하는 관계, 상기 해당 노드의 조부모가 그 부모에게 의존하는 관계, 상기 해당 노드의 증조부모가 그 부모에게 의존하는 관계, 상기 해당 노드의 고조부모가 그 부모에게 의존하는 관계 중 어느 하나인 것을 특징으로 하는 의존 문법 구문 트리를 이용한 문장 요약 방법.
  4. 청구항 2에 있어서,
    상기 선조 노드의 기능 태그는 해당 노드의 부모의 기능 태그, 상기 해당 노드의 조부모의 기능 태그, 상기 해당 노드의 증조부모의 기능 태그 중 어느 하나인 것을 특징으로 하는 의존 문법 구문 트리를 이용한 문장 요약 방법.
  5. 청구항 1에 있어서,
    상기 인공지능 모델은 Ziff-Davis 코퍼스를 사용하는 것을 특징으로 하는 의존 문법 구문 트리를 이용한 문장 요약 방법.
KR1020080038708A 2008-04-25 2008-04-25 의존 문법 구문 트리를 이용한 문장 요약 방법 KR100921563B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020080038708A KR100921563B1 (ko) 2008-04-25 2008-04-25 의존 문법 구문 트리를 이용한 문장 요약 방법
PCT/KR2009/002165 WO2009131417A2 (ko) 2008-04-25 2009-04-24 의존 문법 구문 트리를 이용한 문장 요약 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080038708A KR100921563B1 (ko) 2008-04-25 2008-04-25 의존 문법 구문 트리를 이용한 문장 요약 방법

Publications (1)

Publication Number Publication Date
KR100921563B1 true KR100921563B1 (ko) 2009-10-12

Family

ID=41217294

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080038708A KR100921563B1 (ko) 2008-04-25 2008-04-25 의존 문법 구문 트리를 이용한 문장 요약 방법

Country Status (2)

Country Link
KR (1) KR100921563B1 (ko)
WO (1) WO2009131417A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210060280A (ko) * 2019-11-17 2021-05-26 주식회사 이볼케이노 영어 문장 학습을 위한 이미지 구조화 시스템

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107544955A (zh) * 2016-06-24 2018-01-05 汇仕电子商务(上海)有限公司 自然语言句法分析方法及系统
CN110069624B (zh) * 2019-04-28 2021-05-04 北京小米智能科技有限公司 文本处理方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010103151A (ko) * 2000-02-29 2001-11-23 김영택 기계번역 장치 및 시스템, 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010103151A (ko) * 2000-02-29 2001-11-23 김영택 기계번역 장치 및 시스템, 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210060280A (ko) * 2019-11-17 2021-05-26 주식회사 이볼케이노 영어 문장 학습을 위한 이미지 구조화 시스템
KR102403074B1 (ko) 2019-11-17 2022-05-30 주식회사 이볼케이노 영어 문장 학습을 위한 이미지 구조화 시스템

Also Published As

Publication number Publication date
WO2009131417A3 (ko) 2010-01-21
WO2009131417A2 (ko) 2009-10-29

Similar Documents

Publication Publication Date Title
Green et al. Parsing models for identifying multiword expressions
Carley et al. AutoMap User's Guide 2013
KR101139903B1 (ko) 자연어 문서들에서 전체 부분 관계들을 인식하는 시만틱 프로세서
US10585924B2 (en) Processing natural-language documents and queries
Müller et al. Multi-level annotation in MMAX
Van Cranenburgh et al. Data-oriented parsing with discontinuous constituents and function tags
JP2007026451A (ja) Xパスクエリーの処理方法
KR20140052328A (ko) Rdf 기반의 문장 온톨로지 생성 장치 및 방법
Jakupović et al. Formalisation method for the text expressed knowledge
KR101662433B1 (ko) 개방형 정보 추출을 이용한 지식베이스 확장 방법 및 장치
KR100921563B1 (ko) 의존 문법 구문 트리를 이용한 문장 요약 방법
Dohrn et al. Design and implementation of wiki content transformations and refactorings
Rosenfeld et al. TEG: a hybrid approach to information extraction
Norcliffe Revisiting agent focus in Yucatec
JP2015090622A (ja) 短縮文生成装置、方法、及びプログラム
KR100916645B1 (ko) 공기 정보, 주요 문법 요소 및 제목 정보를 이용한 문장요약 방법
Maranduc A Multiform Balanced Dependency Treebank for Romanian
Wang et al. Bondec-A Sentence Boundary Detector
Yang et al. The construction of a kind of chat corpus in Chinese word segmentation
JP4635585B2 (ja) 質問応答システム、質問応答方法及び質問応答プログラム
Ouersighni Robust rule-based approach in Arabic processing
Autayeu et al. Lightweight parsing of classifications into lightweight ontologies
JP5337575B2 (ja) 候補語抽出装置、候補語抽出方法及び候補語抽出プログラム
Pembe et al. A Tree Learning Approach to Web Document Sectional Hierarchy Extraction.
Rahman et al. Parsing of part-of-speech tagged Assamese Texts

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120928

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130930

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140930

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20151208

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20161017

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee