KR101400548B1 - 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법 - Google Patents

문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법 Download PDF

Info

Publication number
KR101400548B1
KR101400548B1 KR1020120115730A KR20120115730A KR101400548B1 KR 101400548 B1 KR101400548 B1 KR 101400548B1 KR 1020120115730 A KR1020120115730 A KR 1020120115730A KR 20120115730 A KR20120115730 A KR 20120115730A KR 101400548 B1 KR101400548 B1 KR 101400548B1
Authority
KR
South Korea
Prior art keywords
document
learning
engram
gram
pool
Prior art date
Application number
KR1020120115730A
Other languages
English (en)
Other versions
KR20140049659A (ko
Inventor
김판구
최동진
김정인
고미아
Original Assignee
조선대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 조선대학교산학협력단 filed Critical 조선대학교산학협력단
Priority to KR1020120115730A priority Critical patent/KR101400548B1/ko
Publication of KR20140049659A publication Critical patent/KR20140049659A/ko
Application granted granted Critical
Publication of KR101400548B1 publication Critical patent/KR101400548B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 엔그램 기반의 문서 자동 학습 및 분류 과정을 통해 웹상의 대용량 문서들을 자동으로 학습 및 분류할 수 있도록 하는 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법에 관한 것으로서, 본 발명에 따른 문서의 자동 분류 장치는 카테고리 별로 분류된 복수의 학습문서 그룹이 포함되는 학습문서 풀과, 상기 학습문서 풀의 각 학습문서 그룹에 대해 전처리 과정을 하는 전처리부와, 상기 전처리부의 전처리 과정을 통해 학습되어 형성된 상기 학습문서 풀의 엔그램 데이터 세트가 저장되는 엔그램 데이터 세트 풀을 포함하며, 상기 학습문서 풀을 통해 식별되지 않는 신규 문서 출현 시 상기 전처리부가 해당 신규문서를 전처리하여 바이그램 세트를 형성하는 문서 자동 학습부와, 상기 전처리부를 통해 형성되는 상기 신규문서의 바이그램 세트와 상기 엔그램 데이터 세트 풀의 바이그램 세트를 비교하여 상기 신규문서의 바이그램 세트를 상기 엔그램 데이터 세트 풀 중 어느 하나의 엔그램 데이터 세트에 할당하여 저장하는 문서 자동 분류부를 포함하여 형성된다.

Description

문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법{An automatic device for training and classifying documents based on N-gram statistics and An automatic method for training and classifying documents based on N-gram statistics therefor}
본 발명은 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법에 관한 것으로서, 특히 엔그램 기반의 문서 자동 학습 및 분류 과정을 통해 웹상의 대용량 문서들을 자동으로 학습 및 분류할 수 있도록 하는 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법에 관한 것이다.
문서 분류는 과거 도서관 관리시스템에서 시작되어 현재까지 지속적으로 연구 개발되고 있는 분야이며, 대용량의 문서들을 효율적으로 관리하고 색인하기 위해 초기의 수작업을 시작으로 현재의 컴퓨터를 이용한 통계적 및 의미적 기법으로 발달하였다.
특히 인터넷과 스마트폰의 급격한 발달로 인하여 웹상에 존재하는 정보는 대량으로 증가되었고, 따라서 이러한 웹상의 정보들을 그 사용자들이 효율적으로 관리 및 검색하는 것은 매우 중요한 문제가 되었다.
예를 들면, 최근에 웹사이트 상에서 무수한 웹문서 정보를 처리하여 사용자의 요구에 해당되는 정보만을 추출 후 이를 사용자에게 제공하는 정보 검색 시스템이 널리 이용되고 있고, 또한 검색어로써 단어 형식이 아닌 일상적인 자연어로 인터넷 검색을 할 수 있는 인터넷 정보 검색 시스템도 이용되고 있다. 그리고 이와 같은 정보 검색 시스템의 기능 향상을 위해서는 상기와 같은 문서 분류 기술의 개발이 필수적 요건이라 할 수 있다.
현재 널리 사용되고 있는 문서 분류 기술에 대해 간략히 설명하면, 문서에서 출현하는 단어의 빈도를 바탕으로 이를 벡터 공간에 매핑시켜 문서 간 거리를 측정 후 분류하는 방법, 그리고 나이브 베이즈(Naive Bayes) 이론을 적용한 확률적 모델 등이 있다.
그러나 상기와 같은 종래의 문서 분류 기술은 자연어를 대상으로 할 경우, 단어 빈도의 수로 한정하는 기법이 자연어에 대해서는 그 신뢰성에 한계점을 보이게 된다. 이는 상술한 인터넷 정보 검색 시스템의 자연어를 이용한 검색 과정에서 검색 성능의 저하 요인이 되기도 한다.
상기와 같은 이유로 WordNet과 같은 지식 데이터베이스를 활용한 방법이 제안되기도 하였지만, 이와 같은 지식 데이터베이스를 활용한 방법은 해당 지식 데이터베이스의 신뢰성에 따라 문서 분류의 정확성이 크게 좌우되는 문제가 있다.
이에 본 출원인은 엔그램(N-gram)이 문서 내 공기정보와 출현 빈도의 수를 병합한 기법으로 음성 인식과 자연어 처리 분야에서 활발히 사용되고 있는 방법으로써, 동시 출현하는 단어와의 연관성과 중심어 및 핵심어, 대표어를 선정하는데 효과적으로 활용될 수 있는 점에 착안하여 본 발명을 제안하게 되었다.
한국등록특허 제10-0842080호, “문서의 그룹별 분류방법” 한국등록특허 제10-1092352호, “문장 코퍼스에 대한 영역 자동분류 방법 및 장치”
본 발명은 엔그램 기반의 문서 자동 학습 및 분류 과정을 통해 웹상의 대용량 문서들을 자동으로 학습 및 분류할 수 있도록 하는 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법을 제공하는데 목적이 있다.
또한, 본 발명은 웹문서를 미리 정의된 분야별로 학습단계를 거친 후 식별되지 않은 신규문서 출현 시, 이를 자동 분류하는 방법을 통하여 웹문서의 의미적 분석과 함께 사용자의 질의어와 밀접한 검색결과를 제공할 수 있는 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법을 제공하는데 목적이 있다.
또한, 본 발명은 동시에 출현하는 단어들의 집합인 엔그램과 이의 출현빈도수를 바탕으로 문서를 대표할 수 있는 엔그램을 구축하여 차후에 식별되지 않은 신규문서가 발견되었을 때 기 구축된 엔그램 정보를 바탕으로 신규문서를 자동으로 분류할 수 있도록 하는 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법을 제공하는데 목적이 있다.
상기와 같은 목적을 달성하기 위해 본 발명에 따른 문서의 자동 학습 장치는, 카테고리 별로 분류된 복수의 학습문서 그룹이 포함되는 학습문서 풀과, 상기 학습문서 풀의 각 학습문서 그룹에 대해 전처리 과정을 하는 전처리부와, 상기 전처리부의 전처리 과정을 통해 학습되어 형성된 상기 학습문서 풀의 엔그램 데이터 세트가 저장되는 엔그램 데이터 세트 풀을 포함하여 구성된다.
또한, 상기 전처리부는 상기 학습문서 그룹의 각 학습문서 별로 특수문자를 제거하는 특수문자 제거부와, 상기 학습문서 그룹의 각 학습문서 별로 불용어(stopword)를 제거하는 불용어 제거부와, 상기 학습문서 그룹의 각 학습문서 별로 형태소를 분석하여 명사 및 동사 이외의 품사들을 가려내는 품사 태거부와, 상기 품사 태거부를 거친 학습문서로부터 명사 및 동사를 추출하는 품사 추출부를 포함하는 것을 특징으로 한다.
또한, 상기 엔그램 데이터 세트는 카테고리 별로 바이그램(Bigram) 세트를 생성하여 저장하는 것을 특징으로 한다.
또한, 상기 바이그램 세트는 어절 단위 바이그램(Bigram)의 추출 및 구축을 통해 생성되는 것을 특징으로 한다.
또한, 본 발명에 따른 문서 자동 학습 방법은 복수의 학습문서가 카테고리 별로 분류되어 복수의 학습문서 그룹이 형성되는 단계와, 상기 복수의 학습문서 그룹이 개별적으로 전처리되는 단계와, 상기 전처리 과정을 통해 상기 복수의 학습문서 그룹으로부터 엔그램 데이터 세트가 개별 생성되는 단계를 포함하여 구성된다.
또한, 상기 복수의 학습문서 그룹이 개별적으로 전처리되는 단계는 상기 학습문서 그룹의 각 학습문서 별로 특수문자가 제거되는 단계와, 상기 학습문서 그룹의 각 학습문서 별로 불용어(stopword)가 제거되는 단계와, 상기 학습문서 그룹의 각 학습문서 별로 형태소를 분석하여 명사 및 동사 이외의 품사들을 가려내는 단계와, 상기 형태소 분석 및 일부 품사를 가려내는 과정을 거친 학습문서로부터 명사 및 동사를 추출하여 해당 명사 및 동사의 동시출현 빈도의 수를 추출하는 단계와, 상기 동시출현 빈도의 수를 기준으로 엔그램 데이터 세트를 구축하는 단계를 포함하는 것을 특징으로 한다.
또한, 상기 동시출현 빈도의 수를 기준으로 엔그램 데이터 세트를 구축하는 단계는, 상기 학습문서 그룹 별로 상기 전처리 과정을 통해 바이그램 데이터 세트가 구축되는 단계인 것을 특징으로 한다.
또한, 본 발명에 따른 문서의 자동 분류 장치는, 카테고리 별로 분류된 복수의 학습문서 그룹이 포함되는 학습문서 풀 상기 학습문서 풀의 각 학습문서 그룹에 대해 전처리 과정을 하는 전처리부 상기 전처리부의 전처리 과정을 통해 학습되어 형성된 상기 학습문서 풀의 엔그램 데이터 세트가 저장되는 엔그램 데이터 세트 풀을 포함하며 상기 학습문서 풀을 통해 식별되지 않는 신규문서 출현 시 상기 전처리부가 해당 신규문서를 전처리하여 바이그램 세트를 형성하는 문서 자동 학습부와, 상기 전처리부를 통해 형성되는 상기 신규문서의 바이그램 세트와 상기 엔그램 데이터 세트 풀의 바이그램 세트를 비교하여 상기 신규문서의 바이그램 세트를 상기 엔그램 데이터 세트 풀 중 어느 하나의 엔그램 데이터 세트에 할당하여 저장하는 문서 자동 분류부를 포함하여 구성된다.
또한, 상기 문서 자동 분류부는 아래의 식
Figure 112012084635654-pat00001
Bigram Weight : 상기 신규문서의 바이그램 세트와 상기 엔그램 데이터 세트 풀의 각 엔그램 데이터 세트별 바이그램 세트 간의 유사도로써, 상기 신규문서에서 추출된 바이그램 데이터가 상기 엔그램 데이터 세트별 바이그램에 존재 시, 상기 신규문서 및 엔그램 데이터 세트 간 동일한 바이그램 단어의 상기 신규문서에서의 출현 빈도의 수 및 상기 엔그램 데이터 세트에서의 출현 빈도의 수를 서로 곱한 다음 서로 곱하여지는 바이그램 단어별 곱해진 값을 서로 더한 값.
CW : 기 연산된 Bigram Weight에 상기 신규문서 및 엔그램 데이터 세트에 동시 출현한 바이그램 단어의 수를 곱한 값에 1을 더한 값 중 최대값.』
을 통해 상기 엔그램 데이터 세트 풀의 바이그램 세트와 상기 신규문서의 바이그램 세트 간 유사도를 측정하는 것을 특징으로 한다.
또한, 상기 CW는 상기 기 연산된 Bigram Weight에 상기 신규문서 및 엔그램 데이터 세트 각각에 동시 출현한 바이그램의 횟수를 곱한 값 중 최대값에 할당되는 것을 특징으로 한다.
또한, 상기 문서 자동 분류부는 단어의 공기정보와 출현빈도의 수 및 엔그램 출현빈도의 수를 기준으로 상기 신규문서의 학습 및 해당 학습을 통해 상기 엔그램 데이터 세트 풀 중 어느 한 엔그램 데이터 세트로의 분류를 결정하는 것을 특징으로 한다.
또한, 본 발명에 따른 문서 자동 분류 방법은 복수의 학습문서가 카테고리 별로 분류되어 복수의 학습문서 그룹이 형성되는 단계와, 상기 학습문서 그룹 별로 특수문자와 불용어(stopword) 제거 및 형태소 분석을 통해 명사 및 동사만을 추출하는 전처리 단계와, 상기 전처리를 통해 상기 복수의 학습문서 그룹으로부터 엔그램 데이터 세트가 개별 생성되는 단계와, 상기 엔그램 데이터 세트를 통해 식별되지 않는 신규문서가 출현하는 단계와, 상기 신규문서를 상기 전처리와 동일한 과정으로 전처리하여 상기 신규문서의 해당 바이그램을 형성하는 단계와, 상기 신규문서의 바이그램과 상기 엔그램 데이터 세트의 바이그램을 비교하여 해당 신규문서를 상기 학습문서 그룹들 중 어느 하나에 할당하여 분류하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 엔그램 기반의 문서 자동 학습 및 분류 과정을 통해 웹상의 대용량 문서들을 자동으로 학습 및 분류할 수 있게 된다.
또한, 웹문서를 미리 정의된 분야별로 학습단계를 거친 후 식별되지 않은 신규문서 출현시, 이를 자동 분류하는 방법을 통하여 웹문서의 의미적 분석과 함께 사용자의 질의어와 밀접한 검색결과를 제공할 수 있다.
또한, 동시에 출현하는 단어들의 집합인 엔그램과 이의 출현빈도수를 바탕으로 문서를 대표할 수 있는 엔그램을 구축하여 차후에 식별되지 않은 신규문서가 발견되었을 때 기 구축된 엔그램 정보를 바탕으로 신규문서를 자동으로 분류할 수 있다.
도 1은 본 발명의 일 실시예에 따른 문서의 자동 학습 장치를 보인 블록도
도 2는 본 발명의 일 실시예에 따른 문서의 자동 분류 장치를 개념적으로 보인 블록도
도 3은 본 발명의 일 실시예에 따른 문서 자동 학습 방법을 보인 흐름도
도 4는 본 발명의 일 실시예에 따른 문서 자동 분류 방법을 보인 흐름도
이하에서는, 첨부된 도면을 참조하여 본 발명의 일 실시예에 따른 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법을 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 문서의 자동 학습 장치를 보인 블록도이다.
도시된 바와 같이, 본 발명의 일 실시예에 따른 문서의 자동 학습 장치(100)는 학습문서 풀(110), 전처리부(120), 엔그램 데이터 세트 풀(130)을 포함하여 구성된다.
학습문서 풀(110)은 카테고리 별로 분류된 복수의 학습문서 그룹(111)을 포함하여 형성된다.
전처리부(120)는 학습문서 풀(110)의 각 학습문서 그룹에 대해 전처리 과정을 하며, 이와 같은 전처리부(120)는 특수문자 제거부(121), 불용어(stopword) 제거부(122), 품사 태거부(123), 품사 추출부(124)를 포함하여 형성된다.
특수문자 제거부(121)는 학습문서 그룹(111)의 각 학습문서 별로 특수문자를 제거하며, 불용어(stopword) 제거부(122)는 학습문서 그룹(111)의 각 학습문서 별로 불용어(stopword)를 제거한다. 그리고 품사 태거부(123)는 학습문서 그룹(111)의 각 학습문서 별로 형태소를 분석하여 명사 및 동사 이외의 품사들을 가려내며, 품사 추출부(124)는 품사 태거부(123)를 거친 학습문서로부터 명사 및 동사를 추출한다.
엔그램 데이터 세트 풀(130)은 전처리부(120)의 전처리 과정을 통해 학습되어 형성된 학습문서 풀(110)의 엔그램 데이터 세트(131)가 저장된다. 그리고 엔그램 데이터 세트(131)는 카테고리 별로 바이그램(Bigram) 세트를 생성하여 저장하고, 여기서 바이그램 세트는 어절 단위 바이그램(Bigram)의 추출 및 구축을 통해 생성된다.
다음은 도 2를 참조하여 본 발명의 일 실시예에 따른 문서의 자동 분류 장치에 대해 설명한다.
도시된 바와 같이, 본 발명의 일 실시예에 따른 문서의 자동 분류 장치(200)는 문서 자동 학습부(210) 및 문서 자동 분류부(220)를 포함하여 구성된다.
문서 자동 학습부(210)는 도 1을 참조하여 상술한 문서의 자동 학습 장치(100)에 해당하는 것으로서, 즉 문서 자동 학습부(210)는 카테고리 별로 분류된 복수의 학습문서 그룹이 포함되는 학습문서 풀과, 학습문서 풀의 각 학습문서 그룹에 대해 전처리 과정을 하는 전처리부와, 상기 전처리부의 전처리 과정을 통해 학습되어 형성된 상기 학습문서 풀의 엔그램 데이터 세트가 저장되는 엔그램 데이터 세트 풀을 포함하여 구성된다. 이와 같은 문서 자동 학습부(210)는 상기 구성을 통해 학습문서 풀을 통해 식별되지 않는 신규문서 출현 시 상기 전처리부가 해당 신규문서를 전처리하여 바이그램 세트를 형성한다.
그리고 문서 자동 학습부(210)의 전처리부를 포함한 구성들 및 상기 전처리부의 구성은 도 1에 따른 문서의 자동 학습 장치의 전처리부와 동일한 구성이며, 따라서 본 실시예에서 이에 대한 상세 설명 및 도시는 생략한다.
문서 자동 분류부(220)는 문서 자동 학습부(210)의 전처리부를 통해 형성되는 신규문서의 바이그램 세트와 엔그램 데이터 세트 풀의 바이그램 세트를 비교하여 신규문서의 바이그램 세트를 엔그램 데이터 세트 풀(230, 문서 자동 학습부(210)의 엔그램 데이터 세트 풀에 해당하며 이해를 위해 별도로 도시하였을 뿐 임) 중 어느 하나의 엔그램 데이터 세트에 할당하여 저장한다.
여기서 문서 자동 분류부(220)는 아래의 식을 통해 엔그램 데이터 세트 풀(230)의 바이그램 세트와 신규문서의 바이그램 세트 간 유사도를 측정한다.
[식 1]
Figure 112012084635654-pat00002
Bigram Weight : 신규문서의 바이그램 세트와 엔그램 데이터 세트 풀의 각 엔그램 데이터 세트별 바이그램 세트 간의 유사도로써, 신규문서에서 추출된 바이그램 데이터가 엔그램 데이터 세트별 바이그램에 존재 시, 상기 신규문서 및 엔그램 데이터 세트 간 동일한 바이그램 단어의 상기 신규문서에서의 출현 빈도의 수 및 상기 엔그램 데이터 세트에서의 출현 빈도의 수를 서로 곱한 다음 서로 곱하여지는 바이그램 단어별 곱해진 값을 서로 더한 값.
CW : 기 연산된 Bigram Weight에 상기 신규문서 및 엔그램 데이터 세트에 동시 출현한 바이그램 단어의 수를 곱한 값에 1을 더한 값 중 최대값.
다시 말해, 문서 자동 분류부(220)는 단어의 공기정보와 출현빈도의 수 및 엔그램 출현빈도의 수를 기준으로 신규문서의 학습 및 해당 학습을 통해 엔그램 데이터 세트 풀(230) 중 어느 한 엔그램 데이터 세트로의 분류를 결정하는 것이다. 아래의 표 1은 이러한 예를 보인 것이다.
Bigram Data Bigram weight CW

New Document
chosun university 5,
computer science 4,
master students 5,
...

Category 1
chosun university 15,
computer science 40,
gwangju korea 37
...

ND*C1 = 5*15+4*40
= 235

1+235*2 = 471

Category 2
republic korea 64,
chosun university 5,
president korea 41,
...

ND*C2 = 5*5 = 25

1+25*1 = 26

Category 3
chosun university 71,
artificial intelligence 41,
international conference 13,
...

ND*C3= 5*71= 355

1+355*1 = 356
다음은 도 3을 참조하여 본 발명의 일 실시예에 따른 문서 자동 학습 방법에 대해 설명한다. 여기서 문서의 자동 학습 장치는 도 1의 실시예를 이용한 것이며, 따라서 이하의 설명에서 문서의 자동 학습 장치 구성은 도 1의 실시예를 따르는 동시에 동일 부호를 사용한다.
삭제
먼저, 단계(S110)에서 복수의 학습문서가 카테고리 별로 분류되어 복수의 학습문서 그룹(111)이 형성된다.
이어서, 단계(S120)에서 복수의 학습문서 그룹(111)이 개별적으로 전처리된다.
여기서 전처리 과정은, 단계(S121)의 학습문서 그룹(111)의 각 학습문서 별로 특수문자가 제거되는 과정, 단계(S122)의 학습문서 그룹(111)의 각 학습문서 별로 불용어(stopword)가 제거되는 과정, 단계(S123)의 학습문서 그룹(111)의 각 학습문서 별로 형태소를 분석하여 명사 및 동사 이외의 품사들을 가려내는 과정, 단계(S124)의 형태소 분석 및 일부 품사를 가려내는 과정을 거친 학습문서로부터 명사 및 동사를 추출하여 해당 명사 및 동사의 동시출현 빈도의 수를 추출하는 과정, 그리고 단계(S125)의 동시출현 빈도의 수를 기준으로 엔그램 데이터 세트를 구축하는 단계를 포함한다.
그리고 이러한 일련의 전처리 과정 후, 단계(S130)에서 복수의 학습문서 그룹(111)으로부터 엔그램 데이터 세트(131)가 개별 생성되는 단계가 진행된다.
또한, 단계(S130)은 학습문서 그룹(111) 별로 전처리 과정을 통해 바이그램 데이터 세트가 구축되는 단계에 해당된다.
다음은 도 4를 참조하여 본 발명의 일 실시예에 따른 문서 자동 분류 방법에 대해 설명한다. 여기서 문서의 자동 분류 장치는 도 2의 실시예를 이용한 것이다.
먼저, 단계(S210)에서 복수의 학습문서가 카테고리 별로 분류되어 복수의 학습문서 그룹이 형성된다.
이어서, 단계(S220)에서 학습문서 그룹 별로 특수문자와 불용어(stopword) 제거 및 형태소 분석을 통해 명사 및 동사만을 추출하는 전처리가 이루어진다.
이어서, 단계(S230)에서 단계(S220)의 전처리를 통해 복수의 학습문서 그룹으로부터 엔그램 데이터 세트가 개별 생성된다.
이어서, 단계(S240)에서 엔그램 데이터 세트를 통해 식별되지 않는 신규문서가 출현한다.
이어서, 단계(S250)에서 단계(S240)의 신규문서를 단계(S220)의 전처리와 동일한 과정으로 전처리하여 신규문서의 해당 바이그램을 형성한다.
이어서, 단계(S260)에서 신규문서의 바이그램과 엔그램 데이터 세트의 바이그램을 비교하여 해당 신규문서를 학습문서 그룹들 중 어느 하나에 할당하여 분류한다.
상술한 도 1 내지 도 4의 실시예를 통하여 알 수 있는 바와 같이, 본 발명에 따른 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법은, 엔그램 기반의 문서 자동 학습 및 분류 과정을 통해 웹상의 대용량 문서들을 자동으로 학습 및 분류할 수 있게 한다.
또한, 웹문서를 미리 정의된 분야별로 학습단계를 거친 후 신규문서 출현 시, 이를 자동 분류하는 방법을 통하여 웹문서의 의미적 분석과 함께 사용자의 질의어와 밀접한 검색결과를 제공할 수 있게 한다.
또한, 동시에 출현하는 단어들의 집합인 엔그램과 이의 출현빈도수를 바탕으로 문서를 대표할 수 있는 엔그램을 구축하여 차후에 식별되지 않은 신규문서가 발견되었을 때 기 구축된 엔그램 정보를 바탕으로 새로운 문서를 자동으로 분류할 수 있게 한다.
또한, 기 정의된 분류항목에 걸맞은 학습문서를 대상으로 어절 단위 엔그램 통계적 분포치 집합을 구축한 후, 신규문서가 출현하였을 경우, 신규문서 내에 존재하는 엔그램 분포치와 기 학습된 엔그램 분포치와의 유사도 측정을 통하여 신규문서를 자동 분류한다. 이때 신규문서에서 생성된 엔그램 분포데이터는 기 학습 엔그램 분포치에 누적되어 점증적으로 확장되어 정보의 변화에 적응할 수 있는 데이터로 그 신뢰성을 향상시킬 수 있게 한다.
이상에서 설명한 것은 본 발명에 따른 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법 및 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기한 실시 예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.
100 : 문서의 자동 학습 장치 110 : 학습문서 풀
111 : 학습문서 그룹 120 : 전처리부
121 : 특수문자 제거부 122 : 불용어 제거부
123 : 품사태거부 124 : 품사추출부
130 : 엔그램 데이터 세트 풀 131 : 엔그램 데이터 세트
200 : 문서의 자동 분류 장치 210 : 문서 자동 학습부
220 : 문서 자동 분류부

Claims (13)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 카테고리 별로 분류된 복수의 학습문서 그룹이 포함되는 학습문서 풀과, 상기 학습문서 풀의 각 학습문서 그룹에 대해 전처리 과정을 하는 전처리부와, 상기 전처리부의 전처리 과정을 통해 학습되어 형성된 상기 학습문서 풀의 엔그램 데이터 세트가 저장되는 엔그램 데이터 세트 풀을 포함하며, 상기 학습문서 풀을 통해 식별되지 않는 신규문서 출현 시 상기 전처리부가 해당 신규문서를 전처리하여 바이그램 세트를 형성하는 문서 자동 학습부;
    상기 전처리부를 통해 형성되는 상기 신규문서의 바이그램 세트와 상기 엔그램 데이터 세트 풀의 바이그램 세트를 비교하여 상기 신규문서의 바이그램 세트를 상기 엔그램 데이터 세트 풀 중 어느 하나의 엔그램 데이터 세트에 할당하여 저장하는 문서 자동 분류부를 포함하며,
    상기 문서 자동 분류부는 아래의 식
    Figure 112014018731492-pat00003

    Bigram Weight : 상기 신규문서의 바이그램 세트와 상기 엔그램 데이터 세트 풀의 각 엔그램 데이터 세트별 바이그램 세트 간의 유사도로써, 상기 신규문서에서 추출된 바이그램 데이터가 상기 엔그램 데이터 세트별 바이그램에 존재 시, 상기 신규문서 및 엔그램 데이터 세트 간 동일한 바이그램 단어의 상기 신규문서에서의 출현 빈도의 수 및 상기 엔그램 데이터 세트에서의 출현 빈도의 수를 서로 곱한 다음 서로 곱하여지는 바이그램 단어별 곱해진 값을 서로 더한 값.
    CW : 기 연산된 Bigram Weight에 상기 신규문서 및 엔그램 데이터 세트에 동시 출현한 바이그램 단어의 수를 곱한 값에 1을 더한 값 중 최대값』
    을 통해 상기 엔그램 데이터 세트 풀의 바이그램 세트와 상기 신규문서의 바이그램 세트 간 유사도를 측정하는 것을 특징으로 하는 문서의 자동 분류 장치.
  9. 삭제
  10. 삭제
  11. 제 8 항에 있어서, 상기 전처리부는
    상기 학습문서 그룹의 각 학습문서 별로 특수문자를 제거하는 특수문자 제거부;
    상기 학습문서 그룹의 각 학습문서 별로 불용어(stopword)를 제거하는 불용어 제거부;
    상기 학습문서 그룹의 각 학습문서 별로 형태소를 분석하여 명사 및 동사 이외의 품사들을 가려내는 품사 태거부;
    상기 품사 태거부를 거친 학습문서로부터 명사 및 동사를 추출하는 품사 추출부를 포함하는 것을 특징으로 하는 문서의 자동 분류 장치.
  12. 삭제
  13. 삭제
KR1020120115730A 2012-10-18 2012-10-18 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법 KR101400548B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120115730A KR101400548B1 (ko) 2012-10-18 2012-10-18 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120115730A KR101400548B1 (ko) 2012-10-18 2012-10-18 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법

Publications (2)

Publication Number Publication Date
KR20140049659A KR20140049659A (ko) 2014-04-28
KR101400548B1 true KR101400548B1 (ko) 2014-05-27

Family

ID=50655123

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120115730A KR101400548B1 (ko) 2012-10-18 2012-10-18 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법

Country Status (1)

Country Link
KR (1) KR101400548B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102004981B1 (ko) * 2018-03-07 2019-07-30 주식회사 한글과컴퓨터 선택된 단어에 대한 자동 설명 삽입이 가능한 전자 문서 편집 장치 및 그 동작 방법
KR20230096566A (ko) 2021-12-23 2023-06-30 주식회사 제인소프트 지능형 업무 처리 자동화 시스템 및 그 구동방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102487571B1 (ko) * 2021-03-09 2023-01-12 주식회사 마이데이터랩 자연어 의도를 분류하는 뉴럴 네트워크 훈련을 위한 데이터 처리 방법 및 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Cavnar, W. B.외 1, N-Gram-Based Text Categorization, 1994년. *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102004981B1 (ko) * 2018-03-07 2019-07-30 주식회사 한글과컴퓨터 선택된 단어에 대한 자동 설명 삽입이 가능한 전자 문서 편집 장치 및 그 동작 방법
KR20230096566A (ko) 2021-12-23 2023-06-30 주식회사 제인소프트 지능형 업무 처리 자동화 시스템 및 그 구동방법

Also Published As

Publication number Publication date
KR20140049659A (ko) 2014-04-28

Similar Documents

Publication Publication Date Title
US10503828B2 (en) System and method for answering natural language question
CN107515877B (zh) 敏感主题词集的生成方法和装置
US20170308607A1 (en) Method and System for a Semantic Search Engine
US8375033B2 (en) Information retrieval through identification of prominent notions
JP5710581B2 (ja) 質問応答装置、方法、及びプログラム
CN111400493A (zh) 基于槽位相似度的文本匹配方法、装置、设备及存储介质
CN111414763A (zh) 一种针对手语计算的语义消歧方法、装置、设备及存储装置
KR101508070B1 (ko) 어휘지도를 이용한 용언의 다의어 의미 분석 방법
JP2011227688A (ja) テキストコーパスにおける2つのエンティティ間の関係抽出方法及び装置
JP2011118689A (ja) 検索方法及びシステム
US20190266286A1 (en) Method and system for a semantic search engine using an underlying knowledge base
CN109840255A (zh) 答复文本生成方法、装置、设备及存储介质
JPH08137898A (ja) 文書検索装置
KR101429623B1 (ko) 중복 뉴스 탐지 시스템 및 중복 뉴스 탐지 방법
CN115794995A (zh) 目标答案获取方法及相关装置、电子设备和存储介质
KR101400548B1 (ko) 문서의 자동 학습 장치와 이를 이용한 문서 자동 학습 방법, 문서의 자동 분류 장치와 이를 이용한 문서 자동 분류 방법
CN111428031A (zh) 一种融合浅层语义信息的图模型过滤方法
Fahrni et al. HITS'Monolingual and Cross-lingual Entity Linking System at TAC 2013.
US20190012388A1 (en) Method and system for a semantic search engine using an underlying knowledge base
CN108268883B (zh) 基于开放数据的移动端信息模板自构建系统
Fahrni et al. HITS'Cross-lingual Entity Linking System at TAC 2011: One Model for All Languages.
Corrada-Emmanuel et al. Answer passage retrieval for question answering
KR20020036059A (ko) 사전 뜻풀이말에서 추출된 의미정보를 기반으로하는 의미중의성 해결 방법
Fahrni et al. HITS'Monolingual and Cross-lingual Entity Linking System at TAC 2012: A Joint Approach.
KR102117281B1 (ko) 빈도 테이블을 이용한 챗봇 발언 생성 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170412

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180416

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee