KR101920683B1 - Method and Apparatus for Gathering Data Based on One Class - Google Patents

Method and Apparatus for Gathering Data Based on One Class Download PDF

Info

Publication number
KR101920683B1
KR101920683B1 KR1020170028349A KR20170028349A KR101920683B1 KR 101920683 B1 KR101920683 B1 KR 101920683B1 KR 1020170028349 A KR1020170028349 A KR 1020170028349A KR 20170028349 A KR20170028349 A KR 20170028349A KR 101920683 B1 KR101920683 B1 KR 101920683B1
Authority
KR
South Korea
Prior art keywords
data
document
keyword
boundary parameter
boundary
Prior art date
Application number
KR1020170028349A
Other languages
Korean (ko)
Other versions
KR20180101858A (en
Inventor
박상현
차준범
김정우
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020170028349A priority Critical patent/KR101920683B1/en
Publication of KR20180101858A publication Critical patent/KR20180101858A/en
Application granted granted Critical
Publication of KR101920683B1 publication Critical patent/KR101920683B1/en

Links

Images

Classifications

    • G06F17/30705
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F17/2705
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing

Abstract

본 실시예들은 키워드를 검색하여 추출한 문헌 자료 내에 포함된 용어를 벡터로 전처리하고, 전처리된 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 이용하여 문헌 자료 중에서 키워드와 관련된 유효 데이터를 추출함으로써, 색인어로 검색한 결과보다 키워드와의 관계에서 관련도가 높은 데이터를 다량으로 수집할 수 있으며, 특정 카테고리뿐만 아니라 다른 카테고리에 해당하는 텍스트 데이터라도 의미가 있는 텍스트 데이터를 추출할 수 있는 데이터 수집 장치 및 방법을 제공한다.In the present exemplary embodiment, the keyword included in the extracted document data is pre-processed as a vector, the preprocessed terms are learned based on the boundary parameter, and a single class that detects the boundary separating the labeling data area from the non- By extracting the valid data related to the keyword from the document data using the classification model, it is possible to collect a large amount of highly relevant data in relation to the keyword rather than the result of the search using the index word. A data collecting apparatus and method capable of extracting meaningful text data even with text data are provided.

Figure R1020170028349
Figure R1020170028349

Description

단일 클래스 기반의 데이터 수집 장치 및 방법 {Method and Apparatus for Gathering Data Based on One Class}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a data-

본 실시예가 속하는 기술 분야는 텍스트 데이터를 수집하는 장치 및 방법에 관한 것이다.The technical field to which this embodiment pertains is an apparatus and method for collecting text data.

이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section merely provide background information on the present embodiment and do not constitute the prior art.

전문 기술 분야에서 신규 기술이 개발되는 경우에, 저자마다 동일한 대상에 대해 유사한 용어들을 사용하기도 하고, 저자마다 동일한 용어를 다른 의미로 사용되기도 한다. 문헌에 포함된 용어에 따라 검색 결과가 달라지는 문제를 해결하기 위해, 특정 개념과 용어를 일치시켜 정의하는 데 이러한 용어를 통제어라고 한다.When new technologies are developed in the technical field, authors may use similar terms for the same subject, and the same terms may be used differently for different authors. In order to solve the problem that the search results vary according to the terms included in the document, these terms are used to define specific concepts and terms in a consistent manner.

통제어인 색인어를 기반으로 검색하여 추출한 데이터는 신뢰도가 높은 장점이 있다. 하지만, 색인어 기반의 데이터 검색은 문헌 별로 색인어를 매칭하는 작업이 수작업으로 이뤄지기 때문에, 검색 시점에 따라 검색 결과의 수가 달라지는 문제가 있다. 게다가, 색인어와 매칭하지 않은 데이터 중에서도 유효한 데이터가 존재하나, 이러한 데이터는 색인어로 검색하는 과정에서 누락되는 문제가 있다.The data extracted from the retrieval based on the index words of the control word has a high reliability. However, since index-based data retrieval is performed manually by matching index words for each document, there is a problem that the number of retrieval results varies depending on the retrieval point. In addition, valid data exists among data that does not match the index word, but such data is missing in the process of searching with an index word.

본 발명의 실시예들은 키워드를 검색하여 추출한 문헌 자료 내에 포함된 용어를 벡터로 전처리하고, 전처리된 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 이용하여 문헌 자료 중에서 키워드와 관련된 유효 데이터를 추출함으로써, 색인어로 검색한 결과보다 키워드와의 관계에서 관련도가 높은 데이터를 다량으로 수집할 수 있으며, 특정 카테고리뿐만 아니라 다른 카테고리에 해당하는 텍스트 데이터라도 의미가 있는 텍스트 데이터를 추출하는 데 발명의 주된 목적이 있다.In embodiments of the present invention, a keyword is searched and a term included in the extracted document data is preprocessed with a vector, a preprocessed term is learned based on a boundary parameter, and a boundary separating a labeling data area from an unlabeled data area is detected By extracting the valid data related to the keywords from the literature data using the single class classification model, it is possible to collect a large amount of highly relevant data in relation to the keyword, The main purpose of the invention is to extract meaningful text data even for corresponding text data.

본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.Other and further objects, which are not to be described, may be further considered within the scope of the following detailed description and easily deduced from the effects thereof.

본 실시예의 일 측면에 의하면, 컴퓨팅 디바이스에 의한 데이터 수집 방법에 있어서, 데이터베이스에서 키워드로 검색하여 문헌 자료를 추출하는 단계, 상기 추출한 문헌 자료를 파싱하는 단계, 상기 문헌 자료 내에 포함된 용어의 중요도를 기준으로 상기 용어를 벡터로 표현하여 전처리하는 단계, 상기 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성하는 단계, 및 상기 단일 클래스 분류 모델을 이용하여, 상기 문헌 자료 중에서 상기 키워드와 관련된 유효 데이터를 추출하는 단계를 포함하는 데이터 수집 방법을 제공한다.According to an aspect of the present invention, there is provided a method of collecting data by a computing device, the method comprising: extracting document data from a database by keyword, parsing the extracted document data, Generating a single class classification model that detects a boundary separating a labeling data area from a non-labeling data area; and extracting a labeling data area from the non- And extracting valid data related to the keyword from the document data using the single class classification model.

본 실시예의 다른 측면에 의하면, 데이터베이스에서 키워드로 검색하여 문헌 자료를 추출하는 문헌 추출부, 상기 추출한 문헌 자료를 파싱하는 문헌 파싱부, 상기 문헌 자료 내에 포함된 용어의 중요도를 기준으로 상기 용어를 벡터로 표현하여 전처리하는 용어 전처리부, 상기 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성하는 분류 모델 생성부, 및 상기 단일 클래스 분류 모델을 이용하여, 상기 문헌 자료 중에서 상기 키워드와 관련된 유효 데이터를 추출하는 유효 데이터 추출부를 포함하는 데이터 수집 장치를 제공한다.According to another aspect of the present invention, there is provided a document retrieval system including a document extracting unit that retrieves document data from a database and extracts document data, a document parsing unit that parses the extracted document data, A classifier model generation unit that learns the preprocessed terms based on boundary parameters and generates a single class classification model that detects a boundary separating a labeling data area from an unlabeled data area; And a valid data extracting unit for extracting valid data related to the keyword from the document data using the single class classification model.

본 실시예의 또 다른 측면에 의하면, 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 비일시적(Non-Transitory) 컴퓨터 판독 가능한 매체에 기록되어 데이터 수집을 위한 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 컴퓨팅 디바이스의 프로세서에 의해 실행되는 경우에, 데이터베이스에서 키워드로 검색하여 문헌 자료를 추출하는 단계, 상기 추출한 문헌 자료를 파싱하는 단계, 상기 문헌 자료 내에 포함된 용어의 중요도를 기준으로 상기 용어를 벡터로 표현하여 전처리하는 단계, 상기 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성하는 단계, 및 상기 단일 클래스 분류 모델을 이용하여, 상기 문헌 자료 중에서 상기 키워드와 관련된 유효 데이터를 추출하는 단계를 포함한 동작들을 수행하는 컴퓨터 프로그램을 제공한다.According to yet another aspect of this embodiment, there is provided a computer program for data collection recorded in a non-transitory computer readable medium comprising computer program instructions executable by a processor, A step of searching for a keyword in a database and extracting document data, parsing the extracted document data, expressing the term as a vector on the basis of importance of terms contained in the document data, Generating a single class classification model that learns the pre-processed terms based on a boundary parameter and detects a boundary separating a labeling data region from an unlabeled data region; and generating a single class classification model using the single class classification model, remind And extracting valid data related to the keyword from the document data.

이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 키워드를 검색하여 추출한 문헌 자료 내에 포함된 용어를 벡터로 전처리하고, 전처리된 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 이용하여 문헌 자료 중에서 키워드와 관련된 유효 데이터를 추출함으로써, 색인어로 검색한 결과보다 키워드와의 관계에서 관련도가 높은 데이터를 다량으로 수집할 수 있으며, 특정 카테고리뿐만 아니라 다른 카테고리에 해당하는 텍스트 데이터라도 의미가 있는 텍스트 데이터를 추출할 수 있는 효과가 있다.As described above, according to the embodiments of the present invention, words included in document data extracted from a keyword are pre-processed by a vector, pre-processed terms are learned based on boundary parameters, and labeling data By extracting the valid data related to the keywords from the literature data by using the single class classification model that detects the boundaries separating the regions, it is possible to collect a large amount of highly relevant data in relation to the keywords, , It is possible to extract text data meaningful even for text data corresponding to not only a specific category but also other categories.

여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.Even if the effects are not expressly mentioned here, the effects described in the following specification which are expected by the technical characteristics of the present invention and their potential effects are handled as described in the specification of the present invention.

도 1은 본 발명의 일 실시예에 따른 데이터 수집 장치가 처리하는 데이터 유형을 예시한 도면이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 데이터 수집 장치를 예시한 블록도이다.
도 4 및 도 5는 본 발명의 다른 실시예에 따른 데이터 수집 방법을 예시한 흐름도이다.
도 6은 본 발명의 실시예들에 따라 수행된 모의실험 결과를 도시한 것이다.
1 is a diagram illustrating data types processed by a data collection device according to an embodiment of the present invention.
2 and 3 are block diagrams illustrating a data acquisition device in accordance with an embodiment of the present invention.
4 and 5 are flowcharts illustrating a data collection method according to another embodiment of the present invention.
Figure 6 shows simulation results performed in accordance with embodiments of the present invention.

이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Will be described in detail with reference to exemplary drawings.

도 1은 본 발명의 일 실시예에 따른 데이터 수집 장치가 처리하는 데이터 유형을 예시한 도면이다.1 is a diagram illustrating data types processed by a data collection device according to an embodiment of the present invention.

텍스트 문서는 용어 검색을 통하여 수집된다. 예컨대, 바이오 메디컬 텍스트 문서는 PubMed의 MeSH 용어 검색을 통하여 수집될 수 있다. PubMed는 검색 엔진에 해당하며, MEDLINE 데이터베이스에 접근이 가능한다. MeSH 용어는 색인어에 해당하며, NLM(National Library of Medicine)에 의해 관리되고 있다. MeSH 용어는 크게 두 가지 문제가 있다. 먼저, 관련 전문가가 해당 문서에 MeSH 용어를 할당하기까지 상당한 지연 시간이 소요된다. 다음으로, 가치 있는 문서가 누락되는 문제가 있다. 즉, 문서에 특정 MeSH 용어가 포함되어 있지 않지만, 해당 문서에 특정 MeSH 용어에 관하여 가치 있는 정보를 포함할 수 있다. 따라서, 텍스트 마이닝 분야의 문서 수집에 있어서, 관련 문서를 누락하지 않는 데이터 수집 장치가 필요하다. A text document is collected through a term search. For example, biomedical text documents can be collected through PubMed's MeSH term search. PubMed corresponds to a search engine and has access to the MEDLINE database. The MeSH term is an index and is administered by the National Library of Medicine (NLM). There are two major problems with MeSH terms. First, it takes a considerable amount of time for related experts to assign MeSH terms to the document. Next, there is a problem of missing valuable documents. That is, the document does not contain a specific MeSH term, but the document may contain valuable information about a particular MeSH term. Therefore, in the document collection in the field of text mining, there is a need for a data collection apparatus that does not omit relevant documents.

도 1을 참조하면, 데이터는 키워드 종속 데이터(110) 및 키워드 비종속 데이터(120)로 구분된다. 키워드는 특정 데이터베이스에서 문서를 독출하기 위한 용어이다. 키워드 종속 데이터(110)는 키워드에 의한 검색 결과이고, 키워드 비종속 데이터(120)는 키워드와 관련하는 네거티브 데이터를 나타낸다. 키워드 종속 데이터(110)는 색인어 할당 데이터(130) 및 색인어 비할당 데이터(140)로 구분된다. 색인어 할당 데이터(130)는 색인어를 갖는 문서를 나타낸다. 색인어 비할당 데이터(140)는 아직 색인어가 매칭되지 않은 문서를 나타낸다. 예컨대, 색인어로는 MeSH 용어가 있을 수 있다. 색인어 할당 데이터(130)는 색인어 키워드 데이터(150) 및 색인어 비키워드 데이터(160)로 구분된다. 색인어 키워드 데이터(150)는 키워드와 관련된 적어도 하나의 색인어를 갖는 문서를 나타낸다. 색인어 비키워드 데이터(160)는 문서에 포함된 색인어 전부가 키워드와 관련없는 문서를 나타낸다. 키워드 관련 데이터(170) 및 키워드 비관련 데이터(180)는 각각 키워드와 관련되거나 관련되지 않은 데이터를 나타낸다.Referring to FIG. 1, data is divided into keyword dependent data 110 and keyword non-dependent data 120. A keyword is a term for reading a document from a specific database. The keyword dependent data 110 is a search result by a keyword, and the keyword non-dependent data 120 represents negative data related to a keyword. The keyword dependent data 110 is divided into indexer assignment data 130 and indexer unassigned data 140. The indexer assignment data 130 represents a document having an index word. The index unassigned data 140 represents a document for which the index word has not yet been matched. For example, an index term may be MeSH terms. The indexer assignment data 130 is divided into index keyword data 150 and index word non-keyword data 160. Index keyword data 150 represents a document having at least one index word associated with a keyword. The index word non-keyword data 160 indicates a document in which all of the index words included in the document are not related to the keyword. The keyword-related data 170 and the keyword-related data 180 represent data that are associated with or not related to the keyword, respectively.

기존의 방식은 색인어 키워드 데이터(150)만을 포지티브 데이터로 하여 수집할 수 있으나, 본 실시예들은 색인어 키워드 데이터(150)뿐만 아니라, 색인어 비키워드 데이터(160) 및 색인어 비할당 데이터(140)에서도 색인어 관련 데이터(170)를 수집할 수 있다.The present embodiment can collect not only the index keyword data 150 but also the index keyword non-keyword data 160 and the index word unassignment data 140 as well as the index word keyword data 150 as the positive data. The related data 170 can be collected.

도 2 및 도 3은 본 발명의 일 실시예에 따른 데이터 수집 장치를 예시한 블록도이다. 도 2에 도시한 바와 같이, 데이터 수집 장치(200)는 문헌 추출부(210), 문헌 파싱부(220), 용어 전처리부(230), 분류 모델 생성부(240), 및 유효 데이터 추출부(250)를 포함한다. 데이터 수집 장치(200)는 도 2에서 예시적으로 도시한 다양한 구성요소들 중에서 일부 구성요소를 생략하거나 다른 구성요소를 추가로 포함할 수 있다. 예컨대, 데이터 수집 장치(300)는 관련도 평가부(360)를 추가로 포함할 수 있다.2 and 3 are block diagrams illustrating a data acquisition device in accordance with an embodiment of the present invention. 2, the data collecting apparatus 200 includes a document extracting unit 210, a document parsing unit 220, a term preprocessing unit 230, a classification model generating unit 240, and a valid data extracting unit 250). The data collection device 200 may omit some of the various components illustrated in FIG. 2 or may additionally include other components. For example, the data collecting apparatus 300 may further include an relevance evaluating unit 360. [

문헌 추출부(210, 310)는 데이터베이스에서 키워드로 검색하여 문헌 자료를 추출한다.The document extracting units 210 and 310 retrieve document data from the database and extract document data.

문헌 파싱부(220, 320)는 추출한 문헌 자료를 파싱한다. 문헌 파싱부(220, 320)는 문헌 자료를 식별자, 문헌 종류, 제목, 및 요약으로 구분할 수 있다.The document parsing unit (220, 320) parses the extracted document data. The document parsing units 220 and 320 can classify document data into identifiers, document types, titles, and summaries.

용어 전처리부(230, 330)는 문헌 자료 내에 포함된 용어의 중요도를 기준으로 용어를 벡터로 표현하여 전처리한다. 예컨대, 용어 전처리부(230, 330)는 TF-IDF Vectorization 또는 ParagraphVector를 이용하여 용어를 전처리할 수 있다. TF-IDF는 가중치로서, 여러 문서로 이루어진 문서 집합에서 어떤 단어가 특정 문서 내에서 얼마나 중요한 것인지를 나타내는 통계적 수치이다. TF(Term Frequency)는 특정한 단어가 문서 내에 얼마나 자주 등장하는지를 나타내는 값이고, DF(Document Frequency)는 문서 빈도이다. TF-IDF는 수학식 1과 같이 표현된다.The term preprocessing unit 230 or 330 preprocesses the term by expressing the term as a vector based on the importance of terms contained in the document data. For example, the term pre-processing units 230 and 330 may pre-process terms using TF-IDF Vectorization or ParagraphVector. TF-IDF is a weighted, statistical measure of how important a word is in a particular document in a document set of documents. TF (Term Frequency) is a value indicating how often a specific word appears in a document, and DF (Document Frequency) is a document frequency. TF-IDF is expressed by Equation (1).

Figure 112017022251723-pat00001
Figure 112017022251723-pat00001

문서 j에서 용어 t에 관하여, tfi,j는 문서 내에서 용어 발생 빈도이고, dfi는 특정 용어를 포함하는 문서 개수이고, N은 문서의 전체 개수를 나타낸다.With respect to the term t in document j, tf i, j is the frequency of occurrence of the terms in the document, df i is the number of documents containing the specific term, and N is the total number of documents.

ParagraphVector는 TF-IDF와 달리, 유사어에 관한 벡터를 그룹화한다. 즉, 단어의 시맨틱 정보를 제공한다. ParagraphVector는 단어의 순서 및 맥락을 고려하는 점에서 TF-IDF와 차이가 있다.ParagraphVector, unlike TF-IDF, groups vectors about synonyms. That is, semantic information of a word is provided. ParagraphVector differs from TF-IDF in that it takes into account word order and context.

분류 모델 생성부(240, 340)는 전처리된 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성한다. 예컨대, 분류 모델 생성부(240, 340)는 단일 클래스 서포트 벡터 머신(One Class Support Vector Machine, OCSVM)를 이용하여 단일 클래스 분류 모델을 생성한다.The classification model generators 240 and 340 learn a pre-processed term based on a boundary parameter and generate a single class classification model that detects a boundary separating the labeling data area from the non-labeling data area. For example, the classification model generators 240 and 340 generate a single class classification model using a single class support vector machine (OCSVM).

OCSVM는 수학식 2와 같이 표현된다.OCSVM is expressed by Equation (2).

Figure 112017022251723-pat00002
Figure 112017022251723-pat00002

수학식에서, xi는 데이터 포인트이고, w는 초평면(Hyperplane)의 법선 벡터(Normal Vector)이고, n은 데이터 포인트의 개수이고,

Figure 112017022251723-pat00003
는 슬랙(Slack) 변수이고,
Figure 112017022251723-pat00004
는 바이어스(Bias) 용어를 나타낸다. 즉,
Figure 112017022251723-pat00005
는 분류오류(Misclassification)의 정도를 나타낸다.
Figure 112017022251723-pat00006
는 아웃라이어(Outlier)의 분수(Fraction)의 상한을 조절하는 파라미터이다.
Figure 112017022251723-pat00007
가 클수록 작고 엄격한 바운더리를 생성한다.In the equation, x i is a data point, w is a normal vector of a hyperplane, n is the number of data points,
Figure 112017022251723-pat00003
Is a slack variable,
Figure 112017022251723-pat00004
Represents the Bias term. In other words,
Figure 112017022251723-pat00005
Indicates the degree of misclassification.
Figure 112017022251723-pat00006
Is a parameter for adjusting the upper limit of the fraction of the outlier.
Figure 112017022251723-pat00007
The larger the size, the smaller and more rigid boundaries are created.

본 실시예에서 단일 클래스 분류 모델은 네거티브 데이터를 학습하지 않고, 포지티브 데이터를 학습하며, 포지티브 데이터는 (i) 키워드와 관련된 색인어를 갖는 문헌, (ii) 키워드와 관련된 색인어를 갖지 않는 문헌, (ii) 색인어를 갖지 않는 문헌 중 적어도 하나를 대상으로 할 수 있다. 색인어는 용어들의 계층 관계를 트리 구조로 형성한다. 연관어는 색인어로 채택되지 않은 축약어, 단복수형, 유사어, 또는 동의어에 해당한다. 연관어 및 색인어 간에 상호 참조되며, 데이터베이스에서 연관어에 대응하는 색인어로 대체되어 검색될 수 있다.In this embodiment, the single class classification model learns positive data without learning negative data, and positive data includes (i) a document having an index word related to a keyword, (ii) a document having no index word related to a keyword, (ii) ) At least one of the documents having no index word can be targeted. An indexer forms a hierarchical relationship of terms into a tree structure. Associative terms correspond to abbreviations, singular forms, synonyms, or synonyms that have not been adopted as indexes. Cross-referenced between associative terms and index terms, and may be retrieved by replacing the corresponding index terms in the database with the corresponding index terms.

본 실시예에서 단일 클래스 분류 모델은 수학식 3과 같이 표현될 수 있다.In this embodiment, the single class classification model can be expressed as Equation (3).

Figure 112017022251723-pat00008
Figure 112017022251723-pat00008

수학식 2와 달리, 수학식 3에서는 파라미터가 1-RF로 표현된다. 여기서, RF(Relevance Factor)를 조절하여 복수의 바운더리를 설정할 수 있고, 이를 RR(Relevance Rule)이라고 한다. 바운더리 파라미터는 단일 클래스 분류 모델의 경계의 상한을 조절하며, 바운더리 파라미터는 제1 바운더리 파라미터 또는 제2 바운더리 파라미터로 설정된다. 제1 바운더리 파라미터는 제2 바운더리 파라미터보다 큰 값으로 설정될 수 있다.Unlike Equation (2), the parameter is represented by 1-RF in Equation (3). Here, a plurality of boundaries can be set by adjusting the RF (Relevance Factor), which is called RR (Relevance Rule). The boundary parameter adjusts the upper bound of the boundary of the single class classification model, and the boundary parameter is set to the first boundary parameter or the second boundary parameter. The first boundary parameter may be set to a value larger than the second boundary parameter.

문헌 자료의 제목에 키워드가 포함되면 바운더리 파라미터는 제1 바운더리 파라미터로 설정되고, 문헌 자료의 제목에 키워드가 포함되지 않으면 바운더리 파라미터는 제2 바운더리 파라미터로 설정될 수 있다. 예컨대, 문헌 자료의 제목에 키워드가 포함되면 RF는 0.9로 설정될 수 있고, 문헌 자료의 제목에 키워드가 포함되지 않으면 RF는 0.3으로 설정될 수 있다. 이는 예시일 뿐이며 이에 한정되는 것은 아니고 구현되는 설계에 따라 적합한 수치가 사용될 수 있음은 물론이다.The boundary parameter is set to the first boundary parameter when the title of the document data includes the keyword, and the boundary parameter can be set to the second boundary parameter if the title of the document data does not include the keyword. For example, the RF may be set to 0.9 if the title of the document includes a keyword, and the RF may be set to 0.3 if the title of the document does not include a keyword. It is to be understood that the present invention is not limited thereto and that appropriate values may be used depending on the design to be implemented.

유효 데이터 추출부(250, 350)는 단일 클래스 분류 모델을 이용하여, 문헌 자료 중에서 키워드와 관련된 유효 데이터를 추출한다.The valid data extracting unit (250, 350) extracts valid data related to the keyword from the document data using a single class classification model.

관련도 평가부(260)는 키워드 및 문헌 자료 간의 관련도를 평가한다. 관련도 평가부(260)는 포지티브 데이터 및 네거티브 데이터에 기반하여 정밀도를 산출하여 관련도를 평가한다. The relevance evaluating unit 260 evaluates relevance between keywords and document data. The relevance evaluation unit 260 calculates the precision based on the positive data and the negative data to evaluate the relevance.

관련도는 수학식 4와 같이 표현될 수 있다.The relevance can be expressed as Equation (4).

Figure 112017022251723-pat00009
Figure 112017022251723-pat00009

여기서, pr은 정밀도(Precision)를 산출하는 함수이다. 본 실시예는 추가적인 데이터를 수집하는 것이므로, 재현율(Recall)보다는 정밀도(Precision)가 중요한 평가요소이다. 도 1을 다시 참조하면, s1은 포지티브 데이터로 색인어 키워드 데이터(150)를 입력으로 하고 네거티브 데이터로 색인어 비키워드 데이터(160)를 입력으로 한다. s2는 포지티브 데이터로 색인어 키워드 데이터(150)를 입력으로 하고 네거티브 데이터로 키워드 비종속 데이터(120)를 입력으로 한다. 색인어 키워드 데이터(150) 및 색인어 비키워드 데이터(160)에 관한 분류는 신뢰성이 높으나 완벽하지 않다. 색인어 비키워드 데이터(160)가 가치있는 정보를 포함하기 때문이다. C-score는 s1 및 s1의 조화 평균이다.Here, pr is a function for calculating the precision. Since this embodiment collects additional data, Precision is an important evaluation factor rather than a recall. Referring again to FIG. 1, s 1 is input with the index keyword data 150 as positive data, and the index keyword non-keyword data 160 as negative data. s 2 inputs the keyword keyword data 150 as positive data and the keyword non-dependent data 120 as negative data. The classification of the keyword data 150 and the keyword data 160 is highly reliable but not perfect. Since the index word non-keyword data 160 contains valuable information. The C-score is the harmonic mean of s 1 and s 1 .

색인어 비키워드 데이터(160)로부터 키워드 관련 데이터(170)를 추출하는 것을 평가하기 위하여, 빈도 기반 접근법(Frequency Based Approach)을 이용한다. 예컨대, 해당 문서에서 특정 키워드와 관련된 유전자를 포함하는지 여부를 측정한다.In order to evaluate extraction of the keyword-related data 170 from the non-keyword non-keyword data 160, a frequency based approach is used. For example, it is determined whether the document includes a gene associated with a specific keyword.

데이터 수집 장치에 포함된 구성요소들이 도 2 및 도 3에서는 분리되어 도시되어 있으나, 복수의 구성요소들은 상호 결합되어 적어도 하나의 모듈로 구현될 수 있다. 구성요소들은 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작한다. 이러한 구성요소들은 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Although the components included in the data collecting device are shown separately in FIGS. 2 and 3, a plurality of components may be combined with each other to form at least one module. The components are connected to a communication path connecting a software module or a hardware module inside the device and operate organically with each other. These components communicate using one or more communication buses or signal lines.

데이터 수집 장치는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.The data collection device may be implemented in logic circuitry by hardware, firmware, software, or a combination thereof, and may be implemented using a general purpose or special purpose computer. The device may be implemented using a hardwired device, a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), or the like. Further, the device may be implemented as a System on Chip (SoC) including one or more processors and controllers.

데이터 수집 장치는 하드웨어적 요소가 마련된 컴퓨팅 디바이스 또는 서버에 소프트웨어, 하드웨어, 또는 이들의 조합하는 형태로 탑재될 수 있다. 컴퓨팅 디바이스 또는 서버는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신장치, 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 포함한 다양한 장치를 의미할 수 있다.The data collection device may be implemented as software, hardware, or a combination thereof on a computing device or server with hardware components. The computing device or server may be a communication device such as a communication modem for performing communication with various devices or wired / wireless communication networks, a memory for storing data for executing a program, a microprocessor for executing and calculating a program, May refer to a variety of devices including.

도 4 및 도 5는 본 발명의 다른 실시예에 따른 데이터 수집 방법을 예시한 흐름도이다. 데이터 수집 방법은 컴퓨팅 디바이스에 의하여 수행될 수 있으며, 데이터 수집 장치와 동일한 방식으로 동작한다.4 and 5 are flowcharts illustrating a data collection method according to another embodiment of the present invention. The data collection method may be performed by a computing device and operates in the same manner as the data collection device.

단계 S410에서, 컴퓨팅 디바이스는 데이터베이스에서 키워드로 검색하여 문헌 자료를 추출한다.In step S410, the computing device searches the database for keywords and extracts literature data.

단계 S420에서, 컴퓨팅 디바이스는 추출한 문헌 자료를 파싱한다. 문헌 자료를 파싱하는 단계는 문헌 자료를 식별자, 문헌 종류, 제목, 및 요약으로 구분할 수 있다.In step S420, the computing device parses the extracted document data. The step of parsing the document data can be divided into an identifier, a document type, a title, and a summary.

단계 S430에서, 컴퓨팅 디바이스는 문헌 자료 내에 포함된 용어의 중요도를 기준으로 용어를 벡터로 표현하여 전처리한다.In step S430, the computing device preprocesses the term by expressing the term as a vector based on the importance of terms contained in the document data.

단계 S440에서, 컴퓨팅 디바이스는 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성한다. In step S440, the computing device learns the preprocessed terms based on the boundary parameters and creates a single class classification model that detects boundaries separating the labeling data areas from the unlabeled data areas.

단일 클래스 분류 모델은 네거티브 데이터를 학습하지 않고, 포지티브 데이터를 학습하며, 포지티브 데이터는 (i) 키워드와 관련된 색인어를 갖는 문헌, (ii) 키워드와 관련된 색인어를 갖지 않는 문헌, (ii) 색인어를 갖지 않는 문헌 중 적어도 하나를 대상으로 한다. The single class classification model learns positive data without learning negative data, and positive data includes (i) a document having an index word related to a keyword, (ii) a document having no index word related to a keyword, (ii) Or at least one of the documents that do not exist.

색인어는 용어들의 계층 관계를 트리 구조로 형성하고, 연관어는 색인어로 채택되지 않은 축약어, 단복수형, 유사어, 또는 동의어에 해당하고, 연관어 및 색인어 간에 상호 참조되며, 연관어에 대응하는 색인어로 대체되어 검색된다.The indexer forms a hierarchical relationship of terms in a tree structure, and the association word corresponds to an abbreviated word, a singular plural form, a similar word, or a synonym not adopted as an index word, is cross-referenced between an association word and an index word, .

바운더리 파라미터는 단일 클래스 분류 모델의 경계의 상한을 조절하며, 바운더리 파라미터는 제1 바운더리 파라미터 또는 제2 바운더리 파라미터로 설정되며, 제1 바운더리 파라미터는 제2 바운더리 파라미터보다 큰 값으로 설정될 수 있다.The boundary parameter adjusts the upper bound of the boundary of the single class classification model, the boundary parameter is set to the first boundary parameter or the second boundary parameter, and the first boundary parameter may be set to a value larger than the second boundary parameter.

문헌 자료의 제목에 키워드가 포함되면 바운더리 파라미터는 제1 바운더리 파라미터로 설정되고, 문헌 자료의 제목에 키워드가 포함되지 않으면 바운더리 파라미터는 제2 바운더리 파라미터로 설정될 수 있다.The boundary parameter is set to the first boundary parameter when the title of the document data includes the keyword, and the boundary parameter can be set to the second boundary parameter if the title of the document data does not include the keyword.

단계 S450에서, 컴퓨팅 디바이스는 단일 클래스 분류 모델을 이용하여, 문헌 자료 중에서 키워드와 관련된 유효 데이터를 추출한다.In step S450, the computing device uses the single class classification model to extract valid data associated with the keyword from the literature data.

도 5를 참조하면, 데이터 수집 방법은 키워드 및 상기 문헌 자료 간의 관련도를 평가하는 단계를 추가로 포함한다. 단계 S560에서, 컴퓨팅 디바이스는 포지티브 데이터 및 네거티브 데이터에 기반하여 정밀도를 산출하여 관련도를 평가한다.Referring to FIG. 5, the data collection method further includes a step of evaluating the relevance between the keyword and the document data. In step S560, the computing device calculates the precision based on the positive data and the negative data to evaluate the relevance.

도 6은 본 발명의 실시예들에 따라 수행된 모의실험 결과를 도시한 것이다. 도 6을 참조하면, TF-IDF 및 RR이 적용된 OCSVM가 ParagraphVector 및 RR이 적용된 OCSVM보다 성능이 우수함을 파악할 수 있다.Figure 6 shows simulation results performed in accordance with embodiments of the present invention. Referring to FIG. 6, it can be seen that the OCSVM to which the TF-IDF and the RR are applied is superior to the ParagraphVector and the OCSVM to which the RR is applied.

도 4 및 도 5에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 4 및 도 5에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.4 and 5 illustrate the sequential execution of the respective steps. However, those skilled in the art will appreciate that those skilled in the art will appreciate that various modifications, additions and substitutions are possible without departing from the essential characteristics of the embodiments of the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

본 실시예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.The operations according to the present embodiments may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. A computer-readable medium represents any medium that participates in providing instructions to a processor for execution. The computer readable medium may include program instructions, data files, data structures, or a combination thereof. For example, there may be a magnetic medium, an optical recording medium, a memory, and the like. The computer program may be distributed and distributed on a networked computer system so that computer readable code may be stored and executed in a distributed manner. Functional programs, codes, and code segments for implementing the present embodiment may be easily deduced by programmers of the technical field to which the present embodiment belongs.

본 실시예들은 본 실시예의 기술 사상을 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The present embodiments are for explaining the technical idea of the present embodiment, and the scope of the technical idea of the present embodiment is not limited by these embodiments. The scope of protection of the present embodiment should be construed according to the following claims, and all technical ideas within the scope of equivalents thereof should be construed as being included in the scope of the present invention.

100, 200: 데이터 수집 장치 110, 210: 문헌 추출부
120, 220: 문헌 파싱부 130, 230: 용어 전처리부
140, 240: 분류 모델 생성부 150, 250: 유효 데이터 추출부
260: 관련도 평가부
100, 200: data collecting apparatus 110, 210: document extracting unit
120, 220: document parsing unit 130, 230: term preprocessing unit
140, 240: Classification model generation unit 150, 250: Valid data extraction unit
260: relevance evaluation unit

Claims (15)

컴퓨팅 디바이스에 의한 데이터 수집 방법에 있어서,
데이터베이스에서 키워드로 검색하여 문헌 자료를 추출하는 단계;
상기 추출한 문헌 자료를 파싱하는 단계;
상기 문헌 자료 내에 포함된 용어의 중요도를 기준으로 상기 용어를 벡터로 표현하여 전처리하는 단계;
상기 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성하는 단계; 및
상기 단일 클래스 분류 모델을 이용하여, 상기 문헌 자료 중에서 상기 키워드와 관련된 유효 데이터를 추출하는 단계
를 포함하는 데이터 수집 방법.
A method of data collection by a computing device,
Searching the database for keywords and extracting document data;
Parsing the extracted document data;
Expressing the term by a vector on the basis of importance of terms included in the document data and performing preprocessing;
Generating a single class classification model that learns the pre-processed terms based on a boundary parameter and detects a boundary separating a labeling data region from an unlabeled data region; And
Extracting valid data related to the keyword from the document data using the single class classification model
/ RTI >
제1항에 있어서,
상기 문헌 자료를 파싱하는 단계는 상기 문헌 자료를 식별자, 문헌 종류, 제목, 및 요약으로 구분하는 것을 특징으로 하는 데이터 수집 방법.
The method according to claim 1,
Wherein the step of parsing the document data comprises classifying the document data into an identifier, a document type, a title, and a summary.
제1항에 있어서,
상기 단일 클래스 분류 모델은 분류하기 위하여 오답 집합에 속하는 네거티브 데이터를 학습하지 않고, 정답 집합에 속하는 포지티브 데이터를 학습하며, 상기 포지티브 데이터는 (i) 상기 키워드의 의미를 내포하는 색인어를 갖는 문헌, (ii) 상기 키워드의 의미를 내포하는 색인어를 갖지 않는 문헌, (ii) 상기 색인어를 갖지 않는 문헌 중 적어도 하나를 대상으로 하며,
상기 키워드는 상기 문헌 자료의 텍스트 내용에 포함된 적어도 하나의 용어이고, 상기 색인어는 문서 검색을 목적으로 상기 문헌 자료와 미리 매칭된 별도의 통제어로서, 상기 키워드와 상기 색인어는 상기 데이터베이스에서 상기 문헌 자료를 추출하기 위해 각각 사용될 수 있는 것을 특징으로 하는 데이터 수집 방법.
The method according to claim 1,
Wherein the positive classifier classifies positive data belonging to a set of correct answers without learning negative data belonging to an incorrect set to classify the single class classification model, the positive data being (i) a document having an index word containing the meaning of the keyword, ii) a document that does not have an index word containing the meaning of the keyword, and (ii) a document that does not have the index word,
Wherein the keyword is at least one term included in the text content of the document data and the index word is a separate control word matched with the document data for the purpose of document search, Features that can be used to extract data, respectively Lt; / RTI >
제3항에 있어서,
상기 색인어는 상기 용어들의 계층 관계를 트리 구조로 형성하고, 연관어는 상기 색인어로 채택되지 않은 축약어, 단복수형, 유사어, 또는 동의어에 해당하고, 상기 연관어 및 상기 색인어 간에 상호 참조되며, 상기 연관어에 대응하는 상기 색인어로 대체되어 검색되는 것을 특징으로 하는 데이터 수집 방법.
The method of claim 3,
Wherein the indexer forms a hierarchical relationship of the terms in a tree structure and the associative word corresponds to an abbreviated word, a singular plural form, a similar word, or a synonym not adopted as the index word, and is cross-referenced between the associative word and the index word, Is replaced with the index word corresponding to the keyword.
제1항에 있어서,
상기 바운더리 파라미터는 상기 단일 클래스 분류 모델의 경계의 상한을 조절하며, 상기 바운더리 파라미터는 제1 바운더리 파라미터 또는 제2 바운더리 파라미터로 설정되며, 상기 제1 바운더리 파라미터는 상기 제2 바운더리 파라미터보다 큰 값으로 설정되는 것을 특징으로 하는 데이터 수집 방법.
The method according to claim 1,
Wherein the boundary parameter adjusts an upper limit of a boundary of the single class classification model, the boundary parameter is set to a first boundary parameter or a second boundary parameter, and the first boundary parameter is set to a value larger than the second boundary parameter Wherein the data collection method comprises the steps of:
제5항에 있어서,
상기 문헌 자료의 제목에 상기 키워드가 포함되면 상기 바운더리 파라미터는 상기 제1 바운더리 파라미터로 설정되고, 상기 문헌 자료의 제목에 키워드가 포함되지 않으면 상기 바운더리 파라미터는 상기 제2 바운더리 파라미터로 설정되는 것을 특징으로 하는 데이터 수집 방법.
6. The method of claim 5,
Wherein the boundary parameter is set to the first boundary parameter if the keyword is included in the title of the document data and the boundary parameter is set to the second boundary parameter if the title of the document data does not include a keyword. Lt; / RTI >
제1항에 있어서,
상기 키워드 및 상기 문헌 자료 간의 관련도를 평가하는 단계를 추가로 포함하며, 정답 집합에 속하는 포지티브 데이터 및 오답 집합에 속하는 네거티브 데이터에 기반하여 정밀도를 산출하여 상기 관련도를 평가하는 것을 특징으로 하는 데이터 수집 방법.
The method according to claim 1,
Further comprising the step of evaluating the degree of relevance between the keyword and the document data and calculating the precision based on the positive data belonging to the correct answer set and the negative data belonging to the wrong answer set, Collection method.
데이터베이스에서 키워드로 검색하여 문헌 자료를 추출하는 문헌 추출부;
상기 추출한 문헌 자료를 파싱하는 문헌 파싱부;
상기 문헌 자료 내에 포함된 용어의 중요도를 기준으로 상기 용어를 벡터로 표현하여 전처리하는 용어 전처리부;
상기 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성하는 분류 모델 생성부; 및
상기 단일 클래스 분류 모델을 이용하여, 상기 문헌 자료 중에서 상기 키워드와 관련된 유효 데이터를 추출하는 유효 데이터 추출부
를 포함하는 데이터 수집 장치.
A document extracting unit for searching a database for keywords and extracting document data;
A document parsing unit parsing the extracted document data;
A preprocessing unit for preprocessing the term by expressing the term as a vector on the basis of importance of terms included in the document data;
A classification model generation unit that learns the preprocessed terms based on a boundary parameter and generates a single class classification model that detects a boundary separating a labeling data area from a non-labeling data area; And
Extracting valid data related to the keyword from the document data using the single class classification model,
Lt; / RTI >
제8항에 있어서,
상기 문헌 파싱부는, 상기 문헌 자료를 식별자, 문헌 종류, 제목, 및 요약으로 구분하는 것을 특징으로 하는 데이터 수집 장치.
9. The method of claim 8,
Wherein the document parsing unit classifies the document data into an identifier, a document type, a title, and a summary.
제8항에 있어서,
상기 단일 클래스 분류 모델은 분류하기 위하여 오답 집합에 속하는 네거티브 데이터를 학습하지 않고, 정답 집합에 속하는 포지티브 데이터를 학습하며, 상기 포지티브 데이터는 (i) 상기 키워드의 의미를 내포하는 색인어를 갖는 문헌, (ii) 상기 키워드의 의미를 내포하는 색인어를 갖지 않는 문헌, (ii) 상기 색인어를 갖지 않는 문헌 중 적어도 하나를 대상으로 하며,
상기 키워드는 상기 문헌 자료의 텍스트 내용에 포함된 적어도 하나의 용어이고, 상기 색인어는 문서 검색을 목적으로 상기 문헌 자료와 미리 매칭된 별도의 통제어로서, 상기 키워드와 상기 색인어는 상기 데이터베이스에서 상기 문헌 자료를 추출하기 위해 각각 사용될 수 있는 것을 특징으로 하는 데이터 수집 장치.
9. The method of claim 8,
Wherein the positive classifier classifies positive data belonging to a set of correct answers without learning negative data belonging to an incorrect set to classify the single class classification model, the positive data being (i) a document having an index word containing the meaning of the keyword, ii) a document that does not have an index word containing the meaning of the keyword, and (ii) a document that does not have the index word,
Wherein the keyword is at least one term included in the text content of the document data and the index word is a separate control word matched with the document data for the purpose of document search, Wherein the data collection device is capable of being used for extracting data, respectively.
제10항에 있어서,
상기 색인어는 상기 용어들의 계층 관계를 트리 구조로 형성하고, 연관어는 상기 색인어로 채택되지 않은 축약어, 단복수형, 유사어, 또는 동의어에 해당하고, 상기 연관어 및 상기 색인어 간에 상호 참조되며, 상기 연관어에 대응하는 상기 색인어로 대체되어 검색되는 것을 특징으로 하는 데이터 수집 장치.
11. The method of claim 10,
Wherein the indexer forms a hierarchical relationship of the terms in a tree structure and the associative word corresponds to an abbreviated word, a singular plural form, a similar word, or a synonym not adopted as the index word, and is cross-referenced between the associative word and the index word, Is replaced with the index word corresponding to the keyword.
제8항에 있어서,
상기 바운더리 파라미터는 상기 단일 클래스 분류 모델의 경계의 상한을 조절하며, 상기 바운더리 파라미터는 제1 바운더리 파라미터 또는 제2 바운더리 파라미터로 설정되며, 상기 제1 바운더리 파라미터는 상기 제2 바운더리 파라미터보다 큰 값으로 설정되는 것을 특징으로 하는 데이터 수집 장치.
9. The method of claim 8,
Wherein the boundary parameter adjusts an upper limit of a boundary of the single class classification model, the boundary parameter is set to a first boundary parameter or a second boundary parameter, and the first boundary parameter is set to a value larger than the second boundary parameter Wherein the data acquisition device is a data acquisition device.
제12항에 있어서,
상기 문헌 자료의 제목에 상기 키워드가 포함되면 상기 바운더리 파라미터는 상기 제1 바운더리 파라미터로 설정되고, 상기 문헌 자료의 제목에 키워드가 포함되지 않으면 상기 바운더리 파라미터는 상기 제2 바운더리 파라미터로 설정되는 것을 특징으로 하는 데이터 수집 장치.
13. The method of claim 12,
Wherein the boundary parameter is set to the first boundary parameter if the keyword is included in the title of the document data and the boundary parameter is set to the second boundary parameter if the title of the document data does not include a keyword. Lt; / RTI >
제8항에 있어서,
상기 키워드 및 상기 문헌 자료 간의 관련도를 평가하는 관련도 평가부를 추가로 포함하며, 상기 관련도 평가부는 정답 집합에 속하는 포지티브 데이터 및 오답 집합에 속하는 네거티브 데이터에 기반하여 정밀도를 산출하여 상기 관련도를 평가하는 것을 특징으로 하는 데이터 수집 장치.
9. The method of claim 8,
Wherein the relevancy evaluating unit further comprises an relevancy evaluating unit for evaluating the relevance between the keyword and the document data, wherein the relevancy evaluating unit calculates the precision based on the positive data belonging to the correct answer set and the negative data belonging to the wrong answer set, And evaluating the data.
프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 비일시적(Non-Transitory) 컴퓨터 판독 가능한 매체에 기록되어 데이터 수집을 위한 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 컴퓨팅 디바이스의 프로세서에 의해 실행되는 경우에,
데이터베이스에서 키워드로 검색하여 문헌 자료를 추출하는 단계;
상기 추출한 문헌 자료를 파싱하는 단계;
상기 문헌 자료 내에 포함된 용어의 중요도를 기준으로 상기 용어를 벡터로 표현하여 전처리하는 단계;
상기 전처리한 용어들을 바운더리 파라미터를 기반으로 학습하며, 비 라벨링 데이터 영역으로부터 라벨링 데이터 영역을 분리하는 경계를 검출하는 단일 클래스 분류 모델을 생성하는 단계; 및
상기 단일 클래스 분류 모델을 이용하여, 상기 문헌 자료 중에서 상기 키워드와 관련된 유효 데이터를 추출하는 단계
를 포함한 동작들을 수행하는 컴퓨터 프로그램.
A computer program for data collection recorded on a non-transitory computer readable medium comprising computer program instructions executable by a processor, the computer program instructions being executable by a processor of a computing device,
Searching the database for keywords and extracting document data;
Parsing the extracted document data;
Expressing the term by a vector on the basis of importance of terms included in the document data and performing preprocessing;
Generating a single class classification model that learns the pre-processed terms based on a boundary parameter and detects a boundary separating a labeling data region from an unlabeled data region; And
Extracting valid data related to the keyword from the document data using the single class classification model
A computer program for performing operations comprising:
KR1020170028349A 2017-03-06 2017-03-06 Method and Apparatus for Gathering Data Based on One Class KR101920683B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170028349A KR101920683B1 (en) 2017-03-06 2017-03-06 Method and Apparatus for Gathering Data Based on One Class

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170028349A KR101920683B1 (en) 2017-03-06 2017-03-06 Method and Apparatus for Gathering Data Based on One Class

Publications (2)

Publication Number Publication Date
KR20180101858A KR20180101858A (en) 2018-09-14
KR101920683B1 true KR101920683B1 (en) 2018-11-21

Family

ID=63599560

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170028349A KR101920683B1 (en) 2017-03-06 2017-03-06 Method and Apparatus for Gathering Data Based on One Class

Country Status (1)

Country Link
KR (1) KR101920683B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102194366B1 (en) * 2018-12-12 2020-12-23 동의대학교 산학협력단 Electronic device for generating verification model used to verify a user's signature
KR102559891B1 (en) * 2022-04-06 2023-07-27 주식회사 유니코드 Apparatus, method and program for providing content creation integrated platform service that provides a recommended design determined using user content
CN116628125B (en) * 2023-04-14 2024-01-30 湘南学院 Method and auxiliary device for extracting keywords of clinical image diagnosis report

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100023810A1 (en) 2005-10-25 2010-01-28 Stolfo Salvatore J Methods, media and systems for detecting anomalous program executions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100023810A1 (en) 2005-10-25 2010-01-28 Stolfo Salvatore J Methods, media and systems for detecting anomalous program executions

Also Published As

Publication number Publication date
KR20180101858A (en) 2018-09-14

Similar Documents

Publication Publication Date Title
US20180300315A1 (en) Systems and methods for document processing using machine learning
US10482174B1 (en) Systems and methods for identifying form fields
KR100756921B1 (en) Method of classifying documents, computer readable record medium on which program for executing the method is recorded
US11816138B2 (en) Systems and methods for parsing log files using classification and a plurality of neural networks
US20220004878A1 (en) Systems and methods for synthetic document and data generation
CN111797239B (en) Application program classification method and device and terminal equipment
CN103488671A (en) Method and system for querying and integrating structured and instructured data
US11893537B2 (en) Linguistic analysis of seed documents and peer groups
KR101920683B1 (en) Method and Apparatus for Gathering Data Based on One Class
KR20190113680A (en) Method and apparatus for generating test case for web pages
JP6377917B2 (en) Image search apparatus and image search program
Cheng et al. A similarity integration method based information retrieval and word embedding in bug localization
Torrisi et al. Automated bundle pagination using machine learning
Wahyudi et al. Information retrieval system for searching JSON files with vector space model method
CN115617978A (en) Index name retrieval method and device, electronic equipment and storage medium
Xu et al. Estimating similarity of rich internet pages using visual information
Giannakopoulos et al. Content visualization of scientific corpora using an extensible relational database implementation
García Seco de Herrera et al. Semi–supervised learning for image modality classification
EP3640861A1 (en) Systems and methods for parsing log files using classification and a plurality of neural networks
KR101088483B1 (en) Method and apparatus for mapping the heterogeneous classification systems
Deepa SABC-SBC: a hybrid ontology based image and webpage retrieval for datasets
Zhang et al. Rasop: an api recommendation method based on word embedding technology
US11928427B2 (en) Linguistic analysis of seed documents and peer groups
Kamath et al. Programmer's Search Engine
Niemelä A Solution Retrieval Engine for a Customer-Facing Software Project Management System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant