KR102334018B1 - Apparatus and method for validating self-propagated unethical text - Google Patents

Apparatus and method for validating self-propagated unethical text Download PDF

Info

Publication number
KR102334018B1
KR102334018B1 KR1020190151952A KR20190151952A KR102334018B1 KR 102334018 B1 KR102334018 B1 KR 102334018B1 KR 1020190151952 A KR1020190151952 A KR 1020190151952A KR 20190151952 A KR20190151952 A KR 20190151952A KR 102334018 B1 KR102334018 B1 KR 102334018B1
Authority
KR
South Korea
Prior art keywords
text
self
multiplying
propagated
unethical
Prior art date
Application number
KR1020190151952A
Other languages
Korean (ko)
Other versions
KR20200063067A (en
Inventor
한요섭
박준우
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Publication of KR20200063067A publication Critical patent/KR20200063067A/en
Application granted granted Critical
Publication of KR102334018B1 publication Critical patent/KR102334018B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/90335Query processing
    • G06F16/90344Query processing by using string matching techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명은 윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 이용하여 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득하는 텍스트 획득부, 자가 증식 텍스트를 인가받고, 인가된 자가 증식 텍스트에서 미리 획득된 비속어 사전에 등재된 비속어와 기기정된 레벨 이상으로 유사한 단어를 탐색하여 자가 증식 텍스트의 비윤리를 판별하는 사전 기반 판별부, 자가 증식 텍스트를 인가받아 단어 단위로 벡터화하고, 벡터화된 단어로부터 미리 학습된 패턴 추정 방식에 따라 문장 특징 벡터를 추출하여 자가 증식 텍스트의 비윤리를 판별하는 학습 모델 기반 판별부, 자가 증식 텍스트와 가장 유사한 학습용 텍스트를 탐색하고, 탐색된 학습용 텍스트의 레이블에 따라 자가 증식 텍스트의 비윤리를 판별하는 원문 기반 판별부 및 사전 기반 판별부, 학습 모델 기반 판별부 및 원문 기반 판별부 각각에서 판별된 자가 증식 텍스트의 비윤리를 판별 결과를 조합하여, 자가 증식 텍스트에 대한 최종 판별 결과를 획득하는 판별 결과 비교부를 포함하는 텍스트의 유효성 검증 장치 및 방법을 제공할 수 있다.The present invention is a text acquisition unit that acquires a plurality of self-multiplying texts generated in a self-replicating method using a learning text that has been verified in advance for ethical or unethical and labeled learning text, the self-replicating text is authorized, A dictionary-based discriminating unit that determines the unethical nature of the self-multiplying text by searching for words that are similar to the acquired profanity registered in the profanity dictionary at a predetermined level or more. A learning model-based discriminating unit that extracts sentence feature vectors according to the pre-learned pattern estimation method to determine the unethics of self-replicated text, searches the learning text most similar to the self-replicated text, and self-reports according to the label of the searched training text By combining the results of discriminating the unethics of self-propagated texts determined in each of the text-based discriminating unit and dictionary-based discriminating unit, the learning model-based discriminating unit and the original text-based discriminating unit for discriminating the unethics of the augmented text, It is possible to provide an apparatus and method for verifying text validity including a determination result comparison unit for obtaining a final determination result.

Figure R1020190151952
Figure R1020190151952

Description

자가 증식된 비윤리 텍스트의 유효성 검증 장치 및 방법{APPARATUS AND METHOD FOR VALIDATING SELF-PROPAGATED UNETHICAL TEXT}Apparatus and method for validating self-propagated unethical text

본 발명은 텍스트 검증 장치 및 방법에 관한 것으로, 자가 증식된 비윤리 텍스트의 유효성 검증 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for verifying text, and to an apparatus and method for validating self-propagated unethical text.

현재 온라인 환경은 많은 사용자들에게 다양한 커뮤니케이션 수단을 제공하였으나, 온라인의 익명성으로 인하여 각종 비속어나 비윤리어가 빈번하게 사용되고 있다. 이에 온라인 서비스 업체들은 비속어나 비윤리어 등을 필터링하여 제거하기 위하여 노력하고 있으나, 비속어나 비윤리어 또한 다양한 형태로 변형되어 이용됨에 따라 필터링이 용이하지 않다는 한계가 있다.Although the current online environment provides various communication means to many users, various profanity and unethical language are frequently used due to online anonymity. Accordingly, online service companies are making efforts to filter out profanity or unethical language, but there is a limitation in that the filtering is not easy as profanity and unethical language are also transformed into various forms and used.

이에 최근에는 인공 신경망으로 구성되는 비윤리 텍스트 탐지 장치를 이용하여 비속어나 비윤리어를 검출하고자 하는 시도가 계속되어 왔다. 그러나 인공 신경망을 이용하기 위해서는 학습이 선행되어야 하며, 학습을 위해서는 대량의 학습용 텍스트가 필요하다. 여기서 학습용 데이터는 비속어나 비윤리어가 포함되어 있는지 여부가 사전에 검증되어 레이블된 텍스트이다.In recent years, attempts have been made to detect profanity or unethical language using an unethical text detection device composed of an artificial neural network. However, in order to use an artificial neural network, learning must precede it, and a large amount of text for learning is required for learning. Here, the training data is text that has been previously verified and labeled whether profanity or unethical language is included.

기존에는 텍스트를 사람이 직접 검증을 하여 학습용 텍스트로 사용하였으므로, 인공 신경망을 학습시키기에 충분한 양의 학습용 텍스트를 획득하기가 매우 어렵다는 한계가 있었다. 이러한 학습용 텍스트 획득의 어려움을 극복하기 위해 윤리 또는 비윤리가 미리 검증된 적은 양의 학습용 텍스트를 자가 증식 증식시키도록 미리 학습된 인공 신경망을 구현되는 비윤리 텍스트 자가 증식 장치를 이용하여 대량의 학습용 텍스트를 획득하는 방안이 제안되었다. 인공 신경망을 이용하여 학습용 텍스트를 자가 증식시키게 됨으로써, 적은 양의 학습용 텍스트로부터 대량의 학습용 텍스트를 용이하게 획득할 수 있으며, 다양한 변형 형태의 비속어나 비윤리어가 포함된 학습용 텍스트를 획득할 수 있게 되었다.In the past, since the text was directly verified by a human and used as the training text, there was a limitation in that it was very difficult to obtain a sufficient amount of training text to train the artificial neural network. In order to overcome this difficulty in acquiring texts for learning, a large amount of text for learning is used using an unethical text self-proliferation device that implements a pre-learned artificial neural network to self-proliferate a small amount of text for learning whose ethics or unethical has been verified in advance. It has been proposed to obtain By self-proliferating the learning text using an artificial neural network, it is possible to easily acquire a large amount of learning text from a small amount of learning text, and to acquire learning texts containing various modified forms of profanity or unethical language. .

다만, 자가 증식된 학습용 데이터 또한 정확하게 레이블 되었는지 판별될 필요가 있다. 만일 자가 증식된 학습용 데이터가 부정확하게 레이블 되면, 비윤리 텍스트 감지 장치의 학습이 부정확하게 수행되며, 이로 인해 비속어나 비윤리어가 포함된 텍스트를 제대로 필터링하지 못하게 되는 문제가 발생된다.However, it is necessary to determine whether the self-propagated learning data is also accurately labeled. If the self-propagated learning data is incorrectly labeled, the learning of the unethical text detection device is performed inaccurately, which causes a problem in that text containing profanity or unethical language cannot be properly filtered.

한국 공개 특허 제10-2019-0108958호 (2019.09.25 공개)Korean Patent Publication No. 10-2019-0108958 (published on September 25, 2019)

본 발명의 목적은 학습용으로 자가 증식된 비윤리 텍스트가 유효한지 여부를 판별할 수 있는 텍스트의 유효성 검증 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide an apparatus and method for validating text that can determine whether self-propagated unethical text for learning is valid.

본 발명의 다른 목적은 학습용 비윤리 텍스트를 생성하는 비윤리 텍스트 자가 증식 장치의 유효성을 검증할 수 있는 자가 증식된 텍스트의 유효성 검증 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide an apparatus and method for validating self-propagated text that can verify the effectiveness of an unethical text self-proliferation apparatus for generating unethical text for learning.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자가 증식된 텍스트의 유효성 검증 장치는 윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 이용하여 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득하는 텍스트 획득부; 자가 증식 텍스트를 인가받고, 인가된 자가 증식 텍스트에서 미리 획득된 비속어 사전에 등재된 비속어와 기기정된 레벨 이상으로 유사한 단어를 탐색하여 상기 자가 증식 텍스트의 비윤리를 판별하는 사전 기반 판별부; 자가 증식 텍스트를 인가받아 단어 단위로 벡터화하고, 벡터화된 단어로부터 미리 학습된 패턴 추정 방식에 따라 문장 특징 벡터를 추출하여 상기 자가 증식 텍스트의 비윤리를 판별하는 학습 모델 기반 판별부; 상기 자가 증식 텍스트와 가장 유사한 학습용 텍스트를 탐색하고, 탐색된 학습용 텍스트의 레이블에 따라 상기 자가 증식 텍스트의 비윤리를 판별하는 원문 기반 판별부; 및 상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과를 조합하여, 상기 자가 증식 텍스트에 대한 최종 판별 결과를 획득하는 판별 결과 비교부를 포함한다.To achieve the above object, an apparatus for validating the validity of self-propagated text according to an embodiment of the present invention is a plurality of self-propagated texts generated in a self-propagation method using a labeled learning text that is ethical or unethical in advance. a text acquisition unit to acquire; a dictionary-based discriminating unit that receives permission from the self-multiplying text and searches for words similar to the profanity registered in the profanity dictionary acquired in advance from the approved self-proliferated text at a predetermined level or more to discriminate the unethical nature of the self-proliferated text; a learning model-based discriminating unit that receives permission and vectorizes the self-multiplying text in word units, and extracts sentence feature vectors from the vectorized words according to a pre-learned pattern estimation method to determine the unethics of the self-multiplying text; a text-based determination unit that searches for a learning text most similar to the self-multiplying text, and determines the unethicality of the self-multiplying text according to a label of the searched learning text; And the dictionary-based discrimination unit, the learning model-based discrimination unit, and the original text-based discriminant determined by each of the unethical determination results of the self-multiplying text by combining the determination to obtain a final determination result for the self-multiplying text A result comparison section is included.

상기 사전 기반 판별부는 상기 비속의 사전에 등재된 비속어와 상기 자가 증식 텍스트의 각 단어에 대해 N-그램 유사도 분석을 수행하여, 상기 자가 증식 텍스트에 비속어의 포함 여부를 판정하고, 비속어가 포함된 것으로 판정되면, 상기 자가 증식 텍스트를 비윤리로 판별할 수 있다.The dictionary-based determining unit performs an N-gram similarity analysis for each word of the profanity registered in the profanity dictionary and the self-multiplying text, and determines whether the profane word is included in the self-multiplying text, and determines that the profane word is included. If determined, the self-replicating text can be determined to be unethical.

상기 학습 모델 기반 판별부는 상기 자가 증식 텍스트의 각 단어를 임베딩하여 벡터화함으로써 다수의 단어 벡터를 획득하는 벡터 변환부; 미리 학습된 패턴 추정 방식에 따라 상기 다수의 단어 벡터의 특징을 누적하여 추출함으로써, 상기 문장 특징 벡터를 획득하는 문장 특징 추출부; 및 미리 학습된 패턴 분류 방식에 따라 상기 문장 특징 벡터를 분류하여, 상기 자가 증식 텍스트의 비윤리를 판별하는 특징 분류부를 포함할 수 있다.The learning model-based determining unit includes: a vector conversion unit for obtaining a plurality of word vectors by embedding and vectorizing each word of the self-multiplying text; a sentence feature extractor configured to acquire the sentence feature vector by accumulating and extracting features of the plurality of word vectors according to a pre-learned pattern estimation method; and a feature classifier configured to classify the sentence feature vector according to a pre-learned pattern classification scheme to discriminate unethical behavior of the self-multiplying text.

상기 문장 특징 추출부는 LSTM(Long Short Term Memory)으로 구현될 수 있다.The sentence feature extractor may be implemented as a Long Short Term Memory (LSTM).

상기 판별 결과 비교부는 상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과에 대해 다수결 원칙을 적용하여 상기 최종 판별 결과를 획득할 수 있다.The determination result comparison unit obtains the final determination result by applying a majority rule to the determination result of the self-multiplying text unethical determined by each of the dictionary-based determination unit, the learning model-based determination unit, and the text-based determination unit can do.

상기 판별 결과 비교부는 상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과에 각각에 대해 기지정된 서로 다른 가중치를 할당하고, 할당된 가중치에 따라 윤리 또는 비윤리 중 더 높은 가중치가 할당된 결과를 상기 최종 판별 결과로 획득할 수 있다.The determination result comparison unit assigns different weights predetermined for each to the determination result of the unethical self-multiplying text determined by each of the dictionary-based determination unit, the learning model-based determination unit, and the text-based determination unit, A result to which a higher weight of ethical or unethical is assigned according to the assigned weight may be obtained as the final determination result.

상기 자가 증식된 텍스트의 유효성 검증 장치는 상기 자가 증식 텍스트의 생성 시에 윤리 또는 비윤리로 레이블링된 레이블과 상기 최종 판별 결과를 비교하여 동일하면 상기 자가 증식 텍스트의 레이블이 유효한 것으로 판정하고, 동일하지 않으면 유효하지 않은 것으로 판정하는 레이블 비교부를 더 포함할 수 있다.The device for verifying the validity of the self-multiplying text compares the final determination result with the label labeled as ethical or unethical at the time of generating the self-multiplying text, and determines that the label of the self-multiplying text is valid, Otherwise, it may further include a label comparison unit that determines that it is invalid.

상기 레이블 비교부는 다수의 자가 증식 텍스트의 레이블에 대한 유효 판정 결과에 따라 자가 증식 텍스트의 신뢰도를 계산할 수 있다.The label comparator may calculate the reliability of the self-multiplying text according to a result of determining the validity of the labels of a plurality of self-multiplying texts.

상기 자가 증식된 텍스트의 유효성 검증 장치는 상기 텍스트 획득부에서 획득된 자가 증식 텍스트에 대해 부가 구성 요소 제거하고, 문장 단위로 구분하여 상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각으로 전달하는 전처리부를 더 포함할 수 있다.The self-propagated text validation apparatus removes additional components from the self-proliferated text obtained by the text acquisition unit, and divides it into sentences by the dictionary-based determination unit, the learning model-based determination unit, and the original text-based determination unit It may further include a pre-processing unit for transmitting to each unit.

상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 자가 증식된 텍스트의 유효성 검증 방법은 윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 이용하여 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득하는 자가 증식 텍스트 획득 단계; 자가 증식 텍스트에서 미리 획득된 비속어 사전에 등재된 비속어와 기기정된 레벨 이상으로 유사한 단어를 탐색하여, 상기 자가 증식 텍스트의 비윤리를 판별하는 사전 기반 판별 단계; 자가 증식 텍스트를 인가받아 단어 단위로 벡터화하고, 벡터화된 단어로부터 패턴 추정 방식이 미리 학습된 학습 모델을 이용하여 문장 특징 벡터를 추출하고, 추출된 문장 특징에 기반하여 상기 자가 증식 텍스트의 비윤리를 판별하는 학습 모델 기반 판별 단계; 상기 자가 증식 텍스트와 가장 유사한 학습용 텍스트를 탐색하고, 탐색된 학습용 텍스트의 레이블에 따라 상기 자가 증식 텍스트의 비윤리를 판별하는 원문 기반 판별 단계; 및 상기 사전 기반 판별 단계, 상기 학습 모델 기반 판별 단계 및 상기 원문 기반 판별 단계 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과를 조합하여, 상기 자가 증식 텍스트에 대한 최종 판별 결과를 획득하는 최종 판별 단계를 포함한다.In a method for validating self-propagated text according to another embodiment of the present invention for achieving the above object, a plurality of self-propagated texts generated in a self-propagated method using a labeled learning text with ethical or unethical verification in advance Self-propagation text acquisition step to acquire; A dictionary-based determination step of determining the unethics of the self-multiplying text by searching for words similar to the profanity registered in the profanity dictionary acquired in advance at a predetermined level or more in the self-multiplying text; The self-propagated text is received and vectorized in word units, a sentence feature vector is extracted from the vectorized word using a learning model in which a pattern estimation method has been previously learned, and the unethical nature of the self-propagated text is determined based on the extracted sentence characteristics. a learning model-based determination step to determine; a text-based determination step of searching for a learning text most similar to the self-multiplying text, and discriminating the unethicality of the self-multiplying text according to a label of the searched learning text; And by combining the results of determining the unethics of the self-propagated text determined in each of the dictionary-based determination step, the learning model-based determination step, and the text-based determination step, a final determination result for the self-multiplying text is obtained. a determination step.

따라서, 본 발명의 실시예에 따른 자가 증식된 텍스트의 유효성 검증 장치 및 방법은 자가 증식 방법으로 생성되어 레이블링된 대량의 학습용 텍스트의 레이블을 검증함으로써, 자가 증식 방식으로 획득되는 학습용 텍스트의 유효성을 정확하게 검증할 수 있다. 그러므로 인공 신경망으로 구현되어 비속어 또는 비윤리어를 탐지하는 탐지 장치를 학습시키기 위한 학습용 텍스트의 신뢰성을 크게 높일 수 있다.Accordingly, the apparatus and method for validating self-propagated text according to an embodiment of the present invention verifies the label of a large amount of labeled learning text generated by the self-proliferation method, thereby accurately verifying the validity of the training text obtained by the self-propagation method. can be verified. Therefore, it is possible to greatly increase the reliability of the training text for learning a detection device that detects profanity or unethical language by being implemented as an artificial neural network.

도 1은 본 발명의 일 실시예에 따른 자가 증식된 텍스트 유효성 검증 장치의 개략적 구조를 나타낸다.
도 2는 도 1의 학습 모델 기반 판별부의 상세 구성을 나타낸다.
도 3은 본 발명의 일 실시예에 따른 자가 증식된 텍스트 유효성 검증 방법을 나타낸다.
1 shows a schematic structure of a self-propagated text validation apparatus according to an embodiment of the present invention.
FIG. 2 shows a detailed configuration of the learning model-based determining unit of FIG. 1 .
3 shows a self-propagated text validation method according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be embodied in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" a certain component, it does not exclude other components, unless otherwise stated, meaning that other components may be further included. In addition, terms such as "...unit", "...group", "module", and "block" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware. and a combination of software.

도 1은 본 발명의 일 실시예에 따른 자가 증식된 텍스트 유효성 검증 장치의 개략적 구조를 나타내고, 도 2는 도 1의 학습 모델 기반 판별부의 상세 구성을 나타낸다.1 shows a schematic structure of a self-propagated text validation apparatus according to an embodiment of the present invention, and FIG. 2 shows a detailed configuration of the learning model-based discrimination unit of FIG. 1 .

도 1을 참조하면, 본 실시예에 따른 자가 증식된 텍스트 유효성 검증 장치는 텍스트 획득부(100), 전처리부(200), 사전 기반 판별부(300), 학습 모델 기반 판별부(400), 원문 기반 판별부(500), 판별 결과 비교부(600) 및 레이블 비교부(700)를 포함할 수 있다.Referring to FIG. 1 , the self-propagated text validation apparatus according to the present embodiment includes a text obtaining unit 100 , a preprocessing unit 200 , a dictionary-based determining unit 300 , a learning model-based determining unit 400 , and an original text. It may include a base determination unit 500 , a determination result comparison unit 600 , and a label comparison unit 700 .

텍스트 획득부(100)는 윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 기반으로 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득한다. 여기서 자가 증식 텍스트는 적은 수의 학습용 텍스트를 이용하여 대량의 학습용 데이터를 생성하기 위해 미리 학습된 자가 증식 장치가 학습용 텍스트를 인가받아 생성한 다수의 텍스트로서, 입력된 학습용 텍스트와 마찬가지로 윤리 또는 비윤리가 레이블된 텍스트이다. 이때 텍스트 내에 다수의 문장이 포함된 경우, 각 문장 단위로 윤리 또는 비윤리가 레이블될 수 있으며, 자가 증식 장치는 학습된 방식에 따라 비윤리로 레이블된 학습용 텍스트로부터 윤리로 레이블된 자가 증식 텍스트를 생성하거나 윤리로 레이블된 학습용 텍스트로부터 비윤리로 레이블된 자가 증식 텍스트를 생성할 수도 있다.The text acquisition unit 100 acquires a plurality of self-multiplying texts generated in a self-replicating method based on the labeled learning texts whose ethics or unethics have been verified in advance. Here, the self-propagated text is a plurality of texts generated by a pre-trained self-replicating device with the approval of the training text to generate a large amount of training data using a small number of training texts, similar to the input training text, ethical or unethical is the labeled text. At this time, if a plurality of sentences are included in the text, ethics or unethical may be labeled in units of each sentence, and the self-replicating device generates self-replicating text labeled as ethics from the learning text labeled as unethical according to the learned method. Generate or generate self-replicating text labeled as unethical from training texts labeled as ethics.

즉 텍스트 획득부(100)는 자가 증식 장치가 생성한 다수의 자가 증식 텍스트를 획득하며, 자가 증식 장치가 생성한 다수의 자가 증식 텍스트를 저장하는 저장 장치 또는 데이터 베이스 등으로 구현될 수 있다.That is, the text acquisition unit 100 acquires a plurality of self-multiplying texts generated by the self-proliferating device, and may be implemented as a storage device or a database for storing the plurality of self-proliferating texts generated by the self-proliferating device.

또한 텍스트 획득부(100)는 자가 증식 텍스트와 함께 자가 증식 텍스트를 생성하기 위해 이용된 원문 학습용 텍스트를 함께 저장할 수 있다.Also, the text acquisition unit 100 may store the original text learning text used to generate the self-multiplying text together with the self-multiplying text.

전처리부(200)는 텍스트 획득부(100)에서 획득된 자가 증식 텍스트를 인가받아 기지정된 전처리 작업을 수행한다. 이때 전처리부(200)는 자가 증식 텍스트에서 레이블을 함께 인가받도록 구성될 수도 있으나, 레이블을 제외한 텍스트만을 인가받도록 구성될 수도 있다.The pre-processing unit 200 receives the self-propagated text obtained from the text obtaining unit 100 and performs a predetermined pre-processing operation. In this case, the pre-processing unit 200 may be configured to receive the label together with the self-proliferated text, but may be configured to receive only the text excluding the label.

전처리부(200)는 자가 증식 텍스트 내에서 문자, 공백, 구두점 등과 같이 문장을 구성하는 문장 구성 요소 이외에 나머지 구성 요소인 특수 문자, URL, SNS 지정 특성 문자(# 해쉬태그, @ 언급)등의 부가 구성 요소 모두 제거한다. 이는 문자와 문장 기호 및 공백과 같이 문장을 구성하는 문장 구성 요소 이외의 부가 구성 요소들은 비속어나 비윤리어로 이용될 가능성이 거의 없으므로 탐지 대상에서 배제하기 위해서이다.The preprocessor 200 adds special characters, URLs, and SNS-specified characteristic characters (# hash tag, @ mention), etc., which are the remaining components in addition to the sentence components constituting the sentence, such as characters, spaces, punctuation marks, etc. in the self-multiplying text Remove all components. This is to exclude additional components other than the sentence components constituting the sentence, such as characters, punctuation marks, and spaces, from detection because it is unlikely that they will be used as profane or unethical words.

다만 자가 증식 장치에 의해 생성된 자가 증식 텍스트에서는 부가 구성 요소가 포함되지 않도록 생성될 수 있으며, 이 경우 부가 구성 요소 모두 제거하는 과정은 생략될 수 있다.However, the self-proliferation text generated by the self-proliferation device may be generated so that additional components are not included, and in this case, the process of removing all of the additional components may be omitted.

그리고 전처리부(200)는 부가 구성 요소가 제거된 텍스트 내에 포함된 각 문장을 구분하여, 사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500) 각각으로 전달한다.And the pre-processing unit 200 divides each sentence included in the text from which the additional components are removed, and delivers it to each of the dictionary-based determining unit 300 , the learning model-based determining unit 400 , and the original text-based determining unit 500 . do.

사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500)는 각각 서로 다른 지정된 방식으로 자가 증식 텍스트의 윤리 또는 비윤리를 판별한다.The dictionary-based discriminating unit 300, the learning model-based discriminating unit 400, and the text-based discriminating unit 500 each determine the ethics or unethics of self-replicated texts in different designated methods.

우선 사전 기반 판별부(300)는 비속어를 포함하는 문장은 혐오 문장 또는 비윤리적 문장일 가능성이 크다는 점을 고려하여, 전처리부(200)에서 인가되는 문장에서 비속어의 포함 여부를 분석하여 윤리 또는 비윤리 여부를 판별한다.First, the dictionary-based determining unit 300 analyzes whether or not profanity is included in the sentence applied by the pre-processing unit 200 in consideration of the fact that a sentence containing profanity is highly likely to be an hate sentence or an unethical sentence to be ethical or unethical. Determine whether it is ethical or not.

사전 기반 판별부(300)는 일예로 비속어 사전을 이용하여 문장 내의 비속어 포함 여부를 분석할 수 있다. 여기서 비속어 사전은 이미 공개된 비속어 사전을 이용하거나, 미리 작성되어 획득될 수 있으며, 경우에 따라서는 원본 학습용 텍스트 또는 자가 증식 텍스트로부터 미리 학습된 방식에 따라 비속어를 분류하여 비속어 사전을 생성하여 이용할 수 있다. 비속어 사전은 이미 작성되어 공개되어 있으며, 비속어 사전을 생성하는 방식 또한 공지된 기술이므로 여기서는 상세하게 설명하지 않는다.The dictionary-based determining unit 300 may analyze whether profanity is included in a sentence by using, for example, a profanity dictionary. Here, the profanity dictionary can be obtained by using an already published profanity dictionary or prepared in advance. have. The profanity dictionary has already been written and published, and the method of generating the profanity dictionary is also a known technique, so it will not be described in detail here.

이때 사전 기반 판별부(300)는 다양하게 변형되는 비속어에 대응할 수 있도록 완전히 일치하는 비속어만을 탐색하는 것이 아니라 비속의 사전에 등재된 비속어와 인가된 문장의 각 단어에 대해 N-그램(N-gram) 유사도 분석을 수행하여, 각 문장에 비속어의 포함 여부를 판정할 수 있다. 일예로 사전 기반 판별부(300)는 비속어 사전에 등재된 각 단어와 인가된 문장에 포함된 단어들을 비교하여 매칭 문자의 수를 기반으로 대응 여부를 판정하고, 판정 결과에 따라 해당 문장이 비윤리 문장인지 여부를 판별할 수 있다.At this time, the dictionary-based determining unit 300 does not search only profanity words that completely match so as to respond to profane words that are modified in various ways, but N-grams (N-grams) for each word of the profanity registered in the profanity dictionary and the approved sentence. ) by performing a similarity analysis, it is possible to determine whether profanity is included in each sentence. For example, the dictionary-based determining unit 300 compares each word listed in the profanity dictionary and the words included in the approved sentence to determine whether to correspond based on the number of matching characters, and according to the determination result, the corresponding sentence is unethical. You can determine whether it is a sentence or not.

학습 모델 기반 판별부(400)는 인가되는 문장의 각 단어를 임베딩하여 벡터화하고, 벡터화된 단어를 인가받아 문장 특징을 추출하고, 추출된 문장 특징 벡터를 기반으로 해당 문장이 비윤리 문장인지 여부를 판별한다.The learning model-based determining unit 400 embeds and vectorizes each word of the applied sentence, receives the vectorized word to extract sentence features, and determines whether the sentence is an unethical sentence based on the extracted sentence feature vector to determine

도 2를 참조하면, 학습 모델 기반 판별부(400)는 벡터 변환부(410)와 문장 특징 추출부(420) 및 특징 분류부(430)를 포함할 수 있다.Referring to FIG. 2 , the learning model-based determining unit 400 may include a vector converting unit 410 , a sentence feature extracting unit 420 , and a feature classifying unit 430 .

벡터 변환부(410)는 인가되는 문장에 포함된 단어 각각을 임베딩하여 벡터화함으로써 다수의 단어 벡터를 획득한다. 벡터 변환부(410)는 미리 학습된 임베딩 모델을 이용하여 문장 내의 단어 각각을 단어 벡터로 변환할 수 있다. 벡터 변환부(410)는 Word2Vec, fastText 등과 같이 단어를 단어 벡터로 변환하도록 공개된 임베딩 모델을 이용하여 단어를 단어 벡터로 변환할 수 있다.The vector conversion unit 410 obtains a plurality of word vectors by embedding and vectorizing each word included in the applied sentence. The vector conversion unit 410 may convert each word in a sentence into a word vector by using a pre-learned embedding model. The vector conversion unit 410 may convert a word into a word vector by using an embedding model published to convert a word into a word vector, such as Word2Vec or fastText.

문장 특징 추출부(420)는 벡터 변환부(410)로부터 단어 벡터를 인가받고 인가되는 단어 벡터의 특징을 누적하여 추출함으로써, 문장 특징 벡터를 획득한다.The sentence feature extracting unit 420 obtains a sentence feature vector by receiving a word vector from the vector converting unit 410 and accumulating and extracting features of the applied word vector.

문장 특징 추출부(420)는 패턴 추정 방식이 미리 학습된 인공 신경망으로 구현될 수 있으며, 특히 LSTM(Long Short Term Memory)으로 구현될 수 있다. LSTM은 순환 신경망(Recurrent Neural Network: RNN)이 장기간(Long Term) 특징을 반영할 수 있도록 개선된 구조를 갖는 신경망으로서, 이전 추출된 단어 벡터의 특징이 이후 입력되는 단어 벡터에 누적 반영됨으로써 문장 특징을 획득하기 용이하다는 장점이 있다.The sentence feature extractor 420 may be implemented as an artificial neural network in which a pattern estimation method has been previously learned, and in particular, may be implemented as a Long Short Term Memory (LSTM). The LSTM is a neural network with an improved structure so that the Recurrent Neural Network (RNN) can reflect the long-term characteristics, and the characteristics of the previously extracted word vectors are accumulated and reflected in the word vectors that are input later, thereby providing sentence characteristics. It has the advantage of being easy to obtain.

그리고 특징 분류부(430)는 문장 특징 추출부(420)에서 획득된 문장 특징 벡터를 인가받고, 미리 학습된 패턴 분류 방식에 따라 문장 특징 벡터를 분류하여, 윤리 또는 비윤리를 판별한다. 특징 분류부(430)는 인공 신경망의 완전 연결 레이어(Fully Connected layer)로 구현되어 문장 특징 벡터를 이진 분류함으로써, 윤리 또는 비윤리를 판별할 수 있다.In addition, the feature classifying unit 430 receives the sentence feature vector obtained from the sentence feature extracting unit 420, classifies the sentence feature vector according to a pre-learned pattern classification method, and determines ethics or unethics. The feature classifier 430 may be implemented as a fully connected layer of an artificial neural network and may discriminate ethics or unethics by binary classification of sentence feature vectors.

한편, 원문 기반 판별부(500)는 전처리부(200)로부터 문장을 인가받고, 인가된 문장을 자가 증식 장치에서 자가 증식 텍스트를 생성하기 위해 이용된 원문 학습 텍스트와 비교하여 가장 유사한 원문 학습 텍스트를 탐색한다. 그리고 탐색된 원문 학습 텍스트의 레이블에 따라 문장을 윤리 또는 비윤리로 판별한다. 여기서 원문 기반 판별부(500) 또한 N-그램 유사도 분석을 수행하여, 가장 유사한 원문 학습 텍스트를 판별할 수 있다.On the other hand, the original text-based determining unit 500 receives a sentence from the preprocessor 200, compares the approved sentence with the original learning text used to generate the self-multiplying text in the self-proliferation apparatus, and finds the most similar original learning text. Explore. And according to the label of the searched original learning text, the sentence is judged as ethical or unethical. Here, the text-based determining unit 500 may also perform N-gram similarity analysis to determine the most similar original text learning text.

판별 결과 비교부(600)는 사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500) 각각이 자가 증식 텍스트에 대해 비윤리 여부를 판별한 결과에 기초하여 인가된 자가 증식 텍스트의 윤리 또는 비윤리를 최종 판별한다.The determination result comparison unit 600 is applied based on the result of each of the dictionary-based determination unit 300, the learning model-based determination unit 400, and the text-based determination unit 500 determining whether the self-multiplying text is unethical. Finally, the ethical or unethical of the self-propagated text is determined.

여기서 판별 결과 비교부(600)는 단순히 사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500) 각각의 판별 결과를 기초로 다수결 원칙에 따라 자가 증식 텍스트의 윤리 또는 비윤리를 판별할 수 있다.Here, the determination result comparison unit 600 is simply based on the determination result of each of the dictionary-based determination unit 300, the learning model-based determination unit 400, and the text-based determination unit 500, based on the majority rule based on the ethics of self-propagated text. Or you can identify unethical.

그러나 경우에 따라서 판별 결과 비교부(600)는 사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500) 각각의 판별 결과에 서로 다른 가중치를 가중하여 자가 증식 텍스트의 윤리 또는 비윤리를 판별할 수도 있다. 즉 미리 설정되는 판별 결과의 중요도에 따라 사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500) 각각의 판별 결과에 서로 다른 가중치를 가중할 수 있다.However, in some cases, the determination result comparison unit 600 weights different weights to the respective determination results of the dictionary-based determination unit 300, the learning model-based determination unit 400, and the text-based determination unit 500 to self-multiply text. It is also possible to determine the ethical or unethical of That is, different weights may be weighted to the respective determination results of the dictionary-based determination unit 300 , the learning model-based determination unit 400 , and the text-based determination unit 500 according to the importance of the predetermined determination result.

일예로 사전 기반 판별부(300)의 경우, 이미 검증된 비속어 사전을 기반으로 하여 자가 증식 텍스트의 윤리 또는 비윤리를 판별하므로, 학습 모델 기반 판별부(400)나 원문 기반 판별부(500)에 비해 더 높은 가중치를 가중한 후, 가중치가 가중된 사전 기반 판별부(300), 학습 모델 기반 판별부(400) 및 원문 기반 판별부(500)의 판별 결과에서 윤리 또는 비윤리 중 더 높은 가중치가 부여된 결과를 선택할 수 있다.For example, in the case of the dictionary-based determination unit 300, since the ethics or unethics of the self-multiplying text are determined based on the already verified profanity dictionary, the learning model-based determination unit 400 or the original text-based determination unit 500 After weighting a higher weight compared to that, in the determination result of the weighted dictionary-based determining unit 300, the learning model-based determining unit 400, and the text-based determining unit 500, the higher weight of ethical or unethical is You can choose the given result.

한편, 레이블 비교부(700)는 판별 결과 비교부(600)에서 최종 판별된 결과와 텍스트 획득부(100)에 저장된 대응하는 자가 증식 텍스트의 레이블을 비교하여 동일하면, 자가 증식 텍스트의 레이블이 유효한 것으로 판정하고, 동일하지 않으면 유효하지 않은 것으로 판정한다.On the other hand, the label comparison unit 700 compares the result finally determined by the determination result comparison unit 600 with the label of the corresponding self-multiplying text stored in the text obtaining unit 100 and, if the same, the label of the self-multiplying text is valid. If it is not the same, it is judged as invalid.

레이블 비교부(700)는 다수의 자가 증식 텍스트의 레이블에 대한 판정 결과를 누적하여 자가 증식 장치에서 생성된 자가 증식 텍스트의 신뢰도를 계산할 수 있다. 일예로 전체 자가 증식 텍스트에서 유효한 것으로 판정된 자가 증식 텍스트의 비율로 자가 증식 텍스트의 신뢰도를 계산할 수 있다.The label comparator 700 may calculate the reliability of the self-multiplying text generated by the self-multiplying apparatus by accumulating determination results for labels of a plurality of self-multiplying texts. As an example, the reliability of the self-multiplying text may be calculated as a ratio of the self-multiplying text determined to be valid in the entire self-multiplying text.

도 3은 본 발명의 일 실시예에 따른 자가 증식된 텍스트 유효성 검증 방법을 나타낸다.3 shows a self-propagated text validation method according to an embodiment of the present invention.

도 1 및 도 2를 참조하여, 도 3의 자가 증식된 텍스트 유효성 검증 방법을 설명하면, 우선 윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 기반으로 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득한다(S11). 여기서 레이블은 자가 증식 텍스트 내의 문장 단위로 레이블링 될 수 있다.1 and 2, the self-propagated text validation method of FIG. 3 will be described. First, a plurality of self-propagated texts generated in a self-proliferating manner based on labeled learning texts with ethical or unethical validation in advance. to obtain (S11). Here, the label can be labeled on a per-sentence basis within the self-propagating text.

그리고 획득된 자가 증식 텍스트에 대해 부가 구성 요소 제거하고, 문장 단위로 구분하는 등의 기지정된 전처리 작업을 수행한다(S12).Then, a predetermined pre-processing operation such as removing additional components and dividing the obtained self-multiplying text into sentence units is performed (S12).

자가 증식 텍스트가 전처리되면, 전처리된 자가 증식 텍스트에 대해 서로 다른 지정된 방식으로 자가 증식 텍스트의 윤리 또는 비윤리를 판별한다.When the self-replicating text is preprocessed, the ethics or unethical of the self-replicating text is determined in a different specified manner for the preprocessed self-replicating text.

우선 비속어 사전을 이용하여 윤리 또는 비윤리를 판별한다. 비속어 사전을 이용하는 경우, 먼저 비속어 사전에 기재된 비속어와 기지정된 레벨 이상으로 유사 단어를 자가 증식 텍스트의 각 문장에서 탐색한다(S13). 그리고 탐색 결과에 기반하여 문장의 윤리 또는 비윤리를 판별한다(S14). 즉 비속어와 유사한 것으로 판별되는 단어가 탐색되면 비윤리로 판별하고, 탐색되지 않으면 윤리로 판별할 수 있다.First, use a dictionary of profanity to determine ethics or unethics. In the case of using the profanity dictionary, first, a word similar to the profanity described in the profanity dictionary at a predetermined level or higher is searched for in each sentence of the self-multiplying text ( S13 ). And based on the search result, it determines the ethics or unethics of the sentence (S14). That is, if a word determined to be similar to profanity is searched for, it is determined as unethical, and if it is not searched, it can be determined as ethical.

한편, 미리 학습된 학습 모델에 기반하여 자가 증식 텍스트의 윤리 또는 비윤리를 판별한다.On the other hand, based on the pre-trained learning model, the ethics or unethics of self-replicating texts are discriminated.

이를 위해 우선 자가 증식 텍스트의 각 문장에 포함된 단어를 미리 학습된 임베딩 모델을 이용하여 벡터화함으로써 다수의 단어 벡터를 획득한다(S15). 그리고 획득된 다수의 단어 벡터를 패턴 추정 방식이 미리 학습된 인공 신경망으로 입력하여 문장에 대한 특징을 나타내는 문장 특징 벡터를 획득한다(S16). 여기서 인공 신경망은 LSTM으로 구현될 수 있다.To this end, first, a plurality of word vectors are obtained by vectorizing the words included in each sentence of the self-multiplying text using a pre-learned embedding model (S15). Then, a plurality of obtained word vectors are input to an artificial neural network in which a pattern estimation method has been previously learned to obtain a sentence feature vector representing the characteristics of the sentence (S16). Here, the artificial neural network may be implemented as an LSTM.

문장 특징 벡터가 획득되면, 미리 학습된 패턴 분류 방식에 따라 문장 특징 벡터를 분류하여, 윤리 또는 비윤리를 판별한다(S17).When the sentence feature vector is obtained, the sentence feature vector is classified according to the pre-learned pattern classification method to determine ethics or unethical behavior (S17).

또한 자가 증식 텍스트를 생성하기 위해 이용된 원문 학습 텍스트를 이용하여 자가 증식 텍스트의 윤리 또는 비윤리를 판별한다.Also, by using the original learning text used to generate the self-replicating text, the ethics or unethical of the self-replicating text is determined.

즉 원문 학습 텍스트 중 인가된 자가 증식 텍스트와 가장 유사한 원문 학습 텍스트를 탐색한다(S18). 가장 유사한 원문 학습 텍스트가 탐색되면, 탐색된 원문 학습 텍스트의 레이블에 따라 문장을 윤리 또는 비윤리로 판별한다(S19).That is, the original learning text most similar to the authorized self-multiplying text among the original learning texts is searched (S18). When the most similar original learning text is searched, the sentence is determined as ethical or unethical according to the label of the searched original learning text (S19).

이후, 비속어 사전을 이용한 판별 결과와 학습 모델에 기반한 판별 결과 및 원문 학습 텍스트를 이용한 판별 결과를 기지정된 방식으로 조합하여 자가 증식 텍스트에 대한 윤리 또는 비윤리의 최종 판별 결과를 획득한다(S20). 여기서 최종 판별 결과는 다수결의 원칙에 따라 판별하거나, 각 판별 결과에 대해 기지정된 가중치를 할당하여 윤리 또는 비윤리 중 높은 가중치가 부가된 쪽을 최종 판별 결과로 획득할 수 있다.Thereafter, the determination result using the profanity dictionary, the determination result based on the learning model, and the determination result using the original learning text are combined in a predetermined manner to obtain the final determination result of ethics or unethics for the self-replicating text (S20). Here, the final determination result can be determined according to the principle of majority voting, or by assigning a predetermined weight to each determination result, the higher weight among ethical or unethical can be obtained as the final determination result.

최종 판별 결과가 획득되면, 획득된 최종 판별 결과와 자가 증식 텍스트의 레이블을 비교하여, 자가 증식 텍스트의 유효성을 판정한다(S21). 그리고 다수의 자가 증식 텍스트에 대한 유효성 판정 결과를 누적하여, 자가 증식 방식으로 생성된 자가 증식 텍스트의 신뢰도를 계산한다(S22).When the final determination result is obtained, the obtained final determination result and the label of the self-multiplying text are compared to determine the validity of the self-multiplying text (S21). Then, by accumulating the results of validity determination for a plurality of self-multiplying texts, the reliability of the self-multiplying texts generated by the self-multiplying method is calculated (S22).

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention may be implemented as a computer program stored in a medium for execution by a computer. Here, the computer-readable medium may be any available medium that can be accessed by a computer, and may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data, and read dedicated memory), RAM (Random Access Memory), CD (Compact Disk)-ROM, DVD (Digital Video Disk)-ROM, magnetic tape, floppy disk, optical data storage, and the like.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, which is only exemplary, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

100: 텍스트 획득부 200: 전처리부
300: 사전 기반 판별부 400: 학습 모델 기반 판별부
410: 벡터 변환부 420: 문장 특징 추출부
430: 특징 분류부 500: 원문 기반 판별부
600: 판별 결과 비교부 700: 레이블 비교부
100: text acquisition unit 200: pre-processing unit
300: dictionary-based discriminator 400: learning model-based discriminator
410: vector conversion unit 420: sentence feature extraction unit
430: feature classification unit 500: text-based discrimination unit
600: determination result comparison unit 700: label comparison unit

Claims (17)

윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 이용하여 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득하는 텍스트 획득부;
자가 증식 텍스트를 인가받고, 인가된 자가 증식 텍스트에서 미리 획득된 비속어 사전에 등재된 비속어와 기기정된 레벨 이상으로 유사한 단어를 탐색하여 상기 자가 증식 텍스트의 비윤리를 판별하는 사전 기반 판별부;
자가 증식 텍스트를 인가받아 단어 단위로 벡터화하고, 벡터화된 단어로부터 미리 학습된 패턴 추정 방식에 따라 문장 특징 벡터를 추출하여 상기 자가 증식 텍스트의 비윤리를 판별하는 학습 모델 기반 판별부;
상기 자가 증식 텍스트와 가장 유사한 학습용 텍스트를 탐색하고, 탐색된 학습용 텍스트의 레이블에 따라 상기 자가 증식 텍스트의 비윤리를 판별하는 원문 기반 판별부; 및
상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과를 조합하여, 상기 자가 증식 텍스트에 대한 최종 판별 결과를 획득하는 판별 결과 비교부를 포함하되,
상기 생성되는 자가 증식 텍스트 각각은 윤리 또는 비윤리로 레이블링되며,
상기 자가 증식 텍스트의 생성 시에 윤리 또는 비윤리로 레이블링된 레이블과 상기 최종 판별 결과를 비교하여 동일하면 상기 자가 증식 텍스트의 레이블이 유효한 것으로 판정하고, 동일하지 않으면 유효하지 않은 것으로 판정하는 레이블 비교부를 더 포함하는 자가 증식된 텍스트의 유효성 검증 장치.
a text acquisition unit for acquiring a plurality of self-multiplying texts generated in a self-replicating method using the labeled learning texts whose ethics or unethics are verified in advance;
a dictionary-based discriminating unit that receives permission from the self-multiplying text and searches for words similar to the profanity registered in the profanity dictionary acquired in advance from the approved self-proliferated text at a predetermined level or more to discriminate the unethical nature of the self-proliferated text;
a learning model-based discriminating unit that receives permission and vectorizes the self-multiplying text in word units, and extracts sentence feature vectors from the vectorized words according to a pre-learned pattern estimation method to determine the unethics of the self-multiplying text;
a text-based determination unit that searches for a learning text most similar to the self-multiplying text, and determines the unethicality of the self-multiplying text according to a label of the searched learning text; and
A determination result of obtaining a final determination result for the self-multiplying text by combining the results of determining the unethical of the self-multiplying text determined by each of the dictionary-based discriminating unit, the learning model-based discriminating unit, and the original text-based discriminating unit including a comparator,
each of the generated self-replicating texts is labeled as ethical or unethical;
A label comparison unit that compares the label labeled as ethical or unethical when generating the self-multiplying text and the final determination result and determines that the label of the self-multiplying text is valid, and determines that the label of the self-multiplying text is not valid if it is not the same Further comprising self-propagated text validation device.
제1 항에 있어서, 상기 사전 기반 판별부는
상기 비속의 사전에 등재된 비속어와 상기 자가 증식 텍스트의 각 단어에 대해 N-그램 유사도 분석을 수행하여, 상기 자가 증식 텍스트에 비속어의 포함 여부를 판정하고, 비속어가 포함된 것으로 판정되면, 상기 자가 증식 텍스트를 비윤리로 판별하는 자가 증식된 텍스트의 유효성 검증 장치.
The method of claim 1, wherein the dictionary-based determining unit
An N-gram similarity analysis is performed on the profanity registered in the dictionary of profanity and each word of the self-multiplying text, and it is determined whether or not profanity is included in the self-multiplying text, and when it is determined that profanity is included, the self A self-propagated text validation device that discriminates the propagated text as unethical.
제1 항에 있어서, 상기 학습 모델 기반 판별부는
상기 자가 증식 텍스트의 각 단어를 임베딩하여 벡터화함으로써 다수의 단어 벡터를 획득하는 벡터 변환부;
미리 학습된 패턴 추정 방식에 따라 상기 다수의 단어 벡터의 특징을 누적하여 추출함으로써, 상기 문장 특징 벡터를 획득하는 문장 특징 추출부; 및
미리 학습된 패턴 분류 방식에 따라 상기 문장 특징 벡터를 분류하여, 상기 자가 증식 텍스트의 비윤리를 판별하는 특징 분류부를 포함하는 자가 증식된 텍스트의 유효성 검증 장치.
The method of claim 1, wherein the learning model-based determining unit
a vector converter for obtaining a plurality of word vectors by embedding and vectorizing each word of the self-multiplying text;
a sentence feature extractor configured to acquire the sentence feature vector by accumulating and extracting features of the plurality of word vectors according to a pre-learned pattern estimation method; and
Validation apparatus for self-propagated text, comprising: a feature classifier configured to classify the sentence feature vector according to a pre-learned pattern classification scheme to discriminate unethical behavior of the self-multiplying text.
제3 항에 있어서, 상기 문장 특징 추출부는
LSTM(Long Short Term Memory)으로 구현되는 자가 증식된 텍스트의 유효성 검증 장치.
The method of claim 3, wherein the sentence feature extraction unit
A self-propagated text validation device implemented with LSTM (Long Short Term Memory).
제1 항에 있어서, 상기 판별 결과 비교부는
상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과에 대해 다수결 원칙을 적용하여 상기 최종 판별 결과를 획득하는 자가 증식된 텍스트의 유효성 검증 장치.
The method of claim 1, wherein the determination result comparison unit
Self-propagated text that obtains the final determination result by applying the majority rule to the result of determining the unethical of the self-multiplying text determined by each of the dictionary-based discriminating unit, the learning model-based discriminating unit, and the original text-based discriminating unit 's validation device.
제1 항에 있어서, 상기 판별 결과 비교부는
상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과에 각각에 대해 기지정된 서로 다른 가중치를 할당하고, 할당된 가중치에 따라 윤리 또는 비윤리 중 더 높은 가중치가 할당된 결과를 상기 최종 판별 결과로 획득하는 자가 증식된 텍스트의 유효성 검증 장치.
The method of claim 1, wherein the determination result comparison unit
Allocating different predetermined weights to the results of determining the unethics of the self-multiplying texts determined by each of the dictionary-based determining unit, the learning model-based determining unit, and the text-based determining unit, and according to the assigned weights A self-propagated text validation device that obtains a result assigned with a higher weight among ethical or unethical as the final determination result.
삭제delete 제1 항에 있어서, 상기 레이블 비교부는
다수의 자가 증식 텍스트의 레이블에 대한 유효 판정 결과에 따라 자가 증식 텍스트의 신뢰도를 계산하는 자가 증식된 텍스트의 유효성 검증 장치.
The method of claim 1, wherein the label comparison unit
A validation device for self-multiplying texts that calculates the reliability of self-multiplying texts according to the validation results for labels of a plurality of self-multiplying texts.
제1 항에 있어서, 상기 자가 증식된 텍스트의 유효성 검증 장치는
상기 텍스트 획득부에서 획득된 자가 증식 텍스트에 대해 부가 구성 요소 제거하고, 문장 단위로 구분하여 상기 사전 기반 판별부, 상기 학습 모델 기반 판별부 및 상기 원문 기반 판별부 각각으로 전달하는 전처리부를 더 포함하는 자가 증식된 텍스트의 유효성 검증 장치.
According to claim 1, wherein the self-propagated text validation device is
Further comprising a preprocessing unit that removes additional components from the self-multiplying text obtained in the text acquisition unit, divides them into sentence units, and transmits them to each of the dictionary-based determining unit, the learning model-based determining unit, and the original text-based determining unit Self-propagated text validation device.
자가 증식된 텍스트의 유효성 검증 장치에서 수행되는 자가 증식된 텍스트의 유효성 검증 방법으로서,
윤리 또는 비윤리가 미리 검증되어 레이블된 학습용 텍스트를 이용하여 자가 증식 방식으로 생성된 다수의 자가 증식 텍스트를 획득하는 자가 증식 텍스트 획득 단계;
자가 증식 텍스트에서 미리 획득된 비속어 사전에 등재된 비속어와 기기정된 레벨 이상으로 유사한 단어를 탐색하여, 상기 자가 증식 텍스트의 비윤리를 판별하는 사전 기반 판별 단계;
자가 증식 텍스트를 인가받아 단어 단위로 벡터화하고, 벡터화된 단어로부터 패턴 추정 방식이 미리 학습된 학습 모델을 이용하여 문장 특징 벡터를 추출하고, 추출된 문장 특징에 기반하여 상기 자가 증식 텍스트의 비윤리를 판별하는 학습 모델 기반 판별 단계;
상기 자가 증식 텍스트와 가장 유사한 학습용 텍스트를 탐색하고, 탐색된 학습용 텍스트의 레이블에 따라 상기 자가 증식 텍스트의 비윤리를 판별하는 원문 기반 판별 단계; 및
상기 사전 기반 판별 단계, 상기 학습 모델 기반 판별 단계 및 상기 원문 기반 판별 단계 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과를 조합하여, 상기 자가 증식 텍스트에 대한 최종 판별 결과를 획득하는 최종 판별 단계를 포함하되,
상기 생성되는 자가 증식 텍스트 각각은 윤리 또는 비윤리로 레이블링되며,
상기 자가 증식 텍스트의 생성 시에 윤리 또는 비윤리로 레이블링된 레이블과 상기 최종 판별 결과를 비교하여 동일하면 상기 자가 증식 텍스트의 레이블이 유효한 것으로 판정하고, 동일하지 않으면 유효하지 않은 것으로 판정하는 레이블 비교 단계를 더 포함하는 자가 증식된 텍스트의 유효성 검증 방법.
A method for validating self-propagated text, which is performed in an apparatus for validating self-propagated text, the method comprising:
A self-multiplying text acquisition step of acquiring a plurality of self-replicating texts generated by a self-replicating method using the text for learning that is ethical or unethical and labeled in advance;
A dictionary-based determination step of determining the unethics of the self-multiplying text by searching for words similar to the profanity registered in the profanity dictionary acquired in advance at a predetermined level or more in the self-multiplying text;
The self-propagated text is received and vectorized in word units, a sentence feature vector is extracted from the vectorized word using a learning model in which a pattern estimation method has been previously learned, and the unethical nature of the self-propagated text is determined based on the extracted sentence characteristics. a learning model-based determination step to determine;
a text-based determination step of searching for a learning text most similar to the self-multiplying text, and discriminating the unethicality of the self-multiplying text according to a label of the searched learning text; and
Final determination to obtain a final determination result for the self-multiplying text by combining the results of the determination of the unethical of the self-propagated text determined in each of the dictionary-based determination step, the learning model-based determination step, and the text-based determination step comprising steps,
each of the generated self-replicating texts is labeled as ethical or unethical;
A label comparison step of comparing the label labeled as ethical or unethical when generating the self-multiplying text with the final determination result and determining that the label of the self-multiplying text is valid if it is the same, and determining that the label of the self-multiplying text is invalid if not identical Validation method of self-propagated text further comprising a.
제10 항에 있어서, 상기 사전 기반 판별 단계는
상기 비속의 사전에 등재된 비속어와 상기 자가 증식 텍스트의 각 단어에 대해 N-그램 유사도 분석을 수행하여, 상기 자가 증식 텍스트에 비속어의 포함 여부를 판정하는 단계; 및
비속어가 포함된 것으로 판정되면, 상기 자가 증식 텍스트를 비윤리로 판별하는 단계를 포함하는 자가 증식된 텍스트의 유효성 검증 방법.
11. The method of claim 10, wherein the dictionary-based determining step
performing N-gram similarity analysis on the profanity registered in the dictionary of profanity and each word of the self-multiplying text, and determining whether the self-multiplying text includes the profanity; and
If it is determined that profanity is included, a method for validating the self-propagated text comprising the step of determining the self-proliferated text as unethical.
제10 항에 있어서, 상기 학습 모델 기반 판별 단계는
상기 자가 증식 텍스트의 각 단어를 임베딩하여 벡터화함으로써 다수의 단어 벡터를 획득하는 단계;
패턴 추정 방식이 미리 학습된 학습 모델을 이용하여 상기 다수의 단어 벡터의 특징을 누적하여 추출함으로써, 상기 문장 특징 벡터를 획득하는 단계; 및
미리 학습된 패턴 분류 방식에 따라 상기 문장 특징 벡터를 분류하여, 상기 자가 증식 텍스트의 비윤리를 판별하는 단계를 포함하는 자가 증식된 텍스트의 유효성 검증 방법.
The method of claim 10, wherein the learning model-based determination step
obtaining a plurality of word vectors by embedding and vectorizing each word of the self-multiplying text;
obtaining the sentence feature vector by accumulating and extracting features of the plurality of word vectors using a learning model in which a pattern estimation method has been previously learned; and
Classifying the sentence feature vector according to a pre-learned pattern classification method, the method of validating the self-propagated text comprising the step of discriminating the unethical of the self-propagated text.
제12 항에 있어서, 상기 학습 모델은
LSTM(Long Short Term Memory)으로 구현되는 자가 증식된 텍스트의 유효성 검증 방법.
13. The method of claim 12, wherein the learning model is
Validation method of self-propagated text implemented with LSTM (Long Short Term Memory).
제10 항에 있어서, 상기 최종 판별 단계는
상기 사전 기반 판별 단계, 상기 학습 모델 기반 판별 단계 및 상기 원문 기반 판별 단계 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과에 대해 다수결 원칙을 적용하여 상기 최종 판별 결과를 획득하는 자가 증식된 텍스트의 유효성 검증 방법.
11. The method of claim 10, wherein the final determination step
Self-propagated text to obtain the final determination result by applying the majority rule to the determination result of the unethical self-multiplying text determined in each of the dictionary-based determination step, the learning model-based determination step, and the text-based determination step of validation methods.
제10 항에 있어서, 상기 최종 판별 단계는
상기 사전 기반 판별 단계, 상기 학습 모델 기반 판별 단계 및 상기 원문 기반 판별 단계 각각에서 판별된 상기 자가 증식 텍스트의 비윤리를 판별 결과에 각각에 대해 기지정된 서로 다른 가중치를 할당하는 단계; 및
할당된 가중치에 따라 윤리 또는 비윤리 중 더 높은 가중치가 할당된 결과를 상기 최종 판별 결과로 획득하는 자가 증식된 텍스트의 유효성 검증 방법.
11. The method of claim 10, wherein the final determination step
allocating different predetermined weights to the results of determining the unethics of the self-multiplying text determined in each of the dictionary-based determination step, the learning model-based determination step, and the text-based determination step; and
A method for validating self-propagated texts in which a result to which a higher weight of ethical or unethical is assigned according to the assigned weight is obtained as the final determination result.
삭제delete 제10 항에 있어서, 상기 자가 증식된 텍스트의 유효성 검증 방법은
다수의 자가 증식 텍스트의 레이블에 대한 유효 판정 결과에 따라 자가 증식 텍스트의 신뢰도를 계산하는 신뢰도 계산 단계를 더 포함하는 자가 증식된 텍스트의 유효성 검증 방법.
11. The method of claim 10, wherein the validation method of the self-propagated text is
The validation method of the self-multiplied text further comprising a reliability calculation step of calculating the reliability of the self-multiplying text according to a result of the validation of a plurality of self-multiplying text labels.
KR1020190151952A 2018-11-27 2019-11-25 Apparatus and method for validating self-propagated unethical text KR102334018B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180148087 2018-11-27
KR20180148087 2018-11-27

Publications (2)

Publication Number Publication Date
KR20200063067A KR20200063067A (en) 2020-06-04
KR102334018B1 true KR102334018B1 (en) 2021-12-02

Family

ID=71081154

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190151952A KR102334018B1 (en) 2018-11-27 2019-11-25 Apparatus and method for validating self-propagated unethical text

Country Status (1)

Country Link
KR (1) KR102334018B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563376B1 (en) * 2020-11-25 2023-08-02 연세대학교 산학협력단 Neural Network Learning Method for Sentence Data Classification and Class Dictionary Generation
KR102410582B1 (en) * 2021-10-29 2022-06-22 주식회사 튜닙 Apparatus, method and computer program for augmenting learning data for harmful words
KR102618060B1 (en) * 2023-03-21 2023-12-27 (주)노웨어소프트 Apparatus and method for filtering profanity based on artificial intelligence algorithm

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101913284B1 (en) * 2017-11-29 2018-10-30 충남대학교산학협력단 METHOD AND APPARATUS FOR DETECTING SPAM OF Social Network Service

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101695014B1 (en) * 2011-08-24 2017-01-10 한국전자통신연구원 Method for building emotional lexical information and apparatus for the same
KR101991486B1 (en) * 2015-12-18 2019-06-20 한국전자통신연구원 Sentence similarity-based polysemy database expansion apparatus and method therefor
KR101886373B1 (en) * 2016-07-14 2018-08-09 주식회사 언더핀 Platform for providing task based on deep learning
KR102049660B1 (en) 2018-03-16 2019-11-28 한국과학기술원 Method and Apparatus for Explicit Lyrics Classification Using Automated Explicit Lexicon Generation and Machine Learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101913284B1 (en) * 2017-11-29 2018-10-30 충남대학교산학협력단 METHOD AND APPARATUS FOR DETECTING SPAM OF Social Network Service

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
부석준 외 3명, "비윤리적 SNS 댓글 분류를 위한구문기반 CNN 과 의미기반 LSTM 의 앙상블 기법", 2017.05.31., pp.6-19. 1부.*

Also Published As

Publication number Publication date
KR20200063067A (en) 2020-06-04

Similar Documents

Publication Publication Date Title
CN106328147B (en) Speech recognition method and device
CN110147726B (en) Service quality inspection method and device, storage medium and electronic device
KR102334018B1 (en) Apparatus and method for validating self-propagated unethical text
CN112347244B (en) Yellow-based and gambling-based website detection method based on mixed feature analysis
CN111126396A (en) Image recognition method and device, computer equipment and storage medium
CN111428028A (en) Information classification method based on deep learning and related equipment
KR102111858B1 (en) Method and system for authenticating stroke-based handwritten signature using machine learning
CN110858217A (en) Method and device for detecting microblog sensitive topics and readable storage medium
KR20220000946A (en) Explorable active learning method using Bayesian dual autoencoder for object detector and active learning device using same
CN112541476A (en) Malicious webpage identification method based on semantic feature extraction
CN111221960A (en) Text detection method, similarity calculation method, model training method and device
CN116150651A (en) AI-based depth synthesis detection method and system
KR102405522B1 (en) Apparatus and method for contextual unethical detection reflecting hierarchical characteristics of text
CN116663549B (en) Digitized management method, system and storage medium based on enterprise files
JP4703487B2 (en) Image classification method, apparatus and program
KR101925252B1 (en) Speaker comfirmation dualization method and apparatus utilizing voice feature vector and parameter
CN111209373A (en) Sensitive text recognition method and device based on natural semantics
CN116722992A (en) Fraud website identification method and device based on multi-mode fusion
CN116232644A (en) AI-based phishing behavior analysis method and system
KR102225019B1 (en) Apparatus and method for detecting unethical language based on learning
CN111695117B (en) Webshell script detection method and device
CN112035670B (en) Multi-modal rumor detection method based on image emotional tendency
KR20220109938A (en) Apparatus and method for validating propagated wrong text
KR20220109182A (en) Apparatus and method for validating propagated wrong text
CN114330319A (en) Entity processing method, entity processing device, electronic equipment and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant