KR101715118B1 - 문서 감정 분류용 딥러닝 인코딩 장치 및 방법. - Google Patents

문서 감정 분류용 딥러닝 인코딩 장치 및 방법. Download PDF

Info

Publication number
KR101715118B1
KR101715118B1 KR1020160140376A KR20160140376A KR101715118B1 KR 101715118 B1 KR101715118 B1 KR 101715118B1 KR 1020160140376 A KR1020160140376 A KR 1020160140376A KR 20160140376 A KR20160140376 A KR 20160140376A KR 101715118 B1 KR101715118 B1 KR 101715118B1
Authority
KR
South Korea
Prior art keywords
document
lstm
weight
calculating
calculated
Prior art date
Application number
KR1020160140376A
Other languages
English (en)
Inventor
노웅기
강상우
Original Assignee
가천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가천대학교 산학협력단 filed Critical 가천대학교 산학협력단
Priority to KR1020160140376A priority Critical patent/KR101715118B1/ko
Application granted granted Critical
Publication of KR101715118B1 publication Critical patent/KR101715118B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06F17/2705
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

본 기술은 문서 감정 분류용 딥러닝 인코딩 장치 및 방법에 관한 것이다. 본 기술의 구현 예에 따르면, LSTM(Long Short Term Memory) 들로 구성되는 LSTM 시퀀스부, LSTM에 저장된 정보에 대하여 중요도에 따른 가중치를 산출하는 가중치 산출부, 가중치 산출부로부터 산출된 가중치와 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출하는 문서 벡터 산출부를 포함하여 길이가 긴 문서에서도 높은 정확도를 유지하고, 구, 절 혹은 이모티콘이 갖는 감정을 효과적으로 판단할 수 있어 더욱 효율적인 문서의 자동 감정 분류를 가능하게 할 수 있는 이점이 있다.

Description

문서 감정 분류용 딥러닝 인코딩 장치 및 방법. {Deep Learning Encoding Device and Method for Sentiment Classification of Document}
문서 감정 분류용 딥러닝 인코딩 장치 및 방법에 관한 것으로, 더욱 상세하게는 감정 분류 대상인 문서의 길이가 길어지거나 문장 구성 요소로 이모티콘, 한 단어 이상으로 구성되는 구와 절을 포함하더라도 성능이 떨어지지 않도록 하는 문서 감정 분류용 딥러닝 인코딩 장치 및 방법에 관한 것이다.
감정 분류(Sentiment Classification)는 문서에서 드러난 필자의 긍정 도는 부정적 감정을 분석하여, 이를 자동으로 분류하는 연구이다.
기존의 감정 분류 연구에는 감정 사전, 워드넷 등의 영역 의존 지식을 사용하거나, 의존 구문구조 같은 통사적 정보를 사용하였다. 근래에는 감정 분류에 딥러닝 인코더를 적용하려는 연구가 활발히 진행되고 있다.
딥러닝 인코더는 딥러닝 기술을 사용해서 가변 길이 문서를 고정 길이 문서 벡터로 표현하는 방법으로, 감정 분류 분야에서 우수한 성능을 보여줄 수 있다. 하지만 전체 문서 시퀀스의 마지막 출력을 문서 벡터로 간주하는 LSTM(Long Short Term Momory) 인코딩 장치의 경우, 입력이 길어짐에 따라 초기에 입력된 패턴의 인식률이 급격히 저하되어, 긴 문서의 인코딩 장치로는 적합하지 않은 문제점이 있다.
이러한 문제점을 해결하기 위해 LSTM Attention 인코딩 장치를 사용하여 문서 벡터를 생성하는 방법을 제안되었다. LSTM Attention 인코딩 장치는 LSTM의 시간 별 출력 결과를 그 중요도에 따라 가중치를 부여하고, 가중치와 출력 결과의 가중치 합으로 문서 벡터를 생성하는 모델이다.
문서에서 감정을 나타내는 구성 요소는 한 단어 인 경우도 있으나, 많은 문서에서 감정을 표현하는 문장 구성 요소는 이모티콘, 구, 절과 같이 한 단어 이상으로 구성되는 실정이다. 그러나 LSTM Attention 인코딩 장치 등 종래의 딥러딩 인코딩 장치들은 문서 내 단어의 가중치를 계산하는 모델로서 한 단어가 갖는 감정을 판별하기에는 좋으나, 구, 절 혹은 이모티콘이 갖는 감정을 효과적으로 판단하는데 있어서 여전히 적절하지 못한 문제점이 있다.
도 1은 종래 기술에 따른 LSTM 인코딩 장치의 LSTM 인코더 구조에 대한 개념도를 도시한다.
도 1을 참조하면, LSTM 인코더 구조를 모델로 하는 LSTM 인코딩 장치는 문서의 길이가 n인 경우 전체 LSTM 시퀀스의 마지막 LSTM의 출력 값
Figure 112016104422037-pat00001
을 문서 벡터로 사용하게 됨에 따라 초기에 입력된 패턴의 인식률이 급격히 저하되어 긴 문서의 인코딩 장치로는 적합하지 않다.
도 2은 LSTM Attention 인코딩 장치의 LSTM Attention 인코더 구조에 대한 개념도를 도시한다. 도 2를 참조하면 “I hate this.”라는 문서가 입력될 경우, ‘hate’의 가중치는 ‘I’, ‘this’, ‘.’ 보다 큰 값을 갖게된다. 결과적으로, ‘hate’가 다른 단어들보다 강조되어, 입력 문서가 부정적인 문서로 분류된다. 이러한 구조는 한 단어가 갖는 감정을 판별 하기에는 효과적이나, 이모티콘을 빈번하게 사용하는 인터넷 언어 문화에 있어서 이모티콘이 가지는 감정 판별에 효과적이지 못하며, 구와 절의 감정을 판별하는데 있어서도 효과적이지 못하다.
1. 한국등록특허 제10-1465756호 (감정 분석 장치 및 방법과 이를 이용한 영화 추천 방법)
1.Wollmer, Martin, et al. "Youtube movie reviews: Sentiment analysis in an audio-visual context." Intelligent Systems, IEEE 28.3, pp.46-53, 2013 2. Graves, Alex, Greg Wayne, and Ivo Danihelka. "Neural turing machines." arXiv preprint arXiv:1410.5401, 2014.
본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 길이가 긴 문서에서도 높은 정확도를 유지하고, 구, 절 혹은 이모티콘이 갖는 감정을 효과적으로 판단할 수 있도록 하는 문서의 감정 분류용 딥러닝 인코딩 장치 및 방법을 제공하는데 그 목적이 있다.
상기와 같은 목적을 달성하기 위한 본 발명은 감정 분류할 문서의 단어 또는 문자가 아닌 기호를 정보로 저장하고, 선택적으로 갱신하는 LSTM(Long Short Term Memory) 들로 구성되는 LSTM 시퀀스부; 상기 LSTM에 저장된 정보에 대하여 중요도를 산출하고, 산출된 상기 중요도로부터 가중치를 산출하는 가중치 산출부; 및 상기 가중치 산출부로부터 산출된 가중치와 상기 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출하는 문서 벡터 산출부;를 포함하고, 상기 가중치 산출부는, 상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 중요도 및 가중치를 산출하는 것이고, 상기 문서 벡터 산출부는, 상기 LSTM을 소정 크기의 윈도우 단위로 결합한 출력 값으로부터 문서 벡터를 산출하는 것을 특징으로 한다.
바람직하게는, 상기 가중치 산출부는, 학습 데이터에 대한 과적합을 방지하기 위하여 상기 가중치를 소정의 문서길이에 따른 적응적 평활 값에 따라 재조정하여 산출하는 것을 특징으로 할 수 있다.
또한 본 발명의 다른 실시예 따른 문서 감정 분류용 딥러닝 인코딩 방법은 LSTM 시퀀스의 LSTM들에 감정 분류할 문서의 단어 또는 문자가 아닌 기호를 정보로 저장하고, 선택적으로 갱신하는 단계; 상기 LSTM에 저장된 정보에 대하여 중요도를 산출하고, 산출된 상기 중요도로부터 가중치를 산출하는 단계 및 산출된 상기 가중치와 상기 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출하는 단계;를 포함하고, 상기 가중치를 산출하는 단계는, 상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 중요도 및 가중치를 산출하는 것이고, 상기 문서 벡터를 산출하는 단계는, 상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 산출된 출력 값으로부터 문서 벡터를 산출하는 것을 특징으로 한다.
바람직하게는, 상기 가중치를 산출하는 단계는, 학습 데이터에 대한 과적합을 방지하기 위하여 상기 가중치를 소정의 문서길이에 따른 적응적 평활 값에 따라 재조정하여 산출하는 것일 수 있다.
전술한 바와 같은 본 발명에 따르면, 평균 문서 길이가 몇 백 단어에 달하는 길이의 문서에서도 높은 정확도를 가지며 이모티콘, 구, 절과 같이 한 단어 이상으로 구성되는 문장 구성 요소의 감정을 효과적으로 판단하여 더욱 효율적인 문서의 자동 감정 분류를 가능하게 할 수 있는 이점이 있다.
도 1은 LSTM 인코더 구조에 대한 개념도이다.
도 2는 LSTM Attention 인코더 구조에 대한 개념도이다.
도 3은 본 발명의 일 실시예에 따른 LSTM Window Attention 인코더 구조에 대한 개념도이다.
도 4는 본 발명에 따른 문서 감정 분류용 딥러닝 인코딩 장치의 블록도이다.
도 5는 본 발명에 따른 검증 데이터에서 문서길이에 따른 적응적 평활 값의 성능을 도시하는 그래프이다.
도 6은 본 발명의 다른 실시예에 따른 문서 감정 분류용 딥러닝 인코딩 방법의 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.
본 발명의 실시예에 따른 딥러닝 인코딩 장치는 LSTM Window Attention 인코더 구조를 이용한다.
도 3은 본 발명의 실시예에 따른 LSTM Window Attention 인코딩 장치의 LSTM Window Attention 인코더 구조에 대한 개념도를 도시한다.
도 4는 본 발명의 실시예에 따른 문서 감정 분류용 딥러닝 인코딩 장치의 블록도를 도시한다.
도 4를 참조하면, 본 발명에 따른 딥러닝 인코딩 장치는 LSTM 시퀀스부(100), 가중치 산출부(200), 문서 벡터 산출부(300)를 포함한다.
LSTM 시퀀스부(100)는 감정 분류할 문서를 이루는 단어 및 문자가 아닌 기호를 입력 받아 선택적으로 갱신 및 저장하는 딥러닝 구조인 LSTM(Long Short Term Memory)들로 구성된다.
LSTM은 정보를 저장하는 셀 상태(Cell state)의 선택적인 갱신으로 RNN(Recurrent Neural Network)의 장기 의존성을 회피하는 딥러닝 구조로서 아래의 수학식 1과 같이 동작한다.
수학식 1
Figure 112016104422037-pat00002
가중치 산출부(200)는 LSTM에 저장된 정보에 대하여 중요도를 산출하고, 산출된 상기 중요도로부터 가중치를 산출한다.
각 LSTM의 정보에 대한 중요도는 아래 수학식 2의 함수 f에 따라 산출될 수 있다. 또한 함수 f는 i번째 LSTM에 저장된 정보에 대한 출력 값인
Figure 112016104422037-pat00003
의 중요도를 FFNN(Feed Forward Neural Network)를 이용하여 산출할 수 있다.
수학식 2
Figure 112016104422037-pat00004
가중치는 중요도 함수의 출력에 수학식 3과 같은 softmax 함수를 적용하여 산출될 수 있다. softmax 함수는 n개의 값이 존재할 때, 각각의 값의 편차를 확대시켜 큰 값은 상대적으로 더 크게, 작은 값은 상대적으로 더 작게 만든 다음 정규화 하는 함수이다. 즉, softmax 함수는 중요도를 확률 변수화 시킨다.
또한, 가중치 산출부(200)는 LSTM을 소정 크기의 윈도우 단위로 결합하여 가중치를 산출한다.
윈도우는 LSTM을 소정의 크기만큼 결합하는 단위이다. 도 3의 구조도를 참조하면 윈도우는 LSTM을 3개 단위로 결합할 수 있고, 각 윈도우 간에는 중첩되는 LSTM이 있을 수 있다.
예를 들면 3개 크기의 윈도우 단위로 LSTM을 결합한 가중치
Figure 112016104422037-pat00005
는 아래의 수학식 3에 따라 산출될 수 있다. 실시예에서 함수 f는 인접한 3개의 LSTM의 출력 값이 결합된
Figure 112016104422037-pat00006
를 입력 받을 수 있다. 일 실시예에서
Figure 112016104422037-pat00007
는 3개의 LSTM을 결합하는 윈도우의 가중치 값이다.
수학식 3
Figure 112016104422037-pat00008
본 발명은 윈도우 단위로 LSTM을 결합하여 중요도와 가중치를 산출함에 따라 여러 단어 내지 여러 문자 이외의 기호로 구성되는 구, 절 혹은 이모티콘이 갖는 감정도 효과적으로 판단할 수 있다.
또한, 가중치 산출부(200)는 학습 데이터에 대한 과적합을 방지하기 위하여 상기 가중치를 문서길이에 따른 적응적 평활(adaptive smoothing) 값에 따라 재조정하여 산출하는 것일 수 있다.
윈도우 단위로 LSTM을 결합하여 가중치를 산출하는 경우에 대부분의 구문의 가중치가 0에 가까운 값을 가지는 문제가 발생할 수 있다. 본 발명에 따른 문서 감정 분류용 딥러닝 인코딩 장치는 문서 길이에 따른 적응적 평활 값에 따라 가중치를 재조정 하여 학습 데이터 과적합을 해결함으로써 문서 감정 분류의 정확도를 더욱 높일 수 있다. 예를 들면, 적응적 평활 값은 0.1/문서길이로 설정될 수 있으며 검증 데이터에서 가장 높은 결과를 보인 값을 소정의 값으로 선택할 수 있다.
문서 벡터 산출부(300)는 가중치 산출부(200)로부터 산출된 가중치와 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출한다.
또한 문서 벡터 산출부(300)는 LSTM을 소정 크기의 윈도우 단위로 결합하여 산출된 출력 값으로부터 문서 벡터를 산출한다.
예를 들면, 길이 n인 문서에 대한 문서 벡터 c는 LSTM을 3개 크기의 윈도우 단위로 결합한 출력 값인
Figure 112016104422037-pat00009
로부터 아래 수학식 4에 따라 산출될 수 있다.
수학식 4
Figure 112016104422037-pat00010
또한, 본 발명에 따른 문서 감정 분류 시스템은 상기와 같은 LSTM 시퀀스부(100), 가중치 산출부(200), 문서 벡터 산출부(300)를 포함하는 문서 감정 분류용 딥러닝 인코딩 장치(10)를 이용하며, 문서입력부를 통해 문서 감정 분류용 딥러닝 인코딩 장치(10)에 감정 분류 대상인 문서를 입력하여 산출된 문서 벡터를 이용하여 감정분류부가 문서의 감정을 분류할 수 있다.
실험 및 결과
IMDB movie review 말뭉치를 대상으로 본 발명의 일 실시예에 따른 문서 감정 분류 시스템에 대하여 성능을 평가하였다. 일 실시예에서 말뭉치는 평균적으로 문서당 254 단어를 가지며, 학습 데이터 24,600 문서, 실험 데이터 25,000 문서, 검증 데이터 400 문서로 구성하였다.
공지의 딥러닝 구조에 있어서 워드 임베딩 크기는 100, 은닉 노드의 개수는 100개, FFNN의 은닉 노드의 개수는 200개로 구성하였으며 FFNN의 drop rate는 0.5로 설정하였다.
본 발명에 따른 윈도우 크기는 3, 평활 값은 도 5를 참조하면, 검증 데이터에서 가장 높은 결과를 보인 0.1/문서길이로 설정하였다.
표 1은 본 발명의 LSTM Window Attention 인코더 구조를 모델로 하는 딥러닝 인코딩 장치를 이용하여 문서 감정을 분류하는 문서 감정 분류 시스템과 다른 인코더를 모델로 이용하는 시스템의 실험 결과이다.
SVM(Support Vector Machine)의 자질로 unigram과 uni-gram + bi-gram을 사용하는 경우의 성능은 86.59%, 86.95%를 나타났다. 그리고 LSTM 인코더를 모델로 하는 시스템의 경우는 86.5%의 정확도를 보여, 성능이 매우 떨어지는 것을 확인 할 수 있었다. 그러나 본 발명에 따른 문서 감정 분류 시스템의 성능은 89.67%로 LSTM 인코더를 모델로 하는 시스템보다 3.17%p 성능이 향상 되었다. 이는 LSTM 인코더가 전체 시퀀스의 마지막 출력을 문서 벡터로 간주하여, 입력 문서가 길어지면 초기 입력 패턴 인식률이 떨어지기 때문이다. 반면, 본 발명에 따른 문서 감정 분류 시스템이 이용하는 LSTM Window Attention 인코더 구조는 입력 순서, 문서 길이와 상관없이 가중치 학습을 통해 단서 구문을 결정하도록 하기 때문에, LSTM 인코더를 이용하는 시스템 보다 높은 성능을 보인다. 또한, 본 발명에 따른 문서 감정 분류 시스템은 기존에 제안된 딥러딩 인코더인 Paragraph Vector, DCNN 모델을 이용하는 시스템 보다 더 높은 성능을 보였다.
표 1
Figure 112016104422037-pat00011
도 6은 도 4에 도시된 문서 감정 분류용 딥러닝 인코딩 장치에 대한 동작 과정을 보인 흐름도로서, 도 6을 참조하여 본 발명의 다른 실시예에 따른 문서 감정 분류용 딥러닝 인코딩 방법을 설명한다.
우선, LSTM 시퀀스의 LSTM들에 감정 분류할 문서를 이루는 단어 및 알파벳이 아닌 기호를 입력하고, 이에 따라 처리되는 정보를 선택적으로 갱신 및 저장하도록 단계;(S100). 이어서, 상기 LSTM에 저장된 정보에 대하여 중요도를 산출하고, 산출된 상기 중요도로부터 가중치를 산출한다(S200). 이어서, 산출된 상기 가중치와 상기 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출한다(S300).
가중치를 산출하는 단계(S200)는 상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 중요도 및 가중치를 산출하는 것이다. 또한, 상기 문서 벡터를 산출하는 단계(S300)는, 상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 산출된 출력 값으로부터 문서 벡터를 산출하는 것이다.
또한, 가중치를 산출하는 단계(S200)는 학습 데이터에 대한 과적합을 방지하기 위하여 상기 가중치를 소정의 문서길이에 따른 적응적 평활 값에 따라 재조정하여 산출하는 것일 수 있다.
이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.
10 : 문서 감정 분류용 딥러닝 인코딩 장치
100 : LSTM 시퀀스부
200 : 가중치 산출부
300 : 문서 벡터 산출부

Claims (4)

  1. 감정 분류할 문서를 이루는 단어 및 알파벳이 아닌 기호를 입력 받아 처리되는 정보를 선택적으로 갱신 및 저장하는 딥러닝 구조인 LSTM(Long Short Term Memory) 들로 구성되는 LSTM 시퀀스부;
    상기 LSTM에 저장된 정보에 대하여 중요도를 산출하고, 산출된 상기 중요도로부터 가중치를 산출하는 가중치 산출부; 및
    상기 가중치 산출부로부터 산출된 가중치와 상기 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출하는 문서 벡터 산출부;를 포함하고,
    상기 가중치 산출부는,
    상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 중요도 및 가중치를 산출하는 것이고,
    상기 문서 벡터 산출부는,
    상기 LSTM을 소정 크기의 윈도우 단위로 결합한 출력 값으로부터 문서 벡터를 산출하는 것을 특징으로 하는 문서 감정 분류용 딥러닝 인코딩 장치.
  2. 제1항에 있어서,
    상기 가중치 산출부는,
    학습 데이터에 대한 과적합을 방지하기 위하여 상기 가중치를 소정의 문서길이에 따른 적응적 평활 값에 따라 재조정하여 산출하는 것을 특징으로 하는 문서 감정 분류용 딥러닝 인코딩 장치.
  3. LSTM 시퀀스의 LSTM들에 감정 분류할 문서를 이루는 단어 및 알파벳이 아닌 기호를 입력하고, 이에 따라 처리되는 정보를 선택적으로 갱신 및 저장하도록 단계;
    상기 LSTM에 저장된 정보에 대하여 중요도를 산출하고, 산출된 상기 중요도로부터 가중치를 산출하는 단계 및
    산출된 상기 가중치와 상기 LSTM의 출력 값에 따라 기계 학습 하여 문서 벡터를 산출하는 단계;를 포함하고,
    상기 가중치를 산출하는 단계는,
    상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 중요도 및 가중치를 산출하는 것이고,
    상기 문서 벡터를 산출하는 단계는,
    상기 LSTM을 소정 크기의 윈도우 단위로 결합하여 산출된 출력 값으로부터 문서 벡터를 산출하는 것을 특징으로 하는 문서 감정 분류용 딥러닝 인코딩 방법.
  4. 제3항에 있어서,
    상기 가중치를 산출하는 단계는,
    학습 데이터에 대한 과적합을 방지하기 위하여 상기 가중치를 소정의 문서길이에 따른 적응적 평활 값에 따라 재조정하여 산출하는 것을 특징으로 하는 문서 감정 분류용 딥러닝 인코딩 방법.
KR1020160140376A 2016-10-26 2016-10-26 문서 감정 분류용 딥러닝 인코딩 장치 및 방법. KR101715118B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160140376A KR101715118B1 (ko) 2016-10-26 2016-10-26 문서 감정 분류용 딥러닝 인코딩 장치 및 방법.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160140376A KR101715118B1 (ko) 2016-10-26 2016-10-26 문서 감정 분류용 딥러닝 인코딩 장치 및 방법.

Publications (1)

Publication Number Publication Date
KR101715118B1 true KR101715118B1 (ko) 2017-03-10

Family

ID=58411082

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160140376A KR101715118B1 (ko) 2016-10-26 2016-10-26 문서 감정 분류용 딥러닝 인코딩 장치 및 방법.

Country Status (1)

Country Link
KR (1) KR101715118B1 (ko)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729393A (zh) * 2017-09-20 2018-02-23 齐鲁工业大学 基于混合自动编码器深度学习的文本分类方法及系统
CN108052982A (zh) * 2017-12-22 2018-05-18 北京联合网视文化传播有限公司 一种基于贴图表情的情感检测方法以及系统
CN108446275A (zh) * 2018-03-21 2018-08-24 北京理工大学 基于注意力双层lstm的长文本情感倾向性分析方法
CN108984706A (zh) * 2018-07-06 2018-12-11 浙江大学 一种基于深度学习融合文本和结构特征的网页分类方法
CN109086393A (zh) * 2018-07-27 2018-12-25 贵州中科恒运软件科技有限公司 一种舆情分析系统及方法
CN109243494A (zh) * 2018-10-30 2019-01-18 南京工程学院 基于多重注意力机制长短时记忆网络的儿童情感识别方法
CN109670169A (zh) * 2018-11-16 2019-04-23 中山大学 一种基于特征提取的深度学习情感分类方法
KR20190136337A (ko) * 2018-05-30 2019-12-10 가천대학교 산학협력단 소셜미디어 컨텐츠 기반 감정 분석 방법, 시스템 및 컴퓨터-판독가능 매체
KR102060719B1 (ko) * 2017-11-17 2019-12-30 한국생산기술연구원 딥러닝 기반 얼굴 검출 및 감정 인식 시스템 및 방법
WO2020096102A1 (ko) * 2018-11-08 2020-05-14 박정우 인공지능 실행가속을 위한 인공지능 실행모델 설정방법 및 인공지능 실행가속시스템
KR20220027435A (ko) 2020-08-27 2022-03-08 한국전자기술연구원 인코딩, 디코딩 장치 및 방법
KR20220142050A (ko) * 2021-04-14 2022-10-21 건국대학교 산학협력단 문장 중요도에 기반한 문서 수준의 감성 분류 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130103249A (ko) * 2012-03-09 2013-09-23 가톨릭대학교 산학협력단 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법
KR101465756B1 (ko) 2013-12-03 2014-12-03 주식회사 그리핀 감정 분석 장치 및 방법과 이를 이용한 영화 추천 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130103249A (ko) * 2012-03-09 2013-09-23 가톨릭대학교 산학협력단 컨텍스트 정보를 이용한 다중 문장으로부터의 감정 분류 방법
KR101465756B1 (ko) 2013-12-03 2014-12-03 주식회사 그리핀 감정 분석 장치 및 방법과 이를 이용한 영화 추천 방법

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
1.Wollmer, Martin, et al. "Youtube movie reviews:
2. Graves, Alex, Greg Wayne, and Ivo Danihelka. "Neural
Li, Jiwei, Minh-Thang Luong, and Dan Jurafsky. "A hierarchical neural autoencoder for paragraphs and documents." arXiv preprint arXiv:1506.01057. 2015. *
Li, Jiwei. "Feature weight tuning for recursive neural networks." arXiv preprint arXiv:1412.3714. 2014. *
Sentiment analysis in an audio-visual context." Intelligent
Systems, IEEE 28.3, pp.46-53, 2013
Tang, Duyu, et al. "Effective LSTMs for Target-Dependent Sentiment Classification." arXiv preprint arXiv:1512.01100v2. 2016.9.29. *
turing machines." arXiv preprint arXiv:1410.5401, 2014.

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107729393A (zh) * 2017-09-20 2018-02-23 齐鲁工业大学 基于混合自动编码器深度学习的文本分类方法及系统
KR102060719B1 (ko) * 2017-11-17 2019-12-30 한국생산기술연구원 딥러닝 기반 얼굴 검출 및 감정 인식 시스템 및 방법
CN108052982B (zh) * 2017-12-22 2021-09-03 深圳市云网拜特科技有限公司 一种基于贴图表情的情感检测方法以及系统
CN108052982A (zh) * 2017-12-22 2018-05-18 北京联合网视文化传播有限公司 一种基于贴图表情的情感检测方法以及系统
CN108446275A (zh) * 2018-03-21 2018-08-24 北京理工大学 基于注意力双层lstm的长文本情感倾向性分析方法
KR20190136337A (ko) * 2018-05-30 2019-12-10 가천대학교 산학협력단 소셜미디어 컨텐츠 기반 감정 분석 방법, 시스템 및 컴퓨터-판독가능 매체
KR102111672B1 (ko) 2018-05-30 2020-05-15 가천대학교 산학협력단 소셜미디어 컨텐츠 기반 감정 분석 방법, 시스템 및 컴퓨터-판독가능 매체
CN108984706A (zh) * 2018-07-06 2018-12-11 浙江大学 一种基于深度学习融合文本和结构特征的网页分类方法
CN109086393A (zh) * 2018-07-27 2018-12-25 贵州中科恒运软件科技有限公司 一种舆情分析系统及方法
CN109243494A (zh) * 2018-10-30 2019-01-18 南京工程学院 基于多重注意力机制长短时记忆网络的儿童情感识别方法
CN109243494B (zh) * 2018-10-30 2022-10-11 南京工程学院 基于多重注意力机制长短时记忆网络的儿童情感识别方法
WO2020096102A1 (ko) * 2018-11-08 2020-05-14 박정우 인공지능 실행가속을 위한 인공지능 실행모델 설정방법 및 인공지능 실행가속시스템
US11257008B2 (en) 2018-11-08 2022-02-22 Soynet Co., Ltd. Method of setting artificial intelligence execution model and artificial intelligence execution acceleration system for artificial intelligence execution acceleration
CN109670169B (zh) * 2018-11-16 2020-12-04 中山大学 一种基于特征提取的深度学习情感分类方法
CN109670169A (zh) * 2018-11-16 2019-04-23 中山大学 一种基于特征提取的深度学习情感分类方法
KR20220027435A (ko) 2020-08-27 2022-03-08 한국전자기술연구원 인코딩, 디코딩 장치 및 방법
KR20220142050A (ko) * 2021-04-14 2022-10-21 건국대학교 산학협력단 문장 중요도에 기반한 문서 수준의 감성 분류 방법 및 장치
KR102501869B1 (ko) * 2021-04-14 2023-02-21 건국대학교 산학협력단 문장 중요도에 기반한 문서 수준의 감성 분류 방법 및 장치

Similar Documents

Publication Publication Date Title
KR101715118B1 (ko) 문서 감정 분류용 딥러닝 인코딩 장치 및 방법.
Wu et al. Neural Chinese named entity recognition via CNN-LSTM-CRF and joint training with word segmentation
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
US10831997B2 (en) Intent classification method and system
Lowe et al. Towards an automatic turing test: Learning to evaluate dialogue responses
US11501066B2 (en) System and method for unsupervised text normalization using distributed representation of words
Kim et al. Two-stage multi-intent detection for spoken language understanding
Dos Santos et al. Deep convolutional neural networks for sentiment analysis of short texts
Hsu et al. A hybrid CNN-RNN alignment model for phrase-aware sentence classification
CN109308353B (zh) 词嵌入模型的训练方法及装置
Jungiewicz et al. Towards textual data augmentation for neural networks: synonyms and maximum loss
Irsoy et al. Bidirectional recursive neural networks for token-level labeling with structure
CN113704416B (zh) 词义消歧方法、装置、电子设备及计算机可读存储介质
CN110851601A (zh) 基于分层注意力机制的跨领域情感分类系统及方法
CN109271636B (zh) 词嵌入模型的训练方法及装置
WO2014073206A1 (ja) 情報処理装置、及び、情報処理方法
KR20230061001A (ko) 문서 교정 장치 및 방법
Xuan Bach et al. A POS tagging model for Vietnamese social media text using BiLSTM-CRF with rich features
Hu et al. Ensemble methods to distinguish mainland and Taiwan Chinese
CN113065350A (zh) 一种基于注意力神经网络的生物医学文本词义消岐方法
Siddique et al. Bilingual word embeddings for cross-lingual personality recognition using convolutional neural nets
Mahafdah et al. Arabic Part of speech Tagging using k-Nearest Neighbour and Naive Bayes Classifiers Combination.
CN107729509A (zh) 基于隐性高维分布式特征表示的篇章相似度判定方法
KR102042991B1 (ko) 한국어 접사 기반 토크나이징 장치 및 그 방법
JP2017167378A (ja) 単語スコア計算装置、単語スコア計算方法及びプログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant