KR20230028639A - 은유 탐지 장치 및 방법 - Google Patents

은유 탐지 장치 및 방법 Download PDF

Info

Publication number
KR20230028639A
KR20230028639A KR1020210109660A KR20210109660A KR20230028639A KR 20230028639 A KR20230028639 A KR 20230028639A KR 1020210109660 A KR1020210109660 A KR 1020210109660A KR 20210109660 A KR20210109660 A KR 20210109660A KR 20230028639 A KR20230028639 A KR 20230028639A
Authority
KR
South Korea
Prior art keywords
metaphor
target word
result
encoding
encoder
Prior art date
Application number
KR1020210109660A
Other languages
English (en)
Other versions
KR102574512B1 (ko
KR102574512B9 (ko
Inventor
이종욱
최민진
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020210109660A priority Critical patent/KR102574512B1/ko
Publication of KR20230028639A publication Critical patent/KR20230028639A/ko
Application granted granted Critical
Publication of KR102574512B1 publication Critical patent/KR102574512B1/ko
Publication of KR102574512B9 publication Critical patent/KR102574512B9/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Biophysics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

본 발명의 일 실시 예에 따른 은유 탐지 장치는 타겟 단어를 포함하는 문장을 입력 받는 입력부, 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하는 제1 인코더, 상기 타겟 단어를 인코딩하는 제2 인코더, 및 상기 타겟 단어에 대하여 상기 제1 인코더로부터 생성된 제1 인코딩 결과 및 상기 제2 인코더로부터 생성된 제2 인코딩 결과를 입력 받고, 상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제1 은유 판단부를 포함할 수 있다.

Description

은유 탐지 장치 및 방법{APPARATUS FOR DETECTING METAPHOR AND METHOD THEREOF}
본 발명은 입력 받는 문장 중에 은유적으로 쓰인 단어가 있는지 여부를 판단하는 은유 탐지 장치 및 방법에 관한 것이다.
은유는 언어의 고차원적 표현으로서, AI를 통해 고도화된 번역 기술도 아직 은유, 반어, 및 모순 등의 고차원적 표현에는 적용이 제대로 되지 않는 실정이다. 따라서, 문장 중에 사용된 은유를 탐지할 수 있다면, 이를 고려하여 번역될 수 있으므로 번역의 질이 높아질 것이다.
은유 탐지 방식 중 하나인 feature-based 모델은 사전에 정의된 특징을 통해 은유를 탐지하는 방법으로, 간단하고 직관적이다. 하지만, feature-based 모델은 학습에 사용되는 데이터의 품질에 영향을 많이 받는다는 한계가 있다. 또 다른 은유 탐지 방식으로는 순환신경망(RNN, recurrent neural network) 모델을 활용하는 방식이 있다. 순환신경망 모델을 활용하는 방식은 단어의 순차적인 구조를 고려할 수 있으나, 단어의 다양한 문맥상 의미를 이해하는 데에 어려움이 있다.
이 방식들의 한계를 극복하기 위해, 자연어 처리 분야의 여러 과업에서 널리 활용되고 있는 언어 이해 모델을 활용하여 은유를 탐지하는 방법론이 대두되고 있다.
본 발명이 해결하고자 하는 과제는 전술한 문제를 해결하기 위하여, 문장 중에 포함된 타겟 단어가 상기 문장 안에 포함된 다른 단어들과의 관계에서 인코딩된 결과와 상기 타겟 단어가 홀로 인코딩된 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 결정하는 은유 탐지 장치 및 방법을 제공하고자 한다.
또한, 본 발명이 해결하고자 하는 과제는 상기 타겟 단어가 상기 문장 안에 포함된 다른 단어들과의 관계에서 인코딩된 결과와 상기 문장 전체에 대해 인코딩된 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 결정하는 은유 탐지 장치 및 방법을 제공하고자 한다.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시 예에 따른 은유 탐지 장치는 타겟 단어를 포함하는 문장을 입력 받는 입력부; 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하는 제1 인코더; 상기 타겟 단어를 인코딩하는 제2 인코더; 및 상기 타겟 단어에 대하여 상기 제1 인코더로부터 생성된 제1 인코딩 결과 및 상기 제2 인코더로부터 생성된 제2 인코딩 결과를 입력 받고, 상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제1 은유 판단부;를 포함할 수 있다.
상기 은유 탐지 장치는 상기 제1 인코딩 결과 및 상기 문장 전체에 대하여 상기 제1 인코더로부터 생성된 제3 인코딩 결과를 입력 받고, 상기 제1 인코딩 결과 및 상기 제3 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제2 은유 판단부;를 더 포함할 수 있다.
상기 은유 탐지 장치는 상기 제1 은유 판단부 및 상기 제2 은유 판단부 각각의 판단에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제3 은유 판단부;를 더 포함할 수 있다.
상기 제3 은유 판단부는 기계 학습을 통해 상기 제1 은유 판단부의 판단 및 상기 제2 은유 판단부의 판단에 가중치를 부여하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 것일 수 있다.
상기 제1 은유 판단부는 MIP(Metaphor Identification Procedure) 레이어에 대응하고, 상기 제2 은유 판단부는 SPV(Selectional Preference Violation) 레이어에 대응하는 것일 수 있다.
상기 제3 은유 판단부는 Linear 회귀와 Softmax 회귀의 결합을 이용하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다.
상기 제1 인코더 및 상기 제2 인코더는 Late-Interaction 방식으로 인코딩을 수행하는 것일 수 있다.
상기 제1 인코더는 상기 문장에 포함된 각 단어마다 문맥 정보를 포함하는 인코딩 결과를 생성하는 것일 수 있다.
상기 제1 은유 판단부 및 상기 제2 은유 판단부는 BERT 및/또는 RoBERTa 모델에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 것일 수 있다.
본 발명의 일 실시 예에 따른 은유 탐지 방법은 타겟 단어를 포함하는 문장을 입력 받는 동작; 상기 타겟 단어에 대하여 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하여 제1 인코딩 결과를 생성하는 동작; 상기 타겟 단어를 독립적으로 인코딩하여 제2 인코딩 결과를 생성하는 동작; 및 상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하여 제1 은유 판단 결과를 생성하는 동작;을 포함할 수 있다.
상기 은유 탐지 방법은 상기 문장 전체에 대하여 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하여 제3 인코딩 결과를 생성하는 동작; 및 상기 제1 인코딩 결과 및 상기 제3 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하여 제2 은유 판단 결과를 생성하는 동작;을 더 포함할 수 있다.
상기 은유 탐지 방법은 상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 동작;을 더 포함할 수 있다.
상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 동작은, 기계 학습을 통해 상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 가중치를 부여하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 것일 수 있다.
상기 제1 은유 판단 결과는 MIP(Metaphor Identification Procedure) 방식에 기초하여 생성되고, 상기 제2 은유 판단 결과는 SPV(Selectional Preference Violation) 방식에 기초하여 생성된 것일 수 있다.
상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 동작은 Linear 회귀와 Softmax 회귀의 결합에 기초하여 수행될 수 있다.
상기 제1 인코딩 결과 및 상기 제2 인코딩 결과는 Late-Interaction 방식에 기초하여 생성된 것일 수 있다.
상기 제1 인코딩 결과는 상기 문장에 포함된 각 단어마다 문맥 정보를 포함하는 것일 수 있다.
상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과는 BERT 및/또는 RoBERTa 모델에 기초하여 생성된 것일 수 있다.
본 발명의 일 실시 예에 따른 컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램은 타겟 단어를 포함하는 문장을 입력 받는 동작; 상기 타겟 단어에 대하여 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하여 제1 인코딩 결과를 생성하는 동작; 상기 타겟 단어를 독립적으로 인코딩하여 제2 인코딩 결과를 생성하는 동작; 및 상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하여 제1 은유 판단 결과를 생성하는 동작;을 포함하는 은유 탐지 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함할 수 있다.
본 발명의 일 실시 예에 따른 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체는 타겟 단어를 포함하는 문장을 입력 받는 동작; 상기 타겟 단어에 대하여 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하여 제1 인코딩 결과를 생성하는 동작; 상기 타겟 단어를 독립적으로 인코딩하여 제2 인코딩 결과를 생성하는 동작; 및 상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하여 제1 은유 판단 결과를 생성하는 동작;을 포함하는 은유 탐지 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함할 수 있다.
본 발명의 일 실시 예에 따르면, 은유 탐지 장치 및 방법은 문장 중에 포함된 타겟 단어가 상기 문장 안에 포함된 다른 단어들과의 관계에서 인코딩된 결과와 상기 타겟 단어가 홀로 인코딩된 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 바, 정확성을 높일 수 있다.
또한, 본 발명의 일 실시 예에 따르면, 은유 탐지 장치 및 방법은 Late-interaction 방식으로 인코딩을 수행함으로써 불필요한 상호작용을 방지하고, 이로부터 계산 비용을 줄일 수 있다.
도 1은 본 발명의 일 실시 예에 따른, 은유 탐지 장치의 구성도이다.
도 2는 본 발명의 일 실시 예에 따른, 제1 인코더 및 제2 인코더에서 수행하는 Late-Interaction 방식의 인코딩을 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 따른, 은유 탐지 장치의 각 구성의 동작을 구체적으로 나타낸 도면이다.
도 4는 본 발명의 일 실시 예에 따른, 은유 탐지 장치가 수행하는 은유 탐지 방법을 나타낸 흐름도이다.
도 5는 본 발명의 다른 실시 예에 따른, 은유 탐지 장치가 수행하는 은유 탐지 방법을 나타낸 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시 예에 따른, 은유 탐지 장치(100)의 구성도이다. 도 1을 참조하면, 은유 탐지 장치(100)는 입력부(110), 제1 인코더(120), 제2 인코더(130), 제1 은유 판단부(140), 제2 은유 판단부(150), 제3 은유 판단부(160), 및 메모리(190)를 포함할 수 있다. 다만, 상기 은유 탐지 장치(100)의 각 구성은 기능적으로 분류된 것으로서, 실제 물리적으로는 분리되어있지 않을 수 있다. 또한, 상기 은유 탐지 장치(100)의 구성들 또는 상기 구성들 중 적어도 일부는 System on Chip (SoC)로 구현될 수 있다.
상기 입력부(110)는 타겟 단어를 포함하는 문장을 입력 받을 수 있다. 즉, 상기 입력되는 문장은 복수의 단어로 이루어질 수 있고, 상기 복수의 단어 중 어느 하나가 타겟 단어일 수 있다. 단, 본 발명의 일 실시 예에 따르면, 상기 타겟 단어는 상기 제1 인코더(120) 또는 상기 제2 인코더(130)에 하나의 입력 값으로 입력될 수도 있으나, 둘 이상의 입력 값으로 나누어 입력될 수도 있다.
본 발명의 실시 예에 따르면, 상기 입력부(110)는 상기 문장을 하나의 입력 값으로 이용할 수 있고, 상기 타겟 단어를 다른 하나의 입력 값으로 이용할 수 있다. 예를 들어, 상기 입력부(110)는 상기 문장 및 상기 타겟 단어를 서로 다른 입력으로서 받을 수 있다. 이 경우, 상기 입력부(110)는 두 개의 입력부로 구성되어 각각의 입력을 받을 수 있고, 또는 하나의 입력부로서 상기 2개의 입력을 순차적으로 받을 수도 있다. 이와는 달리, 상기 입력부(110)는 상기 문장을 하나의 입력으로 입력 받고, 그 중 상기 타겟 단어를 추출하여 이용하는 상기 문장 및 상기 타겟 단어를 함께 이용하는 것일 수도 있다.
상기 제1 인코더(120)는 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩할 수 있다. 따라서, 서로 다른 문장에 있어서 동일한 단어가 포함되어 있더라도, 해당 동일한 단어는 각 문장에서 서로 다른 단어들과 조화를 이루기 때문에 인코딩 결과는 각기 다를 수 있다. 즉, 상기 제1 인코더(120)는 상기 문장에 포함된 각 단어마다 문맥 정보를 포함하는 인코딩 결과를 생성할 수 있다.
본 발명의 실시 예에 따르면, 상기 제1 인코더(120)는 상기 입력 받은 문장에 포함된 각각의 단어에 대해 인코딩을 수행할 수 있다. 또한, 상기 제1 인코더(120)는 상기 입력 받은 문장 전체에 대하여 인코딩을 수행할 수 있다.
상기 제2 인코더(130)는 상기 타겟 단어를 인코딩할 수 있다. 상기 제1 인코더(120)에서 상기 타겟 단어를 다른 단어들과의 관계에서 인코딩하는 것과 달리, 상기 제2 인코더(130)는 상기 타겟 단어를 독립적으로 인코딩할 수 있다. 따라서, 상기 제1 인코더(120)에서의 인코딩이 문맥(context) 안에서의 의미를 파악하는 동작이라면, 상기 제2 인코더(130)에서의 인코딩은 상기 타겟 단어의 문자 그대로의 의미를 파악하는 동작일 수 있다.
상기 제1 인코더(120) 및 상기 제2 인코더(130)는 동일한 아키텍쳐로 구성될 수 있지만 세부 파라미터는 서로 다를 수 있다.
본 발명의 실시 예에 따르면, 상기 제1 인코더(120) 및 상기 제2 인코더(130)는 Late-Interaction 방식으로 인코딩을 수행할 수 있다. 상기 Late-Interaction 방식은 도 2를 통해 설명하겠다.
도 2는 본 발명의 일 실시 예에 따른, 상기 제1 인코더(120) 및 상기 제2 인코더(130)에서 수행하는 Late-Interaction 방식의 인코딩을 설명하는 도면이다.
BERT 및 RoBERTa 등과 같이 사전 학습된 언어모델은 두 개의 문장을 입력값으로 하여 두 문장 간 관련성을 예측하는 형태를 가진다. 이때 두 문장이 상호작용하는 방식은 all-to-all interaction 방식과 Late-Interaction 방식으로 나뉠 수 있다.
상기 Late-Interaction 방식이란 두 개의 문장이 문맥 모델의 입력값으로 주어질 때, 두 문장이 상호작용을 하는 방식 중 하나로, 각 문장을 샴(Siamese) 구조의 네트워크를 통해 각각 인코딩하여 문장 간 관련성을 예측하는 방식이다.
상기 all-to-all interaction 방식에서 두 개의 입력 문장이 하나의 입력값으로 입력되는 것과는 달리, 상기 Late-Interaction 방식은 각 문장을 독립적으로 인코딩함으로써 불필요한 상호작용을 방지하여 불필요한 정보가 학습되는 것을 방지할 수 있으며, 계산 비용을 줄일 수 있다는 이점이 있다.
도 2는 상기 Late-Interaction을 예시적으로 도시한 것으로서, 좌측에 도시된 제1 입력(210)과 우측에 도시된 제2 입력(220)은 최종적으로 취합되기 전까지 서로 구분되어있음을 알 수 있다. 이와는 달리, 상기 all-to-all interaction 방식(미도시)은 Late-Interaction의 제1 입력(210)에 수행되는 동작과 같이 제1 입력과 제2 입력을 서로 상호작용을 하는 방식으로 인코딩할 수 있다.
앞서 도 1에서 설명한 바와 같이, 상기 제1 인코더(120)는 문장을 입력으로 받아 상기 문장에 포함된 각 단어간 상호관계에 따라서 인코딩을 수행하고, 상기 제2 인코더(130)는 상기 문장에 포함된 타겟 단어를 독립적으로 인코딩할 수 있다. 이는 상기 Late-Interaction 방식을 차용한 것으로서, 상기 제1 인코더(120) 및 상기 제2 인코더(130)는 인코딩 결과가 상기 제1 은유 판단부(140) 및 상기 제2 은유 판단부(150)에 입력되기까지 상호 독립적으로 인코딩을 수행할 수 있다.
다시 도 1을 참조하면, 상기 제1 은유 판단부(140)는 상기 타겟 단어에 대해 상기 제1 인코더(120)에서 생성된 인코딩 결과(이하, 제1 인코딩 결과)와 상기 타겟 단어에 대해 상기 제2 인코더(130)에서 생성된 인코딩 결과(이하, 제2 인코딩 결과)에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다.
상기 제2 은유 판단부(150)는 상기 제1 인코딩 결과 및 상기 문장 전체에 대하여 상기 제1 인코더(120)로부터 생성된 인코딩 결과(이하, 제3 인코딩 결과)에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다.
본 발명의 실시 예에 따르면, 상기 제1 은유 판단부(140)는 MIP(Metaphor Identification Procedure) 레이어에 대응하고, 상기 제2 은유 판단부(150)는 SPV(Selectional Preference Violation) 레이어에 대응할 수 있다. 상기 MIP 및 상기 SPV는 언어학적 은유 탐지 이론으로서, 본 발명의 실시 예에 따른 은유 탐지 장치(100)에 이용됨으로써 그 성능을 유의미하게 개선할 수 있다.
상기 제1 은유 판단부(140) 및 상기 제2 은유 판단부(150)는 BERT 및/또는 RoBERTa 모델에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다.
상기 제3 은유 판단부(160)는 상기 제1 은유 판단부(140) 및 상기 제2 은유 판단부(150) 각각의 결정에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 예를 들어, 상기 제3 은유 판단부(160)는 상기 제1 은유 판단부(140)의 판단과 상기 제2 은유 판단부(150)의 판단에 각각 가중치를 부여할 수 있고, 이에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 본 발명의 실시 예에 따르면, 상기 제3 은유 판단부(160)는 Linear 회귀(regression) 방식의 Linear 레이어와 Softmax 회귀 방식의 Softmax 레이어의 결합에 대응할 수 있다.
상기 메모리(190)는 다양한 데이터를 저장할 수 있다. 예를 들어, 상기 제1 인코더(120) 및 제2 인코더(130)의 인코더 결과 및 상기 제1 은유 판단부(140) 내지 제3 은유 판단부(160)에서 판단한 결과 등이 상기 메모리(190)에 저장될 수 있다.
예를 들어, 상기 메모리(190)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 플래시 메모리(flash memory)와 같은 프로그램 명령어들을 저장하고 수행하도록 특별히 구성된 하드웨어 장치 등과 같이 컴퓨터 판독 가능한 기록매체일 수 있다.
도 3은 본 발명의 일 실시 예에 따른, 은유 탐지 장치(100)의 각 구성의 동작을 구체적으로 나타낸 도면이다.
도 3을 참조하면, 상기 은유 탐지 장치(100)는 상기 제1 인코더(120), 상기 제2 인코더(130), 상기 제1 은유 판단부(140), 상기 제2 은유 판단부(150), 및 상기 제3 은유 판단부(160)를 포함할 수 있다. 다만, 도 1에 도시되었지만 도 3에 도시되지 않은 입력부(110) 및 메모리(190)가 본 실시 예에서 제외되는 것은 아니다.
상기 제1 인코더(120) 및 상기 제2 인코더(130)는 도 3에서 좌우로 나뉘어 있고, 각각에 입력되는 제1 입력(310) 및 제2 입력(320) 또한 독립적으로 도시되어 있는 바, Late-Interaction 방식을 이용하는 것일 수 있다.
상기 제1 입력(310) 및 상기 제2 입력(320)은 입력부(미도시)를 통해 입력된 것일 수 있고, 나아가 전처리부(미도시)를 통해 임베딩(embedding) 처리된 것일 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 상기 제1 입력(310)은 토큰 임베딩(token embedding), 위치 임베딩(position embedding), 및 구분 임베딩(segment embedding)으로 이루어질 수 있다.
상기 토큰 임베딩은 byte-pair encoding을 기반으로 각 단어가 토큰으로 변환된 값을 의미할 수 있다. 상기 제1 입력(310)을 참조하면, 첫 번째 단어 토큰 앞에 [CLS] 토큰이, 마지막 단어 토큰 이후 [SEP] 토큰이 삽입되었으며, 상기 타겟 단어의 품사를 고려하기 위해 [SEP] 토큰 이후 품사 토큰이, 그리고 다시 [SEP] 토큰이 도시되어 있음을 알 수 있다.
상기 위치 임베딩은 각 토큰의 위치를 의미하는 임베딩일 수 있다. 또한, 상기 구분 임베딩은 문장 내 타겟 단어와 local context를 구분하기 위한 것으로 이에 대한 정보를 포함할 수 있다. 상기 local context란 문장이 두 개 이상의 절로 구성된 경우 타겟 단어와 동일한 절에 포함된 토큰을 의미할 수 있다. 예를 들어, 상기 제1 입력(310)을 참조하면, 상기 타겟 단어에는 [TAR] 태그가, 상기 타겟 단어와 같은 절에 포함된 토큰에는 [LOC] 태그가, 상기 타겟 단어의 품사 토큰에는 [POS] 태그가 도시되어 있음을 알 수 있다.
상기 제2 입력(320)은 상기 제1 입력(310)과 마찬가지로 byte-pair encoding을 기반으로 토큰으로 변환되지만, 상기 제1 입력(310)과 달리 위치 임베딩과 구분 임베딩은 사용되지 않을 수 있다.
상기 제1 인코더(120)는 상기 제1 입력(310)에 포함된 각 단어를 상호 연관시켜 인코딩을 수행할 수 있다. 또한, 상기 제1 인코더(120)는 상기 제1 입력(310) 중 [CLS] 토큰에 대하여 인코딩을 수행할 수 있다. 또한 상기 제2 인코더(130)는 상기 타겟 단어에 대한 인코딩을 수행할 수 있다.
상기 제1 인코더(120) 및 상기 제2 인코더(130)의 인코딩 결과는 임베팅 벡터로 표현할 수 있다. 상기 임베딩 벡터는 입력된 토큰의 문맥 정보를 포함할 수 있다. 도 3을 참조하면, 상기 제1 입력(310) 중 타겟 단어에 대한 상기 제1 인코더(120)의 인코딩 결과는 VS,5로 나타내었고, 문장 전체에 대한 상기 제1 인코더(120)의 인코딩 결과는 VS로 나타내었다. 이 경우, VS는 문장 내 복수의 단어 간 상호작용이 반영된 것일 수 있고, VS,5는 5번 째의 위치를 갖는 타겟 단어와 다른 단어와의 상호작용이 반영된 것일 수 있다. 또한, 상기 제2 입력(320) 중 타겟 단어에 대한 상기 제2 인코더(130)의 인코딩 결과는 Vt로 나타내었다. 상기 Vt는 상기 타겟 단어만을 입력으로 했기 때문에 문맥 정보가 담겨있지 않을 수 있다.
상기 제1 은유 판단부(140)는 상기 임베딩 벡터 VS,5 및 Vt를 입력으로 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 이는 상기 타겟 단어의 문자적 의미(literal meaning)와 문맥적 의미(contextual meaning)를 비교하는 것일 수 있다. 즉, 상기 제1 은유 판단부(140)는 상기 타겟 단어의 사전적 의미와 문장에서 쓰인 의미를 서로 비교할 수 있다.
상기 제2 은유 판단부(150)는 상기 임베딩 벡터 VS,5 및 VS를 입력으로 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 예를 들어, 상기 제2 은유 판단부(150)는 상기 타겟 단어의 다른 단어들과의 관계에서 문맥적 의미와 문장 전체의 문맥적 의미를 비교할 수 있다. 예를 들어, 상기 타겟 단어 sharpened는 문장 "And finally, the debate sharpened."에서 문맥적 의미로서 "분명하게 되다"라는 의미로 쓰였고, 상기 제2 은유 판단부(150)는 문장 전체에서 debate와 sharpened가 기존에 함께 쓰이는 조합인지를 판단할 수 있다.
상기 제1 은유 판단부(140)는 판단 결과로서 은닉 벡터(hidden vector) hMIP를 생성하고, 상기 제2 은유 판단부(150)는 판단 결과로서 은닉 벡터 hSPV를 생성할 수 있다. 상기 제3 은유 판단부(160)는 상기 은닉 벡터 hMIP 및 hSPV에 기초하여 최종적으로 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 예를 들어, 상기 제3 은유 판단부(160)는 하기 수식 1을 이용하여 상기 은닉 벡터 hMIP 및 hSPV를 결합할 수 있다.
[수식 1]
Figure pat00001
여기서, 함수
Figure pat00002
는 sigmoid 함수이고,
Figure pat00003
는 파라미터이고, b는 바이어스(bias)일 수 있다.
또한, 상기 제3 은유 판단부(160)는 하기 수식 2를 이용하여 손실을 구하고 이에 따라 은유 여부를 판단할 수 있다.
[수식 2]
Figure pat00004
여기서, N은 훈련 세트에서 샘플의 수를 의미하고,
Figure pat00005
Figure pat00006
는 i번째 샘플에서 실제 레이블 및 추정 레이블을 의미할 수 있다.
도 4는 본 발명의 일 실시 예에 따른, 은유 탐지 장치(100)가 수행하는 은유 탐지 방법을 나타낸 흐름도이다.
동작 S410에서 상기 은유 탐지 장치(100)는 타겟 단어를 포함하는 문장을 입력값으로 입력 받을 수 있다. 상기 타겟 단어는 상기 타겟 단어가 상기 문장에서 은유적으로 쓰였는지 여부를 판단하기 위한 대상일 수 있다.
동작 S420에서 상기 은유 탐지 장치(100)는 동작 S410에서 입력 받은 문장에 포함된 상기 타겟 단어를 다른 단어들과 상호 연관시켜 인코딩할 수 있다.
동작 S430에서 상기 은유 탐지 장치(100)는 상기 타겟 단어를 독립적으로 인코딩할 수 있다. 상기 타겟 단어는 상기 동작 S410과 별개로 입력된 것일 수도 있고, 또는 상기 동작 S410에서 상기 문장과 함께 입력된 것일 수도 있다.
동작 S440에서 상기 은유 탐지 장치(100)는 상기 동작 S420에서 인코딩된 결과와 상기 동작 S430에서 인코딩된 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다.
본 발명의 다양한 실시 예에 따르면, 동작 S410 내지 S440은 순서대로 수행되는 것처럼 도시되어 있으나, 이에 제한되지 않으며, 적어도 일부의 동작의 순서가 바뀔 수 있고, 또는 적어도 둘 이상의 동작이 동시에 수행될 수도 있다. 예를 들어, 상기 동작 S420은 동작 S430이 수행된 이후에 수행될 수도 있고, 또는 동작 S420 및 S430은 동시에 수행될 수도 있다.
도 5는 본 발명의 다른 실시 예에 따른, 은유 탐지 장치가 수행하는 은유 탐지 방법을 나타낸 흐름도이다.
동작 S510에서 상기 은유 탐지 장치(100)는 타겟 단어를 포함하는 문장을 입력값으로 입력 받을 수 있다. 상기 타겟 단어는 상기 타겟 단어가 상기 문장에서 은유적으로 쓰였는지 여부를 판단하기 위한 대상일 수 있다.
동작 S520에서 상기 은유 탐지 장치(100)는 상기 동작 S510에서 입력 받은 문장에 포함된 상기 타겟 단어를 다른 단어들과 상호 연관시켜 인코딩할 수 있다.
동작 S530에서 은유 탐지 장치(100)는 상기 타겟 단어를 독립적으로 인코딩할 수 있다. 상기 타겟 단어는 상기 동작 S510과 별개로 입력된 것일 수도 있고, 또는 상기 동작 S510에서 상기 문장과 함께 입력된 것일 수도 있다.
동작 S540에서 상기 은유 탐지 장치(100)는 상기 동작 S510에서 입력 받은 문장 전체에 대하여 인코딩을 수행할 수 있다. 예를 들어, 상기 은유 탐지 장치(100)는 상기 문장에 포함된 복수의 단어들간 상호 작용을 통해 상기 문장 전체에 대한 인코딩을 수행할 수 있다.
동작 S550에서 상기 은유 탐지 장치(100)는 상기 동작 S520에서 인코딩된 결과와 상기 동작 S530에서 인코딩된 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 이 때, 상기 판단은 MIP 방식을 이용할 것일 수 있다.
동작 S560에서 상기 은유 탐지 장치(100)는 상기 동작 S520에서 인코딩된 결과와 상기 동작 S540에서 인코딩된 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 이 때, 상기 판단은 SPV 방식을 이용할 것일 수 있다.
동작 S570에서 은유 탐지 장치(100)는 상기 동작 S550의 판단 결과와 상기 동작 S560의 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단할 수 있다. 이 때, 상기 판단은 Linear 회귀와 Softmax 회귀의 결합을 이용하여 수행될 수 있다.
본 발명의 다양한 실시 예에 따르면, 동작 S510 내지 S570은 순서대로 수행되는 것처럼 도시되어 있으나, 이에 제한되지 않으며, 적어도 일부의 동작의 순서가 바뀔 수 있고, 또는 적어도 둘 이상의 동작이 동시에 수행될 수도 있다. 예를 들어, 상기 동작 S550은 동작 S560이 수행된 이후에 수행될 수도 있고, 또는 동작 S550 및 S560은 동시에 수행될 수도 있다.
본 발명에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 인코딩 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방법으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 은유 탐지 장치
110: 입력부
120: 제1 인코더
130: 제2 인코더
140: 제1 은유 판단부
150: 제2 은유 판단부
160: 제3 은유 판단부
190: 메모리

Claims (20)

  1. 은유 탐지 장치에 있어서,
    타겟 단어를 포함하는 문장을 입력 받는 입력부;
    상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하는 제1 인코더;
    상기 타겟 단어를 인코딩하는 제2 인코더; 및
    상기 타겟 단어에 대하여 상기 제1 인코더로부터 생성된 제1 인코딩 결과 및 상기 제2 인코더로부터 생성된 제2 인코딩 결과를 입력 받고, 상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제1 은유 판단부;를 포함하는, 은유 탐지 장치.
  2. 제1 항에 있어서,
    상기 제1 인코딩 결과 및 상기 문장 전체에 대하여 상기 제1 인코더로부터 생성된 제3 인코딩 결과를 입력 받고, 상기 제1 인코딩 결과 및 상기 제3 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제2 은유 판단부;를 더 포함하는, 은유 탐지 장치.
  3. 제2 항에 있어서,
    상기 제1 은유 판단부 및 상기 제2 은유 판단부 각각의 판단에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 제3 은유 판단부;를 더 포함하는, 은유 탐지 장치.
  4. 제3 항에 있어서,
    상기 제3 은유 판단부는 기계 학습을 통해 상기 제1 은유 판단부의 판단 및 상기 제2 은유 판단부의 판단에 가중치를 부여하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 것인, 은유 탐지 장치.
  5. 제2 항에 있어서,
    상기 제1 은유 판단부는 MIP(Metaphor Identification Procedure) 레이어에 대응하고, 상기 제2 은유 판단부는 SPV(Selectional Preference Violation) 레이어에 대응하는 것인, 은유 탐지 장치.
  6. 제3 항에 있어서,
    상기 제3 은유 판단부는 Linear 회귀와 Softmax 회귀의 결합을 이용하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는, 은유 탐지 장치.
  7. 제1 항에 있어서,
    상기 제1 인코더 및 상기 제2 인코더는 Late-Interaction 방식으로 인코딩을 수행하는 것인, 은유 탐지 장치.
  8. 제1 항에 있어서,
    상기 제1 인코더는 상기 문장에 포함된 각 단어마다 문맥 정보를 포함하는 인코딩 결과를 생성하는 것인, 은유 탐지 장치.
  9. 제2 항에 있어서,
    상기 제1 은유 판단부 및 상기 제2 은유 판단부는 BERT 및 RoBERTa 모델 중에서 적어도 하나에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 것인, 은유 탐지 장치.
  10. 은유 탐지 방법에 있어서,
    타겟 단어를 포함하는 문장을 입력 받는 동작;
    상기 타겟 단어에 대하여 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하여 제1 인코딩 결과를 생성하는 동작;
    상기 타겟 단어를 독립적으로 인코딩하여 제2 인코딩 결과를 생성하는 동작; 및
    상기 제1 인코딩 결과 및 상기 제2 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하여 제1 은유 판단 결과를 생성하는 동작;을 포함하는, 은유 탐지 방법.
  11. 제10 항에 있어서,
    상기 문장 전체에 대하여 상기 입력 받은 문장에 포함된 각 단어를 상호 연관시켜 인코딩하여 제3 인코딩 결과를 생성하는 동작; 및
    상기 제1 인코딩 결과 및 상기 제3 인코딩 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하여 제2 은유 판단 결과를 생성하는 동작;을 더 포함하는, 은유 탐지 방법.
  12. 제11 항에 있어서,
    상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 동작;을 더 포함하는, 은유 탐지 방법.
  13. 제12 항에 있어서,
    상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 동작은, 기계 학습을 통해 상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 가중치를 부여하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 것인, 은유 탐지 방법.
  14. 제11 항에 있어서,
    상기 제1 은유 판단 결과는 MIP(Metaphor Identification Procedure) 방식에 기초하여 생성되고, 상기 제2 은유 판단 결과는 SPV(Selectional Preference Violation) 방식에 기초하여 생성된 것인, 은유 탐지 방법.
  15. 제12 항에 있어서,
    상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과에 기초하여 상기 타겟 단어가 은유적으로 쓰였는지 여부를 판단하는 동작은 Linear 회귀와 Softmax 회귀의 결합에 기초하여 수행되는, 은유 탐지 방법.
  16. 제10 항에 있어서,
    상기 제1 인코딩 결과 및 상기 제2 인코딩 결과는 Late-Interaction 방식에 기초하여 생성된 것인, 은유 탐지 방법.
  17. 제10 항에 있어서,
    상기 제1 인코딩 결과는 상기 문장에 포함된 각 단어마다 문맥 정보를 포함하는 것인, 은유 탐지 방법.
  18. 제11 항에 있어서,
    상기 제1 은유 판단 결과 및 상기 제2 은유 판단 결과는 BERT 및 RoBERTa 모델 중에서 적어도 하나에 기초하여 생성된 것인, 은유 탐지 방법.
  19. 컴퓨터 판독 가능한 기록매체에 저장되어 있는 컴퓨터 프로그램으로서,
    상기 컴퓨터 프로그램은,
    제10 항 내지 제18 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
    컴퓨터 프로그램.
  20. 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체로서,
    상기 기록매체는,
    제10 항 내지 제18 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는
    컴퓨터 판독 가능한 기록매체.
KR1020210109660A 2021-08-19 2021-08-19 은유 탐지 장치 및 방법 KR102574512B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210109660A KR102574512B1 (ko) 2021-08-19 2021-08-19 은유 탐지 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210109660A KR102574512B1 (ko) 2021-08-19 2021-08-19 은유 탐지 장치 및 방법

Publications (3)

Publication Number Publication Date
KR20230028639A true KR20230028639A (ko) 2023-03-02
KR102574512B1 KR102574512B1 (ko) 2023-09-05
KR102574512B9 KR102574512B9 (ko) 2024-02-08

Family

ID=85509013

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210109660A KR102574512B1 (ko) 2021-08-19 2021-08-19 은유 탐지 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102574512B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5067138A (ko) * 1973-10-10 1975-06-05
KR20180119406A (ko) * 2017-04-25 2018-11-02 강원대학교산학협력단 멀티 태스크 학습 기반 포인터 네트워크를 이용한 한국어 의존 구문 분석 시스템 및 방법
KR20200116760A (ko) * 2019-04-02 2020-10-13 성균관대학교산학협력단 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치
KR20210074713A (ko) * 2019-12-12 2021-06-22 서울대학교산학협력단 양방향 언어 모델을 이용한 문장 평가 방법 및 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5067138A (ko) * 1973-10-10 1975-06-05
KR20180119406A (ko) * 2017-04-25 2018-11-02 강원대학교산학협력단 멀티 태스크 학습 기반 포인터 네트워크를 이용한 한국어 의존 구문 분석 시스템 및 방법
KR20200116760A (ko) * 2019-04-02 2020-10-13 성균관대학교산학협력단 단어의 문맥 정보와 형태론적 정보를 고려한 단어 임베딩 방법 및 장치
KR20210074713A (ko) * 2019-12-12 2021-06-22 서울대학교산학협력단 양방향 언어 모델을 이용한 문장 평가 방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hai Wan 외 4명, "Enhancing Metaphor Detection by Gloss-based Interpretations", Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, 2021.08.01., pp.1971-1981. 1부.* *
Rui Mao 외 2명, "End-to-End Sequential Metaphor Identification Inspired by Linguistic Theories", Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019.07.28., pp.3888-3898. 1부.* *

Also Published As

Publication number Publication date
KR102574512B1 (ko) 2023-09-05
KR102574512B9 (ko) 2024-02-08

Similar Documents

Publication Publication Date Title
Zhai et al. Neural models for sequence chunking
CN109003624B (zh) 情绪识别方法、装置、计算机设备及存储介质
CN110349597A (zh) 一种语音检测方法及装置
Zhu et al. Catslu: The 1st chinese audio-textual spoken language understanding challenge
CN116150757A (zh) 一种基于cnn-lstm多分类模型的智能合约未知漏洞检测方法
CN113553245B (zh) 结合双向切片gru与门控注意力机制日志异常检测方法
Wu et al. Novel slot detection: A benchmark for discovering unknown slot types in the task-oriented dialogue system
KR102574512B1 (ko) 은유 탐지 장치 및 방법
CN116861269A (zh) 工程领域的多源异构数据融合及分析方法
CN113076089B (zh) 一种基于对象类型的api补全方法
Jiang et al. Difm: An effective deep interaction and fusion model for sentence matching
CN115309994A (zh) 地点检索方法、电子设备以及存储介质
Tsai et al. Generating construction safety observations via CLIP-based image-language embedding
CN114254622A (zh) 一种意图识别方法和装置
CN115906838A (zh) 文本抽取方法、装置、电子设备以及存储介质
Kishimoto et al. MHG-GNN: Combination of Molecular Hypergraph Grammar with Graph Neural Network
CN113536790A (zh) 基于自然语言处理的模型训练方法及装置
CN115019149B (zh) 一种基于模型解释结果的零样本识别方法
CN116205217B (zh) 一种小样本关系抽取方法、系统、电子设备及存储介质
CN109145103A (zh) 一种基于双通道rnn的人机交互意图判断方法
CN117332090B (zh) 一种敏感信息识别方法、装置、设备和存储介质
Li et al. STCP: An Efficient Model Combining Subject Triples and Constituency Parsing for Recognizing Textual Entailment
Zheng et al. Voice Assisted System for Garbage Sorting
CN118260765A (zh) 一种电力数据安全监测系统代码克隆检测方法和装置
CN117609005A (zh) 一种代码相似度检测方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]