KR102313721B1 - 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램 - Google Patents

자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102313721B1
KR102313721B1 KR1020190160742A KR20190160742A KR102313721B1 KR 102313721 B1 KR102313721 B1 KR 102313721B1 KR 1020190160742 A KR1020190160742 A KR 1020190160742A KR 20190160742 A KR20190160742 A KR 20190160742A KR 102313721 B1 KR102313721 B1 KR 102313721B1
Authority
KR
South Korea
Prior art keywords
natural language
information
morpheme
language representation
speech
Prior art date
Application number
KR1020190160742A
Other languages
English (en)
Other versions
KR20210070685A (ko
Inventor
옥철영
이주상
Original Assignee
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 울산대학교 산학협력단 filed Critical 울산대학교 산학협력단
Priority to KR1020190160742A priority Critical patent/KR102313721B1/ko
Priority to PCT/KR2020/013525 priority patent/WO2021112384A1/ko
Publication of KR20210070685A publication Critical patent/KR20210070685A/ko
Application granted granted Critical
Publication of KR102313721B1 publication Critical patent/KR102313721B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 자연어를 기본 단위로 분리하는 자연어 분석 단계, 기본 단위에 품사 정보를 생성하는 품사 정보 생성 단계, 기본 단위를 포함하는 상위 개념 정보를 생성하는 의미 추상화 단계, 및 품사 정보 및 상위 개념 정보를 이용하여 자연어를 처리하는 자연어 표상 단계를 포함하여, 자연어 표상 및 학습을 빠르고 정확도 높게 수행할 수 있다.

Description

자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램{Natural language representation method and computer program stored in the medium for performing the same}
본 발명은 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램에 관한 것으로서, 더욱 상세하게는 빠르고 정확성 있게 자연어를 표상하는 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램에 관한 것이다.
자연어 표상은 자연어를 컴퓨터가 이해할 수 있는 형태로 표현하는 방법이다. 인간은 텍스트로 표현된 자연어에 대해 사전에 습득한 지식을 통해 정보를 획득할 수 있다. 그러나, 컴퓨터의 경우 단순 텍스트로 표현된 자연어에서 단순히 문자라는 정보만을 획득이 가능하다.
인간과 비슷한 수준의 정보를 컴퓨터에게 제공하기 위해 자연어 표상을 사용한다. 최근 자연어 처리 분야에서 심층 학습(딥러닝)이 주목받기 시작하면서 자연어 표상 방법의 중요도가 증가했다.
종래 기술에 따르면, 자연어는 고차원의 벡터로 표상된다. 벡터로 표상한 자연어는 벡터 차원수에 의해 정보가 한정적인 문제점이 있다. 자연어의 경우 복합적인 관계를 가지며 문법적 요소와 의미적 요소로 인해 단순히 고차원의 벡터로 표현하기 부족하기 때문이다.
다른 종래 기술의 경우에, 문맥을 분석하여 복수의 의미를 가지는 경우, 문맥에 따라 해석하여 정확한 해석이 가능했다. 즉, 복수의 의미 중 문맥에 부합하는 의미를 해석할 수 있다. 그러나, 많은 양의 학습 데이터를 사용해야 하고, 많은 연산이 필요해 학습에 많은 시간이 소요되는 문제점이 있다.
본 발명의 일 실시 예는, 정확하고 빠른 자연어 표상 및 학습을 가능하게 하는 자연어 표상 방법 및 이를 수행할 수 있게 매체에 저장된 컴퓨터 프로그램을 제공하는 것을 목적으로 한다.
이와 같은 목적을 달성하기 위한 본 발명은, 상기한 바와 같은 목적을 달성하기 위하여, 본 발명의 일 실시 예에 따른 자연어 표상 방법은, 자연어를 기본 단위로 분리하는 자연어 분석 단계, 기본 단위에 품사 정보를 생성하는 품사 정보 생성 단계, 기본 단위를 포함하는 상위 개념 정보를 생성하는 의미 추상화 단계, 및 품사 정보 및 상위 개념 정보를 이용하여 자연어를 처리하는 자연어 표상 단계를 포함하는 것을 특징으로 한다.
또한, 기본 단위는 형태소 단위인 것을 특징으로 한다.
또한, 형태소를 그 품사 정보에 따라 식별하는 형태소 식별 정보를 생성하는 식별 정보 생성 단계를 더 포함하는 것을 특징으로 한다.
또한, 품사 정보는 명사, 용언, 접두사, 접미사 및 어미를 포함하는 것을 특징으로 한다.
또한, 형태소 식별 정보는 형태소 및 특수 문자 중 적어도 하나를 포함하는 것을 특징으로 한다.
또한, 품사 정보가 명사인 경우, 형태소 식별 정보는 형태소만 포함하며, 품사 정보가 용언 또는 접두사인 경우, 형태소 식별 정보는 형태소와 형태소 뒤에 배치된 특수 문자를 포함하고, 품사 정보가 접미사 또는 어미인 경우, 형태소 식별 정보는 특수 문자와 특수 문자의 뒤에 배치된 형태소를 포함하는 것을 특징으로 한다.
또한, 의미 추상화 단계에서 상위 개념 정보는, 기 저장된 상위 개념 데이터베이스에서 기본 단위를 기초로 선택된 것을 특징으로 한다.
또한, 상위 개념 데이터베이스는 복수의 상위 개념 정보를 포함하며, 상위 개념 정보는 복수의 하위 개념 정보를 포함하는 것을 특징으로 한다.
또한, 상위 개념 정보와 하위 개념 정보는 명사인 것을 특징으로 한다.
또한, 본 발명의 일 실시 예에 따른 매체에 저장된 컴퓨터 프로그램은 본 발명의 일 실시 예에 따른 자연어 표상 방법을 실행한다.
이상과 같은 본 발명의 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램에 따르면, 자연어를 정확도 높으면서도 빠르게 표상하여 학습할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 자연어 표상 방법을 도시한 플로우 차트이다.
도 2는 도 1에 도시된 자연어 표상 방법의 다른 실시 예를 도시한 플로우 차트이다.
도 3은 본 발명의 일 실시 예에 따른 형태소 식별 정보를 도시한 표이다.
도 4는 본 발명의 일 실시 예에 따른 상위 개념 데이터베이스를 도시한 도면이다.
본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.
그리고 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다.
그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하에서는 도면에 도시한 실시 예에 기초하면서 본 발명에 대하여 더욱 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시 예에 따른 자연어 표상 방법을 도시한 플로우 차트이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 자연어 표상 방법은 자연어를 컴퓨터에서 빠르고 정확하게 표상하기 위해서, 자연어 분석 단계(S100), 품사 정보 생성 단계(S200), 의미 추상화 단계(S300), 및 자연어 표상 단계를 포함한다. 자연어 표상은 자연어를 컴퓨터가 이해할 수 있는 형태로 표현하는 방법이다. 자연어 처리는 자연어 표상된 정보를 통해 학습 등으로 활용하는 것이다.
자연어는 일반적으로 인간이 사용하는 말을 말한다. 자연어 표상이란 딥러닝 학습을 위해 자연어를 컴퓨터가 인식하게 하기 위한 기술을 말한다. 자연어는 여러 단어, 어절, 문장 들로 이루어진다.
자연어 분석 단계(S100)의 경우, 복수의 단어, 문장을 포함하는 자연어를 기본 단위로 분석(분리)한다. 여기서, 기본 단위는 형태소 단위이다. 일 실시 예로, "학교에" 라는 어절을 먼저 "학교"와 "에"로 분리될 수 있다. 한국어는 교착어로 조사와 접사의 의미를 인식하기 위해 어절 단위보다 축소된 형태소 단위를 사용한다.
품사 정보 생성 단계(S200)의 경우, 기본 단위에 해당하는 품사를 적용한다. 즉, 분류된 형태소에 따라 품사 정보를 생성한다. 품사 정보는 명사, 용언, 접두사, 접미사 및 어미를 포함할 수 있다. 일 실시 예로, "학교가"라는 어절의 경우, "학교"와 "가"로 분석될 수 있다. 여기서, "학교"에 대한 품사 정보는 명사이다. 또한, "가"에 대한 품사 정보는 접미사이다.
도 2는 도 1에 도시된 자연어 표상 방법의 다른 실시 예를 도시한 플로우 차트이며, 도 3은 본 발명의 일 실시 예에 따른 형태소 식별 정보를 도시한 표이다.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 자연어 표상 방법은 식별 정보 생성 단계(S210)를 더 포함할 수 있다. 식별 정보 생성 단계(S210)의 경우, 기본 단위 즉, 형태소를 그 품사 정보에 따라 식별(분류)하기 위한 형태소 식별 정보를 생성한다.
도 3을 참조하면, 형태소 식별 정보는 형태소 및 특수 문자 중 적어도 하나를 포함한다. 형태소 식별 정보는 형태소가 복수의 품사를 가지는 경우에 유용하다. 즉, 형태소 식별 정보는 복수의 품사를 가지는 형태소를 구분한다. 형태소 식별 정보는 빠른 자연어 표상을 가능하게 한다. 일 실시 예로, 형태소의 품사에 따라 특수 문자 "##"를 추가한다.
구체적으로, 품사 정보가 명사인 경우, 형태소 식별 정보는 형태소만을 포함한다. 즉, 명사의 경우 특수 문자가 추가되지 않는다. 예컨대,"사과"에 대한 형태소 식별 정보는 "사과"이다. 품사 정보가 용언 또는 접두사인 경우, 형태소 식별 정보는 형태소와 형태소 뒤에 배치된 특수 문자를 포함한다. 즉, 용언인 "갈"에 대한 형태소 식별 정보는 "갈##"이다. 또한, 접두사인 "수"에 대한 형태소 식별 정보는 "수##"이다.
품사 정보가 접미사 또는 어미인 경우, 형태소 식별 정보는 특수 문자와 특수 문자의 뒤에 배치된 형태소를 포함한다. 즉, 접미사인 "가"에 대한 형태소 식별 정보는 "##가"이다. 또한, 어미인 "다"에 대한 형태소 식별 정보는 "##다"이다.
도 4는 본 발명의 일 실시 예에 따른 상위 개념 데이터베이스를 도시한 도면이다.
도 4를 참조하면, 의미 추상화 단계(S300)의 경우, 기본 단위를 기초로 기본 단위(111)를 포함하는 상위 개념 정보(110)를 생성한다. 상위 개념 정보(110)는 상위 개념 데이터베이스(100)에서 기본 단위(111)를 기초로 선택된다. 상위 개념 데이터베이스(100)는 복수의 상위 개념 정보(110)를 포함한다. 상위 개념 정보(110)는 복수의 하위 개념 정보(111)를 포함한다. 여기서, 하위 개념 정보(111)는 기본 단위(111)이다. 상위 개념 데이터베이스(100)는 기 설정되어 저장된다. 상위 개념 정보(110)를 통해 기본 단위(111)의 개념 확장이 가능하여, 자연어 표상의 소요 시간이 단축될 수 있다. 즉, 자연어 학습 데이터를 확장하여 학습하는 효과를 가져온다.
일 실시 예로, 상위 개념 정보(110)와 하위 개념 정보(111)는 명사이다. 기본 단위(111)인 하위 개념 정보(111)가 연필인 경우, 상위 개념 정보(110)는 필기 도구로 선택된다. 또한, 기본 단위인 하위 개념 정보(111)가 사과인 경우, 상위 개념 정보(110)는 과일로 선택된다.
상위 개념 정보(110)는 기본 단위(111)와 관계성 및 유사한 개념을 가진 하위 개념 정보(111)들을 군집하게 한다. 예컨대, "연필"이라는 기본 단위(111)를 "필기 도구"로 추상화하면, "연필"은 "필기 도구"의 하위 개념 정보(111)들과 관계성을 가지게 된다. 즉, "연필"의 주변 개념인 "필기 도구"의 하위 개념 정보(111)들을 학습하는 효과를 가져온다.
자연어 표상 단계(S400)의 경우, 기본 단위의 품사 정보와 상위 개념 정보를 활용하여 자연어를 처리한다. 본 발명의 경우, 품사 정보와 상위 개념 정보를 BERT(Bidirectional Encoder Representations from Transformers) 모델에 적용한다. BERT는 Transformer[7]라는 encoder-decoder 모델의 encoder를 사용하여 자연어를 표상하는 모델이다.
한편, 본 발명의 일 실시 예에 따른 매체에 저장된 컴퓨터 프로그램은 본 발명의 일 실시 예에 따른 자연어 표상 방법을 실행한다.
본 발명에 따르면, 분석된 단어들 중 이전 단어 정보에 대한 종속성을 가지지 않아 빠른 자연어 표상 및 학습이 가능하다.
이상과 같이 본 발명의 도시된 실시 예를 참고하여 설명하고 있으나, 이는 예시적인 것들에 불과하며, 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자라면 본 발명의 요지 및 범위에 벗어나지 않으면서도 다양한 변형, 변경 및 균등한 타 실시 예들이 가능하다는 것을 명백하게 알 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적인 사상에 의해 정해져야 할 것이다.
100 : 상위 개념 데이터베이스
110 : 상위 개념 정보
111 : 하위 개념 정보

Claims (10)

  1. 매체에 저장된 컴퓨터 프로그램에 의해 자연어 표상을 수행하는 방법에 있어서,
    상기 컴퓨터 프로그램에 의해 자연어를 형태소 단위의 기본 단위로 분리하는 자연어 분석 단계;
    상기 컴퓨터 프로그램에 의해 상기 기본 단위에 대한 품사 정보를 생성하는 품사 정보 생성 단계;
    상기 컴퓨터 프로그램에 의해 상기 기본 단위의 개념 정보가 확장된 상위 개념 정보를 생성하는 의미 추상화 단계; 및
    상기 컴퓨터 프로그램에 의해 상기 품사 정보 및 상기 상위 개념 정보를 BERT(Bidirectional Encoder Representations from Transformers) 모델에 적용하여 자연어를 표상하는 자연어 표상 단계를 포함하는 자연어 표상 방법.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 품사 정보 생성 단계는
    상기 품사 정보에 따라 형태소 식별 정보를 생성하는 식별 정보 생성 단계를 더 포함하는 자연어 표상 방법.
  4. 제 1 항에 있어서,
    상기 품사 정보는 명사, 용언, 접두사, 접미사 및 어미를 포함하는 자연어 표상 방법.
  5. 제 3 항에 있어서,
    상기 형태소 식별 정보는 형태소 및 특수 문자 중 적어도 하나를 포함하는 자연어 표상 방법.
  6. 제 5 항에 있어서,
    상기 품사 정보가 명사인 경우, 상기 형태소 식별 정보는 형태소만 포함하며,
    상기 품사 정보가 용언 또는 접두사인 경우, 상기 형태소 식별 정보는 상기 형태소와 형태소 뒤에 배치된 특수 문자를 포함하고,
    상기 품사 정보가 접미사 또는 어미인 경우, 상기 형태소 식별 정보는 상기 특수 문자와 특수 문자의 뒤에 배치된 형태소를 포함하는 자연어 표상 방법.
  7. 제 1 항에 있어서,
    상기 의미 추상화 단계에서 상기 상위 개념 정보는,
    기 저장된 상위 개념 데이터베이스에서 상기 기본 단위를 기초로 선택된 자연어 표상 방법.
  8. 제 7 항에 있어서,
    상기 상위 개념 데이터베이스는 복수의 상위 개념 정보를 포함하며,
    상기 상위 개념 정보는 복수의 하위 개념 정보를 포함하는 자연어 표상 방법.
  9. 제 8 항에 있어서,
    상기 상위 개념 정보와 상기 하위 개념 정보는 명사인 자연어 표상 방법.
  10. 삭제
KR1020190160742A 2019-12-05 2019-12-05 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램 KR102313721B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190160742A KR102313721B1 (ko) 2019-12-05 2019-12-05 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램
PCT/KR2020/013525 WO2021112384A1 (ko) 2019-12-05 2020-10-06 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190160742A KR102313721B1 (ko) 2019-12-05 2019-12-05 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램

Publications (2)

Publication Number Publication Date
KR20210070685A KR20210070685A (ko) 2021-06-15
KR102313721B1 true KR102313721B1 (ko) 2021-10-15

Family

ID=76221804

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190160742A KR102313721B1 (ko) 2019-12-05 2019-12-05 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램

Country Status (2)

Country Link
KR (1) KR102313721B1 (ko)
WO (1) WO2021112384A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293359A (ja) 2007-05-25 2008-12-04 Sharp Corp 電子機器、その制御方法、および、翻訳文出力用プログラム
JP2014013549A (ja) * 2012-07-05 2014-01-23 Brainpad Inc 自然言語解析システムおよび自然言語解析方法
JP2015169947A (ja) 2014-03-04 2015-09-28 日本電信電話株式会社 モデル学習装置、形態素解析装置、及び方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100487716B1 (ko) * 2002-12-12 2005-05-03 한국전자통신연구원 단어레벨의 통계적 방법을 이용한 번역문 생성 방법 및 그장치
KR101702055B1 (ko) * 2015-06-23 2017-02-13 (주)아크릴 딥-러닝 기반 형태소 분석 장치와 형태소 분석 애플리케이션의 작동 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293359A (ja) 2007-05-25 2008-12-04 Sharp Corp 電子機器、その制御方法、および、翻訳文出力用プログラム
JP2014013549A (ja) * 2012-07-05 2014-01-23 Brainpad Inc 自然言語解析システムおよび自然言語解析方法
JP2015169947A (ja) 2014-03-04 2015-09-28 日本電信電話株式会社 モデル学習装置、形態素解析装置、及び方法

Also Published As

Publication number Publication date
WO2021112384A1 (ko) 2021-06-10
KR20210070685A (ko) 2021-06-15

Similar Documents

Publication Publication Date Title
Lu Computational methods for corpus annotation and analysis
CN1618064B (zh) 翻译方法与计算机设备
Gómez-Adorno et al. Improving feature representation based on a neural network for author profiling in social media texts
Sundblad Automatic acquisition of hyponyms and meronyms from question corpora
Chennoufi et al. Impact of morphological analysis and a large training corpus on the performances of Arabic diacritization
Park et al. Automatic analysis of thematic structure in written English
Elbarougy et al. A proposed natural language processing preprocessing procedures for enhancing arabic text summarization
KR102313721B1 (ko) 자연어 표상 방법 및 이를 수행하기 위해 매체에 저장된 컴퓨터 프로그램
JP6586055B2 (ja) 深層格解析装置、深層格学習装置、深層格推定装置、方法、及びプログラム
Mammadov et al. Part-of-speech tagging for azerbaijani language
KR102182248B1 (ko) 문법 검사 시스템 및 방법과 이를 위한 컴퓨터 프로그램
Kutlu et al. Noun phrase chunking for Turkish using a dependency parser
Jolly et al. Anatomizing lexicon with natural language Tokenizer Toolkit 3
Labidi New combined method to improve Arabic POS tagging
Sawant et al. AI Model to Generate SQL Queries from Natural Language Instructions through Voice
Sodhar et al. Chapter-1 Natural Language Processing: Applications, Techniques and Challenges
Gakis et al. Construction of a Modern Greek grammar checker through Mnemosyne formalism
Dutta et al. Parts of speech (POS) tagging for Dogri language
Shiva Kumar et al. Regular expression tagger for Kannada parts of speech tagging
Ouersighni Robust rule-based approach in Arabic processing
Niazi Morphological Analysis of Urdu Verbs
Blanchete et al. The use of Arabic linguistic resources to develop learning applications
Bhuyan et al. Context-Based Clustering of Assamese Words using N-gram Model
Rodrigues et al. Arabic data science toolkit: An api for arabic language feature extraction
JP4033089B2 (ja) 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant