KR102592585B1 - 번역 모델 구축 방법 및 장치 - Google Patents
번역 모델 구축 방법 및 장치 Download PDFInfo
- Publication number
- KR102592585B1 KR102592585B1 KR1020190013591A KR20190013591A KR102592585B1 KR 102592585 B1 KR102592585 B1 KR 102592585B1 KR 1020190013591 A KR1020190013591 A KR 1020190013591A KR 20190013591 A KR20190013591 A KR 20190013591A KR 102592585 B1 KR102592585 B1 KR 102592585B1
- Authority
- KR
- South Korea
- Prior art keywords
- model
- translation model
- translation
- hidden
- loss function
- Prior art date
Links
- 238000013519 translation Methods 0.000 title claims abstract description 192
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004088 simulation Methods 0.000 claims abstract description 39
- 238000010276 construction Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 71
- 230000006870 function Effects 0.000 claims description 66
- 238000013138 pruning Methods 0.000 claims description 34
- 238000013139 quantization Methods 0.000 claims description 20
- 239000011159 matrix material Substances 0.000 claims description 19
- 230000003362 replicative effect Effects 0.000 claims description 8
- 244000141353 Prunus domestica Species 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 2
- 230000002542 deteriorative effect Effects 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 25
- 238000003062 neural network model Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 125000004122 cyclic group Chemical group 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/3332—Query translation
- G06F16/3337—Translation of the query language, e.g. Chinese to English
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9027—Trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Operations Research (AREA)
- Neurology (AREA)
- Machine Translation (AREA)
Abstract
Description
도 2는 본 발명의 일 예에 따른 파라미터 분포의 모사 학습 과정을 도시한다.
도 3은 참조 모델의 트리 탐색 구조를 도시한다.
도 4는 본 발명의 일 예에 따른 트리 탐색 구조의 모사 학습 과정을 도시한다.
120: 트리 탐색 구조 모사 학습 단계
130; 파라미터 전지 및 양자화 단계
140: 재학습 단계
Claims (15)
- 적어도 하나의 은닉 계층을 포함하는 번역 모델을 구축하는 방법에 있어서,
사전 구축된 참조 모델의 단어 확률 분포에 대한 파라미터 분포를 모사 학습하는 단계; 및
상기 참조 모델의 트리 탐색 구조를 모사 학습하는 단계를 포함하고,
상기 트리 탐색 구조를 모사 학습하는 단계는,
상기 은닉 계층에 포함되는 일련의 은닉 상태 벡터 및 학습가능한 행렬에 대하여 정의된 제 3 손실 함수를 이용하여 상기 번역 모델의 마지막 은닉 계층이 상기 참조 모델의 마지막 은닉 계층을 모사 학습하도록 하고, 상기 제 3 손실 함수는 상기 은닉 상태 벡터와 상기 참조 모델의 마지막 은닉 계층의 은닉 상태 벡터 간의 거리의 함수이고, 상기 학습가능한 행렬을 상기 은닉 상태 벡터에 곱하여 상기 번역 모델의 은닉 상태 벡터 차원과 동일하게 만들고, 상기 제 3 손실 함수가 최소가 되도록 상기 은닉 상태 벡터 및 상기 학습가능한 행렬을 조정하는 것
인 번역 모델 구축 방법.
- 제 1 항에 있어서,
상기 파라미터 분포를 모사 학습하는 단계는,
상기 번역 모델의 상기 적어도 하나의 은닉 계층의 단어 확률 분포에 대하여 정의된 손실 함수를 이용하여 상기 참조 모델의 단어 확률 분포를 결정하는 참조 모델 파라미터를 모사 학습하는 것인, 번역 모델 구축 방법.
- 제 2 항에 있어서,
상기 손실 함수는,
상기 번역 모델의 단어 확률 분포 및 정답 분포(ground truth)의 교차 엔트로피에 대응하는 제 1 손실 함수를 포함하는, 번역 모델 구축 방법.
- 제 2 항에 있어서,
상기 손실 함수는,
상기 번역 모델의 단어 확률 분포 및 상기 참조 모델의 단어 확률 분포의 교차 엔트로피에 대응하는 제 2 손실 함수를 포함하는, 번역 모델 구축 방법.
- 제 2 항에 있어서,
상기 파라미터 분포를 모사 학습하는 단계는,
상기 손실 함수가 최소가 되도록 상기 적어도 하나의 은닉 계층의 단어 확률 분포를 결정하는 모델 파라미터를 조정하는 것인, 번역 모델 구축 방법.
- 삭제
- 삭제
- 삭제
- 제 1 항에 있어서,
상기 학습가능한 행렬의 크기는 상기 은닉 상태 벡터와 상기 참조 모델의 마지막 은닉 계층의 은닉 상태 벡터의 차원에 따라 결정되는, 번역 모델 구축 방법.
- 제 1 항에 있어서,
상기 번역 모델은 입력 계층 및 출력 계층을 더 포함하고,
상기 입력 계층, 상기 적어도 하나의 은닉 계층 및 상기 출력 계층의 각 파라미터를 중요도에 따라 전지하는 단계; 및
상기 계층 별로 각 파라미터를 양자화하는 단계;
를 더 포함하는 번역 모델 구축 방법.
- 제 10 항에 있어서,
상기 전지 및 양자화된 파라미터에 기반하여 상기 번역 모델의 재학습을 수행하는 단계
를 더 포함하는 번역 모델 구축 방법.
- 제 1 항에 있어서,
각 은닉 계층은 일련의 은닉 상태 벡터로 표현되고,
상기 번역 모델은 상기 참조 모델 보다 적은 개수의 은닉 계층을 포함하고, 상기 번역 모델의 은닉 상태 벡터는 상기 참조 모델의 은닉 상태 벡터 보다 적은 차원의 벡터로 표현되는, 번역 모델 구축 방법.
- 사전구축된 참조 모델에 기반하여 번역 모델을 구축하는 방법에 있어서,
번역 모델의 적어도 하나의 은닉 계층의 단어 확률 분포에 대하여 정의된 손실 함수를 이용하여 상기 참조 모델의 단어 확률 분포에 대한 파라미터 분포를 모사 학습하는 단계; 및
각 은닉 계층을 표현하는 일련의 은닉 상태 벡터 및 학습가능한 행렬에 대하여 정의된 제 3 손실 함수를 이용하여 상기 참조 모델의 트리 탐색 구조를 모사 학습하는 단계를 포함하고,
상기 트리 탐색 구조를 모사 학습하는 단계는,
상기 제 3 손실 함수를 이용하여 상기 번역 모델의 마지막 은닉 계층이 상기 참조 모델의 마지막 은닉 계층을 모사 학습하도록 하고, 상기 제 3 손실 함수는 상기 은닉 상태 벡터와 상기 참조 모델의 마지막 은닉 계층의 은닉 상태 벡터 간의 거리의 함수이고, 상기 학습가능한 행렬을 상기 은닉 상태 벡터에 곱하여 상기 번역 모델의 은닉 상태 벡터 차원과 동일하게 만들고, 상기 제 3 손실 함수가 최소가 되도록 상기 은닉 상태 벡터 및 상기 학습가능한 행렬을 조정하는 것
인 번역 모델 구축 방법.
- 제 13 항에 있어서,
상기 파라미터 분포를 모사 학습하는 단계 및 상기 트리 탐색 구조를 모사 학습하는 단계는 동시에 수행가능한, 번역 모델 구축 방법.
- 사전구축된 참조 모델에 기반하여 번역 모델을 구축하는 장치에 있어서,
상기 참조 모델의 단어 확률 분포에 대한 파라미터 분포 및 트리 탐색 구조를 모사 학습하여 모사된 번역 모델을 생성하는 모사 학습부;
상기 모사된 번역 모델의 각 단계의 파라미터를 중요도에 따라 전지하고 양자화하는 전지 및 양자화부; 및
모델 재학습을 진행하여 상기 전지 및 양자화된 번역 모델을 최적화하는 재학습부를 포함하고,
상기 모사 학습부는 은닉 계층에 포함되는 일련의 은닉 상태 벡터 및 학습가능한 행렬에 대하여 정의된 제 3 손실 함수를 이용하여 상기 번역 모델의 마지막 은닉 계층이 상기 참조 모델의 마지막 은닉 계층을 모사 학습하도록 하고, 상기 제 3 손실 함수는 상기 은닉 상태 벡터와 상기 참조 모델의 마지막 은닉 계층의 은닉 상태 벡터 간의 거리의 함수이고, 상기 학습가능한 행렬을 상기 은닉 상태 벡터에 곱하여 상기 번역 모델의 은닉 상태 벡터 차원과 동일하게 만들고, 상기 제 3 손실 함수가 최소가 되도록 상기 은닉 상태 벡터 및 상기 학습가능한 행렬을 조정하는 것
인 번역 모델 구축 장치.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190013591A KR102592585B1 (ko) | 2019-02-01 | 2019-02-01 | 번역 모델 구축 방법 및 장치 |
US16/751,764 US11544479B2 (en) | 2019-02-01 | 2020-01-24 | Method and apparatus for constructing translation model installed on a terminal on the basis of a pre-built reference model |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190013591A KR102592585B1 (ko) | 2019-02-01 | 2019-02-01 | 번역 모델 구축 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200095789A KR20200095789A (ko) | 2020-08-11 |
KR102592585B1 true KR102592585B1 (ko) | 2023-10-23 |
Family
ID=71837026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190013591A KR102592585B1 (ko) | 2019-02-01 | 2019-02-01 | 번역 모델 구축 방법 및 장치 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11544479B2 (ko) |
KR (1) | KR102592585B1 (ko) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022010787A1 (en) * | 2020-07-07 | 2022-01-13 | BlueOwl, LLC | Managing vehicle operator profiles based on primary and secondary telematics inferences via a telematics marketplace |
CN112287697A (zh) * | 2020-11-03 | 2021-01-29 | 沈阳雅译网络技术有限公司 | 一种加快小型智能移动设备中翻译软件运行速度的方法 |
CN112257466B (zh) * | 2020-11-03 | 2023-08-18 | 沈阳雅译网络技术有限公司 | 一种应用于小型机器翻译设备的模型压缩方法 |
CN112257463B (zh) * | 2020-11-03 | 2023-08-15 | 沈阳雅译网络技术有限公司 | 一种中英互译的神经机器翻译模型的压缩方法 |
CN113935338B (zh) * | 2021-10-13 | 2024-07-12 | 北京有竹居网络技术有限公司 | 基于层预测的语言翻译的方法、设备、装置和介质 |
CN114822498B (zh) * | 2022-03-29 | 2024-06-07 | 北京有竹居网络技术有限公司 | 语音翻译模型的训练方法、语音翻译方法、装置及设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5652824B2 (ja) | 2011-02-08 | 2015-01-14 | 独立行政法人情報通信研究機構 | テキスト入力装置、それを含む翻訳装置、テキスト入力方法及びコンピュータプログラム |
US20170148433A1 (en) | 2015-11-25 | 2017-05-25 | Baidu Usa Llc | Deployed end-to-end speech recognition |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5652824B2 (ko) * | 1973-07-30 | 1981-12-15 | ||
US5228113A (en) * | 1991-06-17 | 1993-07-13 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Accelerated training apparatus for back propagation networks |
WO2003025685A1 (en) * | 2001-09-14 | 2003-03-27 | Ibex Process Technology, Inc. | Scalable, hierarchical control for complex processes |
KR100820723B1 (ko) * | 2006-05-19 | 2008-04-10 | 인하대학교 산학협력단 | 은닉노드 목표값을 가진 2 개층 신경망을 이용한 분리 학습시스템 및 방법 |
WO2011139687A1 (en) * | 2010-04-26 | 2011-11-10 | The Trustees Of The Stevens Institute Of Technology | Systems and methods for automatically detecting deception in human communications expressed in digital form |
US10963810B2 (en) * | 2014-06-30 | 2021-03-30 | Amazon Technologies, Inc. | Efficient duplicate detection for machine learning data sets |
US10452992B2 (en) * | 2014-06-30 | 2019-10-22 | Amazon Technologies, Inc. | Interactive interfaces for machine learning model evaluations |
KR101844932B1 (ko) | 2014-09-16 | 2018-04-03 | 한국전자통신연구원 | 신호처리 알고리즘이 통합된 심층 신경망 기반의 음성인식 장치 및 이의 학습방법 |
KR102154676B1 (ko) | 2015-05-14 | 2020-09-10 | 한국과학기술원 | 인공 신경망의 하향식 선택적 주의집중 트레이닝 방법 |
KR102336295B1 (ko) | 2016-10-04 | 2021-12-09 | 한국전자통신연구원 | 적응적 프루닝 및 가중치 공유를 사용하는 컨볼루션 신경망 시스템 및 그것의 동작 방법 |
KR102592721B1 (ko) | 2017-01-11 | 2023-10-25 | 한국전자통신연구원 | 이진 파라미터를 갖는 컨볼루션 신경망 시스템 및 그것의 동작 방법 |
US11170287B2 (en) * | 2017-10-27 | 2021-11-09 | Salesforce.Com, Inc. | Generating dual sequence inferences using a neural network model |
US11269870B2 (en) * | 2018-10-02 | 2022-03-08 | Adobe Inc. | Performing automatic segment expansion of user embeddings using multiple user embedding representation types |
-
2019
- 2019-02-01 KR KR1020190013591A patent/KR102592585B1/ko active IP Right Grant
-
2020
- 2020-01-24 US US16/751,764 patent/US11544479B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5652824B2 (ja) | 2011-02-08 | 2015-01-14 | 独立行政法人情報通信研究機構 | テキスト入力装置、それを含む翻訳装置、テキスト入力方法及びコンピュータプログラム |
US20170148433A1 (en) | 2015-11-25 | 2017-05-25 | Baidu Usa Llc | Deployed end-to-end speech recognition |
Non-Patent Citations (1)
Title |
---|
Ming Liu, Wray Buntine, Gholamreza Haffari, Learning to Actively Learn Neural Machine Translation, Proceedings of the 22nd Conference on Computational Natural Language Learning, 2018* |
Also Published As
Publication number | Publication date |
---|---|
US11544479B2 (en) | 2023-01-03 |
US20200250384A1 (en) | 2020-08-06 |
KR20200095789A (ko) | 2020-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102592585B1 (ko) | 번역 모델 구축 방법 및 장치 | |
CN112241455B (zh) | 基于多层级知识蒸馏预训练语言模型自动压缩方法及平台 | |
JP7109557B2 (ja) | 質問応答としてのマルチタスク学習 | |
US11030997B2 (en) | Slim embedding layers for recurrent neural language models | |
US10984308B2 (en) | Compression method for deep neural networks with load balance | |
CN112990444B (zh) | 一种混合式神经网络训练方法、系统、设备及存储介质 | |
US20140156575A1 (en) | Method and Apparatus of Processing Data Using Deep Belief Networks Employing Low-Rank Matrix Factorization | |
KR20190050141A (ko) | 고정 소수점 타입의 뉴럴 네트워크를 생성하는 방법 및 장치 | |
CN111008266B (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
CN112465138A (zh) | 模型蒸馏方法、装置、存储介质及设备 | |
CN109165720A (zh) | 神经网络模型压缩方法、装置和计算机设备 | |
CN111709493B (zh) | 对象分类方法、训练方法、装置、设备及存储介质 | |
CN110210032A (zh) | 文本处理方法及装置 | |
WO2022126683A1 (zh) | 面向多任务的预训练语言模型自动压缩方法及平台 | |
US12182711B2 (en) | Generation of neural network containing middle layer background | |
US20200151250A1 (en) | Multi-resolution convolutional neural networks for sequence modeling | |
JP7070653B2 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
US20220180206A1 (en) | Knowledge distillation using deep clustering | |
CN111814489A (zh) | 口语语义理解方法及系统 | |
US20210294874A1 (en) | Quantization method based on hardware of in-memory computing and system thereof | |
CN116018589A (zh) | 用于基于乘积量化的矩阵压缩的方法和系统 | |
CN115017178A (zh) | 数据到文本生成模型的训练方法和装置 | |
US11341413B2 (en) | Leveraging class information to initialize a neural network language model | |
Eldebiky et al. | Correctnet: Robustness enhancement of analog in-memory computing for neural networks by error suppression and compensation | |
CN115374777A (zh) | 用于自然语言处理的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190201 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20211007 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20190201 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20230407 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20230825 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20231018 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20231018 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |