JP6899973B2 - 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム - Google Patents
意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム Download PDFInfo
- Publication number
- JP6899973B2 JP6899973B2 JP2020561087A JP2020561087A JP6899973B2 JP 6899973 B2 JP6899973 B2 JP 6899973B2 JP 2020561087 A JP2020561087 A JP 2020561087A JP 2020561087 A JP2020561087 A JP 2020561087A JP 6899973 B2 JP6899973 B2 JP 6899973B2
- Authority
- JP
- Japan
- Prior art keywords
- example data
- negative example
- learning
- data
- similarity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000013016 learning Effects 0.000 title claims description 284
- 238000000034 method Methods 0.000 title claims description 33
- 238000012545 processing Methods 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 36
- 238000013500 data storage Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 22
- 238000010801 machine learning Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 21
- 239000000284 extract Substances 0.000 claims description 7
- 230000004044 response Effects 0.000 claims 1
- 239000013598 vector Substances 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000005457 optimization Methods 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Description
《1−1》実施の形態1の構成.
図1は、本発明の実施の形態1に係る意味関係学習装置1の構成を概略的に示す機能ブロック図である。図1に示されるように、意味関係学習装置1は、実施の形態1に係る意味関係学習方法を実施することができる装置である。図1に示されるように、意味関係学習装置1は、負例データ作成部12と、特徴量抽出部13と、類似度算出部14と、学習用負例データ作成部15と、学習データセット選択部17と、学習処理部18とを備えている。また、意味関係学習装置1は、正例データ記憶部11と、学習用負例データ記憶部16とを備えてもよい。
0.1≦d1<0.3の範囲である第1の類似度範囲、
0.3≦d1<0.5の範囲である第2の類似度範囲、及び
0.5≦d1≦0.7の範囲である第3の類似度範囲、
である。この例は、負例データペアを、類似度範囲別に、3つのデータセットに分類する場合の例である。なお、作成する学習用負例データセットの類似度範囲の広さ、類似度範囲の数は、上記の例に限定されない。
図3は、実施の形態1に係る意味関係学習装置1の動作を示すフローチャートである。また、図4は、実施の形態1における負例データ作成部12の動作を示すフローチャートである。まず、負例データ作成部12は、正例データ記憶部11から複数の正例データペアA11を取得することで、複数の正例データペアA11の各々を構成する言語データを取得する(ステップS11、ステップS111)。
以上に説明したように、実施の形態1に係る意味関係学習装置1、意味関係学習方法、又は意味関係学習プログラムを用いれば、良好な意味関係の判別を可能にする機械学習処理を行うことができる。
《2−1》実施の形態2の構成.
図10は、本発明の実施の形態2に係る意味関係学習装置2の構成を概略的に示す機能ブロック図である。意味関係学習装置2は、実施の形態2に係る意味関係学習方法を実施することができる装置である。図10に示されるように、意味関係学習装置2は、負例データ作成部22と、特徴量抽出部23と、類似度算出部24と、学習用負例データ作成部25と、学習データセット選択部27と、学習処理部28とを備えている。また、意味関係学習装置2は、正例データ記憶部21と、学習用負例データ記憶部26とを備えてもよい。以下に、実施の形態2を、実施の形態1と異なる箇所を中心に、説明する。
0.1≦d2<0.3の範囲である第1の類似度範囲、
0.3≦d2<0.5の範囲である第2の類似度範囲、及び
0.5≦d2≦0.7の範囲である第3の類似度範囲、
である。この例は、学習用負例データペアを、類似度範囲別に、3つのデータセットに分類する場合の例である。なお、作成する学習用負例データセットの類似度範囲の広さ、類似度範囲の数は、上記の例に限定されない。
図11は、実施の形態2に係る意味関係学習装置2の動作を示すフローチャートである。また、図12は、実施の形態2における負例データ作成部22の動作を示すフローチャートである。まず、負例データ作成部22は、正例データ記憶部21から複数の正例データペアA21を取得することで、複数の正例データペアA21の各々を構成する言語データである質問文データと回答文データとを取得する(ステップS21、ステップS211)。
以上に説明したように、実施の形態2に係る意味関係学習装置2、意味関係学習方法、又は意味関係学習プログラムを用いれば、良好な意味関係の判別を可能にする機械学習処理を行うことができる。
Claims (11)
- 複数の正例データペアの各々は互いに予め決められた意味関係にある言語データから構成されており、前記複数の正例データペアを格納している正例データ記憶部から、前記複数の正例データペアを取得し、前記言語データを組み合わせることによって複数の負例データペアを作成し、前記複数の負例データペアの各々は互いに前記予め決められた意味関係にない言語データから構成される、負例データ作成部と、
前記複数の負例データペアの各々を構成する前記言語データから特徴量を抽出する特徴量抽出部と、
前記複数の負例データペアの各々における前記言語データの前記特徴量の間の類似度を算出する類似度算出部と、
前記類似度に基づいて、前記複数の負例データペアを予め決められた複数の類似度範囲に分類することによって、又は、前記類似度に基づいて、前記複数の負例データペアを構成する前記言語データと前記複数の正例データペアを構成する前記言語データとから作成された複数の学習用負例データペアを予め決められた複数の類似度範囲に分類することによって、前記複数の類似度範囲に対応する複数の学習用負例データセットを作成し、前記複数の学習用負例データセットの各々は前記複数の負例データペアのうちの1つ以上の負例データペアを含む、学習用負例データ作成部と、
前記複数の類似度範囲に基づいて予め決められた選択スケジュールに従う順序で、前記複数の学習用負例データセットのうちのいずれかの学習用負例データセットを選択する学習データセット選択部と、
前記学習データセット選択部によって選択された前記学習用負例データセットと前記複数の正例データペアとを用いて機械学習処理を行う学習処理部と、
を備えることを特徴とする意味関係学習装置。 - 前記予め決められた意味関係にある前記言語データは、互いに同義関係にある言語データであり、
前記予め決められた意味関係にない前記言語データは、互いに同義関係にない言語データであり、
前記学習用負例データ作成部は、前記類似度に基づいて、前記複数の負例データペアを予め決められた複数の類似度範囲に分類することによって、前記複数の学習用負例データセットを作成する
ことを特徴とする請求項1に記載の意味関係学習装置。 - 前記学習データセット選択部は、
nを1以上の整数としたときに、
前記複数の類似度範囲のうちのn番目に低い値の類似度範囲に対応する学習用負例データセットがn番目に選択されるように、前記選択スケジュールを決定する
ことを特徴とする請求項2に記載の意味関係学習装置。 - 前記予め決められた意味関係にある前記言語データは、質問文を示す言語データと回答文を示す言語データであり、
前記予め決められた意味関係にない前記言語データは、質問文を示す第1の言語データと質問文を示す第2の言語データ、又は、回答文を示す第3の言語データと回答文を示す第4の言語データであり、
前記学習用負例データ作成部は、前記類似度に基づいて、前記複数の負例データペアと前記複数の正例データペアとから作成された複数の学習用負例データペアを予め決められた複数の類似度範囲に分類することによって、前記複数の学習用負例データセットを作成する
ことを特徴とする請求項1に記載の意味関係学習装置。 - 前記予め決められた意味関係にある前記言語データは、質問文を示す言語データと回答文を示す言語データであり、
前記予め決められた意味関係にない前記言語データは、質問文を示す第1の言語データと質問文を示す第2の言語データ、又は、回答文を示す第3の言語データと回答文を示す第4の言語データであり、
前記学習用負例データ作成部は、前記複数の正例データペアの各々の質問文データを、前記複数の負例データペアのうちのいずれかの負例データペアの前記第1の言語データ若しくは前記第2の言語データで置き換えることによって、又は、前記複数の正例データペアの各々の回答文データを、前記複数の負例データペアのうちのいずれかの負例データペアの前記第3の言語データ若しくは前記第4の言語データで置き換えることによって、作成された複数の学習用負例データペアを予め決められた複数の類似度範囲に分類することによって、前記複数の学習用負例データセットを作成する
ことを特徴とする請求項1に記載の意味関係学習装置。 - 前記学習データセット選択部は、
nを1以上の整数としたときに、
前記複数の類似度範囲のうちのn番目に低い値の類似度範囲に対応する学習用負例データセットがn番目に選択されるように、前記選択スケジュールを決定する
ことを特徴とする請求項4又は5に記載の意味関係学習装置。 - 前記複数の正例データペアを格納している前記正例データ記憶部をさらに備えたことを特徴とする請求項1から6のいずれか1項に記載の意味関係学習装置。
- 前記学習用負例データ作成部によって作成された前記複数の学習用負例データセットを格納する学習用負例データ記憶部をさらに備えたことを特徴とする請求項1から7のいずれか1項に記載の意味関係学習装置。
- 前記学習処理部によって行われた前記機械学習処理の結果を記憶する記憶部をさらに備えたことを特徴とする請求項1から8のいずれか1項に記載の意味関係学習装置。
- 複数の正例データペアの各々は互いに予め決められた意味関係にある言語データから構成されており、意味関係学習装置が、前記複数の正例データペアを格納している正例データ記憶部から、前記複数の正例データペアを取得し、前記言語データを組み合わせることによって複数の負例データペアを作成し、前記複数の負例データペアの各々は互いに前記予め決められた意味関係にない言語データから構成される、負例データ作成ステップと、
前記意味関係学習装置が、前記複数の負例データペアの各々を構成する前記言語データから特徴量を抽出する抽出ステップと、
前記意味関係学習装置が、前記複数の負例データペアの各々における前記言語データの前記特徴量の間の類似度を算出する算出ステップと、
前記意味関係学習装置が、前記類似度に基づいて、前記複数の負例データペアを予め決められた複数の類似度範囲に分類することによって、又は、前記類似度に基づいて、前記複数の負例データペアを構成する前記言語データと前記複数の正例データペアを構成する前記言語データとから作成された複数の学習用負例データペアを予め決められた複数の類似度範囲に分類することによって、前記複数の類似度範囲に対応する複数の学習用負例データセットを作成し、前記複数の学習用負例データセットの各々は前記複数の負例データペアのうちの1つ以上の負例データペアを含む、学習用負例データ作成ステップと、
前記意味関係学習装置が、前記複数の類似度範囲に基づいて予め決められた選択スケジュールに従う順序で、前記複数の学習用負例データセットのうちのいずれかの学習用負例データセットを選択する選択ステップと、
前記意味関係学習装置が、選択された前記学習用負例データセットと前記複数の正例データペアとを用いて機械学習処理を行う学習ステップと、
を有することを特徴とする意味関係学習方法。 - 複数の正例データペアの各々は互いに予め決められた意味関係にある言語データから構成されており、前記複数の正例データペアを格納している正例データ記憶部から、前記複数の正例データペアを取得し、前記言語データを組み合わせることによって複数の負例データペアを作成し、前記複数の負例データペアの各々は互いに前記予め決められた意味関係にない言語データから構成される、負例データ作成処理と、
前記複数の負例データペアの各々を構成する前記言語データから特徴量を抽出する抽出処理と、
前記複数の負例データペアの各々における前記言語データの前記特徴量の間の類似度を算出する算出処理と、
前記類似度に基づいて、前記複数の負例データペアを予め決められた複数の類似度範囲に分類することによって、又は、前記類似度に基づいて、前記複数の負例データペアを構成する前記言語データと前記複数の正例データペアを構成する前記言語データとから作成された複数の学習用負例データペアを予め決められた複数の類似度範囲に分類することによって、前記複数の類似度範囲に対応する複数の学習用負例データセットを作成し、前記複数の学習用負例データセットの各々は前記複数の負例データペアのうちの1つ以上の負例データペアを含む、学習用負例データ作成処理と、
前記複数の類似度範囲に基づいて予め決められた選択スケジュールに従う順序で、前記複数の学習用負例データセットのうちのいずれかの学習用負例データセットを選択する選択処理と、
選択された前記学習用負例データセットと前記複数の正例データペアとを用いて機械学習処理を行う学習処理と、
をコンピュータに実行させることを特徴とする意味関係学習プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/000173 WO2020144736A1 (ja) | 2019-01-08 | 2019-01-08 | 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020144736A1 JPWO2020144736A1 (ja) | 2021-02-18 |
JP6899973B2 true JP6899973B2 (ja) | 2021-07-07 |
Family
ID=71521530
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561087A Active JP6899973B2 (ja) | 2019-01-08 | 2019-01-08 | 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210312333A1 (ja) |
JP (1) | JP6899973B2 (ja) |
KR (1) | KR102400689B1 (ja) |
CN (1) | CN113302601A (ja) |
DE (1) | DE112019006005T5 (ja) |
WO (1) | WO2020144736A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112256849B (zh) * | 2020-10-20 | 2024-02-13 | 深圳前海微众银行股份有限公司 | 模型训练方法、文本检测方法、装置、设备和存储介质 |
JP7190479B2 (ja) * | 2020-12-28 | 2022-12-15 | 楽天グループ株式会社 | 学習装置、機械学習モデル及び学習方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4838272B2 (ja) * | 2008-01-30 | 2011-12-14 | 日本電信電話株式会社 | 映像インデキシング装置,映像インデキシング方法,映像インデキシングプログラムおよびその記録媒体 |
WO2009123288A1 (ja) * | 2008-04-03 | 2009-10-08 | 日本電気株式会社 | 単語分類システム、方法およびプログラム |
JP5379813B2 (ja) | 2011-01-07 | 2013-12-25 | 日本電信電話株式会社 | データ抽出装置、データ抽出方法、及びプログラム |
JP5682448B2 (ja) * | 2011-05-20 | 2015-03-11 | 日本電気株式会社 | 因果単語対抽出装置、因果単語対抽出方法および因果単語対抽出用プログラム |
JP5825676B2 (ja) * | 2012-02-23 | 2015-12-02 | 国立研究開発法人情報通信研究機構 | ノン・ファクトイド型質問応答システム及びコンピュータプログラム |
JP5431532B2 (ja) | 2012-06-08 | 2014-03-05 | 日本電信電話株式会社 | 質問応答装置、モデル学習装置、方法、及びプログラム |
JP5916016B2 (ja) | 2012-12-17 | 2016-05-11 | 日本電信電話株式会社 | 同義判定装置、同義学習装置、及びプログラム |
EP2953062A4 (en) * | 2013-02-01 | 2017-05-17 | Fujitsu Limited | Learning method, image processing device and learning program |
JP5976037B2 (ja) | 2014-05-26 | 2016-08-23 | 日本電信電話株式会社 | モデル学習装置、ランキング装置、方法、及びプログラム |
JP2017010249A (ja) * | 2015-06-22 | 2017-01-12 | 日本電信電話株式会社 | パラメタ学習装置、文類似度算出装置、方法、及びプログラム |
JP6618735B2 (ja) * | 2015-08-31 | 2019-12-11 | 国立研究開発法人情報通信研究機構 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
JP6558863B2 (ja) * | 2016-08-09 | 2019-08-14 | 日本電信電話株式会社 | モデル作成装置、推定装置、方法、及びプログラム |
JP6440035B2 (ja) * | 2016-08-26 | 2018-12-19 | 井関農機株式会社 | コンバイン |
CN108153853B (zh) * | 2017-12-22 | 2022-02-01 | 齐鲁工业大学 | 基于Wikipedia链接结构的中文概念向量生成方法和装置 |
-
2019
- 2019-01-08 JP JP2020561087A patent/JP6899973B2/ja active Active
- 2019-01-08 KR KR1020217019768A patent/KR102400689B1/ko active IP Right Grant
- 2019-01-08 WO PCT/JP2019/000173 patent/WO2020144736A1/ja active Application Filing
- 2019-01-08 CN CN201980087410.5A patent/CN113302601A/zh active Pending
- 2019-01-08 DE DE112019006005.8T patent/DE112019006005T5/de active Pending
-
2021
- 2021-06-15 US US17/347,893 patent/US20210312333A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
KR20210088725A (ko) | 2021-07-14 |
KR102400689B1 (ko) | 2022-05-20 |
CN113302601A (zh) | 2021-08-24 |
WO2020144736A1 (ja) | 2020-07-16 |
US20210312333A1 (en) | 2021-10-07 |
JPWO2020144736A1 (ja) | 2021-02-18 |
DE112019006005T5 (de) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10606946B2 (en) | Learning word embedding using morphological knowledge | |
Alami et al. | Unsupervised neural networks for automatic Arabic text summarization using document clustering and topic modeling | |
Govindarajan | Sentiment analysis of restaurant reviews using hybrid classification method | |
JP6848091B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US11599749B1 (en) | Method of and system for explainable knowledge-based visual question answering | |
CN115309910B (zh) | 语篇要素和要素关系联合抽取方法、知识图谱构建方法 | |
JP6899973B2 (ja) | 意味関係学習装置、意味関係学習方法、及び意味関係学習プログラム | |
CN113821527A (zh) | 哈希码的生成方法、装置、计算机设备及存储介质 | |
Zhuang et al. | Bag-of-discriminative-words (bodw) representation via topic modeling | |
AbdElminaam et al. | DeepCorrect: Building an efficient framework for auto correction for subjective questions using GRU_LSTM deep learning | |
Jiang et al. | Moocon: a framework for semi-supervised concept extraction from Mooc content | |
CN117435685A (zh) | 文档检索方法、装置、计算机设备、存储介质和产品 | |
US20240037335A1 (en) | Methods, systems, and media for bi-modal generation of natural languages and neural architectures | |
US11880664B2 (en) | Identifying and transforming text difficult to understand by user | |
WO2018066083A1 (ja) | 学習プログラム、情報処理装置および学習方法 | |
KR20070118154A (ko) | 정보 처리 장치 및 방법, 및 프로그램 기록 매체 | |
CN114662488A (zh) | 词向量生成方法和设备、计算设备及计算机可读存储介质 | |
Zhang et al. | Open-domain document-based automatic QA models based on CNN and attention mechanism | |
JP4925293B2 (ja) | 確信度付与装置及び方法及びプログラム | |
Chantamuang et al. | Sentence-Level sentiment analysis for student feedback relevant to teaching process assessment | |
Mančev et al. | A primal sub-gradient method for structured classification with the averaged sum loss | |
Suominen et al. | Critical points in assessing learning performance via cross-validation | |
Nair et al. | Study of machine learning techniques for sentiment analysis | |
Wandabwa et al. | Document level semantic comprehension of noisy text streams via convolutional neural networks | |
JP2012164220A (ja) | トピックモデリング装置、トピックモデリング方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201029 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201029 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210518 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6899973 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |