JP2022108008A - データ生成装置、方法および学習装置 - Google Patents
データ生成装置、方法および学習装置 Download PDFInfo
- Publication number
- JP2022108008A JP2022108008A JP2021002781A JP2021002781A JP2022108008A JP 2022108008 A JP2022108008 A JP 2022108008A JP 2021002781 A JP2021002781 A JP 2021002781A JP 2021002781 A JP2021002781 A JP 2021002781A JP 2022108008 A JP2022108008 A JP 2022108008A
- Authority
- JP
- Japan
- Prior art keywords
- event
- data
- range
- ranges
- teaching data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000010586 diagram Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 16
- 238000013500 data storage Methods 0.000 description 11
- 238000002790 cross-validation Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 230000001364 causal effect Effects 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000003466 welding Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
Abstract
Description
よって、上述の手法では、ラベル誤りを含む文の重みを下げるだけであり、再現率を向上させることができない。
本実施形態に係るデータ生成装置10は、教示データ格納部101と、分割部102と、学習部103と、推定部104と、推定結果格納部105と、選択部106と、決定部107と、追加部108とを含む。なお、教示データ格納部101と、学習部103とを併せて学習装置とも呼ぶ。
追加部108は、追加イベントを教示データに追加し、教示データ格納部101に登録する。
なお、教示データ格納部101と推定結果格納部105とは、外部サーバなどデータ生成装置10の外部に存在してもよく、必要に応じてデータ生成装置10がアクセス可能であればよい。
図2に示す教示データは、文書21の文字列にラベル22が付与されている例である。具体的には、文書21を構成する文字または形態素などの構成単位(トークンともいう)に対して、イベント範囲23を指定するように、ラベル22が付与される。例えば、文書21に「配管のクラック」および「水が漏洩した」というイベントがあると想定した場合、「その/結果/、/配管/の/クラック/に/より/、/水/が/漏洩/した/こと/が/分かった/。」という文書21を構成する形態素に対し、「B-Event」、「I-Event」および「O」のラベル22が付与され、イベント範囲23が指定される。より具体的には、「配管/の/クラック」という形態素に、「B-Event/I-Event/I-Event」がそれぞれ付与され、イベント範囲23「配管のクラック」が定義される。同様に、イベント範囲23「水が漏洩した」が定義される。
ステップS302では、学習部103が、複数の部分データを用いてモデルを学習し、複数の学習済みモデルからなる1つの学習済みモデルセットを生成する。学習部103における学習処理については、図4および図5を参照して後述する。
ステップS304では、推定部104が、ステップS303における学習済みモデルセットを用いたイベント範囲の推定処理を、所定のイテレーション回数実行したか否かを判定する。具体的には、例えばカウンタを設定し、ステップS303のイベント範囲の推定処理を実行する度にカウンタの値を1つインクリメントし、カウンタの値が所定のイテレーション回数と一致するか否かを判定すればよい。イベント範囲の推定処理が所定のイテレーション回数実行された場合は、ステップS306に進み、所定のイテレーション回数実行されていない場合は、ステップS305に進む。
ステップS306では、選択部106が、学習済みモデルセットごとに推定された複数のイベント範囲を学習済みモデルセット間で比較する。選択部106は、比較の結果、教示データには含まれないイベント範囲を選択する。
ステップS308では、選択部106が、1以上のイベントグループの中から、推定エラーではなく教示漏れとして、より確からしい1以上の候補グループを選択する。
ステップS310では、追加部108が、決定された追加イベントを教示データに追加し、教示データ格納部101に登録する。つまり、教示データ格納部101に格納される教示データを更新する。なお、更新された教示データを更新教示データとも呼ぶ。
図4上図は、教示データに対する部分データの概念図を示し、図4下図は、学習および推定に用いる部分データの割り当てを示すテーブルである。
図5上図は、図4上図と同様の部分データの概念図であるが、教示データが図4上図とは異なる位置で分割される。破線は、図4上図に示される分割位置であり、実線は新たな分割位置である。例えば、教示データの先頭の一部分は、部分データ「E’」の一部である。このように、新たに複数の部分データ「A’,B’,C’,D’,E’」が生成される。
図6は、学習済みモデルセット(図6では、単にモデルセットという)を用いて複数回のイベント範囲の推定処理により得られたイベント範囲を示す。図6の横方向は、教示データの文書における文の進む方向を示す。図6の縦方向は、学習済みモデルセットの種別を示す。
イベント範囲601が類似するか否かの判定方法としては、各学習済みモデルセットのイベント範囲を横断的に比較し、イベント範囲の文字列が1文字以上重複する場合にイベント範囲が類似すると判定されればよい。なお、イベント範囲601の文字列の重複度が閾値以上、例えば、nパーセント以上重複する場合にイベント範囲601が類似すると判定されてもよい。また、イベント範囲601における末尾からn個の形態素のいずれかが重複している場合にイベント範囲601が類似すると判定されてもよい。さらには、これらの判定方法の組み合わせでもよいし、他の判定方法でもよい。
なお、選択部106は、文の進む方向に沿った各モデルセットの3番目のイベント範囲601は教示データと重複した範囲を有するため、これらのイベント範囲についてはイベントグループを生成しない。
選択部106は、閾値以上のイベント数を含むイベントグループを、候補グループ701として選択する。図7の例では、例えば閾値を「3」と設定した場合、イベントグループ610に含まれるイベント数が「4」、イベントグループ611に含まれるイベント数が「4」、イベントグループ612に含まれるイベント数が「2」であるため、選択部106は、イベントグループ610およびイベントグループ611を候補グループ701として選択する。なお、選択部106は、イベント範囲の推定処理の回数に対し、イベントグループに含まれるイベント範囲601の数が所定の割合以上となるイベントグループを候補グループ701として選択してもよい。具体的に例えば、所定の割合を70パーセントとし、10回イベント範囲の推定処理が実行された場合、選択部106は、イベント範囲が7つ以上含まれるイベントグループを候補グループ701として選択する。これにより、推定揺れを考慮しつつ、多数決で教示データには存在しないイベント範囲を特定できるため、学習済みモデルの推定誤りではなく教示漏れのみを追加できる可能性を向上させることができる。
図8は、図7に示される候補グループ701を示す。決定部107は、候補グループ701に含まれるイベント範囲から追加イベントを決定する。追加イベントの決定方法としては、例えば、候補グループ701に属するイベント範囲の中で、同一の文字列がイベント範囲として選択されている数が最も多いイベント範囲601を追加イベント801として決定する。例えば、図8の例では、文の進む方向の1つ目の候補グループ701(イベントグループ610)において、モデルセット3およびモデルセット4で推定されたイベント範囲601が同一の文字列範囲であるため、同一のイベント範囲が選択された数は「2」となる。他のモデルセット1およびモデルセット2で推定されたイベント範囲は、1つ目の候補グループ内の他のイベント範囲と同一の範囲ではないため、同一のイベント範囲が選択された数はそれぞれ「1」となる。よって、決定部107は、1つ目の候補グループ701において、モデルセット3およびモデルセット4で推定されたイベント範囲を追加イベント801として決定する。
同様に、2つ目の候補グループ701(イベントグループ611)において、モデルセット2およびモデルセット4で推定されたイベント範囲が同一の文字列範囲であり、選択された数が「2」である。また、他のモデルセット1およびモデルセット3のイベント範囲について選択された数が「1」であるため、モデルセット2およびモデルセット4で推定されたイベント範囲601が追加イベント801として決定される。
図9左図は、処理対象の文書であり、ここでは教示データのように既にイベント範囲が抽出された場合を想定する。抽出されたイベント範囲が囲みで表示される。このように、対象文書からイベント範囲を抽出する、いわゆる系列ラベリングが行われる。図9右図は、イベントの因果関係を示すグラフである。イベント間で因果関係を推定して、関係性を表示できる。
本実施形態に係るデータ生成装置10により対象文書に対してイベント範囲の推定処理を実行し、「浸水対策を施した機種」というイベント範囲が追加イベント1001として追加された場合を想定する。このように、対象文書が教示データであれば、教示データにイベント範囲の設定漏れがあった場合でも、本来ラベルが付与されるべきイベント範囲を追加イベント1001として追加できる。
なお、イベント範囲の推定結果および追加イベントは、因果関係の推定に限らず、キーワード検索のための対象データとして用いられてもよく、イベント範囲をもれなく抽出することでメリットがある用途であれば、どのような用途にも適用できる。
データ解析装置は、CPU(Central Processing Unit)31と、RAM(Random Access Memory)32と、ROM(Read Only Memory)33と、ストレージ34と、表示装置35と、入力装置36と、通信装置37とを含み、それぞれバスにより接続される。なお、表示装置35はデータ生成装置10のハードウェア構成として含まれなくてもよい。
RAM32は、SDRAM(Synchronous Dynamic Random Access Memory)などのメモリである。RAM32は、CPU31の作業領域として機能する。ROM33は、プログラムおよび各種情報を書き換え不可能に記憶するメモリである。
表示装置35は、LCD(Liquid Crystal Display)などの表示デバイスである。表示装置35は、CPU31からの表示信号に基づいて、各種情報を表示する。
通信装置37は、CPU31からの制御に応じて外部機器とネットワークを介して通信する。
また、例えば単に学習済みモデルで推定された、教示データには無いイベント範囲を全て正例として追加してしまうと、再現率は上がるが、単なる推定誤りである可能性もあり、ノイズデータとして登録され適合率が下がる可能性があるが、本実施形態によれば、例えばk-分割交差検証を用いて、教示データの文書に対して異なる学習済みモデルセットによりイベント範囲の推定処理を複数回行い、それぞれの学習済みモデルセットで得られたイベント範囲の重複度を考慮することで、推定誤りではなく、より確からしいイベント範囲を追加イベントとして決定できる確率を高めることができる。
結果として、データセットの品質を向上させることができる。
また、記録媒体からコンピュータや組み込みシステムにインストールされたプログラムの指示に基づきコンピュータ上で稼働しているOS(オペレーティングシステム)や、データベース管理ソフト、ネットワーク等のMW(ミドルウェア)等が本実施形態を実現するための各処理の一部を実行してもよい。
さらに、本実施形態における記録媒体は、コンピュータあるいは組み込みシステムと独立した媒体に限らず、LANやインターネット等により伝達されたプログラムをダウンロードして記憶または一時記憶した記録媒体も含まれる。
また、記録媒体は1つに限られず、複数の媒体から本実施形態における処理が実行される場合も、本実施形態における記録媒体に含まれ、媒体の構成は何れの構成であってもよい。
また、本実施形態におけるコンピュータとは、パソコンに限らず、情報処理機器に含まれる演算処理装置、マイコン等も含み、プログラムによって本実施形態における機能を実現することが可能な機器、装置を総称している。
Claims (10)
- 教示データの文書に対して定義された文字列の範囲である第1イベント範囲とは異なり、かつ前記文書に対して複数の異なる手法で推定された文字列の範囲である複数の第2イベント範囲の少なくとも一部が重複するイベントグループを選択する選択部と、
前記イベントグループから前記教示データに追加すべき第2イベント範囲である追加イベントを決定する決定部と、
を具備するデータ生成装置。 - 前記選択部は、前記複数の第2イベント範囲の重複度が閾値以上である場合に、当該複数の第2イベント範囲を前記イベントグループとして選択する、請求項1に記載のデータ生成装置。
- 前記決定部は、重複する前記第2イベント範囲の数が閾値以上である場合に、当該第2イベント範囲を前記追加イベントとして決定する、請求項1または請求項2に記載のデータ生成装置。
- 前記教示データを用いて学習された複数の異なる学習済みモデルごとに、前記文書について前記第2イベント範囲を推定する推定部をさらに具備する、請求項1から請求項3のいずれか1項に記載のデータ生成装置。
- 前記教示データを複数の部分データに分割する分割部と、
前記複数の部分データのうちの一部の部分データを用いてモデルを学習させ、学習済みモデルを生成する学習部と、
前記学習済みモデルを用いて、前記複数の部分データのうちの残りの部分データに対応する文について前記第2イベント範囲を推定する推定部と、をさらに具備し、
前記複数の部分データそれぞれについて前記第2イベント範囲が推定されるように、前記学習済みモデルの生成および前記第2イベント範囲の推定が繰り返される、請求項1から請求項3のいずれか1項に記載のデータ生成装置。 - 前記分割部は、前記教示データの分割位置を異ならせて前記複数の部分データのセットを複数セット生成し、
前記学習部は、前記複数の部分データのセットごとに、複数の学習済みモデルを含む学習済みモデルセットを生成し、
前記推定部は、前記複数の部分データのセットごとに、前記学習済みモデルセットを用いて前記複数の第2イベント範囲を推定する、請求項5に記載のデータ生成装置。 - 前記異なる手法で推定された複数の第2イベント範囲のそれぞれは、複数のユーザがそれぞれ前記文書に対して設定したイベント範囲である、請求項1から請求項3のいずれか1項に記載のデータ生成装置。
- 前記教示データは、前記文書を構成する文またはトークンごとに重みが付与される、請求項1から請求項7のいずれか1項に記載のデータ生成装置。
- 教示データの文書に対して定義された文字列の範囲である第1イベント範囲とは異なり、かつ前記文書に対して複数の異なる手法で推定された文字列の範囲である複数の第2イベント範囲の少なくとも一部が重複するイベントグループを選択し、
前記イベントグループから前記教示データに追加すべき第2イベント範囲である追加イベントを決定する、データ生成方法。 - 請求項1から請求項8のいずれか1項に記載のデータ生成装置により生成された前記追加イベントを前記教示データに追加した更新教示データを用いてモデルを学習し、学習済みモデルを生成する学習部を具備する、学習装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021002781A JP2022108008A (ja) | 2021-01-12 | 2021-01-12 | データ生成装置、方法および学習装置 |
US17/460,399 US20220222576A1 (en) | 2021-01-12 | 2021-08-30 | Data generation apparatus, method and learning apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021002781A JP2022108008A (ja) | 2021-01-12 | 2021-01-12 | データ生成装置、方法および学習装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022108008A true JP2022108008A (ja) | 2022-07-25 |
Family
ID=82322886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021002781A Pending JP2022108008A (ja) | 2021-01-12 | 2021-01-12 | データ生成装置、方法および学習装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220222576A1 (ja) |
JP (1) | JP2022108008A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7376033B1 (ja) | 2023-03-15 | 2023-11-08 | 株式会社Fronteo | 情報処理装置及び情報処理方法 |
JP7391343B1 (ja) | 2023-03-15 | 2023-12-05 | 株式会社Fronteo | 情報処理装置及び情報処理方法 |
-
2021
- 2021-01-12 JP JP2021002781A patent/JP2022108008A/ja active Pending
- 2021-08-30 US US17/460,399 patent/US20220222576A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7376033B1 (ja) | 2023-03-15 | 2023-11-08 | 株式会社Fronteo | 情報処理装置及び情報処理方法 |
JP7391343B1 (ja) | 2023-03-15 | 2023-12-05 | 株式会社Fronteo | 情報処理装置及び情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220222576A1 (en) | 2022-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10585784B2 (en) | Regression testing question answering cognitive computing systems by applying ground truth virtual checksum techniques | |
CN1457041B (zh) | 为一个自然语言理解系统用来自动注解训练数据的一个系统 | |
US11042794B2 (en) | Extensible validation framework for question and answer systems | |
KR20180077689A (ko) | 자연어 생성 장치 및 방법 | |
US10567552B2 (en) | Expanding an answer key to verify a question and answer system | |
JP2022108008A (ja) | データ生成装置、方法および学習装置 | |
US10540252B2 (en) | Analytic and layer-based augmentation of code reviews | |
US11704506B2 (en) | Learned evaluation model for grading quality of natural language generation outputs | |
US11551002B2 (en) | Learned evaluation model for grading quality of natural language generation outputs | |
US10528660B2 (en) | Leveraging word patterns in the language of popular influencers to predict popular trends | |
Breck et al. | Data infrastructure for machine learning | |
US11243835B1 (en) | Message-based problem diagnosis and root cause analysis | |
US10282066B2 (en) | Dynamic threshold filtering for watched questions | |
US9471877B1 (en) | Health checking a question answering cognitive computing system built on a baseline of ground truth virtual checksum | |
JP2013250926A (ja) | 質問応答装置、方法、及びプログラム | |
Yakovlev et al. | GEC-DePenD: Non-autoregressive grammatical error correction with decoupled permutation and decoding | |
US20180025274A1 (en) | Dynamic threshold filtering for watched questions | |
US10115380B1 (en) | Providing feedback on musical performance | |
US20230229861A1 (en) | Systems and methods near negative distinction for evaluating nlp models | |
JP2023002475A (ja) | コンピュータシステム、コンピュータプログラムおよびコンピュータで実装される方法(因果関係知識の識別および抽出) | |
Hirakawa et al. | Software log anomaly detection through one class clustering of transformer encoder representation | |
US10824659B2 (en) | Predicting the temporal stability of answers in a deep question answering system | |
US11087084B2 (en) | Confidence models based on error-to-correction mapping | |
JP6907703B2 (ja) | 解析装置、解析方法、および解析プログラム | |
WO2021053457A1 (en) | Language statement processing in computing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240405 |