JP2019057023A - 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル - Google Patents
生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル Download PDFInfo
- Publication number
- JP2019057023A JP2019057023A JP2017180077A JP2017180077A JP2019057023A JP 2019057023 A JP2019057023 A JP 2019057023A JP 2017180077 A JP2017180077 A JP 2017180077A JP 2017180077 A JP2017180077 A JP 2017180077A JP 2019057023 A JP2019057023 A JP 2019057023A
- Authority
- JP
- Japan
- Prior art keywords
- text
- learning
- extracted
- information
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 63
- 230000008569 process Effects 0.000 claims description 35
- 230000006870 function Effects 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 abstract description 8
- 230000010365 information processing Effects 0.000 description 182
- 238000009826 distribution Methods 0.000 description 42
- 238000010586 diagram Methods 0.000 description 28
- 238000012545 processing Methods 0.000 description 19
- 230000015572 biosynthetic process Effects 0.000 description 17
- 238000003786 synthesis reaction Methods 0.000 description 17
- 238000004891 communication Methods 0.000 description 14
- 239000013598 vector Substances 0.000 description 13
- 238000003860 storage Methods 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
最初に、生成装置および学習装置の一例である情報処理装置が実行する学習処理および生成処理の一例について説明する。図1は、実施形態に係る情報処理装置10が実行する処理の一例を示す図である。情報処理装置10は、インターネット等の所定のネットワークを介して、所定のクライアントが使用するデータサーバ20および端末装置30と通信可能である。
ここで、データサーバ20は、配信対象となる配信コンテンツが複数存在する場合には、各コンテンツを全て配信するのではなく、各コンテンツの要約となるテキストが含まれる要約コンテンツを端末装置30へと配信することがある。配信コンテンツは、例えば、情報媒体或いは情報の配信主体から取得したニュース記事である。一例として、要約コンテンツは、配信コンテンツへのリンクが張られたポータルサイトのトップページである。
そこで、情報処理装置10は、以下の学習処理を実行することで、配信コンテンツに含まれるテキスト(例えば、タイトル)から見出しとなるテキストを生成するためのモデルの学習を行う。以下、図1を参照しながら情報処理装置10が実行する学習処理の一例について説明する。
図5は、モデルMの一例を示す図である。具体的には、図5は、モデルMの一例であるモデルM1を示す図である。モデルM1は、例えば、RNN(Recurrent Neural Network)の一例であるLSTM(Long Short Term Memory)を用いたSequence to Sequence Model(以下、Seq2Seqともいう。)である。モデルM1は、アテンションモデル(Attention Model)を追加したSeq2Seq(Sequence to Sequence with Attention Model)であってもよい。Seq2Seqは、エンコーダ−デコーダモデルの一種であり、異なる長さのワード列(Sequence)を入力とし、異なる長さのワード列(Sequence)を出力とすることを可能とする。
図6は、モデルMの他の例を示す図である。具体的には、図6は、モデルMの一例であるモデルM2を示す図である。図6に示すモデルM2は、第1のテキスト(タイトル)に基づいて特徴情報(第1の特徴情報)を生成するエンコーダE21(第1のエンコーダ)と、第1のテキストから抽出された抽出ワードの意味情報に基づいて特徴情報(第2の特徴情報)を生成するエンコーダE12(第2のエンコーダ)と、関係情報に基づいて特徴情報(第3の特徴情報)を生成するエンコーダE23(第3のエンコーダ)と、を備える。また、モデルM2は、第1の特徴情報と第2の特徴情報と第3の特徴情報を合成して合成情報を生成する合成モデルSM2と、合成情報に基づいて第3のテキスト(見出し)を生成するデコーダD2と、を備える。エンコーダE21、エンコーダE22、合成モデルSM2、及びデコーダD2の構成はモデルM1のエンコーダE12、エンコーダE11、合成モデルSM1、及びデコーダD1と同様である。
次に、上述した学習処理によって学習が行われたモデルMを用いて、第1のテキスト(例えば、タイトル)に対応するテキストであって生成条件を満たす第2のテキスト(例えば、見出し)を生成する生成処理の一例について説明する。
例えば、モデルMが図5に示すモデルM1であるとする。上述したように、モデルM1は、第1のテキスト(タイトル)に基づいて特徴情報(第1の特徴情報)を生成するエンコーダE11(第1のエンコーダ)と、第1のテキストから抽出された抽出ワードの意味情報に基づいて特徴情報(第2の特徴情報)を生成するエンコーダE12(第2のエンコーダ)と、第1の特徴情報と第2の特徴情報とを合成した合成情報に基づいて第2のテキスト(見出し)を生成するデコーダD1と、を含んでいる。
また、モデルMが図6に示すモデルM2であるとする。上述したように、モデルM2は、第1のテキスト(タイトル)に基づいて特徴情報(第1の特徴情報)を生成するエンコーダE21(第1のエンコーダ)と、第1のテキストから抽出された抽出ワードの意味情報に基づいて特徴情報(第2の特徴情報)を生成するエンコーダE22(第2のエンコーダ)と、関係情報に基づいて特徴情報(第3の特徴情報)を生成するエンコーダE23(第3のエンコーダ)と、第1の特徴情報と第2の特徴情報と第3の特徴情報を合成した合成情報に基づいて第3のテキスト(見出し)を生成するデコーダD2と、を含んでいる。
以上、本実施形態の情報処理装置10の動作を述べたが、以下、情報処理装置10の構成を説明する。
次に、情報処理装置10が実行する処理の手順について説明する。情報処理装置10は学習処理と生成処理とを実行する。情報処理装置10はマルチタスクOSを備え、これらの処理を並行して実行可能である。
最初に学習処理を説明する。図12は、学習処理の一例を示すフローチャートである。学習処理は、入力テキスト(例えば、タイトル)と当該入力テキストから抽出された抽出ワードの意味情報とから出力テキスト(例えば、見出し)を生成するモデルMを学習する処理である。情報処理装置10は、ユーザから処理開始命令を受信すると、学習処理を実行する。
次に生成処理を説明する。図13は、生成処理の一例を示すフローチャートである。生成処理は、入力テキスト(例えば、タイトル)と当該入力テキストから抽出された抽出ワードの意味情報とから出力テキスト(例えば、見出し)を生成する処理である。情報処理装置10は、ユーザから処理開始命令を受信すると、生成処理を実行する。
上述の実施形態は一例を示したものであり、種々の変更及び応用が可能である。
実施形態及び変形例に係る情報処理装置10は、例えば図14に示すような構成のコンピュータ1000によっても実現可能である。図14は、情報処理装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU(Central Processing Unit)1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インタフェース(I/F)1500、入出力インタフェース(I/F)1600、及びメディアインタフェース(I/F)1700を有する。
情報処理装置10は、第1のテキストと、第1のテキストから抽出された抽出ワードの意味情報と、を取得する。そして、情報処理装置10は、第1のテキストと抽出ワードの意味情報とに基づいて、第1のテキストに対応するテキストであって所定の条件を満たす第2のテキストを生成する。このとき、情報処理装置10は、第2のテキストとして、所定の文字数以下のテキストを生成してもよい。これにより、情報処理装置10は抽出ワードの意味も踏まえてテキストを生成できるので、情報処理装置10は、精度の高い第2のテキストを生成できる。
11…通信部
12…記憶部
121…学習データデータベース
122…モデルデータベース
123…コンテンツ情報データベース
124…知識ベース
125…関係情報データベース
13…制御部
131…学習データ取得部
132…学習部
133…出力情報取得部
134…生成部
135…出力制御部
20…データサーバ
30…端末装置
M1、M2…モデル
E11、E12、E21、E22、E23…エンコーダ
SM1、SM2…合成モデル
D1、D2…デコーダ
Claims (18)
- 第1のテキストと、前記第1のテキストから抽出された抽出ワードの意味情報と、を取得する取得部と、
前記第1のテキストと前記抽出ワードの意味情報とに基づいて、前記第1のテキストに対応するテキストであって所定の条件を満たす第2のテキストを生成する生成部と、
を備えることを特徴とする生成装置。 - 前記取得部は、前記第1のテキストから抽出された複数の抽出ワードそれぞれの意味情報を取得し、
前記生成部は、前記第1のテキストと、前記複数の抽出ワードそれぞれの意味情報と、に基づいて、前記第2のテキストを生成する、
ことを特徴とする請求項1に記載の生成装置。 - 前記生成部は、前記第1のテキストと、前記抽出ワードの意味情報に基づいて判別される前記複数の抽出ワードの関係と、に基づいて、前記第2のテキストを生成する、
ことを特徴とする請求項2に記載の生成装置。 - 前記取得部は、ユーザ属性と前記抽出ワードとの関係を示す関係情報を取得し、
前記生成部は、前記第1のテキストと、前記抽出ワードの意味情報と、前記関係情報と、に基づいて、前記第2のテキストを生成する、
ことを特徴とする請求項1〜3のいずれか1項に記載の生成装置。 - 前記取得部は、前記第1のテキストの送信対象となるユーザのユーザ属性を示す属性情報を取得し、
前記生成部は、前記第1のテキストと、前記意味情報と、前記関係情報と、前記属性情報と、に基づいて、前記第2のテキストを生成する、
ことを特徴とする請求項4に記載の生成装置。 - 前記生成部は、前記抽出ワードの意味情報に基づいて前記抽出ワードを別のワードに置き換える、
ことを特徴とする請求項1〜5のいずれか1項に記載の生成装置。 - 前記生成部は、前記抽出ワードの意味情報に基づいて2以上の前記抽出ワードを1のワードに置き換える、
ことを特徴とする請求項1〜6のいずれか1項に記載の生成装置。 - 前記取得部は、前記意味情報として、知識を組織化した知識ベースに基づき分散表現に変換された前記抽出ワードを取得する、
ことを特徴とする請求項1〜7のいずれか1項に記載の生成装置。 - 前記生成部は、第1の学習用テキストと前記第1の学習用テキストから抽出されたワードの意味情報とを入力データ、前記第1の学習用テキストに対応するテキストであって所定の条件を満たす第2の学習用テキストを正解データとして学習したモデルに、前記第1のテキストと前記抽出ワードの意味情報とを入力することにより、前記第2のテキストを生成する、
ことを特徴とする請求項1〜8のいずれか1項に記載の生成装置。 - 前記モデルは、前記第1のテキストに基づいて第1の特徴情報を生成する第1のエンコーダと、前記抽出ワードの意味情報に基づいて第2の特徴情報を生成する第2のエンコーダと、前記第1の特徴情報及び前記第2の特徴情報に基づいて前記第2のテキストを生成するデコーダと、を含む、
ことを特徴とする請求項9に記載の生成装置。 - 前記生成部は、前記第2のテキストとして、所定の文字数以下のテキストを生成する、
ことを特徴とする請求項1〜10のいずれか1項に記載の生成装置。 - 第1の学習用テキストと、前記第1の学習用テキストから抽出されたワードの意味情報と、前記第1の学習用テキストに対応するテキストであって所定の条件を満たす第2の学習用テキストと、を取得する取得部と、
前記第1の学習用テキストと該第1の学習用テキストから抽出されたワードの意味情報とを入力データ、前記第2の学習用テキストを正解データとして、第1のテキストと該第1のテキストから抽出された抽出ワードの意味情報とから前記所定の条件を満たす第2のテキストを生成するモデルの学習を行う学習部と、
を備えることを特徴とする学習装置。 - 前記モデルは、前記第1のテキストに基づいて第1の特徴情報を生成する第1のエンコーダと、前記第1のテキストから抽出されたワードの意味情報に基づいて第2の特徴情報を生成する第2のエンコーダと、前記第1の特徴情報及び前記第2の特徴情報に基づいて前記第2のテキストを生成するデコーダと、を含み、
前記学習部は、前記第1の学習用テキストを前記第1のエンコーダに入力される入力データ、前記第1の学習用テキストから抽出されたワードの意味情報を前記第2のエンコーダに入力される入力データ、前記第2の学習用テキストを正解データとして、前記モデルの学習を行う、
ことを特徴とする請求項12に記載の学習装置。 - 生成装置が実行する生成方法であって、
第1のテキストと、前記第1のテキストから抽出された抽出ワードの意味情報と、を取得する取得工程と、
前記第1のテキストと前記抽出ワードの意味情報とに基づいて、前記第1のテキストに対応するテキストであって所定の条件を満たす第2のテキストを生成する生成工程と、
を含むことを特徴とする生成方法。 - 学習装置が実行する学習方法であって、
第1の学習用テキストと、前記第1の学習用テキストから抽出されたワードの意味情報と、前記第1の学習用テキストに対応するテキストであって所定の条件を満たす第2の学習用テキストと、を取得する取得工程と、
前記第1の学習用テキストと該第1の学習用テキストから抽出されたワードの意味情報とを入力データ、前記第2の学習用テキストを正解データとして、第1のテキストと該第1のテキストから抽出された抽出ワードの意味情報とから前記所定の条件を満たす第2のテキストを生成するモデルの学習を行う学習工程と、
を含むことを特徴とする学習方法。 - 第1のテキストと、前記第1のテキストから抽出された抽出ワードの意味情報と、を取得する取得手順と、
前記第1のテキストと前記抽出ワードの意味情報とに基づいて、前記第1のテキストに対応するテキストであって所定の条件を満たす第2のテキストを生成する生成手順と、
をコンピュータに実行させるための生成プログラム。 - 第1の学習用テキストと、前記第1の学習用テキストから抽出されたワードの意味情報と、前記第1の学習用テキストに対応するテキストであって所定の条件を満たす第2の学習用テキストと、を取得する取得手順と、
前記第1の学習用テキストと該第1の学習用テキストから抽出されたワードの意味情報とを入力データ、前記第2の学習用テキストを正解データとして、第1のテキストと該第1のテキストから抽出された抽出ワードの意味情報とから前記所定の条件を満たす第2のテキストを生成するモデルの学習を行う学習手順と、
をコンピュータに実行させるための学習プログラム。 - 第1の学習用テキストと、前記第1の学習用テキストから抽出されたワードの意味情報と、を入力データ、前記第1の学習用テキストに対応するテキストであって所定の条件を満たす第2の学習用テキストを正解データとして学習したモデルであって、
第1のテキストと該第1のテキストから抽出された抽出ワードの意味情報とを入力する入力層と、
前記第1のテキストに対応するテキストであって所定の条件を満たす第2のテキストを出力する出力層と、
前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、
前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、を含み、
前記入力層に入力された前記第1のテキストと前記意味情報とに応じて、前記第2のテキストを出力するよう、
コンピュータを機能させるためのモデル。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017180077A JP7088646B2 (ja) | 2017-09-20 | 2017-09-20 | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017180077A JP7088646B2 (ja) | 2017-09-20 | 2017-09-20 | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019057023A true JP2019057023A (ja) | 2019-04-11 |
JP7088646B2 JP7088646B2 (ja) | 2022-06-21 |
Family
ID=66107345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017180077A Active JP7088646B2 (ja) | 2017-09-20 | 2017-09-20 | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7088646B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460801A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 标题生成方法、装置及电子设备 |
CN113065336A (zh) * | 2021-05-06 | 2021-07-02 | 清华大学深圳国际研究生院 | 一种基于深度学习和内容规划的文本自动生成方法及装置 |
JP2023007372A (ja) * | 2021-06-30 | 2023-01-18 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06168129A (ja) * | 1992-11-30 | 1994-06-14 | Mitsubishi Electric Corp | 知識抽出装置 |
JP2000259637A (ja) * | 1999-03-09 | 2000-09-22 | Sharp Corp | 情報検索装置及び情報検索方法並びに情報検索処理プログラムを記録した記録媒体 |
JP6152199B1 (ja) * | 2016-06-28 | 2017-06-21 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5928224B2 (ja) | 2012-06-28 | 2016-06-01 | 株式会社三洋物産 | 遊技機 |
-
2017
- 2017-09-20 JP JP2017180077A patent/JP7088646B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06168129A (ja) * | 1992-11-30 | 1994-06-14 | Mitsubishi Electric Corp | 知識抽出装置 |
JP2000259637A (ja) * | 1999-03-09 | 2000-09-22 | Sharp Corp | 情報検索装置及び情報検索方法並びに情報検索処理プログラムを記録した記録媒体 |
JP6152199B1 (ja) * | 2016-06-28 | 2017-06-21 | ヤフー株式会社 | 生成装置、生成方法、及び生成プログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111460801A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 标题生成方法、装置及电子设备 |
CN111460801B (zh) * | 2020-03-30 | 2023-08-18 | 北京百度网讯科技有限公司 | 标题生成方法、装置及电子设备 |
CN113065336A (zh) * | 2021-05-06 | 2021-07-02 | 清华大学深圳国际研究生院 | 一种基于深度学习和内容规划的文本自动生成方法及装置 |
JP2023007372A (ja) * | 2021-06-30 | 2023-01-18 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 |
JP7413630B2 (ja) | 2021-06-30 | 2024-01-16 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 |
Also Published As
Publication number | Publication date |
---|---|
JP7088646B2 (ja) | 2022-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6355800B1 (ja) | 学習装置、生成装置、学習方法、生成方法、学習プログラム、および生成プログラム | |
US11853343B2 (en) | Method, apparatus, and computer program product for user-specific contextual integration for a searchable enterprise platform | |
US10936963B2 (en) | Systems and methods for content response prediction | |
CN105359144B (zh) | 用于意图查询的自然语言搜索结果 | |
US11188830B2 (en) | Method and system for user profiling for content recommendation | |
US20160203221A1 (en) | System and apparatus for an application agnostic user search engine | |
US20120158791A1 (en) | Feature vector construction | |
US20150370787A1 (en) | Session Context Modeling For Conversational Understanding Systems | |
US20140330760A1 (en) | Content distribution | |
US10606910B2 (en) | Ranking search results using machine learning based models | |
JP2019125313A (ja) | 学習装置、学習方法および学習プログラム | |
JP6986978B2 (ja) | 情報処理装置、情報処理方法、及び情報処理プログラム | |
CN111465932B (zh) | 将来自查询的响应整合到异构数据源 | |
JP7088646B2 (ja) | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム | |
US20160012130A1 (en) | Aiding composition of themed articles about popular and novel topics and offering users a navigable experience of associated content | |
EP3812919A1 (en) | Methods, apparatuses, and systems for data mapping | |
US11068800B2 (en) | Nearline updates to personalized models and features | |
US10579630B2 (en) | Content creation from extracted content | |
US20170004531A1 (en) | Advertisement selection using information retrieval systems | |
JP6906456B2 (ja) | 学習装置、学習方法、及び学習プログラム | |
JP6529559B2 (ja) | 学習装置、生成装置、学習方法、生成方法、学習プログラム、生成プログラム、及びモデル | |
JP6680655B2 (ja) | 学習装置および学習方法 | |
JP6979899B2 (ja) | 生成装置、学習装置、生成方法、学習方法、生成プログラム、及び学習プログラム | |
US20180165368A1 (en) | Demographic Based Collaborative Filtering for New Users | |
JP6141378B2 (ja) | 人材検索サーバ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220609 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7088646 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |