JP7397114B2 - テキスト生成方法、装置、電子機器及び記憶媒体 - Google Patents
テキスト生成方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP7397114B2 JP7397114B2 JP2022048414A JP2022048414A JP7397114B2 JP 7397114 B2 JP7397114 B2 JP 7397114B2 JP 2022048414 A JP2022048414 A JP 2022048414A JP 2022048414 A JP2022048414 A JP 2022048414A JP 7397114 B2 JP7397114 B2 JP 7397114B2
- Authority
- JP
- Japan
- Prior art keywords
- text
- character
- controllable
- posttext
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000013528 artificial neural network Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 13
- 238000005516 engineering process Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000013519 translation Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 235000013550 pizza Nutrition 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/117—Tagging; Marking up; Designating a block; Setting of attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
前文テキストを符号化して、前記前文テキストの符号化シーケンスを取得するステップと、
生成対象の後文テキストの制御可能な属性を取得するステップと、
前記前文テキストの符号化シーケンス及び前記後文テキストの制御可能な属性に基づいて、前記後文テキストの隠れ状態を予測するステップと、
前記後文テキストの隠れ状態に基づいて、前記前文テキストの符号化シーケンスを復号化して、前記前文テキストに対応する後文テキストを取得するステップと、を含む。
前文テキストを符号化して、前記前文テキストの符号化シーケンスを取得するように構成される符号化モジュールと、
生成対象の後文テキストの制御可能な属性を取得するように構成される取得モジュールと、
前記前文テキストの符号化シーケンス及び前記後文テキストの制御可能な属性に基づいて、前記後文テキストの隠れ状態を予測するように構成される予測モジュールと、
前記後文テキストの隠れ状態に基づいて、前記前文テキストの符号化シーケンスを復号化して、前記前文テキストに対応する後文テキストを取得するように構成される復号化モジュールと、を含む。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが前記一態様に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
前記制御可能な属性の目標値を取得するように構成される取得ユニットと、
前記制御可能な属性がローカル属性である場合、前記目標値及び前記符号化シーケンスにおける前文テキストの各文字のコードに基づいて、前記後文テキストにおける各文字の制御可能な属性の値を予測するように構成される予測ユニットと、を含む。
前記制御可能な属性がグローバル属性である場合、前記後文テキストにおける各文字の制御可能な属性の値が前記目標値であると決定するように構成される決定ユニットをさらに含む。
ユーザの操作に応答して、前記制御可能な属性の目標値を決定し、
あるいは、前記前文テキストの符号化シーケンスに基づいて前記制御可能な属性を予測して、前記目標値を取得するように構成される。
前記符号化シーケンスと前記後文テキストにおける最初の文字の制御可能な属性とを融合させて、第1の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける最初の文字の隠れ状態を取得するように構成される第1の復号化ユニットと、
前記後文テキストにおける第(n-1)個の文字の隠れ状態と、前記後文テキストにおける第n個の文字の制御可能な属性と、前記前文テキストの符号化シーケンスとを融合させて、前記第1の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字の隠れ状態を取得するように構成される第2の復号化ユニットであって、nは1より大きい整数である第2の復号化ユニットと、を含む。
前記符号化シーケンスと前記後文テキストにおける最初の文字の隠れ状態とを融合させて、第2の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける最初の文字のコードを取得するように構成される第3の復号化ユニットと、
前記後文テキストにおける第(n-1)個の文字のコードと、前記後文テキストにおける第n個の文字の隠れ状態と、前記前文テキストの符号化シーケンスとを融合させて、前記第2の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字のコードを取得するように構成される第4の復号化ユニットと、
前記後文テキストにおける各文字のコードに基づいて、前記後文テキストを決定するように構成される出力ユニットと、を含む。
前記目標値と前記前文テキストの符号化シーケンスとを融合させて、第3の循環ニューラルネットワークに入力し、前記後文テキストにおける最初の文字の制御可能な属性の値を取得し、
前記後文テキストにおける第(n-1)個の文字の制御可能な属性の値と、前記目標値と、前記前文テキストの符号化シーケンスとを融合させて、前記第3の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字の制御可能な属性の値を取得するように構成される。
本開示の実施例によれば、本開示は、コンピュータプログラムをさらに提供し、前記コンピュータプログラムがプロセッサによって実行される場合、本開示によって提供されるテキスト生成方法が実現される。
Claims (13)
- テキスト生成方法であって、
前文テキストを符号化して、前記前文テキストの符号化シーケンスを取得するステップと、
生成対象の後文テキストの制御可能な属性を取得するステップと、
前記前文テキストの符号化シーケンス及び前記後文テキストの制御可能な属性に基づいて、前記後文テキストの隠れ状態を予測するステップと、
前記後文テキストの隠れ状態に基づいて、前記前文テキストの符号化シーケンスを復号化して、前記前文テキストに対応する後文テキストを取得するステップと、を含み、
前記生成対象の後文テキストの制御可能な属性を取得するステップは、
前記制御可能な属性の目標値を取得するステップと、
前記制御可能な属性がローカル属性である場合、前記目標値及び前記符号化シーケンスにおける前文テキストの各文字のコードに基づいて、前記後文テキストにおける各文字の制御可能な属性の値を予測するステップと、を含み、
前記前文テキストの符号化シーケンス及び前記後文テキストの制御可能な属性に基づいて、前記後文テキストの隠れ状態を予測するステップは、
前記符号化シーケンスと前記後文テキストにおける最初の文字の制御可能な属性とを融合させて、第1の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける最初の文字の隠れ状態を取得するステップと、
前記後文テキストにおける第(n-1)個の文字の隠れ状態と、前記後文テキストにおける第n個の文字の制御可能な属性と、前記前文テキストの符号化シーケンスとを融合させて、前記第1の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字の隠れ状態を取得するステップであって、nは1より大きい整数であるステップと、を含む、
ことを特徴とするテキスト生成方法。 - 前記制御可能な属性の目標値を取得するステップの後に、
前記制御可能な属性がグローバル属性である場合、前記後文テキストにおける各文字の制御可能な属性の値が前記目標値であると決定するステップをさらに含む、
ことを特徴とする請求項1に記載のテキスト生成方法。 - 前記制御可能な属性の目標値を取得するステップは、
ユーザの操作に応答して、前記制御可能な属性の目標値を決定するステップ、
あるいは、前記前文テキストの符号化シーケンスに基づいて前記制御可能な属性を予測して、前記目標値を取得するステップ、をさらに含む、
ことを特徴とする請求項1に記載のテキスト生成方法。 - 前記後文テキストの隠れ状態に基づいて、前記前文テキストの符号化シーケンスを復号化して、前記前文テキストに対応する後文テキストを取得するステップは、
前記符号化シーケンスと前記後文テキストにおける最初の文字の隠れ状態とを融合させて、第2の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける最初の文字のコードを取得するステップと、
前記後文テキストにおける第(n-1)個の文字のコードと、前記後文テキストにおける第n個の文字の隠れ状態と、前記前文テキストの符号化シーケンスとを融合させて、前記第2の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字のコードを取得するステップと、
前記後文テキストにおける各文字のコードに基づいて、前記後文テキストを決定するステップと、を含む、
ことを特徴とする請求項1に記載のテキスト生成方法。 - 前記目標値及び前記前文テキストの各文字のコードに基づいて、前記後文テキストにおける各文字の制御可能な属性の値を決定するステップは、
前記目標値と前記前文テキストの符号化シーケンスとを融合させて、第3の循環ニューラルネットワークに入力し、前記後文テキストにおける最初の文字の制御可能な属性の値を取得するステップと、
前記後文テキストにおける第(n-1)個の文字の制御可能な属性の値と、前記目標値と、前記前文テキストの符号化シーケンスとを融合させて、前記第3の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字の制御可能な属性の値を取得するステップと、を含む、
ことを特徴とする請求項1に記載のテキスト生成方法。 - テキスト生成装置であって、
前文テキストを符号化して、前記前文テキストの符号化シーケンスを取得するように構成される符号化モジュールと、
生成対象の後文テキストの制御可能な属性を取得するように構成される取得モジュールと、
前記前文テキストの符号化シーケンス及び前記後文テキストの制御可能な属性に基づいて、前記後文テキストの隠れ状態を予測するように構成される予測モジュールと、
前記後文テキストの隠れ状態に基づいて、前記前文テキストの符号化シーケンスを復号化して、前記前文テキストに対応する後文テキストを取得するように構成される復号化モジュールと、を含み、
前記取得モジュールが、
前記制御可能な属性の目標値を取得するように構成される取得ユニットと、
前記制御可能な属性がローカル属性である場合、前記目標値及び前記符号化シーケンスにおける前文テキストの各文字のコードに基づいて、前記後文テキストにおける各文字の制御可能な属性の値を予測するように構成される予測ユニットと、を含み、
前記予測モジュールが、
前記符号化シーケンスと前記後文テキストにおける最初の文字の制御可能な属性とを融合させて、第1の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける最初の文字の隠れ状態を取得するように構成される第1の復号化ユニットと、
前記後文テキストにおける第(n-1)個の文字の隠れ状態と、前記後文テキストにおける第n個の文字の制御可能な属性と、前記前文テキストの符号化シーケンスとを融合させて、前記第1の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字の隠れ状態を取得するように構成される第2の復号化ユニットであって、nは1より大きい整数である第2の復号化ユニットと、を含む、
ことを特徴とするテキスト生成装置。 - 前記取得モジュールが、
前記制御可能な属性がグローバル属性である場合、前記後文テキストにおける各文字の制御可能な属性の値が前記目標値であると決定するように構成される決定ユニットをさらに含む、
ことを特徴とする請求項6に記載のテキスト生成装置。 - 前記取得ユニットが、
ユーザの操作に応答して、前記制御可能な属性の目標値を決定し、
あるいは、前記前文テキストの符号化シーケンスに基づいて前記制御可能な属性を予測して、前記目標値を取得するように構成される、
ことを特徴とする請求項6に記載のテキスト生成装置。 - 前記復号化モジュールが、
前記符号化シーケンスと前記後文テキストにおける最初の文字の隠れ状態とを融合させて、第2の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける最初の文字のコードを取得するように構成される第3の復号化ユニットと、
前記後文テキストにおける第(n-1)個の文字のコードと、前記後文テキストにおける第n個の文字の隠れ状態と、前記前文テキストの符号化シーケンスとを融合させて、前記第2の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字のコードを取得するように構成される第4の復号化ユニットと、
前記後文テキストにおける各文字のコードに基づいて、前記後文テキストを決定するように構成される出力ユニットと、を含む、
ことを特徴とする請求項6に記載のテキスト生成装置。 - 前記予測ユニットが、
前記目標値と前記前文テキストの符号化シーケンスとを融合させて、第3の循環ニューラルネットワークに入力し、前記後文テキストにおける最初の文字の制御可能な属性の値を取得し、
前記後文テキストにおける第(n-1)個の文字の制御可能な属性の値と、前記目標値と、前記前文テキストの符号化シーケンスとを融合させて、前記第3の循環ニューラルネットワークに入力して復号化し、前記後文テキストにおける第n個の文字の制御可能な属性の値を取得するように構成される、
ことを特徴とする請求項6に記載のテキスト生成装置。 - 電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~5のいずれか1項に記載のテキスト生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
ことを特徴とする電子機器。 - コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記命令は、コンピュータに請求項1~5のいずれか1項に記載のテキスト生成方法を実行させる、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。 - コンピュータプログラムであって、
前記コンピュータプログラムがプロセッサによって実行される場合、請求項1~5のいずれか1項に記載のテキスト生成方法が実現される、
ことを特徴とするコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110731989.3A CN113553863B (zh) | 2021-06-30 | 2021-06-30 | 文本生成方法、装置、电子设备和存储介质 |
CN202110731989.3 | 2021-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022088494A JP2022088494A (ja) | 2022-06-14 |
JP7397114B2 true JP7397114B2 (ja) | 2023-12-12 |
Family
ID=78131058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022048414A Active JP7397114B2 (ja) | 2021-06-30 | 2022-03-24 | テキスト生成方法、装置、電子機器及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220138435A1 (ja) |
JP (1) | JP7397114B2 (ja) |
CN (1) | CN113553863B (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018180720A (ja) | 2017-04-06 | 2018-11-15 | 株式会社 ディー・エヌ・エー | 入出力システム、入出力プログラム、情報処理装置、チャットシステム |
US20200356729A1 (en) | 2017-12-15 | 2020-11-12 | Microsoft Technology Licensing, Llc | Generation of text from structured data |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106528858A (zh) * | 2016-11-29 | 2017-03-22 | 北京百度网讯科技有限公司 | 歌词生成方法及装置 |
KR20190019748A (ko) * | 2017-08-18 | 2019-02-27 | 삼성전자주식회사 | 자연어 생성 방법 및 장치 |
CN108062388B (zh) * | 2017-12-15 | 2021-09-17 | 北京百度网讯科技有限公司 | 人机对话的回复生成方法和装置 |
US11301870B2 (en) * | 2018-02-20 | 2022-04-12 | [24]7.ai, Inc. | Method and apparatus for facilitating turn-based interactions between agents and customers of an enterprise |
CN109670185B (zh) * | 2018-12-27 | 2023-06-23 | 北京百度网讯科技有限公司 | 基于人工智能的文本生成方法和装置 |
-
2021
- 2021-06-30 CN CN202110731989.3A patent/CN113553863B/zh active Active
-
2022
- 2022-01-11 US US17/572,930 patent/US20220138435A1/en active Pending
- 2022-03-24 JP JP2022048414A patent/JP7397114B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018180720A (ja) | 2017-04-06 | 2018-11-15 | 株式会社 ディー・エヌ・エー | 入出力システム、入出力プログラム、情報処理装置、チャットシステム |
US20200356729A1 (en) | 2017-12-15 | 2020-11-12 | Microsoft Technology Licensing, Llc | Generation of text from structured data |
Also Published As
Publication number | Publication date |
---|---|
CN113553863A (zh) | 2021-10-26 |
CN113553863B (zh) | 2023-10-20 |
US20220138435A1 (en) | 2022-05-05 |
JP2022088494A (ja) | 2022-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
US11663488B2 (en) | Initialization of parameters for machine-learned transformer neural network architectures | |
JP2022028887A (ja) | テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体 | |
US11842728B2 (en) | Training neural networks to predict acoustic sequences using observed prosody info | |
JP7346788B2 (ja) | 音声認識モデルのトレーニング方法、装置、機器、および記憶媒体 | |
EP3520035A1 (en) | Implicit bridging of machine learning tasks | |
JP2023039889A (ja) | モデルトレーニング方法および字庫作成方法、デバイス、設備ならびに記憶媒体 | |
US20230178067A1 (en) | Method of training speech synthesis model and method of synthesizing speech | |
JP7314450B2 (ja) | 音声合成方法、装置、機器、及びコンピュータ記憶媒体 | |
JP7308903B2 (ja) | ストリーミング音声認識結果の表示方法、装置、電子機器及び記憶媒体 | |
US20220375453A1 (en) | Method and apparatus for speech synthesis, and storage medium | |
WO2023142454A1 (zh) | 语音翻译和模型训练方法、装置、电子设备以及存储介质 | |
CN114611532A (zh) | 语言模型训练方法及装置、目标翻译错误检测方法及装置 | |
US20230410794A1 (en) | Audio recognition method, method of training audio recognition model, and electronic device | |
JP7397114B2 (ja) | テキスト生成方法、装置、電子機器及び記憶媒体 | |
JP2023078411A (ja) | 情報処理方法、モデルトレーニング方法、装置、機器、媒体及びプログラム製品 | |
JP7349523B2 (ja) | 音声認識方法、音声認識装置、電子機器、記憶媒体コンピュータプログラム製品及びコンピュータプログラム | |
US12087279B2 (en) | Regularizing word segmentation | |
CN113901841A (zh) | 翻译方法、装置以及存储介质 | |
JP7318161B2 (ja) | 音声処理方法、装置、機器、及びコンピュータ記憶媒体 | |
JP7530412B2 (ja) | 非自己回帰翻訳モデルのトレーニング方法及びその装置 | |
US12073822B2 (en) | Voice generating method and apparatus, electronic device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230426 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7397114 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |