JP7411149B2 - 学習装置、推定装置、学習方法、推定方法及びプログラム - Google Patents
学習装置、推定装置、学習方法、推定方法及びプログラム Download PDFInfo
- Publication number
- JP7411149B2 JP7411149B2 JP2022083350A JP2022083350A JP7411149B2 JP 7411149 B2 JP7411149 B2 JP 7411149B2 JP 2022083350 A JP2022083350 A JP 2022083350A JP 2022083350 A JP2022083350 A JP 2022083350A JP 7411149 B2 JP7411149 B2 JP 7411149B2
- Authority
- JP
- Japan
- Prior art keywords
- modality
- sub
- utterance
- estimation
- sentiment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 275
- 230000008569 process Effects 0.000 claims description 250
- 238000012545 processing Methods 0.000 claims description 148
- 230000010354 integration Effects 0.000 claims description 58
- 238000013178 mathematical model Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 28
- 230000002457 bidirectional effect Effects 0.000 claims description 4
- 238000001994 activation Methods 0.000 description 63
- 239000013598 vector Substances 0.000 description 53
- 238000004891 communication Methods 0.000 description 33
- 238000002474 experimental method Methods 0.000 description 25
- 230000004913 activation Effects 0.000 description 22
- 238000004458 analytical method Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000012795 verification Methods 0.000 description 11
- 238000013507 mapping Methods 0.000 description 10
- 238000002679 ablation Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000004927 fusion Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000009901 attention process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 101100042271 Mus musculus Sema3b gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000005428 wave function Effects 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Description
図1は、実施形態における推定システム100の概要を説明する説明図である。推定システム100は、学習装置1と推定装置2とを備える。学習装置1は、センチメント推定モデルの学習を、学習に関する所定の終了条件(以下「学習終了条件」という。)が満たされるまで行う。
第2副統合処理では、系列L´から発話レベルの系列L´uが抽出される処理が実行される。発話レベルの系列とは、BERT(Bidirectional Encoder Representations from Transformers)におけるCLSトークンに対するAttentionの出力である。
マルチモーダル統合処理では次に、トピック推定処理が実行される。トピック推定処理は、解析対象の発話の内容の主題(トピック)を推定する処理である。トピック推定処理は、例えば、第2副統合処理の結果を変分オートエンコーダ(Variational AutoEncoder;VAE)に入力し、変分オートエンコーダの出力を取得する処理である。すなわち、トピック推定処理は、例えば第2副統合処理の結果に対して変分オートエンコーダを実行する処理である。トピック推定処理は、図3の例では、処理B206において実行される。
ここで共通情報取得処理の奏する効果について説明する。系列は数学的にはベクトルとして表現されるので、系列をベクトルとして扱って共通情報取得処理の奏する効果の説明を行う。共通情報取得処理は、上述したように入力された各ベクトルに同一の写像を作用させる処理である。したがって、各ベクトルに共通する情報を取得する処理である。数学的には、共通情報取得処理は、各ベクトルを含む1つのベクトル空間において、各ベクトルを同一の超平面に斜影する処理である。ところで、各ベクトルはいずれも、発話中に得られた時系列から得られたものである。
マルチモーダル統合処理では次に、第3副統合処理が実行される。第3副統合処理は、第2副統合処理の結果とトピック推定処理の結果とに基づき、第2副統合処理の結果とトピック推定処理の結果との関連性を示す系列を取得する処理である。第3副統合処理は、より具体的には、第2副統合処理の結果とトピック推定処理の結果とに基づき、Source-Target-Attentionを用いて、第2副統合処理の結果とトピック推定処理の結果との関連性を示す系列を取得する処理である。
このようにしてマルチモーダル統合処理では、音声モダリティと、映像モダリティと、言語モダリティと、トピックを示す情報とを含む情報が生成される。以下、音声モダリティと、映像モダリティと、トピックを示す情報とを、音声モダリティや映像モダリティ等、という。
マルチモーダル統合処理を含むBERTを用いたセンチメント推定モデルにおいては、マルチモーダル統合処理の結果、モダリティが統合された出力系列HとCLSトークンに対するAttention出力のベクトルpとがBERTから出力される。系列Hはn×fhの形状の系列である。fhは、特徴ベクトルの次元数である。fhは、ハイパーパラメータである。したがって、pは、fh次元のベクトルである。マルチモーダル統合処理を含むBERTを用いたセンチメント推定モデルでは、次にpを全結合層に通すことでスコアリングのための最終的な出力oが得られる。出力oの次元は、センチメントの推定の内容に応じて予め定められた形式であって、センチメントを表現する形式に依存する。
図4は、実施形態におけるセンチメント推定モデルを用いた推定の実験の結果の一例を示す図である。より具体的には、図4は、学習済みの検証対象モデルによる推定の実験結果の一例を示す図である。検証対象モデルは、モダリティ活性化処理を含むマルチモーダル統合処理を実行するBERTを用いたセンチメント推定モデルを意味する。
参考文献3:”Facial Action Coding System”、[online]、[令和4年5月16日検索]、インターネット〈URL:https://en.wikipedia.org/wiki/Facial_Action_Coding_System >
ここまで実験結果の解釈を行った。そこで、推定システム100におけるセンチメント推定モデルの奏する効果の1つについて念のため、説明する。機械学習の分野においては、異なるモダリティ同士の連結処理はこれまでマルチモーダル処理の最終層(Late Fusion)、あるいは第一層(Early Fusion)などで行われており、純粋に全結合層の直前などに置くことで複数モダリティ同士の影響度のみを学習させる目的で用いられていた。推定システム100におけるセンチメント推定モデルでは、位置情報を有するモダリティと有さないモダリティとの連結処理を、AttentionのTargetの入力側の系列の生成に用いることで、Source側が持つ位置情報がAttentnion機構に取り込まれる。その結果、Attention処理の精度が大幅に向上し、推定システム100におけるセンチメント推定モデルによるセンチメントの推定の精度の向上が生じる。
なお、学習装置1は、ネットワークを介して通信可能に接続された複数台の情報処理装置を用いて実装されてもよい。この場合、学習装置1が備える各機能部は、複数の情報処理装置に分散して実装されてもよい。
解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との関連性を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の関連性を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との関連性を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行部と、
前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新部と、
を備える学習装置。
前記第1副統合処理、前記第2副統合処理又は前記第3副統合処理は、Source-Target Attentionを用いて処理対象の間の関連性を示す系列を取得する、
付記1に記載の学習装置。
前記トピック推定処理は、変分オートエンコーダである、
付記1又は2に記載の学習装置。
前記処理実行部は、前記マルチモーダル統合処理を実行する層を中間層に含むBERT(Bidirectional Encoder Representations from Transformers)を実行する、
付記1から3のいずれか一つに記載の学習装置。
前記マルチモーダル統合処理では、前記言語モダリティ、前記音声モダリティ、前記映像モダリティと前記意味情報とのうちの1つである適用元モダリティと、前記言語モダリティ、前記音声モダリティ、前記映像モダリティと前記意味情報とのうちの他の1つである適用先モダリティとの連結が行われ、
適用元モダリティと適用先モダリティとは系列であり、適用元モダリティと適用先モダリティとの一方は位置埋め込みが実行済みであり、他方は位置埋め込みが実行されていない、
付記1から付記4のいずれか一つに記載の学習装置。
推定対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティと、意味情報と、を取得する対象取得部と、
解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との関連性を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の関連性を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との関連性を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行部と、前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新部と、を備える学習装置によって所定の終了条件が満たされるまで更新された前記センチメント推定モデルを前記対象取得部の取得した前記言語モダリティ、前記音声モダリティ、前記映像モダリティ及び前記意味情報に対して実行する推定部と、
を備える推定装置。
解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との関連性を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の関連性を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との関連性を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行ステップと、
前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新ステップと、
を有する学習方法。
推定対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティと、意味情報と、を取得する対象取得ステップと、
解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との関連性を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の関連性を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との関連性を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行ステップと、前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新ステップと、を有する学習方法によって所定の終了条件が満たされるまで更新された前記センチメント推定モデルを前記対象取得ステップの取得した前記言語モダリティ、前記音声モダリティ、前記映像モダリティ及び前記意味情報に対して実行する推定ステップと、
を有する推定方法。
請求項1から5のいずれか一つに記載の学習装置としてコンピュータを機能させるためのプログラム。
付記6に記載の推定装置としてコンピュータを機能させるためのプログラム。
Claims (10)
- 解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との間の照応関係を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の照応関係を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との間の照応関係を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行部と、
前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新部と、
を備える学習装置。 - 前記第1副統合処理、前記第2副統合処理又は前記第3副統合処理は、Source-Target Attentionを用いて処理対象の間の照応関係を示す系列を取得する、
請求項1に記載の学習装置。 - 前記トピック推定処理は、変分オートエンコーダである、
請求項1に記載の学習装置。 - 前記処理実行部は、前記マルチモーダル統合処理を実行する層を中間層に含むBERT(Bidirectional Encoder Representations from Transformers)を実行する、
請求項1に記載の学習装置。 - 前記マルチモーダル統合処理では、前記言語モダリティ、前記音声モダリティ、前記映像モダリティと前記意味情報とのうちの1つである適用元モダリティと、前記言語モダリティ、前記音声モダリティ、前記映像モダリティと前記意味情報とのうちの他の1つである適用先モダリティとの連結が行われ、
適用元モダリティと適用先モダリティとは系列であり、適用元モダリティと適用先モダリティとの一方は位置埋め込みが実行済みであり、他方は位置埋め込みが実行されていない、
請求項1から4のいずれか一項に記載の学習装置。 - 推定対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティと、意味情報と、を取得する対象取得部と、
解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との照応関係を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の照応関係を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との照応関係を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行部と、前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新部と、を備える学習装置によって所定の終了条件が満たされるまで更新された前記センチメント推定モデルを前記対象取得部の取得した前記言語モダリティ、前記音声モダリティ、前記映像モダリティ及び前記意味情報に対して実行する推定部と、
を備える推定装置。 - 解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との照応関係を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の照応関係を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との照応関係を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行ステップと、
前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新ステップと、
を有する学習方法。 - 推定対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティと、意味情報と、を取得する対象取得ステップと、
解析対象の発話の発話中に得られた言語モダリティ、音声モダリティ及び映像モダリティのうちの前記言語モダリティと意味情報との照応関係を示す系列を取得する第1副統合処理と、前記第1副統合処理の結果と前記音声モダリティと前記映像モダリティとの間の照応関係を示す系列を取得する第2副統合処理と、前記第2副統合処理の結果に基づき前記発話の内容のトピックを推定するトピック推定処理と、前記第2副統合処理の結果と前記トピック推定処理の結果との照応関係を示す系列を取得する第3副統合処理と、を含むマルチモーダル統合処理、を実行する数理モデルであって、前記マルチモーダル統合処理によって得られた情報に基づいて前記解析対象の発話の発話中のセンチメントを推定する数理モデルであるセンチメント推定モデルを実行する処理実行ステップと、前記センチメント推定モデルの実行の結果に基づき前記センチメント推定モデルの内容を更新する更新ステップと、を有する学習方法によって所定の終了条件が満たされるまで更新された前記センチメント推定モデルを前記対象取得ステップの取得した前記言語モダリティ、前記音声モダリティ、前記映像モダリティ及び前記意味情報に対して実行する推定ステップと、
を有する推定方法。 - 請求項1に記載の学習装置としてコンピュータを機能させるためのプログラム。
- 請求項6に記載の推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022083350A JP7411149B2 (ja) | 2022-05-20 | 2022-05-20 | 学習装置、推定装置、学習方法、推定方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022083350A JP7411149B2 (ja) | 2022-05-20 | 2022-05-20 | 学習装置、推定装置、学習方法、推定方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023171107A JP2023171107A (ja) | 2023-12-01 |
JP7411149B2 true JP7411149B2 (ja) | 2024-01-11 |
Family
ID=88927863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022083350A Active JP7411149B2 (ja) | 2022-05-20 | 2022-05-20 | 学習装置、推定装置、学習方法、推定方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7411149B2 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021124642A (ja) | 2020-02-06 | 2021-08-30 | 本田技研工業株式会社 | 情報処理装置、車両、プログラム、及び情報処理方法 |
US20220108688A1 (en) | 2020-10-02 | 2022-04-07 | Salesforce.Com, Inc. | Systems and methods for a multilingual speech recognition framework |
-
2022
- 2022-05-20 JP JP2022083350A patent/JP7411149B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021124642A (ja) | 2020-02-06 | 2021-08-30 | 本田技研工業株式会社 | 情報処理装置、車両、プログラム、及び情報処理方法 |
US20220108688A1 (en) | 2020-10-02 | 2022-04-07 | Salesforce.Com, Inc. | Systems and methods for a multilingual speech recognition framework |
Non-Patent Citations (2)
Title |
---|
Sanghyun Lee et al.,Multimodal Emotion Recognition Fusion Analysis Adapting BERT With Heterogeneous Feature Unification,IEEEAccess,2021年06月28日,[検索日2023.03.16],インターネット<URL:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9466122> |
Wei Han et al.,Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal Sentiment Analysis,arXiv,2021年08月28日,[検索日2023.03.16],インターネット<URL:https://arxiv.org/pdf/2107.13669.pdf> |
Also Published As
Publication number | Publication date |
---|---|
JP2023171107A (ja) | 2023-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112487182B (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
WO2019200923A1 (zh) | 基于拼音的语义识别方法、装置以及人机对话系统 | |
CN111095259B (zh) | 使用n-gram机器的自然语言处理 | |
KR20210158344A (ko) | 디지털 어시스턴트를 위한 머신 러닝 시스템 | |
JP6832501B2 (ja) | 意味生成方法、意味生成装置及びプログラム | |
Kheddar et al. | Deep transfer learning for automatic speech recognition: Towards better generalization | |
US11715008B2 (en) | Neural network training utilizing loss functions reflecting neighbor token dependencies | |
CN111401084A (zh) | 一种机器翻译的方法、设备以及计算机可读存储介质 | |
CN111428490B (zh) | 一种利用语言模型的指代消解弱监督学习方法 | |
CN111191002A (zh) | 一种基于分层嵌入的神经代码搜索方法及装置 | |
JP7070653B2 (ja) | 学習装置、音声認識順位推定装置、それらの方法、およびプログラム | |
JP2018190136A (ja) | 興味判定装置、興味判定方法、及びプログラム | |
Noaman et al. | Enhancing recurrent neural network-based language models by word tokenization | |
Poncelet et al. | Low resource end-to-end spoken language understanding with capsule networks | |
JP6605997B2 (ja) | 学習装置、学習方法及びプログラム | |
WO2023116572A1 (zh) | 一种词句生成方法及相关设备 | |
CN111914084A (zh) | 一种基于深度学习的带有情感标签文本生成及评估系统 | |
JP7411149B2 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム | |
CN114757310B (zh) | 情感识别模型及其训练方法、装置、设备及可读存储介质 | |
CN115510230A (zh) | 一种基于多维特征融合与比较增强学习机制的蒙古语情感分析方法 | |
JP2019204415A (ja) | 言い回し文生成方法、言い回し文装置及びプログラム | |
CN114974310A (zh) | 基于人工智能的情感识别方法、装置、计算机设备及介质 | |
CN114090725A (zh) | 情感预测模型的训练方法及装置 | |
Bai et al. | A public Chinese dataset for language model adaptation | |
JP7419615B2 (ja) | 学習装置、推定装置、学習方法、推定方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20230927 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230929 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7411149 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |