JP6856697B2 - 情報処理装置、情報処理方法、情報処理プログラム、学習装置、学習方法および学習プログラム - Google Patents
情報処理装置、情報処理方法、情報処理プログラム、学習装置、学習方法および学習プログラム Download PDFInfo
- Publication number
- JP6856697B2 JP6856697B2 JP2019083226A JP2019083226A JP6856697B2 JP 6856697 B2 JP6856697 B2 JP 6856697B2 JP 2019083226 A JP2019083226 A JP 2019083226A JP 2019083226 A JP2019083226 A JP 2019083226A JP 6856697 B2 JP6856697 B2 JP 6856697B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- voice
- mixed
- feature
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 71
- 230000010365 information processing Effects 0.000 title claims description 59
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000605 extraction Methods 0.000 claims description 144
- 239000013598 vector Substances 0.000 claims description 57
- 230000008569 process Effects 0.000 claims description 42
- 239000000284 extract Substances 0.000 claims description 35
- 238000012545 processing Methods 0.000 description 43
- 238000010586 diagram Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000015654 memory Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 241000255925 Diptera Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010367 cloning Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
まず、図1を用いて、学習装置の一例である情報提供装置10と、情報処理装置の一例であるスマートスピーカ200とが実行する処理の一例について説明する。図1は、実施形態に係る情報提供装置およびスマートスピーカが実行する処理の一例を示す図である。図1では、情報提供装置10が実行する処理として、モデルの学習を行う学習処理の一例について記載し、スマートスピーカ200が実行する処理として、学習済のモデル(以下、「学習モデル」と記載する場合がある。)を用いて情報処理を実行する処理の一例について記載した。
利用者は、スマートスピーカ等を操作する場合は、所定のキーワードを発話した後で、実行させる処理を示す発話(以下、「処理発話」と記載する。)を発話する。このような場合、スマートスピーカ200は、取得した音声に所定のキーワードが含まれているか否かを判定する。そして、スマートスピーカ200は、所定のキーワードが含まれていると判定される場合は、そのキーワードに続いて利用者が発話した処理発話が含まれる音声データの区間から、音声解析により利用者の発話内容を特定する。
ここで、予め特定の利用者が発声した音声の特徴を学習しておき、入力音声のうち学習済の特徴を有する音声を強調する技術が知られている。このような技術においては、例えば、雑音が無い状況で目標利用者が発声した音声の特徴を学習し、入力音声に含まれる各種の音声のうち、目標利用者が発声した音声と特徴が類似する音声を強調するといった処理が行われる。
そこで、情報提供装置10は、以下に説明する構造を有するモデルMを生成し、スマートスピーカ200へと提供する。そして、スマートスピーカ200は、モデルMを用いて、混合音声から目標音声を抽出するための目標音声抽出マスクを生成し、生成した目標音声抽出マスクを用いて、混合音声から目標音声の抽出を行う。
以下、図1を用いて、情報提供装置10が実行する学習処理およびスマートスピーカ200が実行する情報処理の一例について説明する。なお、以下の説明では、情報提供装置10が実行する学習処理を先に説明し、続いて、スマートスピーカ200が実行する情報処理について説明する。
例えば、情報提供装置10は、データサーバ100から学習データを取得する(ステップS1)。より具体的な例を挙げると、情報提供装置10は、混合音声と、目標利用者が発した音声である適用音声と、混合音声から適用音声と特徴が類似する音声を抽出するためのマスク(以下、「適用音声抽出マスク」と記載する。)との組を受付ける。
例えば、情報提供装置10は、図1に示すように、適用音声特徴抽出部M1、混合音声特徴抽出部M2、適用態様決定部M3、第1ゲート部M4、第2ゲート部M5、およびマスク生成部M6を有するモデルMを生成する。そして、情報提供装置10は、適用音声特徴抽出部M1に適用音声を入力し、適用態様決定部M2と混合音声特徴抽出部M3とに混合音声を入力した場合に、マスク生成部M6が適用音声抽出マスクを出力するように、モデルMの学習を行う。
続いて、図2を用いて、情報提供装置10が学習を行うモデルの具体的な構成例について説明する。図2は、実施形態に係る情報提供装置が生成するモデルの構成例を示す図である。
続いて、図1に戻り、スマートスピーカ200が実行する情報処理の一例について説明する。例えば、スマートスピーカ200は、情報提供装置10により学習が行われたモデルMの提供を受付ける(ステップS3)。続いて、スマートスピーカ200は、キーワード音声と混合音声とを受付ける(ステップS4)。
続いて、数式を用いて、図2に例示した構造を有するモデルMが実行する処理の一例を数式を用いて説明する。なお、以下の説明では、適用音声と混合音声とを複数のフレームに分割し、分割した各フレームをモデルMに入力した際に、モデルMが生成する適用音声抽出マスクの一例について説明する。
なお、上述したモデルMの学習を行う場合、情報提供装置10は、混合音声と適用音声と適用音声抽出マスクとの組を学習データとするのであれば、任意の学習データを用いてもよい。例えば、情報提供装置10は、利用者#1〜#3の音声を混合した混合音声と、各利用者#1〜#3のそれぞれの音声である適用音声#1〜#3と、各利用者#1〜#3の音声を抽出するための適用音声抽出マスク#1〜#3とを学習データとして取得する。このような場合、情報提供装置10は、混合音声と適用音声#1とを入力した際に適用音声抽出マスク#1を出力し、混合音声と適用音声#2とを入力した際に適用音声抽出マスク#2を出力し、混合音声と適用音声#3とを入力した際に適用音声抽出マスク#3を出力するようにモデルMの学習を行えばよい。ここで、適用音声#1〜#3が混合音声に含まれる音声であってもよく、異なる音声(例えば、個別に発話した音声)であってもよい。
以下、上記した学習処理を実現する情報提供装置10が有する機能構成の一例、および、上述した情報処理を実現するスマートスピーカ200が有する機能構成の一例について説明する。
まず、図3を用いて、情報提供装置10が有する機能構成の一例を説明する。図3は、実施形態に係る情報提供装置の構成例を示す図である。図7に示すように、情報提供装置10は、通信部20、記憶部30、および制御部40を有する。
次に、図5を用いて、スマートスピーカ200が有する機能構成の一例を説明する。図5は、実施形態に係るスマートスピーカの構成例を示す図である。図5に示すように、スマートスピーカ200は、通信部210、記憶部220、制御部230、入力部240および出力部250を有する。
次に、図6、図7を用いて、情報提供装置10およびスマートスピーカ200が実行する処理の流れの一例について説明する。図6は、実施形態に係る情報提供装置が実行する学習処理の流れの一例を示すフローチャートである。また、図7は、実施形態に係るスマートスピーカが実行する情報処理の流れの一例を示すフローチャートである。
以下、上述した学習処理によって学習が行われたモデルMを準備し、モデルMが生成するマスクの精度の一例について説明する。
上記では、学習処理や情報処理の一例について説明した。しかしながら、実施形態は、これに限定されるものではない。以下、情報提供装置10やスマートスピーカ200が実行する学習処理や情報処理のバリエーションについて説明する。
上述した説明では、情報提供装置10は、混合音声から目標音声を抽出するためのモデルMの学習を行い、スマートスピーカ200は、モデルMを用いて、混合音声から目標音声を抽出するマスクを生成した。しかしながら、実施形態は、これに限定されるものではない。
上述した例では、スマートスピーカ200は、キーワード音声を適用音声とし、混合音声からキーワード音声と特徴が類似する音声を抽出するためのマスクを目標音声抽出マスクとして生成した。しかしながら、実施形態は、これに限定されるものではない。スマートスピーカ200は、目標情報の一部もしくは目標情報と類似する情報を適用情報とするのであれば、任意の情報を適用情報としてもよい。
記憶部30に登録された学習データデータベース31は、外部のストレージサーバに保持されていてもよい。また、情報提供装置10とスマートスピーカ200とは、上述した学習処理および情報処理を連携して実現してもよく、いずれか一方の装置が単独で実行してもよい。
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、逆に、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、上述した実施形態に係る情報提供装置10は、例えば図11に示すような構成のコンピュータ1000によって実現される。図11は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
上述したように、スマートスピーカ200は、複数の情報を含む混合情報と、複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報とを取得する。そして、スマートスピーカ200は、混合情報の特徴と適用情報の特徴とに基づいた第1特徴情報と混合情報の特徴に基づいた第2特徴情報とに基づいて混合情報から目標情報を抽出するための抽出情報を生成するモデルMを用いて、取得された混合情報および適用情報から、抽出情報を生成する。その後、スマートスピーカ200は、生成された抽出情報を用いて、混合情報から目標情報を抽出する。このため、スマートスピーカ200は、目標となる情報の抽出を容易かつ精度良く抽出することができる。
20、210 通信部
30、220 記憶部
31 学習データデータベース
40、230 制御部
41 取得部
42 学習部
43 提供部
100 データサーバ
200 スマートスピーカ
221 学習モデル
231 検出部
232 生成部
233 抽出部
234 処理部
240 入力部
250 出力部
Claims (16)
- 複数の情報を含む混合情報と、当該複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報とを取得する取得部と、
前記混合情報の特徴と前記適用情報の特徴とに基づいた第1特徴情報と前記混合情報の特徴に基づいた第2特徴情報とに基づいて前記混合情報から前記目標情報を抽出するための抽出情報を生成するモデルを用いて、前記取得部により取得された前記混合情報および前記適用情報から、前記抽出情報を生成する生成部と、
前記生成部により生成された抽出情報を用いて、前記混合情報から前記目標情報を抽出する抽出部と
を有することを特徴とする情報処理装置。 - 前記生成部は、前記モデルとして、前記混合情報の特徴から前記適用情報の特徴の適用度合を示す第1適用情報を生成する第1生成部と、第1生成部により生成された第1適用情報と前記適用情報の特徴とから前記第1特徴情報を生成する第1ゲート部と、前記混合情報の特徴から前記混合情報の特徴の適用度合を示す第2適用情報を生成する第2生成部と、第2生成部により生成された第2適用情報と前記混合情報の特徴とから前記第2特徴情報を生成する第2ゲート部とを有するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記生成部は、前記モデルとして、前記適用情報の特徴を抽出する第1抽出部と、前記混合情報の特徴を抽出する第2抽出部と、前記第1特徴情報および前記第2特徴情報を用いて前記抽出情報を生成する第3生成部とを有するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項2に記載の情報処理装置。 - 前記生成部は、前記モデルとして、ベクトルである第1特徴情報を生成する第1ゲート部と、ベクトルである第2特徴情報を生成する第2ゲート部とを有するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記生成部は、前記モデルとして、前記第1特徴情報と前記第2特徴情報とを連結した連結情報から前記抽出情報を生成する第3生成部を有するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項4に記載の情報処理装置。 - 前記生成部は、前記モデルとして、ベクトルである前記第1適用情報を生成する第1生成部と、ベクトルである前記第2適用情報を生成する第2生成部とを有するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項5に記載の情報処理装置。 - 前記生成部は、前記モデルとして、前記第1適用情報と前記適用情報の特徴とのアダマール積を前記第1特徴情報として生成する第1ゲート部と、前記第2適用情報と前記混合情報の特徴とのアダマール積を前記第2特徴情報として生成する第2ゲート部とを有するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記生成部は、前記モデルとして、ベクトルである前記抽出情報を生成するモデルを用いて、前記抽出情報を生成する
ことを特徴とする請求項7に記載の情報処理装置。 - 前記生成部は、前記モデルとして、混合情報と適用情報とが入力された際に、当該混合情報の特徴と当該適用情報の特徴とに基づいた第1特徴情報を生成するとともに、当該混合情報の特徴に基づいた第2特徴情報を生成し、入力された混合情報から入力された適用情報を抽出するための抽出情報を、生成された第1特徴情報と生成された第2特徴情報とから生成するように学習が行われたモデルを用いて、前記取得部により取得された混合情報から前記目標情報を抽出するための抽出情報を生成する
ことを特徴とする請求項1〜7のうちいずれか1つに記載の情報処理装置。 - 前記取得部は、前記混合情報として、所定の利用者の発話音声と他の音声とを含む混合音声を取得するとともに、前記適用情報として、前記所定の利用者の発話音声である適用音声とを取得し、
前記生成部は、前記モデルを用いて、前記混合音声から前記所定の利用者の発話音声を抽出するための抽出情報を生成し、
前記抽出部は、前記抽出情報を用いて、前記混合音声から前記所定の利用者の発話音声を抽出する
ことを特徴とする請求項1〜9のうちいずれか1つに記載の情報処理装置。 - 前記取得部は、前記適用音声として、利用者が発話した所定のキーワードの音声を取得し、
前記生成部は、前記混合音声から前記所定のキーワードを発話した利用者の音声を抽出するための抽出情報を生成し、
前記抽出部は、前記混合音声から前記所定のキーワードを発話した利用者の音声を抽出する
ことを特徴とする請求項10に記載の情報処理装置。 - 情報処理装置が実行する情報処理方法であって、
複数の情報を含む混合情報と、当該複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報とを取得する取得工程と、
前記混合情報の特徴と前記適用情報の特徴とに基づいた第1特徴情報と前記混合情報の特徴に基づいた第2特徴情報とに基づいて前記混合情報から前記目標情報を抽出するための抽出情報を生成するモデルを用いて、前記取得工程により取得された前記混合情報および前記適用情報から、前記抽出情報を生成する生成工程と、
前記生成工程により生成された抽出情報を用いて、前記混合情報から前記目標情報を抽出する抽出工程と
を含むことを特徴とする情報処理方法。 - 複数の情報を含む混合情報と、当該複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報とを取得する取得手順と、
前記混合情報の特徴と前記適用情報の特徴とに基づいた第1特徴情報と前記混合情報の特徴に基づいた第2特徴情報とに基づいて前記混合情報から前記目標情報を抽出するための抽出情報を生成するモデルを用いて、前記取得手順により取得された前記混合情報および前記適用情報から、前記抽出情報を生成する生成手順と、
前記生成手順により生成された抽出情報を用いて、前記混合情報から前記目標情報を抽出する抽出手順と
をコンピュータに実行させるための情報処理プログラム。 - 複数の情報を含む混合情報と、当該複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報と、当該混合情報から当該目標情報を抽出するための抽出情報とを取得する取得部と、
前記混合情報と前記適用情報とが入力された際に、当該混合情報の特徴と当該適用情報の特徴とに基づいた第1特徴情報を生成するとともに、当該混合情報の特徴に基づいた第2特徴情報を生成し、生成された第1特徴情報と生成された第2特徴情報とから前記抽出情報を生成するようにモデルの学習を行う学習部と
を有することを特徴とする学習装置。 - 学習装置が実行する学習方法であって、
複数の情報を含む混合情報と、当該複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報と、当該混合情報から当該目標情報を抽出するための抽出情報とを取得する取得工程と、
前記混合情報と前記適用情報とが入力された際に、当該混合情報の特徴と当該適用情報の特徴とに基づいた第1特徴情報を生成するとともに、当該混合情報の特徴に基づいた第2特徴情報を生成し、生成された第1特徴情報と生成された第2特徴情報とから前記抽出情報を生成するようにモデルの学習を行う学習工程と
を含むことを特徴とする学習方法。 - 複数の情報を含む混合情報と、当該複数の情報のうち抽出対象となる目標情報に特徴が類似する適用情報と、当該混合情報から当該目標情報を抽出するための抽出情報とを取得する取得手順と、
前記混合情報と前記適用情報とが入力された際に、当該混合情報の特徴と当該適用情報の特徴とに基づいた第1特徴情報を生成するとともに、当該混合情報の特徴に基づいた第2特徴情報を生成し、生成された第1特徴情報と生成された第2特徴情報とから前記抽出情報を生成するようにモデルの学習を行う学習手順と
をコンピュータに実行させるための学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083226A JP6856697B2 (ja) | 2019-04-24 | 2019-04-24 | 情報処理装置、情報処理方法、情報処理プログラム、学習装置、学習方法および学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083226A JP6856697B2 (ja) | 2019-04-24 | 2019-04-24 | 情報処理装置、情報処理方法、情報処理プログラム、学習装置、学習方法および学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020181060A JP2020181060A (ja) | 2020-11-05 |
JP6856697B2 true JP6856697B2 (ja) | 2021-04-07 |
Family
ID=73023429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083226A Active JP6856697B2 (ja) | 2019-04-24 | 2019-04-24 | 情報処理装置、情報処理方法、情報処理プログラム、学習装置、学習方法および学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6856697B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7293162B2 (ja) * | 2020-04-08 | 2023-06-19 | 日本電信電話株式会社 | 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラム |
WO2023171124A1 (ja) * | 2022-03-07 | 2023-09-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、情報処理プログラム及び情報処理システム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106815507A (zh) * | 2015-11-30 | 2017-06-09 | 中兴通讯股份有限公司 | 语音唤醒实现方法、装置及终端 |
US10373612B2 (en) * | 2016-03-21 | 2019-08-06 | Amazon Technologies, Inc. | Anchored speech detection and speech recognition |
-
2019
- 2019-04-24 JP JP2019083226A patent/JP6856697B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020181060A (ja) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7018659B2 (ja) | 声質変換装置、声質変換方法およびプログラム | |
CN107195296B (zh) | 一种语音识别方法、装置、终端及系统 | |
US9451304B2 (en) | Sound feature priority alignment | |
JP7309155B2 (ja) | コンピュータプログラム、サーバ装置、端末装置及び音声信号処理方法 | |
JP2007249212A (ja) | テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ | |
JP6991041B2 (ja) | 生成装置、生成方法、および生成プログラム | |
US11367431B2 (en) | Synthetic speech processing | |
CN112349289B (zh) | 一种语音识别方法、装置、设备以及存储介质 | |
WO2019116889A1 (ja) | 信号処理装置および方法、学習装置および方法、並びにプログラム | |
KR20110068869A (ko) | 복수의 휴먼 테스터에 기초한 음성 발화의 음성 자연성 등급 평가 | |
JP6856697B2 (ja) | 情報処理装置、情報処理方法、情報処理プログラム、学習装置、学習方法および学習プログラム | |
JP2015169698A (ja) | 音声検索装置、音声検索方法及びプログラム | |
WO2017146073A1 (ja) | 声質変換装置、声質変換方法およびプログラム | |
US20240004606A1 (en) | Audio playback method and apparatus, computer readable storage medium, and electronic device | |
KR20190046305A (ko) | 음성데이터 마켓 시스템 및 음성데이터 마켓 시스템으로 음성을 제공하는 방법 | |
US20210074302A1 (en) | Electronic apparatus and control method thereof | |
JP2019056791A (ja) | 音声認識装置、音声認識方法およびプログラム | |
JP6786065B2 (ja) | 音声評定装置、音声評定方法、教師変化情報の生産方法、およびプログラム | |
US11328713B1 (en) | On-device contextual understanding | |
JP2006323008A (ja) | 楽曲検索装置および楽曲検索方法 | |
JP6998289B2 (ja) | 抽出装置、学習装置、抽出方法、抽出プログラム、学習方法および学習プログラム | |
JP6748607B2 (ja) | 音声合成学習装置、音声合成装置、これらの方法及びプログラム | |
CN113870842B (zh) | 基于权重调节的语音控制方法、装置、设备及介质 | |
JP6234134B2 (ja) | 音声合成装置 | |
US11887602B1 (en) | Audio-based device locationing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210318 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |