JP2019032427A - 音響モデル生成方法、音声合成方法、音響モデル生成装置、音声合成装置、プログラム - Google Patents
音響モデル生成方法、音声合成方法、音響モデル生成装置、音声合成装置、プログラム Download PDFInfo
- Publication number
- JP2019032427A JP2019032427A JP2017153135A JP2017153135A JP2019032427A JP 2019032427 A JP2019032427 A JP 2019032427A JP 2017153135 A JP2017153135 A JP 2017153135A JP 2017153135 A JP2017153135 A JP 2017153135A JP 2019032427 A JP2019032427 A JP 2019032427A
- Authority
- JP
- Japan
- Prior art keywords
- domain
- context
- speech
- data
- acoustic model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
<音声パラメータ>
ある音声信号に対して信号処理を行った結果得られる、各発話のF0情報(音高)、スペクトル包絡情報(ケプストラム、メルケプストラム等)等を表す。
ある発話について付与された発音等の情報を表す。コンテキストには、音素情報(発音情報)とアクセント情報(アクセント型、アクセント句長)が含まれている必要がある。コンテキストとして、これ以外にも品詞情報等が含まれていてもよい。また、各音素の開始時間、終了時間の情報(音素セグメンテーション情報)が保存されていてもよい。
DNN学習用のデータベースに含まれる音声について、その音声パラメータを分析し、保持したものを表す。
DNN学習用のデータベースに含まれる音声について、その発話のコンテキストを分析し、保持したものを表す。
音声に含まれるコンテキスト以外の情報を、カテゴリにより表現したものを表す。例えば、話者(‘話者1’,…,‘話者N’)、感情(‘喜’,‘怒’,‘哀’,‘楽’,…)、対話行為(‘感嘆’,‘謝罪’,…)、等。
音声合成に使用するドメインについて、各ドメインに対し番号を振ったものを表す。ドメイン数をNとし、n=1,…,Nで表す。例えば、n=1:‘話者1’,…,n=N:‘話者N’を表す。
複数のドメインの音声について、その発話のコンテキストデータを保持したものを表す。ドメインnに含まれる発話数をKn(n=1,…,N)としたとき、
複数のドメインの音声について、その音声データを保持したものを表す。ドメインnに含まれる発話数をKn(n=1,…,N)としたとき、
音声合成用のDNN音響モデルで、1つのモデルで複数のドメインの音声パラメータを合成可能であるようにモデル化・学習されたものを表す。例えば、話者コードを用いた複数話者音響モデル(非特許文献2)、shared hidden layer (SHU) による複数話者音響モデル(非特許文献3)、複数対話行為音響モデル(非特許文献4)を使用する。
データベースに含まれる各ドメインに対応する学習データ量(総フレーム数)を均質にするために使用するコンテキストデータベース。擬似データ生成のため、DNNの入力ベクトルとして活用する。ドメインnに含まれる発話数をK’n(n=1,…,N)としたとき、
データベースに含まれる各ドメインに対応する学習データ量(総フレーム数)を均質にするために使用する音声データベース。複数ドメイン均質化コンテキストDBから擬似音声データを生成することにより作成する。ドメインnに含まれる発話数をK’n(n=1,…,N)としたとき、
複数ドメインコンテキストDBと複数ドメイン均質化コンテキストDBを統合することにより得られるコンテキストデータベース。音響モデル学習に使用する。
複数ドメイン音声DBと複数ドメイン均質化疑似音声DBを統合することにより得られる音声データベース。音響モデル学習に使用する。
複数ドメイン均質コンテキストDBと複数ドメイン均質音声DBを利用し、音響モデル学習により得られる音響モデル。
以下、図3を参照して実施例1の音響モデル生成装置11の構成を説明する。同図に示すように本実施例の音響モデル生成装置11は、複数ドメイン均質化DB生成部111と、複数ドメイン均質DB生成部112と、音響モデル学習部913と、複数ドメイン均質音響モデル記憶部114を含む。
複数ドメイン均質化DB生成部111は、複数ドメインコンテキストDB内の総フレーム数が最大でないドメインのコンテキストデータにコンテキストを追加して複数ドメイン均質化コンテキストDBを生成し、複数ドメイン均質化コンテキストDBの各コンテキストデータについて疑似音声データを生成して、複数ドメイン均質化擬似音声DBを生成する(S111)。
複数ドメイン均質DB生成部112は、複数ドメイン音声DBと複数ドメイン均質化擬似音声DBを統合して複数ドメイン均質音声DBを生成し、複数ドメインコンテキストDBと複数ドメイン均質化コンテキストDBを統合して複数ドメイン均質コンテキストDBを生成する(S112)。
音響モデル学習部913は、従来技術と同様に音響モデル学習を行う。ただし、音響モデル学習部913は、学習データとして、複数ドメイン音声DBの代わりに複数ドメイン均質音声DBを、複数ドメインコンテキストDBの代わりに複数ドメイン均質コンテキストDBを使用する。すなわち、音響モデル学習部913は、学習データとして、複数ドメイン均質音声DBと複数ドメイン均質コンテキストDBを使用して、音響モデルを学習し、複数ドメイン均質音響モデル記憶部114に記憶する(S913)。音響モデル学習部913が学習する音響モデルを複数ドメイン均質音響モデルと呼ぶ。
図5に示すように複数ドメイン均質化DB生成部111は、コンテキスト追加部1111と、複数ドメイン均質化コンテキストDB記憶部1112と、音声パラメータ生成部922と、複数ドメイン均質化擬似音声DB記憶部1113を含む。コンテキスト追加部1111は、例えば次の(a)(b)のサブステップを含むステップS1111を実行して、複数ドメイン均質化コンテキストDBを生成する。
図7に示すように、複数ドメイン均質DB生成部112は、音声DB統合部1121と、複数ドメイン均質音声DB記憶部1122と、コンテキストDB統合部1123と、複数ドメイン均質コンテキストDB記憶部1124を含む構成である。
図9に示すように、本実施例の音声合成装置12は、従来技術と同様のテキスト解析部921と、音声パラメータ生成部922と、音声波形生成部923と、従来技術とは異なる複数ドメイン均質音響モデル記憶部114を含む。図10に示すように、本実施例の音声合成装置12は、従来技術と同様にステップ921、S922、S923を実行して合成音声を得る。ただし音響モデルとして、従来の複数ドメイン音響モデルの代わりに、複数ドメイン均質音響モデルを使用する点が従来技術とは異なる。
<複数ドメイン均質化ポストフィルタ擬似音声DB>
複数ドメイン均質化擬似音声DBに含まれる各音声データについて、ポストフィルタ処理により、その音声パラメータの傾向を自然発話に近づける処理を行ったものを表す。
複数ドメイン均質化ポストフィルタ擬似音声DBと複数ドメイン音声DBを統合して得られる音声データベース。
複数ドメイン均質ポストフィルタ音声DBと複数ドメイン均質コンテキストDBから音響モデル学習を行うことで得られる音響モデル。
図11に示すように、本実施例の音響モデル生成装置21は、実施例1と同様の複数ドメイン均質化DB生成部111と、実施例1とは異なる複数ドメイン均質化ポストフィルタ疑似音声DB生成部211と、実施例1とは異なる複数ドメイン均質DB生成部212と、実施例1および従来技術と同様の音響モデル学習部913と、実施例1とは異なる複数ドメイン均質ポストフィルタ音響モデル記憶部214を含む。
実施例1と同様にステップS111を実行する。
複数ドメイン均質化ポストフィルタ疑似音声DB生成部211は、ポストフィルタ処理により、複数ドメイン均質化擬似音声DBから複数ドメイン均質化ポストフィルタ擬似音声DBを取得する(S211)。
複数ドメイン均質化擬似音声DBの代わりに、複数ドメイン均質化ポストフィルタ擬似音声DBを使用する点を除いて、実施例1と同様である。ただし、得られる音声DBを、実施例1と区別して、複数ドメイン均質ポストフィルタ音声DBと呼ぶ。すなわち、複数ドメイン均質DB生成部212は、複数ドメイン音声DBと複数ドメイン均質化ポストフィルタ擬似音声DBを統合して複数ドメイン均質ポストフィルタ音声DBを生成し、実施例1と同様に、複数ドメインコンテキストDBと複数ドメイン均質化コンテキストDBを統合して複数ドメイン均質コンテキストDBを生成する(S212)。
音響モデル学習部913は、実施例1と同様にステップS913を実行する。ただし、音響モデル学習部913は、学習データとして、複数ドメイン均質音声DBの代わりに、複数ドメイン均質ポストフィルタ音声DBを使用する。すなわち、音響モデル学習部913は、学習データとして、複数ドメイン均質ポストフィルタ音声DBと複数ドメイン均質コンテキストDBを使用して、音響モデルを学習し、複数ドメイン均質ポストフィルタ音響モデル記憶部214に記憶する(S913)。音響モデル学習部913が学習する音響モデルを実施例1と区別して、複数ドメイン均質ポストフィルタ音響モデルと呼ぶ。
複数ドメイン均質音響モデルの代わりに、複数ドメイン均質ポストフィルタ音響モデルを使用する点を除き、実施例1と同様である。
図13に示すように、複数ドメイン均質化ポストフィルタ擬似音声DB生成部211は、ポストフィルタ2111と、複数ドメイン均質化ポストフィルタ擬似音声DB記憶部2113を含む。ポストフィルタ2111は前述のポストフィルタ処理を実行する。ポストフィルタ処理としては、例えばケプストラム特徴量に対する分散保障処理(非特許文献5)、Global Variance 保障処理(非特許文献6)、変調スペクトル保障処理(非特許文献7)等でよい。ポストフィルタ2111は、取得した複数ドメイン均質化ポストフィルタ擬似音声DBを複数ドメイン均質化ポストフィルタ擬似音声DB記憶部2113に記憶する。
図14に示すように、複数ドメイン均質DB生成部212は、実施例1と同様の音声DB統合部1121と、実施例1と異なる複数ドメイン均質ポストフィルタ音声DB記憶部2122と、実施例1と同様のコンテキストDB統合部1123と、実施例1と同様の複数ドメイン均質コンテキストDB記憶部1124を含む。音声DB統合部1121は、統合により得られた複数ドメイン均質ポストフィルタ音声DBを複数ドメイン均質ポストフィルタ音声DB記憶部2122に記憶する。
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボード等が接続可能な入力部、液晶ディスプレイ等が接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタ等を備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROM等の記録媒体を読み書きできる装置(ドライブ)等を設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータ等がある。
Claims (9)
- 音声データを、DNN学習用のデータベースに含まれる音声について、その音声パラメータを分析し、保持したものとし、
コンテキストデータを、DNN学習用のデータベースに含まれる音声について、その発話のコンテキストを分析し、保持したものとし、
ドメインを、音声に含まれる前記コンテキスト以外の情報を、カテゴリにより表現したものとし、
複数ドメイン音声DBを、複数の前記ドメインの音声について、その前記音声データを保持したものとし、
複数ドメインコンテキストDBを、複数の前記ドメインの音声について、その発話の前記コンテキストデータを保持したものとし、
前記複数ドメインコンテキストDB内の総フレーム数が最大でない前記ドメインの前記コンテキストデータに前記コンテキストを追加して複数ドメイン均質化コンテキストDBを生成し、前記複数ドメイン均質化コンテキストDBの各前記コンテキストデータについて疑似音声データを生成して、複数ドメイン均質化擬似音声DBを生成する第1のステップと、
前記複数ドメイン音声DBと前記複数ドメイン均質化擬似音声DBを統合して複数ドメイン均質音声DBを生成し、前記複数ドメインコンテキストDBと前記複数ドメイン均質化コンテキストDBを統合して複数ドメイン均質コンテキストDBを生成する第2のステップと、
学習データとして、前記複数ドメイン均質音声DBと前記複数ドメイン均質コンテキストDBを使用して、音響モデルを学習する第3のステップと、
を含む音響モデル生成方法。 - 音声データを、DNN学習用のデータベースに含まれる音声について、その音声パラメータを分析し、保持したものとし、
コンテキストデータを、DNN学習用のデータベースに含まれる音声について、その発話のコンテキストを分析し、保持したものとし、
ドメインを、音声に含まれる前記コンテキスト以外の情報を、カテゴリにより表現したものとし、
複数ドメイン音声DBを、複数の前記ドメインの音声について、その前記音声データを保持したものとし、
複数ドメインコンテキストDBを、複数の前記ドメインの音声について、その発話の前記コンテキストデータを保持したものとし、
前記複数ドメインコンテキストDB内の総フレーム数が最大でない前記ドメインの前記コンテキストデータに前記コンテキストを追加して複数ドメイン均質化コンテキストDBを生成し、前記複数ドメイン均質化コンテキストDBの各前記コンテキストデータについて疑似音声データを生成して、複数ドメイン均質化擬似音声DBを生成する第1のステップと、
ポストフィルタ処理により、前記複数ドメイン均質化擬似音声DBから複数ドメイン均質化ポストフィルタ擬似音声DBを取得する第2のステップと、
前記複数ドメイン音声DBと前記複数ドメイン均質化ポストフィルタ擬似音声DBを統合して複数ドメイン均質ポストフィルタ音声DBを生成し、前記複数ドメインコンテキストDBと前記複数ドメイン均質化コンテキストDBを統合して複数ドメイン均質コンテキストDBを生成する第3のステップと、
学習データとして、前記複数ドメイン均質ポストフィルタ音声DBと前記複数ドメイン均質コンテキストDBを使用して、音響モデルを学習する第4のステップと、
を含む音響モデル生成方法。 - 請求項1または2に記載の音響モデル生成方法であって、
前記第1のステップにおいて、
前記複数ドメインコンテキストDB内の総フレーム数が最大でない前記ドメインの総フレーム数が、前記複数ドメインコンテキストDB内の総フレーム数が最大となる前記ドメインの総フレーム数と等しくなるように、前記コンテキストを追加する
音響モデル生成方法。 - 請求項1から3の何れかに記載の音響モデル生成方法により生成された音響モデルを利用して合成音声を取得する音声合成方法。
- 音声データを、DNN学習用のデータベースに含まれる音声について、その音声パラメータを分析し、保持したものとし、
コンテキストデータを、DNN学習用のデータベースに含まれる音声について、その発話のコンテキストを分析し、保持したものとし、
ドメインを、音声に含まれる前記コンテキスト以外の情報を、カテゴリにより表現したものとし、
複数ドメイン音声DBを、複数の前記ドメインの音声について、その前記音声データを保持したものとし、
複数ドメインコンテキストDBを、複数の前記ドメインの音声について、その発話の前記コンテキストデータを保持したものとし、
前記複数ドメインコンテキストDB内の総フレーム数が最大でない前記ドメインの前記コンテキストデータに前記コンテキストを追加して複数ドメイン均質化コンテキストDBを生成し、前記複数ドメイン均質化コンテキストDBの各前記コンテキストデータについて疑似音声データを生成して、複数ドメイン均質化擬似音声DBを生成する複数ドメイン均質化DB生成部と、
前記複数ドメイン音声DBと前記複数ドメイン均質化擬似音声DBを統合して複数ドメイン均質音声DBを生成し、前記複数ドメインコンテキストDBと前記複数ドメイン均質化コンテキストDBを統合して複数ドメイン均質コンテキストDBを生成する複数ドメイン均質DB生成部と、
学習データとして、前記複数ドメイン均質音声DBと前記複数ドメイン均質コンテキストDBを使用して、音響モデルを学習する音響モデル学習部と、
を含む音響モデル生成装置。 - 音声データを、DNN学習用のデータベースに含まれる音声について、その音声パラメータを分析し、保持したものとし、
コンテキストデータを、DNN学習用のデータベースに含まれる音声について、その発話のコンテキストを分析し、保持したものとし、
ドメインを、音声に含まれる前記コンテキスト以外の情報を、カテゴリにより表現したものとし、
複数ドメイン音声DBを、複数の前記ドメインの音声について、その前記音声データを保持したものとし、
複数ドメインコンテキストDBを、複数の前記ドメインの音声について、その発話の前記コンテキストデータを保持したものとし、
前記複数ドメインコンテキストDB内の総フレーム数が最大でない前記ドメインの前記コンテキストデータに前記コンテキストを追加して複数ドメイン均質化コンテキストDBを生成し、前記複数ドメイン均質化コンテキストDBの各前記コンテキストデータについて疑似音声データを生成して、複数ドメイン均質化擬似音声DBを生成する複数ドメイン均質化DB生成部と、
ポストフィルタ処理により、前記複数ドメイン均質化擬似音声DBから複数ドメイン均質化ポストフィルタ擬似音声DBを取得する複数ドメイン均質化ポストフィルタ疑似音声DB生成部と、
前記複数ドメイン音声DBと前記複数ドメイン均質化ポストフィルタ擬似音声DBを統合して複数ドメイン均質ポストフィルタ音声DBを生成し、前記複数ドメインコンテキストDBと前記複数ドメイン均質化コンテキストDBを統合して複数ドメイン均質コンテキストDBを生成する複数ドメイン均質DB生成部と、
学習データとして、前記複数ドメイン均質ポストフィルタ音声DBと前記複数ドメイン均質コンテキストDBを使用して、音響モデルを学習する音響モデル学習部と、
を含む音響モデル生成装置。 - 請求項5または6に記載の音響モデル生成装置により生成された音響モデルを利用して合成音声を取得する音声合成装置。
- コンピュータに請求項1から3の何れかに記載の音響モデル生成方法を実行させるプログラム。
- コンピュータに請求項4に記載の音声合成方法を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153135A JP6626052B2 (ja) | 2017-08-08 | 2017-08-08 | 音響モデル生成方法、音声合成方法、音響モデル生成装置、音声合成装置、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017153135A JP6626052B2 (ja) | 2017-08-08 | 2017-08-08 | 音響モデル生成方法、音声合成方法、音響モデル生成装置、音声合成装置、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019032427A true JP2019032427A (ja) | 2019-02-28 |
JP6626052B2 JP6626052B2 (ja) | 2019-12-25 |
Family
ID=65523377
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017153135A Active JP6626052B2 (ja) | 2017-08-08 | 2017-08-08 | 音響モデル生成方法、音声合成方法、音響モデル生成装置、音声合成装置、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6626052B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020046551A (ja) * | 2018-09-19 | 2020-03-26 | 日本放送協会 | 音声合成に用いる統計モデルを学習する学習装置及びプログラム |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016186515A (ja) * | 2015-03-27 | 2016-10-27 | 日本電信電話株式会社 | 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、およびプログラム |
JP2017032839A (ja) * | 2015-08-04 | 2017-02-09 | 日本電信電話株式会社 | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム |
-
2017
- 2017-08-08 JP JP2017153135A patent/JP6626052B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016186515A (ja) * | 2015-03-27 | 2016-10-27 | 日本電信電話株式会社 | 音響特徴量変換装置、音響モデル適応装置、音響特徴量変換方法、およびプログラム |
JP2017032839A (ja) * | 2015-08-04 | 2017-02-09 | 日本電信電話株式会社 | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020046551A (ja) * | 2018-09-19 | 2020-03-26 | 日本放送協会 | 音声合成に用いる統計モデルを学習する学習装置及びプログラム |
JP7088796B2 (ja) | 2018-09-19 | 2022-06-21 | 日本放送協会 | 音声合成に用いる統計モデルを学習する学習装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP6626052B2 (ja) | 2019-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6622505B2 (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
US11651763B2 (en) | Multi-speaker neural text-to-speech | |
Lorenzo-Trueba et al. | Investigating different representations for modeling and controlling multiple emotions in DNN-based speech synthesis | |
JP6752872B2 (ja) | 音声合成方法及び装置、コンピュータ設備、読取り可能な媒体及びプログラム | |
US8046225B2 (en) | Prosody-pattern generating apparatus, speech synthesizing apparatus, and computer program product and method thereof | |
JP6680933B2 (ja) | 音響モデル学習装置、音声合成装置、音響モデル学習方法、音声合成方法、プログラム | |
US9607610B2 (en) | Devices and methods for noise modulation in a universal vocoder synthesizer | |
Wang et al. | fairseq s^ 2: A scalable and integrable speech synthesis toolkit | |
JP6452591B2 (ja) | 合成音声品質評価装置、合成音声品質評価方法、プログラム | |
JPWO2017146073A1 (ja) | 声質変換装置、声質変換方法およびプログラム | |
Shankar et al. | A Multi-Speaker Emotion Morphing Model Using Highway Networks and Maximum Likelihood Objective. | |
US11545135B2 (en) | Acoustic model learning device, voice synthesis device, and program | |
JP6631883B2 (ja) | クロスリンガル音声合成用モデル学習装置、クロスリンガル音声合成用モデル学習方法、プログラム | |
Zhou et al. | A modularized neural network with language-specific output layers for cross-lingual voice conversion | |
Al-Radhi et al. | Deep Recurrent Neural Networks in speech synthesis using a continuous vocoder | |
JP6626052B2 (ja) | 音響モデル生成方法、音声合成方法、音響モデル生成装置、音声合成装置、プログラム | |
Jaiswal et al. | A generative adversarial network based ensemble technique for automatic evaluation of machine synthesized speech | |
Kotani et al. | Voice Conversion Based on Deep Neural Networks for Time-Variant Linear Transformations | |
Al-Radhi et al. | Noise and acoustic modeling with waveform generator in text-to-speech and neutral speech conversion | |
Anand et al. | Advancing Accessibility: Voice Cloning and Speech Synthesis for Individuals with Speech Disorders | |
JP6006678B2 (ja) | 音声モデル生成装置、方法、プログラム | |
Kaur et al. | Modelling of speech parameters of Punjabi by pre-trained deep neural network using stacked denoising autoencoders | |
Kinahan et al. | TorchDIVA: An extensible computational model of speech production built on an open-source machine learning library | |
Gao et al. | Development of a computationally efficient voice conversion system on mobile phones | |
Ahmad et al. | Expressive Speech synthesis by modeling prosody with variational autoencoders for bangla text-to-speech |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6626052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |