JP6639285B2 - 声質嗜好学習装置、声質嗜好学習方法及びプログラム - Google Patents
声質嗜好学習装置、声質嗜好学習方法及びプログラム Download PDFInfo
- Publication number
- JP6639285B2 JP6639285B2 JP2016051165A JP2016051165A JP6639285B2 JP 6639285 B2 JP6639285 B2 JP 6639285B2 JP 2016051165 A JP2016051165 A JP 2016051165A JP 2016051165 A JP2016051165 A JP 2016051165A JP 6639285 B2 JP6639285 B2 JP 6639285B2
- Authority
- JP
- Japan
- Prior art keywords
- voice quality
- preference
- unit
- voice
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 95
- 230000015572 biosynthetic process Effects 0.000 claims description 32
- 238000003786 synthesis reaction Methods 0.000 claims description 32
- 238000013507 mapping Methods 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 28
- 239000013598 vector Substances 0.000 description 26
- 238000012986 modification Methods 0.000 description 23
- 230000004048 modification Effects 0.000 description 23
- 238000012545 processing Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000009467 reduction Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000000513 principal component analysis Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000003066 decision tree Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 241001025261 Neoraja caerulea Species 0.000 description 1
- 241001122315 Polites Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
以下に添付図面を参照して、声質嗜好学習装置、声質嗜好学習方法及びプログラムの実施形態を詳細に説明する。
はじめに、第1実施形態の声質嗜好学習装置100の機能構成の例について説明する。
話者DB101は、様々な声質特徴を持つ複数の話者の話者データを記憶する。話者データは、音響特徴量、コンテキストラベル及び音響モデルを含む。各話者データが、1人の話者のデータを示す。第1実施形態の説明では、話者DB101に記憶されている話者データの数をMとする。
構成部102は、話者DB101に記憶された各話者データに含まれる音響モデルを次元縮約することにより声質空間を構成する。一般に、音響モデルは非常に高次元のベクトル(数万から数十万次元)で表され、そのような高次元空間上で後述する嗜好モデルを学習するのは困難である。そこで、構成部102が、高次元の音響モデルをより次元の低い声質空間に縮約する前処理を行う。
音声合成部106は、声質に対するユーザの嗜好を受け付けるために提示する音声を、話者DB101に記憶された各話者データに含まれる音響モデル201を用いて合成する。
図2に戻り、入力部108は、音声試聴画面(図4参照)を介して声質に対するユーザの嗜好を示す操作入力を受け付けると、ユーザの嗜好を示す情報を学習部109に入力する。図4に示す音声試聴画面の例では、ユーザの嗜好を示す情報として、チェックUI402でチェックされたサンプル音声の話者の音響モデル201を特定する情報を学習部109に入力する。
図1に戻り、選択部111は、嗜好モデルDB110に記憶された嗜好モデルから、音響モデル211を復号(再構築)するK次元の声質空間200上の点Pを選択する選択処理を行う。復号化部105は、K次元の声質空間200上の任意の点Pから、音響モデル211を復号可能なので、話者DB101に存在していない新しい話者の音響モデル211も復号することができる。
次に第1実施形態の声質嗜好学習方法について説明する。
次に第1実施形態の変形例1について説明する。第1実施形態の変形例1の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第1実施形態の変形例2について説明する。第1実施形態の変形例2の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第1実施形態の変形例3について説明する。第1実施形態の変形例3の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。
次に第2実施形態について説明する。第2実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第2実施形態の説明では、構成部102により構成されたK次元の声質空間200の座標軸が、性別、年齢、明るさ及び優しさのように、人が直観的に理解できる場合について説明する。構成部102は、例えば重回帰HSMM(非特許文献1参照)を用いることにより、人が直感的に理解できる座標軸を有するK次元の声質空間200を構成する。
次に第3実施形態について説明する。第3実施形態の説明では、第1実施形態と同様の説明については省略し、第1実施形態と異なる箇所について説明する。第3実施形態の説明では、声質嗜好学習装置100が、K次元の声質空間200から復号された音響モデル201ではなく、話者DB101に記憶されている既存の音響モデル201から合成された話者の音声を推薦する場合について説明する。
図19は第3実施形態の声質嗜好学習装置100の機能構成の例を示す図である。第3実施形態の声質嗜好学習装置100は、話者DB101、構成部102、声質空間モデルDB103、符号化部104、音声合成部106、提示部107、入力部108、学習部109、嗜好モデルDB110、選択部111及び推薦部112を備える。
次に第3実施形態の声質嗜好学習方法について説明する。
最後に第1〜3実施形態の声質嗜好学習装置100のハードウェア構成の例について説明する。
101 話者DB
102 構成部
103 声質空間モデルDB
104 符号化部
105 復号化部
106 音声合成部
107 提示部
108 入力部
109 学習部
110 嗜好モデルDB
111 選択部
112 推薦部
200 声質空間
201 音響モデル
211 復号(再構築)された音響モデル
301 スーパーベクトル
501 制御装置
502 主記憶装置
503 補助記憶装置
504 表示装置
505 入力装置
506 通信装置
507 スピーカー
Claims (10)
- 複数の音響モデルを記憶する記憶部と、
声質に対するユーザの嗜好を示す操作入力を受け付ける入力部と、
前記音響モデルを次元縮約した声質空間上で、前記操作入力に基づいて前記ユーザの声質嗜好を表す嗜好モデルを学習する学習部と、
前記複数の音響モデルを、前記声質空間上の点に写像することにより、前記複数の音響モデルを符号化する符号化部と、
前記嗜好モデルに基づいて、前記記憶部に記憶されている音響モデルに対応する前記声質空間上の点を選択する選択部と、
選択された点に対応する前記音響モデルを推薦する推薦部と、
推薦された前記音響モデルからサンプル音声を合成する音声合成部と、
前記サンプル音声を提示する提示部と、
を備える声質嗜好学習装置。 - 前記音響モデルを次元縮約することにより前記声質空間を構成する構成部、
を更に備える請求項1に記載の声質嗜好学習装置。 - 前記選択部は、前記嗜好モデルに基づいて、前記声質空間上の点を選択し、
選択された前記点から前記音響モデルを復号する復号化部を更に備え、
前記音声合成部は、復号された前記音響モデルからサンプル音声を合成する、
請求項2に記載の声質嗜好学習装置。 - 前記提示部は、前記声質空間上の点同士の距離が閾値以上である点に対応する複数の音響モデルのそれぞれから合成された複数のサンプル音声を提示し、
前記入力部は、前記声質に対するユーザの嗜好を示す操作入力として、前記サンプル音声の選択を示す操作入力を受け付ける、
請求項1に記載の声質嗜好学習装置。 - 前記提示部は、複数のクラスタのそれぞれから選択された代表話者の音響モデルから合成されたサンプル音声を提示し、
前記構成部は、前記声質空間上の点をクラスタリングすることにより、前記声質空間上の点に対応する前記複数の音響モデルを前記複数のクラスタに分類し、
前記入力部は、前記声質に対するユーザの嗜好を示す操作入力として、前記サンプル音声の選択を示す操作入力を受け付ける、
請求項2に記載の声質嗜好学習装置。 - 前記提示部は、前記声質空間の複数の領域のそれぞれを代表する点から復号された音響モデルから合成されたサンプル音声を提示し、
前記構成部は、前記声質空間を前記複数の領域に分割し、
前記入力部は、前記声質に対するユーザの嗜好を示す操作入力として、前記サンプル音声の選択を示す操作入力を受け付ける、
請求項2に記載の声質嗜好学習装置。 - 前記嗜好モデルは確率分布であり、
前記選択部は、前記嗜好モデルからランダムサンプリングすることにより、前記声質空間上の点を選択する、
請求項1に記載の声質嗜好学習装置。 - 前記嗜好モデルは確率分布であり、
前記選択部は、前記確率分布の一部の確率変数が固定化された条件付き分布に基づいて、前記声質空間上の点を選択する、
請求項1に記載の声質嗜好学習装置。 - 複数の音響モデルを記憶する記憶部を備える声質嗜好学習装置の声質嗜好学習方法であって、
声質に対するユーザの嗜好を示す操作入力を受け付けるステップと、
前記音響モデルを次元縮約した声質空間上で、前記操作入力に基づいて前記ユーザの声質嗜好を表す嗜好モデルを学習するステップと、
前記複数の音響モデルを、前記声質空間上の点に写像することにより、前記複数の音響モデルを符号化するステップと、
前記嗜好モデルに基づいて、前記記憶部に記憶されている音響モデルに対応する前記声質空間上の点を選択するステップと、
選択された点に対応する前記音響モデルを推薦するステップと、
推薦された前記音響モデルからサンプル音声を合成するステップと、
前記サンプル音声を提示するステップと、
を含む声質嗜好学習方法。 - 複数の音響モデルを記憶する記憶部を備えるコンピュータを、
声質に対するユーザの嗜好を示す操作入力を受け付ける入力部と、
前記音響モデルを次元縮約した声質空間上で、前記操作入力に基づいて前記ユーザの声質嗜好を表す嗜好モデルを学習する学習部、
前記複数の音響モデルを、前記声質空間上の点に写像することにより、前記複数の音響モデルを符号化する符号化部と、
前記嗜好モデルに基づいて、前記記憶部に記憶されている音響モデルに対応する前記声質空間上の点を選択する選択部と、
選択された点に対応する前記音響モデルを推薦する推薦部と、
推薦された前記音響モデルからサンプル音声を合成する音声合成部と、
前記サンプル音声を提示する提示部、
として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051165A JP6639285B2 (ja) | 2016-03-15 | 2016-03-15 | 声質嗜好学習装置、声質嗜好学習方法及びプログラム |
US15/427,505 US10930264B2 (en) | 2016-03-15 | 2017-02-08 | Voice quality preference learning device, voice quality preference learning method, and computer program product |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051165A JP6639285B2 (ja) | 2016-03-15 | 2016-03-15 | 声質嗜好学習装置、声質嗜好学習方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017167273A JP2017167273A (ja) | 2017-09-21 |
JP6639285B2 true JP6639285B2 (ja) | 2020-02-05 |
Family
ID=59847688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016051165A Active JP6639285B2 (ja) | 2016-03-15 | 2016-03-15 | 声質嗜好学習装置、声質嗜好学習方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10930264B2 (ja) |
JP (1) | JP6639285B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6583754B2 (ja) * | 2018-03-19 | 2019-10-02 | 株式会社Novera | 情報処理装置、ミラーデバイス、プログラム |
EP3553773B1 (en) * | 2018-04-12 | 2020-06-03 | Spotify AB | Training and testing utterance-based frameworks |
EP3786945B1 (en) | 2018-04-12 | 2023-07-19 | Spotify AB | Voice-based authentication |
CN108520759B (zh) * | 2018-04-13 | 2021-05-11 | 吉林大学 | 用于帕金森病语音检测的时频特征图像提取方法 |
US11373633B2 (en) * | 2019-09-27 | 2022-06-28 | Amazon Technologies, Inc. | Text-to-speech processing using input voice characteristic data |
CN117476038A (zh) * | 2020-05-21 | 2024-01-30 | 北京百度网讯科技有限公司 | 模型评测方法、装置及电子设备 |
KR102580017B1 (ko) * | 2020-05-27 | 2023-09-18 | 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 | 음성패킷 추천방법, 장치, 설비 및 저장매체 |
US12062375B2 (en) * | 2021-12-08 | 2024-08-13 | The Mitre Corporation | Systems and methods for separating and identifying audio in an audio file using machine learning |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2898568B2 (ja) | 1995-03-10 | 1999-06-02 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 声質変換音声合成装置 |
JP2912579B2 (ja) | 1996-03-22 | 1999-06-28 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 声質変換音声合成装置 |
JPH1097267A (ja) * | 1996-09-24 | 1998-04-14 | Hitachi Ltd | 声質変換方法および装置 |
US20020002899A1 (en) * | 2000-03-22 | 2002-01-10 | Gjerdingen Robert O. | System for content based music searching |
JP2007041012A (ja) | 2003-11-21 | 2007-02-15 | Matsushita Electric Ind Co Ltd | 声質変換装置および音声合成装置 |
JP4430960B2 (ja) * | 2004-03-01 | 2010-03-10 | 日本電信電話株式会社 | 音声素片探索用データベース構成方法およびこれを実施する装置、音声素片探索方法、音声素片探索プログラムおよびこれを記憶する記憶媒体 |
CN101176146B (zh) * | 2005-05-18 | 2011-05-18 | 松下电器产业株式会社 | 声音合成装置 |
JP4817250B2 (ja) * | 2006-08-31 | 2011-11-16 | 国立大学法人 奈良先端科学技術大学院大学 | 声質変換モデル生成装置及び声質変換システム |
WO2008149547A1 (ja) * | 2007-06-06 | 2008-12-11 | Panasonic Corporation | 声質編集装置および声質編集方法 |
JP2011186143A (ja) | 2010-03-08 | 2011-09-22 | Hitachi Ltd | ユーザ挙動を学習する音声合成装置、音声合成方法およびそのためのプログラム |
US9824695B2 (en) | 2012-06-18 | 2017-11-21 | International Business Machines Corporation | Enhancing comprehension in voice communications |
JP6172012B2 (ja) | 2014-03-24 | 2017-08-02 | 富士ゼロックス株式会社 | 着色粉体 |
US9666204B2 (en) * | 2014-04-30 | 2017-05-30 | Qualcomm Incorporated | Voice profile management and speech signal generation |
JP6320346B2 (ja) | 2015-05-27 | 2018-05-09 | キヤノン株式会社 | 情報処理装置、通信処理方法およびプログラム |
JP6483578B2 (ja) | 2015-09-14 | 2019-03-13 | 株式会社東芝 | 音声合成装置、音声合成方法およびプログラム |
JP6523893B2 (ja) | 2015-09-16 | 2019-06-05 | 株式会社東芝 | 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム |
-
2016
- 2016-03-15 JP JP2016051165A patent/JP6639285B2/ja active Active
-
2017
- 2017-02-08 US US15/427,505 patent/US10930264B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20170270907A1 (en) | 2017-09-21 |
US10930264B2 (en) | 2021-02-23 |
JP2017167273A (ja) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6639285B2 (ja) | 声質嗜好学習装置、声質嗜好学習方法及びプログラム | |
US11514887B2 (en) | Text-to-speech synthesis method and apparatus using machine learning, and computer-readable storage medium | |
CN111566656B (zh) | 利用多种语言文本语音合成模型的语音翻译方法及系统 | |
Lorenzo-Trueba et al. | Investigating different representations for modeling and controlling multiple emotions in DNN-based speech synthesis | |
US10891928B2 (en) | Automatic song generation | |
JP4296231B2 (ja) | 声質編集装置および声質編集方法 | |
US7603278B2 (en) | Segment set creating method and apparatus | |
JP5768093B2 (ja) | 音声処理システム | |
US8571871B1 (en) | Methods and systems for adaptation of synthetic speech in an environment | |
WO2018200268A1 (en) | Automatic song generation | |
JP2007249212A (ja) | テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ | |
JP4586615B2 (ja) | 音声合成装置,音声合成方法およびコンピュータプログラム | |
JP5411845B2 (ja) | 音声合成方法、音声合成装置及び音声合成プログラム | |
JP2014038282A (ja) | 韻律編集装置、方法およびプログラム | |
Khanam et al. | Text to speech synthesis: a systematic review, deep learning based architecture and future research direction | |
Shechtman et al. | Synthesis of Expressive Speaking Styles with Limited Training Data in a Multi-Speaker, Prosody-Controllable Sequence-to-Sequence Architecture. | |
US10978076B2 (en) | Speaker retrieval device, speaker retrieval method, and computer program product | |
JP6594251B2 (ja) | 音響モデル学習装置、音声合成装置、これらの方法及びプログラム | |
CN116386592A (zh) | 音频模板的生成方法、服务器及存储介质 | |
CN114283781A (zh) | 语音合成方法及相关装置、电子设备和存储介质 | |
Hsu et al. | Speaker-dependent model interpolation for statistical emotional speech synthesis | |
Baas et al. | Voice Conversion for Stuttered Speech, Instruments, Unseen Languages and Textually Described Voices | |
Basnet et al. | Deep learning based voice conversion network | |
US20230419932A1 (en) | Information processing device and control method thereof | |
JP5802807B2 (ja) | 韻律編集装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190426 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190621 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20190903 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20190903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6639285 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |