JP6733644B2 - 音声合成方法、音声合成システムおよびプログラム - Google Patents
音声合成方法、音声合成システムおよびプログラム Download PDFInfo
- Publication number
- JP6733644B2 JP6733644B2 JP2017229041A JP2017229041A JP6733644B2 JP 6733644 B2 JP6733644 B2 JP 6733644B2 JP 2017229041 A JP2017229041 A JP 2017229041A JP 2017229041 A JP2017229041 A JP 2017229041A JP 6733644 B2 JP6733644 B2 JP 6733644B2
- Authority
- JP
- Japan
- Prior art keywords
- learned model
- harmonic
- harmonic component
- time
- generated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015572 biosynthetic process Effects 0.000 title claims description 31
- 238000003786 synthesis reaction Methods 0.000 title claims description 31
- 238000001308 synthesis method Methods 0.000 title claims description 10
- 238000001228 spectrum Methods 0.000 claims description 89
- 238000012545 processing Methods 0.000 claims description 44
- 230000005236 sound signal Effects 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 description 28
- 238000003860 storage Methods 0.000 description 26
- 238000010801 machine learning Methods 0.000 description 18
- 230000002194 synthesizing effect Effects 0.000 description 15
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013179 statistical model Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 206010013952 Dysphonia Diseases 0.000 description 2
- 208000027498 hoarse voice Diseases 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 1
- HAHMABKERDVYCH-ZUQRMPMESA-N neticonazole hydrochloride Chemical compound Cl.CCCCCOC1=CC=CC=C1\C(=C/SC)N1C=NC=C1 HAHMABKERDVYCH-ZUQRMPMESA-N 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000005316 response function Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
- G10H7/08—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform
- G10H7/10—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients
- G10H7/105—Instruments in which the tones are synthesised from a data store, e.g. computer organs by calculating functions or polynomial approximations to evaluate amplitudes at successive sample points of a tone waveform using coefficients or parameters stored in a memory, e.g. Fourier coefficients using Fourier coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/455—Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/93—Discriminating between voiced and unvoiced parts of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Algebra (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Electrophonic Musical Instruments (AREA)
- Machine Translation (AREA)
Description
図1は、本発明の第1実施形態に係る音声合成装置100の構成を例示するブロック図である。第1実施形態の音声合成装置100は、歌唱者が楽曲を仮想的に歌唱した音声(以下「合成音声」という)を合成する歌唱合成装置であり、図1に例示される通り、制御装置11と記憶装置12と放音装置13とを具備するコンピュータシステムで実現される。例えば携帯電話機もしくはスマートフォン等の可搬型の情報端末、またはパーソナルコンピュータ等の可搬型または据置型の情報端末が、音声合成装置100として好適に利用され得る。
本発明の第2実施形態を説明する。なお、以下に例示する各態様において機能または作用が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。第2実施形態は、合成音声の発音区間のなかで、非調波成分のレベルが相対的に高い区間が短いという傾向に着目して、音声合成の演算効率を更に向上させた形態である。
以下に例示する第3実施形態は、第1実施形態または第2実施形態の音声合成装置100で利用される第1学習済モデルM1および第2学習済モデルM2を生成する学習済モデル生成装置200である。図6は、第3実施形態における学習済モデル生成装置200の構成を例示するブロック図である。
以上に例示した各態様に付加される具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2個以上の態様を、相互に矛盾しない範囲で適宜に併合してもよい。
Claims (13)
- 音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を第1学習済モデルにより生成し、
前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を第2学習済モデルにより生成し、
前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する、
コンピュータにより実現される音声合成方法。 - 前記第1学習済モデルは、前記調波成分の周波数スペクトルを第1単位期間毎に出力するニューラルネットワークであり、
前記第2学習済モデルは、前記非調波成分の時間領域におけるサンプルを、前記第1単位期間よりも短い第2単位期間毎に出力するニューラルネットワークである
請求項1の音声合成方法。 - 前記第1学習済モデルは、時間軸上の各時点における前記調波成分の周波数スペクトルを、前記制御データと当該第1学習済モデルが過去に生成した前記調波成分の周波数スペクトルの時系列とに基づいて生成する
請求項1または請求項2の音声合成方法。 - 前記第2学習済モデルは、時間軸上の各時点における前記非調波成分の時間領域におけるサンプルを、前記制御データと当該第2学習済モデルが過去に生成した前記非調波成分の複数のサンプルとに基づいて生成する
請求項1から請求項3の何れかの音声合成方法。 - 前記第2学習済モデルには、前記第1学習済モデルが出力する周波数スペクトルに対応する基本周波数が入力される
請求項1から請求項4の何れかの音声合成方法。 - 前記第1学習済モデルが出力する複数の周波数スペクトルの時系列から有声/無声を判定し、
前記第2学習済モデルには、前記有声/無声の判定結果が入力される
請求項1から請求項5の何れかの音声合成方法。 - 音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を生成する第1学習済モデルと、
前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を生成する第2学習済モデルと、
前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する合成処理部と
を具備する音声合成システム。 - 前記第1学習済モデルは、前記調波成分の周波数スペクトルを第1単位期間毎に出力するニューラルネットワークであり、
前記第2学習済モデルは、前記非調波成分の時間領域におけるサンプルを、前記第1単位期間よりも短い第2単位期間毎に出力するニューラルネットワークである
請求項7の音声合成システム。 - 前記第1学習済モデルは、時間軸上の各時点における前記調波成分の周波数スペクトルを、前記制御データと当該第1学習済モデルが過去に生成した前記調波成分の周波数スペクトルの時系列とに基づいて生成する
請求項7または請求項8の音声合成システム。 - 前記第2学習済モデルは、時間軸上の各時点における前記非調波成分の時間領域におけるサンプルを、前記制御データと当該第2学習済モデルが過去に生成した前記非調波成分の複数のサンプルとに基づいて生成する
請求項7から請求項9の何れかの音声合成システム。 - 前記第2学習済モデルには、前記第1学習済モデルが出力する周波数スペクトルに対応する基本周波数が入力される
請求項7から請求項10の何れかの音声合成システム。 - 前記第1学習済モデルが出力する複数の周波数スペクトルの時系列から有声/無声を判定した結果が、前記第2学習済モデルに入力される
請求項7から請求項11の何れかの音声合成システム。 - 音韻の指定を含む制御データに応じた調波成分の周波数スペクトルの時系列を生成する第1学習済モデル、
前記制御データに応じた非調波成分の波形を表す時間領域の音響信号を生成する第2学習済モデル、および、
前記調波成分と前記非調波成分とを含む音声信号を前記周波数スペクトルの時系列と前記音響信号とから生成する合成処理部
としてコンピュータを機能させるプログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017229041A JP6733644B2 (ja) | 2017-11-29 | 2017-11-29 | 音声合成方法、音声合成システムおよびプログラム |
CN201880077158.5A CN111418005B (zh) | 2017-11-29 | 2018-11-28 | 声音合成方法、声音合成装置及存储介质 |
PCT/JP2018/043656 WO2019107379A1 (ja) | 2017-11-29 | 2018-11-28 | 音声合成方法、音声合成装置およびプログラム |
EP18883949.2A EP3719795B1 (en) | 2017-11-29 | 2018-11-28 | Voice synthesizing method, voice synthesizing apparatus, and computer program |
US16/885,827 US11295723B2 (en) | 2017-11-29 | 2020-05-28 | Voice synthesis method, voice synthesis apparatus, and recording medium |
JP2020114265A JP6977818B2 (ja) | 2017-11-29 | 2020-07-01 | 音声合成方法、音声合成システムおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017229041A JP6733644B2 (ja) | 2017-11-29 | 2017-11-29 | 音声合成方法、音声合成システムおよびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020114265A Division JP6977818B2 (ja) | 2017-11-29 | 2020-07-01 | 音声合成方法、音声合成システムおよびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019101093A JP2019101093A (ja) | 2019-06-24 |
JP2019101093A5 JP2019101093A5 (ja) | 2020-05-07 |
JP6733644B2 true JP6733644B2 (ja) | 2020-08-05 |
Family
ID=66663974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017229041A Active JP6733644B2 (ja) | 2017-11-29 | 2017-11-29 | 音声合成方法、音声合成システムおよびプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11295723B2 (ja) |
EP (1) | EP3719795B1 (ja) |
JP (1) | JP6733644B2 (ja) |
CN (1) | CN111418005B (ja) |
WO (1) | WO2019107379A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7331588B2 (ja) * | 2019-09-26 | 2023-08-23 | ヤマハ株式会社 | 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム |
CN112037760B (zh) | 2020-08-24 | 2022-01-07 | 北京百度网讯科技有限公司 | 语音频谱生成模型的训练方法、装置及电子设备 |
JP7468495B2 (ja) * | 2021-03-18 | 2024-04-16 | カシオ計算機株式会社 | 情報処理装置、電子楽器、情報処理システム、情報処理方法、及びプログラム |
CN113362836B (zh) * | 2021-06-02 | 2024-06-11 | 腾讯音乐娱乐科技(深圳)有限公司 | 训练声码器方法、终端及存储介质 |
CN113889073B (zh) * | 2021-09-27 | 2022-10-18 | 北京百度网讯科技有限公司 | 语音处理方法、装置、电子设备和存储介质 |
CN113938749B (zh) * | 2021-11-30 | 2023-05-05 | 北京百度网讯科技有限公司 | 音频数据处理方法、装置、电子设备和存储介质 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5029509A (en) * | 1989-05-10 | 1991-07-09 | Board Of Trustees Of The Leland Stanford Junior University | Musical synthesizer combining deterministic and stochastic waveforms |
WO1999010719A1 (en) * | 1997-08-29 | 1999-03-04 | The Regents Of The University Of California | Method and apparatus for hybrid coding of speech at 4kbps |
JP4067762B2 (ja) * | 2000-12-28 | 2008-03-26 | ヤマハ株式会社 | 歌唱合成装置 |
EP1280138A1 (de) * | 2001-07-24 | 2003-01-29 | Empire Interactive Europe Ltd. | Verfahren zur Analyse von Audiosignalen |
US20060069567A1 (en) * | 2001-12-10 | 2006-03-30 | Tischer Steven N | Methods, systems, and products for translating text to speech |
JP2006084967A (ja) * | 2004-09-17 | 2006-03-30 | Advanced Telecommunication Research Institute International | 予測モデルの作成方法およびコンピュータプログラム |
ES2374008B1 (es) * | 2009-12-21 | 2012-12-28 | Telefónica, S.A. | Codificación, modificación y síntesis de segmentos de voz. |
JP6024191B2 (ja) * | 2011-05-30 | 2016-11-09 | ヤマハ株式会社 | 音声合成装置および音声合成方法 |
KR101402805B1 (ko) * | 2012-03-27 | 2014-06-03 | 광주과학기술원 | 음성분석장치, 음성합성장치, 및 음성분석합성시스템 |
CN102664003B (zh) * | 2012-04-24 | 2013-12-04 | 南京邮电大学 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
CN103531205B (zh) * | 2013-10-09 | 2016-08-31 | 常州工学院 | 基于深层神经网络特征映射的非对称语音转换方法 |
-
2017
- 2017-11-29 JP JP2017229041A patent/JP6733644B2/ja active Active
-
2018
- 2018-11-28 CN CN201880077158.5A patent/CN111418005B/zh active Active
- 2018-11-28 WO PCT/JP2018/043656 patent/WO2019107379A1/ja unknown
- 2018-11-28 EP EP18883949.2A patent/EP3719795B1/en active Active
-
2020
- 2020-05-28 US US16/885,827 patent/US11295723B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019101093A (ja) | 2019-06-24 |
CN111418005B (zh) | 2023-08-11 |
WO2019107379A1 (ja) | 2019-06-06 |
US20200294486A1 (en) | 2020-09-17 |
EP3719795A4 (en) | 2021-08-11 |
CN111418005A (zh) | 2020-07-14 |
EP3719795A1 (en) | 2020-10-07 |
US11295723B2 (en) | 2022-04-05 |
EP3719795B1 (en) | 2022-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6733644B2 (ja) | 音声合成方法、音声合成システムおよびプログラム | |
JP6724932B2 (ja) | 音声合成方法、音声合成システムおよびプログラム | |
JP7067669B2 (ja) | 音信号合成方法、生成モデルの訓練方法、音信号合成システムおよびプログラム | |
US20230034572A1 (en) | Voice synthesis method, voice synthesis apparatus, and recording medium | |
JP2019061135A (ja) | 電子楽器、電子楽器の楽音発生方法、及びプログラム | |
JP6821970B2 (ja) | 音声合成装置および音声合成方法 | |
US20210366454A1 (en) | Sound signal synthesis method, neural network training method, and sound synthesizer | |
WO2020095951A1 (ja) | 音響処理方法および音響処理システム | |
JP6977818B2 (ja) | 音声合成方法、音声合成システムおよびプログラム | |
US20210350783A1 (en) | Sound signal synthesis method, neural network training method, and sound synthesizer | |
JP3966074B2 (ja) | ピッチ変換装置、ピッチ変換方法及びプログラム | |
JP6578544B1 (ja) | 音声処理装置、および音声処理方法 | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
JP2022065566A (ja) | 音声合成方法およびプログラム | |
JP2020204755A (ja) | 音声処理装置、および音声処理方法 | |
US11756558B2 (en) | Sound signal generation method, generative model training method, sound signal generation system, and recording medium | |
US20230260493A1 (en) | Sound synthesizing method and program | |
RU2591640C1 (ru) | Способ модификации голоса и устройство для его осуществления (варианты) | |
JP2020166298A (ja) | 音声合成方法 | |
JP2020184092A (ja) | 情報処理方法 | |
JP2000020100A (ja) | 音声変換装置及び音声変換方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200325 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200325 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200325 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200622 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6733644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |