JP6507579B2 - 音声合成方法 - Google Patents

音声合成方法 Download PDF

Info

Publication number
JP6507579B2
JP6507579B2 JP2014227773A JP2014227773A JP6507579B2 JP 6507579 B2 JP6507579 B2 JP 6507579B2 JP 2014227773 A JP2014227773 A JP 2014227773A JP 2014227773 A JP2014227773 A JP 2014227773A JP 6507579 B2 JP6507579 B2 JP 6507579B2
Authority
JP
Japan
Prior art keywords
operation mode
character
voice
phonetic
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014227773A
Other languages
English (en)
Other versions
JP2016090916A (ja
Inventor
基 小笠原
基 小笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014227773A priority Critical patent/JP6507579B2/ja
Priority to US14/934,627 priority patent/US9711123B2/en
Publication of JP2016090916A publication Critical patent/JP2016090916A/ja
Application granted granted Critical
Publication of JP6507579B2 publication Critical patent/JP6507579B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/02Instruments in which the tones are generated by means of electronic generators using generation of basic tones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/06Elementary speech units used in speech synthesisers; Concatenation rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • G10H1/0066Transmission between separate instruments or between individual components of a musical system using a MIDI interface
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)

Description

本発明は、歌唱音声等の音声を合成する技術に関する。
任意の発音文字を発音した音声の音声信号を合成する音声合成技術が従来から提案されている。破擦音や摩擦音等の子音に母音が後続する発音文字を目標の発音期間にて発音した音声を合成する場合に、発音期間の始点から子音の発音を開始させると、発音期間の始点から子音の継続長だけ遅延した時点で母音の発音が開始されるから、目標の発音期間の始点から遅延した時点で当該発音文字の発音が開始されたように受聴者には知覚される。そこで、目標の発音期間の始点前に子音の発音を開始するとともに当該発音期間の始点で母音の発音が開始されるように音声信号を生成する技術が提案されている(例えば特許文献1)。
特開2002−221978号公報
しかし、例えばMIDI(Musical Instrument Digital Interface)楽器等の入力装置に対する利用者からの指示に並行して実時間的に音声信号を合成する状況(リアルタイム音声合成)では、利用者からの指示を契機として子音の発音が開始され、当該子音の終了後に母音の発音が開始される。したがって、利用者による指示の時点から当該指示に応じた音声(母音)が知覚されるまでの遅延量が大きいという問題がある。以上の事情を考慮して、本発明は、合成音声の遅延の低減を目的とする。
以上の課題を解決するために、本発明の好適な態様に係る音声合成装置は、発音文字を指定する音声合成情報を利用して当該発音文字の発声音の音声信号を生成する第1合成処理と、音声合成情報で指定される少なくとも一部の発音文字を当該発音文字とは相違する代替発音文字に置換した発声音の音声信号を生成する第2合成処理とを選択的に実行する音声合成手段を具備する。以上の構成において、第1合成処理では、音声合成情報で指定される各発音文字の発声音の音声信号が生成され、第2合成処理では、音声合成情報で指定される各発音文字の少なくとも一部を代替発音文字に置換した発声音の音声信号が生成される。したがって、第1合成処理では任意の発音文字の発声音の音声信号を生成できる一方、第2合成処理では、発音の開始から母音の発音が開始されるまでの遅延を低減した音声信号を生成することが可能である。
本発明の好適な態様において、音声合成手段は、第2合成処理において、音声合成情報で指定される複数の発音文字のうち、子音の発音から直後の母音の発音までの遅延量が大きい第1種別の発音文字を代替発音文字に置換し、第1種別とは相違する第2種別の発音文字については置換しない。以上の態様の第2合成処理では、子音の発音から直後の母音の発音までの遅延量が大きい第1種別の発音文字は代替発音文字に置換され、第1種別とは相違する第2種別の発音文字については代替発音文字への置換が実行されない。したがって、音声合成情報で指定される発音文字を適度に維持しながら、第1種別の音素については母音の発音の開始までの遅延を効果的に低減した音声信号を生成できるという利点がある。なお、以上の態様の具体例は例えば第2実施形態として後述される。
本発明の好適な態様の音声合成装置は、所定の発音文字を指定する単位情報を入力装置に対する利用者からの指示に応じて順次に生成して音声合成情報に追加する情報編集手段を具備し、音声合成手段は、第2合成処理において、入力装置に対する指示に並行して実時間的に、単位情報で指定される所定の発音文字とは相違する代替発音文字の発声音の音声信号を生成する。利用者からの指示に並行して実時間的に音声信号を生成する構成では、当該音符の母音が発音されるまでの遅延が利用者に知覚され易いという事情があるから、母音の発音までの遅延を低減できる本発明は格別の好適である。なお、以上の態様の具体例は例えば第3実施形態または第4実施形態として後述される。
本発明の好適な態様において、音声合成手段は、第1合成処理では、音声合成情報の単位情報が指定する第1制御変数に応じて音声信号における子音の継続長を制御し、単位情報が指定する第2制御変数に応じて音声信号の音量を制御する一方、第2合成処理では、入力装置に対する操作に応じた第1制御変数に応じて音声信号の音量を制御し、情報編集手段は、第2合成処理で指定された第1制御変数の数値を、単位情報が指定する第2制御変数の数値として設定する。以上の態様では、第1合成処理で音声信号の音量の制御に適用される第2制御変数が、第2動作モードで同様に音量の制御に適用される第1制御変数と同等の数値に設定されるから、第1制御変数の意義(制御対象)が第1合成処理と第2合成処理とで相違する構成にも関わらず、第2合成処理での利用者の意図(入力装置に対する操作)を反映した音声信号を第1合成処理でも生成できるという利点がある。なお、以上の態様の具体例は、例えば第4実施形態として後述される。
本発明の好適な態様において、音声合成情報は、発音文字と音高と発音期間とを音符毎に指定し、音声合成情報が指定する各音符を表象する音符図像を時間軸と音高軸とが設定された楽譜領域内に配置した編集画像を表示装置に表示させる手段であって、第1合成処理の実行時と第2合成処理の実行時とで音符図像の表示態様を相違させる表示制御手段を具備する。以上の態様では、第1合成処理の実行時と第2合成処理の実行時とで音符図像の表示態様が相違するから、第1合成処理および第2合成処理の何れが実行される状況かを利用者が視覚的および直観的に把握できるという利点がある。なお、表示態様とは、利用者が視覚的に弁別可能な画像の性状を意味し、例えば明度(階調)や彩度や色相が表示態様の典型例である。
本発明の好適な態様において、代替発音文字は、複数の候補から利用者が選択した発音文字である。以上の態様では、利用者の嗜好や意図に適合した発音文字が代替発音文字として第2合成処理で利用されるから、個々の利用者にとって聴感的な違和感の少ない音声信号を生成できるという利点がある。
以上の各態様に係る楽曲処理装置は、DSP(Digital Signal Processor)等のハードウェア(電子回路)によって実現されるほか、CPU(Central Processing Unit)等の汎用の演算処理装置とプログラムとの協働によっても実現される。本発明のプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体や磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。本発明のプログラムは、例えば通信網を介した配信の形態で提供されてコンピュータにインストールされ得る。また、本発明は、以上に説明した各態様に係る音声合成装置の動作方法(音声合成方法)としても特定される。
第1実施形態における音声合成装置の構成図である。 音声合成情報の模式図である。 第1動作モードにおける編集画像の模式図である。 第2動作モードにおける編集画像の模式図である。 音声合成部の動作のフローチャートである。 選択画面の模式図である。 音素種別情報の模式図である。 第2実施形態における第2合成処理のフローチャートである。 第4実施形態における音声合成情報の模式図である。ートである。
<第1実施形態>
図1は、本発明の第1実施形態に係る音声合成装置100の構成図である。第1実施形態の音声合成装置100は、合成音声の音声信号Vを生成する信号処理装置(歌唱合成装置)であり、演算処理装置10と記憶装置12と表示装置14と入力装置16と放音装置18とを具備するコンピュータシステム(例えば携帯電話機やパーソナルコンピュータ等の情報処理装置)で実現される。第1実施形態では、歌唱曲の歌唱音声の音声信号Vを生成する場合を想定する。
表示装置14(例えば液晶表示パネル)は、演算処理装置10から指示された画像を表示する。入力装置16は、音声合成装置100に対する様々な指示のために利用者が操作する操作機器であり、例えば利用者が操作する複数の操作子を含んで構成される。表示装置14と一体に構成されたタッチパネルを入力装置16として採用することも可能である。放音装置18(例えばスピーカやヘッドホン)は、音声信号Vに応じた音響を放射する。なお、音声信号Vをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略した。
記憶装置12は、演算処理装置10が実行するプログラムや演算処理装置10が使用する各種のデータを記憶する。第1実施形態の記憶装置12は、主記憶装置(例えば半導体記録媒体等の1次記憶装置)と補助記憶装置(例えば磁気記録媒体等の2次記憶装置)とを包含する。主記憶装置は補助記憶装置と比較して高速な読出および書込が可能であり、補助記憶装置は主記憶装置と比較して大容量である。図1に例示される通り、第1実施形態の記憶装置12(典型的には補助記憶装置)は、音声素片群Lと音声合成情報Sとを記憶する。
音声素片群Lは、特定の発声者の音声から事前に収録された複数の音声素片の集合(音声合成用ライブラリ)である。各音声素片は、言語的な意味の最小単位である音素単体(例えば母音や子音)、または複数の音素を連結した音素連鎖(例えばダイフォンやトライフォン)である。音声素片は、周波数領域のスペクトルまたは時間領域の波形を示すデータの形態で記憶装置12に記憶される。
音声合成情報Sは、合成対象となる歌唱音声を指定する時系列データ(例えばVSQファイル)であり、図2に例示される通り、歌唱音声の音符毎に単位情報Uを包含する。任意の1個の音符の単位情報Uは、当該音符の発音文字Xと音高Pと発音期間Tとを指定する。発音文字Xは、歌唱音声の音符の発音内容(すなわち歌詞)を表現する符号である。具体的には、例えば母音単体または子音と母音との組合せで構成される音節(モーラ)を表現する符号が発音文字Xとして指定される。音高Pは、例えばMIDI(Musical Instrument Digital Interface)規格に準拠したノートナンバーである。発音期間Tは、歌唱音声において音符の発音が継続される期間であり、例えば音符の発音時点と消音時点または継続長とで指定される。
図1の演算処理装置10は、記憶装置12に記憶されたプログラムを実行することで、音声合成情報Sの編集や音声信号Vの合成のための複数の機能(表示制御部22,情報編集部24,音声合成部26)を実現する。なお、演算処理装置10の各機能を複数の装置に分散した構成や、音声処理専用の電子回路が演算処理装置10の機能の一部を実現する構成も採用され得る。
表示制御部22は、各種の画像を表示装置14に表示させる。第1実施形態の表示制御部22は、音声合成情報Sが指定する歌唱音声の内容を利用者が確認および編集するための図3の編集画像40を表示装置14に表示させる。編集画像40は、相互に交差する時間軸および音高軸が設定された楽譜領域42に、音声合成情報Sで指定される各音符を表象する図形(以下「音符図像」という)44を配置したピアノロール型の画像である。具体的には、音高軸の方向における音符図像44の位置は当該音符の音高Pに応じて設定され、時間軸の方向における音符図像44の位置および表示長は当該音符の発音期間Tに応じて設定される。また、図3に例示される通り、各音符の発音文字Xが音符図像44に付加される。
図1の情報編集部24は、音声合成情報Sを管理する。具体的には、情報編集部24は、入力装置16に対する利用者からの指示に応じて音声合成情報Sを生成および編集する。例えば、情報編集部24は、楽譜領域42に対する音符図像44の追加の指示に応じて音声合成情報Sに単位情報Uを追加し、任意の音符図像44の移動や時間軸上の伸縮の指示に応じて単位情報Uの音高Pや発音期間Tを変更する。また、情報編集部24は、音符図像44が新規に追加された段階(利用者が発音文字Xを指定していない段階)では、当該音符の単位情報Uの発音文字Xを例えば「あ」等の初期的な発音文字に設定し、発音文字Xの変更が利用者から指示された場合に単位情報Uの発音文字Xを変更する。
図1の音声合成部26は、記憶装置12に記憶された音声素片群Lと音声合成情報Sとを利用した音声合成処理で音声信号Vを生成する。第1実施形態の音声合成部26は、第1動作モードおよび第2動作モードの何れかの動作モードで動作する。例えば、入力装置16に対する利用者からの指示に応じて音声合成部26の動作モードが第1動作モードおよび第2動作モードの一方から他方に変更される。音声合成部26は、第1動作モードでは第1合成処理を実行し、第2動作モードでは第2合成処理を実行する。すなわち、第1実施形態の音声合成部26は、第1合成処理と第2合成処理とを選択的に実行する。第1合成処理は、音声合成情報Sが指定する発音文字Xを発音した歌唱音声の音声信号Vを生成する音声合成処理(すなわち通常の音声合成処理)であり、第2合成処理は、音声合成情報Sが指定する各音符の発音文字Xを他の発音文字(以下「代替発音文字」という)に置換した歌唱音声の音声信号Vを生成する音声合成処理である。なお、第1動作モードおよび第2動作モード以外の動作モードを選択可能な構成も採用され得る。
表示制御部22は、第1動作モードと第2動作モードとで編集画像40の表示態様(色彩や模様等の視覚的に知覚可能な性状)を相違させる。前掲の図3は、第1動作モードの選択時に表示される編集画像40の模式図であり、図4は、第2動作モードの選択時に表示される編集画像40の模式図である。図3および図4から理解される通り、第1実施形態の表示制御部22は、編集画像40の楽譜領域42に配置される各音符図像44の色彩や模様を第1動作モードと第2動作モードとで相違させる。したがって、音声合成装置100の現在の動作モード(第1動作モード/第2動作モード)を利用者が視覚的および直観的に把握できるという利点がある。
図5は、音声合成部26が音声信号Vを生成する動作のフローチャートである。入力装置16に対する操作で音声合成の開始が指示された場合に図5の処理が開始される。図5の処理を開始すると、音声合成部26は、第1動作モードおよび第2動作モードの何れが選択されているかを判定する(S0)。
第1動作モードが選択されている場合、音声合成部26は第1合成処理を実行する(SA1,SA2)。具体的には、音声合成部26は、記憶装置12に記憶された音声合成情報Sが音符毎に指定する発音文字Xに対応する音声素片を音声素片群Lから順次に選択し(SA1)、音声合成情報Sが指定する音高Pおよび発音期間Tに各音声素片を調整したうえで相互に連結することで音声信号Vを生成する(SA2)。第1合成処理では、発音文字Xが子音と母音とで構成される場合に、発音期間Tの始点に先行して子音の発音が開始され、発音期間Tの始点では母音の発音が開始されるように、各音声素片を構成する音素の時間軸上の位置が調整される。
他方、第2動作モードが選択されている場合、音声合成部26は第2合成処理を実行する(SB1,SB2)。具体的には、音声合成部26は、記憶装置12のうち補助記憶装置に記憶された音声素片群Lから代替発音文字の音声素片を主記憶装置に読込み(SB1)、音声合成情報Sが指定する各音符の音高Pおよび発音期間Tに当該音声素片を調整したうえで相互に連結することで音声信号Vを生成する(SB2)。第2合成処理では、発音期間Tの始点で各音符の発音が開始されるように、音声素片を構成する各音素の時間軸上の位置が調整される。以上に例示した通り、第1動作モード(第1合成処理)では、音符毎の発音文字Xに対応する様々な音声素片が音声素片群Lから順次に選択されるのに対し、第2動作モード(第2合成処理)では、代替発音文字に対応する音声素片が主記憶装置に固定的に保持されて複数の音符にわたる歌唱音声の合成に反復的に流用される。したがって、第2合成処理では第1合成処理と比較して処理負荷(ひいては処理遅延)が低減される。
第2動作モードで利用される代替発音文字は、入力装置16に対する操作で利用者が複数の候補から事前に選択した発音文字である。図6は、利用者が代替発音文字を選択するための選択画像46の模式図である。表示制御部22は、入力装置16に対する所定の操作(代替発音文字の選択指示)を契機として図6の選択画像46を表示装置14に表示させる。
図6に例示される通り、第1実施形態の選択画像46では、利用者による選択の候補となる複数の発音文字(以下「候補文字」という)が配列される。具体的には、発音文字の発音の開始から当該発音文字の母音の開始までの遅延量(以下「母音開始遅延量」という)が相対的に短い発音文字が候補文字として利用者に提示される。母音開始遅延量は、母音の直前に位置する子音の継続長とも換言され得る。例えば、図6では、母音開始遅延量が0である母音自体(あ[a],い[i],う[M],え[e],お[o])と、母音開始遅延量が他の種別の子音と比較して相対的に短い子音である流音(ら[4a],り[4'i],る[4M],れ[4e],ろ[4o])とを候補文字とした場合が例示されている([ ]内はX-SAMPAに準拠した音素表記)。利用者は、入力装置16を適宜に操作することで、選択画像46内の複数の候補文字から所望の代替発音文字を選択することが可能である。
以上の通り、第2動作モードでは、音声合成情報Sで指定される各音符の発音文字Xが、母音開始遅延量が相対的に短い代替発音文字に置換される。すなわち、第2動作モードは、子音の発音の開始から母音の発音が開始されるまでの遅延を低減するための動作モード(低遅延モード)である。
以上に例示した通り、第1実施形態においては、第1動作モード(第1合成処理)では、音声合成情報Sで指定される各発音文字Xの発声音の音声信号Vが生成され、第2動作モード(第2合成処理)では、音声合成情報Sで指定される各発音文字Xを代替発音文字に置換した発声音の音声信号Vが生成される。したがって、第1実施形態によれば、第1動作モードでは任意の発音文字Xの発声音の音声信号Vを生成できる一方、第2動作モードでは、発音期間Tの始点から母音の発音が開始されるまでの遅延を低減した音声信号Vを生成することが可能である。
<第2実施形態>
本発明の第2実施形態を以下に例示する。以下に例示する各形態において作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
第2実施形態の記憶装置12は、第1実施形態と同様の情報(音声素片群L,音声合成情報S)に加えて図7の音素種別情報Qを記憶する。図7に例示される通り、音素種別情報Qは、歌唱音声に包含され得る各音素の種別を指定する。具体的には、第2実施形態の音素種別情報Qは、音声合成処理に適用される音声素片を構成する各音素を第1種別q1と第2種別q2とに区別する。第1種別q1は、母音開始遅延量が相対的に大きい音素(例えば母音開始遅延量が所定の閾値を上回る音素)の種別であり、第2種別q2は、母音開始遅延量が第1種別q1の音素と比較して相対的に小さい音素(例えば母音開始遅延量が閾値を下回る音素)の種別である。例えば、半母音(/w/,/y/),鼻音(/m/,/n/),破擦音(/ts/),摩擦音(/s/,/f/),拗音(/kja/,/kju/,/kjo/)等の子音は第1種別q1に分類され、母音(/a/,/i/,/u/),流音(/r/,/l/),破裂音(/t/,/k/,/p/)等の音素は第2種別q2に分類される。なお、例えば2個の母音を連続させた2重母音については、後方の母音にアクセントがある場合には第1種別q1に分類し、前方の母音にアクセントがある場合には第2種別q2に分類するという取扱いが好適である。
図8は、第2実施形態において第2動作モードの選択時に音声合成部26が実行する第2合成処理のフローチャートである。第2実施形態では、前掲の図5の処理SB2が図8の処理SB21からSB25に置換される。具体的には、音声合成部26は、記憶装置12に記憶された音素種別情報Qを参照することで、音声合成情報Sで指定される1個の音符の発音文字X(複数の音素で構成される場合は最初の音素)が第1種別q1および第2種別q2の何れに該当するかを判定する(SB21)。
発音文字Xが第1種別q1に該当する場合、音声合成部26は、当該発音文字Xを代替発音文字に置換し(SB22)、代替発音文字の音声素片を各音符の音高Pおよび発音期間Tに調整したうえで相互に連結することで音声信号Vを生成する(SB23)。他方、発音文字Xが第2種別q2に該当する場合には発音文字Xの置換(代替発音文字への変更)は実行されない。すなわち、音声合成部26は、当該発音文字Xに対応する音声素片を音声素片群Lから選択するとともに音高Pおよび発音期間Tに調整して相互に連結することで音声信号Vを生成する(SB24)。音声合成情報Sが指定する全部の音符について以上の処理が順次に反復される(SB25:NO)。
以上の説明から理解される通り、第2実施形態の音声合成部26は、音声合成情報Sで指定される複数の発音文字Xのうち母音開始遅延量が大きい第1種別q1の発音文字Xを代替発音文字に置換する一方、母音開始遅延量が小さい第2種別q2の発音文字Xについては代替発音文字に対する置換を実行しない。なお、第1動作モードで実行される第1合成処理の内容や、編集画像40の各音符図像44の表示態様を第1動作モードと第2動作モードとで相違させる動作は第1実施形態と同様である。
第2実施形態においても第1実施形態と同様の効果が実現される。また、第2実施形態の第2動作モードでは、音声合成情報Sで指定される複数の発音文字Xのうち第1種別q1の発音文字Xは代替発音文字に置換される一方、第2種別q2の発音文字Xは音声合成情報Sでの指定内容に維持される。したがって、音声合成情報Sの発音文字Xを適度に維持しながら、第1種別q1の音素については母音の発音の開始までの遅延を効果的に低減した音声信号Vを生成できるという利点がある。
<第3実施形態>
本発明の第3実施形態では、例えばMIDI楽器等の電子楽器が入力装置16として利用される。第2動作モードにおいて、利用者は、入力装置16を適宜に操作することで所望の音高Pと発音期間Tとを音符毎に順次に指示することが可能である。例えば鍵盤楽器型の入力装置16を利用した場合には利用者による押鍵毎に音高Pと発音期間Tとが順次に指定される。情報編集部24は、利用者による音符の指示毎に単位情報Uを生成して記憶装置12の音声合成情報Sに追加する。各音符の単位情報Uは、利用者が指示した音高Pおよび発音期間Tを指定するとともに、「あ」等の初期的な発音文字(以下「初期発音文字」という)を発音文字Xとして指定する。利用者による指示毎に生成される単位情報Uの時系列が音声合成情報Sとして記憶装置12に記憶される。
他方、表示制御部22は、第2動作モードで利用者からの指示に応じて情報編集部24が生成する単位情報Uの音符を表象する音符図像44を利用者による音符の指示毎に編集画像40に順次に追加する。第2動作モードでの音符の暫定的な入力が完了すると、利用者は、音声合成装置100の動作モードを第1動作モードに変更する。第1動作モードにおいて、情報編集部24は、第2動作モードで生成した音声合成情報Sを入力装置16に対する利用者からの指示に応じて第1実施形態と同様に編集する。編集画像40の各音符図像44の表示態様を第1動作モードと第2動作モードとで相違させる動作は第1実施形態と同様である。
第3実施形態の音声合成部26は、第2動作モードにおいて、利用者による音符の指示に並行して実時間的に単位情報Uを処理することで音声信号Vを生成する(リアルタイム音声合成)。すなわち、音声合成部26は、情報編集部24が順次に生成する単位情報Uの発音文字X(初期発音文字)を代替発音文字に置換した発声音の音声信号Vを生成する。具体的には、音声合成部26は、記憶装置12の主記憶装置に読込まれた代替発音文字の音声素片を利用者が指示した音高Pおよび発音期間Tに調整し、相前後する音符間で調整後の音声素片を連結することで音声信号Vを生成する。なお、第1動作モードで実行される第1合成処理の内容は第1実施形態と同様である。
第3実施形態においても第1実施形態と同様の効果が実現される。なお、利用者による音符の指示に並行して実時間的に音声信号Vを生成する構成では、音符の指示の時点から、当該音符の母音が発音されるまでの遅延が受聴者に知覚され易いという事情がある。したがって、母音の発音までの遅延を低減できる本発明は、第3実施形態のように利用者による音符の指示に並行して実時間的に音声信号Vを生成する構成にとって格別に好適である。
<第4実施形態>
図9は、第4実施形態における音声合成情報Sの模式図である。図9に例示される通り、第4実施形態の音声合成情報Sの各単位情報Uは、第1実施形態と同様の情報(発音文字X,音高P,発音期間T)に加えて制御変数C1と制御変数C2とを包含する。制御変数C1および制御変数C2は、歌唱音声の音楽的な表情(音声信号Vの音響特性)を音符毎に制御するためのパラメータである。具体的には、図9に例示される通り、制御変数C1(第1制御変数)は例えばMIDI規格におけるベロシティであり、制御変数C2(第2制御変数)はダイナミクス(音量)である。
第1動作モードの第1合成処理において、音声合成部26は、制御変数C1および制御変数C2に応じて音声信号Vの特性を制御する。具体的には、音声合成部26は、制御変数C1に応じて各音符の発音文字Xにおける先頭の子音の継続長(発音直後の音声の立上がり速度)を制御する。例えば、制御変数C1の数値(ベロシティ)が大きいほど発音文字Xの子音の継続長が短い時間に設定される。また、音声合成部26は、制御変数C2に応じて音声信号Vの各音符の音量を制御する。例えば、制御変数C2の数値(ダイナミクス)が大きいほど音量は大きい数値に設定される。
他方、第2動作モードでは、第3実施形態と同様に、利用者からの音符の指示に並行して実時間的に音声信号Vが生成される。第4実施形態では、入力装置16に対する操作で利用者が指示した音高Pおよび発音期間Tとともに制御変数C1が入力装置16から供給される。制御変数C1は、MIDI規格のベロシティに相当し、入力装置16に対する操作強度(押鍵の強度または速度)に応じた数値に設定される。
利用者は、合成音声の音量を変化させる意図で入力装置16に対する操作強度を調整する傾向がある。以上の傾向を考慮して、第4実施形態の音声合成部26は、第2動作モードの第2合成処理において、入力装置16から供給される制御変数C1(すなわち利用者による操作強度)に応じて音声信号Vの各音符の音量を制御する。
以上に例示した通り、第1動作モードでは、制御変数C1が子音の継続長の制御に適用されるとともに制御変数C2が音量の制御に適用され、第2動作モードでは、制御変数C1が音量の制御に適用される。すなわち、制御変数C1の意義が第1動作モード(子音の継続長の制御)と第2動作モード(音量の制御)とでは相違し、第1動作モードでの制御変数C2と第2動作モードでの制御変数C1とは意義(音量の制御)が共通する。
以上の事情を考慮して、第4実施形態の情報編集部24は、第2動作モードで指定された制御変数C1の数値を、音声合成情報Sの単位情報Uが指定する制御変数C2の数値として設定する。具体的には、情報編集部24は、図9に例示される通り、音高Pと発音期間Tと制御変数C1とが音符毎に入力装置16から供給されるたびに、入力装置16から供給される音高Pおよび発音期間Tと、初期発音文字に設定された発音文字Xと、入力装置16から供給される制御変数C1と同等の数値に設定された制御変数C2と、所定の初期値に設定された制御変数C1とを含む単位情報Uを音声合成情報Sに追加する。以上の説明から理解される通り、第1動作モードでは、第2動作モードでの入力装置16に対する操作(操作強度)に応じた音量の音声信号Vが生成される。他方、第2動作モードでの制御変数C1は、第1動作モードでの制御変数C1(子音の継続長)には反映されない。
第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、第1動作モードで音量の制御に適用される制御変数C2が、第2動作モードで同様に音量の制御に適用される制御変数C1と同等の数値に設定されるから、制御変数C1の意義が第1動作モード(子音の継続長の制御)と第2動作モード(音量の制御)とで相違する構成にも関わらず、第2動作モードでの利用者の意図(音符毎の押鍵強度)を反映した音声信号Vを第1動作モードでも生成できるという利点がある。
<変形例>
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は適宜に併合され得る。
(1)前述の各形態では、事前に用意された複数の候補文字のうち利用者が選択した候補文字を代替発音文字として利用したが、代替発音文字の設定の方法は以上の例示に限定されない。例えば、発音文字Xの音素の種別毎に代替発音文字を事前に用意し、第2動作モードでは、各音符の発音文字Xを、当該発音文字Xの音素の種別に対応する代替発音文字に置換することも可能である。
また、前述の各形態では、1個の発音文字Xの全体を代替発音文字に置換したが、1個の発音文字Xの一部の音素(典型的には母音)を維持することも可能である。例えば、母音が子音に後続する発音文字Xを、第2動作モードでは、子音を省略した母音の音素で構成される代替発音文字に置換することも可能である。また、母音が子音に後続する発音文字Xを、第2動作モードでは、子音のみを他の音素(例えば母音開始遅延量が小さい子音)に変更して母音は維持した代替発音文字に置換する構成も採用される。
(2)前述の各形態では、第2合成処理で各発音文字Xが代替発音文字に置換される第2動作モードにおいて、表示装置14の各音符図像44に付加される発音文字Xについては音声合成情報Sの内容を維持したが(図4)、第2動作モードにおいて、編集画像40に配置される音符図像44の発音文字Xを代替発音文字に置換することも可能である。第2動作モードから第1動作モードに動作モードが変更された場合には、各音符図像44の代替発音文字が、音声合成情報Sが音符毎に指定する発音文字Xに変更される。
(3)第3実施形態や第4実施形態のように第2動作モードにおいて利用者による音符の指示に並行して実時間的に音声信号Vを生成する構成では、利用者による音符の指示(入力装置16に対する操作)から実際に当該音符の合成音声が再生されるまでの遅延量を低減することが特に要求される。以上の事情を考慮すると、第1合成処理で実行される処理の一部を第2動作モードの第2合成処理では変更(典型的には簡略化)または省略する構成も好適である。例えば、相異なる音高に対応する複数の音声素片を合成(モーフィング)することで目標の音高Pの音声素片を生成する処理を第1合成処理では実行し、第2合成処理では1個の音声素片を音高Pに調整する処理を実行する(複数の音声素片の合成は省略する)ことが可能である。以上のように第2合成処理の処理量を第1合成処理と比較して低減した構成によれば、利用者による音符の指示から実際に当該音符の合成音声が再生されるまでの遅延量を低減することが可能である。
(4)第1動作モードでは、発音期間Tの始点に先行する時点で子音の発音が開始されるから、合成対象の複数の音符の時系列のうち最初の音符の発音期間の始点に対して特定の時間長(以下「準備時間」という)だけ手前の時点から音声合成を開始する必要がある。ただし、子音の種別毎に継続長は相違し得るから、音声合成情報Sが指定する複数の音符の発音文字Xの子音のうち継続長が最長の子音を探索し、準備時間を、当該子音の継続長と比較して所定長だけ長い時間長(すなわち再生対象のなかで最長の子音の継続長に応じた可変の時間長)に設定した構成が好適である。以上の構成によれば、音声合成の開始の時点を、最初の音符の始点から必要以上に手前の時点まで遡及させる必要がないという利点がある。なお、音声合成のテンポに応じて準備時間を可変に制御することも可能である。
(5)第3実施形態および第4実施形態では、利用者による音符の指示毎に情報編集部24が生成する単位情報Uの発音文字Xを所定の初期発音文字(例えば「あ」)に設定したが、例えば入力装置16に対する利用者からの指示に応じて事前に複数の発音文字Xの時系列(すなわち楽曲の歌詞)を生成し、利用者による音符の指示毎に各単位情報Uの発音文字Xに先頭から順番に割当てることも可能である(いわゆる歌詞の流し込み)。
(6)第4実施形態では、第2動作モードにおいて利用者が入力装置16に対する操作で音符を指示するたびに制御変数C1と同等の数値に設定された制御変数C2を含む単位情報Uを音声合成情報Sに追加したが、第2動作モードでの入力装置16に対する操作に応じた制御変数C1を第1動作モードで利用される制御変数C2に反映させる時期は以上の例示(音符の指示毎)に限定されない。例えば、第2動作モードで利用者が順次に指定した制御変数C1の時系列を記憶装置12に保持し、第2動作モードから第1動作モードへの変更が利用者から指示された場合に、音声合成情報Sの各単位情報Uにおける制御変数C2を一括的に第2動作モードでの制御変数C1と同等の数値に設定することも可能である。また、第2動作モードから第1動作モードへの変更が利用者から指示された場合に、第2動作モードでの制御変数C1を音声合成情報Sの制御変数C2に複製するか否かを利用者に選択させ(例えば「VelocityをDynamicsに置き換えても良いですか?」等のメッセージを表示装置14に表示し)、利用者が複製を許可した場合に各単位情報Uの制御変数C2を第2動作モードでの制御変数C1の数値に設定することも可能である。
(7)前述の各形態では、日本語の発音文字Xを例示したが、発音文字Xの言語(合成対象となる音声の言語)は任意である。例えば、英語,スペイン語,中国語,韓国語等の任意の言語の音声を生成する場合にも本発明を適用することが可能である。
(8)前述の各形態では、複数の音声素片を相互に接続する素片接続型の音声合成を例示したが、音声合成部26が実行する音声合成(第1合成処理,第2合成処理)の方式は以上の例示に限定されない。例えば、HMM(Hidden Markov Model)に代表される確率モデルを利用して推定された音高の遷移(ピッチカーブ)に対して発音文字Xに応じたフィルタ処理を実行する確率モデル型の音声合成で音声信号Vを生成することも可能である。
(9)移動通信網やインターネット等の通信網を介して端末装置と通信するサーバ装置で音声合成装置100を実現することも可能である。具体的には、音声合成装置100は、端末装置から通信網を介して受信した音声合成情報Sについて前述の各形態で例示した処理を実行することで音声信号Vを生成して端末装置に送信する。
100……音声合成装置、10……演算処理装置、12……記憶装置、14……表示装置、16……入力装置、18……放音装置、22……表示制御部、24……情報編集部、26……音声合成部。

Claims (4)

  1. 音声合成情報で指定される発音文字が、子音の発音から直後の母音の発音までの遅延量が大きい第1種別であるか、または、前記第1種別よりも前記遅延量が小さい第2種別であるかを判定し、
    前記発音文字が前記第1種別であると判定された場合、当該発音文字とは相違する代替発音文字に当該発音文字を置換した発声音の音声信号を生成し、前記発音文字が前記第2種別であると判定された場合、当該発音文字を前記代替発音文字に置換せずに発声音の音声信号を生成する
    コンピュータにより実現される音声合成方法
  2. 前記発音文字の種別に関わらず、当該発音文字を前記代替発音文字に置換しない第1動作モードと、
    前記発音文字が前記第1種別であると判定された場合、前記代替発音文字に当該発音文字を置換した発声音の音声信号を生成し、前記発音文字が前記第2種別であると判定された場合、当該発音文字を前記代替発音文字に置換せずに発声音の音声信号を生成する第2動作モードと、の何れかで動作する
    請求項1の音声合成方法。
  3. 利用者からの指示に応じて、前記第1動作モードと前記第2動作モードとの何れかで動作し、
    前記音声合成情報は、発音文字と音高と発音期間とを音符毎に指定し、
    前記音声合成情報が指定する各音符を表象する音符図像を時間軸と音高軸とが設定された楽譜領域内に配置した編集画像を表示装置に表示させ、前記第1動作モードと前記第2動作モードとで前記音符図像の表示態様を相違させる
    請求項2の音声合成方法。
  4. 前記第2動作モードでは、鍵盤楽器型の入力装置に対する利用者からの押鍵毎に、音高と発音期間とが順次に指定される
    請求項2または請求項3の音声合成方法。
JP2014227773A 2014-11-10 2014-11-10 音声合成方法 Expired - Fee Related JP6507579B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014227773A JP6507579B2 (ja) 2014-11-10 2014-11-10 音声合成方法
US14/934,627 US9711123B2 (en) 2014-11-10 2015-11-06 Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program recorded thereon

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014227773A JP6507579B2 (ja) 2014-11-10 2014-11-10 音声合成方法

Publications (2)

Publication Number Publication Date
JP2016090916A JP2016090916A (ja) 2016-05-23
JP6507579B2 true JP6507579B2 (ja) 2019-05-08

Family

ID=55912713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014227773A Expired - Fee Related JP6507579B2 (ja) 2014-11-10 2014-11-10 音声合成方法

Country Status (2)

Country Link
US (1) US9711123B2 (ja)
JP (1) JP6507579B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6834370B2 (ja) * 2016-11-07 2021-02-24 ヤマハ株式会社 音声合成方法
US20190019497A1 (en) * 2017-07-12 2019-01-17 I AM PLUS Electronics Inc. Expressive control of text-to-speech content
JP6988343B2 (ja) * 2017-09-29 2022-01-05 ヤマハ株式会社 歌唱音声の編集支援方法、および歌唱音声の編集支援装置
JP2019066649A (ja) * 2017-09-29 2019-04-25 ヤマハ株式会社 歌唱音声の編集支援方法、および歌唱音声の編集支援装置
JP6729539B2 (ja) * 2017-11-29 2020-07-22 ヤマハ株式会社 音声合成方法、音声合成システムおよびプログラム
JP7335794B2 (ja) * 2019-11-20 2023-08-30 シュナイダーエレクトリックホールディングス株式会社 情報処理装置及び設定装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS55111995A (en) * 1979-02-20 1980-08-29 Sharp Kk Method and device for voice synthesis
US5796916A (en) * 1993-01-21 1998-08-18 Apple Computer, Inc. Method and apparatus for prosody for synthetic speech prosody determination
US6029131A (en) * 1996-06-28 2000-02-22 Digital Equipment Corporation Post processing timing of rhythm in synthetic speech
US6006187A (en) * 1996-10-01 1999-12-21 Lucent Technologies Inc. Computer prosody user interface
US5915237A (en) * 1996-12-13 1999-06-22 Intel Corporation Representing speech using MIDI
US6363342B2 (en) * 1998-12-18 2002-03-26 Matsushita Electric Industrial Co., Ltd. System for developing word-pronunciation pairs
US6462264B1 (en) * 1999-07-26 2002-10-08 Carl Elam Method and apparatus for audio broadcast of enhanced musical instrument digital interface (MIDI) data formats for control of a sound generator to create music, lyrics, and speech
KR100318762B1 (ko) * 1999-10-01 2002-01-04 윤덕용 외래어 음차표기의 음성적 거리 계산방법
JP2001265375A (ja) * 2000-03-17 2001-09-28 Oki Electric Ind Co Ltd 規則音声合成装置
US6865533B2 (en) * 2000-04-21 2005-03-08 Lessac Technology Inc. Text to speech
JP3879402B2 (ja) * 2000-12-28 2007-02-14 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP2002221978A (ja) 2001-01-26 2002-08-09 Yamaha Corp ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置
US7069207B2 (en) * 2001-01-26 2006-06-27 Microsoft Corporation Linguistically intelligent text compression
JP3823928B2 (ja) * 2003-02-27 2006-09-20 ヤマハ株式会社 スコアデータ表示装置およびプログラム
US7877259B2 (en) * 2004-03-05 2011-01-25 Lessac Technologies, Inc. Prosodic speech text codes and their use in computerized speech systems
JP4265501B2 (ja) * 2004-07-15 2009-05-20 ヤマハ株式会社 音声合成装置およびプログラム
US8438032B2 (en) * 2007-01-09 2013-05-07 Nuance Communications, Inc. System for tuning synthesized speech
JP4735544B2 (ja) * 2007-01-10 2011-07-27 ヤマハ株式会社 歌唱合成のための装置およびプログラム
US8898062B2 (en) * 2007-02-19 2014-11-25 Panasonic Intellectual Property Corporation Of America Strained-rough-voice conversion device, voice conversion device, voice synthesis device, voice conversion method, voice synthesis method, and program
JP5159279B2 (ja) * 2007-12-03 2013-03-06 株式会社東芝 音声処理装置及びそれを用いた音声合成装置。
US8352270B2 (en) * 2009-06-09 2013-01-08 Microsoft Corporation Interactive TTS optimization tool
JP5648347B2 (ja) * 2010-07-14 2015-01-07 ヤマハ株式会社 音声合成装置
US20120112879A1 (en) * 2010-11-09 2012-05-10 Ekchian Caroline M Apparatus and method for improved vehicle safety
JP5728913B2 (ja) * 2010-12-02 2015-06-03 ヤマハ株式会社 音声合成情報編集装置およびプログラム
EP2737480A4 (en) * 2011-07-25 2015-03-18 Incorporated Thotra SYSTEM AND METHOD FOR ACOUSTIC TRANSFORMATION
JP6003115B2 (ja) * 2012-03-14 2016-10-05 ヤマハ株式会社 歌唱合成用シーケンスデータ編集装置および歌唱合成用シーケンスデータ編集方法
JP6167503B2 (ja) * 2012-11-14 2017-07-26 ヤマハ株式会社 音声合成装置
JP5821824B2 (ja) * 2012-11-14 2015-11-24 ヤマハ株式会社 音声合成装置

Also Published As

Publication number Publication date
US9711123B2 (en) 2017-07-18
JP2016090916A (ja) 2016-05-23
US20160133246A1 (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6507579B2 (ja) 音声合成方法
EP2983168B1 (en) Voice analysis method and device, voice synthesis method and device and medium storing voice analysis program
JP6070010B2 (ja) 音楽データ表示装置および音楽データ表示方法
JP6236765B2 (ja) 音楽データ編集装置および音楽データ編集方法
JP6127371B2 (ja) 音声合成装置および音声合成方法
JP2008170592A (ja) 歌唱合成のための装置およびプログラム
JP6784022B2 (ja) 音声合成方法、音声合成制御方法、音声合成装置、音声合成制御装置およびプログラム
US20180005617A1 (en) Sound control device, sound control method, and sound control program
JP5423375B2 (ja) 音声合成装置
JP6255744B2 (ja) 楽曲表示装置および楽曲表示方法
JP5157922B2 (ja) 音声合成装置、およびプログラム
JP6179221B2 (ja) 音響処理装置および音響処理方法
JP6044284B2 (ja) 音声合成装置
JP5176981B2 (ja) 音声合成装置、およびプログラム
JP7124870B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP2014098802A (ja) 音声合成装置
JP5552797B2 (ja) 音声合成装置および音声合成方法
JP5106437B2 (ja) カラオケ装置及びその制御方法並びにその制御プログラム
JP5935831B2 (ja) 音声合成装置、音声合成方法およびプログラム
JP7127682B2 (ja) 情報処理方法、情報処理装置およびプログラム
JP6583756B1 (ja) 音声合成装置、および音声合成方法
JP6149373B2 (ja) 音声合成データ編集装置および音声合成データ編集方法
JP5982942B2 (ja) 音声合成装置
JP6439288B2 (ja) 合成情報管理装置および合成情報管理方法
JP5641266B2 (ja) 音声合成装置、音声合成方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190318

R151 Written notification of patent or utility model registration

Ref document number: 6507579

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees