JP2012247557A - 音声合成装置、その方法及びプログラム - Google Patents
音声合成装置、その方法及びプログラム Download PDFInfo
- Publication number
- JP2012247557A JP2012247557A JP2011118167A JP2011118167A JP2012247557A JP 2012247557 A JP2012247557 A JP 2012247557A JP 2011118167 A JP2011118167 A JP 2011118167A JP 2011118167 A JP2011118167 A JP 2011118167A JP 2012247557 A JP2012247557 A JP 2012247557A
- Authority
- JP
- Japan
- Prior art keywords
- text
- information
- conversation
- speech
- reply
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
【解決手段】返信情報を用いて、テキスト情報を会話テキストまたは非会話テキストに分類し、一つの被返信テキスト情報に起因する一連の会話テキストを一つの会話テキスト集合としてまとめ、会話テキスト集合に含まれる会話テキストに対応する投稿者情報に基づき、その会話テキスト集合の投稿者間の友好度を求め、会話テキストに含まれる単語に基づき、その会話テキストに対する評価を算出し、1つ以上の会話テキスト集合または非会話テキストを、その投稿順に並び替え、友好度が高いほど抑揚が大きくなるように、評価がポジティブであるほど抑揚が大きくなるように、テキスト統合ステップで並び替えられた投稿順に従ってテキスト情報に対する合成音声を生成する。
【選択図】図1
Description
図1及び図2を用いて、本実施形態に係る音声合成装置100を説明する。音声合成装置100は、テキスト情報分類部110と、評価算出部120と、友好度取得部130と、無音区間取得部140と、抑揚修正情報生成部150と、テキスト統合部160と、音声合成部170と、テキスト情報記憶部181と、単語辞書記憶部185と、投稿者情報記憶部187と、を含む。
テキスト情報分類部110は、返信情報を用いて、テキスト情報を会話テキストまたは非会話テキストに分類し、一つの被返信テキスト情報に起因する一連の会話テキストを一つの会話テキスト集合としてまとめる(s110)。なお、会話テキストとは返信されるテキスト情報(以下「被返信テキスト情報」という)または被返信テキスト情報に対する返信であるテキスト情報(以下「返信テキスト情報」という)であり、非会話テキストとは会話テキスト以外のテキスト情報である。
友好度取得部130は、会話テキスト集合jに含まれる会話テキストtext(j,n)に対応する投稿者情報に基づき、その会話テキスト集合jに含まれる投稿者間の友好度を求める(s130)。
評価算出部120は、テキスト情報記憶部181から会話テキストtext(j,n)を取得し、単語辞書記憶部185を参照して、会話テキストtext(j,n)に含まれる単語に基づき、その会話テキストtext(j,n)に対する評価を算出する(s120)。なお、単語辞書記憶部185には、単語と、その単語に対するポジティブまたはネガティブの評価と、が記憶されている(図8参照)。例えば、予め用意されたポジティブな投稿に含まれやすい単語をポジティブとして、予め用意されたネガティブな投稿に含まれやすい単語をネガティブとして、単語辞書記憶部185に記憶する。その際、単語辞書記憶部185に手動で単語及びその評価を登録してもよいし、単語辞書を機械学習等により自動的に構築し単語辞書記憶部185に記憶してもよい。
無音区間取得部140は、会話テキスト集合j内の会話テキスト間の投稿時間に基づき、一つ前の会話テキストtext(j,n−1)の投稿時間t(j,n−1)と会話テキストtext(j,n)の投稿時間t(j,n)との差rt(j,n)(以下「返信時間」という)が大きいほど、大きくなるような値(以下「無音区間情報」という)を求める(s140)。
rt(j,n)=0 (n=1)
rt(j,n)=t(j,n)-t(j,n-1) (n>1) (3)
さらに、無音区間取得部140は、返信時間を用いて、以下の式により、無音区間情報silt(j,n)を求める(図7のs13参照)。
抑揚修正情報生成部150は、テキスト情報記憶部181を参照して、テキスト情報の投稿者と返信対象となる投稿者との間の友好度と、評価e(j,n)とを取得する。抑揚修正情報生成部150は、これらの値を用いて、友好度が高いほど抑揚が大きくなるように、評価がポジティブであるほど抑揚が大きくなるように、抑揚を修正するための抑揚修正情報pr(j,n)を会話テキストtext(j,n)に対して生成する(s150)。なお、抑揚とは、音のピッチのパタンを意味し、ピッチレンジ(F0パタンの最大値と最小値の幅)や発話速度、音高(以下、「抑揚パラメータ」という)により変化する。さらに、抑揚が大きいとは抑揚パラメータのばらつきが大きいことを意味し、抑揚が小さいとは抑揚パラメータのばらつきが小さいことを意味する。抑揚が大きくなると生成される合成音声は感情豊かに聞こえ、抑揚が小さくなると読上げ調(棒読み)に聞こえる。なお、投稿者間の仲がいいほど、また、会話内容がポジティブであるほど、その会話は感情豊かになり、投稿者間の仲が疎遠であるほど、また、会話内容がネガティブであるほど、その会話は感情表現に乏しく、読上げ調(棒読み)になると考えられる。これらの点を考慮して抑揚修正情報を生成する。
テキスト統合部160は、1つ以上の会話テキスト集合または非会話テキストを、その投稿順に並び替える(s160)。例えば、テキスト情報に対し、以下のようにして、そのテキスト情報が音声合成される順番(以下「合成番号」という)を付加して、投稿順に並び替える(図9参照)。
音声合成部170は、友好度が高いほど抑揚が大きくなるように、評価がポジティブであるほど抑揚が大きくなるように、テキスト情報に対する合成音声を生成する(s170)。
f0ms=f0mean+(f0os-f0mean)・(1+prp) (11)
ここで、f0ms、f0osは、それぞれピッチレンジ修正後、修正前の有声区間の対数F0パタンであり、s=1,2,…,Sであり、Sは対数F0パタンの有声区間のフレーム数であり、f0meanは補正前のF0パタンの各フレームの対数F0の平均である。
本発明に係る音声合成技術では、非テキスト情報を考慮して抑揚を変更するため、より自然性の高い合成音声を生成することができるという効果を奏する。
本実施形態では返信情報として、被返信テキスト情報の投稿IDを用いているが、他の情報を用いてもよい。例えば、テキスト情報自体に含まれる情報を返信情報として使用してもよい。挨拶に対する返事や質問に対する答え等を予め会話パタンとして記憶しておき、この会話パタンに当てはまるテキスト情報の集合を会話テキスト集合として分類してもよい。また、返信情報として、投稿者IDを用いて、どのテキスト情報に対する返信かではなく、どの投稿者に対する返信かを明らかにし、投稿者により関係付けられるテキスト情報の集合を会話テキスト集合として分類してもよい。
pr(j,n)=0 (n=1)
pr(j,n)=w(2f(j,n)-1)+(1-w)e(j,n) (n>1)
この場合、会話テキスト集合の最初の会話テキストに対しては、評価、友好度を求めない構成としてもよい。そのような構成とすることで、計算量を減らすことができる。
pit(j,n)=1 (n=1)
pit(j,n)=1+pitrange(w(2f(j,n)-1)+(1-w)e(j,n)) (n>1)
sr(j,n)=1 (n=1)
sr(j,n)=1+srrange(w(2f(j,n)-1)+(1-w)e(j,n)) (n>1)
なお、pitrange、srrangeはそれぞれ発話速度、音高の変動幅を調整するパラメータであり、0以上1以下の実数である。音声合成部170の抑揚修正部177では、以下のようにして抑揚に係る情報である対数F0パタンと音素継続長を修正する。
f0ms=pit(j,n)・f0mean+(f0os-f0mean)・(1+prp)
durmk=sr(j,n)・durok
ここで、durmk、durokは、それぞれ修正後、修正前の合成したいテキスト情報の音素列中のk番目の音素の音素継続長である。音素継続長の修正に合わせて、F0パタンの時間情報も同様に線形伸縮を行う。この場合、pr(n,j)、pit(j,n)、sr(j,n)が正の値の場合は抑揚が大きい、負の場合は抑揚が小さいF0パタンが生成される。このような構成とすることで、第一実施形態と同様の効果を得ることができる。さらに、発話速度や音高等を抑揚修正情報として用いるため、より自然性の高い音声合成ができる。
図1及び図2を用いて、本実施形態に係る音声合成装置200を説明する。第一実施形態と異なる部分についてのみ説明する。音声合成装置200は、テキスト情報分類部110と、評価算出部120と、友好度取得部130と、無音区間取得部140と、抑揚修正情報生成部150と、テキスト統合部160と、音声合成部270と、テキスト情報記憶部181と、単語辞書記憶部185と、投稿者情報記憶部187と、を含む。音声合成部270の構成及び処理内容が第一実施形態とは異なる。
音声合成部270は、友好度が高いほど抑揚が大きくなるように、評価がポジティブであるほど抑揚が大きくなるように、テキスト情報に対する合成音声を生成する(s270)。
このような構成とすることで第一実施形態と同様の効果を得ることができる。第一実施形態では、非テキスト情報を用いて抑揚を変化させた音声合成を行うことが可能であるが、全て共通の韻律モデル、音声波形データベースを使用して音声合成を行っているため、同じ話者の合成音声しか生成することができない。そこで、本実施形態では予め発話者の性別・年齢等が登録された複数の音声データに基づき作成された韻律モデル、音声波形データベースを用意する。投稿者情報に応じて、これらの韻律モデル、音声波形データベースの中から適切なものを選択することで、投稿者の特徴に近い合成音声の生成を可能とする。
図14及び図15を用いて、本実施形態に係る音声合成装置300を説明する。第一実施形態と異なる部分についてのみ説明する。音声合成装置300は、テキスト情報分類部110と、評価算出部120と、友好度取得部130と、無音区間取得部140と、テキスト統合部160と、音声合成部370と、テキスト情報記憶部181と、単語辞書記憶部185と、投稿者情報記憶部187と、を含む。抑揚修正情報生成部150を含まない点、音声合成部370の構成及び処理内容が第一実施形態とは異なる。
音声合成部370は、友好度が高いほど抑揚が大きくなるように、評価がポジティブであるほど抑揚が大きくなるように、テキスト情報に対する合成音声を生成する(s370)。
[参考文献1]宮永圭介、益子貴史、小林隆夫、「HMM音声合成における多様なスタイル実現のための制御法」、電子情報通信学会技術研究報告、2004年、SP2004-7、pp.35-40
音声合成部370は、無音区間生成部171とテキスト解析部173と韻律生成部375と韻律モデル記憶部376と素片選択部178と音声素片データベース記憶部179とを有する。抑揚修正部177を有さない点、韻律生成部375の処理内容及び韻律モデル記憶部376に記憶されるデータが音声合成部170とは異なる。
μi=Hiξ,
ξ=[1,νT]T
[参考文献2]益子貴史、徳田恵一、宮崎昇、小林隆夫、「多空間確率分布HMMによるピッチパターン生成」、電子情報通信学会論文誌、2000年、J83-D-II(7)、pp.1600-1609
このような構成とすることで第一実施形態と同様の効果を得ることができる。第一実施形態では、友好度、評価を用いて抑揚修正情報を算出した後、韻律情報の算出を行っているが、友好度、評価から直接韻律情報を生成できればより自然な抑揚が表現できると考えられる。そこで、本実施形態では、予め友好度、評価に対応する韻律モデルを学習し、友好度、評価を付加された会話テキストに対応した韻律情報を直接生成する。本実施形態では、スタイルベクトルとして、友好度と各投稿の評価を使用することで、これらの値に応じた韻律を生成することが可能である。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
上述した音声合成装置は、コンピュータにより機能させることもできる。この場合はコンピュータに、目的とする装置(各種実施形態で図に示した機能構成をもつ装置)として機能させるためのプログラム、またはその処理手順(各実施例で示したもの)の各過程をコンピュータに実行させるためのプログラムを、CD−ROM、磁気ディスク、半導体記憶装置などの記録媒体から、あるいは通信回線を介してそのコンピュータ内にダウンロードし、そのプログラムを実行させればよい。
Claims (8)
- 投稿時間の経過に従って配列された1つ以上のテキスト情報と、そのテキスト情報の投稿者に関する情報(以下「投稿者情報」という)と、そのテキスト情報が他のテキスト情報に対する返信か否かを示す情報(以下「返信情報」という)と、を含む情報ソースを用いて、前記テキスト情報に対する合成音声を生成する音声合成装置であって、
会話テキストとは返信されるテキスト情報(以下「被返信テキスト情報」という)または前記被返信テキスト情報に対する返信であるテキスト情報であり、非会話テキストとは前記会話テキスト以外のテキスト情報であり、前記返信情報を用いて、前記テキスト情報を前記会話テキストまたは前記非会話テキストに分類し、一つの被返信テキスト情報に起因する一連の会話テキストを一つの会話テキスト集合としてまとめるテキスト情報分類部と、
前記会話テキスト集合に含まれる会話テキストに対応する投稿者情報に基づき、その会話テキスト集合の投稿者間の友好度を求める友好度取得部と、
単語と、その単語に対するポジティブまたはネガティブの評価と、が記憶される単語辞書記憶部と、
前記単語辞書記憶部を参照して、前記会話テキストに含まれる単語に基づき、その会話テキストに対する評価を算出する評価算出部と、
1つ以上の会話テキスト集合または非会話テキストを、その投稿順に並び替えるテキスト統合部と、
前記友好度が高いほど抑揚が大きくなるように、前記評価がポジティブであるほど抑揚が大きくなるように、前記テキスト統合部で並び替えられた投稿順に従って前記テキスト情報に対する合成音声を生成する音声合成部と、を含む、
音声合成装置。 - 請求項1記載の音声合成装置であって、
前記友好度が高いほど抑揚が大きくなるように、前記評価がポジティブであるほど抑揚が大きくなるように、抑揚を修正するための抑揚修正情報を会話テキストに対して生成する抑揚修正情報生成部を、さらに含み、
前記音声合成部において、前記テキスト情報を解析して音韻系列を生成し、この音韻系列に基づき、韻律モデルを用いて音声合成のための韻律情報を生成し、前記抑揚修正情報を用いてこの韻律情報を修正し、音声波形データベースを参照して、修正された韻律情報と前記音韻系列に対応する波形を読出して音声合成する、
音声合成装置。 - 請求項1記載の音声合成装置であって、
ポジティブな読み方による音声データ、ネガティブな読み方による音声データ、友好度が高い読み方による音声データ、友好度が低い読み方による音声データのそれぞれに基づき学習された韻律モデルと、各表現に与えるベクトルを用いて、学習されたスタイル空間を持つモデルが記憶される韻律モデル記憶部をさらに含み、
前記音声合成部において、テキスト情報を解析して音韻系列を生成し、この音韻系列と前記友好度と前記評価に基づき、前記韻律モデル記憶部に記憶されるスタイル空間を持つモデルを用いて音声合成のための韻律情報を生成し、音声波形データベースを参照して、前記韻律情報と前記音韻系列に対応する波形を読出して音声合成する、
音声合成装置。 - 請求項1〜4の何れかに記載の音声合成装置であって、
前記情報ソースには、前記テキスト情報の投稿時間が含まれ、
前記会話テキスト集合内の前記会話テキスト間の投稿時間に基づき、一つ前の会話テキストn−1の投稿時間と会話テキストnの投稿時間との差(以下「返信時間」という)が大きいほど、大きくなるような値(以下「無音区間情報」という)を求める無音区間取得部を、さらに含み、
前記音声合成部において、生成される合成音声間の間を前記無音区間情報に基づき定める、
音声合成装置。 - 請求項2〜5の何れかに記載の音声合成装置であって、
複数の発話者の音声データに基づいて個別に作成された複数の韻律モデルと複数の音声波形データベースを含み、
前記音声合成部は、前記投稿者情報を用いて、前記韻律モデル及び前記音声波形データベースを一つ選択し、選択した前記韻律モデル及び前記音声波形データベースを用いて、前記テキスト情報に対する合成音声を生成する、
音声合成装置。 - 投稿時間の経過に従って配列された1つ以上のテキスト情報と、そのテキスト情報の投稿者に関する情報(以下「投稿者情報」という)と、そのテキスト情報が他のテキスト情報に対する返信か否かを示す情報(以下「返信情報」という)と、を含む情報ソースを用いて、前記テキスト情報に対する合成音声を生成する音声合成方法であって、
会話テキストとは返信されるテキスト情報(以下「被返信テキスト情報」という)または前記被返信テキスト情報に対する返信であるテキスト情報であり、非会話テキストとは前記会話テキスト以外のテキスト情報であり、前記返信情報を用いて、前記テキスト情報を前記会話テキストまたは前記非会話テキストに分類し、一つの被返信テキスト情報に起因する一連の会話テキストを一つの会話テキスト集合としてまとめるテキスト情報分類ステップと、
前記会話テキスト集合に含まれる会話テキストに対応する投稿者情報に基づき、その会話テキスト集合の投稿者間の友好度を求める友好度取得ステップと、
単語と、その単語に対するポジティブまたはネガティブの評価と、が記憶される単語辞書記憶部を参照して、前記会話テキストに含まれる単語に基づき、その会話テキストに対する評価を算出する評価算出ステップと、
1つ以上の会話テキスト集合または非会話テキストを、その投稿順に並び替えるテキスト統合ステップと、
前記友好度が高いほど抑揚が大きくなるように、前記評価がポジティブであるほど抑揚が大きくなるように、前記テキスト統合ステップで並び替えられた投稿順に従って前記テキスト情報に対する合成音声を生成する音声合成ステップと、を含む、
音声合成方法。 - 請求項1〜6の何れかに記載の音声合成装置として、コンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011118167A JP5650587B2 (ja) | 2011-05-26 | 2011-05-26 | 音声合成装置、その方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011118167A JP5650587B2 (ja) | 2011-05-26 | 2011-05-26 | 音声合成装置、その方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012247557A true JP2012247557A (ja) | 2012-12-13 |
JP5650587B2 JP5650587B2 (ja) | 2015-01-07 |
Family
ID=47468054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011118167A Expired - Fee Related JP5650587B2 (ja) | 2011-05-26 | 2011-05-26 | 音声合成装置、その方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5650587B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041411A (ja) * | 2000-07-28 | 2002-02-08 | Nippon Telegr & Teleph Corp <Ntt> | テキスト読み上げロボット、その制御方法及びテキスト読み上げロボット制御プログラムを記録した記録媒体 |
JP2002055925A (ja) * | 2000-08-07 | 2002-02-20 | Hitachi Ltd | 音声読み上げ装置および情報処理装置 |
JP2006227589A (ja) * | 2005-01-20 | 2006-08-31 | Matsushita Electric Ind Co Ltd | 音声合成装置および音声合成方法 |
JP2007011308A (ja) * | 2005-05-30 | 2007-01-18 | Kyocera Corp | 文書表示装置及び文書読み上げ方法 |
JP2007271655A (ja) * | 2006-03-30 | 2007-10-18 | Brother Ind Ltd | 感情付加装置、感情付加方法及び感情付加プログラム |
JP2008276543A (ja) * | 2007-04-27 | 2008-11-13 | Toyota Central R&D Labs Inc | 対話処理装置、応答文生成方法、及び応答文生成処理プログラム |
-
2011
- 2011-05-26 JP JP2011118167A patent/JP5650587B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002041411A (ja) * | 2000-07-28 | 2002-02-08 | Nippon Telegr & Teleph Corp <Ntt> | テキスト読み上げロボット、その制御方法及びテキスト読み上げロボット制御プログラムを記録した記録媒体 |
JP2002055925A (ja) * | 2000-08-07 | 2002-02-20 | Hitachi Ltd | 音声読み上げ装置および情報処理装置 |
JP2006227589A (ja) * | 2005-01-20 | 2006-08-31 | Matsushita Electric Ind Co Ltd | 音声合成装置および音声合成方法 |
JP2007011308A (ja) * | 2005-05-30 | 2007-01-18 | Kyocera Corp | 文書表示装置及び文書読み上げ方法 |
JP2007271655A (ja) * | 2006-03-30 | 2007-10-18 | Brother Ind Ltd | 感情付加装置、感情付加方法及び感情付加プログラム |
JP2008276543A (ja) * | 2007-04-27 | 2008-11-13 | Toyota Central R&D Labs Inc | 対話処理装置、応答文生成方法、及び応答文生成処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP5650587B2 (ja) | 2015-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2016216737B2 (en) | Voice Authentication and Speech Recognition System | |
CN105304080B (zh) | 语音合成装置及方法 | |
Yamagishi et al. | Acoustic modeling of speaking styles and emotional expressions in HMM-based speech synthesis | |
US6970820B2 (en) | Voice personalization of speech synthesizer | |
Athanaselis et al. | ASR for emotional speech: clarifying the issues and enhancing performance | |
US11282503B2 (en) | Voice conversion training method and server and computer readable storage medium | |
JP2007249212A (ja) | テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ | |
US20090254349A1 (en) | Speech synthesizer | |
US8447603B2 (en) | Rating speech naturalness of speech utterances based on a plurality of human testers | |
CN103778912A (zh) | 引导式说话人自适应语音合成的系统与方法及程序产品 | |
US11443731B2 (en) | Systems and methods for generating synthesized speech responses to voice inputs by training a neural network model based on the voice input prosodic metrics and training voice inputs | |
WO2021123792A1 (en) | A Text-to-Speech Synthesis Method and System, a Method of Training a Text-to-Speech Synthesis System, and a Method of Calculating an Expressivity Score | |
US9384728B2 (en) | Synthesizing an aggregate voice | |
CN102473416A (zh) | 音质变换装置及其方法、元音信息制作装置及音质变换系统 | |
Shahin et al. | Talking condition recognition in stressful and emotional talking environments based on CSPHMM2s | |
Pravena et al. | Development of simulated emotion speech database for excitation source analysis | |
JP2016151736A (ja) | 音声加工装置、及びプログラム | |
Shechtman et al. | Synthesis of Expressive Speaking Styles with Limited Training Data in a Multi-Speaker, Prosody-Controllable Sequence-to-Sequence Architecture. | |
CN117690456A (zh) | 一种基于神经网络的小语种口语智能训练方法、系统及设备 | |
JP6330069B2 (ja) | 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現 | |
CN105895079A (zh) | 语音数据的处理方法和装置 | |
KR20210117827A (ko) | 인공지능을 활용한 음성 서비스 제공 시스템 및 제공 방법 | |
CN113990288B (zh) | 一种语音客服自动生成部署语音合成模型的方法 | |
KR20200122916A (ko) | 대화 시스템 및 그 제어 방법 | |
JP5650587B2 (ja) | 音声合成装置、その方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140416 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141113 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5650587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |