JP6433063B2 - 音声加工装置、及びプログラム - Google Patents

音声加工装置、及びプログラム Download PDF

Info

Publication number
JP6433063B2
JP6433063B2 JP2014240094A JP2014240094A JP6433063B2 JP 6433063 B2 JP6433063 B2 JP 6433063B2 JP 2014240094 A JP2014240094 A JP 2014240094A JP 2014240094 A JP2014240094 A JP 2014240094A JP 6433063 B2 JP6433063 B2 JP 6433063B2
Authority
JP
Japan
Prior art keywords
processing
difference information
speech
difference
spectrum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014240094A
Other languages
English (en)
Other versions
JP2016102860A (ja
Inventor
今井 篤
篤 今井
信正 清山
信正 清山
都木 徹
徹 都木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
NHK Engineering System Inc
Original Assignee
Japan Broadcasting Corp
NHK Engineering System Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp, NHK Engineering System Inc filed Critical Japan Broadcasting Corp
Priority to JP2014240094A priority Critical patent/JP6433063B2/ja
Publication of JP2016102860A publication Critical patent/JP2016102860A/ja
Application granted granted Critical
Publication of JP6433063B2 publication Critical patent/JP6433063B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、音声加工装置、及びプログラムに関する。
音声の感情表現は、主として韻律と声質により表現される。そのため、韻律と声質を適当に組み合わせて制御することで、特に感情が込められていない平静な音声を、意図する感情表現を付与した音声に加工することができる。従来の音声合成の技術では、感情のこもった音声である感情音声の韻律や声質を規則化したモデルによって予測し、その予測に従って元の音声を加工する方法が一般的に用いられていた。しかし、近年は、特定の感情で発話された音声の大規模なデータベースから統計的に音素の特徴量の並びを生成し、音声合成器でフィルタリングして韻律と声質を区別することなく、感情音声に変換する方法が一般的である(例えば、非特許文献1参照)。具体的には、話者ごとに、同じ発話内容の平静な発話と特定の感情を込めた発話の対のデータベースを用意する。そして、このデータベースから平静な発話と特定の感情を込めた発話のそれぞれについて韻律と声質の変化の特徴を統計的に機械学習したモデルを利用して加工ターゲットを作成し、この加工ターゲットに基づいて音声を変換する。この統計量には、韻律と声質の両方の情報が反映されており、用意したデータベースの発話の特徴をよく反映した感情表現で音声合成される。従って、一つのデータベースによって合成される声の特徴は限定的である。
また、感情音声の主として声質の制御を目的とした技術に、混合ガウス分布(GMM:Gaussian Mixture Model)に基づく音声加工法がある。この技術では、平静音声のスペクトルからGMMを求め、そのGMMの各混合における回帰行列を、同一発話内容の平静音声と感情音声の回帰分析によって算出し、声質の変換規則とする。また、機械学習した混合ガウス分布に基づく声質加工法を、音声分析合成方式に適用して声質変換を行う技術もある(例えば、非特許文献1参照)。
岩見 洋平、戸田 智基、川波 弘道、猿渡 洋、鹿野 清宏、"GMMに基づく声質変換を用いた感情音声合成"、一般社団法人電子情報通信学会、電子情報通信学会技術研究報告.SP,音声 102(619)、2003年1月、p.11−16
感情音声加工技術に関しては、近年、提供情報に相応しい口調を実現する音声合成技術が求められている。例えば、注意喚起のような用途であれば、平静音声よりも少し語気を強め、自然災害時の緊急警報のような用途であれば、それよりもさらに強い、切迫感のある口調で読み上げることが考えられる。
従来のデータベース利用の技術では、特定話者による特定の感情表現(すなわち、口調)を品質良く合成することができる。しかし、より怒った口調にするなど表現の程度を調整したい場合には、所望の感情強度で構成されたデータベースを新たに用意する必要があり、表現の拡張性に課題がある。このように従来技術では、表現の幅という点において自由度が小さく、より実用的な感情音声の加工が求められている。
本発明は、このような事情を考慮してなされたもので、平静音声を幅広い感情表現の音声に加工することができる音声加工装置、及びプログラムを提供する。
本発明の一態様は、音声のパワーまたは基本周波数、あるいは、音声のパワー及び基本周波数の組み合わせにおける音響特徴量の変化量に対応した段階別に、平静音声と感情音声との母音のスペクトルの差分を示す段階別スペクトル差分情報を記憶する加工規則記憶部と、韻律を制御して平静音声を感情音声に加工するための音響特徴量の変換指示値を出力する韻律変換指示値出力部と、韻律変換指示値出力部から出力された前記変換指示値に対応した段階の前記段階別スペクトル差分情報を前記加工規則記憶部から読み出す差分情報取得部と、前記差分情報取得部が読み出した前記段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工する差分情報加工部と、前記差分情報加工部がスペクトルの差分の大きさを加工して得た前記段階別スペクトル差分情報を用いて、前記平静音声に含まれる母音のスペクトルを加工し、感情音声を生成する音声加工部と、を備えることを特徴とする音声加工装置である。
この発明によれば、音声加工装置は、音響特徴量の変化量に対応した段階別に、平静音声と感情音声の母音のスペクトルの差分を示す段階別スペクトル差分情報を記憶する。音響特徴量には、音声のパワーまたは基本周波数、あるいは、音声のパワー及び基本周波数が用いられる。音声加工装置は、韻律を制御して平静音声を感情音声に加工するための音響特徴量の変換指示値に対応した段階の段階別スペクトル差分情報を選択し、選択した段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工する。音声加工装置は、加工した段階別スペクトル差分情報を用いて、平静音声に含まれる母音のスペクトルを加工し、感情音声を生成する。
これにより、音声加工装置は、柔軟かつ簡便に、感情の程度に応じて平静音声の母音の声質を変化させ、幅広い感情表現の音声に加工することができる。
本発明の一態様は、上述する音声加工装置であって、前記加工規則記憶部は、1または複数の母音に対応して段階別に前記段階別スペクトル差分情報を記憶し、前記差分情報取得部は、前記変換指示値に対応した段階の各母音の前記段階別スペクトル差分情報を前記加工規則記憶部から読み出し、前記差分情報加工部は、前記差分情報取得部が読み出した各母音の前記段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工し、前記音声加工部は、前記平静音声に含まれる母音のスペクトルを、前記差分情報加工部がスペクトルの差分の大きさを加工して得た前記段階別スペクトル差分情報のうち前記母音に対応した前記段階別スペクトル差分情報により加工して感情音声を生成する、ことを特徴とする。
この発明によれば、音声加工装置は、母音ごとにあるいは母音のグループ別に音響特徴量の変化量に対応した段階別の段階別スペクトル差分情報を記憶する。音声加工装置は、平静音声のスペクトルに含まれる母音を、母音別に加工して、あるいは、母音別の音韻によりグルーピング、または母音を適当にグルーピングし、そのそれぞれのグループに対して同一の規則で加工して感情音声を生成する。
これにより、音声加工装置は、母音ごとのスペクトルの加工規則を適用して感情的な音声の声質を生成したり、母音のグループごとにスペクトルの加工規則を適用して処理の負荷を低減しながら感情的な音声の声質を生成したりすることができる。
本発明の一態様は、上述する音声加工装置であって、平静音声と感情音声のスペクトルの差分を母音ごとに取得する差分取得部と、母音ごとに、前記差分取得部が取得した前記差分を、前記平静音声と前記感情音声の前記音響特徴量の差分の大きさに基づいて複数のクラスタに分類するクラスタリング部と、母音ごとに、前記クラスタに対応した段階の段階別スペクトル差分情報を、前記クラスタに属する前記差分を用いて生成し、前記加工規則記憶部に書き込む加工規則生成部とを備える、ことを特徴とする。
この発明によれば、音声加工装置は、母音ごとに、平静音声と感情音声のスペクトルの差分をそれらの音響特徴量の差分の大きさに応じてクラスタリングし、クラスタリングされたスペクトルの差分からクラスタに対応した段階の段階別スペクトル差分情報を生成する。
これにより、音声加工装置は、平静音声の声質を加工して感情音声を生成するための母音のスペクトルの加工規則を生成することができる。
本発明の一態様は、上述する音声加工装置であって、前記加工規則生成部は、母音ごとに、異なる段階の段階別スペクトル差分情報の間を内挿補間して、前記異なる段階の間の段階の段階別スペクトル差分情報を生成する、ことを特徴とする。
この発明によれば、音声加工装置は、平静音声と感情音声の音素のスペクトルの差分をそれらの音声の音響特徴量の差分の大きさに応じてクラスタリングし、クラスタリングした結果から生成された異なる段階の段階別スペクトル差分情報の間を内挿補間して、それらの間の段階の段階別スペクトル差分情報を生成する。
これにより、音声加工装置は、平静音声を感情音声に加工するための加工規則を簡易に生成することができる。
本発明の一態様は、コンピュータを、音声のパワーまたは基本周波数、あるいは、音声のパワー及び基本周波数の組み合わせにおける音響特徴量の変化量に対応した段階別に、平静音声と感情音声との母音のスペクトルの差分を示す段階別スペクトル差分情報を記憶する加工規則記憶手段と、韻律を制御して平静音声を感情音声に加工するための音響特徴量の変換指示値を出力する韻律変換指示値出力手段と、韻律変換指示値出力手段から出力された前記変換指示値に対応した段階の前記段階別スペクトル差分情報を前記加工規則記憶手段から読み出す差分情報取得手段と、前記差分情報取得手段が読み出した前記段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工する差分情報加工手段と、前記差分情報加工手段がスペクトルの差分の大きさを加工して得た前記段階別スペクトル差分情報を用いて、前記平静音声に含まれる母音のスペクトルを加工し、感情音声を生成する音声加工手段と、を具備する音声加工装置として機能させるためのプログラムである。
本発明によれば、平静音声を幅広い感情表現の音声に加工することができる。
本発明の一実施形態による音声加工装置の機能ブロック図である。 同実施形態による音声加工装置の加工規則生成処理を示す処理フローである。 同実施形態による音声加工装置の指標別加工規則生成処理を示す処理フローである。 同実施形態によるパワー差分を指標としたクラスタを示す図である。 同実施形態による2つのクラスタの平静音声と感情音声のスペクトル差分の概形変化を示す図である。 同実施形態によるクラスタ間の段階に対応した段階別スペクトル差分情報の生成を説明するための図である。 同実施形態による音声加工装置の音声加工処理を示す処理フローである。
以下、図面を参照しながら本発明の実施形態を詳細に説明する。
本実施形態の音声加工装置は、特に感情が込められていない平静音声に対して、意図した感情表現を付与した加工を行い、感情音声を生成する。平静音声は、人が実際に発声したものでもよく、合成音声でもよい。実際の発話の感情音声には、韻律の変化だけではなく声質の変化も伴う。従って、声の大きさや高さの変化などの従来と同様の韻律の加工に加え、韻律の変化に応じて平静音声の声質を変化させることにより、韻律だけを加工した場合よりも提供情報に相応しい口調の感情表現を付加することができる。しかし、一口に感情表現といっても多様である。同じ「怒り」の感情音声であっても、例えば、程度が強い怒りの口調と、程度が低い怒りとして表現できる語気が強い程度の口調は異なる。また、語気が強い口調よりも怒りの程度を強くすることで、切迫感のある口調とすることもできる。明るいトーンの口調や暗いトーンの口調を、「喜び」の程度や「怒り」の程度を変えることで実現することもできる。本実施形態の音声加工装置は、韻律と声質のうち、声質を柔軟にかつ簡便に制御することで、感情の種類に加え、その感情の程度までを加味して平静音声を加工し、表現できる感情表現の幅を拡大する。
声質の制御は、音声のスペクトルを加工することにより実現される。本実施形態による音声加工装置は、日本語において、特に音声の聞こえに影響が大きい母音に着目し、同一発話内容の平静音声と感情音声の母音ごとの平均的なスペクトルの特徴に基づいて、平静音声に対して感情音声の声質を与える母音スペクトルの加工規則を生成する。上述したように本実施形態の音声加工装置は声質の加工を行うものであるが、感情音声の加工には韻律制御が不可欠である。韻律制御においては、感情に応じて声の大きさを表すパワーや、声の高さに関係する基本周波数の加工指示値が与えられる。本実施形態の音声加工装置は、これらの加工指示値に基づいて、平静音声の母音スペクトルに感情音声の声質を与えるための母音スペクトルの加工規則を適用して加工を行い、声質を制御する。韻律制御には既存の任意の方法を用いることができる。
母音スペクトルを加工するために、本実施形態の音声加工装置は、平静音声と感情音声の対からなるデータベースを用いて、平静音声と感情音声のスペクトルの変化の差分情報を母音ごとに求める。本実施形態の音声加工装置は、それら母音ごとの差分情報を、平静音声と感情音声間の音響特徴量の変化量(差分の大きさ)を指標としてクラスタリングする。指標となる音響特徴量の変化量には、パワーの差分または基本周波数の差分、あるいは、それら両者を加味した値を用いる。本実施形態の音声加工装置は、クラスタリングされた差分情報に基づいて、音響特徴量の変化量に対応した段階別のスペクトル差分情報を母音ごとに求める。本実施形態の音声加工装置は、韻律制御により加工対象の平静音声に対して指示されたパワーや基本周波数などの変換指示値がいずれの段階に対応するかを判断する。本実施形態の音声加工装置は、変換指示値が対応する段階の各母音のスペクトル差分情報に感情の程度に応じた係数を乗算し、スペクトルの差分の大きさを加工する。本実施形態の音声加工装置は、平静音声における母音のスペクトルに、スペクトルの差分の大きさが加工されたその母音のスペクトル差分情報を加算して感情音声を生成する。
図1は、本発明の一実施形態による音声加工装置1の構成を示す機能ブロック図であり、本実施形態と関係する機能ブロックのみを抽出して示してある。同図に示すように、音声加工装置1は、平静音声記憶部11、感情音声記憶部12、音響分析部13、加工規則記憶部14、指示入力部21、平静音声入力部22、韻律変換指示値出力部23、差分情報取得部24、差分情報加工部25、音声加工部26、及び感情音声出力部27を備えて構成される。同図において、音声加工装置1は、n個の加工規則記憶部14を備える(nは1以上の整数)。i番目(iは1以上n以下の整数)の加工規則記憶部14を、加工規則記憶部14−iと記載する。n個の加工規則記憶部14はそれぞれ、1種類または複数種類の感情に対応する。例えば、感情の種類は、「喜び」、「怒り」、「悲しみ」、「楽しみ」、…など、任意とすることができる。これらの感情の種類それぞれについて加工規則記憶部14を設けることもできるが、例えば、「喜び」と「楽しみ」の感情音声が類似している場合、これらの感情が1つの加工規則記憶部14に対応するようにしてもよい。
平静音声記憶部11は、学習用平静音声データを記憶するデータベースである。学習用平静音声データは、話者が感情を込めずに発話した平静音声の音声データである。学習用平静音声データには、いずれの音素の発話の部分であるかを表すラベルが音素単位で付与されている。音素の音響特徴量は、その音素の前後の音素の影響を受ける。そこで、学習用平静音声データには、様々な音素の並びがバランスよく含まれる音素バランス文の発話を用いることが望ましい。
感情音声記憶部12は、各感情の学習用感情音声データを記憶するデータベースである。学習用感情音声データは、学習用平静音声データと同じ話者が同じ発話内容を、感情を込めて発話した感情音声の音声データである。学習用平静音声データには、いずれの音素の発話部分であるかを表すラベルが音素単位で付与されている。なお、学習用感情音声データは、同一話者の対であることが望ましいが、話者適応を行えば学習用平静音声データと異なる話者の感情音声の音声データも用いることができる。
音響分析部13は、差分取得部131、クラスタリング部132、及び加工規則生成部133を備える。
差分取得部131は、平静音声記憶部11から読み出した学習用平静音声データと感情音声記憶部12から読み出した学習用平静音声データのスペクトルの差分であるスペクトル差分情報を母音ごとに取得する。なお、差分取得部131は、学習用平静音声データや学習用感情音声データから各母音のスペクトルを取得する際には、母音の音素が付加された音声区間の中でもパワーが安定している部分のスペクトルを取得する。
クラスタリング部132は、母音ごとに、差分取得部131が取得したスペクトル差分情報をクラスタリングする処理を、加工規則記憶部14−1〜14−nのそれぞれに対応した感情別に行う。クラスタリング部132は、クラスタリングを行うための指標に、学習用平静音声データと学習用感情音声データとの間の音響特徴量の変化量を用いる。音響特徴量の変化量は、パワーの差分、または、基本周波数の差分、あるいは、パワーの差分と基本周波数の差分を混合した組み合わせで表され、クラスタリング部132は、異なる音響特徴量を用いた指標ごとにクラスタリングを行う。クラスタの数は任意であり、予め設定された値を用いてもよく、指示入力部21により入力された値を用いてもよい。例えば、平均値のクラスタ、平均値よりも差分が大きい1つまたは2つのクラスタ、平均値よりも差分が小さい1つまたは2つのクラスタのように、3〜5程度のクラスタとすることが考えられる。クラスタの数は、予め設定された値を用いてもよく、指示入力部21により入力された値を用いてもよい。
加工規則生成部133は、クラスタリングされたスペクトル差分情報に基づいて各母音の段階的なスペクトル差分情報を生成する処理を、加工規則記憶部14−1〜14−nのそれぞれに対応した感情別に行う。各段階のそれぞれに対応したスペクトル差分情報を、「段階別スペクトル差分情報」と記載する。加工規則生成部133は、感情別に生成した各母音の段階的な段階別スペクトル差分情報を、感情に対応した加工規則記憶部14に母音スペクトルの加工規則として書き込む。段階の数は、予め設定された値を用いてもよく、指示入力部21により入力された値を用いてもよい。
加工規則記憶部14は、第1加工規則記憶部141、第2加工規則記憶部142、及び第3加工規則記憶部143を備える。
第1加工規則記憶部141は、パワーの差分を指標としてクラスタリングされたスペクトル差分情報に基づいて加工規則生成部133が生成した母音スペクトルの加工規則を記憶する。第2加工規則記憶部142は、基本周波数の差分を指標としてクラスタリングされたスペクトル差分情報に基づいて加工規則生成部133が生成した母音スペクトルの加工規則を記憶する。第3加工規則記憶部143は、パワーの差分及び基本周波数の差分を指標としてクラスタリングしたスペクトル差分情報に基づいて加工規則生成部133が生成した母音スペクトルの加工規則を記憶する。
指示入力部21は、感情の種類、感情の程度、平静音声の発話内容のテキストデータ、及び指標の種類の入力を受ける。
平静音声入力部22は、感情音声に加工する対象の平静音声データを入力する。平静音声データは、指示入力部21に入力されたテキストデータが示す発話内容を人が実際に発話したときの平静音声の音声データでもよく、テキストデータが示す発話内容から音声合成により生成した音声データでもよい。
韻律変換指示値出力部23は、指示入力部21により入力された感情の種類に対応した韻律モデルに基づいて、指示入力部21により入力された発話内容のテキストデータに対する韻律制御情報を生成する。韻律を制御して平静音声を感情音声に加工するための韻律制御情報は、発話内容における制御区間と、その制御区間における音響特徴量の変換指示値を含む。音響特徴量の変換指示値は、制御区間においてパワーをどのように変化させるかのパワー変換指示値と、基本周波数をどのように変化させるかの基本周波数変換指示値とを含む。変換指示値は、パワー変換指示値と基本周波数変換指示値のいずれかのみでもよい。韻律変換指示値出力部23は、生成した韻律制御情報を差分情報取得部24に出力する。
差分情報取得部24は、韻律制御情報が示す各制御区間の音響特徴量の変換指示値に対応した段階の各母音の段階別スペクトル差分情報を、指示入力部21により入力された感情に対応した加工規則記憶部14から読み出す。差分情報取得部24は、指示入力部21により入力された指標の種類がパワーである場合は、段階別スペクトル差分情報を第1加工規則記憶部141から読み出し、指標の種類が基本周波数である場合は、段階別スペクトル差分情報を第2加工規則記憶部142から読み出す。また、差分情報取得部24は、指標の種類がパワー及び基本周波数である場合は、段階別スペクトル差分情報を第3加工規則記憶部142から読み出す。差分情報取得部24は、韻律制御情報が示す制御区間と、その制御区間について読み出した各母音の段階別スペクトル差分情報を音声加工部26に出力する。
差分情報加工部25は、指示入力部21により入力された感情の程度に応じて、差分情報取得部24が取得した段階別スペクトル差分情報のスペクトルの差分の大きさを変更し、スペクトル加工情報を生成する。例えば、差分情報加工部25は、感情の程度に応じた係数β(0<β≦1)を段階別スペクトル差分情報に乗算してスペクトル加工情報を生成する。係数βは、感情の程度が高いほど1に近い値であり、感情の程度が低いほど0に近い値である。感情の程度として係数βが入力されてもよい。差分情報加工部25は、制御区間と、その制御区間の各母音について段階別スペクトル差分情報から生成したスペクトル加工情報とを音声加工部26に出力する。
音声加工部26は、制御区間ごとに、平静音声データに含まれる母音のスペクトルに、その母音のスペクトル加工情報を加算して感情音声データを生成する。
感情音声出力部27は、音声加工部26が生成した感情音声データを出力する。
図2は、音声加工装置1の加工規則生成処理を示す処理フローである。
差分取得部131は、平静音声記憶部11から学習用平静音声データを読み出す。差分取得部131は、読み出した学習用平静音声データから、/a/、/i/、/u/、/e/、/o/などの母音の音素が付加された音声区間それぞれから母音のスペクトルを取得する(ステップS105)。
差分取得部131は、加工規則記憶部14の番号を表す変数iに初期値1を設定する(ステップS110)。差分取得部131は、i番目の加工規則記憶部14−iに対応した感情の学習用感情音声データを感情音声記憶部12から読み出す。差分取得部131は、読み出した学習用感情音声データから母音の音素が付加された各音声区間それぞれから母音のスペクトルを取得する(ステップS115)。
差分取得部131は、全ての母音のうち未選択の母音を1つ選択する(ステップS120)。以下では、選択した母音を、「処理対象母音」と記載する。差分取得部131は、処理対象母音の加工規則を生成し、加工規則記憶部14−iに書き込む(ステップS125)。この処理の詳細な説明は、図3を用いて後述する。
差分取得部131は、全ての母音を選択したか否かを判断する(ステップS130)。差分取得部131は、未選択の母音の音素があると判断した場合(ステップS130:NO)、ステップS120からの処理を繰り返す。そして、差分取得部131は、全ての母音を選択したと判断した場合(ステップS130:YES)、iがn以上であるか否かを判断する(ステップS135)。
差分取得部131は、iがn未満であると判断した場合(ステップS135:NO)、現在のiの値に1を加算してステップS115からの処理を繰り返す(ステップS140)。そして、差分取得部131は、iがn以上であると判断した場合(ステップS140:NO)、処理を終了する。
図3は、音声加工装置1の指標別加工規則生成処理を示す処理フローであり、図2のステップS125における詳細な処理を示す。
差分取得部131は、学習用平静音声データから取得した処理対象母音のスペクトルのそれぞれと、学習用感情音声データから取得した処理対象母音のスペクトルそれぞれとの差分を求める(ステップS205)。例えば、処理対象母音が/a/であり、/a/のラベルが付与された学習用平静音声データのj個の音声区間のそれぞれからスペクトルa11、a12、…、a1jが得られたとする。また、/a/のラベルが付与された学習用感情音声データのj個の音声区間それぞれからスペクトルa21、a22、…、a2jが得られたとする。この場合、差分取得部131は、(a11,a21)、(a11,a22)、…、(a11,a2j)、(a12,a21)、(a12,a22)、…、(a12,a2j)、…、(a1j,a21)、(a1j,a22)、…、(a1j,a2j)の組み合わせを生成する。差分取得部131は、生成した組み合わせのそれぞれについてスペクトル差分を求める。スペクトルの差分は、スペクトル包絡(Mel-Generalized Cepstrum:MGC)間のユークリッド距離を計算して得られる。差分取得部131、各組み合わせについて求めたスペクトル差分を示すスペクトル差分情報を、クラスタリング部132に出力する。
クラスタリング部132は、ステップS205において差分取得部131が各組み合わせについて生成したスペクトル差分情報を、パワーの差分を指標に用いてクラスタリングする(ステップS210)。スペクトル差分情報が、学習用平静音声データの/a/のスペクトルa1p(pは1以上j以下の整数)と、学習用感情音声データの/a/のスペクトルa2q(qは1以上j以下の整数)との差分であるとする。このスペクトル差分情報の指標は、スペクトルa1pのパワーとスペクトルa2qのパワーの差分である。指標は、パワーの変化が大きいほど大きな値となる。
加工規則生成部133は、ステップS210においてクラスタリングされたスペクトル差分情報に基づいて、指標に応じた各段階の処理対象母音の段階別スペクトル差分情報を生成する(ステップS215)。加工規則生成部133は、同じクラスタに属するスペクトル差分情報の平均を段階別スペクトル差分情報とする。
図4は、パワー差分を指標としたクラスタを示す図である。パワーのダイナミックレンジは話者によって異なるため、各話者の最大振幅を基にレンジを正規化する。その上で、同図においては、パワーの差分が中央値から+10〜+30%に分散するパワー差分大のクラスタと−10〜−30%に分散するパワー差分小の2つのクラスタに分類している。
図5は、図4に示す2つのクラスタの平静音声と感情音声のスペクトル差分の概形変化を示す図である。同図においては、母音/o/のスペクトル差分を示している。符号d1は、パワー差分大のクラスタに属するスペクトル差分の平均であり、パワー差分大に対応した段階の段階別スペクトル差分情報となる。符号d2は、パワー差分小のクラスタに属するスペクトル差分の平均であり、パワー差分化小に対応した段階の段階別スペクトル差分情報となる。
加工規則生成部133は、図4のようにクラスタリング部132がパワー差分を指標としてクラスタリングした2つのクラスタから、図5に示すようにパワー差分大とパワー差分小の対応した2段階の段階別スペクトル差分情報を生成する。なお、クラスタの数が3以上の場合も同様に指標(クラスタ)に対応した段階の段階別スペクトル差分情報を生成することができる。
図3において、加工規則生成部133は、ステップS215において生成された各段階の段階別スペクトル差分情報を、処理対象母音を示す情報と対応付けて加工規則記憶部14−iの第1加工規則記憶部141に登録する(ステップS220)。
クラスタリング部132は、ステップS205において差分取得部131が各組み合わせについて生成したスペクトル差分情報を、基本周波数の差分を指標に用いてクラスタリングする(ステップS225)。上記の例の場合、スペクトルa1pとスペクトルa2qのスペクトル差分情報の指標は、スペクトルa1pが得られた音素のラベルが付与されている部分の学習用平静音声データから得られた基本周波数と、スペクトルa2qが得られた音素のラベルが付与されている部分の学習用感情音声データから得られた基本周波数の差分である。基本周波数の算出は、任意の既存の方法を用いることができる。指標は、基本周波数の変化が大きいほど大きな値となる。
加工規則生成部133は、ステップS220においてクラスタリングされたスペクトル差分情報に基づいて、ステップS215と同様に、指標に応じた各段階の処理対象母音の段階別スペクトル差分情報を生成する(ステップS230)。加工規則生成部133は、ステップS230において生成された各段階の段階別スペクトル差分情報を、処理対象母音を示す情報と対応付けて加工規則記憶部14−iの第2加工規則記憶部142に登録する(ステップS235)。
クラスタリング部132は、ステップS205において差分取得部131が各組み合わせについて生成したスペクトル差分情報を、パワーの差分及び基本周波数の差分を指標に用いてクラスタリングする(ステップS240)。加工規則生成部133は、ステップS240においてクラスタリングされたスペクトル差分情報に基づいて、ステップS215と同様に、指標に応じた各段階の処理対象母音の段階別スペクトル差分情報を生成する(ステップS245)。加工規則生成部133は、ステップS245において生成された各段階の段階別スペクトル差分情報を、処理対象母音を示す情報と対応付けて加工規則記憶部14−iの第3加工規則記憶部143に登録する(ステップS250)。
図6は、クラスタ間の段階に対応した段階別スペクトル差分情報の生成を説明するための図である。同図においては感情が「怒り」であり、母音が/a/である場合を示している。平静音声から感情音声への変化の際に、母音のスペクトルの変化の仕方は、ほぼ相似形であることが観測される場合も多い。そこで、そのような話者の場合は、近似的に、非常に簡単に段階別スペクトル差分情報を生成することができる。つまり、母音のスペクトルの変化の仕方が相似形であるという特徴を生かして、同図に示すように、パワー差分大のクラスタの平均のスペクトル差分から、パワー差分小のクラスタの平均のスペクトルの差分に向かって連続的なスペクトル差分のパターンを生成する。加工規則生成部133は、この規則を各音素に適用し、パワー差分大とパワー差分小の間のパワー変化の大きさに応じた段階の段階別スペクトル差分情報を生成することができる。
例えば、段階別スペクトル差分情報を生成する段階の数をk(kは3以上の整数)とする。同図では、k=3の場合を示している。ステップS215、ステップS230、及びステップS245において、加工規則生成部133は、差分(変化量)が最も大きいクラスタと差分が最も小さいクラスタの2つのクラスタについて、それらクラスタの平均のスペクトル差分情報から段階別スペクトル差分情報を生成する。差分が最も大きいクラスタの平均のスペクトル差分d(1)が段階1の段階別スペクトル差分情報、差分が最も小さいクラスタの平均のスペクトル差分d(k)が段階kの段階別スペクトル差分情報となる。加工規則生成部133は、段階1と段階kの間の段階2〜段階(k−1)の段階別スペクトル差分情報を、スペクトル差分d(1)とスペクトル差分d(k)との間を内挿補間することにより生成する。つまり、加工規則生成部133は、スペクトル差分d1とスペクトル差分dkとの間を補間する(k−2)個のスペクトル差分を生成する。加工規則生成部133は、生成した(k−2)個のスペクトル差分を、スペクトル差分d(1)に近い順に、段階2〜段階(k−1)の段階別スペクトル差分情報とする。
このように段階別スペクトル差分情報を生成することにより、韻律制御情報で指示された全てのパワーの変換指示値や基本周波数の変換指示値に応じた声質の特徴を平静音声に付与することができる。
図7は、音声加工装置1の音声加工処理を示す処理フローである。
指示入力部21は、感情の種類、感情の程度、及び指標の種類の入力を受ける(ステップS305)。さらに、指示入力部21は、発話内容のテキストデータの入力を受ける(ステップS310)。平静音声入力部22は、平静音声データを入力する(ステップS315)。韻律変換指示値出力部23は、指示入力部21により入力された感情に対応した韻律制御モデルを用いて、指示入力部21により入力された発話内容のテキストデータに対する韻律制御情報を出力する(ステップS320)。例えば、韻律制御情報には、発話内容のxi〜x(i+1)の区間はパワー変換指示値がpiであり、基本周波数変換指示値がfiであることが設定される。
韻律制御モデルは、任意の既存の技術を用いることができる。例えば、韻律制御モデルとして以下の参考文献に記載の技術を用いることができる。この技術では、テキストデータに形態素解析及び係り受け解析を行い、さらに、読みとアクセントを付与するテキスト処理を行う。読みの付与では、読みの決定、音便化処理、母音無性化処理が行われる。また、アクセスの付与では、アクセント句を構成する個々の形態素のアクセント型と、アクセント句の境界及びアクセント型を決定する。このテキスト処理の結果に基づいて、HMM(Hidden Markov Model、隠れマルコフモデル)に基づく音声合成アルゴリズムを利用し、基本周波数、パワーなどの韻律制御情報を得る。
(参考文献)河井 恒、他7名、「大規模コーパスを用いた音声合成システムXIMERA」、一般社団法人電子情報通信学会、電子情報通信学会論文誌 D、Vol.J89−D、No.12、2006年、p.2688−2698
差分情報取得部24は、韻律制御情報が示す各制御区間の音響特徴量の変換指示値に対応する段階の各音素の段階別スペクトル差分情報を、指示入力部21により入力された感情に対応した加工規則記憶部14から読み出す(ステップS325)。差分情報取得部24は、指示入力部21により入力された指標の種類がパワーである場合は、各制御区間のパワー変換指示値piに対応した段階の段階別スペクトル差分情報を第1加工規則記憶部141から読み出す。また、差分情報取得部24は、指示入力部21により入力された指標の種類が基本周波数である場合は、各制御区間の基本周波数変換指示値fiに対応した段階の段階別スペクトル差分情報を第2加工規則記憶部142から読み出す。また、差分情報取得部24は、指示入力部21により入力された指標の種類がパワー及び基本周波数である場合は、各制御区間のパワー変換指示値pi及び基本周波数変換指示値fiを用いて以下の式(1)により算出した指標値に対応した段階の段階別スペクトル差分情報を第3加工規則記憶部142から読み出す。
この指標値は、パワーの変化の特徴だけでもなく、基本周波数の変化の特徴だけでもなく、その両方の動きの特徴を加味した混合指標の値である。従って、パワー変化が大きく、かつ、基本周波数変化が大きいほど大きな指標値を与え、その逆の場合はより小さな指標値を与える。そこで、差分情報取得部24は、韻律制御情報により示される基本周波数とパワーの時間変化をそれぞれ10Hz程度でスムージングし、スムージング後の振幅を対数変換する。差分情報取得部24は、対数変換により得られた値を用い、中央値を1として振幅を0〜2に正規化する。基本周波数の振幅を正規化した値をPt、パワーの振幅を正規化した値をPoとする。差分情報取得部24は、以下の式(1)により、Pt及びPoを同じ重み付けで加算し、指標値を得る。
指標値=Pt0.5×Po0.5 …(1)
差分情報加工部25は、各制御区間について差分情報取得部24が取得した段階別スペクトル差分情報に、指示入力部21により入力された感情の程度に応じた係数β(0<β≦1)を乗算し、スペクトル加工情報を生成する(ステップS330)。例えば、感情の程度を表す段階別に係数βの値を予め決めておき、差分情報加工部25は、入力された感情の程度を表す段階に対応した係数βを用いる。
音声加工部26は、平静音声データに含まれる母音のスペクトルに、その母音が含まれる制御区間について差分情報加工部25が生成したスペクトル加工情報のうち、その母音のスペクトル加工情報を加算して感情音声データを生成する(ステップS335)。これにより、韻律の変化を加味した声質の感情音声が逐次生成される。感情音声出力部27は、ステップS335において音声加工部26が生成した感情音声データを出力する(ステップS340)。
上記において、音声加工装置1は、パワーの差分、基本周波数の差分、あるいは、パワーの差分及び基本周波数の差分を指標値としてクラスタリングを行い、各段階の段階別スペクトル差分情報を生成している。これは、パワーを変化させて音声に感情を込める話者、基本周波数を変化させて音声に感情を込める話者、パワー及び基本周波数の両方を変化させて音声に感情を込める話者など、様々な話者がいるためである。そこで、いずれの種類の指標を用いたときの段階別スペクトル差分情報が効果的であるかについては、第1加工規則記憶部141、第2加工規則記憶部142、及び第3加工規則記憶部143それぞれの段階別スペクトル差分情報を利用して感情音声データを生成し、生成した感情音声データの聴覚的な効果を実際に確認して選択する。
また、パワー及び基本周波数の両方を変化させて音声に感情を込める話者であっても、パワーの変化のほうが大きい話者や、基本周波数の変換のほうが大きい話者もいる。その場合、その重みに応じて、式(1)のPtの指数部分と、Poの指数部分とを変更する。Ptの指数部分を0とすることにより、パワーの差分を指標としてクラスタリングしたときの加工規則を用いた場合と同様に平静音声を加工することができる。また、Poの指数部分を0とすることにより、基本周波数の差分を指標としてクラスタリングしたときの加工規則を用いた場合と同様に平静音声を加工することができる。
なお、上記において、音声加工装置1は、母音ごとに各段階の段階別スペクトル差分情報を生成しているが、話者によっては平静音声と感情音声のスペクトル差分が複数の母音で類似している場合がある。この場合、音声加工装置1は、類似した特徴の母音のグループごとに各段階の段階別スペクトル差分情報を生成してもよい。音声加工装置1は、ステップS120において、類似した特徴の複数の母音を選択する。また、平静音声と感情音声のスペクトル差分が全ての母音で類似している場合、音声加工装置1は、全ての母音をまとめて各段階の段階別スペクトル差分情報を生成してもよい。
平静音声と感情音声のスペクトル差分が類似した母音のグループは、ユーザが指示入力部21により入力してもよく、音響分析部13が各母音の平静音声と感情音声のスペクトル差分を算出し、類似性を判断してもよい。
以上説明した実施形態によれば、音声加工装置1は、自然発話や合成音声に対し、感情の種類と、その感情の強さに応じて声質の加工を柔軟かつ簡便に行うことにより、平静音声から所望の感情程度の感情表現の音声を生成することができる。従って、音声加工装置1は、加工できる感情表現の幅を拡大するとともに、音声の加工にかかる処理量及び処理時間を低減し、実用に資することが可能となる。さらに、本実施形態の音声加工装置1は、様々な話し方の特徴を持つ話者に対して、有効な加工方法を選択可能であるという自由度を持ち、多様の発話様式に対して柔軟に適応することができる。
なお、上述の音声加工装置1は、内部にコンピュータシステムを有している。そして、音声加工装置1の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
1 音声加工装置
11 平静音声記憶部
12 感情音声記憶部
13 音響分析部
131 差分取得部
132 クラスタリング部
133 加工規則生成部
14、14−1、14−2、14−n 加工規則記憶部
141 第1加工規則記憶部
142 第2加工規則記憶部
143 第3加工規則記憶部
21 指示入力部
22 平静音声入力部
23 韻律変換指示値出力部
24 差分情報取得部
25 差分情報加工部
26 音声加工部
27 感情音声出力部

Claims (5)

  1. 音声のパワーまたは基本周波数、あるいは、音声のパワー及び基本周波数の組み合わせにおける音響特徴量の変化量に対応した段階別に、平静音声と感情音声との母音のスペクトルの差分を示す段階別スペクトル差分情報を記憶する加工規則記憶部と、
    韻律を制御して平静音声を感情音声に加工するための音響特徴量の変換指示値を出力する韻律変換指示値出力部と、
    韻律変換指示値出力部から出力された前記変換指示値に対応した段階の前記段階別スペクトル差分情報を前記加工規則記憶部から読み出す差分情報取得部と、
    前記差分情報取得部が読み出した前記段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工する差分情報加工部と、
    前記差分情報加工部がスペクトルの差分の大きさを加工して得た前記段階別スペクトル差分情報を用いて、前記平静音声に含まれる母音のスペクトルを加工し、感情音声を生成する音声加工部と、
    を備えることを特徴とする音声加工装置。
  2. 前記加工規則記憶部は、1または複数の母音に対応して段階別に前記段階別スペクトル差分情報を記憶し、
    前記差分情報取得部は、前記変換指示値に対応した段階の各母音の前記段階別スペクトル差分情報を前記加工規則記憶部から読み出し、
    前記差分情報加工部は、前記差分情報取得部が読み出した各母音の前記段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工し、
    前記音声加工部は、前記平静音声に含まれる母音のスペクトルを、前記差分情報加工部がスペクトルの差分の大きさを加工して得た前記段階別スペクトル差分情報のうち前記母音に対応した前記段階別スペクトル差分情報により加工して感情音声を生成する、
    ことを特徴とする請求項1に記載の音声加工装置。
  3. 平静音声と感情音声のスペクトルの差分を母音ごとに取得する差分取得部と、
    母音ごとに、前記差分取得部が取得した前記差分を、前記平静音声と前記感情音声の前記音響特徴量の差分の大きさに基づいて複数のクラスタに分類するクラスタリング部と、
    母音ごとに、前記クラスタに対応した段階の段階別スペクトル差分情報を、前記クラスタに属する前記差分を用いて生成し、前記加工規則記憶部に書き込む加工規則生成部とを備える、
    ことを特徴とする請求項2に記載の音声加工装置。
  4. 前記加工規則生成部は、母音ごとに、異なる段階の段階別スペクトル差分情報の間を内挿補間して、前記異なる段階の間の段階の段階別スペクトル差分情報を生成する、
    ことを特徴とする請求項3に記載の音声加工装置。
  5. コンピュータを、
    音声のパワーまたは基本周波数、あるいは、音声のパワー及び基本周波数の組み合わせにおける音響特徴量の変化量に対応した段階別に、平静音声と感情音声との母音のスペクトルの差分を示す段階別スペクトル差分情報を記憶する加工規則記憶手段と、
    韻律を制御して平静音声を感情音声に加工するための音響特徴量の変換指示値を出力する韻律変換指示値出力手段と、
    韻律変換指示値出力手段から出力された前記変換指示値に対応した段階の前記段階別スペクトル差分情報を前記加工規則記憶手段から読み出す差分情報取得手段と、
    前記差分情報取得手段が読み出した前記段階別スペクトル差分情報のスペクトルの差分の大きさを感情の程度に応じて加工する差分情報加工手段と、
    前記差分情報加工手段がスペクトルの差分の大きさを加工して得た前記段階別スペクトル差分情報を用いて、前記平静音声に含まれる母音のスペクトルを加工し、感情音声を生成する音声加工手段と、
    を具備する音声加工装置として機能させるためのプログラム。
JP2014240094A 2014-11-27 2014-11-27 音声加工装置、及びプログラム Expired - Fee Related JP6433063B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014240094A JP6433063B2 (ja) 2014-11-27 2014-11-27 音声加工装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014240094A JP6433063B2 (ja) 2014-11-27 2014-11-27 音声加工装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2016102860A JP2016102860A (ja) 2016-06-02
JP6433063B2 true JP6433063B2 (ja) 2018-12-05

Family

ID=56088861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014240094A Expired - Fee Related JP6433063B2 (ja) 2014-11-27 2014-11-27 音声加工装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6433063B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021127979A1 (zh) * 2019-12-24 2021-07-01 深圳市优必选科技股份有限公司 语音合成方法、装置、计算机设备及计算机可读存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3062945B1 (fr) * 2017-02-13 2019-04-05 Centre National De La Recherche Scientifique Methode et appareil de modification dynamique du timbre de la voix par decalage en frequence des formants d'une enveloppe spectrale
JP7230545B2 (ja) * 2019-02-04 2023-03-01 富士通株式会社 音声処理プログラム、音声処理方法および音声処理装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2912579B2 (ja) * 1996-03-22 1999-06-28 株式会社エイ・ティ・アール音声翻訳通信研究所 声質変換音声合成装置
JP4654621B2 (ja) * 2004-06-30 2011-03-23 ヤマハ株式会社 音声処理装置およびプログラム
JP4025355B2 (ja) * 2004-10-13 2007-12-19 松下電器産業株式会社 音声合成装置及び音声合成方法
JP2007178686A (ja) * 2005-12-27 2007-07-12 Matsushita Electric Ind Co Ltd 音声変換装置
JP2009186820A (ja) * 2008-02-07 2009-08-20 Hitachi Ltd 音声処理システム、音声処理プログラム及び音声処理方法
JP5316896B2 (ja) * 2010-03-17 2013-10-16 ソニー株式会社 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021127979A1 (zh) * 2019-12-24 2021-07-01 深圳市优必选科技股份有限公司 语音合成方法、装置、计算机设备及计算机可读存储介质

Also Published As

Publication number Publication date
JP2016102860A (ja) 2016-06-02

Similar Documents

Publication Publication Date Title
US10789290B2 (en) Audio data processing method and apparatus, and computer storage medium
JP5768093B2 (ja) 音声処理システム
JP6246777B2 (ja) 音声合成方法、装置及びプログラム
US8898055B2 (en) Voice quality conversion device and voice quality conversion method for converting voice quality of an input speech using target vocal tract information and received vocal tract information corresponding to the input speech
US20200410981A1 (en) Text-to-speech (tts) processing
US11763797B2 (en) Text-to-speech (TTS) processing
JP2007249212A (ja) テキスト音声合成のための方法、コンピュータプログラム及びプロセッサ
US20210335364A1 (en) Computer program, server, terminal, and speech signal processing method
JP2017058513A (ja) 学習装置、音声合成装置、学習方法、音声合成方法、学習プログラム及び音声合成プログラム
JP2018141915A (ja) 音声合成システム、音声合成プログラムおよび音声合成方法
JP2015068897A (ja) 発話の評価方法及び装置、発話を評価するためのコンピュータプログラム
JP6433063B2 (ja) 音声加工装置、及びプログラム
WO2015025788A1 (ja) 定量的f0パターン生成装置及び方法、並びにf0パターン生成のためのモデル学習装置及び方法
JP2016151736A (ja) 音声加工装置、及びプログラム
JP6330069B2 (ja) 統計的パラメトリック音声合成のためのマルチストリームスペクトル表現
JP6373621B2 (ja) 話し方評価装置、話し方評価方法、プログラム
US8478595B2 (en) Fundamental frequency pattern generation apparatus and fundamental frequency pattern generation method
JP5726822B2 (ja) 音声合成装置、方法及びプログラム
JP2015018080A (ja) 音声合成用モデル学習装置と音声合成装置と、それらの方法とプログラム
JP6786065B2 (ja) 音声評定装置、音声評定方法、教師変化情報の生産方法、およびプログラム
Yin An overview of speech synthesis technology
JP7339151B2 (ja) 音声合成装置、音声合成プログラム及び音声合成方法
JP6289950B2 (ja) 読み上げ装置、読み上げ方法及びプログラム
JP6840124B2 (ja) 言語処理装置、言語処理プログラムおよび言語処理方法
JP2015194781A (ja) 定量的f0パターン生成装置、f0パターン生成のためのモデル学習装置、並びにコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181105

R150 Certificate of patent or registration of utility model

Ref document number: 6433063

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees