JP5784075B2 - 信号区間分類装置、信号区間分類方法、およびプログラム - Google Patents
信号区間分類装置、信号区間分類方法、およびプログラム Download PDFInfo
- Publication number
- JP5784075B2 JP5784075B2 JP2013126668A JP2013126668A JP5784075B2 JP 5784075 B2 JP5784075 B2 JP 5784075B2 JP 2013126668 A JP2013126668 A JP 2013126668A JP 2013126668 A JP2013126668 A JP 2013126668A JP 5784075 B2 JP5784075 B2 JP 5784075B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- channels
- digital acoustic
- feature quantity
- sample sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Circuit For Audible Band Transducer (AREA)
Description
[第1実施形態]
図1に例示するように、本形態の信号区間分類装置10は、サンプリング周波数変換部11、信号同期部12、フレーム分割部13、VAD判定部14、S/Nベクトル生成部15(特徴量列取得部)、記憶部16、およびベクトル分類部17(分類部)を有する。本形態の信号区間分類装置10は、例えばCPU(central processing unit)やRAM(random-access memory)等を備える公知のコンピュータに所定のプログラムが読み込まれて構成される特別な装置である。信号区間分類装置10に入力されたデータおよび処理されたデータは、図示していないメモリに格納され、必要に応じて処理部から読み出される。
複数個の観測装置20−1,・・・,20−Kで得られた複数個のチャネルk=1,・・・,Kの入力デジタル音響信号xk(ik)は、サンプリング周波数変換部11に入力される。異なるチャネルkの入力デジタル音響信号xk(ik)は、異なるA/D変換器22−kで得られたものであるため、サンプリング周波数が異なる場合がある。サンプリング周波数変換部11は、すべてのチャネルk=1,・・・,Kの入力デジタル音響信号xk(ik)のサンプリング周波数を任意の同一のサンプリング周波数に揃える。言い換えると、サンプリング周波数変換部11は、複数個のチャネルk=1,・・・,Kの入力デジタル音響信号xk(ik)をサンプリング周波数変換し、特定のサンプリング周波数の変換デジタル音響信号cxk(ik)を複数個のチャネルk=1,・・・,Kについて得る。「特定のサンプリング周波数」は、A/D変換器22−1,・・・,22−Kの何れか一つのサンプリング周波数であってもよいし、その他のサンプリング周波数であってもよい。「特定のサンプリング周波数」の一例は16kHzである。サンプリング周波数変換部11は、各A/D変換器22−kのサンプリング周波数の公称値に基づいてサンプリング周波数変換を行う。すなわち、サンプリング周波数変換部11は、各A/D変換器22−kのサンプリング周波数の公称値でサンプリングされた信号を、特定のサンプリング周波数でサンプリングされた信号に変換する。このようなサンプリング周波数変換は周知である。サンプリング周波数変換部11は、以上のように得た各チャネルkの変換デジタル音響信号cxk(ik)を出力する(ステップS11)。
信号同期部12は、チャネルk=1,・・・,Kの変換デジタル音響信号cx1(i1),・・・,cxK(iK)を入力として受け取る。信号同期部12は、変換デジタル音響信号cx1(i1),・・・,cxK(iK)をチャネルk=1,・・・,K間で同期させ、チャネルk=1,・・・,Kのデジタル音響信号sx1(i1),・・・,sxK(iK)を得て出力する(ステップS12)。以下にこの詳細を説明する。
フレーム分割部13は、同期後のデジタル音響信号sx1(i1),・・・,sxK(iK)を入力として受け取る。フレーム分割部13は、チャネルkごとにデジタル音響信号sxk(ik)を所定の時間区間であるフレームに分割する(ステップS13)。このフレーム分割処理では、フレーム切り出し区間長(フレーム長)L点と切り出し区間のずらし幅m点を任意に決めることができる。ただし、Lおよびmは正整数である。例えば、切り出し区間長を2048点、切り出し区間のずらし幅を256点とする。フレーム分割部13は、チャネルkごとに切り出し区間長のデジタル音響信号sxk(ik)を切り出して出力する。さらにフレーム分割部13は、決められた切り出し区間のずらし幅に従い切り出し区間をずらし、チャネルkごとに上記切り出し区間長のデジタル音響信号sxk(ik)を切り出して出力する処理を繰り返す。以上の処理により、各チャネルkについて各フレームのデジタル音響信号が出力される。以下では、チャネルkのr番目のフレームrに属するデジタル音響信号をsxk(ik,r,0),・・・,sxk(ik,r,L−1)と表現する。
VAD判定部14は、各チャネルkの各フレームrに属するデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)を入力として受け取る。VAD判定部14は、入力されたデジタル音響信号を用い、各チャネルkの各フレームrが音声区間であるか非音声区間であるかを判定する(ステップS14)。VAD判定部14は、例えば参考文献1に記載されたような周知技術を用い、フレームrが音声区間であるか非音声区間であるかの判定を行う。
[参考文献1]Jongseo Sohn, Nam Soo Kim, Wonyong Sung, “A Statistic Model-Based Voice Activity Detection,” IEEE SIGNAL PROCESSING LETTERS, VOL.6, NO.1, 1999.
S/Nベクトル生成部15は、各チャネルkの各フレームrのデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)およびラベルθrを入力として受け取る。S/Nベクトル生成部15は、チャネルkごとに音声区間のデジタル音響信号の大きさを非音声区間のデジタル音響信号の大きさで正規化した特徴量を得、チャネルk=1,・・・,Kに対して得られた特徴量を要素とするS/Nベクトル(特徴量列)を得て出力する(ステップS15)。「特徴量」の例は、非音声区間のデジタル音響信号の大きさに対する音声区間のデジタル音響信号の大きさの比を表す値である。「デジタル音響信号の大きさ」の例は、デジタル音響信号のパワーや絶対値、デジタル音響信号のパワーの平均値や絶対値の平均値、デジタル音響信号のパワーの合計値や絶対値の合計値、それらの正負反転値や関数値などである。「比を表す特徴量」の例は、「非音声区間のデジタル音響信号の大きさに対する音声区間のデジタル音響信号の大きさの比」そのもの、その逆数その他の関数値である。以下では、デジタル音響信号のパワーの平均値を「デジタル音響信号の大きさ」とし、「非音声区間のデジタル音響信号の大きさに対する音声区間のデジタル音響信号の大きさの比」そのものを「特徴量」とした例を示す。
[ステップS151]
S/Nベクトル生成部15は、rを1に初期化する。
S/Nベクトル生成部15は、ラベルθrが音声区間を表すか非音声区間を表すかを判定する。
ラベルθrが非音声区間を表す場合、S/Nベクトル生成部15は、すべてのチャネルk=1,・・・,Kについて、フレームrに属するデジタル音響信号sxk(ik,r,0),・・・,sxk(ik,r,L−1)の平均パワーPN(k,r)を計算し(式(1)参照)、平均パワーPN(k,r)をk番目の要素とする平均パワーベクトルPN(r)=(PN(1,r),・・・,PN(K,r))を記憶部16に格納する。
ラベルθrが音声区間を表す場合、S/Nベクトル生成部15は、記憶部16に格納されている非音声区間のフレームr’の平均パワーベクトルPN(r’)=(PN(1,r’),・・・,PN(K,r’))を取り出す。このフレームr’は処理対象のフレームrに近いことが望ましい。例えば、S/Nベクトル生成部15は、フレームrに最も近い非音声区間のフレームr’の平均パワーベクトルPN(r’)を取り出す。なお、記憶部16には平均パワーベクトルの初期値も格納されている。平均パワーベクトルの初期値の例は、K個の定数(例えば1)を要素とするベクトルなどである。非音声区間の平均パワーベクトルが得られていない場合、S/Nベクトル生成部15は、平均パワーベクトルの初期値を記憶部16から取り出し、それをPN(r’)=(PN(1,r’),・・・,PN(K,r’))とする。
PN(k,r’)で除算することで各チャネルkのデジタル音響信号の平均パワーを正規化し、各チャネルkのマイクロホン21−kの感度の違いによる影響を排除できる。S/Nベクトル生成部15は、得られた正規化平均パワーPV(k,r)をk番目の要素とするS/NベクトルPV(r)=(PV(1,r),・・・,PV(K,r))を出力する。すなわち、S/NベクトルPV(r)は、音声区間のフレームrのみについて出力される。
未処理のデジタル音響信号が存在する場合、S/Nベクトル生成部15はrに1を加算した値を新たなrとし、処理がステップS152に進む。未処理のデジタル音響信号が存在しない場合、S/Nベクトル生成部15の処理を終える。
前述のように、記憶部16は、平均パワーベクトルの初期値、およびS/Nベクトル生成部15で得られた平均パワーベクトルPN(r)を格納する。
ベクトル分類部17は、複数個のS/NベクトルPV(r)(複数個のチャネルに対して得られた特徴量からなる特徴量列)を入力として受け取る。ベクトル分類部17は、入力された複数個のS/NベクトルPV(r)をクラスタリングし、各S/NベクトルPV(r)が属する信号区間分類(クラスタ)を決定する(ステップS17)。ベクトル分類部17は、複数個のS/NベクトルPV(r)(例えば、5秒間に対応する区間でのS/NベクトルPV(r))が入力されるたびに、新たに入力されたS/NベクトルPV(r)をクラスタリング対象に追加してクラスタリングを実行してもよいし、1個のS/NベクトルPV(r)が入力されるたびに、新たに入力されたS/NベクトルPV(r)をクラスタリング対象に追加してクラスタリングを実行してもよい。クラスタリングの例は、教師なし学習であるオンラインクラスタリングなどであり、その一例はleader−followerクラスタリング(例えば、参考文献2参照)である。クラスタリングの指標となる距離にはコサイン類似度を用いることができる。コサイン類似度の距離関数は以下のように定義できる。
ただし、CLは各クラスタのラベルであり、ラベルCLは非音声区間を表すラベルθr(例えば0)以外の値(例えば、1以上の整数)をとる。PCLはクラスタCLの重心ベクトルである。d(CL)はクラスタCLの重心ベクトルPCLと入力されたS/NベクトルPV(r)との距離を表す。PV(r)・PCLはPV(r)とPCLの内積を表し、|PV(r)||PCL|は、PV(r)の大きさ|PV(r)|とPCLの大きさ|PCL|との積を表す。大きさの例は、ユークリッドノルム等のノルムである。コサイン類似度を距離関数とするクラスタリングによって得られたラベルCLが、入力されたS/NベクトルPV(r)が属する信号区間分類を表す。ベクトル分類部17は、入力されたS/NベクトルPV(r)(すなわち、音声区間のフレームrに対応するS/NベクトルPV(r))に対して得られたラベルCLをラベルθrに代入してラベルθrを更新する。これにより、音声区間のフレームrのラベルθrはラベルCLの値となり、非音声区間のフレームrのラベルθrは非音声区間を表す値となる。
[参考文献2]Richard O. Duda, Peter E. Hart, David G. Stork, “Pattern
Classication,” Wiley-Interscience, 2000.
本形態では、音声区間のデジタル音響信号の大きさを非音声区間のデジタル音響信号の大きさで正規化して得られる複数個のS/Nベクトルをクラスタリングする。そのため、自由に配置されたマイクロホン感度が異なる複数個のスマートフォン端末装置、固定電話、ボイスレコーダなどの録音機能をもつ端末装置で録音されたデジタル音響信号から、音源位置に基づいた信号区間分類を行うことができる。区間分類結果を用いて目的音区間とその他の音源区間に分類ができるため、雑音を抑圧し目的音を強調するフィルタの設計のための情報として利用できる。
第1実施形態では、ベクトル分類部17が行うS/NベクトルPV(r)のクラスタリングの一例としてleader−followerクラスタリングを例示した。従来のleader−followerクラスタリングを用いる場合、ベクトル分類部17は、入力されたS/NベクトルPV(r)と各クラスタ(信号区間分類)のクラスタCLの重心ベクトルPCLとの距離を計算する。ここで、S/NベクトルPV(r)と重心ベクトルPCLとの最小距離が閾値を超えない場合、ベクトル分類部17は、入力されたS/NベクトルPV(r)との距離が最小の(最も近い)重心ベクトルPCLを持つクラスタを当該S/NベクトルPV(r)が属するクラスタとして決定し、このクラスタを表すラベルCLをラベルθrに代入してラベルθrを更新する。一方、入力されたS/NベクトルPV(r)と重心ベクトルPCLとの最小距離が閾値を超える場合、ベクトル分類部17はこのS/NベクトルPV(r)が属する新たなクラスタを生成し、このS/NベクトルPV(r)をその新たなクラスタの重心ベクトルPCLとして記憶部16に記憶する。この新たなクラスタを表すラベルCLをラベルθrに代入してラベルθrを更新する。しかしながら、従来のleader−followerクラスタリングでは、適切な閾値は環境によって異なり、閾値が不適切である場合にはクラスタリング性能が大きく劣化してしまうという課題がある。このような課題は、leader−followerクラスタリングに限らず、クラスタリング対象の特徴ベクトルとクラスタの代表値との距離を評価し、距離が閾値を超える場合に新たなクラスタを生成するクラスタリング手法に共通する。
記憶部26は、第1実施形態で説明した平均パワーベクトルの初期値、およびS/Nベクトル生成部15で得られた平均パワーベクトルPN(r)に加え、さらに各クラスタに対して予め定められた基準ベクトルCPCLが格納される。
ベクトル分類部27は、複数個のS/NベクトルPV(r)(複数個のチャネルに対して得られた特徴量からなる特徴量列)を入力として受け取り、さらに予め定められたΩ個のクラスタにそれぞれ対応する基準ベクトルCPCLを記憶部26から抽出する。ベクトル分類部27は、入力されたS/NベクトルPV(r)(特徴量列)との距離が最小の基準ベクトルCPCL(基準特徴量列)に対応するクラスタ(信号区間分類)を当該S/NベクトルPV(r)が属するクラスタに決定し、決定されたクラスタを表すラベルCLをラベルθrに代入してラベルθrを更新する(ステップS27)。なお、S/NベクトルPV(r)と基準ベクトルCPCLとの距離関数に何を用いるかについての限定はないが、例えば、コサイン類似度の距離関数を用いることができる。この場合のS/NベクトルPV(r)と基準ベクトルCPCLとの距離関数d(CL)は、例えば以下のようになる。
S/NベクトルPV(r)は音声区間のフレームrに対応するため、音声区間のフレームrのラベルθrはラベルCLの値となり、非音声区間のフレームrのラベルθrは非音声区間を表す値となる。その他は第1実施形態と同じである。
本形態では、クラスタリングの処理に閾値を用いる必要がないため、閾値の設定によってクラスタリング性能が低下することがない。また、本形態のクラスタリング処理は処理コストが小さく、リアルタイム処理に適している。さらに、1個の要素のみが0以外の値(例えば1)であり、他のK−1個の要素がすべて0のK次元ベクトルを基準ベクトルCPCLとして用いることで、各音源をそれに最も近い観測装置20−kに対応する識別子で区別することができる。その他、本形態でも前述した第1実施形態と同じ作用効果を奏する。
なお、本発明は上述の各実施形態に限定されるものではない。例えば、すべてのチャネルk=1,・・・,KのA/D変換器22−kのサンプリング周波数の公称値が互いに同一であるならば、サンプリング周波数変換部11の処理を行わなくてもよい。この場合には「入力デジタル音響信号」がそのまま「変換デジタル音響信号」として信号同期部12に入力されてもよい。このような場合にはサンプリング周波数変換部11を設けなくてもよい。
20−1〜K 観測装置
Claims (4)
- 複数個のチャネルの入力デジタル音響信号を入力とし、前記複数個のチャネルの入力デジタル音響信号をサンプリング周波数変換し、特定のサンプリング周波数の変換デジタル音響信号を得るサンプリング周波数変換部と、
前記複数個の変換デジタル音響信号について各チャネルから一定時間長のサンプル列をそれぞれ取得し、1つのチャネルのサンプル列を基準サンプル列として、当該基準サンプル列としたチャネル以外のチャネルの非基準サンプル列に対して前記基準サンプル列との相互相関を最大にする遅延量をそれぞれ探索し、前記非基準サンプル列に対して当該遅延量を加えたサンプル列をそれぞれ生成することを前記一定時間長よりも短い時間間隔で前記サンプル列を取得する範囲をシフトさせながら定期的に繰り返すことによって、チャネル間で同期した変換デジタル音響信号を取得する信号同期部と、
チャネルごとに音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさを非音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさで正規化した要素からなるS/Nベクトルである特徴量を得る特徴量列取得部と、
前記複数個のチャネルに対して得られた前記特徴量からなる特徴量列をクラスタリングし、前記特徴量列が属する信号区間分類を決定する分類部と、
を有し、
前記信号区間分類の総数が前記チャネルの総数であり、
前記信号区間分類ごとに基準特徴量列が対応し、
互いに異なる前記信号区間分類に対応する前記基準特徴量列が互いに直交し、前記分類部は、前記特徴量列との距離が最小の前記基準特徴量列に対応する前記信号区間分類を当該特徴量列が属する前記信号区間分類とする、
ことを特徴とする信号区間分類装置。 - 請求項1の信号区間分類装置であって、
前記複数個のチャネルの入力デジタル音響信号のそれぞれは、録音機能を持つ複数個の装置のそれぞれで得られたものである、
ことを特徴とする信号区間分類装置。 - 複数個のチャネルの入力デジタル音響信号を入力とし、前記複数個のチャネルの入力デジタル音響信号をサンプリング周波数変換し、特定のサンプリング周波数の変換デジタル音響信号を得るサンプリング周波数変換ステップと、
前記複数個の変換デジタル音響信号について各チャネルから一定時間長のサンプル列をそれぞれ取得し、1つのチャネルのサンプル列を基準サンプル列として、当該基準サンプル列としたチャネル以外のチャネルの非基準サンプル列に対して前記基準サンプル列との相互相関を最大にする遅延量をそれぞれ探索し、前記非基準サンプル列に対して当該遅延量を加えたサンプル列をそれぞれ生成することを前記一定時間長よりも短い時間間隔で前記サンプル列を取得する範囲をシフトさせながら定期的に繰り返すことによって、チャネル間で同期した変換デジタル音響信号を取得する信号同期ステップと、
チャネルごとに音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさを非音声区間の前記チャネル間で同期した変換デジタル音響信号の大きさで正規化した特徴量を得る特徴量列取得ステップと、
前記複数個のチャネルに対して得られた特徴量からなる特徴量列をクラスタリングし、前記特徴量列が属する信号区間分類を決定する分類ステップと、
を有し、
前記信号区間分類の総数が前記チャネルの総数であり、
前記信号区間分類ごとに基準特徴量列が対応し、
互いに異なる前記信号区間分類に対応する前記基準特徴量列が互いに直交し、前記分類ステップは、前記特徴量列との距離が最小の前記基準特徴量列に対応する前記信号区間分類を当該特徴量列が属する前記信号区間分類とするステップである、
ことを特徴とする信号区間分類方法。 - 請求項1または2の信号区間分類装置の各部としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013126668A JP5784075B2 (ja) | 2012-11-05 | 2013-06-17 | 信号区間分類装置、信号区間分類方法、およびプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012243617 | 2012-11-05 | ||
JP2012243617 | 2012-11-05 | ||
JP2013126668A JP5784075B2 (ja) | 2012-11-05 | 2013-06-17 | 信号区間分類装置、信号区間分類方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014112190A JP2014112190A (ja) | 2014-06-19 |
JP5784075B2 true JP5784075B2 (ja) | 2015-09-24 |
Family
ID=51169354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013126668A Active JP5784075B2 (ja) | 2012-11-05 | 2013-06-17 | 信号区間分類装置、信号区間分類方法、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5784075B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6063843B2 (ja) * | 2013-08-28 | 2017-01-18 | 日本電信電話株式会社 | 信号区間分類装置、信号区間分類方法、およびプログラム |
JP6167062B2 (ja) * | 2014-04-09 | 2017-07-19 | 日本電信電話株式会社 | 分類装置、分類方法、およびプログラム |
JP6724290B2 (ja) * | 2015-03-31 | 2020-07-15 | ソニー株式会社 | 音響処理装置、音響処理方法、及び、プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4746533B2 (ja) * | 2006-12-21 | 2011-08-10 | 日本電信電話株式会社 | 多音源有音区間判定装置、方法、プログラム及びその記録媒体 |
JP4469882B2 (ja) * | 2007-08-16 | 2010-06-02 | 株式会社東芝 | 音響信号処理方法及び装置 |
JP4950930B2 (ja) * | 2008-04-03 | 2012-06-13 | 株式会社東芝 | 音声/非音声を判定する装置、方法およびプログラム |
-
2013
- 2013-06-17 JP JP2013126668A patent/JP5784075B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014112190A (ja) | 2014-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657798B2 (en) | Methods and apparatus to segment audio and determine audio segment similarities | |
JP6289936B2 (ja) | 音源方向推定装置、音源方向推定方法およびプログラム | |
US9355649B2 (en) | Sound alignment using timing information | |
WO2020024396A1 (zh) | 音乐风格识别方法、装置、计算机设备及存储介质 | |
JP5784075B2 (ja) | 信号区間分類装置、信号区間分類方法、およびプログラム | |
JP6992873B2 (ja) | 音源分離装置、音源分離方法およびプログラム | |
CN111868823A (zh) | 一种声源分离方法、装置及设备 | |
JP2010175431A (ja) | 音源方向推定装置とその方法と、プログラム | |
Marxer et al. | Low-latency instrument separation in polyphonic audio using timbre models | |
JP5705190B2 (ja) | 音響信号強調装置、音響信号強調方法、およびプログラム | |
JP5994639B2 (ja) | 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム | |
JP6244297B2 (ja) | 音響スコア算出装置、その方法及びプログラム | |
WO2012105385A1 (ja) | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム | |
WO2012023268A1 (ja) | 多マイクロホン話者分類装置、方法およびプログラム | |
JP6285855B2 (ja) | フィルタ係数算出装置、音声再生装置、フィルタ係数算出方法及びプログラム | |
Islam et al. | Sound-adapter: Multi-source domain adaptation for acoustic classification through domain discovery | |
WO2020059084A1 (ja) | 学習装置およびパターン認識装置 | |
JP2005196020A (ja) | 音声処理装置と方法並びにプログラム | |
JP6167062B2 (ja) | 分類装置、分類方法、およびプログラム | |
JP6063843B2 (ja) | 信号区間分類装置、信号区間分類方法、およびプログラム | |
JP6139430B2 (ja) | 信号処理装置、方法及びプログラム | |
JP2019211685A (ja) | 音響信号分離装置、学習装置、それらの方法、およびプログラム | |
Mishra et al. | Bird Call Recognition using Acoustic based Feature Selection approach in Machine Learning | |
WO2020035999A1 (ja) | 学習データ生成装置、学習データ生成方法、及びプログラム | |
CN116092521A (zh) | 特征频点识别模型训练和音频指纹识别方法、设备及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141202 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150602 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150617 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150714 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150721 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5784075 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |