JP5818759B2 - 状況生成モデル作成装置、状況推定装置、およびプログラム - Google Patents
状況生成モデル作成装置、状況推定装置、およびプログラム Download PDFInfo
- Publication number
- JP5818759B2 JP5818759B2 JP2012192225A JP2012192225A JP5818759B2 JP 5818759 B2 JP5818759 B2 JP 5818759B2 JP 2012192225 A JP2012192225 A JP 2012192225A JP 2012192225 A JP2012192225 A JP 2012192225A JP 5818759 B2 JP5818759 B2 JP 5818759B2
- Authority
- JP
- Japan
- Prior art keywords
- acoustic
- situation
- acoustic event
- event
- signal sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Stereophonic System (AREA)
Description
<用語の定義>
実施形態で用いる用語を定義する。
「音響イベント」とは、音の事象を意味する。「音響イベント」の具体例は、「包丁の音」「水が流れる音」「水音」「着火音」「火の音」「足音」「掃除機の排気音」などである。
「状況」とは、音響イベントによって規定される、潜在的な場の状況を意味する。状況の生成確率は、その状況が起こる時間区間での行動に規定され、状況は、その状況が起こる時間区間での音響イベントの生成確率を規定する。すなわち、状況は、行動と、行動によって規定される生成確率とによって表現可能である。また、音響イベントは、状況と、状況によって規定される生成確率とによって表現可能である。なお「行動」とは、人間、動物、装置などの主体が行う何らかの行動を意味する。「行動」の具体例は「料理」「掃除」などである。
「XがYを生成する確率」とは、事象Xが起こるという条件のもとでの事象Yが起こる確率をいう。「XがYを生成する確率」は、「XのもとでのYの条件付き確率」や「XにおけるYの条件付き確率」とも表現できる。
第1実施形態では、学習用情報として音響イベントラベル付き音響信号を入力とし、学習によって、音響信号列が状況を生成する確率をP(状況|音響信号列)としたときの音響信号−状況生成モデル、及び、状況が音響イベントを生成する確率をP(音響イベント|状況)としたときの状況−音響イベント生成モデルを算出する。
状況モデル化部102は、ラベル付き音響信号列11から、音響信号列が状況を生成する確率P(状況|音響信号列)と、状況が音響イベントを生成する確率P(音響イベント|状況)とを算出する。状況モデル化部102は、確率P(状況|音響信号列)としたときの音響信号−状況生成モデル12と、確率P(音響イベント|状況)としたときの状況−音響イベント生成モデル13とを生成する。つまり本形態では、音響信号列が潜在的な場の状況の生成確率を規定し、状況が音響イベントの生成確率を規定すると考え、これらの関係を各生成モデルとして記述する。
ただし、Sはラベル付き音響信号列11に含まれる音響信号列11a−s(ただし、s∈{1,・・・,S})の個数、Tは状況の種類の個数、Eは音響イベントの種類の個数、eはラベル付き音響信号列11に与えられた音響イベントの列(ベクトル)、Θは音響信号列11a−s(ただし、s∈{1,・・・,S})が状況t(ただし、t∈{1,・・・,T})を生成する確率P(t|s)を(s,t)要素とするS×T行列、Φは状況t(ただし、t∈{1,・・・,T})が音響イベントε(ただし、ε∈{1,・・・,E})を生成する確率P(ε|t)を(t,ε)要素とするT×E行列、Ωは音響信号列11a−1,・・・,11a−Sと成り得る列の集合、e’sは音響信号列11a−sに与えられた音響イベントの列(Ns次元ベクトル:Nsは音響信号列11a−sに対応する音響イベントの個数)を表す。
ただし、eiは音響信号列11a−sの要素番号iに対応する音響イベントラベルが表す音響イベント、Nsは音響信号列11a−sに対応する要素数(要素番号iの最大値)、ziは音響信号列11a−sの要素番号iに対応する状況、φtは状況tが音響イベントε(ただし、ε∈{1,・・・,E})を生成する確率P(ε|t)をε番目の要素とするE次元ベクトル、θsは音響信号列11a−sが状況t(ただし、t∈{1,・・・,T})を生成する確率P(t|s)をt番目の要素とするT次元ベクトル、φei,t(下付き添え字の「ei,t」は「ei,t」)は状況tが音響イベントeiを生成する確率P(ei|t)、θtsは音響信号列11a−sが状況tを生成する確率P(t|s))、αはθs及びθtsが従うDirichlet分布の性質を決める超パラメータ(例えば0.01などの非負値をとる)、βはφt及びφei,tが従うDirichlet分布の性質を決める超パラメータ(例えば0.01などの非負値をとる)を表す。ここで、P(φt|β)及びP(θs|α)はそれぞれβ,αをパラメータとするDirichlet分布に従うと仮定する。W−1次(Wは2以上の整数)のDirichlet分布の確率密度関数は以下の通りである。
ただし、Γはガンマ関数を表す。
状況モデル化部102は、音響信号列が状況を生成する確率P(状況|音響信号列)、及び状況が音響イベントを生成する確率P(音響イベント|状況)を算出し、それぞれと対応する音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。
以下に、ギブスサンプリングを用いた音響信号−状況生成モデル12及び状況−音響イベント生成モデル13の算出方法を例示する。
ただし、Cεt ETは更新対象のラベル付き音響信号列で音響イベントεに状況tが割り当てられた回数を表し、Cts TSは更新対象のラベル付き音響信号列で状況tが音響信号列11a−sに割り当てられた回数を表す。なお、表記制約上の都合から「Cεt ET」「Cts TS」と表記するが、本来は式(3)に示すように「Cεt ET」の「ET」は「εt」の上に表記され、「Cts TS」の「TS」は「ts」の上に表記される。z−iは要素番号i以外の要素番号に対応する状況からなる列、e−iは要素番号i以外の要素番号に対応する音響イベントからなる列を表す。
ただし、αnext,βnextは更新後のハイパパラメータα,βであり、ψ(z)はディガンマ関数を表す。また、ディガンマ関数は以下の式で表わされる、ガンマ関数Γ(z)の対数微分である。
ただし、Γ’(z)はガンマ関数Γ(z)の導関数である。
if α<δ1 then α=δ1
if β<δ2 then β=δ2
等の処理を加えてもよい。
第1実施形態の変形例1では、音響信号列を入力として、学習によって、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。以降、同一のものには同じ参照符号を付し、説明は繰り返さない。
ただし、kはフレームをK個の微小な時間区間(例えば1msec程度)に区分した場合の各時間区間に対応し、p ̄kはk番目の時間区間でのサンプルの大きさを表す指標の代表値又は平均値を表す。なお、「サンプルの大きさを表す指標」の例は、サンプルの振幅、サンプルの振幅の絶対値、サンプルの振幅の対数値、サンプルのエネルギー、サンプルのパワー、又はサンプルのパワーの対数値などである。「サンプル」は音響信号列の各音響信号を表す。また、Δp ̄kはp ̄kの変化率を表す。例えば、Δp− k=p− k−p− k−1である。Δp− k=p− k+1−p− kとしてもよい。また、最小二乗法等の近似手法を用いてk番目の時間区間におけるp− kを近似した直線を求め、その時間区間におけるその直線の傾きをΔp− kとしてもよい。また、k番目の時間区間を含む複数の時間区間におけるp ̄k-κ,・・・,p ̄k-1,p− k,p ̄k+1,...p ̄k-κ’の近時曲線を求め、そのk番目の時間区間に対応する点での傾き(微分値)をΔp− kとしてもよい。またχを任意の文字として、χの右肩の「−」は、χの上付きバーを意味する。また式(10)の分子における(p ̄n)2を(p ̄n)mとし、mを任意の値としても良い。
また、Nはフレームに含まれるサンプル数を表す1以上の整数、nはフレーム内の各サンプル点を表す1以上のN以下の整数、x(n)はサンプル点nでのサンプルの大きさを表す指標である。Rff(τ)はf(n)のラグτでの自己相関係数、max{・}は「・」の最大値を表す。ラグτは1以上N以下の整数である。Rff(τ)は、例えば以下のように定義される。
ただし、Lは一周期とみなすサンプル数、Mは時間周期性の度合を計算するための周期数を表す1以上の整数、p(・)はサンプルの大きさを表す指標を時間平滑化した値、p ̄はフレーム内でのサンプルの大きさを表す指標の平均値を表す。
ただし、yιは音響特徴量列(ベクトル)の要素、Jは正規分布の混合数、πjは混合係数、N(・)は正規分布の確率密度関数、μjは分布の平均、Σjは分布の分散である。
第1実施形態の変形例2では、ラベルなし音響特徴量列を入力として、学習によって、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。
第2実施形態では、第1実施形態で説明したように得られた状況−音響イベント生成モデル13を用い、新たに入力された音響イベントラベル付き音響信号列から状況を推定する。
音響イベントラベル付き音響信号列21と状況−音響イベント生成モデル13との比較方法を例示する。この例では、まず生成モデル比較部201が、入力された音響イベントラベル付き音響信号列21から、以下のようにp(ε)(ただし、ε∈{1,・・・,E})を算出する。
ただし、γは事前に設定された緩和パラメータ(例えば0.01などの非負値)を表し、Cεは、音響イベントラベル付き音響信号列21で音響イベントεを表す音響イベントラベルが付された要素の個数を表し、Ns’は音響イベントラベル付き音響信号列21が含む音響信号列の要素数を表す。Ns’=Nsであってもよいし、Ns’≠Nsであってもよい。
以下のように状況−音響イベント生成モデル13と音響イベントラベル付き音響信号列21との比較を行ってもよい。この手法では、生成モデル比較部201が、入力されたラベル付き音響信号列21に対し、状況−音響イベント生成モデル13のもとでの状況の尤度の和や積を求める。以下に具体例を示す。
第2実施形態の変形例1では、第1実施形態で説明したように得られた状況−音響イベント生成モデル13を用い、新たに入力された音響信号列から状況を推定する。
第2実施形態の変形例2では、第1実施形態で説明したように得られた状況−音響イベント生成モデル13を用い、新たに入力された音響特徴量列から状況を推定する。
本形態は第1実施形態と第2実施形態の組み合わせである。
本形態では、音響イベントラベル付き音響信号列21を入力として状況を推定することに加え、音響イベントラベル付き音響信号列11−1,・・・,11−Sを入力とし、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13の算出も行う。
その他の処理は第1実施形態及び第2実施形態と同様とする。
本形態は第1実施形態の変形例1と第2実施形態の変形例1の組み合わせである。
本形態では、ラベルなし音響信号列15−1,・・・,15−S,22を入力として、学習によって、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。さらに本形態では、状況−音響イベント生成モデル13を用い、ラベルなし音響信号列22から状況を推定する。
本形態は第1実施形態の変形例2と第2実施形態の変形例2の組み合わせである。
本形態では、ラベルなし音響特徴量列16−1,・・・,16−S,23を入力として、学習によって、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。さらに本形態では、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を用い、ラベルなし音響特徴量列23から状況を推定する。
本形態は第3実施形態の変形である。
本形態では、音響イベントラベル付き音響信号列11−1,・・・,11−S(「第1学習用情報」に相当)、及び音響イベントラベル付き音響信号列21(「第2学習用情報」に相当)を入力とし、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出することに加え、音響イベントラベル付き音響信号列21に対応する状況を推定する。
その他の処理は第1実施形態、第2実施形態及び第3実施形態と同様とする。
本形態は第3実施形態の変形例1の変形である。
本形態では、ラベルなし音響信号列15−1,・・・,15−S,22を入力として、学習によって、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。さらに本形態では、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を用い、ラベルなし音響信号列22に対応する状況を推定する。
本形態は第3実施形態の変形例2の変形である。
本形態では、ラベルなし音響特徴量列16−1,・・・,16−S,23を入力として、学習によって、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を算出する。さらに本形態では、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13を用い、ラベルなし音響特徴量列23に対応する状況を推定する。
本発明は上述の各実施形態に限定されるものではない。例えば、状況生成モデル作成装置や状況推定装置の処理が複数の装置で分散処理されてもよいし、上記の各実施形態で記憶部やDBに格納された各データが複数の記憶部やDBに分散して格納されてもよい。例えば、音響信号−状況生成モデル12、及び状況−音響イベント生成モデル13が互いに異なる記憶部に格納されてもよい。また、音響信号列が時系列の順に入力され順次処理されるのであれば、短時間ごとに区分された音響信号列の各要素に対応する要素番号が、音響イベントラベル付き音響信号列に含まれなくてもよい。
200,210,220,300,310,320,400,410,420 状況推定装置
Claims (11)
- 時系列の音響信号列の集合と、前記音響信号列に対応する音響イベントを表す音響イベント情報と、を含む学習用情報を用い、音響イベントによって規定される潜在的な場の状況が音響イベントを生成する確率P(音響イベント|状況)と、音響信号列が状況を生成する確率P(状況|音響信号列)とを得る状況モデル化部、を有する状況生成モデル作成装置。
- 請求項1の状況生成モデル作成装置であって、
前記音響信号列から、音響特徴量を算出する特徴量算出部と、
前記音響特徴量を用い、音響イベントを決定する音響イベント判定部と、を有し、
前記学習用情報が含む音響イベント情報は、前記音響イベント判定部で決定された前記音響イベントを表す、
ことを特徴とする状況生成モデル作成装置。 - 請求項1の状況生成モデル作成装置であって、
前記音響信号列に対応する音響特徴量を用い、音響イベントを決定する音響イベント判定部を有し、
前記学習用情報が含む音響イベント情報は、前記音響イベント判定部で決定された音響イベントを表す、
ことを特徴とする状況生成モデル作成装置。 - 時系列の音響信号列の集合と、前記音響信号列に対応する音響イベントを表す音響イベント情報と、を含む学習用情報を用い、音響イベントによって規定される潜在的な場の状況が音響イベントを生成する確率P(音響イベント|状況)と、音響信号列が状況を生成する確率P(状況|音響信号列)とを得る状況モデル化部と、
前記確率P(音響イベント|状況)に対応する状況−音響イベント生成モデルを用い、音響イベントを表す音響イベント情報を含む入力情報に対応する状況を推定する生成モデル比較部と、
を有する状況推定装置。 - 請求項4の状況推定装置であって、
時系列の第1音響信号列から、第1音響特徴量を算出する第1特徴量算出部と、
前記第1音響特徴量を用い、音響イベントを決定する第1音響イベント判定部と、
時系列の第2音響信号列から、第2音響特徴量を算出する第2特徴量算出部と、
前記第2音響特徴量を用い、音響イベントを決定する第2音響イベント判定部と、を有し、
前記学習用情報が含む音響信号列は、前記第1音響信号列であり、
前記学習用情報が含む音響イベント情報は、前記第1音響イベント判定部で決定された前記音響イベントを表し、
前記入力情報が含む音響イベント情報は、前記第2音響イベント判定部で決定された前記音響イベントを表す、
ことを特徴とする状況推定装置。 - 請求項4の状況推定装置であって、
第1音響特徴量を用い、音響イベントを決定する第1音響イベント判定部と、
第2音響特徴量を用い、音響イベントを決定する第2音響イベント判定部を有し、
前記学習用情報が含む音響信号列は、前記第1音響特徴量に対応し、
前記学習用情報が含む音響イベント情報は、前記第1音響イベント判定部で決定された前記音響イベントを表し、
前記入力情報が含む音響イベント情報は、前記第2音響イベント判定部で決定された前記音響イベントを表す、
ことを特徴とする状況推定装置。 - 時系列の音響信号列の集合と、前記音響信号列に対応する音響イベントを表す音響イベント情報と、を含む第1,2学習用情報を用い、音響イベントによって規定される潜在的な場の状況が音響イベントを生成する確率P(音響イベント|状況)と、音響信号列が状況を生成する確率P(状況|音響信号列)とを得る、状況モデル化部と、
前記確率P(音響イベント|状況)に対応する状況−音響イベント生成モデルを用い、前記第2学習用情報が含む音響イベント情報に対応する状況を推定する生成モデル比較部と、
を有する状況推定装置。 - 請求項7の状況推定装置であって、
時系列の第1音響信号列から、第1音響特徴量を算出する第1特徴量算出部と、
前記第1音響特徴量を用い、音響イベントを決定する第1音響イベント判定部と、
時系列の第2音響信号列から、第2音響特徴量を算出する第2特徴量算出部と、
前記第2音響特徴量を用い、音響イベントを決定する第2音響イベント判定部と、を有し、
前記第1学習用情報が含む音響信号列は、前記第1音響信号列であり、
前記第1学習用情報が含む音響イベント情報は、前記第1音響イベント判定部で決定された前記音響イベントを表し、
前記第2学習用情報が含む音響信号列は、前記第2音響信号列であり、
前記第2学習用情報が含む音響イベント情報は、前記第2音響イベント判定部で決定された前記音響イベントを表す、
ことを特徴とする状況推定装置。 - 請求項7の状況推定装置であって、
第1音響特徴量を用い、音響イベントを決定する第1音響イベント判定部と、
第2音響特徴量を用い、音響イベントを決定する第2音響イベント判定部と、を有し、
前記第1学習用情報が含む音響信号列は、前記第1音響特徴量に対応し、
前記第1学習用情報が含む音響イベント情報は、前記第1音響イベント判定部で決定された前記音響イベントを表し、
前記第2学習用情報が含む音響信号列は、前記第2音響特徴量に対応し、
前記第2学習用情報が含む音響イベント情報は、前記第2音響イベント判定部で決定された前記音響イベントを表す、
ことを特徴とする状況推定装置。 - 請求項1から3の何れかの状況生成モデル作成装置としてコンピュータを機能させるためのプログラム。
- 請求項4から9の何れかの状況推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012192225A JP5818759B2 (ja) | 2012-08-31 | 2012-08-31 | 状況生成モデル作成装置、状況推定装置、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012192225A JP5818759B2 (ja) | 2012-08-31 | 2012-08-31 | 状況生成モデル作成装置、状況推定装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014048522A JP2014048522A (ja) | 2014-03-17 |
JP5818759B2 true JP5818759B2 (ja) | 2015-11-18 |
Family
ID=50608247
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012192225A Expired - Fee Related JP5818759B2 (ja) | 2012-08-31 | 2012-08-31 | 状況生成モデル作成装置、状況推定装置、およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5818759B2 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6078441B2 (ja) * | 2013-07-03 | 2017-02-08 | 日本電信電話株式会社 | モデル処理装置、分析装置、それらの方法およびプログラム |
JP6316669B2 (ja) * | 2014-06-13 | 2018-04-25 | 日本電信電話株式会社 | 状況モデル学習装置、その方法及びプログラム |
JP6241790B2 (ja) * | 2014-08-15 | 2017-12-06 | 日本電信電話株式会社 | 生成モデル作成装置、推定装置、それらの方法およびプログラム |
JP2021139920A (ja) * | 2018-05-31 | 2021-09-16 | ソニーグループ株式会社 | 音声処理装置および音声処理方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1016985A3 (en) * | 1998-12-30 | 2004-04-14 | Xerox Corporation | Method and system for topic based cross indexing of text and audio |
TWI384423B (zh) * | 2008-11-26 | 2013-02-01 | Ind Tech Res Inst | 以聲音事件為基礎之緊急通報方法與系統以及行為軌跡建立方法 |
-
2012
- 2012-08-31 JP JP2012192225A patent/JP5818759B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014048522A (ja) | 2014-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sigtia et al. | A hybrid recurrent neural network for music transcription | |
JP6967197B2 (ja) | 異常検出装置、異常検出方法及びプログラム | |
KR101217525B1 (ko) | 비터비 디코더와 이를 이용한 음성 인식 방법 | |
JP6553015B2 (ja) | 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム | |
JP5818759B2 (ja) | 状況生成モデル作成装置、状況推定装置、およびプログラム | |
JP4512848B2 (ja) | 雑音抑圧装置及び音声認識システム | |
JP6392450B2 (ja) | マッチング装置、判定装置、これらの方法、プログラム及び記録媒体 | |
JP6499095B2 (ja) | 信号処理方法、信号処理装置及び信号処理プログラム | |
JP5781040B2 (ja) | 行動推定装置およびそのプログラム | |
JP2019008131A (ja) | 話者判定装置、話者判定情報生成方法、プログラム | |
JP5783979B2 (ja) | 生成モデル作成装置及び推定装置 | |
JP6078441B2 (ja) | モデル処理装置、分析装置、それらの方法およびプログラム | |
JP6241790B2 (ja) | 生成モデル作成装置、推定装置、それらの方法およびプログラム | |
JP6216809B2 (ja) | パラメータ調整システム、パラメータ調整方法、プログラム | |
JP5924968B2 (ja) | 楽譜位置推定装置、及び楽譜位置推定方法 | |
JP4950600B2 (ja) | 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 | |
JP2007017911A (ja) | 音声認識装置及び音声認識プログラム | |
JP6093670B2 (ja) | モデル処理装置、モデル処理方法、およびプログラム | |
JP2010054588A (ja) | 音響モデル作成装置、その装置を用いた音声認識装置、これらの方法、これらのプログラム、およびこれらの記録媒体 | |
Cipli et al. | Multi-class acoustic event classification of hydrophone data | |
JP6114209B2 (ja) | モデル処理装置、モデル処理方法、およびプログラム | |
JP6220694B2 (ja) | モデル処理装置、その方法、およびプログラム | |
JP2020056918A (ja) | 音データ学習システム、音データ学習方法および音データ学習装置 | |
Wiśniewski et al. | Improved approach to automatic detection of speech disorders based on the Hidden Markov Models approach | |
JP6139430B2 (ja) | 信号処理装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150924 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150929 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5818759 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |