JP6623376B2 - 音源強調装置、その方法、及びプログラム - Google Patents
音源強調装置、その方法、及びプログラム Download PDFInfo
- Publication number
- JP6623376B2 JP6623376B2 JP2016165789A JP2016165789A JP6623376B2 JP 6623376 B2 JP6623376 B2 JP 6623376B2 JP 2016165789 A JP2016165789 A JP 2016165789A JP 2016165789 A JP2016165789 A JP 2016165789A JP 6623376 B2 JP6623376 B2 JP 6623376B2
- Authority
- JP
- Japan
- Prior art keywords
- signal
- noise suppression
- sound source
- sound
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 28
- 230000001629 suppression Effects 0.000 claims description 65
- 230000005236 sound signal Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 12
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 22
- 238000004364 calculation method Methods 0.000 description 9
- 238000001228 spectrum Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 230000001755 vocal effect Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Description
X(τ,ω) = S(τ,ω) + N(τ,ω) (1)
なお、混合信号X(τ,ω)の時間領域表現は、x(t)である。
^S(τ,ω)=I(τ,ω)X(τ,ω) (2)
時間領域変換部96は、強調信号^S(τ,ω)を入力とし、時間領域の強調信号^s(t)に変換し、出力する。
第一実施形態では、以下2点において、従来技術と異なる。
図2は第一実施形態に係る音源強調装置の機能ブロック図を、図3はその処理フローを示す。
周波数領域変換部102は、時間領域の混合信号x(t)を入力とし、時間領域の混合信号x(t)を周波数領域の混合信号X(τ,ω)に変換し(S102)、出力する。時間領域の信号を周波数領域の信号に変換する方法として、例えば、短時間フーリエ変換等を用いる。
データベース部190には、学習用の混合信号XL(τ,ω)と、それを構成する強調したい学習用の音響信号SL,n(τ,ω)と、学習用の雑音信号NL,n(τ,ω)とが格納されている。なお、例えば、ギターの音を強調するような雑音抑圧量を推定する場合、学習用の音響信号SL,n(τ,ω)がギターの音のみが入った音響信号であり、学習用の雑音信号NL,n(τ,ω)はその他楽器/ボーカルの音響信号を加算した信号である。n=1,2,…,Nであり、N種類全ての、楽器の演奏または歌唱それぞれに係る音源に対して、学習用の音響信号SL,n(τ,ω)と学習用の雑音信号NL,n(τ,ω)とが用意され、格納されている。なお、XL(τ,ω)=SL,n(τ,ω)+NL,n(τ,ω)であり、データベース部190には、XL(τ,ω),SL,n(τ,ω),NL,n(τ,ω)のうちの何れか二つを記憶しておき、残りの1つをデータベース部190または特徴量−ラベル生成部191で計算により求めてもよい。
特徴量−ラベル生成部191は、背景技術の特徴量−ラベル生成部91と同様の処理を行うが、以下の2点において異なる。
従来方式では、周波数ごとに特徴量-ラベルを用意していた。本実施形態では、複数の周波数を集約化した周波数バンドごとに特徴量-ラベルを用意するような実装を行う。なお、ΩO個のバンドで構成されるとし、そのインデックス集合をΩ={1,…,ΩO}と表す。従来方式ではラベルを2値化しているため、周波数ごとにラベルを用意している。一方、本実施形態では、ラベルを2値以上のパターン(例えば4段階[1,0.5,0.3,0.1])となるように実装している。ラベルの値は、どの程度雑音を抑圧したらよいかを表している。2値以上のパターンでラベルの値を表すことになるので、以後、この値のことをマスクではなく雑音抑圧量と表現することにする。なお、ラベルの値を雑音抑圧量参照値ともいう。雑音抑圧量参照値のパターン数は、実験では4程度で利用しているが、これはパターン数が多くし過ぎると、どのパターンに属するかについての推定精度が悪くなる、または、学習データの量が膨大になることが想定されるためである。
分離後の強調信号群(ギター、ベース、ドラム等)を再合成した際に、元の混合信号との歪を計算し、できるだけその歪を小さくなるようにしたい。よって、特徴量-ラベルのセットは、全ての音源分計算する必要がある。例えば、ボーカル、ギター、ベース、ドラム、キーボードの5つの音源に分類する場合には、音源数N=5であり、N=5組の特徴量-ラベルを用意する。
事前学習部192は、特徴量(例えば、パワースペクトル|SL,n(τ,ω)|2、|NL,n(τ,ω)|2やそれを平滑化した値)とラベル(学習用雑音抑圧量WL,n(τ,ω))とを入力とし、雑音抑圧量推定部103で雑音抑圧量を推定するために必要となるパラメータpを求め、出力する。(i)2値以上の値を利用して連続的な雑音抑圧量を表す点と、(ii)N個の強調信号群を再合成した際に、元の混合信号との歪が小さくなるように雑音抑圧量の最適設定できるという2点において、従来方式との差分がある。
Wn(τ,ω)=qTon(τ,ω) (5)
よって、雑音抑圧量の推定値Wn(τ,ω)は、出力確率on(τ,ω)を重みとする2個以上の離散値(雑音抑圧量参照値(q=[q1,q2,…,qC]T))の重み付け加算により連続値で表現される。なお、出力確率on(τ,ω)は、雑音抑圧量推定部103を構成するニューラルネットワークの出力値であり、以下の関係が成立するように正規化されて出力される。
^Sn(τ,ω)=Wn(τ,ω)X(τ,ω)=qTon(τ,ω)X(τ,ω) (7)
となる。
(参考文献1)岡谷貴之, “深層学習,” 講談社, 2015, p.7-54.
q(1)=[|X(τ,1)|2,…,|X(τ,ΩO)|2]T (10)
u(ψ)=P(ψ)q(ψ-1)+b(ψ) (11)
q(ψ)=f(ψ)(u(ψ)) (12)
ここで、各変数の次元は、u(ψ)∈RJ_ψ×1、q(ψ)∈RJ_ψ×1、P(ψ)∈RJ_ψ×J_(ψ-1)、b(ψ)∈RJ_ψ×1である。なお、上付き添え字X_YはXYを意味する。また、f(ψ)(・)はψ層目の活性化関数である。例えばΨ-1層目までの計算では、ランプ関数(ReLU)を用いることが多い。
f(ψ)(u(ψ))=max(0,u(ψ)) (ψ=2,…,Ψ-1) (13)
最終層では、各周波数バンドごとに確率値(C種類の雑音抑圧量参照値に対する出現確率値)を算出する必要がある。周波数バンドΩに対応するノード(C種類の雑音抑圧量参照値に対する出現確率値)のインデックスをVi,1,…,Vi,Cとする。そして、u(ψ)の対応する要素をuV_i,1,…,uV_i,Cとする。ただし、下付き添え字X_YはXYを意味する。その場合、最終層の出力値はソフトマックス関数で表すことができる。
on(τ,ω)=q(Ψ) (15)
である。また、JΨ=C×ΩOである。
U(ψ)=P(ψ)Q(ψ-1)+b(ψ)1T D (16)
Q(ψ)=f(ψ)(U(ψ)) (17)
ここで、U(ψ)∈RJ_ψ×D、Q(ψ)∈RJ_ψ×Dである。ネットワークパラメータの勾配は、出力層から入力層の順に計算される。正解値に最も近いC種類の雑音抑圧量参照値にのみ1を立てたベクトルをΞとするとき、ψ層目の勾配Δ(ψ)は以下で計算される。
P(ψ)←P(ψ)+ΔP(ψ) (21)
b(ψ)←b(ψ)+Δb(ψ) (22)
ここで、
ΔP(ψ)=μΔP(ψ)*-γ(∂P(ψ)+λP(ψ)) (23)
Δb(ψ)=μΔb(ψ)*-γ∂b(ψ) (24)
であり、ΔP(ψ)*とΔb(ψ)*は前回の更新における摂動であり、γは学習係数、μはモメンタム、λは重み減衰である。
雑音抑圧量推定部103は、混合信号X(τ,ω)とパラメータpとを入力とし、混合信号X(τ,ω)と、N種類の音響信号Sn(τ,ω)の総和と、の差分が小さくなるように、各音響信号Sn(τ,ω)に対する雑音抑圧量を推定し(S103)、推定値Wn(τ,ω)を出力する。なお、式(10)-(15)の計算と、式(5)を行うことで、推定値Wn(τ,ω)を得る。つまり、混合信号X(τ,ω)を用いて、
q(1)=[|X(τ,1)|2,…,|X(τ,ΩO)|2]T (10)
を求める。パラメータpに含まれる重み行列{P(2),…,P(Ψ)}とバイアス{b(2),…,b(Ψ)}とを用いて、
u(ψ)=P(ψ)q(ψ-1)+b(ψ) (11)
q(ψ)=f(ψ)(u(ψ)) (12)
を計算する。前述の通り、f(ψ)(・)はψ層目の活性化関数であり、例えば、Ψ-1層目までの計算では、ランプ関数(ReLU)を用いる。
f(ψ)(u(ψ))=max(0,u(ψ)) (ψ=2,…,Ψ-1) (13)
このようにして、q(2),q(3),…,q(Ψ-1)を求める。最終層では、各周波数バンドごとに確率値(C種類の雑音抑圧量参照値に対する出現確率値)を算出する必要がある。その場合、最終層の出力値はソフトマックス関数で表すことができる。よって、
on(τ,ω)=q(Ψ) (15)
である。以上の処理により、on(τ,ω)を求め、次式により、雑音抑圧量の推定値Wψ(τ,ω)を求め、音源強調部104に出力する。
Wn(τ,ω)=qTon(τ,ω) (5)
q=[q1,q2,…,qC]T
on(τ,ω)=[on,1(τ,ω),on,2(τ,ω),…,on,C(τ,ω)]T
なお、この演算はN個の音源nそれぞれに対して行う。
音源強調部104は、混合信号X(τ,ω)とN個の推定値Wn(τ,ω)とを入力とし、次式により、混合信号X(τ,ω)に含まれる音響信号Sn(τ,ω)を強調した強調信号^Sn(τ,ω)を求め(S104)、出力する。
^Sn(τ,ω)=Wn(τ,ω)X(τ,ω)
なお、この演算はN個の音源nそれぞれに対して行う。
時間領域変換部105は、強調信号^Sn(τ,ω)を入力とし、周波数領域の強調信号^Sn(τ,ω)を時間領域の強調信号^sn(t)に変換し(S105)、出力する。周波数領域の信号を時間領域の信号に変換する方法として、周波数領域変換部102に対応する方法を用いればよい。例えば、逆短時間フーリエ変換等を用いる。
以上の構成により、従来よりも適切に所望の音源だけを強調し、強調信号群を再合成したときに合成後の信号の歪みを低減することができる。楽曲信号に対して適用することで、楽器音を強調して抽出することができる。例えば、楽曲のリミックスやリマスタリングなどに応用することができる。また、特定の楽器音を強調することができるため、逆に特定の楽器音を抑圧することも可能であり、カラオケや楽器の練習といった応用も考えられる。
本実施形態では、式(5),(6)-(9),(15)を周波数ωで行っているが、周波数バンドΩで同様の処理を行ってもよい。
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
Claims (8)
- Nを複数の音源の種類数とし、n=1,2,…,Nとし、N種類の、楽器の演奏または歌唱それぞれに係る音響信号Snを含む混合信号Xを入力とし、N種類の音響信号S n をそれぞれ強調したN個の強調信号^S n の総和と、前記混合信号Xと、の差分が小さくなるように、各音響信号Snに対する雑音抑圧量を推定する雑音抑圧量推定部と、
前記混合信号Xと雑音抑圧量の推定値Wnとを用いて、前記混合信号Xに含まれる音響信号Snを強調した強調信号^Snを求める音源強調部とを含む、
音源強調装置。 - 請求項1の音源強調装置であって、
前記雑音抑圧量推定部において前記雑音抑圧量の推定値Wnを推定する際に用いるモデルのパラメータは、(i)N種類の、楽器の演奏または歌唱それぞれに係る学習用音響信号SL,nと、(ii)N種類の前記学習用音響信号SL,nを含む学習用混合信号XLと、(iii)前記学習用混合信号XLに含まれる雑音を抑圧する量を示す、N種類の前記学習用音響信号SL,nに対して付与される雑音抑圧量参照値とを用いて、事前に学習されたものである、
音源強調装置。 - 請求項2の音源強調装置であって、
Cを2以上の整数の何れかとし、前記雑音抑圧量の推定値は、(i)C個の雑音抑圧量参照値と、(ii)前記混合信号Xと前記パラメータとに基づき得られる、前記音響信号Snの雑音抑圧量参照値に対する出力確率onと、の重み付け加算により表現される、
音源強調装置。 - 請求項2または請求項3の音源強調装置であって、
前記モデルはニューラルネットワークにより表現されるものであり、
前記混合信号Xと、N種類の強調信号^Snの総和との二乗誤差を、ニューラルネットワークの出力層の値で微分することで、前記パラメータを最適化する、
音源強調装置。 - Nを複数の音源の種類数とし、n=1,2,…,Nとし、雑音抑圧量推定部が、N種類の、楽器の演奏または歌唱それぞれに係る音響信号Snを含む混合信号Xを入力とし、N種類の音響信号S n をそれぞれ強調したN個の強調信号^S n の総和と、前記混合信号Xと、の差分が小さくなるように、各音響信号Snに対する雑音抑圧量を推定する雑音抑圧量推定ステップと、
音源強調部が、前記混合信号Xと雑音抑圧量の推定値Wnとを用いて、前記混合信号Xに含まれる音響信号Snを強調した強調信号^Snを求める音源強調ステップとを含む、
音源強調方法。 - 請求項5の音源強調方法であって、
前記雑音抑圧量推定ステップにおいて前記雑音抑圧量の推定値Wnを推定する際に用いるモデルのパラメータは、(i)N種類の、楽器の演奏または歌唱それぞれに係る学習用音響信号SL,nと、(ii)N種類の前記学習用音響信号SL,nを含む学習用混合信号XLと、(iii)前記学習用混合信号XLに含まれる雑音を抑圧する量を示す、N種類の前記学習用音響信号SL,nに対して付与される雑音抑圧量参照値とを用いて、事前に学習されたものである、
音源強調方法。 - 請求項6の音源強調方法であって、
Cを2以上の整数の何れかとし、前記雑音抑圧量の推定値は、(i)C個の雑音抑圧量参照値と、(ii)前記混合信号Xと前記パラメータとに基づき得られる、前記音響信号Snの雑音抑圧量参照値に対する出力確率onと、の重み付け加算により表現される、
音源強調方法。 - 請求項1から請求項4の何れかの音源強調装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016165789A JP6623376B2 (ja) | 2016-08-26 | 2016-08-26 | 音源強調装置、その方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016165789A JP6623376B2 (ja) | 2016-08-26 | 2016-08-26 | 音源強調装置、その方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018031967A JP2018031967A (ja) | 2018-03-01 |
JP6623376B2 true JP6623376B2 (ja) | 2019-12-25 |
Family
ID=61304134
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016165789A Active JP6623376B2 (ja) | 2016-08-26 | 2016-08-26 | 音源強調装置、その方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6623376B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109147804A (zh) * | 2018-06-05 | 2019-01-04 | 安克创新科技股份有限公司 | 一种基于深度学习的音质特性处理方法及系统 |
WO2019235633A1 (ja) * | 2018-06-07 | 2019-12-12 | ヤマハ株式会社 | 機械学習方法および機械学習装置 |
JP6721010B2 (ja) * | 2018-06-07 | 2020-07-08 | ヤマハ株式会社 | 機械学習方法および機械学習装置 |
CN108806707B (zh) * | 2018-06-11 | 2020-05-12 | 百度在线网络技术(北京)有限公司 | 语音处理方法、装置、设备及存储介质 |
JP6912780B2 (ja) * | 2018-08-24 | 2021-08-04 | 日本電信電話株式会社 | 音源強調装置、音源強調学習装置、音源強調方法、プログラム |
JP7026357B2 (ja) * | 2019-01-31 | 2022-02-28 | 日本電信電話株式会社 | 時間周波数マスク推定器学習装置、時間周波数マスク推定器学習方法、プログラム |
JP7026358B2 (ja) * | 2019-01-31 | 2022-02-28 | 日本電信電話株式会社 | 回帰関数学習装置、回帰関数学習方法、プログラム |
WO2023162508A1 (ja) * | 2022-02-25 | 2023-08-31 | ソニーグループ株式会社 | 信号処理装置および信号処理方法 |
CN115810364B (zh) * | 2023-02-07 | 2023-04-28 | 海纳科德(湖北)科技有限公司 | 混音环境中的端到端目标声信号提取方法及系统 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8239052B2 (en) * | 2007-04-13 | 2012-08-07 | National Institute Of Advanced Industrial Science And Technology | Sound source separation system, sound source separation method, and computer program for sound source separation |
JP5294300B2 (ja) * | 2008-03-05 | 2013-09-18 | 国立大学法人 東京大学 | 音信号の分離方法 |
WO2013145578A1 (ja) * | 2012-03-30 | 2013-10-03 | 日本電気株式会社 | 音声処理装置、音声処理方法および音声処理プログラム |
JP6644356B2 (ja) * | 2015-08-05 | 2020-02-12 | 沖電気工業株式会社 | 音源分離システム、方法及びプログラム |
-
2016
- 2016-08-26 JP JP2016165789A patent/JP6623376B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018031967A (ja) | 2018-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6623376B2 (ja) | 音源強調装置、その方法、及びプログラム | |
US11966660B2 (en) | Method, system and artificial neural network | |
Kim et al. | KUIELab-MDX-Net: A two-stream neural network for music demixing | |
Tachibana et al. | Harmonic/percussive sound separation based on anisotropic smoothness of spectrograms | |
JP2019078864A (ja) | 楽音強調装置、畳み込みオートエンコーダ学習装置、楽音強調方法、プログラム | |
Rodriguez-Serrano et al. | Online score-informed source separation with adaptive instrument models | |
Nakano et al. | Nonnegative matrix factorization with Markov-chained bases for modeling time-varying patterns in music spectrograms | |
Itoyama et al. | Integration and adaptation of harmonic and inharmonic models for separating polyphonic musical signals | |
Hayes et al. | A review of differentiable digital signal processing for music and speech synthesis | |
JP6567478B2 (ja) | 音源強調学習装置、音源強調装置、音源強調学習方法、プログラム、信号処理学習装置 | |
Tachibana et al. | A real-time audio-to-audio karaoke generation system for monaural recordings based on singing voice suppression and key conversion techniques | |
JP7331588B2 (ja) | 情報処理方法、推定モデル構築方法、情報処理装置、推定モデル構築装置およびプログラム | |
CN116798405A (zh) | 语音合成方法、装置、存储介质和电子设备 | |
US20230260531A1 (en) | Intelligent audio procesing | |
JP6925995B2 (ja) | 信号処理装置、音声強調装置、信号処理方法およびプログラム | |
Hamadicharef et al. | Intelligent and perceptual-based approach to musical instruments sound design | |
Lee et al. | Discriminative training of complex-valued deep recurrent neural network for singing voice separation | |
JP2020194558A (ja) | 情報処理方法 | |
Sustek et al. | Dealing with Unknowns in Continual Learning for End-to-end Automatic Speech Recognition. | |
JP2018138936A (ja) | 音源強調装置、その方法、及びプログラム | |
Liu et al. | Teacher-student learning and post-processing for robust BiLSTM mask-based acoustic beamforming | |
Tanabe et al. | Music source separation with generative adversarial network and waveform averaging | |
JP2020030373A (ja) | 音源強調装置、音源強調学習装置、音源強調方法、プログラム | |
JP2011053565A (ja) | 信号分析装置、信号分析方法、プログラム、及び記録媒体 | |
JP2019090930A (ja) | 音源強調装置、音源強調学習装置、音源強調方法、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160826 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180410 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191024 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6623376 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |