JP2020123008A - Variable optimization device, noise elimination device, variable optimization method, noise elimination method, and program - Google Patents

Variable optimization device, noise elimination device, variable optimization method, noise elimination method, and program Download PDF

Info

Publication number
JP2020123008A
JP2020123008A JP2019012794A JP2019012794A JP2020123008A JP 2020123008 A JP2020123008 A JP 2020123008A JP 2019012794 A JP2019012794 A JP 2019012794A JP 2019012794 A JP2019012794 A JP 2019012794A JP 2020123008 A JP2020123008 A JP 2020123008A
Authority
JP
Japan
Prior art keywords
variable
coefficient
estimated signal
latent
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019012794A
Other languages
Japanese (ja)
Other versions
JP7114497B2 (en
Inventor
健太 丹羽
Kenta Niwa
健太 丹羽
バスティアン クライン ウィリム
Kline Willim Bastian
バスティアン クライン ウィリム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Victoria University of Wellington
Original Assignee
Nippon Telegraph and Telephone Corp
Victoria University of Wellington
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Victoria University of Wellington filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019012794A priority Critical patent/JP7114497B2/en
Publication of JP2020123008A publication Critical patent/JP2020123008A/en
Application granted granted Critical
Publication of JP7114497B2 publication Critical patent/JP7114497B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Image Processing (AREA)

Abstract

To provide a latent variable optimization technique to optimize a latent variable and a coefficient adjusting the relative magnitude of each term in a cost function.SOLUTION: A variable optimization device includes an optimization unit to optimize a latent variable x with observational data as input. f(x) is defined as a loss term of the latent variable x, and y(i=1-n) is defined as a variable (hereinafter referred to as a coefficient variable) to express the coefficient of a normalized term f(x) to the latent variable x. The optimization unit optimizes the latent variable × and the coefficient variable y by solving the optimization problem of the cost function L(x, y):R×R→ RU{-∞, +∞} (where, y=[y-y]) which is defined by the expression L(x, y)=f(x)+Σ(yf(x)+ g(y)) using the normalized term g(y) (i=1- n) to the coefficient variable y.SELECTED DRAWING: Figure 5

Description

本発明は、機械学習において最適化の対象となるモデルの潜在変数を最適化する技術に関する。 The present invention relates to a technique for optimizing a latent variable of a model to be optimized in machine learning.

機械学習を用いて、観測した情報(以下、観測情報という)から所望の情報を得る写像を設計するとき、(1)画像処理、音声認識、自然言語処理など、幅広い分野における個々の問題に適したコスト関数を設計する技術と、(2)当該コスト関数を最小化するように潜在変数を最適化する技術の双方が求められる。このコスト関数は、観測情報やコスト関数に含まれる(最適化すべき)潜在変数の生成過程を考慮して設計される。例えば、非特許文献1にあるように、x∈Rmを最適化すべき潜在変数として、コスト関数は次式のような複数の項の和として表現される。 When designing a map that obtains desired information from observed information (hereinafter referred to as observation information) using machine learning, (1) Suitable for individual problems in a wide range of fields such as image processing, speech recognition, and natural language processing. Both the technique of designing the cost function and the technique (2) of optimizing the latent variable so as to minimize the cost function are required. This cost function is designed in consideration of the generation process of the latent variable (which should be optimized) included in the observation information and the cost function. For example, as in Non-Patent Document 1, x ∈ R m is a latent variable to be optimized, and the cost function is expressed as the sum of a plurality of terms as in the following equation.

Figure 2020123008
Figure 2020123008

ここで、f0は損失項(罰則項ともいう)、fi(i=1, …, n)は正規化項、γi(>0) (i=1, …, n)は事前に与えられた係数である。なお、損失項f0、正規化項fi(i=1, …, n)はいずれも閉真凸関数(以下、単に凸関数という)である。 Where f 0 is the loss term (also called the penalty term), f i (i=1, …, n) is the normalization term, and γ i (>0) (i=1, …, n) is given in advance. Is the calculated coefficient. The loss term f 0 and the normalization term f i (i=1,..., N) are both closed true convex functions (hereinafter simply referred to as convex functions).

そして、例えば、観測情報を入力として、図1に示す最適化アルゴリズムにより潜在変数xを逐次最適化することにより、コスト関数を最小化する潜在変数が得られる。 Then, for example, by inputting the observation information and sequentially optimizing the latent variable x by the optimization algorithm shown in FIG. 1, a latent variable that minimizes the cost function is obtained.

Robert Tibshirani, “Regression Shrinkage and Selection via the Lasso”, Journal of the Royal Statistical Society, Series B (Methodological), Vol.58, No.1, pp.267-288, 1996.Robert Tibshirani, “Regression Shrinkage and Selection via the Lasso”, Journal of the Royal Statistical Society, Series B (Methodological), Vol.58, No.1, pp.267-288, 1996.

式(1-1)における係数γiは、各項の相対的大きさを調整するためパラメータであり、従来、係数γiを人手で事前に調整し、図1に示されるような最適化処理を実行していた。しかし、この係数γiの調整を慎重にしなければ、所望の結果を得ることができないことが多いという問題があった。また、例えば、音声周波数スペクトログラムや画像の局所領域ごとに異なる係数γiを設定する場合のように、調整すべき係数γiの数が増えると、人手で調整することが困難になるという問題もある。 The coefficient γ i in the equation (1-1) is a parameter for adjusting the relative size of each term, and conventionally, the coefficient γ i is manually adjusted in advance and the optimization process as shown in FIG. 1 is performed. Was running. However, there is a problem that a desired result cannot be obtained in many cases unless the coefficient γ i is adjusted carefully. Further, there is also a problem that it becomes difficult to manually adjust when the number of coefficients γ i to be adjusted increases, for example, when different coefficients γ i are set for each of the audio frequency spectrogram and the local region of the image. is there.

そこで本発明では、コスト関数の各項の相対的大きさを調整する係数を潜在変数とともに最適化する潜在変数最適化技術を提供することを目的とする。 Therefore, it is an object of the present invention to provide a latent variable optimization technique for optimizing a coefficient for adjusting the relative size of each term of a cost function together with a latent variable.

本発明の一態様は、観測データを入力として、潜在変数xを最適化する最適化部を含む変数最適化装置であって、f0(x)を潜在変数xの損失項、yi (i=1, …, n)を潜在変数xに対する正規化項fi(x)の係数を表す変数(以下、係数変数という)とし、前記最適化部は、係数変数yiに対する正規化項gi(yi) (i=1, …, n)を用いて、次式で定義されるコスト関数L(x, y):Rm×Rn→R∪{-∞, +∞} One aspect of the present invention is a variable optimizing apparatus that includes an optimization unit that optimizes a latent variable x by inputting observation data, and f 0 (x) is a loss term of the latent variable x, y i (i = 1, ..., variable representing the coefficients of normalization term f i (x) for the latent variable x to n) (hereinafter, the referred coefficients variable), the optimization unit normalization term g i for the coefficient variable y i Using (y i ) (i=1, …, n), the cost function L(x, y) defined by the following equation: R m ×R n →R ∪{-∞, +∞}

Figure 2020123008
Figure 2020123008

(ただし、y=[y1, …, yn]T)の最小化問題を解くことにより、潜在変数xと係数変数yを最適化する。 The latent variable x and the coefficient variable y are optimized by solving the minimization problem of (where y=[y 1 ,..., Y n ] T ).

本発明によれば、コスト関数の各項の相対的大きさを調整する係数を事前に調整する必要がなく、潜在変数と同時に最適化することが可能となる。 According to the present invention, it is not necessary to adjust the coefficient for adjusting the relative size of each term of the cost function in advance, and it is possible to optimize at the same time as the latent variable.

従来の最適化アルゴリズムの一例を示す図である。It is a figure which shows an example of the conventional optimization algorithm. 本願の最適化アルゴリズムの一例を示す図である。It is a figure which shows an example of the optimization algorithm of this application. 対数凹分布v(x, y)の一例を示す図である。It is a figure which shows an example of logarithmic concave distribution v(x, y). 本願のノイズ除去アルゴリズムの一例を示す図である。It is a figure which shows an example of the noise removal algorithm of this application. 変数最適化装置100の構成を示すブロック図である。3 is a block diagram showing a configuration of a variable optimizing device 100. FIG. 変数最適化装置100の動作を示すフローチャートである。6 is a flowchart showing the operation of the variable optimizing device 100. 最適化部110の構成を示すブロック図である。3 is a block diagram showing a configuration of an optimization unit 110. FIG. 最適化部110の動作を示すフローチャートである。6 is a flowchart showing the operation of the optimization unit 110. ノイズ除去装置200の構成を示すブロック図である。3 is a block diagram showing a configuration of a noise removing device 200. FIG. ノイズ除去装置200の動作を示すフローチャートである。6 is a flowchart showing the operation of the noise removal device 200. 推定信号生成部210の構成を示すブロック図である。3 is a block diagram showing the configuration of an estimated signal generator 210. FIG. 推定信号生成部210の動作を示すフローチャートである。6 is a flowchart showing the operation of the estimated signal generation unit 210. 第1変数更新部212の構成を示すブロック図である。It is a block diagram showing a configuration of a first variable updating unit 212. 第1変数更新部212の動作を示すフローチャートである。9 is a flowchart showing the operation of the first variable updating unit 212.

以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail. It should be noted that components having the same function are denoted by the same reference numeral, and redundant description will be omitted.

各実施形態の説明に先立って、この明細書における表記方法について説明する。 Prior to the description of each embodiment, the notation method in this specification will be described.

^(キャレット)は上付き添字を表す。例えば、xy^zはyzがxに対する上付き添字であり、xy^zはyzがxに対する下付き添字であることを表す。また、_(アンダースコア)は下付き添字を表す。例えば、xy_zはyzがxに対する上付き添字であり、xy_zはyzがxに対する下付き添字であることを表す。 ^ (Caret) represents a superscript. For example, x y^z means that y z is a subscript to x, and x y^z means that y z is a subscript to x. Further, _ (underscore) represents a subscript. For example, x y_z means that y z is a subscript to x, and x y_z means that y z is a subscript to x.

ある文字xに対する^xや~xのような上付き添え字の”^”や”~”は、本来”x”の真上に記載されるべきであるが、明細書の記載表記の制約上、^xや~xと記載しているものである。 The superscript "^" or "~" such as ^x or ~x for a certain character x should be written directly above "x", but due to the restrictions of the description in the specification. , ^x and ~x.

<技術的背景>
本発明の実施形態では、これまで固定のパラメータとして扱ってきた係数γiを確率的仮定が課された確率変数として扱う。つまり、本発明の実施形態では、係数γiの統計的性質を事前に仮定し、係数γiを自動で調整する。したがって、本発明の実施形態では、潜在変数xに加え、係数γiも最適化されることとなる。
<Technical background>
In the embodiment of the present invention, the coefficient γ i which has been treated as a fixed parameter so far is treated as a random variable to which a stochastic assumption is imposed. That is, in the embodiment of the present invention, assuming statistical properties of coefficient gamma i in advance, it adjusts the coefficient gamma i automatically. Therefore, in the embodiment of the present invention, the coefficient γ i is optimized in addition to the latent variable x.

《コスト関数の基本形式》
まず、係数γiを確率変数として扱う場合のコスト関数について説明する。以下、係数γiを確率変数として扱うので、γiと異なる記号を用いて表現することにする。具体的には、正規化項の前にある、コスト関数の各項の相対的大きさを調整する係数をyi(i=1, …, n)で表し、係数変数と呼ぶことにする。
<<Basic form of cost function>>
First, a cost function when the coefficient γ i is treated as a random variable will be described. Since the coefficient γ i is treated as a random variable, it will be expressed using a symbol different from γ i . Specifically, the coefficient that adjusts the relative size of each term of the cost function before the normalization term is represented by y i (i=1,..., N) and is called a coefficient variable.

本発明の実施形態では、潜在変数xと係数変数yi(i=1, …, n)の双方を最適化する。そのために、次式により、コスト関数Lを定義する。 In the embodiment of the present invention, both the latent variable x and the coefficient variable y i (i=1,..., N) are optimized. Therefore, the cost function L is defined by the following equation.

Figure 2020123008
Figure 2020123008

ここで、L(x, y): Rm×Rn→R∪{-∞, +∞}はコスト関数、x∈Rmは潜在変数、y=[y1, …, yn]T∈Rnは係数変数、f0(x)は潜在変数xの損失項、fi(x) (i=1, …, n)は潜在変数xに対する正規化項、gi(yi) (i=1, …, n)は係数変数yiに対する正規化項である。なお、正規化項gi(yi)の定義域は正の領域に制限される。つまり、yi∈(0, +∞)である。 Where L(x, y): R m × R n → R ∪ {-∞, +∞} is a cost function, x ∈ R m is a latent variable, y=[y 1 , …, y n ] T ∈ R n is a coefficient variable, f 0 (x) is the loss term of the latent variable x, f i (x) (i=1, …, n) is the normalization term for the latent variable x, g i (y i ) (i =1, …, n) is the normalization term for the coefficient variable y i . The domain of the normalization term g i (y i ) is limited to the positive region. That is, y i ∈ (0, +∞).

また、損失項f0(x)、正規化項fi(x), gi(yi) (i=1, …, n)はいずれも凸関数である。このとき、コスト関数L(x, y)は、(1)yを固定したときxに関する凸関数、(2)xを固定したときyに関する凸関数となる。つまり、コスト関数L(x, y)はbi-convex(バイコンベックス)となる。 Further, the loss term f 0 (x) and the normalization term f i (x), g i (y i ) (i=1,..., N) are all convex functions. At this time, the cost function L(x, y) is a convex function related to x when (1) y is fixed and a convex function related to y when (2) x is fixed. That is, the cost function L(x, y) is bi-convex.

したがって、変数{x, y}のそれぞれを次式のようにL(x, y)を最小化するように逐次的に更新することにより、不動点(つまり、コスト関数を最小化する解)を得る。 Therefore, the fixed point (that is, the solution that minimizes the cost function) is obtained by updating each of the variables {x, y} sequentially so as to minimize L(x, y) as follows. obtain.

Figure 2020123008
Figure 2020123008

式(2-2)に基づく変数{x, y}の最適化アルゴリズムを図2に示す。ここで、Tは繰り返し回数を表す1以上の整数である。図2に示す最適化アルゴリズムは、観測データを入力として、潜在変数xと係数変数yを交互に逐次最適化するものである。 Figure 2 shows the optimization algorithm for the variable {x, y} based on Eq. (2-2). Here, T is an integer of 1 or more indicating the number of repetitions. The optimization algorithm shown in FIG. 2 inputs the observation data and sequentially optimizes the latent variable x and the coefficient variable y.

式(2-1)と式(1-1)とを比較すると、コスト関数に関して以下の違いがあることがわかる。
(1)式(2-1)では、潜在変数xに対する正規化項に掛かる係数が変数となっている。
(2)式(2-1)では、最適化すべき変数が、潜在変数xと係数変数yの2種類ある。
(3)式(2-1)では、係数変数yiに対する正規化項giが加算されている。この項giを導入することは、係数変数yiに対する確率的仮定を事前に設定することに相当する。
Comparing equations (2-1) and (1-1), it can be seen that there are the following differences regarding the cost function.
(1) In equation (2-1), the coefficient multiplied by the normalization term for the latent variable x is a variable.
(2) In equation (2-1), there are two types of variables to be optimized: latent variable x and coefficient variable y.
In (3) (2-1), regularization term g i are summed for the coefficient variable y i. Introducing this term g i is equivalent to presetting the stochastic assumption for the coefficient variable y i .

《確率モデルと関連したコスト関数の設計》
次に、コスト関数L(x, y)を構成する各項をどのように設計したらよいかの指針について説明する。具体的には、観測データ/変数の生成過程に関する統計的性質を確率分布として表現することで、コスト関数L(x, y)を構成する項を設計する方法について述べる。
<<Design of cost function related to probabilistic model>>
Next, a guideline on how to design each term constituting the cost function L(x, y) will be described. Specifically, we describe a method of designing the terms that make up the cost function L(x, y) by expressing the statistical properties of the observation data/variable generation process as a probability distribution.

凸関数に関連する確率分布のクラスとして、対数凹分布がある(参考非特許文献1)。コスト関数の設計に用いる確率分布を対数凹分布に制限すると、解が一意に得られることが保証できる。
(参考非特許文献1:“Log-concave probability and its applications”, [online], [平成31年1月24日検索], インターネット<URL: http://econ.ucsb.edu/~tedb/Theory/delta.pdf>)
As a class of probability distributions related to convex functions, there is a logarithmic concave distribution (reference non-patent document 1). If the probability distribution used for designing the cost function is restricted to the log-concave distribution, it can be guaranteed that the solution can be uniquely obtained.
(Reference Non-Patent Document 1: "Log-concave probability and its applications", [online], [January 24, 2019 search], Internet <URL: http://econ.ucsb.edu/~tedb/Theory /delta.pdf>)

コスト関数L(x, y)には2種類の変数{x, y}が含まれるため、その組合せに応じて3種類の対数凹分布が必要になる。具体的には、潜在変数xのみを含む対数凹分布ui(x) (i=0, …, k、ただし、kは0以上の整数)、潜在変数xと係数変数yiを含む対数凹分布vi(x, yi) (i=1, …, n)、係数変数yiのみを含む対数凹分布wi(yi) (i=1, …, n)である。 Since the cost function L(x, y) includes two types of variables {x, y}, three types of log-concave distributions are required depending on the combination. Specifically, the log-concave distribution u i (x) (i=0, …, k, where k is an integer of 0 or more) containing only the latent variable x, the log-concave containing the latent variable x and the coefficient variable y i The distribution is v i (x, y i ) (i=1,..., N), and the log-concave distribution w i (y i ) (i=1,..., N) includes only the coefficient variable y i .

Figure 2020123008
Figure 2020123008

ここで、~φi(x) (i=0, …, k), φi(x) (i=1, …, n), ψi(x) (i=1, …, n), ξi(yi) (i=1, …, n)は凸関数である。なお、ui(x), vi(x, yi), wi(yi)は確率分布であるので、いずれも正規化されている。すなわち、∫ui(x)dx=1, ∫vi(x, yi)dxdyi=1, ∫wi(yi)dyi=1が成り立つ。 Where ~φ i (x) (i=0, …, k), φ i (x) (i=1, …, n), ψ i (x) (i=1, …, n), ξ i (y i ) (i=1, …, n) is a convex function. Since u i (x), v i (x, y i ), and w i (y i ) are probability distributions, they are all normalized. That is, ∫u i (x)dx=1, ∫v i (x, y i )dxdy i =1, ∫w i (y i )dy i =1.

対数凹分布ui(x), wi(yi)については、任意の対数凹分布を利用できるので、~φi(x), ξi(yi)として任意の凸関数を用いることができる。一方、対数凹分布vi(x, yi)については、任意の対数凹分布を利用できるわけではない。図3に、具体的に利用できる対数凹分布v(x, y)=exp[-(yf(x)+φ(x)+ψ(y))]の例を示す。ここで、Β(θ1, θ2)はベータ関数、Γ(θ)はガンマ関数である。図3の表は、v(x, y)が確率密度関数pの形式になるときのy, f(x), φ(x), ψ(y)の組合せを示したものである。なお、表の左から2列目は各変数の台(support)を表す。 For log-concave distributions u i (x) and w i (y i ), any log-concave distribution can be used, so it is possible to use any convex function as ~φ i (x), ξ i (y i ). it can. On the other hand, as for the log-concave distribution v i (x, y i ), an arbitrary log-concave distribution cannot be used. FIG. 3 shows an example of a logarithmic concave distribution v(x, y)=exp[-(yf(x)+φ(x)+ψ(y))] that can be specifically used. Here, Β(θ 1 , θ 2 ) is a beta function and Γ(θ) is a gamma function. The table of FIG. 3 shows combinations of y, f(x), φ(x), and ψ(y) when v(x, y) is in the form of the probability density function p. The second column from the left of the table shows the support of each variable.

観測データ/変数の生成過程に関する統計的性質が上記対数凹の確率分布u0(x), vi(x, yi) (i=1, …, n), wi(yi) (i=1, …, n)によって与えられると仮定する。このとき、~φ0(x)を単にφ0(x)と表すこととすると、尤度関数P(x, y)は次式のようになる。 Probability distribution u 0 (x), v i (x, y i ) (i=1, …, n), w i (y i ) (i =1, …, n). At this time, if φ 0 (x) is simply expressed as φ 0 (x), the likelihood function P(x, y) is expressed by the following equation.

Figure 2020123008
Figure 2020123008

式(2-6)に現れる項を次式により置き換えると、 Replacing the terms appearing in equation (2-6) with the following equation,

Figure 2020123008
Figure 2020123008

式(2-6)は以下のようになる。 Equation (2-6) is as follows.

Figure 2020123008
Figure 2020123008

式(2-7)は、コスト関数L(x, y)の最小値minx,yL(x, y)が上記仮定した生成過程の最大対数尤度maxx,ylogP(x, y)と一致することを示す。 Equation (2-7) is the maximum log-likelihood max x,y logP(x, y) of the generation process when the minimum value min x, y L(x, y) of the cost function L(x, y) is assumed above. Indicates that it matches.

式(2-3)〜式(2-5)で定義される対数凹分布u0(x), vi(x, yi), wi(yi)を用いて観測データ/変数の生成過程を表現すると、負の対数尤度-logP(x, y)がコスト関数L(x,y)と一致する。また、式(2-2)は、片方の変数(例えば、y)を固定して、もう片方の変数(例えば、x)に関してコスト関数を最小化する処理を意味する。したがって、当該処理は交互に尤度を最大化する処理に対応する。 Generation of observation data/variables using the log-concave distribution u 0 (x), v i (x, y i ), w i (y i ) defined by Eqs. (2-3) to (2-5) Expressing the process, the negative log-likelihood-logP(x, y) agrees with the cost function L(x, y). Further, the expression (2-2) means a process of fixing one variable (for example, y) and minimizing the cost function with respect to the other variable (for example, x). Therefore, the process corresponds to the process of alternately maximizing the likelihood.

Figure 2020123008
Figure 2020123008

《応用事例》
ここでは、LASSOに基づく潜在変数最適化でのコスト関数L(x, y)の設計について説明する。ノイズが混在した観測信号d∈Rmを入力とし、ノイズが除去された推定信号x∈Rmを出力する問題について考える。ここで、対象とする信号は時間領域の音声、静止画像などである。この問題におけるコスト関数を導出するため、いくつかの確率的仮定を置く。以下、各仮定について説明する。
<Application example>
Here, the design of the cost function L(x, y) in the latent variable optimization based on LASSO is described. Consider the problem of inputting an observed signal d ∈ R m in which noise is mixed and outputting an estimated signal x ∈ R m from which noise has been removed. Here, the signals of interest are time domain sounds, still images, and the like. To derive the cost function in this problem, we make some probabilistic assumptions. Hereinafter, each assumption will be described.

(仮定1):観測信号dと推定信号xの差に関する仮定
観測信号dと推定信号xの差は、次式で与えられる分散σ2のガウス分布に従うものと仮定する。
(Assumption 1): Assumption regarding the difference between the observed signal d and the estimated signal x It is assumed that the difference between the observed signal d and the estimated signal x follows a Gaussian distribution of variance σ 2 given by the following equation.

Figure 2020123008
Figure 2020123008

(仮定2):推定信号xの取り得る値に関する仮定
推定信号xは範囲c={cmin, cmax}(cmin,<cmax)のある値をとる一様分布に従うものと仮定する。
(Assumption 2): Assumptions about possible values of the estimated signal x It is assumed that the estimated signal x follows a uniform distribution having a certain value in the range c={c min ,c max }(c min ,<c max ).

Figure 2020123008
Figure 2020123008

ここで、x=[x1, …, xm]Tである。 Here, x=[x 1 ,..., X m ] T .

(仮定3):潜在変数である推定信号xの補助変数zに対する確率的仮定
音声のスペクトログラムは、局所領域でスパース性が高いことが知られている。また、画像の隣接要素差分についても局所領域でスパース性が高いことが多い。
(Assumption 3): Probabilistic assumption for auxiliary variable z of estimated signal x that is a latent variable It is known that the spectrogram of speech has high sparseness in a local region. Also, the adjacent element difference of the image is often highly sparse in the local region.

そこで、音声に対しては、フレームシフトしながら窓掛けして離散フーリエ変換(DFT)した結果を補助変数zとする。また、画像に対しては、隣接するピクセルを差し引いた結果を補助変数zとする。いずれの場合も、潜在変数xに対して所定の行列Dを掛け合わせることで補助変数zが得られる。 Therefore, with respect to the voice, the result of performing the discrete Fourier transform (DFT) by performing windowing while frame-shifting is used as the auxiliary variable z. For the image, the result of subtracting adjacent pixels is used as the auxiliary variable z. In either case, the auxiliary variable z is obtained by multiplying the latent variable x by a predetermined matrix D.

Figure 2020123008
Figure 2020123008

ここで、行列Dは観測信号の発生に由来する行列である。 Here, the matrix D is a matrix derived from the generation of the observation signal.

音声/画像を局所領域ごとに分割し、合計でn個の局所領域が得られたものとすると、補助変数zもn分割される。これを、{z1, …, zn}∈zと表す。なお、分割に際して局所領域は重畳するようにしてもよい。 If the audio/image is divided into local regions and a total of n local regions are obtained, the auxiliary variable z is also divided into n. This is represented as {z 1 ,..., Z n }∈z. The local areas may be overlapped when dividing.

補助変数zi(i=1, …, n)のスパース性より、補助変数ziは分散2βi 2のラプラス分布に従うものと仮定する。 From the sparsity of the auxiliary variable z i (i=1,..., N), it is assumed that the auxiliary variable z i follows the Laplace distribution with variance 2β i 2 .

Figure 2020123008
Figure 2020123008

式(2-4)の形式に合うように、次式の置き換えを用いると、 To match the form of equation (2-4), using the substitution of

Figure 2020123008
Figure 2020123008

式(2-14)は次式のようになる。 Equation (2-14) is as follows.

Figure 2020123008
Figure 2020123008

ここで、ラプラス分布の分散βiに関連するパラメータyi(i=1, …, n)が係数変数となっている。 Here, the parameter y i (i=1,..., N) related to the variance β i of the Laplace distribution is a coefficient variable.

(仮定4):係数変数yiに対する確率的仮定
(仮定3)では、補助変数ziのスパース性を表現するためにラプラス分布が用いられ、その分散に関連するパラメータyiは変数として扱われたが、この係数変数yiもまた対数凹分布で表現される確率分布に従うものと仮定する。
(Assumption 4): Probabilistic assumption for coefficient variable y i (Assumption 3) A Laplace distribution is used to express the sparsity of the auxiliary variable z i , and the parameter y i related to its variance is treated as a variable. However, it is assumed that the coefficient variables y i also follow a probability distribution represented by a log-concave distribution.

ここでは、係数変数yiに対する確率的仮定の一例として、上限及び下限が制限されたガウス分布を用いることにする。ガウス分布の下限及び上限をζi={ζmin,i, ζmax,i}(ζmin,i>0, ζmax,i>0)、平均をμi、分散をρi 2とすると、確率分布wiは以下のようになる。 Here, a Gaussian distribution with limited upper and lower limits is used as an example of a stochastic assumption for the coefficient variable y i . If the lower and upper bounds of the Gaussian distribution are ζ i ={ζ min,imax,i }(ζ min,i >0, ζ max,i >0), the mean is μ i , and the variance is ρ i 2 , The probability distribution w i is as follows.

Figure 2020123008
Figure 2020123008

ここで、erf(・)は誤差関数である。 Here, erf(•) is an error function.

したがって、尤度関数は、次式により与えられる。 Therefore, the likelihood function is given by:

Figure 2020123008
Figure 2020123008

(仮定1)〜(仮定4)から導出された観測データ/変数の生成過程に関する式(2-9)、式(2-11)、式(2-15)、式(2-18)より、負の対数尤度であるコスト関数L(x, y)は以下で表現される。 From equation (2-9), equation (2-11), equation (2-15), and equation (2-18) relating to the generation process of observation data/variables derived from (assume 1) to (assume 4), The cost function L(x, y), which is a negative log-likelihood, is expressed as follows.

Figure 2020123008
Figure 2020123008

したがって、 Therefore,

Figure 2020123008
Figure 2020123008

となる。ここで、潜在変数xとその補助変数zは、線形等式z=Dxにより関連している。 Becomes Here, the latent variable x and its auxiliary variable z are related by the linear equation z=Dx.

《最適化ソルバー》
以下、コスト関数L(x, z, y)の最適化ソルバーについて説明する。変数{x, z, y}を交互に最適化することで、不動点(コスト関数を最小化する解)を得ることを目指す。ここでは、最適化ソルバーとして、従来からある近接点法に基づくアルゴリズムを適用する。
《Optimization solver》
The optimization solver of the cost function L(x, z, y) will be described below. By optimizing the variables {x, z, y} alternately, we aim to obtain a fixed point (a solution that minimizes the cost function). Here, an algorithm based on the conventional proximity point method is applied as an optimization solver.

まず、コスト関数L(x, z, y)に関して、各変数で劣微分した作用素Tを定義する。 First, with respect to the cost function L(x, z, y), an operator T which is subdifferentiated with respect to each variable is defined.

Figure 2020123008
Figure 2020123008

そして、次式により各変数の不動点が得られる。 Then, the fixed point of each variable is obtained by the following equation.

Figure 2020123008
Figure 2020123008

劣微分作用素Tに関連するリゾルヴェント作用素RT=(I+αT)-1(α>0)を用いて、変数{x, z, y}を更新することにする。 We will update the variable {x, z, y} with the resolvent operator R T =(I+αT) −1 (α>0) associated with the subdifferential operator T.

Figure 2020123008
Figure 2020123008

コスト関数L(x, z, y)はbi-convex関数であるので、主変数{x, z}と双対変数yを交互に更新することとする。式(2-22)は、以下の2種類の制約付最小化問題の繰り返し演算に還元される。 Since the cost function L(x, z, y) is a bi-convex function, the main variable {x, z} and the dual variable y are updated alternately. Equation (2-22) is reduced to the following two types of iterative operations for constrained minimization problems.

Figure 2020123008
Figure 2020123008

式(2-23)の問題を解くための一つの方法として交互方向乗数法(ADMM)がある。ADMMに基づいて式(2-23)を解くために、新たな双対変数λを導入する。したがって、最終的には、ADMMに基づく変数最適化アルゴリズム(最適化ソルバー)は{x, z, y, λ}の4種類の変数を逐次更新するアルゴリズムとなる。図4に示す当該アルゴリズムはノイズ除去アルゴリズムである。なお、ε(>0), α(>0), η(>0)は所定の定数、Tは1以上の整数である。 One method for solving the problem of equation (2-23) is the alternating direction multiplier method (ADMM). To solve equation (2-23) based on ADMM, we introduce a new dual variable λ. Therefore, finally, the ADMM-based variable optimization algorithm (optimization solver) is an algorithm that sequentially updates the four types of variables {x, z, y, λ}. The algorithm shown in FIG. 4 is a noise removal algorithm. Note that ε(>0), α(>0), η(>0) are predetermined constants, and T is an integer of 1 or more.

ここでは具体的な実験データは示さないが、係数変数yiに対する確率的仮定が適切なものであれば、当該ノイズ除去アルゴリズムを用いて高精度な信号推定が可能となることが確認された。 Although concrete experimental data are not shown here, it was confirmed that highly accurate signal estimation can be performed using the noise removal algorithm if the stochastic assumption for the coefficient variables y i is appropriate.

<第1実施形態>
変数最適化装置100は、観測データを入力として、最適化の対象となるモデルの潜在変数xを最適化する。ここで、モデルとは、入力データを入力とし、出力データを出力とする関数のことである。また、観測データとは、潜在変数の最適化に用いる入力データのことである。
<First Embodiment>
The variable optimizing device 100 optimizes the latent variable x of the model to be optimized with the observation data as input. Here, the model is a function in which input data is input and output data is output. The observation data is input data used for optimizing the latent variable.

変数最適化装置100は、潜在変数xを最適化する際、f0(x)を潜在変数xの損失項、yi (i=1, …, n)を潜在変数xに対する正規化項fi(x)の係数を表す変数(以下、係数変数という)として、係数変数yiに対する正規化項gi(yi) (i=1, …, n)を用いて次式で定義されるコスト関数L(x, y):Rm×Rn→R∪{-∞, +∞}の最小化問題を解くことにより、潜在変数xと係数変数yを最適化する。 When optimizing the latent variable x, the variable optimizing apparatus 100 sets f 0 (x) to the loss term of the latent variable x and y i (i=1,..., N) to the normalization term f i for the latent variable x. The cost defined by the following equation using the normalization term g i (y i ) (i=1, …, n) for the coefficient variable y i as a variable that represents the coefficient of (x) (hereinafter referred to as the coefficient variable) Optimize the latent variable x and the coefficient variable y by solving the minimization problem of the function L(x, y): R m ×R n →R∪{-∞, +∞}.

Figure 2020123008
Figure 2020123008

(ただし、y=[y1, …, yn]Tである。) (However, y=[y 1 , ..., y n ] T .)

以下、図5〜図6を参照して変数最適化装置100を説明する。図5は、変数最適化装置100の構成を示すブロック図である。図6は、変数最適化装置100の動作を示すフローチャートである。図5に示すように変数最適化装置100は、最適化部110と、記録部190を含む。記録部190は、変数最適化装置100の処理に必要な情報を適宜記録する構成部である。記録部190は、例えば、入力となる観測データ、最適化対象となる潜在変数xや係数変数yiを記録する。 Hereinafter, the variable optimizing device 100 will be described with reference to FIGS. FIG. 5 is a block diagram showing the configuration of the variable optimization device 100. FIG. 6 is a flowchart showing the operation of the variable optimizing device 100. As shown in FIG. 5, the variable optimizing device 100 includes an optimizing unit 110 and a recording unit 190. The recording unit 190 is a component that appropriately records information necessary for the processing of the variable optimization device 100. The recording unit 190 records, for example, input observation data, latent variables x and coefficient variables y i to be optimized.

図6に従い変数最適化装置100の動作について説明する。 The operation of the variable optimizing device 100 will be described with reference to FIG.

S110において、最適化部110は、観測データを入力として、コスト関数Lの最小化問題を解くことにより潜在変数xと係数変数yを最適化する。 In S110, the optimization unit 110 optimizes the latent variable x and the coefficient variable y by solving the minimization problem of the cost function L with the observation data as input.

以下、図7〜図8を参照して最適化部110について説明する。図7は、最適化部110の構成を示すブロック図である。図8は、最適化部110の動作を示すフローチャートである。図7に示すように最適化部110は、初期化部111、潜在変数更新部112と、係数変数更新部113と、カウンタ更新部114と、終了条件判定部115を含む。 Hereinafter, the optimization unit 110 will be described with reference to FIGS. 7 to 8. FIG. 7 is a block diagram showing the configuration of the optimization unit 110. FIG. 8 is a flowchart showing the operation of the optimizing unit 110. As shown in FIG. 7, the optimization unit 110 includes an initialization unit 111, a latent variable update unit 112, a coefficient variable update unit 113, a counter update unit 114, and an end condition determination unit 115.

図8に従い最適化部110の動作について説明する。 The operation of the optimization unit 110 will be described with reference to FIG.

S111において、初期化部111は、カウンタtを初期化する。具体的には、t=1とする。また、初期化部111は、潜在変数x、係数変数yを初期化する。 In S111, the initialization unit 111 initializes the counter t. Specifically, t=1. Further, the initialization unit 111 initializes the latent variable x and the coefficient variable y.

S112において、潜在変数更新部112は、次式により、潜在変数xを更新する。 In S112, the latent variable updating unit 112 updates the latent variable x by the following formula.

Figure 2020123008
Figure 2020123008

S113において、係数変数更新部113は、次式により、係数変数yを更新する。 In S113, the coefficient variable updating unit 113 updates the coefficient variable y by the following formula.

Figure 2020123008
Figure 2020123008

S114において、カウンタ更新部114は、カウンタtを1だけインクリメントする。具体的には、t←t+1とする。 In S114, the counter updating unit 114 increments the counter t by 1. Specifically, t←t+1.

S115において、終了条件判定部115は、カウンタtが所定の更新回数T(Tは1以上の整数であり、例えば10万)に達した場合(つまり、t>Tとなり、終了条件が満たされた場合)は、そのときの潜在変数の値xと係数変数の値yを出力して、処理を終了する。それ以外の場合、S112の処理に戻る。つまり、最適化部110は、S112〜S115の処理を繰り返す。 In S115, the end condition determination unit 115 determines that the counter t has reached the predetermined number of updates T (T is an integer of 1 or more, for example, 100,000) (that is, t>T, and the end condition is satisfied). In the case), the value x of the latent variable and the value y of the coefficient variable at that time are output, and the process ends. Otherwise, the process returns to S112. That is, the optimization unit 110 repeats the processing of S112 to S115.

本実施形態の発明によれば、コスト関数の各項の相対的大きさを調整する係数を事前に調整する必要がなく、潜在変数と同時に最適化することが可能となる。つまり、確率モデルのパラメータを除くパラメータ(例えば、係数)については人手で調整する必要がないため、パラメータの人手による調整を可能な限り少なくすることができる。 According to the invention of this embodiment, it is not necessary to adjust the coefficient for adjusting the relative magnitude of each term of the cost function in advance, and it is possible to optimize the coefficient simultaneously with the latent variable. That is, it is not necessary to manually adjust the parameters (for example, coefficients) other than the parameters of the probabilistic model, and therefore the manual adjustment of the parameters can be minimized.

<第2実施形態>
ここでは、変数最適化装置100を観測信号のノイズ除去に適用した例であるノイズ除去装置200について説明する。ノイズ除去装置200は、ノイズが混在した観測信号を入力として、ノイズを除去した推定信号を生成する。
<Second Embodiment>
Here, a noise removal apparatus 200, which is an example in which the variable optimization apparatus 100 is applied to noise removal of an observation signal, will be described. The noise removal apparatus 200 receives an observation signal in which noise is mixed, and generates an estimated signal from which noise has been removed.

以下、図9〜図10を参照してノイズ除去装置200を説明する。図9は、ノイズ除去装置200の構成を示すブロック図である。図10は、ノイズ除去装置200の動作を示すフローチャートである。図9に示すようにノイズ除去装置200は、推定信号生成部210と、記録部290を含む。記録部290は、ノイズ除去装置200の処理に必要な情報を適宜記録する構成部である。記録部290は、例えば、入力となる観測信号、推定信号を表す潜在変数を記録する。 Hereinafter, the noise removing device 200 will be described with reference to FIGS. 9 to 10. FIG. 9 is a block diagram showing the configuration of the noise removing apparatus 200. FIG. 10 is a flowchart showing the operation of the noise eliminator 200. As shown in FIG. 9, the noise removal device 200 includes an estimated signal generation unit 210 and a recording unit 290. The recording unit 290 is a component that appropriately records information necessary for the processing of the noise removing apparatus 200. The recording unit 290 records, for example, latent variables that represent the observed signal and the estimated signal that are input.

図10に従いノイズ除去装置200の動作について説明する。 The operation of the noise eliminator 200 will be described with reference to FIG.

S210において、推定信号生成部210は、観測信号を入力として、コスト関数Lの最小化問題を解くことにより、推定信号を表す潜在変数xと補助変数zと係数変数yを最適化して得られた、推定信号を表す潜在変数xをノイズを除去した推定信号として生成する。ここで、x∈Rmはノイズを除去した推定信号表す潜在変数、zはz=Dx(ただし、行列Dは観測信号の発生に由来する行列)を満たす推定信号を表す潜在変数xの補助変数、{z1, …, zn}∈zは補助変数zをn分割して得られる補助変数、yi(i=1, …, n)は補助変数ziが分散2(1/yi)2のラプラス分布vi(zi, yi)に従うと仮定したとき得られる係数変数である。また、コスト関数L(x, z, y):Rm×Rn×Rn→R∪{-∞, +∞}は、次式で定義される。 In S210, the estimated signal generation unit 210 is obtained by optimizing the latent variable x, the auxiliary variable z, and the coefficient variable y representing the estimated signal by solving the minimization problem of the cost function L with the observed signal as an input. , A latent variable x representing the estimated signal is generated as an estimated signal from which noise is removed. Where x ∈ R m is a latent variable that represents the estimated signal with noise removed, and z is an auxiliary variable of the latent variable x that represents the estimated signal that satisfies z=Dx (where matrix D is the matrix from which the observed signal is generated). , {Z 1 , …, z n } ∈ z is the auxiliary variable obtained by dividing the auxiliary variable z into n, and y i (i=1, …, n) is the auxiliary variable z i with variance 2(1/y i ) 2 is a coefficient variable obtained when it is assumed to follow the Laplace distribution v i (z i , y i ). Further, the cost function L(x, z, y): R m ×R n ×R n →R∪{-∞, +∞} is defined by the following equation.

Figure 2020123008
Figure 2020123008

(ただし、y=[y1, …, yn]T、u0(x|d,σ2)を観測信号dと推定信号を表す潜在変数xの差の分布を表す分散σ2のガウス分布、u1(x|c)を推定信号を表す潜在変数xの分布を表す範囲cの一様分布、wi(yii, μi, ρi 2)を係数変数yiの分布を表す下限及び上限ζi={ζmin,i, ζmax,i}(ζmin,i>0, ζmax,i>0)、平均μi、分散ρi 2のガウス分布とする。) (However, y=[y 1 , …, y n ] T , u 0 (x|d, σ 2 ) is the Gaussian distribution of variance σ 2 that represents the distribution of the difference between the observed signal d and the latent variable x that represents the estimated signal. , U 1 (x|c) is a uniform distribution in the range c that represents the distribution of the latent variable x that represents the estimated signal, and w i (y iiii 2 ) is the distribution of the coefficient variable y i The lower and upper limits ζ i ={ζ min,i , ζ max,i }(ζ min,i >0, ζ max,i >0), mean μ i , and Gaussian distribution of variance ρ i 2 )

以下、図11〜図12を参照して推定信号生成部210について説明する。図11は、推定信号生成部210の構成を示すブロック図である。図12は、推定信号生成部210の動作を示すフローチャートである。図11に示すように推定信号生成部210は、初期化部211、第1変数更新部212と、第2変数更新部213と、カウンタ更新部214と、終了条件判定部215を含む。 The estimated signal generator 210 will be described below with reference to FIGS. 11 to 12. FIG. 11 is a block diagram showing the configuration of estimated signal generation section 210. FIG. 12 is a flowchart showing the operation of the estimated signal generator 210. As shown in FIG. 11, the estimated signal generation unit 210 includes an initialization unit 211, a first variable update unit 212, a second variable update unit 213, a counter update unit 214, and an end condition determination unit 215.

図12に従い推定信号生成部210の動作について説明する。 The operation of the estimated signal generator 210 will be described with reference to FIG.

S211において、初期化部211は、カウンタtを初期化する。具体的には、t=1とする。また、初期化部111は、推定信号を表す潜在変数x、補助変数z、双対変数λ、係数変数yを初期化する。 In S211, the initialization unit 211 initializes the counter t. Specifically, t=1. The initialization unit 111 also initializes a latent variable x, an auxiliary variable z, a dual variable λ, and a coefficient variable y that represent the estimated signal.

S212において、第1変数更新部212は、推定信号を表す潜在変数x、補助変数z、双対変数λを更新する。以下、図13〜図14を参照して第1変数更新部212について説明する。図13は、第1変数更新部212の構成を示すブロック図である。図14は、第1変数更新部212の動作を示すフローチャートである。図13に示すように第1変数更新部212は、潜在変数更新部2121と、補助変数更新部2122と、双対変数更新部2123と、収束条件判定部2124を含む。 In S212, the first variable updating unit 212 updates the latent variable x, the auxiliary variable z, and the dual variable λ that represent the estimated signal. The first variable updating unit 212 will be described below with reference to FIGS. 13 to 14. FIG. 13 is a block diagram showing the configuration of the first variable updating unit 212. FIG. 14 is a flowchart showing the operation of the first variable updating unit 212. As shown in FIG. 13, the first variable update unit 212 includes a latent variable update unit 2121, an auxiliary variable update unit 2122, a dual variable update unit 2123, and a convergence condition determination unit 2124.

図14に従い第1変数更新部212の動作について説明する。なお、α, ηはそれぞれα>0, η>0を満たす所定の定数である。 The operation of the first variable updating unit 212 will be described with reference to FIG. Note that α and η are predetermined constants that satisfy α>0 and η>0, respectively.

S2121において、潜在変数更新部2121は、次式により、推定信号を表す潜在変数xを更新する。 In S2121, the latent variable updating unit 2121 updates the latent variable x representing the estimated signal by the following equation.

Figure 2020123008
Figure 2020123008

S2122において、補助変数更新部2122は、次式により、補助変数zを更新する。 In S2122, the auxiliary variable updating unit 2122 updates the auxiliary variable z by the following equation.

Figure 2020123008
Figure 2020123008

S2123において、双対変数更新部2123は、次式により、双対変数λを更新する。 In S2123, the dual variable updating unit 2123 updates the dual variable λ by the following equation.

Figure 2020123008
Figure 2020123008

S2124において、収束条件判定部2124は、更新前後の潜在変数xの差を表す||x-xold||2 2が所定の値ε(>0)より大きい間は、S2121〜S2124の処理を繰り返す。一方、収束条件判定部2124は、||x-xold||2 2が所定の値ε以下となった場合は、潜在変数x、補助変数z、双対変数λを出力し、次の処理ステップ(つまり、S213)に移行する。 In S 2124, the convergence condition determination unit 2124, || xx old representing the difference of the latent variable x before and after the update || 2 2 is the predetermined value ε (> 0) between the larger repeats the processing S2121~S2124. On the other hand, the convergence condition determination unit 2124, || xx if old || 2 2 is equal to or less than a predetermined value epsilon, the latent variable x, the auxiliary variable z, and outputs the dual variable lambda, the next processing step (i.e. , S213).

S213において、第2変数更新部213は、次式により、係数変数yを更新する。 In S213, the second variable updating unit 213 updates the coefficient variable y by the following equation.

Figure 2020123008
Figure 2020123008

S214において、カウンタ更新部214は、カウンタtを1だけインクリメントする。具体的には、t←t+1とする。 In S214, the counter updating unit 214 increments the counter t by 1. Specifically, t←t+1.

S215において、終了条件判定部215は、カウンタtが所定の更新回数T(Tは1以上の整数であり、例えば10万)に達した場合(つまり、t>Tとなり、終了条件が満たされた場合)は、そのときの潜在変数の値xをノイズを除去した推定信号として出力して、処理を終了する。それ以外の場合、S212の処理に戻る。つまり、推定信号生成部210は、S212〜S215の処理を繰り返す。 In step S215, the termination condition determination unit 215 determines that the counter t has reached the predetermined number of updates T (T is an integer of 1 or more, for example, 100,000) (that is, t>T, and the termination condition is satisfied). In the case), the value x of the latent variable at that time is output as an estimated signal from which noise has been removed, and the process ends. Otherwise, the process returns to S212. That is, the estimated signal generation unit 210 repeats the processing of S212 to S215.

(変形例)
上記第1変数更新部212の代わりに、以下のS212を実行する第1変数更新部212を用いるようにしてもよい。つまり、S212において、第1変数更新部212は、次式により、推定信号を表す潜在変数x、補助変数zを更新する。
(Modification)
The first variable updating unit 212 that executes the following S212 may be used instead of the first variable updating unit 212. That is, in S212, the first variable updating unit 212 updates the latent variable x and the auxiliary variable z representing the estimated signal by the following equation.

Figure 2020123008
Figure 2020123008

本実施形態の発明によれば、ノイズが除去された高精度な推定信号を生成することが可能となる。 According to the invention of this embodiment, it is possible to generate a highly accurate estimated signal from which noise has been removed.

<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Additional notes>
The device of the present invention is, for example, as a single hardware entity, an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity. Connectable communication unit, CPU (Central Processing Unit, cache memory and registers may be provided), memory RAM and ROM, hard disk external storage device and their input unit, output unit, communication unit , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged among external storage devices. If necessary, the hardware entity may be provided with a device (drive) capable of reading and writing a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.

ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。 The external storage device of the hardware entity stores a program necessary for realizing the above-described functions and data necessary for the processing of this program (not limited to the external storage device, for example, the program is read). It may be stored in a ROM that is a dedicated storage device). In addition, data and the like obtained by the processing of these programs are appropriately stored in the RAM, the external storage device, or the like.

ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。 In the hardware entity, each program stored in an external storage device (or ROM, etc.) and data necessary for the processing of each program are read into the memory as necessary, and interpreted and executed/processed by the CPU as appropriate. .. As a result, the CPU realizes a predetermined function (each constituent element represented by the above,... Unit,... Means, etc.).

本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。 The present invention is not limited to the above-described embodiments, and can be modified as appropriate without departing from the spirit of the present invention. Further, the processing described in the above embodiments may be executed not only in time series according to the order described, but also in parallel or individually according to the processing capability of the device that executes the processing or the need. ..

既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。 As described above, when the processing functions of the hardware entity (the apparatus of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on the computer, the processing functions of the hardware entity are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。 The program describing the processing contents can be recorded in a computer-readable recording medium. The computer-readable recording medium may be, for example, a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory, or the like. Specifically, for example, a hard disk device, a flexible disk, a magnetic tape or the like is used as a magnetic recording device, and a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), or a CD-ROM (Compact Disc Read Only) is used as an optical disc. Memory), CD-R (Recordable)/RW (ReWritable), etc., as magneto-optical recording medium, MO (Magneto-Optical disc), etc., as semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 The distribution of this program is performed by selling, transferring, or lending a portable recording medium such as a DVD or a CD-ROM in which the program is recorded. Further, the program may be stored in a storage device of a server computer and transferred from the server computer to another computer via a network to distribute the program.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program temporarily stores, for example, the program recorded in a portable recording medium or the program transferred from the server computer in its own storage device. Then, when executing the process, this computer reads the program stored in its own storage device and executes the process according to the read program. As another execution form of this program, a computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to this computer. Each time, the processing according to the received program may be sequentially executed. Further, the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes a processing function only by executing the execution instruction and the result acquisition without transferring the program from the server computer to the computer. May be Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (such as data that is not a direct command to a computer but has the property of defining computer processing).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 Further, in this embodiment, the hardware entity is configured by executing a predetermined program on the computer, but at least a part of the processing content may be implemented by hardware.

上述の本発明の実施形態の記載は、例証と記載の目的で提示されたものである。網羅的であるという意思はなく、開示された厳密な形式に発明を限定する意思もない。変形やバリエーションは上述の教示から可能である。実施形態は、本発明の原理の最も良い例証を提供するために、そして、この分野の当業者が、熟考された実際の使用に適するように本発明を色々な実施形態で、また、色々な変形を付加して利用できるようにするために、選ばれて表現されたものである。すべてのそのような変形やバリエーションは、公正に合法的に公平に与えられる幅にしたがって解釈された添付の請求項によって定められた本発明のスコープ内である。 The foregoing description of the embodiments of the invention has been presented for purposes of illustration and description. I have no intention of being exhaustive or of limiting the invention to the precise form disclosed. Modifications and variations are possible from the above teachings. The embodiments are intended to provide the best illustration of the principles of the invention and to those of ordinary skill in the art in various embodiments and in various ways to suit the actual use contemplated. It has been chosen and expressed so that it can be used with additional transformations. All such variations and variations are within the scope of the invention as defined by the appended claims, which are construed in accordance with the breadth to which they are impartially and legally imparted.

Claims (7)

観測データを入力として、潜在変数xを最適化する最適化部を含む変数最適化装置であって、
f0(x)を潜在変数xの損失項、yi (i=1, …, n)を潜在変数xに対する正規化項fi(x)の係数を表す変数(以下、係数変数という)とし、
前記最適化部は、
係数変数yiに対する正規化項gi(yi) (i=1, …, n)を用いて、次式で定義されるコスト関数L(x, y):Rm×Rn→R∪{-∞, +∞}
Figure 2020123008
(ただし、y=[y1, …, yn]T)の最小化問題を解くことにより、潜在変数xと係数変数yを最適化する
変数最適化装置。
A variable optimizing device including an optimizing unit for optimizing a latent variable x by inputting observation data,
Let f 0 (x) be the loss term of the latent variable x, and y i (i=1, …, n) be a variable that represents the coefficient of the normalization term f i (x) for the latent variable x (hereinafter referred to as the coefficient variable). ,
The optimization unit is
Using the normalization term g i (y i ) (i=1, …, n) for the coefficient variable y i, the cost function L(x, y):R m ×R n →R∪ {-∞, +∞}
Figure 2020123008
A variable optimizer that optimizes the latent variable x and the coefficient variable y by solving the minimization problem of (where y=[y 1 ,..., Y n ] T ).
請求項1に記載の変数最適化装置であって、
前記最適化部は、
次式により、潜在変数xを更新する潜在変数更新部と、
Figure 2020123008
次式により、係数変数yを更新する係数変数更新部と、
Figure 2020123008
を含む変数最適化装置。
The variable optimizing device according to claim 1, wherein
The optimization unit is
With the following formula, the latent variable update part that updates the latent variable x,
Figure 2020123008
A coefficient variable updating unit for updating the coefficient variable y by the following equation,
Figure 2020123008
A variable optimizer including.
ノイズが混在した観測信号を入力として、ノイズを除去した推定信号を生成する推定信号生成部を含むノイズ除去装置であって、
x∈Rmを前記ノイズを除去した推定信号を表す潜在変数、zをz=Dx(ただし、行列Dは観測信号の発生に由来する行列)を満たす推定信号を表す潜在変数xの補助変数、{z1, …, zn}∈zを補助変数zをn分割して得られる補助変数、yi(i=1, …, n)を補助変数ziが分散2(1/yi)2のラプラス分布vi(zi, yi)に従うと仮定したとき得られる係数変数とし、
前記推定信号生成部は、次式で定義されるコスト関数L(x, z, y):Rm×Rn×Rn→R∪{-∞, +∞}
Figure 2020123008
(ただし、y=[y1, …, yn]T、u0(x|d,σ2)を観測信号dと推定信号を表す潜在変数xの差の分布を表す分散σ2のガウス分布、u1(x|c)を推定信号を表す潜在変数xの分布を表す範囲cの一様分布、wi(yii, μi, ρi 2)を係数変数yiの分布を表す下限及び上限ζi={ζmin,i, ζmax,i}(ζmin,i>0, ζmax,i>0)、平均μi、分散ρi 2のガウス分布)の最小化問題を解くことにより、推定信号を表す潜在変数xと補助変数zと係数変数yを最適化して得られた、推定信号を表す潜在変数xを前記ノイズを除去した推定信号として生成する
ノイズ除去装置。
A noise removal apparatus including an estimated signal generation unit that generates an estimated signal from which noise is removed by inputting an observation signal in which noise is mixed,
x ∈ R m is a latent variable representing the estimated signal from which the noise is removed, z is an auxiliary variable of the latent variable x representing an estimated signal satisfying z=Dx (where matrix D is a matrix derived from the generation of the observed signal), {z 1 , …, z n } ∈ z is an auxiliary variable obtained by dividing the auxiliary variable z into n, and y i (i=1, …, n) is the auxiliary variable z i with variance 2(1/y i ). 2 of Laplace distribution v i (z i, y i ) is a coefficient variable obtained when it is assumed to follow,
The estimated signal generating unit is a cost function L(x, z, y) defined by the following equation: R m ×R n ×R n →R ∪{-∞, +∞}
Figure 2020123008
(However, y=[y 1 , …, y n ] T , u 0 (x|d, σ 2 ) is the Gaussian distribution of variance σ 2 that represents the distribution of the difference between the observed signal d and the latent variable x that represents the estimated signal. , U 1 (x|c) is a uniform distribution in the range c that represents the distribution of the latent variable x that represents the estimated signal, and w i (y iiii 2 ) is the distribution of the coefficient variable y i The lower and upper bounds ζ i ={ζ min,imax,i }(ζ min,i >0, ζ max,i >0), mean μ i , Gaussian distribution with variance ρ i 2 ) A noise eliminator that solves the problem to generate a latent variable x representing an estimated signal, an auxiliary variable z, and a coefficient variable y obtained as a result of optimizing a latent variable x representing an estimated signal as an estimated signal from which the noise has been removed. ..
請求項3に記載のノイズ除去装置であって、
α、ηを所定の定数とし、
前記推定信号生成部は、
次式により、推定信号を表す潜在変数x、補助変数z、双対変数λを更新する第1変数更新部と、
Figure 2020123008
次式により、係数変数yを更新する第2変数更新部と、
Figure 2020123008
を含むノイズ除去装置。
The noise eliminator according to claim 3,
α and η are predetermined constants,
The estimated signal generation unit,
A first variable updating unit that updates the latent variable x, the auxiliary variable z, and the dual variable λ representing the estimated signal by the following equation,
Figure 2020123008
A second variable updating unit that updates the coefficient variable y by the following equation,
Figure 2020123008
Noise removal device including.
変数最適化装置が、観測データを入力として、潜在変数xを最適化する最適化ステップを実行する変数最適化方法であって、
f0(x)を潜在変数xの損失項、yi (i=1, …, n)を潜在変数xに対する正規化項fi(x)の係数を表す変数(以下、係数変数という)とし、
前記最適化ステップは、
係数変数yiに対する正規化項gi(yi) (i=1, …, n)を用いて、次式で定義されるコスト関数L(x, y):Rm×Rn→R∪{-∞, +∞}
Figure 2020123008
(ただし、y=[y1, …, yn]T)の最小化問題を解くことにより、潜在変数xと係数変数yを最適化する
変数最適化方法。
A variable optimizing device is a variable optimizing method for performing an optimization step of optimizing a latent variable x by inputting observation data,
Let f 0 (x) be the loss term of the latent variable x, and y i (i=1, …, n) be a variable that represents the coefficient of the normalization term f i (x) for the latent variable x (hereinafter referred to as the coefficient variable). ,
The optimization step is
Using the normalization term g i (y i ) (i=1, …, n) for the coefficient variable y i, the cost function L(x, y):R m ×R n →R∪ {-∞, +∞}
Figure 2020123008
A variable optimization method that optimizes the latent variable x and the coefficient variable y by solving the minimization problem of (where y=[y 1 , …, y n ] T ).
ノイズ除去装置が、ノイズが混在した観測信号を入力として、ノイズを除去した推定信号を生成する推定信号生成ステップを実行するノイズ除去方法であって、
x∈Rmを前記ノイズを除去した推定信号を表す潜在変数、zをz=Dx(ただし、行列Dは観測信号の発生に由来する行列)を満たす推定信号を表す潜在変数xの補助変数、{z1, …, zn}∈zを補助変数zをn分割して得られる補助変数、yi(i=1, …, n)を補助変数ziが分散2(1/yi)2のラプラス分布vi(zi, yi)に従うと仮定したとき得られる係数変数とし、
前記推定信号生成ステップは、次式で定義されるコスト関数L(x, z, y):Rm×Rn×Rn→R∪{-∞, +∞}
Figure 2020123008
(ただし、y=[y1, …, yn]T、u0(x|d,σ2)を観測信号dと推定信号を表す潜在変数xの差の分布を表す分散σ2のガウス分布、u1(x|c)を推定信号を表す潜在変数xの分布を表す範囲cの一様分布、wi(yii, μi, ρi 2)を係数変数yiの分布を表す下限及び上限ζi={ζmin,i, ζmax,i}(ζmin,i>0, ζmax,i>0)、平均μi、分散ρi 2のガウス分布)の最小化問題を解くことにより、推定信号を表す潜在変数xと補助変数zと係数変数yを最適化して得られた、推定信号を表す潜在変数xを前記ノイズを除去した推定信号として生成する
ノイズ除去方法。
A noise removal device is a noise removal method for performing an estimated signal generation step of generating an estimated signal from which noise is removed, using an observation signal in which noise is mixed as an input,
x ∈ R m is a latent variable representing the estimated signal from which the noise is removed, z is an auxiliary variable of the latent variable x representing an estimated signal satisfying z=Dx (where matrix D is a matrix derived from the generation of the observed signal), {z 1 , …, z n } ∈ z is an auxiliary variable obtained by dividing the auxiliary variable z into n, and y i (i=1, …, n) is the auxiliary variable z i with variance 2(1/y i ). 2 of Laplace distribution v i (z i, y i ) is a coefficient variable obtained when it is assumed to follow,
The estimated signal generating step is a cost function L(x, z, y) defined by the following equation: R m ×R n ×R n →R ∪{-∞, +∞}
Figure 2020123008
(However, y=[y 1 , …, y n ] T , u 0 (x|d, σ 2 ) is the Gaussian distribution of variance σ 2 that represents the distribution of the difference between the observed signal d and the latent variable x that represents the estimated signal. , U 1 (x|c) is a uniform distribution in the range c that represents the distribution of the latent variable x that represents the estimated signal, and w i (y iiii 2 ) is the distribution of the coefficient variable y i The lower and upper bounds ζ i ={ζ min,imax,i }(ζ min,i >0, ζ max,i >0), mean μ i , Gaussian distribution with variance ρ i 2 ) A noise removal method that generates a latent variable x representing an estimated signal as an estimated signal from which the noise has been removed by solving the problem by optimizing the latent variable x representing the estimated signal, the auxiliary variable z, and the coefficient variable y. ..
請求項1または2に記載の変数最適化装置、請求項3または4に記載のノイズ除去装置のいずれかとしてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as any one of the variable optimizing device according to claim 1 or 2 and the noise removing device according to claim 3 or 4.
JP2019012794A 2019-01-29 2019-01-29 Variable optimization device, variable optimization method, program Active JP7114497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019012794A JP7114497B2 (en) 2019-01-29 2019-01-29 Variable optimization device, variable optimization method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019012794A JP7114497B2 (en) 2019-01-29 2019-01-29 Variable optimization device, variable optimization method, program

Publications (2)

Publication Number Publication Date
JP2020123008A true JP2020123008A (en) 2020-08-13
JP7114497B2 JP7114497B2 (en) 2022-08-08

Family

ID=71992672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019012794A Active JP7114497B2 (en) 2019-01-29 2019-01-29 Variable optimization device, variable optimization method, program

Country Status (1)

Country Link
JP (1) JP7114497B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022269680A1 (en) * 2021-06-21 2022-12-29 日本電信電話株式会社 Variable optimization system
WO2023021690A1 (en) * 2021-08-20 2023-02-23 日本電信電話株式会社 Model generation device, model generation method and program
CN117612139A (en) * 2023-12-19 2024-02-27 昆明盛嗳谐好科技有限公司 Scene target detection method and system based on deep learning and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212510A (en) * 2015-04-30 2016-12-15 徹 山里 Nonlinear optimal solution search system
JP2017177118A (en) * 2016-03-28 2017-10-05 株式会社神戸製鋼所 Deformation resistance identification method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016212510A (en) * 2015-04-30 2016-12-15 徹 山里 Nonlinear optimal solution search system
JP2017177118A (en) * 2016-03-28 2017-10-05 株式会社神戸製鋼所 Deformation resistance identification method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022269680A1 (en) * 2021-06-21 2022-12-29 日本電信電話株式会社 Variable optimization system
JP7533788B2 (en) 2021-06-21 2024-08-14 日本電信電話株式会社 Variable Optimization System
WO2023021690A1 (en) * 2021-08-20 2023-02-23 日本電信電話株式会社 Model generation device, model generation method and program
CN117612139A (en) * 2023-12-19 2024-02-27 昆明盛嗳谐好科技有限公司 Scene target detection method and system based on deep learning and electronic equipment

Also Published As

Publication number Publication date
JP7114497B2 (en) 2022-08-08

Similar Documents

Publication Publication Date Title
Wang et al. SwitchOut: an efficient data augmentation algorithm for neural machine translation
WO2014196375A1 (en) Translation device, learning device, translation method, and recording medium
JP2020123008A (en) Variable optimization device, noise elimination device, variable optimization method, noise elimination method, and program
CN112805768B (en) Secret S-type function calculation system and method therefor, secret logistic regression calculation system and method therefor, secret S-type function calculation device, secret logistic regression calculation device, and program
Chaabane et al. The augmented weighted Tchebychev norm for optimizing a linear function over an integer efficient set of a multicriteria linear program
Messaci et al. Local polynomial modelling of the conditional quantile for functional data
WO2020162189A1 (en) Non-negative matrix decomposition optimization device, non-negative matrix decomposition optimization method, and program
Benyamin et al. Accelerated variational PDEs for efficient solution of regularized inversion problems
Iaconis et al. Quantum state preparation of normal distributions using matrix product states
Fu et al. Block-wise alternating direction method of multipliers with Gaussian back substitution for multiple-block convex programming
JP7112348B2 (en) SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD AND SIGNAL PROCESSING PROGRAM
WO2020162188A1 (en) Latent variable optimization device, filter coefficient optimization device, latent variable optimization method, filter coefficient optimization method, and program
Jia et al. An inexact proximal gradient algorithm with extrapolation for a class of nonconvex nonsmooth optimization problems
Stetsyuk et al. The generalized ellipsoid method and its implementation
Ghadimi et al. Stochastic approximation methods and their finite-time convergence properties
Le et al. Eliminating white noise in spectra: a generalized maximum-entropy approach
Sadybekov et al. On trace formulae of the generalised heat potential operator
JP6012814B1 (en) Sequential clustering apparatus, method, and program
CN111967252A (en) Entity word representation learning method and device, computer equipment and storage medium
Nouri et al. On a Family of Parameter‐Based Bernstein Type Operators with Shape‐Preserving Properties
US20230267350A1 (en) Inference apparatus, inference method, and computer-readable recording medium
Wang et al. Improving the BKZ reduction algorithm by quick reordering technique
WO2024004077A1 (en) Optimization function conversion device, optimization function solving device, optimization function conversion method, and program
Sattarova Technology and Software for Calculating Correct Normalization of Correlation Functions
Akyildiz et al. Dictionary filtering: a probabilistic approach to online matrix factorisation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220727

R150 Certificate of patent or registration of utility model

Ref document number: 7114497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150