JP6241790B2 - 生成モデル作成装置、推定装置、それらの方法およびプログラム - Google Patents
生成モデル作成装置、推定装置、それらの方法およびプログラム Download PDFInfo
- Publication number
- JP6241790B2 JP6241790B2 JP2014165407A JP2014165407A JP6241790B2 JP 6241790 B2 JP6241790 B2 JP 6241790B2 JP 2014165407 A JP2014165407 A JP 2014165407A JP 2014165407 A JP2014165407 A JP 2014165407A JP 6241790 B2 JP6241790 B2 JP 6241790B2
- Authority
- JP
- Japan
- Prior art keywords
- acoustic event
- acoustic
- situation
- sequence
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Stereophonic System (AREA)
Description
各実施例で用いる用語を定義する。
「音響イベント」とは、短時間フレームごとの音響信号が表す音の事象を表し、それぞれの音響イベントに対しては「音響イベントラベル」としてラベル付けすることができる。「短時間フレーム」とは、短時間(例えば、数10msec〜数sec)の時間区間を意味する。「音響イベント」の具体例は、「包丁の音」「水が流れる音」「水音」「着火音」「火の音」「足音」「掃除機の排気音」などを表すラベルである。「音響イベント列」とは、有限時間区間に属する短時間フレームごとの「音響イベント」を含む時系列である。言い換えると、「音響イベント列」は「音響イベント」を表すラベルを含む時系列である。「音響イベント列の音響イベントが欠損している」(略して「欠損」)とは、音響イベント列の何れかの短時間フレームに対して「音響イベント」が特定されていないことを意味する。「音響イベント」が特定されていない短時間フレームには「音響イベント」に代えて「欠損」を表す「欠損ラベル」が割り当てられる。そのため、音響イベント列の音響イベントが欠損している場合、音響イベント列は「音響イベント」を表すラベルと「欠損」を表す欠損ラベルとの時系列となる。また、「音響イベント」が特定されていない短時間フレームにラベルが割り当てられないことにしてもよい。この場合、音響イベント列は「音響イベント」を表すラベルの時系列であるが、その一部の短時間フレームにはラベルが割り当てられていない。「音響信号列」とは、各時間区間の音響信号からなる時系列である。音響信号列は1個以上の音響信号からなる。
本実施例では、時系列の音響信号列に対応する複数の音響イベント列を入力とし、音響イベントの遷移確率に基づき欠損した音響イベントを推定する欠損イベントモデル、音響イベントによって規定される潜在的な場の状況から各音響イベントが生成される確率を表す状況−音響イベント生成モデル、および各音響信号から各状況が生成される確率を表す音響信号−状況生成モデルを得る。入力される音響イベント列は欠損を含み得る。さらに、その過程において、入力された音響イベント列に対応する状況の分析結果(推定された状況)を表す「状況ラベル」が生成されてもよいし、入力された音響イベント列に対応する音響イベントの分析結果(推定された音響イベント)を表す「音響イベントラベル」が生成されてもよい。
図1に例示するように、本実施例の生成モデル作成装置100は、音響イベント列合成部101、モデル化部102、および記憶部103を有する。モデル化部102は、音響イベント欠損判定部102a、モデル化処理部102b、モデル化/欠損推定処理部102c、収束判定部102d、初期設定部102e、および制御部102fを有する。生成モデル作成装置100は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)やRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される装置である。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、単独で処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。また、1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
図2を用いて本実施例のモデル化処理を説明する。
まず音響イベント列合成部101に、音響イベント列11−1,・・・,11−S(ただし、Sは1以上の整数)が入力される。音響イベント列11−s(ただし、s=1,・・・,S)は欠損を含み得る。すなわち、音響イベント列11−1,・・・,11−Sの少なくとも一部の短時間フレームの音響イベントが欠損していてもよいし、すべての音響イベント列11−1,・・・,11−Sが欠損していなくてもよい(すなわち、欠損が0個)。複数個の音響イベント列11−1,・・・,11−Sが音響イベント列合成部101に入力された場合、音響イベント列合成部101は、それらを時系列方向につなぎ合わせ、それによって1つの音響イベント列11を得て出力する(合成処理)。この際、つなぎ合わされる前のそれぞれの音響イベント列11−sの発生時間に関する情報をメモリ(図示せず)に保持しておく。これにより、後述の処理において、音響イベント列11に含まれる音響イベント列11−sの処理時間区間(後述)の前後関係を特定できる。また、音響イベント列合成部101に1つの音響イベント列11−1のみが入力された場合、音響イベント列合成部101はそれを音響イベント列11として出力する。音響イベント列合成部101から出力された音響イベント列11は、モデル化部102に入力される。なお、音響イベント列合成部101を経由することなく、1つの音響イベント列11がそのままモデル化部102に入力されてもよい(ステップS101)。
モデル化処理部102bは、例えば、以下の処理(b-i)または(b-ii)によって、処理時間区間の状況ラベルの分布を更新する。
モデル化/欠損推定処理部102cは、例えば、以下の処理(c-i)または(c-ii)の何れかによって、処理時間区間の状況ラベルおよび音響イベントの分布を更新する。
以下に、モデル化処理部102bの処理(ステップS102b)として(b-i)または(b-ii)を用い、モデル化/欠損推定処理部102cの処理(ステップS102c)として(c-i)または(c-ii)を用いる場合のモデル化処理をより具体的に例示する。
モデル化部102は、入力された音響イベント列11から、各音響信号から状況が生成される確率P(状況|音響信号)、状況から音響イベントが生成される確率P(音響イベント|状況)、および音響イベントの遷移確率を同時に算出し、それぞれを音響信号−状況生成モデル12、状況−音響イベント生成モデル13、および欠損イベントモデル14とする。つまり、音響信号ごとに状況の生成確率が規定されており、また、音響イベントの生成確率は、状況とその音響イベントの前後の音響イベントにより規定されると考え、これらの関係を生成モデルとして記述する。音響イベントの生成は状況とその音響イベントの前後の音響イベントにより規定されると考えると、欠損を含む音響イベントは状況とその音響イベント前後の音響イベントから推定可能になると考えられる。なお、「音響信号列」は複数の長時間の音響信号からなる列を意味する。「長時間」とは前述の「短時間」よりも長い期間である。「音響信号列」を「複数の音響イベント列」と読み替えても良い。
なお、音響イベント列eは音響イベントの列(例えばベクトル)であり、音響イベント列11そのものであってもよいし、音響イベント列11の一部の音響イベント列であってもよい。以下では説明の簡略化のため、音響イベント列eが音響イベント列11そのものである例を示す。Sは音響イベント列eに含まれる音響イベント列ηs(ただし、s∈{1,・・・,S})の個数である。なお、ここでは音響イベント列11−sを音響イベント列ηsとするが、これは本発明を限定するものではない。Ωは音響イベント列eに対応する音響信号列であり、εs(ただし、s∈{1,・・・,S})は音響イベント列ηsに対応する音響信号である。Tは状況の種類(候補)の総数、Mは音響イベントの種類の総数、t∈{1,・・・,T}は状況の種類を表すインデックス、m∈{1,・・・,M}は音響イベントの種類を表すインデックスである。Πは単時間フレームの音響イベントm∈{1,・・・,M}がその次の短時間フレームで音響イベントm’∈{1,・・・,M}に遷移する確率を(m,m’)要素とするM×M行列である。Θは音響信号εs(ただし、s∈{1,・・・,S})が状況t(ただし、t∈{1,・・・,T})を生成する確率P(t|εs)を(s,t)要素とするS×T行列である。Φは状況t(ただし、t∈{1,・・・,T})が音響イベントm(ただし、m∈{1,・・・,M})を生成する確率P(m|t)を(t,m)要素とするT×M行列である。
ただし、γは各音響イベントm(ただし、m∈{1,・・・,M})が次の短時間フレームで音響イベントm’(ただし、m∈{1,・・・,M})に遷移する確率をm’番目の要素としたM次元ベクトルである音響イベント遷移確率πmの事前分布(Dirichlet分布に従うものとする)のパラメータを表す。αは各音響信号εs(ただし、s∈{1,・・・,S})が状況t(ただし、t∈{1,・・・,T})を生成する確率をt番目の要素とするT次元ベクトルである生成確率θsの事前分布(Dirichlet分布に従うものとする)のパラメータを表す。βは各状況tが音響イベントm(ただし、m∈{1,・・・,M})を生成する確率をm番目の要素とするM次元ベクトルである生成確率φmの事前分布(Dirichlet分布に従うものとする)のパラメータを表す。eiは音響イベント列ηsの先頭からi番目の短時間フレームの音響イベント、ziは音響イベントeiに対応する状況を表す。
は、音響イベント列ηsの先頭からi−1番目の音響イベントei−1からi番目の音響イベントeiへの遷移確率を表す。
は、音響イベント列ηsに含まれる音響イベントの個数を表す。DirはDirichlet分布の確率密度関数を表す。W−1次(Wは2以上の整数)のDirichlet分布の確率密度関数は以下の通りである。
ただし、τはτi(i=1,...,W)からなるパラメータ、もしくは単一のスカラー値である。また、μは確率変数、Γはガンマ関数を表す。
上記の生成過程に基づいて、例えばマルコフ連鎖モンテカルロ法(MCMC法:Markov Chain Monte Carlo methods)や変分ベイズ法(VB法:Variational Bayes methods)などの手法を適用することで、音響信号−状況生成モデル12、状況−音響イベント生成モデル13、および欠損イベントモデル14を算出することができる。MCMC法には,M−Hアルゴリズムやギブスサンプリングなどの手法がある。ここでは一例としてギブスサンプリングによる生成モデルの算出手法を説明する。
ただし、nt mは、状況tに割り当てられた音響イベントのうち音響イベントがmであるものの個数を表す。ns tは音響イベント列ηsの全ての音響イベントのうち状況tに割り当てられた音響イベントの個数を表す。なお、「nt m」の下付き添え字「m」は上付き添え字「t」の真下に記載すべきであるが、記載表記の制約上「nt m」と表記した。「ns t」も同様である。さらにモデル化処理部102bは、上述のように更新された確率分布P(zi=t|z−i,α,β,γ)に従って、i番目の短時間フレームの状況ziをサンプリングし、サンプリングした状況zi=tを表す状況ラベルを音響イベントeiに割り当て、それによって状況ラベル付き補完音響イベント列11’’−sを上書き更新する。更新された状況ラベル付き補完音響イベント列11’’−sは、音響イベント欠損判定部102aに送られる(ステップS102b)。
は入力された全ての状況ラベル付き補完音響イベント列11’’−s(ただし、s=1,・・・,S)の全ての音響イベントのうち、音響イベントeiが示すイベントmeiからイベントmei+1に遷移する音響イベントの個数を表す。またI(mei−1=mei)は、mei−1=meiのときに1となり、それ以外のときに0となる。同様にI(mei=mei+1)は、mei=mei+1のときに1となり、それ以外のときに0となる。さらにモデル化/欠損推定処理部102cは、上述のように更新された確率分布P(zi=t,ei=m|z−i,e−i,α,β,γ)に従って、i番目の短時間フレームの状況ziおよび音響イベントeiをサンプリングし、当該状況ziを表す状況ラベルおよび当該音響イベントeiをi番目の短時間フレームに割り当て、それによって状況ラベル付き補完音響イベント列11’’−sを上書き更新する。更新された状況ラベル付き補完音響イベント列11’’−sは、音響イベント欠損判定部102aに送られる(ステップS102c)。
に対して以下を計算することにより、音響信号−状況生成モデル12、状況−音響イベント生成モデル13、および欠損イベントモデル14を得て出力する。
≪音響信号−状況生成モデル12≫
≪状況−音響イベント生成モデル13≫
≪欠損イベントモデル14≫
を
の代わりに用い、式(6)〜(8)に従って音響信号−状況生成モデル12、状況−音響イベント生成モデル13、および欠損イベントモデル14を得てもよい。これにより、より適切なモデルを得ることができる。
モデル化部102の処理の変形例を示す。以下では、既に説明した事項との相違点を中心に説明し、それらと共通する事項については同じ参照番号を用いて説明を簡略化する。
図3に例示するように、本変形例の生成モデル作成装置100’は、音響イベント列合成部101、モデル化部102’、および記憶部103を有する。モデル化部102’は、音響イベント欠損判定部102a’、モデル化処理部102b’、およびモデル化/欠損推定処理部102c’を有する。生成モデル作成装置100’は、例えば、前述のようなコンピュータが所定のプログラムを実行することで構成される装置である。
実施例1−1で説明したように音響イベント列合成部101から出力された音響イベント列11は、モデル化部102’の音響イベント欠損判定部102a’に入力される。音響イベント欠損判定部102a’は、入力された音響イベント列11が欠損した時間区間を有しているかを判定する。ここで、音響イベント列11が欠損した時間区間を有していない場合、音響イベント列11はモデル化処理部102b’に送られる。一方、音響イベント列11が欠損した時間区間を有している場合、音響イベント列11はモデル化/欠損推定処理部102c’に送られる(ステップS102a’)。
本実施例では、欠損を含み得る音響信号17−1,・・・,17−Sを入力として、音響信号−状況生成モデル12、状況−音響イベント生成モデル13及び欠損イベントモデル24を算出する。また、状況ラベル15、音響イベントラベル16を算出し、状況や欠損した音響イベントの分析を行うことも可能である。
図4に例示するように、本実施例の生成モデル作成装置110は、欠損判定処理部114、特徴量算出部111、音響イベント判定部112、音響イベントモデルDB(データベース)113、音響イベント列合成部101、モデル化部102、および記憶部103を有する。生成モデル作成装置110は、例えば、前述のようなコンピュータが所定のプログラムを実行することで構成される装置である。
本実施例のモデル化処理を説明する。
まず欠損判定処理部114に音響信号17−1,・・・,17−Sが入力される。各音響信号17−s(ただし、s=1,・・・,S)は、短時間フレームごとに区分された要素からなる。欠損判定処理部114は、入力された音響信号17−sの各短時間フレームに欠損が存在するか否かを判定する。欠損判定処理部114は、例えば、音響信号がクリップしている短時間フレーム、振幅が0もしくは非常に小さい値となっている短時間フレーム、特定周波数のパワー成分(例えば100Hz〜8kHzのパワー成分など)が0もしくは非常に小さい値になっている短時間フレームなどに欠損が存在すると判定する。欠損判定処理部114は、音響信号17−1,・・・,17−Sのうち、欠損と判定した短時間フレームに欠損を表すラベル(欠損ラベル)を付して出力する。欠損と判定されなかった短時間フレームにはこのようなラベルが付されない。
本実施例では、欠損を含み得る音響特徴量列18−1,・・・,18−Sを入力として、音響信号−状況生成モデル12、状況−音響イベント生成モデル13及び欠損イベントモデル24を算出する。また、状況ラベル15、音響イベントラベル16を算出し、状況や欠損した音響イベントの分析を行うことも可能である。
図5に例示するように、本実施例の生成モデル作成装置120は、欠損判定処理部124音響イベント判定部112、音響イベントモデルDB(データベース)113、音響イベント列合成部101、モデル化部102、および記憶部103を有する。生成モデル作成装置120は、例えば、前述のようなコンピュータが所定のプログラムを実行することで構成される装置である。
本実施例のモデル化処理を説明する。
まず欠損判定処理部124に音響特徴量列18−1,・・・,18−Sが入力される。各音響特徴量列18−s(ただし、s=1,・・・,S)は、短時間フレームごとに区分された要素からなり、例えば、実施例1−2で例示した特徴量の列である。
本実施例では、前述のように生成された状況−音響イベント生成モデル13および欠損イベントモデル14を用い、新たに入力された欠損を含み得る音響イベント列21を用い、音響イベント列から欠損している音響イベントの推定、および、音響イベント列に対応する状況の推定を行う。欠損を有さない音響イベント列21を入力として状況のみを推定することも可能である。
図6に例示するように、本形態の推定装置200は、記憶部103および推定部201を有する。記憶部103は、前述のように生成された状況−音響イベント生成モデル13および欠損イベントモデル14を格納する。図7に例示するように推定部201は、例えば、音響イベント欠損判定部201a、状況推定部201b、状況/欠損推定部201c、収束判定部201d、初期設定部201e、および制御部201fを有する。推定装置200は、例えば、前述のようなコンピュータが所定のプログラムを実行することで構成される装置である。
推定部201には音響イベント列21が入力される。音響イベント列21は、前述の音響イベント列11と同一であってもよいし、別のものであってもよい。推定部201は、記憶部103から読み出した欠損イベントモデル14および状況−音響イベント生成モデル13を用い、音響イベント列21から欠損している音響イベントの推定、および、音響イベント列に対応する状況の推定を行う。
ただし、式(9)のφtmは式(7)で得られた状況−音響イベント生成モデル13である。状況推定部201bは、このように更新された確率分布P(zi=t|z−i,α,β,γ)に従って、i番目の短時間フレームの状況ziをサンプリングし、サンプリングした状況zi=tを表す状況ラベルを音響イベントeiに割り当て、それによって状況ラベル付き補完音響イベント列21’’−sを上書き更新する。更新された状況ラベル付き補完音響イベント列21’’−sは、音響イベント欠損判定部201aに送られる(ステップS201b)。
ただし、式(10)の式(7)で得られた状況−音響イベント生成モデル13である。また、
は式(8)で得られた欠損イベントモデル14である。状況/欠損推定部201cは、上述のように更新された確率分布P(zi=t,ei=m|z−i,e−i,α,β,γ)に従って、i番目の短時間フレームの状況ziおよび音響イベントeiをサンプリングし、当該状況ziを表す状況ラベルおよび当該音響イベントeiをi番目の短時間フレームに割り当て、それによって状況ラベル付き補完音響イベント列21’’−sを上書き更新する。更新された状況ラベル付き補完音響イベント列21’’−sは、音響イベント欠損判定部201aに送られる(ステップS201c)。
本実施例では、前述のように生成された状況−音響イベント生成モデル13および欠損イベントモデル14を用い、新たに入力された欠損を含み得る音響信号列25を用い、音響イベント列から欠損している音響イベントの推定、および、音響イベント列に対応する状況の推定を行う。欠損を有さない音響信号列25を入力として状況のみを推定することも可能である。
図9に例示するように、本形態の推定装置210は、記憶部103、欠損判定処理部114、特徴量算出部111、音響イベント判定部112、音響イベントモデルDB113、および推定部201を有する。記憶部103は、前述のように生成された状況−音響イベント生成モデル13および欠損イベントモデル14を格納する。推定装置210は、例えば、前述のようなコンピュータが所定のプログラムを実行することで構成される装置である。
音響信号列25は欠損判定処理部114に入力される。その後、実施例1−2で説明したように、欠損判定処理部114、特徴量算出部111、音響イベント判定部112、および音響イベントモデルDB113を用いた処理が行われ、欠損を含み得る音響イベント列21が生成される。音響イベント列21は推定部201に入力される。それ以降の処理は実施例2−1と同じである。
本実施例では、前述のように生成された状況−音響イベント生成モデル13および欠損イベントモデル14を用い、新たに入力された欠損を含み得る音響特徴量列26を用い、音響イベント列から欠損している音響イベントの推定、および、音響イベント列に対応する状況の推定を行う。欠損を有さない音響特徴量列26を入力として状況のみを推定することも可能である。
図10に例示するように、本形態の推定装置220は、記憶部103、欠損判定処理部124、音響イベント判定部112、音響イベントモデルDB113、および推定部201を有する。記憶部103は、前述のように生成された状況−音響イベント生成モデル13および欠損イベントモデル14を格納する。推定装置220は、例えば、前述のようなコンピュータが所定のプログラムを実行することで構成される装置である。
音響特徴量列26は欠損判定処理部124に入力される。その後、実施例1−3で説明したように、欠損判定処理部124、音響イベント判定部112、および音響イベントモデルDB113を用いた処理が行われ、欠損を含み得る音響イベント列21が生成される。音響イベント列21は推定部201に入力される。それ以降の処理は実施例2−1と同じである。
上述のように、音響信号から状況が生成される確率や状況から音響イベントが生成される確率に加えて、音響イベントが遷移する確率を考慮することで、欠損を持つデータからも精度の高い生成モデルを生成できる。音響イベントが示す状況やその生成過程を記述するためのモデルを推定可能であることに加え、欠損した音響イベントの推定も可能となっている。また、音響信号−状況生成モデル12、状況−音響イベント生成モデル13、および欠損イベントモデル14を別個に学習するのではなく、これらのモデルに対応する確率分布を同時に更新することで、精度の高いモデル推定を可能にしている。以上により、風切り音、タッピングノイズなどが含まれた音響信号から生成された音響イベント列であっても、精度の高いモデル推定が可能である。また、長時間の音響イベント列では、発生する音響イベントの種類が多く、それら音響イベントの生成確率はスパースになることが多い。つまり、従来手法では間欠的な欠損を有するのみであっても、多くの情報が失われ音響シーンの推定精度は大きく劣化すると考えられる。一方で欠損した音響イベントを推定しながら同時に音響シーンの推定を可能とする本技術では音響シーンの推定精度の大幅に向上が見込まれる。
なお、本発明は上述の実施の形態に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。
200,210,220 推定装置
Claims (6)
- 時系列の音響信号列に対応する複数の音響イベント列を入力とし、音響イベントの遷移確率に基づき欠損した音響イベントを推定する欠損イベントモデル、音響イベントによって規定される潜在的な場の状況から各音響イベントが生成される確率を表す状況−音響イベント生成モデル、および各音響信号から各状況が生成される確率を表す音響信号−状況生成モデルを得る生成モデル作成装置。
- 音響イベントの遷移確率に基づき欠損した音響イベントを推定する欠損イベントモデル、および、音響イベントによって規定される潜在的な場の状況から各音響イベントが生成される確率を表す状況−音響イベント生成モデルを格納する記憶部と、
音響イベントを含む時系列である音響イベント列を入力とし、前記欠損イベントモデルおよび前記状況−音響イベント生成モデルを用い、前記音響イベント列から欠損している音響イベントの推定、および、前記音響イベント列に対応する状況の推定を行う推定部と、
を有する推定装置。 - 時系列の音響信号列に対応する音響イベント列を入力とし、音響イベントの遷移確率に基づき欠損した音響イベントを推定する欠損イベントモデル、音響イベントによって規定される潜在的な場の状況から各音響イベントが生成される確率を表す状況−音響イベント生成モデル、および各音響信号から各状況が生成される確率を表す音響信号−状況生成モデルを得る生成モデル作成方法。
- 音響イベントの遷移確率に基づき欠損した音響イベントを推定する欠損イベントモデル、および、音響イベントによって規定される潜在的な場の状況から各音響イベントが生成される確率を表す状況−音響イベント生成モデルを記憶部に格納しておき、
音響イベントを含む時系列である音響イベント列を入力とし、前記欠損イベントモデルおよび前記状況−音響イベント生成モデルを用い、前記音響イベント列から欠損している音響イベントの推定、および、前記音響イベント列に対応する状況の推定を行う、推定方法。 - 請求項1の生成モデル作成装置としてコンピュータを機能させるためのプログラム。
- 請求項2の推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014165407A JP6241790B2 (ja) | 2014-08-15 | 2014-08-15 | 生成モデル作成装置、推定装置、それらの方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014165407A JP6241790B2 (ja) | 2014-08-15 | 2014-08-15 | 生成モデル作成装置、推定装置、それらの方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016042123A JP2016042123A (ja) | 2016-03-31 |
JP6241790B2 true JP6241790B2 (ja) | 2017-12-06 |
Family
ID=55591903
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014165407A Active JP6241790B2 (ja) | 2014-08-15 | 2014-08-15 | 生成モデル作成装置、推定装置、それらの方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6241790B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6994971B2 (ja) | 2018-02-09 | 2022-01-14 | 株式会社トプコン | 電子レベル |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6950505B2 (ja) | 2017-12-08 | 2021-10-13 | 富士通株式会社 | 判別プログラム、判別方法および判別装置 |
JP6954070B2 (ja) | 2017-12-08 | 2021-10-27 | 富士通株式会社 | 判別プログラム、判別方法および判別装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5818759B2 (ja) * | 2012-08-31 | 2015-11-18 | 日本電信電話株式会社 | 状況生成モデル作成装置、状況推定装置、およびプログラム |
-
2014
- 2014-08-15 JP JP2014165407A patent/JP6241790B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6994971B2 (ja) | 2018-02-09 | 2022-01-14 | 株式会社トプコン | 電子レベル |
Also Published As
Publication number | Publication date |
---|---|
JP2016042123A (ja) | 2016-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108346436B (zh) | 语音情感检测方法、装置、计算机设备及存储介质 | |
CN107564513B (zh) | 语音识别方法及装置 | |
WO2019102884A1 (ja) | ラベル生成装置、モデル学習装置、感情認識装置、それらの方法、プログラム、および記録媒体 | |
CN113052149B (zh) | 视频摘要生成方法、装置、计算机设备及介质 | |
JP4730404B2 (ja) | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム | |
US20240046159A1 (en) | Continual learning for multi modal systems using crowd sourcing | |
EP3654328A1 (en) | Method and apparatus with speech recognition | |
JP2020091543A (ja) | 学習装置、処理装置、ニューラルネットワーク、学習方法、及びプログラム | |
JP2010092266A (ja) | 学習装置、学習方法及びプログラム | |
US10733537B2 (en) | Ensemble based labeling | |
KR20220132414A (ko) | 음성 인식 모델의 트레이닝 방법, 장치, 기기 및 기록 매체 | |
CN112861758B (zh) | 一种基于弱监督学习视频分割的行为识别方法 | |
JP6241790B2 (ja) | 生成モデル作成装置、推定装置、それらの方法およびプログラム | |
JP2020064253A (ja) | 学習装置、検出装置、学習方法、学習プログラム、検出方法、および検出プログラム | |
JP2019144467A (ja) | マスク推定装置、モデル学習装置、音源分離装置、マスク推定方法、モデル学習方法、音源分離方法及びプログラム | |
Fang | From dynamic time warping (DTW) to hidden markov model (HMM) | |
JP5818759B2 (ja) | 状況生成モデル作成装置、状況推定装置、およびプログラム | |
US8972254B2 (en) | Turbo processing for speech recognition with local-scale and broad-scale decoders | |
WO2020170803A1 (ja) | 拡張装置、拡張方法及び拡張プログラム | |
JP5781040B2 (ja) | 行動推定装置およびそのプログラム | |
JP6078441B2 (ja) | モデル処理装置、分析装置、それらの方法およびプログラム | |
JP5783979B2 (ja) | 生成モデル作成装置及び推定装置 | |
AU2021251463B2 (en) | Generating performance predictions with uncertainty intervals | |
JP7331938B2 (ja) | 学習装置、推定装置、学習方法及び学習プログラム | |
JP5255484B2 (ja) | クラスタリング距離学習装置およびそのプログラム、ならびに、クラスタリング装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20161107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171027 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6241790 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |