JP5986883B2 - 言語モデル評価方法とその装置とプログラム - Google Patents

言語モデル評価方法とその装置とプログラム Download PDF

Info

Publication number
JP5986883B2
JP5986883B2 JP2012233530A JP2012233530A JP5986883B2 JP 5986883 B2 JP5986883 B2 JP 5986883B2 JP 2012233530 A JP2012233530 A JP 2012233530A JP 2012233530 A JP2012233530 A JP 2012233530A JP 5986883 B2 JP5986883 B2 JP 5986883B2
Authority
JP
Japan
Prior art keywords
language model
word
word chain
chain
transcription text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012233530A
Other languages
English (en)
Other versions
JP2014085462A (ja
Inventor
和博 荒井
和博 荒井
亮 増村
亮 増村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012233530A priority Critical patent/JP5986883B2/ja
Publication of JP2014085462A publication Critical patent/JP2014085462A/ja
Application granted granted Critical
Publication of JP5986883B2 publication Critical patent/JP5986883B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Description

この発明は、例えば連続音声認識において必要とされる統計的言語モデル(以下、言語モデル)の学習時に用いることができる言語モデル評価方法とその装置とプログラムに関する。
連続音声認識の正解率向上を目的として、集められた書き起こしテキストを用いて言語モデルの追加学習を行う方法が、例えば特許文献1や2に開示されている。特許文献1に開示された言語モデルの追加学習の方法を、図10を参照して簡単に説明する。
図10は、認識タスク用記号連鎖確率生成部140の構成である。つまり、言語モデルを作成する機能部である。重み決定部210では、認識タスク用データベース150中の各認識タスクのテキストデータと各一般用テキストデータベース160−nの各テキストデータとを入力とし、認識タスクのテキストデータと各一般用テキストデータベース160−nのテキストデータとの類似度からその一般用テキストデータベース160−nに対する重みを決定する。
記号連鎖確率生成部220では、重み決定部210が出力した重み付きの認識タスクテキストデータベース150及び重み付きの複数の一般用テキストデータベース160−1〜160−Nの各テキストデータを入力し、言語モデルを生成して記号連鎖確率データベース120に格納する。このように従来の言語モデルの追加学習は、テキストデータの類似度から重みを決定して順次、機械的に言語モデルとしていた。
特許第3628245号 特開平10−319989号公報
従来の言語モデルの追加学習の方法では、追加される書き起こしテキストの内容や量に基づいて、例えば言語モデルを音声認識に用いた場合の追加学習による音声認識正解率の向上を定量的に明らかにすることができず、追加学習で期待される効果を事前に推計することができなかった。このため、言語モデルの追加学習によって連続音声認識の正解率が向上しなかった場合、その原因を定量的に明らかにすることができなかった。また、書き起こしテキストの追加によって音声認識正解率が向上するか否かを事前に判断する方法が無いため、どれほどの書き起こしテキストを追加すべきなのかを明確にできない等の課題があった。
本発明は、この課題に鑑みてなされたものであり、言語モデルの追加学習において、追加する書き起こしテキストが言語モデルの追加学習にどれ程の変更を与え、連続音声認識の正解率を向上させるかを明らかにすることができる言語モデル評価方法とその装置とプログラムを提供することを目的とする。
本発明の言語モデル評価方法は、比較過程と、評価過程と、を備える。比較過程は、言語モデル部に格納されている書き起こしテキストから得られた2個以上の単語から成る単語連鎖と、外部から入力される追加書き起こしテキストの単語連鎖を比較して当該単語連鎖が言語モデル部に既に格納されているか否かの既納情報を出力する。評価過程は、既納情報に基づいて言語モデル部に未格納な単語連鎖と追加書き起こしテキストの単語連鎖との比率である未観測単語列比率を計算する。
本発明の言語モデル評価方法によれば、追加書き起こしテキストに、これまで未観測であった単語連鎖が含まれるのかを表す指標である未観測単語列比率を計算することが出来る。従って、従来では、実際に音声認識処理を行った結果の正解率等でしか知ることができなかった追加学習の効果を、音声認識処理を行うことなく定量的に知ることが可能となる効果を奏する。つまり、未観測単語列比率の変化を観測することによって言語モデルの学習の進捗状態を把握することが可能になる。
この発明の言語モデル評価装置100の機能構成例を示す図。 言語モデル評価装置100の動作フローを示す図。 比較部20の機能構成例を示す図。 比較部20の動作フローを示す図。 形態素解析手段21と単語連鎖生成手段22の入出力する情報の例を示してその動作を説明する図。 単語連鎖判別手段23の入出力する情報の例を示してその動作を説明する図。 評価部30の機能構成例を示す図。 評価部30の動作フローを示す図。 比較集計手段31と未観測単語列比較計算手段32の入出力する情報の例を示してその動作を説明する図。 従来の認識タスク用記号連鎖確率生成部140の機能構成を示す図
以下、この発明の実施の形態を図面を参照して説明する。複数の図面中同一のものには同じ参照符号を付し、説明は繰り返さない。
図1に、この発明の言語モデル評価装置100の機能構成例を示す。その動作フローを図2に示す。言語モデル評価装置100は、言語モデル部10と、比較部20と、評価部30と、を具備する。言語モデル評価装置100は、例えばROM、RAM、CPU等で構成されるコンピュータに所定のプログラムが読み込まれて、CPUがそのプログラムを実行することで実現されるものである。
言語モデル部10は、書き起こしテキストから得られた2個以上の単語から成る単語連鎖とその出現確率とが格納されたものである。言語モデル部10は、言語の特徴を統計的手法によりモデル化したデータを格納しており、例えば連続音声認識の実行時に音声認識結果候補に対して言語的蓋然性を与えるものである。一般に、連続音声認識のための統計的言語モデルではn−gramが利用される場合が多い。n−gramは単語の二つ組みあるいは三つ組に対して出現確率を与えるものを言語モデルとしており、その出現確率は書き起こしテキスト内に現れる単語連鎖から計算される。言語モデル部10には、例えば単語三つ組とその出現確率が格納されているものとする。
書き起こしテキストは、音声データを聴取等の方法によって書き起こしたデータである。収録された音声データが朗読の場合、1人の話者の音声を書き起こすのみとなるが、音声データが会話の場合、2人以上の話者の音声を書き起こすと同時に、各発声の時間関係についても記録する必要があり、また、言い直しや言い淀みなど会話に頻出する特徴も現れることになる。一般に連続音声認識で用いる書き起こしテキストでは、これらの特徴についても記述する場合が多く、書き起こしテキストはそのような特徴を有するものとする。
比較部20は、言語モデル部10に格納されている単語連鎖と、外部から入力される追加書き起こしテキストの単語連鎖を比較して当該単語連鎖が言語モデル部10に既に格納されているか否かの既納情報を出力する(図2、ステップS20)。評価部30は、既納情報に基づいて言語モデル部10に未格納な単語連鎖の追加書き起こしテキストに対する比率である未観測単語列比率を計算する(ステップS30)。ここで、追加書き起こしテキストとは、追加学習用に用意された書き起こしテキストのことであり、追加学習用に別途用意されたテキストである点のみが異なるだけで、テキストとしては書き起こしテキストと同じものである。
言語モデル評価装置100によれば、追加書き起こしテキストに、これまで未観測であった単語連鎖が含まれるのかの指標である未観測単語列比率を計算することが出来る。この未観測単語列比率によって、言語モデルの追加学習時に追加された書き起こしテキストが、これまで未観測であった単語連鎖をどれ程、新たに網羅できたかを数値として定量的に測ることが可能となる。例えば追加書き起こしテキストにおける未観測の単語連鎖の数が減少すれば、言語モデルの学習はある程度進んでいることを表している。つまり、追加書き起こしテキストの未観測単語列比率を求めることは、言語モデル部10の学習の度合いを評価していることに他ならない。
上記した追加書き起こしテキストと言語モデル部10との比較方法は、追加書き起こしテキスト中に出現する単語連鎖が、言語モデル部10内に存在するかどうかで比較する。追加書き起こしテキスト内で観測された単語連鎖でかつ言語モデル部10内では未観測の単語連鎖があった場合、未観測の単語連鎖は追加学習の過程で言語モデルの一部として新たに追加されることとなる。
このため、追加書き起こしテキスト内で新たに観測された単語連鎖が多い場合、追加学習前の言語モデルは追加書き起こしテキストに対応していなかったこととなり、追加学習による言語モデルの学習の進展が期待される。逆に、新たに観測された単語連鎖が少ない場合は、言語モデル部10はその追加書き起こしテキストに既に対応しており、その追加書き起こしテキストを用いて追加学習を行っても、言語モデルの学習の進展は期待できないこととなる。
例えば連続音声認識に用いる言語モデルの学習に用いる追加書き起こしテキストが、連続音声認識で対象とする発話内容を偏りなく含んでおり、追加書き起こしテキストが与える単語連鎖が特定の特徴のみに偏在していないと仮定できる場合には、追加書き起こしテキストを一定量づつ言語モデルに追加して追加学習を行うことで、初期の段階においては言語モデルで未観測の単語連鎖が追加書き起こしテキストによって多数与えられることから、言語モデルの学習が進展し連続音声認識の認識率は向上する。
しかし、追加書き起こしテキストの単語連鎖が特定の特徴のみに偏在していない場合、順次追加書き起こしテキストを言語モデルに追加して行くと、追加書き起こしテキスト内に現れる単語連鎖で、かつ言語モデル内で未観測のものの比率は減少して行くことになる。
この発明の言語モデル評価装置100を用いて一定量づつの追加書き起こしを言語モデルに追加していった場合の未観測単語列比率を測ることで、言語モデルがまだ改善の余地があるのか、或いは既に言語モデル内で多様な言語表現に対応できているのかを判断することが可能となる。
以降において、各部のより具体的な構成例を示して更に詳しく言語モデル評価装置100の動作を説明する。図3に、比較部20のより具体的な機能構成例を示す。その動作フローを図4に示す。図5に、形態素解析手段21と単語連鎖生成手段22の入出力する情報の例を示す。
比較部20は、形態素解析手段21と、単語連鎖生成手段22と、単語連鎖判別手段23と、を備える。形態素解析手段21は、追加書き起こしテキストを入力として、当該追加書き起こしテキストを形態素に分割する(ステップS21)。形態素解析手段21で用いる形態素技術は、従来からある周知の技術によって実現可能である。
図5に示す例では、追加書き起こしテキストとして小説の一節を引用している。引用元は、芥川龍之介著「トロッコ」の一節である。「竹薮のある所へ来ると、…途中省略…、急にはっきりと感じられた。」の追加書き起こしテキストは、形態素解析手段21によって、/で区切られた形態素に分割される。形態素解析手段21の出力する形態素は、単語連鎖生成手段22に入力される。
単語連鎖生成手段22は、形態素を入力として2個以上の単語、例えば単語三つ組から成る単語連鎖を生成する(ステップS22)。単語連鎖は、1個づつ形態素をシフトさせた形式で生成される。例えば、「竹薮/の/ある/」、「の/ある/所/」、といった形で全ての文章が単語連鎖に変換される。図5に示す例では、分かり易くする目的で一文単位を四角で囲って表記している。単語連鎖生成手段12が生成した単語連鎖は単語連鎖判別手段23に入力される。
図6に、単語連鎖判別手段23の入出力する情報の例を示す。単語連鎖判別手段23は、言語モデル部10を参照して、入力される単語連鎖が言語モデル部10に既に格納されているか否かを判別し、単語連鎖の既納情報を出力する(ステップS23)。図6に示す例では、「来る/と/トロッコ/」と「と/トロッコ/は/」と「トロッコ/は/静か/」の3個の単語連鎖が、言語モデル部10に存在しなかったことを図中の「×」の表記で示している。既納情報は、例えば言語モデル部10に存在しない追加書き起こしテキスト中の単語連鎖の数である。図6の例では既納情報として単語連鎖の形態素も表記しているが、形態素の情報は無くても良い。単語連鎖判別手段23が出力する既納情報は評価部30に入力される。
図7に、評価部30のより具体的な機能構成例を示す。その動作フローを図8に示す。評価部30は、比較集計手段31と、未観測単語列比率計算手段32と、を備える。図9に、比較集計手段31と未観測単語列比率計算手段32の入出力する情報の例を示す。
比較集計手段31は、既納情報を入力として言語モデル部10に格納されていない単語連鎖の数を表す未格納単語連鎖数情報を集計する(ステップS31)。図9に示す例では、「来る/と/トロッコ/」〜「雑木林/に/なった/」の9個が、言語モデル部10に格納されていない単語連鎖の数を表す未格納単語連鎖数情報として示されている。形態素の並びと併記している「1」は、各単語連鎖の出現回数が1回であったことを表している。比較集計手段が集計した未格納単語連鎖数情報は、未観測単語列比率計算手段32に入力される。
未観測単語列比率計算手段32は、未格納単語連鎖数情報を入力として、当該未格納単語連鎖数情報と追加書き起こしテキストとの比率である未観測単語列比率を計算する(ステップS32)。未観測単語列比率は、例えば未格納単語連鎖数情報の単語連鎖の数と、追加書き起こしテキストに含まれる全単語連鎖数との比率である。図9に示す例では、9÷28≒0.32が未観測単語列比率となる。追加書き起こしテキストに含まれる全単語連鎖数は、予め未観測単語列比率計算手段32の内部に定数32aとして用意しておいても良い。又は、破線で示す信号線で示すように、比較部10の単語連鎖生成手段12からその数の情報を入手するようにしても良い。
未観測単語列比率は、実際にはもっと大きな数の比率で計算される。例えば1回目の追加学習を、1000個の単語連鎖からなる追加書き起こしテキストを用いて言語モデル評価を行った場合の未格納単語連鎖数情報の単語連鎖の数が50個であったと仮定すると未観測単語列比率は5%となる。
2回目の追加学習を、1回目の1000個を含まない2000個の単語連鎖からなる追加書き起こしテキストを用いた場合の未格納単語連鎖数情報の単語連鎖の数が80個であったと仮定すると、未観測単語列比率は4%となる。3回目の追加学習の追加書き起こしテキストの単語連鎖の数を500個、未格納単語連鎖数情報の単語連鎖の数が10個であったと仮定すると未観測単語列比率は2%となる。
このように言語モデル評価装置100を用いることで言語モデルの学習の進捗状況を定量的に把握することが可能である。なお、追加書き起こしテキストの単語連鎖の数は、所定の一定値にした方が、学習の進捗度合いをより正しく評価することができる。
また、上記した例では単語連鎖を単語三つ組としたが、この発明の考えは単語二つ組み以上のN個組の単語連鎖を用いた場合に適用することができる。また、単語連鎖にはならないが、一単語ごとにこの発明の考えを適用しても良い。その場合は、追加書き起こしテキストに含まれる新語の比率ということになる。その新語が多ければ言語モデルの追加学習が更に必要であり、逆に新語が少なければ対象の追加書き起こしテキストを用いても学習の効果は期待できないことが分かるので、一単語ごとであっても追加書き起こしテキストが言語モデルの追加学習に効果があるか否かを判定することができる。
また、未観測単語列比率は、既納情報の数から求められる発声時間長と、追加書き起こしテキストの発話時間長との比であっても良い。追加書き起こしテキストは、その文言通り、元々は音声情報である。よって、形態素数の比率で評価するよりも音声の発話時間長で評価した方が直感的に分かり易いといった効果が期待できる。なお、形態素情報を発話時間長情報に変換するのは、一対一の関係で容易に行うことができる。
以上説明したように、本発明の言語モデル評価方法は、言語モデルの追加学習時に用いる追加書き起こしテキストと、既に構築されている言語モデルとを比較することで、追加書き起こしテキストが、例えば連続音声認識の認識率の向上に寄与するかどうかを判定することができる。と同時に言語モデルの学習の進捗度合いを評価することができる。
上記説明した未観測単語列比率の値が大きい場合は、更に追加書き起こしテキストを追加し、様々な言語表現に言語モデルを対応させる必要があると判断できる。未観測単語列比率の値が低下してきた場合、或いは一定値より低下しない場合には、追加書き起こしテキスト内には既に観測済みの単語列が多く存在し、言語モデルの学習はある程度進んでいると判断することができる。
実際の連続音声認識の利用場面においては、未観測の単語連鎖の比率をゼロにすることは一般に不可能である。つまり、言語モデルの学習をどこまで実施すれば良いのかを判断するのが難しいのが現状であるが、この発明の言語モデル評価方法を用いることで、言語モデルを作成する際の有効な指標を新たに提供することが可能になる。
上記装置における処理手段をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、各装置における処理手段がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記録装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
また、各手段は、コンピュータ上で所定のプログラムを実行させることにより構成することにしてもよいし、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (5)

  1. 言語モデル部に格納されている書き起こしテキストから得られた2個以上の単語から成る単語連鎖と、外部から入力される追加書き起こしテキストの単語連鎖を比較して当該単語連鎖が上記言語モデル部に既に格納されているか否かの既納情報を出力する比較過程と、
    上記既納情報に基づいて上記言語モデル部に未格納な上記単語連鎖と上記追加書き起こしテキストの単語連鎖との比率である未観測単語列比率を計算する評価過程と、
    を備える言語モデル評価方法であって
    上記未観測単語列比率は、上記既納情報から求められる発声時間長を、上記追加書き起こしテキストの発話時間長で除した値であることを特徴とする言語モデル評価方法。
  2. 請求項1に記載した言語モデル評価方法において、
    上記比較過程は、
    上記書き起こしテキストを形態素に分割する形態素解析ステップと、
    上記形態素を入力として2個以上の単語から成る単語連鎖を生成する単語連鎖生成ステップと、
    上記言語モデル部を参照して上記単語連鎖が、当該言語モデル部に既に格納されているか否かを判別し、上記単語連鎖の既納情報を出力する単語連鎖判別ステップと、
    を含むことを特徴とする言語モデル評価方法。
  3. 請求項1又は2に記載した言語モデル評価方法において、
    上記評価過程は、
    上記既納情報を入力として上記言語モデル部に格納されていない単語連鎖の数を表す未格納単語連鎖数情報を集計する比較集計ステップと、
    上記未格納単語連鎖数情報を入力として当該未格納単語連鎖数情報と上記追加書き起こしテキストの単語連鎖との比率である未観測単語列比率を計算する未観測単語列比率計算ステップと、
    を含むことを特徴とする言語モデル評価方法。
  4. 書き起こしテキストから得られた2個以上の単語から成る単語連鎖とその出現確率とが格納された言語モデル部と、
    上記言語モデル部に格納されている上記単語連鎖と、外部から入力される追加書き起こしテキストの単語連鎖を比較して当該単語連鎖が上記言語モデル部に既に格納されているか否かの既納情報を出力する比較部と、
    上記既納情報に基づいて上記言語モデル部に未格納な上記単語連鎖と上記追加書き起こしテキストの単語連鎖との比率である未観測単語列比率を計算する評価部と、
    を具備する言語モデル評価装置であって、
    上記未観測単語列比率は、上記既納情報から求められる発声時間長を、上記追加書き起こしテキストの発話時間長で除した値であることを特徴とする言語モデル評価装置。
  5. 請求項に記載した言語モデル評価装置としてコンピュータを機能させるためのプログラム。
JP2012233530A 2012-10-23 2012-10-23 言語モデル評価方法とその装置とプログラム Expired - Fee Related JP5986883B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012233530A JP5986883B2 (ja) 2012-10-23 2012-10-23 言語モデル評価方法とその装置とプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012233530A JP5986883B2 (ja) 2012-10-23 2012-10-23 言語モデル評価方法とその装置とプログラム

Publications (2)

Publication Number Publication Date
JP2014085462A JP2014085462A (ja) 2014-05-12
JP5986883B2 true JP5986883B2 (ja) 2016-09-06

Family

ID=50788577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012233530A Expired - Fee Related JP5986883B2 (ja) 2012-10-23 2012-10-23 言語モデル評価方法とその装置とプログラム

Country Status (1)

Country Link
JP (1) JP5986883B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110148413A (zh) * 2019-05-21 2019-08-20 科大讯飞股份有限公司 语音评测方法及相关装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109753648B (zh) * 2018-11-30 2022-12-20 平安科技(深圳)有限公司 词链模型的生成方法、装置、设备及计算机可读存储介质
KR20220118754A (ko) * 2021-02-19 2022-08-26 삼성전자주식회사 음성 인식 결과를 분석하는 전자 장치 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010078877A (ja) * 2008-09-25 2010-04-08 Pioneer Electronic Corp 音声認識装置、音声認識方法及び音声認識プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110148413A (zh) * 2019-05-21 2019-08-20 科大讯飞股份有限公司 语音评测方法及相关装置
CN110148413B (zh) * 2019-05-21 2021-10-08 科大讯飞股份有限公司 语音评测方法及相关装置

Also Published As

Publication number Publication date
JP2014085462A (ja) 2014-05-12

Similar Documents

Publication Publication Date Title
US10839335B2 (en) Call center agent performance scoring and sentiment analytics
US11005995B2 (en) System and method for performing agent behavioral analytics
KR102101044B1 (ko) 텍스트 투 스피치 및 시맨틱스에 기초한 오디오 인적 상호 증명 기법
Mairesse et al. Can prosody inform sentiment analysis? experiments on short spoken reviews
JP4887264B2 (ja) 音声データ検索システム
JP5506738B2 (ja) 怒り感情推定装置、怒り感情推定方法およびそのプログラム
US11170763B2 (en) Voice interaction system, its processing method, and program therefor
JP6553015B2 (ja) 話者属性推定システム、学習装置、推定装置、話者属性推定方法、およびプログラム
JP2015184378A (ja) パターン識別装置、パターン識別方法およびプログラム
KR101862982B1 (ko) LPC-10e 보코더에서 DNN을 이용한 유무성음 판별 방법
JP2010267012A (ja) 音声データ検索システム及び音声データ検索方法
JP5986883B2 (ja) 言語モデル評価方法とその装置とプログラム
CN101609672A (zh) 一种语音识别语义置信特征提取的方法和装置
JP2015099304A (ja) 共感反感箇所検出装置、共感反感箇所検出方法及びプログラム
Govindaraj et al. Intensified sentiment analysis of customer product reviews using acoustic and textual features
WO2019107170A1 (ja) 緊急度推定装置、緊急度推定方法、プログラム
JP2013109635A (ja) 単語重要度算出装置とその方法とプログラム
JP7409381B2 (ja) 発話区間検出装置、発話区間検出方法、プログラム
JP6636374B2 (ja) 登録発話分割装置、話者らしさ評価装置、話者識別装置、登録発話分割方法、話者らしさ評価方法、プログラム
KR20220056487A (ko) 코드반주 학습서비스 제공 장치, 방법 및 프로그램
JP5281527B2 (ja) 対話型性格特徴判定装置とその方法と、プログラム
JP5391150B2 (ja) 音響モデル学習用ラベル作成装置、その方法及びプログラム
JP5980101B2 (ja) 音響モデル学習用テキスト作成装置とその方法とプログラム
JP4861941B2 (ja) 書き起こし内容確認方法、書き起こし内容確認装置、コンピュータプログラム
Peinl et al. Quality assurance for speech synthesis with ASR

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160808

R150 Certificate of patent or registration of utility model

Ref document number: 5986883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees