JP6066471B2 - 対話システム及び対話システム向け発話の判別方法 - Google Patents

対話システム及び対話システム向け発話の判別方法 Download PDF

Info

Publication number
JP6066471B2
JP6066471B2 JP2012227014A JP2012227014A JP6066471B2 JP 6066471 B2 JP6066471 B2 JP 6066471B2 JP 2012227014 A JP2012227014 A JP 2012227014A JP 2012227014 A JP2012227014 A JP 2012227014A JP 6066471 B2 JP6066471 B2 JP 6066471B2
Authority
JP
Japan
Prior art keywords
utterance
human
speech
dialogue
dialogue system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012227014A
Other languages
English (en)
Other versions
JP2014077969A (ja
Inventor
幹生 中野
幹生 中野
和範 駒谷
和範 駒谷
平野 明
平野  明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Original Assignee
Honda Motor Co Ltd
Nagoya University NUC
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Nagoya University NUC, Tokai National Higher Education and Research System NUC filed Critical Honda Motor Co Ltd
Priority to JP2012227014A priority Critical patent/JP6066471B2/ja
Priority to US13/900,997 priority patent/US20140156276A1/en
Publication of JP2014077969A publication Critical patent/JP2014077969A/ja
Application granted granted Critical
Publication of JP6066471B2 publication Critical patent/JP6066471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L15/222Barge in, i.e. overridable guidance for interrupting prompts

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Description

本発明は、対話システム及び対話システム向け発話の判別方法に関する。
対話システムは、基本的に入力された発話に対して応答すべきである。しかし、話者(ユーザ)の独り言や相槌などに対して、対話システムは応答すべきではない。たとえば、ユーザが対話中に独り言を言った場合に対話システムがユーザに対して聞き返すなどの応答を行うと、ユーザは、その応答に対して本来必要でない対応をする必要が生じる。このように、対話システムが対話システムに向けられた発話を正確に判別することは重要である。
従来の対話システムにおいて、一定の発話長よりも短い入力は雑音とみなして無視する方法が採用されている(非特許文献1)。また、音声認識結果の言語的特徴や音響的特徴、他話者の発話情報を用いて、対話システムに向けた発話を検出する研究も行われている(非特許文献2)。一般的に、従来の対話システムに入力された発話を対話システムが扱うべきか否かの判断は、音声認識結果が正しいかどうかの観点から行われている。他方、ユーザが、対話システムに向けた発話であることを示す特別な信号を対話システムに送る方法も開発されている(特許文献1)。
しかし、特別な信号を必要とせず、発話長や音声認識結果以外の情報を含む種々の情報を使用して対話システムに向けられた発話を正確に識別する対話システム、及び識別方法は開発されていない。
特開2007―121579号公報 Lee, A., Kawahara, T.: Recent Development of Open-Source Speech Recognition Engine Julius, in Proc. APSIPA ASC, pp. 131-137 (2009) Yamagata, T., Sako, A., Takiguchi, T., and Ariki, Y.: System request detection in conversation based on acoustic and speaker alternation features, in Proc. INTER-SPEECH, pp. 2789-2792 (2007)
したがって、特別な信号を必要とせず、発話長や音声認識結果以外の情報を含む種々の情報を使用して対話システムに向けられた発話を正確に識別する対話システム、及び識別方法に対するニーズがある。
本発明の第1の態様による対話システムは、発話を検出し、音声を認識する発話検出・音声認識部と、発話の特徴を抽出する発話特徴抽出部と、を備えている。前記発話特徴抽出部は、対象とする発話の長さ、対象とする発話と直前の発話との時間関係、及びシステム状態を含む特徴に基づいて、対象とする発話が前記対話システムに向けられたものであるかどうかを判別する。
本態様による対話システムは、対象とする発話の長さの他に、対象とする発話と直前の発話との時間関係、及びシステム状態を考慮して対象とする発話が対話システムに向けられたものであるかどうか判別するので、対象とする発話の長さのみを使用して判別する場合と比較してより高い精度で判別を行うことができる。
本発明の第1の実施形態による対話システムにおいて、前記特徴が発話内容及び音声認識結果から得る特徴をさらに含む。
本実施形態による対話システムは、発話内容及び音声認識結果から得る特徴を考慮して対象とする発話が対話システムに向けられたものであるかどうか判別するので、音声認識が首尾よく機能する場合にはさらに高い精度で判別を行うことができる。
本発明の第2の実施形態による対話システムにおいて、前記発話特徴抽出部が、正規化した各特徴を説明変数とするロジスティック関数を使用して判別を行う。
本実施形態による対話システムは、ロジスティック関数を使用するので、判別のためのトレーニングを容易に行うことができる。また、判別精度をさらに向上させるために特徴選択を行うことができる。
本発明の第3の実施形態による対話システムにおいて、前記発話検出・音声認識部が、発話間の無音区間が所定時間以下の発話をマージして一発話とするように構成されている。
本実施形態による対話システムは、発話間の無音区間が所定時間以下の発話をマージして一発話とするように構成されているので、発話区間を確実に検出することができる。
本発明の第2の態様による判別方法は、発話検出・音声認識部と、発話特徴抽出部と、を備えた対話システムが、発話が前記対話システムに向けられたものであるかどうかを判断する判別方法である。該判別方法は、発話検出・音声認識部が発話を検出し、音声を認識するステップと、前記発話特徴抽出部が対象とする発話の長さ、対象とする発話と直前の発話との時間関係、及びシステム状態を含む特徴に基づいて、対象とする発話が前記対話システムに向けられたものであるかどうかを判別するステップと、を含む。
本態様による判別方法は、対象とする発話の長さの他に、対象とする発話と直前の発話との時間関係、及びシステム状態を考慮して対象とする発話が対話システムに向けられたものであるかどうか判別するので、対象とする発話の長さのみを使用して判別する場合と比較してより高い精度で判別を行うことができる。
本発明の一実施形態による対話システムの構成を示す図である。 発話の長さ(発話長)を説明するための図である。 発話時間間隔(インターバル)を説明するための図である。 =1となる例を示す図である。 システム発話を、ユーザが発話により遮る一般的なバージインの例を示す図である。 本発明の一実施形態による対話システムの動作を示す流れ図である。 特徴選択の手順を示す流れ図である。
図1は、本発明の一実施形態による対話システム100の構成を示す図である。対話システム100は、発話検出・音声認識部101と、発話特徴抽出部103と、対話管理部105と、言語理解処理部107と、を含む。発話検出・音声認識部101は、ユーザ(話者)の発話の検出と音声認識とを同時に行う。発話特徴抽出部103は、発話検出・音声認識部101によって検出されたユーザの発話の特徴を抽出し、ユーザの発話が対話システム100に向けられたものであるかどうかを判別する。発話検出・音声認識部101及び発話特徴抽出部103については後で詳細に説明する。言語理解処理部107は、発話検出・音声認識部101によって得られた音声認識の結果に基づいて、ユーザの発話の内容を理解するための処理を行う。対話管理部105は、発話特徴抽出部103によって対話システム100に向けられた発話であると判別された発話について、言語理解処理部107によって得られた発話の内容に基づいて、ユーザに対する応答を作成するための処理を行う。ユーザの独り言や相槌などは、発話特徴抽出部103によって、対話システム100に向けられた発話ではないと判別されるので、対話管理部105がユーザに対する応答を作成することはない。対話システム100は、他にユーザ向けの言語を生成する言語生成処理部、ユーザ向けの言語の音声を合成する音声合成部などを含むが、本発明には関係がないので図1には示していない。
発話検出・音声認識部101は、一例として、Juliusのdecoder-vadモードによる発話区間検出及び音声認識を行う。Juliusのdecoder-vadとは、Julius ver.4で実装されたコンパイル時のオプションの一つであり(李晃伸.大語彙連続音声認識エンジンJulius ver.4. 情報処理学会研究報告報、2007-SLP-69-53.一般社団法人情報処理学会、2007.)、デコーディング結果を用いて発話区間検出を行う。つまり、デコーディングの結果、最尤結果が無音単語である区間が一定フレーム以上続くとき、そこを無音区間と決定し、辞書中の単語が最尤であった場合は、それを認識結果として採用する(酒井啓行、ツィンツアレクトビアス、川波弘道、猿渡洋、鹿野清宏、李晃伸.実環境ハンズフリー音声認識のための音響モデルと言語モデルに基づく音声区間検出と認識アルゴリズム(電子情報通信学会技術研究報告.SP,音声、Vol. 103,No.632, pp.13-18,2004-01-22.))。この結果、発話区間検出と音声認識を同時に行うこととなるため、振幅レベルや零交差数など事前設定するパラメータに依存せず、高精度な発話区間検出が可能となる。
発話特徴抽出部103は、最初に発話の特徴を抽出する。つぎに、発話特徴抽出部103は、対象とする発話に対して受諾(システムに向けた発話)か棄却(そうでない発話)かを判断する。一例として、具体的に、発話特徴抽出部103は、各特徴を説明変数とする以下のロジスティック回帰関数を使用する。
Figure 0006066471
ロジスティック回帰関数の目的変数として、受諾に1、棄却に0を割り当てる。xは、以下に説明する各特徴の値、aは、各特徴の係数であり、aは定数項である。
表1は、特徴の一覧を示す表である。xは特徴を表す。実際の対話中で利用するため、特徴にはその発話までに得られる情報のみを使用した。値の区間が定まっていない特徴の値は、値を算出した後、平均が0、分散が1となるように正規化した。
Figure 0006066471
発話の長さ
は入力された発話の長さを表す。単位は秒である。発話が長いほどユーザが意図して行った発話である可能性が高い。
図2は発話の長さ(発話長)を説明するための図である。図2乃至図5において、太い線は発話区間を示し、細い線は非発話区間を示す。
直前の発話との時間関係
特徴xからxは、対象とする現在の発話と直前の発話との時間関係を表す。xは発話時間間隔(インターバル)であり、現在の発話の開始時刻と、その前のシステム発話の終了時刻との差と定義される。単位は秒とする。
図3は発話時間間隔(インターバル)を説明するための図である。
は、ユーザ発話が連続していることを表す。つまり、直前の発話がユーザによる発話であった場合に1とする。なお、一発話は、機械的に一定長の無音区間で区切ることで認定しているため、ユーザ発話やシステム発話が連続することがしばしば起こる。
及びxは、バージインに関する特徴である。バージインは、システムの発話中に、ユーザが割り込んで話し始める現象である。xは、バージインのうち、ユーザの発話区間が、システムの発話区間に含まれている場合に1とする。つまり、ユーザがシステムの発話中に割り込んだが、システムより先に発話を止めた場合である。xは、バージインタイミングである。システム発話の長さに対する、システム発話の開始時刻からユーザ発話の開始時刻までの間の時間の比である。つまり、xは、システムの発話開始時刻を0、システムの発話終了時刻を1として、システムの発話のどの部分でユーザが割り込んだかを0と1の間の数値で表している。
図4は、x=1となる例を示す図である。ユーザの独り言や相槌などはこの例に該当する。
図5は、システム発話を、ユーザが発話により遮る一般的なバージインの例を示す図である。この場合、x=0となる。
システムの状態
はシステムの状態を表す。システムの状態は、直前のシステム発話が、ターン(発言権)を譲与するものである場合に1とし、ターンを保持する場合に0とする。
表2は、ターンを譲与または保持するシステム発話の例を示す表である。1番目及び2番目の発話は、システムの応答に続きがあるため、システムがターンを保持していると考える。一方、3番目の発話は、システムが話し終えてユーザに質問をしているため、システムが発言権をユーザに譲与しているとする。この保持と譲与の認定は、システム発話に対して付与していた14種類のタグを分類することにより行った。
Figure 0006066471
表2においてSとUは、それぞれ、システムとユーザを表す。「xx−yy」は、発話の開始および終了時刻(単位:秒)を表す。
発話の内容(発話の言語表現)
特徴xからx11は、発話の表現中に、以下に挙げる表現が含まれていることを表す。xは、「はい」、「いいえ」、「そうです」など、システムの発話に対する返答を表す表現11種類が含まれているときに1とする。xは、「教えてください」などの要求の表現が含まれているときに1とする。xは、システムによる一連の説明を中断させる、「おわり」という単語が含まれている場合に1とする。x10は、フィラーを表す「えーっと」や「へー」などの表現が含まれる場合に1とする。ここで、フィラーとは、対話中の話し手(ユーザ)の心的な情報処理操作を表す表現である。フィラーは人手で21種類を用意した。x11は、内容語を表す244後のどれかが含まれる場合を1、それ以外を0とする。内容語は、地域名や建物など、システムで使用される固有名詞である。
音声認識結果から得る特徴
12は、当該発話に対する音声認識結果と検証用音声認識器との間の、音響尤度差スコアの差である(Komatani, K., Fukubayashi, Y., Ogata, T., and Okuno, H. G.,: Introducing Utterance Verification in Spoken Dialogue System to Improve Dynamic Help Generation for Novice Users, in Proc. 8th SIGdial Workshop on Discourse and Dialogue, pp. 202-205 (2007))。検証用音声認識器の言語モデルには、julius ディクテーション実行キットに含まれる、ウェブから学習した言語モデル(語彙サイズ6万)を使用した。上記の差を発話長で正規化したものを本特徴とする。
図6は、本発明の一実施形態による対話システムの動作を示す流れ図である。
図6のステップS1010において、発話検出・音声認識部101が、発話検出及び音声認識を行う。
図6のステップS1020において、発話特徴抽出部103が、発話の特徴を抽出する。具体的には、現在の発話について、上述のx乃至x12の値を定める。
図6のステップS1030において、発話特徴抽出部103が、発話の特徴に基づいて、発話が対話システムに向けられたものであるかどうか判別する。具体的には、式(1)のロジスティック回帰関数を使用して、対象とする発話に対して受諾(システムに向けた発話)か棄却(そうでない発話)かを判断する。
対話システムの評価実験について以下に説明する。
最初に評価実験の対象データについて説明する。本実験では、音声対話システムを用いて収集した対話データ(Nakano, M., Sato, S., Komatani, K., Matsuyama, K., Funakoshi, K., and Okuno, H. G.: A Two-Stage Domain Selection Framework for Extensible Multi-Domain Spoken Dialogue Systems, in Proc. SIGDAL Conference, pp. 18-29 (2011))を対象とする。以下においては、データ収集の方法と、書き起こしの作成基準について説明する。ユーザは19歳乃至57歳の一般男女35名(男性17名、女性18名)である。1回8分の対話を、一人当たり4回収録した。対話方法についてあらかじめ指定せず、自由に対話するように指示した。その結果、19415発話(ユーザ:5395発話、対話システム:14020発話)を得た。収集した音声データを、400ミリ秒の無音区間で機械的に区切って書き起こしを作成した。ただし、促音など、形態素内部では、400ミリ秒以上の無音区間があっても、区切らず一発話に含めた。400ミリ秒よりも短いポーズは、当該部分に<p>を挿入して表記した。この発話ごとに、発話の内容を表すタグ21種類(要求、応答、独り言など)を人手で付与した。
この書き起こしの単位と、受諾/棄却を判断すべきユーザ意図の単位は必ずしも合致しない。このため、短い無音区間を挟んで連続する発話を、マージして一発話とみなすという前処理を行う。ここでは、他の手法(たとえば、Sato, R., Higashinaka, R., Tamoto, M., Nakano, M. and Aikawa, K.: Learning decision trees to determine turn-taking by spoken dialogue systems, in Proc. ICSLP (2002))で発話の修了認定が正しく行えると仮定している。上記の前処理は、書き起こしと音声認識結果それぞれについて別に行った。
書き起こしについては、ユーザの発話に対して付与したタグの中に、発話が複数に分かれていることを示すものがあるため、これが付与されている場合、二発話をマージして一発話とする。この結果、ユーザ発話数は5193発話となった。受諾または棄却の正解ラベルの付与は、これも人手で付与しておいたユーザ発話タグをもとに行った。その結果、受諾が4257発話、棄却が936発話となった。
一方、音声認識結果に対しては、発話間の無音区間が1100ミリ秒以下のものをマージした。この結果、発話数は4298発話となった。音声認識結果に対する正解ラベルは、書き起こしと音声認識結果の時間的な対応関係に基づき付与した。具体的には、音声認識結果の発話開始または終了時刻が、書き起こしにおける発話の区間内にある場合、その音声認識結果と書き起こしデータ内の発話は対応するとする。その後、書き起こしデータにおける正解ラベルを、対応する音声認識結果に付与した。
表3は、実験対象の発話数を示す表である。書き起こしの発話数と比較して、音声認識結果の発話数が少ないのは、発話断片が前後の発話とマージされたことや、人手では書き起こされていた発話の中で音声認識結果では発話区間が検出されないものが存在したためである。
Figure 0006066471
つぎに、評価実験の条件について説明する。実験における評価基準は、受諾すべき発話と棄却すべき発話を正しく判断できた精度とする。ロジスティック回帰の実装には、”weka.classifiers.functions.Logistic”(Hall, M., Frank, E., Holmes, G., Pfharinger, B., Reutemann, P., and Witten, I., H.: The WEKA data mining software: an update, SIGKDD Explor. Newsl., Vol. 97, No. 1-2, pp.10-18 (2009))を用いた。式(1)中の係数aは、10分割交差検定により推定した。学習データの中で、受諾すべき発話吸うと棄却すべき発話数に偏りがあるため、棄却に対して発話数の日に対応する重みを与え、学習と評価を行った。このため、マジョリティべースラインは50%である。
実験条件として、以下の4個の実験条件を設定した。
1.発話長のみを用いる場合
特徴x1のみで判別を行う。これは、音声認識エンジンJuliusのオプション-rejectshotを用いる場合に相当し、簡便に実現できる方法であるため、ベースラインの一つとした。発話長の閾値は、学習データに対して判別精度が最高となるように定めた。具体的には、書き起こしに対しては1.10秒、音声認識結果に対しては1.58秒とし、それよりも発話長が長い場合を受諾とした。
2.全特徴を用いる場合
表1に挙げた特徴をすべて用いて判別を行う。書き起こしの場合は、音声認識から得られる特徴(x12)以外をすべて用いる。
3.音声対話システム特有の特徴を除いた場合
上記の「全特徴を用いる場合」から、音声対話システム特有の特徴、つまりxからxを使用しない場合である。この条件をもう一つのベースラインとした。
4.特徴選択を行った場合
利用可能な全特徴に対して、backward stepwise feature selection による特徴選択(Kohavi, R., and John, G. H.: Wrappers for feature subset selection, Artificial Intelignce, Vol. 97, No. 1-2, pp. 273-324 (1997))を行った場合である。つまり、特徴を一つずつ取り除いて判別精度を計算し、判別精度が悪化しない場合はその特徴を取り除くという手順を、いずれの特徴を取り除いても判別精度が悪化するようになるまで繰り返した場合の結果である。
図7は特徴選択の手順を示す流れ図である。
図7のステップS2010において、特徴集合Sから0または1個の特徴を除外した特徴集合をSとする。ここで、kは除外した特徴番号を表す。特徴の数をnとして、kは1からnまでの整数である。ただし、特徴を除外しない場合は、k=φとする。
図7のステップS2020において、集合Sを用いた判別精度をDとしてkについての最大値Dk_maxを求める。
図7のステップS2030において、Dk_maxに対応するkをkmaxとして、
kmax=φ
であるかどうか判断する。判断の結果が肯定的であれば、処理を終了する。判断の結果が否定的であれば、ステップS2040に進む。
図7のステップS2040において、
S=Sk_max
として、ステップS2010に戻る。ここで、Sk_maxは、現在の特徴集合から特徴番号kmaxの特徴を除外した特徴集合である。
つぎに、書き起こしデータに対する判別性能について説明する。表3に記載されているユーザ発話5193発話(受諾4257、棄却936)に対して、10分割交差検定により判別精度を計算した。正解ラベルの偏りを考慮して、棄却すべき発話に4.55(=4257/936)の重みを与えて学習を行った。
表4は、4個の実験条件について書き起こしデータに対する判別精度を示す表である。全特徴を用いた場合の方が、音声対話システム特有の特徴を除いた場合よりも判別精度が高い。このことより、音声対話システム特有の特徴により判別精度が向上したことがわかる。特徴選択の結果、特徴x3とx5が取り除かれた。発話長のみを用いるベースラインと特徴選択を行った場合を比較すると、判別精度は全体で11.0ポイント向上した。
Figure 0006066471
つぎに、音声認識結果に対する判別精度について説明する。ユーザ発話の音声認識結果4298個(受諾4096個、棄却202個)に対して、同様に10分割交差検定による判別精度を計算した。音声認識にはJuliusを使用した。言語モデルの語彙サイズは517発話、音素正解率は69.5%であった。正解ラベルの偏りを考慮して棄却に20.3(=4096/202)の重みを与えて学習を行った。
表5は、4個の実験条件について音声認識結果に対する判別精度を示す表である。書き起こしデータの場合と同様に、全特徴を用いた場合の方が、音声対話システム特有の特徴を除いた場合よりも判別精度が高い。この差は、マクネマー検定により統計的に有意であった。このことは、音声対話システムの特徴が、受諾と棄却の判別に優位であったことを示している。特徴選択では、x、x、x、x10、x12の5個の特徴が取り除かれた。
Figure 0006066471
表6は、各特徴の係数の性質を示す表である。係数aが正であった特徴は、値が1、または大きいほど、その発話が受諾とされる傾向がある。係数aが負であった特徴は、値が1、または大きいほど、その発話が棄却とされる傾向がある。たとえば、特徴xの係数は正であるので、バージインがシステムの発話の後半に対するものであれば、受諾と判別される可能性が高くなる。特徴xの係数は負であるので、ユーザの発話区間がシステムの発話区間に包含されていた場合には、棄却と判別される可能性が高くなる。
Figure 0006066471
表4と表5とを比較すると、音声認識結果に対する判別精度は、書き起こしデータ見対する判別精度よりも低い。これは、音声認識誤りによるものである。また、音声認識結果に対する判別では、発話内容を示す特徴(x、x、x10)が特徴選択によって除外されている。これらの特徴は音声認識結果に強く依存するため、音声認識誤りが多く生じた場合には有効でなくなり、特徴選択により除外されている。
たとえば、対話システムの発話中のユーザのフィラーが音声認識誤りにより内容語を含んでいると判断された場合は、そのままでは受諾と判断される可能性が高い。ここで、ユーザ発話がシステム発話の前半で始まっているとすると、特徴x5の値は小さくなる。また、ユーザ発話の発話区間がシステム発話の発話区間に包含されているとすると、特徴x4の値は1となる。音声対話システムにおいて、これらの音声対話システム特有の特徴を使用することにより、フィラーが誤認識された場合にも、棄却と判断することができる。音声対話システム特有の特徴は音声認識結果に依存しないため、音声認識結果が誤りがちである場合でも、発話の判別に有用である。
本実施形態の対話システムでは、前発話との時間関係や対話の状態などの、対話システム特有の特徴を使用して受諾と棄却の判別を行った。対話システム特有の特徴を使用することで、発話長のみを使用するベースラインと比較して、受諾と棄却の判別率は、書き起こしデータで11.4ポイント、音声認識結果で4.1ポイントそれぞれ向上した。

Claims (4)

  1. 人間と対話を行う対話システムであって、
    前記人間の発話を検出して当該発話の音声を認識する発話検出・音声認識部と、
    前記人間の発話の特徴を抽出する発話特徴抽出部と、
    を備え、
    前記発話特徴抽出部は、前記人間の発話の長さに加えて、前記人間の発話と当該発話の直前の前記対話システムの発話との時間的な包含関係の有無、及び又は前記対話システムの発話開始後における前記人間の発話の割り込みのタイミング、及びシステム状態を含む特徴に基づいて、前記人間の発話が前記対話システムに向けられたものであるか否かを判断
    前記割り込みのタイミングは、前記対話システムの発話の長さに対する、当該発話の開始時刻から前記人間の発話の開始時刻までの時間の比である、
    対話システム。
  2. 前記発話特徴抽出部は、正規化した各特徴を説明変数とするロジスティック関数を用いて前記判断を行う、請求項1に記載の対話システム。
  3. 前記発話検出・音声認識部は、前記人間の発話間の無音区間が所定時間以下のものをマージして一発話として認識する、請求項1又は2に記載の対話システム。
  4. 人間と対話を行う対話システムが、前記人間の発話が前記対話システムに向けられたものであるか否かを判断する方法であって、
    発話検出・音声認識部が、前記人間の発話を検出して、当該発話の音声を認識するステップと、
    前記発話特徴抽出部が、前記人間の発話の長さに加えて、前記人間の発話と当該発話の直前の前記対話システムの発話との時間的な包含関係の有無、及び又は前記対話システムの発話開始後における前記人間の発話の割り込みのタイミング、及びシステム状態を含む特徴に基づいて、前記人間の発話が前記対話システムに向けられたものであるか否かを判断するステップと、
    を含み、
    前記割り込みのタイミングは、前記対話システムの発話の長さに対する、当該発話の開始時刻から前記人間の発話の開始時刻までの時間の比である、
    方法。
JP2012227014A 2012-10-12 2012-10-12 対話システム及び対話システム向け発話の判別方法 Active JP6066471B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012227014A JP6066471B2 (ja) 2012-10-12 2012-10-12 対話システム及び対話システム向け発話の判別方法
US13/900,997 US20140156276A1 (en) 2012-10-12 2013-05-23 Conversation system and a method for recognizing speech

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012227014A JP6066471B2 (ja) 2012-10-12 2012-10-12 対話システム及び対話システム向け発話の判別方法

Publications (2)

Publication Number Publication Date
JP2014077969A JP2014077969A (ja) 2014-05-01
JP6066471B2 true JP6066471B2 (ja) 2017-01-25

Family

ID=50783296

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012227014A Active JP6066471B2 (ja) 2012-10-12 2012-10-12 対話システム及び対話システム向け発話の判別方法

Country Status (2)

Country Link
US (1) US20140156276A1 (ja)
JP (1) JP6066471B2 (ja)

Families Citing this family (139)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US10002189B2 (en) 2007-12-20 2018-06-19 Apple Inc. Method and apparatus for searching using an active ontology
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US20120309363A1 (en) 2011-06-03 2012-12-06 Apple Inc. Triggering notifications associated with tasks items that represent tasks to perform
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
EP3809407A1 (en) 2013-02-07 2021-04-21 Apple Inc. Voice trigger for a digital assistant
US10652394B2 (en) 2013-03-14 2020-05-12 Apple Inc. System and method for processing voicemail
US10748529B1 (en) 2013-03-15 2020-08-18 Apple Inc. Voice activated device for use with a voice-based digital assistant
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
KR101922663B1 (ko) 2013-06-09 2018-11-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10296160B2 (en) 2013-12-06 2019-05-21 Apple Inc. Method for extracting salient dialog usage from live data
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9966065B2 (en) 2014-05-30 2018-05-08 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
JP6459330B2 (ja) * 2014-09-17 2019-01-30 株式会社デンソー 音声認識装置、音声認識方法、及び音声認識プログラム
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US9741342B2 (en) * 2014-11-26 2017-08-22 Panasonic Intellectual Property Corporation Of America Method and apparatus for recognizing speech by lip reading
US10152299B2 (en) 2015-03-06 2018-12-11 Apple Inc. Reducing response latency of intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10200824B2 (en) 2015-05-27 2019-02-05 Apple Inc. Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device
US9578173B2 (en) 2015-06-05 2017-02-21 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
US9911410B2 (en) * 2015-08-19 2018-03-06 International Business Machines Corporation Adaptation of speech recognition
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10331312B2 (en) 2015-09-08 2019-06-25 Apple Inc. Intelligent automated assistant in a media environment
US10740384B2 (en) 2015-09-08 2020-08-11 Apple Inc. Intelligent automated assistant for media search and playback
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10956666B2 (en) 2015-11-09 2021-03-23 Apple Inc. Unconventional virtual assistant interactions
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US11227589B2 (en) 2016-06-06 2022-01-18 Apple Inc. Intelligent list reading
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
US10474753B2 (en) 2016-09-07 2019-11-12 Apple Inc. Language identification using recurrent neural networks
US10403273B2 (en) 2016-09-09 2019-09-03 Oath Inc. Method and system for facilitating a guided dialog between a user and a conversational agent
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
JP6515897B2 (ja) 2016-09-28 2019-05-22 トヨタ自動車株式会社 音声対話システムおよび発話意図理解方法
US11281993B2 (en) 2016-12-05 2022-03-22 Apple Inc. Model and ensemble compression for metric learning
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US11204787B2 (en) 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
US10467509B2 (en) 2017-02-14 2019-11-05 Microsoft Technology Licensing, Llc Computationally-efficient human-identifying smart assistant computer
US11100384B2 (en) 2017-02-14 2021-08-24 Microsoft Technology Licensing, Llc Intelligent device user interactions
US11010601B2 (en) 2017-02-14 2021-05-18 Microsoft Technology Licensing, Llc Intelligent assistant device communicating non-verbal cues
DK201770383A1 (en) 2017-05-09 2018-12-14 Apple Inc. USER INTERFACE FOR CORRECTING RECOGNITION ERRORS
US10417266B2 (en) 2017-05-09 2019-09-17 Apple Inc. Context-aware ranking of intelligent response suggestions
US10726832B2 (en) 2017-05-11 2020-07-28 Apple Inc. Maintaining privacy of personal information
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
US10395654B2 (en) 2017-05-11 2019-08-27 Apple Inc. Text normalization based on a data-driven learning network
DK201770439A1 (en) 2017-05-11 2018-12-13 Apple Inc. Offline personal assistant
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11301477B2 (en) 2017-05-12 2022-04-12 Apple Inc. Feedback analysis of a digital assistant
DK201770432A1 (en) 2017-05-15 2018-12-21 Apple Inc. Hierarchical belief states for digital assistants
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10403278B2 (en) 2017-05-16 2019-09-03 Apple Inc. Methods and systems for phonetic matching in digital assistant services
US10311144B2 (en) 2017-05-16 2019-06-04 Apple Inc. Emoji word sense disambiguation
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20180336892A1 (en) 2017-05-16 2018-11-22 Apple Inc. Detecting a trigger of a digital assistant
DK179549B1 (en) 2017-05-16 2019-02-12 Apple Inc. FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES
US10657328B2 (en) 2017-06-02 2020-05-19 Apple Inc. Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling
US10445429B2 (en) 2017-09-21 2019-10-15 Apple Inc. Natural language understanding using vocabularies with compressed serialized tries
US10755051B2 (en) 2017-09-29 2020-08-25 Apple Inc. Rule-based natural language processing
US10636424B2 (en) 2017-11-30 2020-04-28 Apple Inc. Multi-turn canned dialog
US10733982B2 (en) 2018-01-08 2020-08-04 Apple Inc. Multi-directional dialog
US10733375B2 (en) 2018-01-31 2020-08-04 Apple Inc. Knowledge-based framework for improving natural language understanding
US10789959B2 (en) 2018-03-02 2020-09-29 Apple Inc. Training speaker recognition models for digital assistants
US10592604B2 (en) 2018-03-12 2020-03-17 Apple Inc. Inverse text normalization for automatic speech recognition
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10909331B2 (en) 2018-03-30 2021-02-02 Apple Inc. Implicit identification of translation payload with neural machine translation
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US10984780B2 (en) 2018-05-21 2021-04-20 Apple Inc. Global semantic word embeddings using bi-directional recurrent neural networks
DK179822B1 (da) 2018-06-01 2019-07-12 Apple Inc. Voice interaction at a primary device to access call functionality of a companion device
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
US10892996B2 (en) 2018-06-01 2021-01-12 Apple Inc. Variable latency device coordination
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
US11386266B2 (en) 2018-06-01 2022-07-12 Apple Inc. Text correction
US10496705B1 (en) 2018-06-03 2019-12-03 Apple Inc. Accelerated task performance
US11010561B2 (en) 2018-09-27 2021-05-18 Apple Inc. Sentiment prediction from textual data
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10839159B2 (en) 2018-09-28 2020-11-17 Apple Inc. Named entity normalization in a spoken dialog system
US11170166B2 (en) 2018-09-28 2021-11-09 Apple Inc. Neural typographical error modeling via generative adversarial networks
US11475898B2 (en) 2018-10-26 2022-10-18 Apple Inc. Low-latency multi-speaker speech recognition
JP7115265B2 (ja) * 2018-11-30 2022-08-09 富士通株式会社 対話制御方法、対話制御プログラム、対話制御装置、情報提示方法および情報提示装置
US11638059B2 (en) 2019-01-04 2023-04-25 Apple Inc. Content playback on multiple devices
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11475884B2 (en) 2019-05-06 2022-10-18 Apple Inc. Reducing digital assistant latency when a language is incorrectly determined
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
US11423908B2 (en) 2019-05-06 2022-08-23 Apple Inc. Interpreting spoken requests
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
DK180129B1 (en) 2019-05-31 2020-06-02 Apple Inc. USER ACTIVITY SHORTCUT SUGGESTIONS
US11496600B2 (en) 2019-05-31 2022-11-08 Apple Inc. Remote execution of machine-learned models
US11289073B2 (en) 2019-05-31 2022-03-29 Apple Inc. Device text to speech
DK201970511A1 (en) 2019-05-31 2021-02-15 Apple Inc Voice identification in digital assistant systems
US11360641B2 (en) 2019-06-01 2022-06-14 Apple Inc. Increasing the relevance of new available information
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
WO2021056255A1 (en) 2019-09-25 2021-04-01 Apple Inc. Text detection using global geometry estimators
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11755276B2 (en) 2020-05-12 2023-09-12 Apple Inc. Reducing description length based on confidence
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11620999B2 (en) 2020-09-18 2023-04-04 Apple Inc. Reducing device processing of unintended audio

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60191299A (ja) * 1984-03-13 1985-09-28 株式会社リコー 音声認識装置における音声区間検出方式
US5765130A (en) * 1996-05-21 1998-06-09 Applied Language Technologies, Inc. Method and apparatus for facilitating speech barge-in in connection with voice recognition systems
US6321197B1 (en) * 1999-01-22 2001-11-20 Motorola, Inc. Communication device and method for endpointing speech utterances
JP3376487B2 (ja) * 1999-10-27 2003-02-10 独立行政法人産業技術総合研究所 言い淀み検出方法及び装置
US6411933B1 (en) * 1999-11-22 2002-06-25 International Business Machines Corporation Methods and apparatus for correlating biometric attributes and biometric attribute production features
JP2001273473A (ja) * 2000-03-24 2001-10-05 Atr Media Integration & Communications Res Lab 会話用エージェントおよびそれを用いる会話システム
US7069221B2 (en) * 2001-10-26 2006-06-27 Speechworks International, Inc. Non-target barge-in detection
JP2003308079A (ja) * 2002-04-15 2003-10-31 Nissan Motor Co Ltd 音声入力装置
US7660713B2 (en) * 2003-10-23 2010-02-09 Microsoft Corporation Systems and methods that detect a desired signal via a linear discriminative classifier that utilizes an estimated posterior signal-to-noise ratio (SNR)
JP2006337942A (ja) * 2005-06-06 2006-12-14 Nissan Motor Co Ltd 音声対話装置及び割り込み発話制御方法
JP2008250236A (ja) * 2007-03-30 2008-10-16 Fujitsu Ten Ltd 音声認識装置および音声認識方法
US8046221B2 (en) * 2007-10-31 2011-10-25 At&T Intellectual Property Ii, L.P. Multi-state barge-in models for spoken dialog systems
JP2010013371A (ja) * 2008-07-01 2010-01-21 Nidek Co Ltd アシクロビル水溶液
WO2010013371A1 (ja) * 2008-07-28 2010-02-04 日本電気株式会社 対話音声認識システム、対話音声認識方法および対話音声認識用プログラムを格納する記憶媒体
US8380497B2 (en) * 2008-10-15 2013-02-19 Qualcomm Incorporated Methods and apparatus for noise estimation
WO2010052845A1 (ja) * 2008-11-04 2010-05-14 株式会社日立製作所 情報処理システム及び情報処理装置
JP2010156825A (ja) * 2008-12-26 2010-07-15 Fujitsu Ten Ltd 音声出力装置
JP5530729B2 (ja) * 2009-01-23 2014-06-25 本田技研工業株式会社 音声理解装置
JP5405381B2 (ja) * 2010-04-19 2014-02-05 本田技研工業株式会社 音声対話装置
EP2418643A1 (en) * 2010-08-11 2012-02-15 Software AG Computer-implemented method and system for analysing digital speech data
US9214157B2 (en) * 2011-12-06 2015-12-15 At&T Intellectual Property I, L.P. System and method for machine-mediated human-human conversation
CN104756473B (zh) * 2012-09-14 2017-08-29 谷歌公司 处理并发语音

Also Published As

Publication number Publication date
US20140156276A1 (en) 2014-06-05
JP2014077969A (ja) 2014-05-01

Similar Documents

Publication Publication Date Title
JP6066471B2 (ja) 対話システム及び対話システム向け発話の判別方法
US11657832B2 (en) User presence detection
US11361763B1 (en) Detecting system-directed speech
CN108320733B (zh) 语音数据处理方法及装置、存储介质、电子设备
JP6705008B2 (ja) 話者照合方法及びシステム
Ferrer et al. Is the speaker done yet? Faster and more accurate end-of-utterance detection using prosody
JP5377430B2 (ja) 質問応答データベース拡張装置および質問応答データベース拡張方法
US10917758B1 (en) Voice-based messaging
WO2020123289A1 (en) Generating input alternatives
JP6284462B2 (ja) 音声認識方法、及び音声認識装置
JP6440967B2 (ja) 文末記号推定装置、この方法及びプログラム
Li et al. Combining five acoustic level modeling methods for automatic speaker age and gender recognition.
US20130289987A1 (en) Negative Example (Anti-Word) Based Performance Improvement For Speech Recognition
US11302329B1 (en) Acoustic event detection
JP6915637B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2018078885A1 (ja) 対話装置、対話方法及び対話用コンピュータプログラム
US20180012602A1 (en) System and methods for pronunciation analysis-based speaker verification
An et al. Detecting laughter and filled pauses using syllable-based features.
Këpuska Wake-up-word speech recognition
Dusan et al. On integrating insights from human speech perception into automatic speech recognition.
JP2007072331A (ja) 音声対話方法および音声対話システム
Hirschberg et al. Generalizing prosodic prediction of speech recognition errors
JPH06110488A (ja) 音声検出方法および音声検出装置
US20180012603A1 (en) System and methods for pronunciation analysis-based non-native speaker verification
Salimbajevs et al. Error analysis and improving speech recognition for latvian language

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R150 Certificate of patent or registration of utility model

Ref document number: 6066471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250