JP2001343993A - 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体

Info

Publication number
JP2001343993A
JP2001343993A JP2000160238A JP2000160238A JP2001343993A JP 2001343993 A JP2001343993 A JP 2001343993A JP 2000160238 A JP2000160238 A JP 2000160238A JP 2000160238 A JP2000160238 A JP 2000160238A JP 2001343993 A JP2001343993 A JP 2001343993A
Authority
JP
Japan
Prior art keywords
speech
speaker
tag
language
intermediate language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000160238A
Other languages
English (en)
Inventor
Hiroshi Yamamoto
博史 山本
Koichi Tanigaki
宏一 谷垣
Yoshinori Kosaka
芳典 匂坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR ONSEI GENGO TSUSHIN KENKYU
ATR Spoken Language Translation Research Laboratories
Original Assignee
ATR ONSEI GENGO TSUSHIN KENKYU
ATR Spoken Language Translation Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR ONSEI GENGO TSUSHIN KENKYU, ATR Spoken Language Translation Research Laboratories filed Critical ATR ONSEI GENGO TSUSHIN KENKYU
Priority to JP2000160238A priority Critical patent/JP2001343993A/ja
Publication of JP2001343993A publication Critical patent/JP2001343993A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 この発明は、相手話者の前発話の内容に依存
した言語モデルを使用することによって音声認識を行な
う際に相手話者の前発話の内容の抽出が容易となる、対
話システムにおける音声認識方法、対話システムおよび
対話プログラムを記録したコンピュータ読み取り可能な
記録媒体を提供することを目的とする。 【解決手段】 中間言語表現を使用した対話システムに
おける音声認識方法であって、相手話者の前発話の中間
言語表現のタグに依存したタグ依存の言語モデルを作成
しておき、相手話者の前発話に対する中間言語表現のタ
グとタグ依存の言語モデルとを用いて自己話者の次発話
の音声認識を行なう。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、対話システムに
おける音声認識方法、対話システムおよび対話プログラ
ムを記録したコンピュータ読み取り可能な記録媒体に関
する。
【0002】
【従来の技術】対話に於ける発話内容は、相手話者の前
発話の内容に強く影響されると考えられる。したがっ
て、相手話者の前発話の内容に依存した言語モデルを使
用することによって認識率の向上が期待できる。
【0003】相手話者の前発話の内容に依存した言語モ
デルを作成するためには、まず発話の内容をモデル化す
る必要がある。モデル化の例としては発話間の内容語の
共起関係と文末形式を利用したものがある(文献1参
照)。しかしながら、この方法では発話の内容の抽出を
認識とは別に行う必要がある。
【0004】文献1:岩本秀明, 妹尾生身, 荒川直哉,
横尾昭男, 森元遙 発話状況に基づく音声認識候補の再
順序付け. 言語処理学会 第4回年次大会(199
7).
【0005】
【発明が解決しようとする課題】この発明は、相手話者
の前発話の内容に依存した言語モデルを使用することに
よって音声認識を行なう際に相手話者の前発話の内容の
抽出が容易となる、対話システムにおける音声認識方
法、対話システムおよび対話プログラムを記録したコン
ピュータ読み取り可能な記録媒体を提供することを目的
とする。
【0006】
【課題を解決するための手段】この発明は、中間言語表
現を使用した対話システムにおける音声認識方法であっ
て、相手話者の前発話の中間言語表現のタグに依存した
タグ依存の言語モデルを作成しておき、相手話者の前発
話に対する中間言語表現のタグとタグ依存の言語モデル
とを用いて自己話者の次発話の音声認識を行なうことを
特徴とする。
【0007】この発明は、中間言語表現を使用した対話
システムにおける音声認識方法であって、相手話者の前
発話の中間言語表現のタグに依存したタグ依存の言語モ
デルを作成しておき、相手話者の前発話に対する中間言
語表現のタグとタグ依存の言語モデルとを用いて自己話
者の次発話の音声認識を行なうとともに中間言語表現の
タグに依存しないタグ非依存の言語モデルを用いて自己
話者の次発話の音声認識を行ない、両音声認識結果のう
ち高い尤度を示す方を音声認識結果として採用するよう
にしたことを特徴とする。
【0008】この発明は、第1話者によって入力される
第1言語の音声を第2言語の合成音声に変換して第2話
者に伝達する第1の音声翻訳装置、および第2話者によ
って入力される第2言語の音声を第1言語の合成音声に
変換して第1話者に伝達する第2の音声翻訳装置を備え
た対話システムにおいて、各音声翻訳装置は、入力音声
をテキストに変換する音声認識手段、音声認識手段によ
って生成されたテキストに基づいて中間言語表現のタグ
を生成する中間言語生成手段、および中間言語生成手段
によって生成された中間言語表現のタグに基づいて翻訳
および音声合成処理を行なう翻訳・音声合成手段を備え
ており、各音声翻訳装置内の音声認識手段は、他方の音
声翻訳装置内の中間言語生成手段によって生成された相
手話者の前発話に対する中間言語表現のタグと、相手話
者の前発話の中間言語表現のタグに依存したタグ依存の
言語モデルとを用いて、自己話者の次発話の音声認識を
行なうものであることを特徴とする。
【0009】この発明は、第1話者によって入力される
第1言語の音声を第2言語の合成音声に変換して第2話
者に伝達する第1の音声翻訳装置、および第2話者によ
って入力される第2言語の音声を第1言語の合成音声に
変換して第1話者に伝達する第2の音声翻訳装置を備え
た対話システムにおいて、各音声翻訳装置は、入力音声
をテキストに変換する音声認識手段、音声認識手段によ
って生成されたテキストに基づいて中間言語表現のタグ
を生成する中間言語生成手段、および中間言語生成手段
によって生成された中間言語表現のタグに基づいて翻訳
および音声合成処理を行なう翻訳・音声合成手段を備え
ており、各音声翻訳装置内の音声認識手段は、他方の音
声翻訳装置内の中間言語生成手段によって生成された相
手話者の前発話に対する中間言語表現のタグと、相手話
者の前発話の中間言語表現のタグに依存したタグ依存の
言語モデルとを用いて、自己話者の次発話の音声認識を
行なうとともに、中間言語表現のタグに依存しないタグ
非依存の言語モデルを用いて自己話者の次発話の音声認
識を行ない、両音声認識結果のうち高い尤度を示す方を
音声認識結果として採用するものであることを特徴とす
る。
【0010】この発明は、第1話者によって入力される
第1言語の音声を第2言語の合成音声に変換して第2話
者に伝達する第1の音声翻訳プログラム、および第2話
者によって入力される第2言語の音声を第1言語の合成
音声に変換して第1話者に伝達する第2の音声翻訳プロ
グラムを含む対話プログラムを記録したコンピュータ読
み取り可能な記録媒体において、各音声翻訳プログラム
は、入力音声をテキストに変換する音声認識プログラ
ム、音声認識プログラムによって生成されたテキストに
基づいて中間言語表現のタグを生成する中間言語生成プ
ログラム、および中間言語生成手段によって生成された
中間言語表現のタグに基づいて翻訳および音声合成処理
を行なう翻訳・音声合成プログラムを含んでおり、各音
声翻訳プログラム内の音声認識プログラムは、他方の音
声翻訳プログラム内の中間言語生成プログラムによって
生成された相手話者の前発話に対する中間言語表現のタ
グと、相手話者の前発話の中間言語表現のタグに依存し
たタグ依存の言語モデルとを用いて、自己話者の次発話
の音声認識を行なうものであることを特徴とする。
【0011】
【発明の実施の形態】以下、この発明の実施の形態につ
いて説明する。
【0012】〔1〕本願発明の考え方の説明
【0013】本願発明では、音声翻訳装置を前提とし、
翻訳のための中間言語表現(文献2参照)をそのまま発
話の内容のモデルとして利用することを提案する。本方
法では発話の内容の抽出は翻訳過程の一部そのものであ
るため、リソースの一元化という観点から望ましい。ま
た、中間言語表現は源言語に依存しないため、異国語間
の対話において言語モデルを何ら変更なしに利用可能で
ある。
【0014】文献2:Levin, L. et al An interlingua
based on domain actions for machine translation o
f task-oriented dialogues. PROC.ICSLP-98, pp.1155-
1158,(1998).
【0015】図1は、中間言語表現による発話の内容の
表現例を示している。
【0016】発話は、慨ね単文相当の意味単位に分割さ
れ、それぞれの意味単位に対し中間言語表現が与えられ
る。発話の内容は、次の3種類のタグを用いて表現され
る。
【0017】 Speech-Act(以下、SAと略す) :ア
クションの種類を示すタグである。 Concepts(以下、Cptsと略す) :何についての
アクションかを示すタグである。 Arguments (以下、Argsと略す) :上記の何
ついてのアクションかにおける何の具体例を示すタグで
ある。 これらのタグはタスクに依存して定義される。
【0018】この例では、対象ドメインは旅行会話であ
り、これにはホテル予約、フライト予約、交通機関の案
内等のタスクが含まれている。
【0019】本手法では上記の中間言語表現の3種類の
タグの内SA,Cptsの2つのみを用いることにす
る。これはArgsは種類が多いため種類当たりのデー
タの数が少なすぎるデータスパースの問題が生じるため
と、Cptsによって取り得るArgsが限定されるた
め、Argsの持つ情報をCptsによってカバーし得
ると考えられるためである。
【0020】また、一つの発話には複数の意味単位が含
まれる場合があるが、この場合最後の意味単位が最も強
く次発話に影響を与えると仮定し、最後の意味単位のタ
グのみを用いることにする。
【0021】このモデルを用いた場合、次発話における
単語列の生起確率は次式1で表されることになる。ここ
で、SA,Cptsは相手話者の前発話の中間言語表現
のタグを表している。
【0022】
【数1】
【0023】相手話者の前発話の内容依存の言語モデル
作成のために、まず中間言語表現のタグ依存の言語モデ
ルを作成する。タグ依存の言語モデルはSA,Cpts
ごとにそれぞれのタグをサブタスクとみなし、タスク適
応(文献3参照)を行うことによって作成する。したが
ってタグ依存の言語モデルはSA,Cptsのタグの種
類と同じだけ作成される。
【0024】文献3:政瀧浩和, 匂坂芳典, 久木和也,
河原達也 最大事後確率推定によるN-gram言語モデルの
タスク適応. 電子情報通信学会論文誌,vol.J81-D-II, p
p. 2519-2525, (1998-11)
【0025】これらのタグ依存の言語モデルを用いるこ
とによって、発話内容が相手話者の前発話の最後の意味
単位に依存する場合、性能の向上が期待できる。しかし
ながら、次発話の内容は常に前発話の最後の意味単位に
依存するとは限らない。これは話題の変り目であった
り、最後の意味単位以外の意味単位に対する発話であっ
たりする場合が考えられるためである。
【0026】この様なケースではタグ依存の言語モデル
を用いることは逆に認識性能の劣化につながると考えら
れ、タグ非依存の言語モデルを使用する方が望ましい。
次発話の内容が前発話の最終意味単位に依存するかどう
かは直接的にはわからないが、最後の意味単位に依存す
る場合はタグ依存の言語モデルを用いた方が高い尤度を
示し、そうでない場合はタグ非依存の言語モデルを用い
た方が高い尤度を示すと考えられる。
【0027】このため認識時にはタグ依存、タグ非依存
双方のモデルを用い、高い尤度を示すモデルを用いた時
の認識結果を採用することにする。この方法では、上記
式1は、次式2で近似されることになる。
【0028】
【数2】
【0029】〔2〕第1話者と第2話者とが異なる言語
で対話するのに適した対話システムにこの発明を適用し
た場合の具体例の説明
【0030】図2は、第1話者と第2話者とが異なる言
語で対話するのに適した対話システムの構成を示してい
る。
【0031】ここでは、第1話者は第1言語の音声を発
話し、第2話者は第1言語とは異なる第2言語の音声を
発話するものとする。
【0032】対話システムは、第1話者によって入力さ
れる第1言語の音声を第2言語の合成音声に変換して第
2話者に伝達する第1の音声翻訳装置10と、第2話者
によって入力される第2言語の音声を第1言語の合成音
声に変換して第1話者に伝達する第2の音声翻訳装置2
0とを備えている。
【0033】第1の音声翻訳装置10は、第1話者の音
声波形から特徴量を抽出する特徴量抽出部11、特徴量
抽出部11によって抽出された特徴量に基づいて音声認
識処理を行なって第1話者の音声波形を第1言語のテキ
ストに変換する音声認識部12、音声認識部12によっ
て生成された第1言語のテキストに基づいて中間言語を
生成する中間言語生成部13および中間言語生成部13
によって生成された中間言語から第2言語のテキストを
生成するとともに得られた第2言語のテキストを音声合
成して出力する翻訳・音声合成部14を備えている。
【0034】第2の音声翻訳装置20は、第2話者の音
声波形から特徴量を抽出する特徴量抽出部21、特徴量
抽出部21によって抽出された特徴量に基づいて音声認
識処理を行なって第2話者の音声波形を第2言語のテキ
ストに変換する音声認識部22、音声認識部22によっ
て生成された第2言語のテキストに基づいて中間言語を
生成する中間言語生成部23および中間言語生成部23
によって生成された中間言語から第1言語のテキストを
生成するとともに得られた第1言語のテキストを音声合
成して出力する翻訳・音声合成部24を備えている。
【0035】中間言語生成部13、23は、上述した3
つのタグSA、Cpts、Argsを生成する。第1の
音声翻訳装置10内の中間言語生成部13は、生成した
3つのタグSA、Cpts、Argsのうち、2種類の
タグSA,Cpts(=CPt1 〜CPti )を第2の
音声翻訳装置20内の音声認識部22に送る。
【0036】第2の音声翻訳装置20内の音声認識部2
2は、上記数式2に従って、タグ非依存の言語モデルを
用いた音声認識処理と、第1の音声翻訳装置10内の中
間言語生成部13から送られてきた各タグSA,CPt
1 〜CPti に依存した言語モデルを用いた音声認識処
理とを行ない、各言語モデルを用いて得られた認識結果
のうち、最も高い尤度を示すものを認識結果として採用
する。
【0037】同様に、第2の音声翻訳装置20内の中間
言語生成部23は、生成した3つのタグSA、Cpt
s、Argsのうち、2種類のタグSA,Cptsを第
1の音声翻訳装置10内の音声認識部12に送る。第1
の音声翻訳装置10内の音声認識部12は、上記数式2
に従って、タグ非依存の言語モデルを用いた音声認識処
理と、第2の音声翻訳装置20内の中間言語生成部23
から送られてきた各タグSA,CPt1 〜CPti に依
存した言語モデルを用いた音声認識処理とを行ない、各
言語モデルを用いて得られた認識結果のうち、最も高い
尤度を示すものを認識結果として採用する。
【0038】〔3〕評価実験
【0039】提案法の評価を連続単語認識の単語誤認識
率で行った。実験条件は次に示す通りである。 ・タスク:ホテル予約 ・訓練セット:13,041発話 ・評価セット:2,008発話 ・音響モデル:男女別環境依存1,400状態5混合 ・N−gram:単語2−gram ・タグ種類:SA タグ9種類,Cptsタグ11種類
【0040】また各発話に対するタグ付けは自動で行っ
ており(文献4参照)、その精度はSA,Cpts共約
90%程度である。表1にタグ依存モデルとタグ非依存
モデルを併用した場合の評価結果を示す。
【0041】文献4: Kouichi Tanigaki,Yoshinori S
agisaka Robust Speech Understanding Based on Word
Graph Interfase. Proc. ESCA IDS-99 Workshop, pp.45
-48,(1999-June).
【0042】
【表1】
【0043】表の前半ではタグ依存モデルとして、各S
Aタグ依存モデルを一つだけ用いた場合、後半では各C
ptsタグ依存モデルを一つだけ用いた場合、最終行で
は上記式2にしたがって全てのタグ依存モデルを用いた
場合、すなわち提案法の結果を示す。表で「非依存」は
タグ非依存単語2−gramを用いた結果を、「依存」
はタグ依存の単語2−gramを用いた結果を、「最
尤」はこれらの内、尤度の高い法を選んだ結果を示す。
【0044】発話数に関しては、タグの与えられない発
話と(会話の最初の発話とCptsタグを伴わないSA
タグがふられた発話の場合)、複数のCptsタグが与
えられる発話があるため発話数合計は一致しない。
【0045】改善率はCpts依存モデルを用いた時の
方が(5%を越えるものが11タグ中7タグ)SA依存
モデルより(9タグ中2タグ)も改善率が大きい。これ
はSAは主として文末表現等の文形に影響を与えると考
えられ、かつ文末表現は出現頻度自体が高いため、元々
言語尤度が高く認識しやすいためと思われる。したがっ
て、SAの中でも次発話内容全体に影響を与えるような
タグであるintroduce-selfは改善が大きい。
【0046】
【発明の効果】この発明によれば、相手話者の前発話の
内容に依存した言語モデルを使用することによって音声
認識を行なう際において相手話者の前発話の内容の抽出
が容易となる。
【図面の簡単な説明】
【図1】中間言語表現による発話の内容の表現例を示す
模式図である。
【図2】対話システムの構成を示すブロック図である。
【符号の説明】
10、20 音声翻訳装置 11、21 特徴量抽出部 12、22 音声認識部 13、23 中間言語生成部 14、24 翻訳・音声合成部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 谷垣 宏一 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 (72)発明者 匂坂 芳典 京都府相楽郡精華町光台二丁目2番地2 株式会社エイ・ティ・アール音声言語通信 研究所内 Fターム(参考) 5B091 AA03 AA15 BA03 CB12 CB32 EA02 5D015 HH23 KK03 KK04 LL06 LL10

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】 中間言語表現を使用した対話システムに
    おける音声認識方法であって、 相手話者の前発話の中間言語表現のタグに依存したタグ
    依存の言語モデルを作成しておき、相手話者の前発話に
    対する中間言語表現のタグとタグ依存の言語モデルとを
    用いて自己話者の次発話の音声認識を行なうことを特徴
    とする対話システムにおける音声認識方法。
  2. 【請求項2】 中間言語表現を使用した対話システムに
    おける音声認識方法であって、 相手話者の前発話の中間言語表現のタグに依存したタグ
    依存の言語モデルを作成しておき、相手話者の前発話に
    対する中間言語表現のタグとタグ依存の言語モデルとを
    用いて自己話者の次発話の音声認識を行なうとともに中
    間言語表現のタグに依存しないタグ非依存の言語モデル
    を用いて自己話者の次発話の音声認識を行ない、両音声
    認識結果のうち高い尤度を示す方を音声認識結果として
    採用するようにしたことを特徴とする対話システムにお
    ける音声認識方法。
  3. 【請求項3】 第1話者によって入力される第1言語の
    音声を第2言語の合成音声に変換して第2話者に伝達す
    る第1の音声翻訳装置、および第2話者によって入力さ
    れる第2言語の音声を第1言語の合成音声に変換して第
    1話者に伝達する第2の音声翻訳装置を備えた対話シス
    テムにおいて、 各音声翻訳装置は、入力音声をテキストに変換する音声
    認識手段、音声認識手段によって生成されたテキストに
    基づいて中間言語表現のタグを生成する中間言語生成手
    段、および中間言語生成手段によって生成された中間言
    語表現のタグに基づいて翻訳および音声合成処理を行な
    う翻訳・音声合成手段を備えており、 各音声翻訳装置内の音声認識手段は、他方の音声翻訳装
    置内の中間言語生成手段によって生成された相手話者の
    前発話に対する中間言語表現のタグと、相手話者の前発
    話の中間言語表現のタグに依存したタグ依存の言語モデ
    ルとを用いて、自己話者の次発話の音声認識を行なうも
    のであることを特徴とする対話システム。
  4. 【請求項4】 第1話者によって入力される第1言語の
    音声を第2言語の合成音声に変換して第2話者に伝達す
    る第1の音声翻訳装置、および第2話者によって入力さ
    れる第2言語の音声を第1言語の合成音声に変換して第
    1話者に伝達する第2の音声翻訳装置を備えた対話シス
    テムにおいて、 各音声翻訳装置は、入力音声をテキストに変換する音声
    認識手段、音声認識手段によって生成されたテキストに
    基づいて中間言語表現のタグを生成する中間言語生成手
    段、および中間言語生成手段によって生成された中間言
    語表現のタグに基づいて翻訳および音声合成処理を行な
    う翻訳・音声合成手段を備えており、 各音声翻訳装置内の音声認識手段は、他方の音声翻訳装
    置内の中間言語生成手段によって生成された相手話者の
    前発話に対する中間言語表現のタグと、相手話者の前発
    話の中間言語表現のタグに依存したタグ依存の言語モデ
    ルとを用いて、自己話者の次発話の音声認識を行なうと
    ともに、中間言語表現のタグに依存しないタグ非依存の
    言語モデルを用いて自己話者の次発話の音声認識を行な
    い、両音声認識結果のうち高い尤度を示す方を音声認識
    結果として採用するものであることを特徴とする対話シ
    ステム。
  5. 【請求項5】 第1話者によって入力される第1言語の
    音声を第2言語の合成音声に変換して第2話者に伝達す
    る第1の音声翻訳プログラム、および第2話者によって
    入力される第2言語の音声を第1言語の合成音声に変換
    して第1話者に伝達する第2の音声翻訳プログラムを含
    む対話プログラムを記録したコンピュータ読み取り可能
    な記録媒体において、 各音声翻訳プログラムは、入力音声をテキストに変換す
    る音声認識プログラム、音声認識プログラムによって生
    成されたテキストに基づいて中間言語表現のタグを生成
    する中間言語生成プログラム、および中間言語生成手段
    によって生成された中間言語表現のタグに基づいて翻訳
    および音声合成処理を行なう翻訳・音声合成プログラム
    を含んでおり、 各音声翻訳プログラム内の音声認識プログラムは、他方
    の音声翻訳プログラム内の中間言語生成プログラムによ
    って生成された相手話者の前発話に対する中間言語表現
    のタグと、相手話者の前発話の中間言語表現のタグに依
    存したタグ依存の言語モデルとを用いて、自己話者の次
    発話の音声認識を行なうものであることを特徴とする、
    対話プログラムを記録したコンピュータ読み取り可能な
    記録媒体。
JP2000160238A 2000-05-30 2000-05-30 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体 Pending JP2001343993A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000160238A JP2001343993A (ja) 2000-05-30 2000-05-30 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000160238A JP2001343993A (ja) 2000-05-30 2000-05-30 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JP2001343993A true JP2001343993A (ja) 2001-12-14

Family

ID=18664458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000160238A Pending JP2001343993A (ja) 2000-05-30 2000-05-30 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JP2001343993A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007013521A1 (ja) * 2005-07-26 2007-02-01 Honda Motor Co., Ltd. ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム
JP2008516294A (ja) * 2004-10-13 2008-05-15 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 対話システムの忠実度を向上させる方法及びシステム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008516294A (ja) * 2004-10-13 2008-05-15 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 対話システムの忠実度を向上させる方法及びシステム
JP4809358B2 (ja) * 2004-10-13 2011-11-09 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. 対話システムの忠実度を向上させる方法及びシステム
US8463611B2 (en) 2004-10-13 2013-06-11 Hewlett-Packard Development Company, L.P. Method and system for improving the fidelity of a dialog system
WO2007013521A1 (ja) * 2005-07-26 2007-02-01 Honda Motor Co., Ltd. ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム
JP4901736B2 (ja) * 2005-07-26 2012-03-21 本田技研工業株式会社 ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム
US8352273B2 (en) 2005-07-26 2013-01-08 Honda Motor Co., Ltd. Device, method, and program for performing interaction between user and machine

Similar Documents

Publication Publication Date Title
EP3716267B1 (en) Facilitating end-to-end communications with automated assistants in multiple languages
EP3582119A1 (en) Spoken language understanding system and method using recurrent neural networks
US9805718B2 (en) Clarifying natural language input using targeted questions
US7860705B2 (en) Methods and apparatus for context adaptation of speech-to-speech translation systems
CN110741363B (zh) 使用机器学习处理自然语言以基于槽描述符确定槽值
JP4768970B2 (ja) 音声アプリケーション言語タグとともに実装される理解同期意味オブジェクト
JP3454897B2 (ja) 音声対話システム
JP2019528512A (ja) 人工知能に基づくヒューマンマシンインタラクション方法及び装置
US11093110B1 (en) Messaging feedback mechanism
JP2001100781A (ja) 音声処理装置および音声処理方法、並びに記録媒体
CN110689877A (zh) 一种语音结束端点检测方法及装置
US10854191B1 (en) Machine learning models for data driven dialog management
CN109543021B (zh) 一种面向智能机器人的故事数据处理方法及系统
JP2011504624A (ja) 自動同時通訳システム
WO2011033834A1 (ja) 音声翻訳システム、音声翻訳方法および記録媒体
CN111128175B (zh) 口语对话管理方法及系统
KR20230158107A (ko) 효율적인 스트리밍 비-순환 온-디바이스 엔드-투-엔드 모델
US9218807B2 (en) Calibration of a speech recognition engine using validated text
Tsiakoulis et al. Dialogue context sensitive HMM-based speech synthesis
KR20210123545A (ko) 사용자 피드백 기반 대화 서비스 제공 방법 및 장치
Ion et al. A dialog manager for micro-worlds
JP6090785B2 (ja) テキストデータ分割装置、テキストデータ分割方法、テキストデータ分割プログラム及び翻訳装置
JPH10260976A (ja) 音声対話方法
JP2001343993A (ja) 対話システムにおける音声認識方法、対話システムおよび対話プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003162524A (ja) 言語処理装置