JP2009500722A5 - - Google Patents

Download PDF

Info

Publication number
JP2009500722A5
JP2009500722A5 JP2008519325A JP2008519325A JP2009500722A5 JP 2009500722 A5 JP2009500722 A5 JP 2009500722A5 JP 2008519325 A JP2008519325 A JP 2008519325A JP 2008519325 A JP2008519325 A JP 2008519325A JP 2009500722 A5 JP2009500722 A5 JP 2009500722A5
Authority
JP
Japan
Prior art keywords
recording
computer
voice
user
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008519325A
Other languages
English (en)
Other versions
JP2009500722A (ja
Filing date
Publication date
Priority claimed from US11/170,808 external-priority patent/US20070006082A1/en
Application filed filed Critical
Publication of JP2009500722A publication Critical patent/JP2009500722A/ja
Publication of JP2009500722A5 publication Critical patent/JP2009500722A5/ja
Pending legal-status Critical Current

Links

Claims (20)

  1. コンピュータシステムで実行される音声対応アプリケーションでユーザ対話データをロギングするコンピュータ実施される方法(520)であって、
    前記コンピュータシステム上のタスクに関して定義される音声対応アプリケーションを実行すること(522)であって、タスクは、前記タスクの開始および前記タスクの終了を含み、前記タスクの開始後に、前記アプリケーションが前記アプリケーション内の動作を完成する複数の値を処理し、前記複数の値は1つまたは複数のターンを介してユーザから獲得され、ターンは、前記音声対応アプリケーションによってユーザに提供されるプロンプトと、前記音声対応アプリケーションによって前記ユーザに提供されるプロンプトおよびそれに続く前記ユーザからの応答を含むプロンプト/応答交換とのうちの少なくとも1つを含む、実行すること(522)と
    記アプリケーションで実行されるタスクの完了を示す情報を記録すること(524)と
    を含むことを特徴とするコンピュータ実施される方法(520)。
  2. 前記音声対応アプリケーションを実行すること(522)は、前記タスク階層構造で定義される、前記音声対応アプリケーションを実行することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  3. 各ターンの前記目的を示す情報を記録すること(524)は、ターンの前記目的が、前記音声対応アプリケーションが質問をすること、回答を確認すること、前記ユーザにヘルプを提供すること、およびプロンプトを繰り返すことのうちの少なくとも1つを含むかどうかを記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  4. 前記めいめいのタスクに対する相対的な各ターンに関する情報を記録すること(524)は、前記プロンプトがどの入力フィールドに関連するかに関する情報を記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  5. 前記めいめいのタスクに対する相対的な各ターンに関する情報を記録すること(524)は、前記応答がどの入力フィールドに関連するかに関する情報を記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  6. 各ターンの前記目的を示す情報を記録すること(524)は、ターンの前記目的が、ユーザがコマンドを提供すること、回答を提供すること、確認を受け入れること、および確認を拒否することのうちの少なくとも1つを含むかどうかを記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  7. 前記めいめいのタスクに対する相対的な各ターンに関する情報を記録すること(524)は、前記音声対応アプリケーションによって提供されるプロンプト、前記プロンプトに応答して前記ユーザによって提供される応答、および前記応答に関する音声リコグナイザによる認識結果に関する情報を記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  8. タスクの完了を示す情報を記録すること(524)は、成功、失敗、または未知の完了状況値のうちの1つを示す情報を記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  9. タスクの完了を示す情報を記録すること(524)は、前記タスクに関係するダイアログの完了の理由を示す情報を記録することを含むことを特徴とする請求項1に記載のコンピュータ実施される方法(520)。
  10. 音声対応アプリケーションを作成する命令を有するコンピュータ読み取り可能記録媒体であって、前記命令は、
    スクおよびターンに関して音声対応アプリケーションを定義すること(502)であって、タスクは前記アプリケーション内の動作を完成する1つまたは複数の値を処理し、前記1つまたは複数の値は、コンピュータシステム上の階層構造内において、1つまたは複数のターンを介しユーザから、または前記アプリケーションおよびユーザからの応答の値の変化から獲得され、音声認識は前記1つまたは複数の値の獲得に応答して使用され、タスクの完成の指示は、前記ユーザからまたは前記アプリケーションから獲得された少なくとも2つの値を使用する状況のセットに基づく、前記定義することと、
    スクの完了、対応するターンの目的、前記階層構造に対して相対的に前記アプリケーション内で実行されるおよび前記ユーザからの応答の値の変化を示す情報の記録を可能にすること(504)を含む、ことを特徴とするコンピュータ読み取り可能記録媒体。
  11. ーンは、前記音声対応アプリケーションによってユーザに提供されるプロンプトの少なくとも1つを含み、プロンプト/応答交換は、前記ユーザからの応答に続く前記音声対応アプリケーションによる前記ユーザに提供されるプロンプトを備えることを含むことを特徴とする請求項10に記載のコンピュータ読み取り可能記録媒体。
  12. めいめいのタスクに対する相対的な各ターンに関する情報の前記記録を可能にすること(504)は、各ターンの目的を示す情報の記録を可能にすることを含むことを特徴とする請求項10に記載のコンピュータ読み取り可能記録媒体。
  13. 各ターンの前記目的を示す情報の前記記録を可能にすること(504)は、ターンの前記目的が、前記音声対応アプリケーションが質問をすること、回答を確認すること、前記ユーザにヘルプを提供すること、およびプロンプトを繰り返すことのうちの少なくとも1つを含むかどうかを記録することを含むことを特徴とする請求項12に記載のコンピュータ読み取り可能記録媒体。
  14. 各ターンの前記目的を示す情報の前記記録を可能にすること(504)は、ターンの前記目的が、ユーザがコマンドを提供すること、回答を提供すること、確認を受け入れること、および確認を拒否することのうちの少なくとも1つを含むかどうかの記録を可能にすることを含むことを特徴とする請求項12に記載のコンピュータ読み取り可能記録媒体。
  15. 各ターンに関する情報の前記記録を可能にすること(504)は、前記音声対応アプリケーションによって提供されるプロンプト、前記プロンプトに応答して前記ユーザによって提供される応答、および前記応答に関する音声リコグナイザによる認識結果に関する情報の記録を可能にすることを含むことを特徴とする請求項12に記載のコンピュータ読み取り可能記録媒体。
  16. 前記めいめいのタスクに対する相対的な各ターンに関する情報の前記記録を可能にすること(504)は、前記プロンプトがどの入力フィールドに関連するかに関する情報の記録を可能にすることを含むことを特徴とする請求項12に記載のコンピュータ読み取り可能記録媒体。
  17. 前記めいめいのタスクに対する相対的な各ターンに関する情報の前記記録を可能にすること(504)は、前記応答がどの入力フィールドに関連するかに関する情報の記録を可能にすることを含むことを特徴とする請求項12に記載のコンピュータ読み取り可能記録媒体。
  18. 音声対応アプリケーションを作成する命令を有するコンピュータ読み取り可能記録媒体であって、前記命令は、
    コンピュータシステム上のタスク及びターンに関して音声対応アプリケーションを定義すること(502)であって、タスクは、前記アプリケーション内の動作を完成する1つまたは複数の値を処理し、前記1つまたは複数の値は、1つまたは複数のターンを介しユーザから獲得され、前記1つまたは複数の値のそれぞれは、文法ルールと一致し、ターンは、前記音声対応アプリケーションによってユーザに提供される少なくとも1つのプロンプトを含み、プロンプト/応答交換は、前記ユーザからの応答に後続される前記音声対応アプリケーションによって前記ユーザに提供されるプロンプトを含み、音声認識は前記1つまたは複数の値の獲得に応答して使用され、タスクの完成の指示は、少なくとも2つの値を使用する状況のセットに基づく、定義すること(502)と、
    前記音声対応アプリケーションの実行中に、前記1つまたは複数のターンのそれぞれに関するユーザおよびシステムの目的を示し、(a)前記アプリケーション内で実行されるタスクの完了および(b)前記ユーザからの応答の認識に関して変化する前記アプリケーション内で使用される値の表示のうちの少なくとも1つに関連する情報の記録を可能にすること(504)と
    を含むことを特徴とするコンピュータ読み取り可能記録媒体。
  19. タスクの完了を示す情報の前記記録を可能にすること(504)は、成功、失敗、または未知の完了状況値のうちの1つを示す情報の記録を可能にすることを含むことを特徴とする請求項18に記載のコンピュータ読み取り可能記録媒体。
  20. 情報の前記記録を可能にすること(504)は、プロンプトがどの入力フィールドに関連するかに関する情報の記録および応答がどの入力フィールドに関連するかに関する情報の記録を可能にすることを含むことを特徴とする請求項19に記載のコンピュータ読み取り可能記録媒体。
JP2008519325A 2005-06-30 2006-06-07 音声アプリケーションの測定およびロギング Pending JP2009500722A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/170,808 US20070006082A1 (en) 2005-06-30 2005-06-30 Speech application instrumentation and logging
PCT/US2006/022137 WO2007005185A2 (en) 2005-06-30 2006-06-07 Speech application instrumentation and logging

Publications (2)

Publication Number Publication Date
JP2009500722A JP2009500722A (ja) 2009-01-08
JP2009500722A5 true JP2009500722A5 (ja) 2009-07-23

Family

ID=37591309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008519325A Pending JP2009500722A (ja) 2005-06-30 2006-06-07 音声アプリケーションの測定およびロギング

Country Status (7)

Country Link
US (1) US20070006082A1 (ja)
EP (1) EP1899851A4 (ja)
JP (1) JP2009500722A (ja)
KR (1) KR20080040644A (ja)
CN (1) CN101589427A (ja)
MX (1) MX2007015186A (ja)
WO (1) WO2007005185A2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7873523B2 (en) * 2005-06-30 2011-01-18 Microsoft Corporation Computer implemented method of analyzing recognition results between a user and an interactive application utilizing inferred values instead of transcribed speech
US7853453B2 (en) * 2005-06-30 2010-12-14 Microsoft Corporation Analyzing dialog between a user and an interactive application
US8626511B2 (en) * 2010-01-22 2014-01-07 Google Inc. Multi-dimensional disambiguation of voice commands
CN101847407B (zh) * 2010-03-12 2013-01-02 中山大学 一种基于xml的语音识别参数处理方法
US20150202386A1 (en) * 2012-08-28 2015-07-23 Osprey Medical, Inc. Volume monitoring device utilizing hall sensor-based systems
TWI515719B (zh) * 2012-12-28 2016-01-01 財團法人工業技術研究院 基於目標名稱辨識之共用語音操控方法、裝置、其記錄媒體與程式產品
CA3199033A1 (en) 2013-04-10 2014-10-16 Ruslan Albertovich SHIGABUTDINOV Systems and methods for processing input streams of calendar applications
US9690776B2 (en) * 2014-12-01 2017-06-27 Microsoft Technology Licensing, Llc Contextual language understanding for multi-turn language tasks
US10803865B2 (en) 2018-06-05 2020-10-13 Voicify, LLC Voice application platform
US11437029B2 (en) * 2018-06-05 2022-09-06 Voicify, LLC Voice application platform
US10235999B1 (en) 2018-06-05 2019-03-19 Voicify, LLC Voice application platform
US10636425B2 (en) 2018-06-05 2020-04-28 Voicify, LLC Voice application platform
CN111145754B (zh) * 2019-12-12 2021-04-13 深圳追一科技有限公司 语音输入方法、装置、终端设备及存储介质
US11394755B1 (en) * 2021-06-07 2022-07-19 International Business Machines Corporation Guided hardware input prompts
CN115857865A (zh) * 2022-11-07 2023-03-28 抖音视界有限公司 一种播放串音检测方法、装置、设备及存储介质

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6073097A (en) * 1992-11-13 2000-06-06 Dragon Systems, Inc. Speech recognition system which selects one of a plurality of vocabulary models
US5787414A (en) * 1993-06-03 1998-07-28 Kabushiki Kaisha Toshiba Data retrieval system using secondary information of primary data to be retrieved as retrieval key
US5588044A (en) * 1994-11-22 1996-12-24 Voysys Corporation Voice response system with programming language extension
US5678002A (en) * 1995-07-18 1997-10-14 Microsoft Corporation System and method for providing automated customer support
EP1021804A4 (en) * 1997-05-06 2002-03-20 Speechworks Int Inc SYSTEM AND METHOD FOR DEVELOPING INTERACTIVE LANGUAGE APPLICATIONS
US5999904A (en) * 1997-07-02 1999-12-07 Lucent Technologies Inc. Tracking initiative in collaborative dialogue interactions
US6014647A (en) * 1997-07-08 2000-01-11 Nizzari; Marcia M. Customer interaction tracking
US6606598B1 (en) * 1998-09-22 2003-08-12 Speechworks International, Inc. Statistical computing and reporting for interactive speech applications
US6405170B1 (en) * 1998-09-22 2002-06-11 Speechworks International, Inc. Method and system of reviewing the behavior of an interactive speech recognition application
US6839669B1 (en) * 1998-11-05 2005-01-04 Scansoft, Inc. Performing actions identified in recognized speech
US6510411B1 (en) * 1999-10-29 2003-01-21 Unisys Corporation Task oriented dialog model and manager
US7216079B1 (en) * 1999-11-02 2007-05-08 Speechworks International, Inc. Method and apparatus for discriminative training of acoustic models of a speech recognition system
US6526382B1 (en) * 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
US6829603B1 (en) * 2000-02-02 2004-12-07 International Business Machines Corp. System, method and program product for interactive natural dialog
US7085716B1 (en) * 2000-10-26 2006-08-01 Nuance Communications, Inc. Speech recognition using word-in-phrase command
US7003079B1 (en) * 2001-03-05 2006-02-21 Bbnt Solutions Llc Apparatus and method for monitoring performance of an automated response system
US6823054B1 (en) * 2001-03-05 2004-11-23 Verizon Corporate Services Group Inc. Apparatus and method for analyzing an automated response system
US6904143B1 (en) * 2001-03-05 2005-06-07 Verizon Corporate Services Group Inc. Apparatus and method for logging events that occur when interacting with an automated call center system
US7020841B2 (en) * 2001-06-07 2006-03-28 International Business Machines Corporation System and method for generating and presenting multi-modal applications from intent-based markup scripts
US6810111B1 (en) * 2001-06-25 2004-10-26 Intervoice Limited Partnership System and method for measuring interactive voice response application efficiency
GB0129787D0 (en) * 2001-12-13 2002-01-30 Hewlett Packard Co Method and system for collecting user-interest information regarding a picture
TW567465B (en) * 2002-09-02 2003-12-21 Ind Tech Res Inst Configurable distributed speech recognition system
US20040162724A1 (en) * 2003-02-11 2004-08-19 Jeffrey Hill Management of conversations
US7383170B2 (en) * 2003-10-10 2008-06-03 At&T Knowledge Ventures, L.P. System and method for analyzing automatic speech recognition performance data
US7043435B2 (en) * 2004-09-16 2006-05-09 Sbc Knowledgfe Ventures, L.P. System and method for optimizing prompts for speech-enabled applications
US7853453B2 (en) * 2005-06-30 2010-12-14 Microsoft Corporation Analyzing dialog between a user and an interactive application
US7873523B2 (en) * 2005-06-30 2011-01-18 Microsoft Corporation Computer implemented method of analyzing recognition results between a user and an interactive application utilizing inferred values instead of transcribed speech

Similar Documents

Publication Publication Date Title
JP2009500722A5 (ja)
JP6154155B2 (ja) プロミネンスを使用した音声対話システム
Litman et al. ITSPOKE: An intelligent tutoring spoken dialogue system
JP6448765B2 (ja) 対話装置、方法及びプログラム
US11430430B2 (en) System and method for determining the compliance of agent scripts
CN107077860A (zh) 用于将有噪音频信号转换为增强音频信号的方法
WO2007005186A3 (en) Diagnosing recognition problems from untranscribed data
JP6980603B2 (ja) 話者モデル作成システム、認識システム、プログラムおよび制御装置
JP2014504959A5 (ja)
JP2007122747A5 (ja)
CN107886944A (zh) 一种语音识别方法、装置、设备及存储介质
JP6576968B2 (ja) 話し終わり判定装置、話し終わり判定方法およびプログラム
Principi et al. Acoustic template-matching for automatic emergency state detection: An ELM based algorithm
CN110600013A (zh) 非平行语料声音转换数据增强模型训练方法及装置
Vegesna et al. Application of emotion recognition and modification for emotional Telugu speech recognition
CN113674733A (zh) 用于说话时间估计的方法和设备
JP2010129033A (ja) 対話心理学習装置とその方法、対話制御装置とその方法、プログラムと記録媒体
JP2009128490A (ja) 学習データ選択装置、学習データ選択方法、プログラムおよび記録媒体、音響モデル作成装置、音響モデル作成方法、プログラムおよび記録媒体
Hirschberg et al. Generalizing prosodic prediction of speech recognition errors
Mehra et al. Improving speech command recognition through decision-level fusion of deep filtered speech cues
Cheng Automatic Tone Assessment of Non-Native Mandarin Speakers.
JP2009205040A (ja) 音素モデルクラスタリング装置、方法及びプログラム
JP2008293098A (ja) 応答スコア情報生成装置、対話処理装置
WO2020162239A1 (ja) パラ言語情報推定モデル学習装置、パラ言語情報推定装置、およびプログラム
JP7231181B2 (ja) 耐雑音音声認識装置及び方法、並びにコンピュータプログラム