JP2006099424A - 音声情報サービスシステム及び音声情報サービス端末 - Google Patents

音声情報サービスシステム及び音声情報サービス端末 Download PDF

Info

Publication number
JP2006099424A
JP2006099424A JP2004284603A JP2004284603A JP2006099424A JP 2006099424 A JP2006099424 A JP 2006099424A JP 2004284603 A JP2004284603 A JP 2004284603A JP 2004284603 A JP2004284603 A JP 2004284603A JP 2006099424 A JP2006099424 A JP 2006099424A
Authority
JP
Japan
Prior art keywords
task
management unit
dialog
voice information
service system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004284603A
Other languages
English (en)
Inventor
Nobuo Hataoka
信夫 畑岡
Ichiro Akahori
一郎 赤堀
Masahiko Tateishi
雅彦 立石
Teruko Mitamura
テルコ ミタムラ
Eric Nyberg
エリック・ナイバーグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Denso Corp
Original Assignee
Hitachi Ltd
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Denso Corp filed Critical Hitachi Ltd
Priority to JP2004284603A priority Critical patent/JP2006099424A/ja
Priority to US11/210,857 priority patent/US20060173689A1/en
Publication of JP2006099424A publication Critical patent/JP2006099424A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4938Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals comprising a voice browser which renders and interprets, e.g. VoiceXML
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3608Destination input or retrieval using speech input, e.g. using speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/26Devices for calling a subscriber
    • H04M1/27Devices whereby a plurality of signals may be stored simultaneously
    • H04M1/271Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】 車載情報サービスシステムにおいて、音声入力による対話が自由に、かつ効率的にできることを可能とするユーザインタフェース方式、及び装置を提供することにあり、さらに、センターとの通信遮断にも対応できるシステム構成を提供する。また、端末からのセンターへのアクセスは、常時ではなく、適宜必要に応じて行うことが可能なシステム構成を提供する。
【解決手段】 端末側の構成として、柔軟な対話管理部106とアプリケーション管理を行うタスク管理部107とを分離する。更に、ユーザインタフェース、対話管理、タスク管理、アプリケーションの4層構成としたことを特徴とする。又、センターからのアプリケーション情報の取り込みを、必要に応じて行う手段を設ける。
【選択図】 図1

Description

本発明は、音声入出力機能を有する端末を用いたネットワーク型の情報サービスシステムにおいて、効率的に端末とセンターとの機能分担を行う手段を提供する装置、あるいはソフトウェア及びインターフェイスに関する。
従来の音声を利用した各種情報サービスシステム、特にカーナビシステムは、サーバを備えたネットワーク型の構成となっていない結果、自由にセンター側の情報入手が出来ないか、あるいはネットワーク型構成でも、音声入力の対話シーケンスが一意で、自由な音声入力ができないという問題があった。
ネットワーク型で音声対話を実現する技術として、VoiceXMLを含めて3階層構造を用いた対話管理システム技術がある。具体的には、対話タスク等の遷移を記載したScenarioXML、個別タスクの対話シーケンスを記述したDialogXML、音声対話システムでの対話記述言語VoiceXMLの3階層で構成される。(例えば特許文献1、非特許文献1参照)。しかし、本公知例は、アプリケーションの遷移には対応できるものの、ユーザとの対話管理とサーバ側のアプリケーションタスクデータへのアクセスとが、同じ対話管理処理部で実行されていた結果、サーバ側とのアクセス管理に関してのきめ細かな管理が出来ないという問題、さらにはタスク毎に異なるインタフェース、及びデータフォーマット対応が難しいなどの問題があった。また、常時、端末とサーバとの通信を必要とした構成となっており、通信コストが必要以上にかかるという問題があった。
又、分野移行性を高めるために一連の対話シーケンスを対話タスクとしてまとめ、該対話タスクを階層構造にして格納した対話タスク階層データベースとしたシステムもあるが、対話管理とタスク管理との分離した構成とはなっていない(例えば、特許文献2参照)。
特開2003-316385号公報 特開2003-5786号公報 「音声対話管理システムCAMMIAの開発」著者:畑岡信夫、他、出典:(社)日本音響学会講演論文集1-6-21、2003年9月
本発明の目的は、前記従来の問題を解決して、例えば車載情報サービスシステムにおいて、音声入力による対話が自由に、かつ効率的にできることを可能とするユーザインタフェース方式、及び装置を提供することにあり、さらに、センターとの通信遮断にも対応できるシステム構成を提供する。また、端末からのセンターへのアクセスは、常時ではなく、適宜必要に応じて行うことが可能なシステム構成を提供する。
上記目的を達成するために、本発明ではまず第1に、端末側の構成として、柔軟な対話管理部とアプリケーション管理を行うタスク管理部とを分離した構成としたことを特徴とする。第2に、ユーザインタフェース、対話管理、タスク管理、アプリケーションの4層構成としたことを特徴とする。さらに、第3として、センターからのアプリケーション情報の取り込みを常時ではなく、適宜必要に応じて行う手段を設けたことを特徴とする。
第1と第2、及び第3の手段は、端末からの音声入力が、自由な対話シーケンスに従って、自由に入力できることを可能とするように、作用する。
本発明の結果、端末からの音声入力が、自由な対話シーケンスに従って、自由に入力できることを可能とする効果がある。また車から道路混雑状況や、旅行、施設等の利用状況、及び音楽配信などの各種車載情報サービスを、使いやすく、安価で、かつ効率よく受けることが可能となる効果がある。さらに、センターとの通信遮断に対しても頑強なシステムを構築でき、かつ通信コストを低減できる効果がある。
以下、本発明の実施例を詳細に説明する。
図1は、本発明の基本となるシステム構成を示す図である。特開2003-316385号公報のシステム構成は、対話管理とアプリケーションタスクに関係する対応を、全て対話管理という処理の中で行う構成となっている。それに対して、本特許は、対話管理部とタスク管理部とが分離し、連携したシステム構成となっている。ユーザからの入力は、音声、あるいはタッチやボタン操作等のアクションによりなされる。いわゆる、マルチモーダルな入力を可能としている。これは、車載情報サービスでのインタフェースを想定している。 端末100は、ユーザインタフェース層、対話管理層、タスク管理層、アプリケーション層の4階層で構成されている。以下、端末100での処理に関して詳細に述べる。ユーザからの音声入力は、音声認識部(ASR)101にて音声認識処理が実行され、認識結果はVoiceXMLインタプリタVXM103経由で、対話管理部106へ入力され、VoiceXML形式で記載された対話シナリオに基づいて、対話処理が実行される。端末からの対話出力はVXI103を経由して、音声合成処理部(TTS)102にて、ユーザへ音声出力される。ユーザからの入力は、タッチパネル104を触るとかボタン105と押すとかのアクションとなる場合も想定している。対話管理部106は、ユーザとの音声による対話、あるいはアクションへの対応を行う。具体的には、アプリケーションタスクに則って、対話シナリオが決まり、それに従い対話管理が行われる。対話シナリオは、後述図2〜図5で説明される構成となっている。タスク管理部は、対話管理部からの情報を受けて、タスク遷移が起こった場合は、該アプリケーションタスクへのアクセスを行い、該タスクに関与する対話シナリオとデータとを読み込み、VoiceXML形式にて、対話管理部へ転送して、ユーザの対話に対応する構成となっている。
タスク管理の処理の詳細は、後述図6でなされるが、データベースは、取り上げるアプリケーションに依存したデータ内容とデータ構造になっている。例えば、ナビ応用では、運転している近辺の地図データと混雑情報などがあり、運転地域が移動する毎に、前のデータは消去され、あらたな地図データと混雑情報が、センターからダウンロードされて、端末のローカルDB 111に格納される。この際に、更新時刻と使用回数等の情報も同時に付随情報として記憶される。
アプリケーション層としては、図1の例では、ナビ応用108、テレマティクス応用109、その他応用110が設定されている。それぞれ、必要なデータが端末側にローカルデータ111として格納されている。該データは、必要応じて、ネットワーク112を経由して、各対応タスクサーバ112へアクセスし、リモートデータベースから、ローカルデータベースへ転送され、記憶される。タスク管理部からのネットワーク経由でのサーバアクセスは、必要に応じて行われ、その時だけ、端末とセンターサーバとの通信が実行される。このように対話管理部とタスク管理部を分離することで、対話管理部は、ユーザとの音声対話とアクション対応を主点に担当し、タスク管理は、アプリケーションタスクデータのアクセスを主点に担当することが可能となり、種々の効果が期待できる。一つは、対話管理部は、ユーザのマルチモーダルな入出力に対して、きめ細かな対応が可能であること、二つ目には、対話管理部と切り離した構成の中で、タスク管理部は、ネットワーク通信の状態確認を担当することになり、通信遮断への対応ができるシステム構成となっている。さらに、第3番目の効果は、タスク管理部は、入出力フォーマットが異なる種々のアプリケーションタスクへの対応もきめ細かにできるということある。また、第4番目の効果としては、必要な時のみに、端末とセンターとの通信を行うという構成により、通信コストを大幅に抑えられるというVoiceXML 205の3階層で構成されている。3階層の関係は、ScenarioXML 201をスタートとして、ScenarioXMLコンパイラ202で、DiaolgXML 203が自動的に生成され、さらにDialogXMLコンパイラ204にて、VoiceXML 205が自動的に生成される。特開2003-316385号公報での3階層構造の対話管理でのシナリオXMLは、本発明のタスク管理の一部処理(例えば、アプリケーションデータベースへのアクセス等)を兼ねた構成となっているが、本発明では、対話タスク推移に関する処理機能があれば良い構成となっている。つまり、対話タスク推移の変更までを対話管理で管理して、それ以上の処理、つまりはデータベースの検索・アクセス・データ取得等はタスク管理にて管理する。
図3は、ScenarioXMLの一実施例を示している。シナリオXMLは、例えば、車載情報サービスでは、天気予報、レストラン案内等の各サービス(タスクと呼ぶ)に関する外部辞書の呼び込みや、各タスク間の関係を記載したXMLベースのテキスト情報である。例えば、図3(A)はループと外部データベースへのアクセスが可能な言語構成となっている。図3(B)は、音声認識文法grammar src等の外部データへのアクセスに関する詳細な記述と、共通アークの例を示している。図3では、共通アークは、help機能であり、<jumplist>と</jumplist>の間に記述され、何回も定義が可能な構造となっている。
図4は、3階層構造の対話管理方式における、DialogXMLの一実施例を示している。この例では、ルートガイダンスの具体的なシステムからのプロンプトである「Go straight on Fifth Avenue」が記述され、それに対応したユーザの発声を認識する音声認識文法「grammar src="next。gram"type」が記述されている。このように、DialogXMLは、タスク内での具体的な対話の内容を記載したテキストであり、作成にあたっては、実際の対話コーパスを収集して、多岐にわたった表現も表記して、実際の音声入力に対応する必要がある。
図5は、3階層構造の対話管理方式におけるVoiceXMLの一例を示している。VoiceXMLは、W3C(World Wide Web Consortium)にて標準化された音声対話記述言語であり、図5は、天気予報案内タスクでの、具体的な対話フローの内部表現を示している。ここでは、県名と地名を入力することで、その土地の天気予報を入手する。「お天気情報サービスへようこそ。」というシステムからのプロンプトを開始として、利用者は県名と地名を音声で入力することで、知りたい土地の天気情報を入手することになる。DialogXMLをコンパイルして、システムで実行可能なVoiceXMLが自動生成される。
図6は、タスク管理部の処理の詳細を示す図である。対話管理部(DM)とのやりとり601では、タスク推移が起こった場合に、DMからタスク管理部への要求があり、必要なデータ(タスク、対話データ)の探索として、ローカルなデータベース探索602が実施される。タスク推移の判定は、例えば、ユーザの入力する音声、あるいはアクションで、既に設定されているタスク毎のキーワードが入力、あるいは操作された場合に決定する。ローカルデータベースに所望のデータが存在している場合は、データをDMへの転送する処理を、DMとのやりとり601を介して実行される。一方、ローカルデータベースに必要なデータが存在しない時には、ネットワーク経由でセンターサーバへのアクセス603が実行される。センターからのデータ転送があった場合は、データ(タスク、対話データ)が、ローカルデータベースに格納され、内容をDMへ転送されることになる。センターとの交信がタイムオーバとなった場合は、タスク管理部から対話管理部へその後の処理に冠する判断を確認604が行われ、キャンセルであれば、初期状態の対話管理部とのやりとり待ちに状態となる。一方、再試行が対話管理部からの指示であれば、設定回数までのセンターへの再アクセス605が実行される。再アクセスの結果、データが確保されれば、ローカルデータベースへの格納と対話管理部へのデータ転送が実施される。それ以外は、タイムアウトとして、初期状態へ戻る。タスク管理部の処理が行われてる間で、必要な情報を入手している間は、対話管理部は、適宜、ユーザへ、情報を検索中である旨のアナウンスを行い、待機することにすることができる。
以上の処理を行うことで、ネットワーク交信の遮断があった場合でも、センターとの再アクセスが可能となり、必要なデータ入手ができるという特徴がある。
図7は、本発明の結果可能になるダウンロード機能を具備した端末のアーキテクチャの一実施例を示す図である。マイコン等のCPU701、リアルタイムOS702、Java(登録商標)VM 703、OSGI(Open Service Gateway Initiative)フレームワーク704、端末での汎用ブラウザ705、WWWサーバアクセスソフト706が基本的なプラットフォームとしてある。本発明に関与する個所としては、WWWサーバアクセス基盤707に依存した形で、タスク管理ソフト708、各種アプリケーションソフトが構成されている。各種アプリケーションとしては、VXI等も含んだ対話管理ソフト709、テレマ制御710、ナビ制御711、車両制御712がある。センターとのアクセス、データのダウンロード機能として、ダウンロード管理用アプリ713、ダウンロードAPP(Application Program Package)714が備わってる。図1との関係は、対話管理ソフト709が、y-ザインタフェース層と対話管理層に対応し、タスク管理ソフト708は、タスク管理層、テレマ制御710、ナビ制御711が、アプリケーション層に対応している。
図8は、図1のシステム構成において処理が実施されて、自動生成されたVoiceXMLを実行した具体的な音声対話シナリオの一実施例を示す。サービス稼動時には、この音声対話シナリオに従い、システムは利用者からのシステム稼動開始の情報を得て、カーナビではまず、通常の目的地設定タスク801が開始される。図8では、システムからの要求である「ご用件をどうぞ。」というプロンプトで、ユーザが「四川楼に行きたい。」と入力することにより、目的地が確定される。その結果、目的地までの対話シナリオが動的に設定される802、道案内タスク803が実行される。さらに、本実施例では、ユーザからの「駐車場はある?」という問いかけにより、システムは柔軟なタスクの遷移処理804を行い、駐車場案内タスク805へ移行し、駐車場の有無の案内を出す。その後、システムは、元の道案内タスク806へもどり、ユーザに引き続き、道案内を行う。本発明は、以上述べた対話シーケンスを前もって作成して、案内サービスを実現することを目的としている。
具体的に、音声インタフェースを利用した車載情報サービスシステムの一構成を図9に示す。サービスの内容は、ルートガイダンスと天気予報サービスである。車載システム901から、車載端末9011の音声インタフェースを利用して、目的地までの距離と目的地の天気に関する情報を、センター側のサーバにアクセスすることで入手を行う。音声インタフェースを実現する音声認識部9013と対話管理部9014は、車載端末合と音声ポータル側の、どちらにもある事もあり、効率的な連携をもって、ユーザであるドライバーへ、必要な情報を供給する。音声認識部の前段に、車載利用に耐えるような雑音抑圧の前処理9012が具備されることが多い。さらに、VoiceXMLインタプリタ9014も、車載あるいは音声ポータルセンター側の両方に具備されている。音声ポータルセンター902の構成は、少なくても対話管理部と、音声認識、及び音声合成部を具備し、対話シーケンスはVoiceXML記述言語にて実現されている例を示している。車載端末の音声処理部と音声ポータルでの音声処理部の連携は、例えば、車載オーディオ機器3015の操作等、ネットワークに接続する必要がないサービス要求に関しては、車載端末だけで処理を完了させて、時々刻々変わる道路情報等は、センターへ接続して、WWW等903のネットワークを介して情報を入手する。この際、音声ポータルゲートウェイ等で、音声認識処理、対話管理処理等を分担連携することが、通信料の削減や通信線路の音声の歪み回避等の面から、重要となっている。
図10は、本発明の結果実現されるVoiceXMLを使用した音声サービスの一般的なシステム構成を示す。VoiceXMLインタプリタ等で実現されるVoiceXMLゲートウェイを具備したシステム構成を示している。インタネット等のネットワークへ接続してサービスを受ける構成として、従来はパソコン(PC)1008を入力とする方法が主流であった。この場合は、インタネット1010に接続されているコンテンツに関するホームページは、通常のHTML1009で記述されている。しかし、携帯電話等1001の入力手段を利用する場合は、 電話網1002を利用して、VoiceXMLゲートウェイ(あるいは音声ポータルゲートウェイ)1003を介して、VoiceXMLで記述されているホームページ1005、1006にアクセスすることになる。VoiceXMLゲートウェイ1003は、VoiceXMLインタプリタや音声認識、音声合成、DTMF等の処理モジュール1004で構成されている。
本発明の基本構成を示すシステム構成図である。 3階層構造による対話管理部の構成を示す図である。 ScenarioXMLの一実施例を示す図である。 DialogXMLの一実施例を示す図である。 VoiceXMLを用いた対話シーケンスの内部表現の一例を示す図である。 タスク管理部の処理を示す図である。 システムアーキテクチャを示す図である。 本発明の結果可能となる音声対話の流れの例を示す図である。 音声インタフェースを利用した車載情報サービスシステムの一構成を示す図である。 VoiceXMLゲートウェイを具備したシステム構成を示す図である。
符号の説明
100 端末/クライアント
101 音声認識ASR
102 音声合成TTS
103 VoiceXMLインタプリタVXI
104 タッチパネル
105 ボタン
106 対話管理部
107 タスク管理部
108 ナビ応用
109 テレマ応用
111 ローカルデータベース
112 ネットワーク
113 サーバ群

Claims (6)

  1. 少なくとも音声入力機能を具備した端末と、通信手段を介してネットワークによりサービスセンターに結合している音声情報サービスシステムにおいて、端末構成として、使用者と端末との対話処理状況を管理する対話管理部と、サービスタスク状況を管理するタスク管理部とを分離して具備することを特徴とする音声情報サービスシステム。
  2. 請求項1記載の音声情報サービスシステムにおいて、端末構成は、少なくともユーザインタフェース層、対話管理部を主体とする対話管理層、タスク管理部を主体とするタスク管理層、アプリケーション層の4階層を備えた音声情報サービスシステム。
  3. 請求項1、あるいは請求項2記載の音声情報サービスシステムにおいて、対話管理部をシナリオXML、ダイアログXML、VoiceXMLの3階層構造で構成されることを特徴とする音声情報サービスシステム。
  4. 請求項1、あるいは請求項2記載の音声情報サービスシステムにおいて、タスク管理部は、対話管理部からの情報により、対話の状況とタスク変更状況を検知し、かつ種々のアプリケーションタスクに対応するインタフェースとサービスセンターからのタスク情報のダウンロード状況を管理する手段を具備することを特徴とする音声情報サービスシステム。
  5. 上記対話管理部においてタスクが推移した場合に上記タスク管理部に通知し、
    上記タスク管理部は通知されたタスクに関するデータをローカルデータベース内で検索し、検索された場合には該検索されたデータを上記対話管理部に送出し、検索されなかった場合にはネットワークを介して該タスクに関するデータを取得することを特徴とする請求項1記載の音声情報サービスシステム。
  6. ネットワークを介して外部サービスセンターに接続する通信部と、
    使用者との対話処理状況を管理する対話管理部と、
    上記対話のタスク状況を管理するタスク管理部と、
    上記対話に必要な情報を記録したデータベースを有し、
    上記対話管理部はタスクが推移した場合に上記タスク管理部に通知し、
    上記タスク管理部は通知されたタスクに関するデータを上記データベース内で検索し、検索された場合には該検索されたデータを上記対話管理部に送出し、検索されなかった場合には上記通信部を介して上記外部サービスセンターから該タスクに関するデータを取得することを特徴とする音声情報サービス端末。
JP2004284603A 2004-09-29 2004-09-29 音声情報サービスシステム及び音声情報サービス端末 Pending JP2006099424A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004284603A JP2006099424A (ja) 2004-09-29 2004-09-29 音声情報サービスシステム及び音声情報サービス端末
US11/210,857 US20060173689A1 (en) 2004-09-29 2005-08-25 Speech information service system and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004284603A JP2006099424A (ja) 2004-09-29 2004-09-29 音声情報サービスシステム及び音声情報サービス端末

Publications (1)

Publication Number Publication Date
JP2006099424A true JP2006099424A (ja) 2006-04-13

Family

ID=36239170

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004284603A Pending JP2006099424A (ja) 2004-09-29 2004-09-29 音声情報サービスシステム及び音声情報サービス端末

Country Status (2)

Country Link
US (1) US20060173689A1 (ja)
JP (1) JP2006099424A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191272A (ja) * 2013-03-28 2014-10-06 Kddi Corp 対話シナリオにユーザ操作を反映させる対話プログラム、サーバ及び方法
JP2016099381A (ja) * 2014-11-18 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. 音声対話システムおよび音声対話方法
JP2016206249A (ja) * 2015-04-15 2016-12-08 シャープ株式会社 対話装置、対話システム、及び対話装置の制御方法
JP2021504843A (ja) * 2017-11-30 2021-02-15 アップル インコーポレイテッドApple Inc. マルチターンキャンドダイアログ
US11955137B2 (en) 2021-03-11 2024-04-09 Apple Inc. Continuous dialog with a digital assistant

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8000969B2 (en) 2006-12-19 2011-08-16 Nuance Communications, Inc. Inferring switching conditions for switching between modalities in a speech application environment extended for interactive text exchanges
US10338959B2 (en) 2015-07-13 2019-07-02 Microsoft Technology Licensing, Llc Task state tracking in systems and services
US10635281B2 (en) 2016-02-12 2020-04-28 Microsoft Technology Licensing, Llc Natural language task completion platform authoring for third party experiences
JP6508251B2 (ja) * 2017-04-27 2019-05-08 トヨタ自動車株式会社 音声対話システムおよび情報処理装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7003463B1 (en) * 1998-10-02 2006-02-21 International Business Machines Corporation System and method for providing network coordinated conversational services
US6510411B1 (en) * 1999-10-29 2003-01-21 Unisys Corporation Task oriented dialog model and manager
JP3423296B2 (ja) * 2001-06-18 2003-07-07 沖電気工業株式会社 音声対話インターフェース装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014191272A (ja) * 2013-03-28 2014-10-06 Kddi Corp 対話シナリオにユーザ操作を反映させる対話プログラム、サーバ及び方法
JP2016099381A (ja) * 2014-11-18 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. 音声対話システムおよび音声対話方法
JP2016206249A (ja) * 2015-04-15 2016-12-08 シャープ株式会社 対話装置、対話システム、及び対話装置の制御方法
JP2021504843A (ja) * 2017-11-30 2021-02-15 アップル インコーポレイテッドApple Inc. マルチターンキャンドダイアログ
US11955137B2 (en) 2021-03-11 2024-04-09 Apple Inc. Continuous dialog with a digital assistant

Also Published As

Publication number Publication date
US20060173689A1 (en) 2006-08-03

Similar Documents

Publication Publication Date Title
US7137126B1 (en) Conversational computing via conversational virtual machine
EP1410171B1 (en) System and method for providing dialog management and arbitration in a multi-modal environment
JP4090040B2 (ja) 双方主導マルチモーダル対話及び関連ブラウジング機構を作成するための方法及びシステム
US7036128B1 (en) Using a community of distributed electronic agents to support a highly mobile, ambient computing environment
CN102792294B (zh) 自然语言语音服务环境中的混合处理的系统及方法
US7260535B2 (en) Web server controls for web enabled recognition and/or audible prompting for call controls
US8332218B2 (en) Context-based grammars for automated speech recognition
US8005683B2 (en) Servicing of information requests in a voice user interface
US8165883B2 (en) Application abstraction with dialog purpose
US8886540B2 (en) Using speech recognition results based on an unstructured language model in a mobile communication facility application
US8224650B2 (en) Web server controls for web enabled recognition and/or audible prompting
US7552055B2 (en) Dialog component re-use in recognition systems
US8160883B2 (en) Focus tracking in dialogs
US20060173689A1 (en) Speech information service system and terminal
US20090030687A1 (en) Adapting an unstructured language model speech recognition system based on usage
US20090030697A1 (en) Using contextual information for delivering results generated from a speech recognition facility using an unstructured language model
US20090030685A1 (en) Using speech recognition results based on an unstructured language model with a navigation system
US20090030696A1 (en) Using results of unstructured language model based speech recognition to control a system-level function of a mobile communications facility
US20080288252A1 (en) Speech recognition of speech recorded by a mobile communication facility
US20090030691A1 (en) Using an unstructured language model associated with an application of a mobile communication facility
US20090030688A1 (en) Tagging speech recognition results based on an unstructured language model for use in a mobile communication facility application
CN101341532A (zh) 通过标记共享话音应用处理
KR102170088B1 (ko) 인공지능 기반 자동 응답 방법 및 시스템
KR20080040644A (ko) 음성 애플리케이션 계측 및 로깅
JP4174233B2 (ja) 音声対話システム及び音声対話方法