JP2007531141A - Driving multiple applications with a common dialog management system - Google Patents

Driving multiple applications with a common dialog management system Download PDF

Info

Publication number
JP2007531141A
JP2007531141A JP2007505684A JP2007505684A JP2007531141A JP 2007531141 A JP2007531141 A JP 2007531141A JP 2007505684 A JP2007505684 A JP 2007505684A JP 2007505684 A JP2007505684 A JP 2007505684A JP 2007531141 A JP2007531141 A JP 2007531141A
Authority
JP
Japan
Prior art keywords
sub
application
acoustic
management system
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007505684A
Other languages
Japanese (ja)
Inventor
ポルテレ,トーマス
ストレーフケルク,バルベルチェ
フルグト,ユルゲン テ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2007531141A publication Critical patent/JP2007531141A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Abstract

The invention describes a method for driving multiple applications (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>) by a common dialog management system ( 1 ). Therein, a unique set of auditory icons (S<SUB>1</SUB>, S<SUB>2</SUB>, S<SUB>3</SUB>, . . . , S<SUB>n</SUB>) is assigned to each application (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>). The common dialog management system ( 1 ) informs a user of the status of an application (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>) by playback, at a specific point in a dialog flow, of a relevant auditory icon (I<SUB>1</SUB>, I<SUB>2</SUB>, I<SUB>3</SUB>, . . . , I<SUB>n</SUB>) selected from the unique set of auditory icons (S<SUB>1</SUB>, S<SUB>2</SUB>, S<SUB>3</SUB>, . . . , S<SUB>n</SUB>) of the respective application (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>) Moreover the invention describes a dialog management system comprising an input detection arrangement ( 4 ) for detecting user input ( 5 ) to the system, a sound output arrangement ( 6 ) for outputting audible sound ( 7 ), a core dialog engine ( 8 ) for coordinating a dialog flow by interpreting user input ( 5 ) and synthesizing audible sound output ( 7 ), an application interface ( 10 ) for communication between the dialog management system ( 1 ) and the applications (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>), a source of unique sets of auditory icons (S<SUB>1</SUB>, S<SUB>2</SUB>, S<SUB>3</SUB>, . . . , S<SUB>n</SUB>) assigned to the applications (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>), and an auditory icon management unit ( 11 ) for selecting relevant auditory icons (I<SUB>1</SUB>,I<SUB>2</SUB>,I<SUB>3</SUB>, . . . , I<SUB>n</SUB>) corresponding to the applications (A<SUB>1</SUB>, A<SUB>2</SUB>, A<SUB>3</SUB>, . . . , A<SUB>n</SUB>) for playback at specific points in the dialog flow.

Description

発明の詳細な説明Detailed Description of the Invention

本発明は共通の少なくとも部分的には音声ベースの対話管理システムによる複数アプリケーションの駆動方法と、複数アプリケーションを駆動する対話管理システムとに関する。   The present invention relates to a method for driving multiple applications with a common at least partially voice-based dialog management system and to a dialog management system for driving multiple applications.

最近のマンマシンインターフェイス分野における発展により、アプリケーションとそのユーザとの間の対話により管理または駆動される技術的装置やアプリケーションの使用が普及している。ほとんどの対話管理システムはビジュアル情報の表示とユーザ側の手作業によるインターラクションに基づくものである。例えば、ユーザは、予定を立てたり入ってくるメールを読んだりするために、パーソナルデジタルアシスタント(PDA)を用いて対話または対話フローに入ることができる。対話は、プロンプトと発行する対話管理システムにより実行され、そのプロンプトに対してユーザはペン入力またはキーボード入力により応答する。ユーザはこのようなアプリケーションを要求して、現在起こっているか近い将来に起こるイベントをレポートすることができる。例えば、パーソナルデジタルアシスタントがアポイントメントや重要な日付をユーザにリマインドすることができる。リマインダは、ディスプレイ上にグラフィックスとして表示してもよく、ビープ音やピング音などの人工的な音である音によるリマインダ(audible reminder)を伴って、ユーザの注意を引きつけて、ユーザにディスプレイを見るようにリマインドして、アプリケーションによるメッセージやリマインダを見させてもよい。同じタイプのビープ音やピング音を一般的な注意喚起のしくみ(a general attention-getting device)として用いてもよいし、異なるタイプの音を用いて異なるタイプのイベントを示してもよい。このようなビープ音等は、言葉の遊びではあるが、一般的に「イヤコン(earcon)」と呼ばれている。音によるアイコン(icon)という意味である。   Recent developments in the field of man-machine interface have led to widespread use of technical devices and applications that are managed or driven by interaction between the application and its users. Most dialog management systems are based on visual information display and manual user interaction. For example, a user can enter a dialog or dialog flow using a personal digital assistant (PDA) to schedule and read incoming mail. The dialog is executed by the dialog management system that issues the prompt, and the user responds to the prompt by pen input or keyboard input. Users can request such an application to report events that are happening now or in the near future. For example, a personal digital assistant can remind the user of appointments and important dates. Reminders may be displayed as graphics on the display, attracting the user's attention with an audible reminder that is an artificial sound such as a beep or ping sound, You may be reminded to see and see messages and reminders from the application. The same type of beep and ping sounds may be used as a general attention-getting device, or different types of sounds may be used to indicate different types of events. Such a beep sound is a word play, but is generally called “earcon”. It means an icon by sound.

このような対話がユーザと1つのアプリケーションだけの間で実行される限り、どのイヤコンすなわちビープ音がどのイベントに使われているかを記憶することはそれほど難しくない。しかし、対話管理システムがユーザと複数のアプリケーションとの間の対話を管理する場合には非常に紛らわしくなる。様々なタイプのイベントを示すために使用する音は、一般的にはビープ音等の人工的に聞こえる電子雑音に限定されているからである。ユーザは混乱して音のタイプを取り違えてしまい、対話フローを誤って解釈するかも知れない。   As long as such an interaction is performed between the user and only one application, it is not so difficult to remember which earphones or beeps are used for which event. However, it is very confusing when the dialog management system manages the dialog between the user and multiple applications. This is because the sounds used to indicate various types of events are generally limited to artificially audible electronic noise such as beeps. The user may get confused and mix the sound types and misinterpret the dialog flow.

しかし、少なくとも部分的に音声ベースである対話管理システムではユーザはアプリケーションを用いて一方向または双方向の対話をすることができる。ユーザは、発話コマンドを出し、対話システムから目に見えるか耳に聞こえるフィードバックを受け取る。このような例の1つとしてホームエレクトロニクス管理システムがあり、ユーザは発話コマンド(spoken commands)を出してビデオレコーダ等の装置を起動する。他の例として、自動車のナビゲーション装置その他の動作があり、ユーザがその装置に質問または命令し、装置が応答するか折り返し質問をする。より進んだ対話管理システムは発話プロンプト(spoken prompts)を出してユーザの発話入力(spoken user input)を解釈することができる。例えば、ユーザは自分の電子メールボックスの状態をチェックしたいとき、「私のメールボックスをチェックしなさい」と言う。対話管理システムは、アプリケーションに必要なコマンドを送りその結果を解釈した後に、「メールが届いています」や「メールボックスは空です」などと適宜返事をする。しかし、このような発話フィードバック(spoken feedback)は簡明なフレーズに限定されていたとしてもじれったいことがある。特に対話管理システムが複数のアプリケーションを同時に駆動している場合にそうなる。例えば、対話管理システムがパーソナルデジタルアシスタント、パーソナルコンピュータ、電話、ホームエンターテイメントシステム、ニュース及び天気予報サービスを制御しているとき、ユーザは音声フィードバックぜめにされることがある。例えば、「誰々より電話がありました」、「今日の天気は晴れです」、「バイエルンミュンヘン対レアルマドリッドの試合は5分後にチャンネルXYZで始まります。録画しますか?」、「2週間以内に歯科検診を受けることになっています。予約しますか?」、「あと5分でインターネット接続が時間切れになります」などである。結局ユーザは、たとえメッセージが意味のあるものであり、具体的にその情報を要求されていても、たくさんのメッセージが出力されるので注意が散漫になる。   However, in an interaction management system that is at least partially voice-based, a user can have a one-way or two-way interaction using an application. The user issues an utterance command and receives visible or audible feedback from the dialog system. One such example is a home electronics management system where a user issues spoken commands and activates a device such as a video recorder. Another example is a car navigation device or other operation, in which a user asks or orders the device and the device answers or asks. More advanced dialog management systems can interpret spoken user inputs by issuing spoken prompts. For example, when a user wants to check the status of his electronic mailbox, he says, "Check my mailbox". The dialog management system sends necessary commands to the application, interprets the results, and then responds as appropriate, such as “mail has arrived” or “mailbox is empty”. However, such spoken feedback may be desired even if it is limited to a simple phrase. This is especially true when the dialog management system is driving multiple applications simultaneously. For example, when the dialog management system controls a personal digital assistant, personal computer, telephone, home entertainment system, news and weather forecast service, the user may be confused by voice feedback. For example, “There was a call from everyone”, “The weather is clear today”, “The Bayern Munich vs. Real Madrid game starts on channel XYZ in 5 minutes. Do you want to record?”, “Within 2 weeks "Do you want to make a reservation?" Or "Internet connection will expire in 5 minutes." Eventually, the user is distracted because many messages are output, even if the messages are meaningful and the information is specifically requested.

音声フィードバックに加えて音のアイコンを介してアプリケーションの状態をユーザに知らせる対話管理システムを提供する試みがあり、「Contextual Awareness, Messaging and Communication in Nomadic Audio Environments」(Nitin Sawnhey著, M. SC. Thesis, Massachusetts Institute of Technology, 1998)に記載されている。この文献はリモートサーバとインターフェイスできる携帯装置を説明している。サーバ上で起動された1つ以上のプログラムの状態を(典型的にはユーザの襟に装着された)携帯オーディオ装置により報告することができる。この装置は、リモートサーバ上で動作しているプログラムからのメッセージのみを受信して、その(すべて同様の性質を有する)プログラムの動作を監視するだけであり、単一のアプリケーションとして見なせるようにするものである。性質が異なるものであっても、共通の対話システムにより多数の個別アプリケーションを作動して、ユーザがこれらの異なるアプリケーションを監視するだけでなく制御することは、この文献には示唆されていない。   In addition to audio feedback, there is an attempt to provide a dialogue management system that informs the user of the application status via sound icons, “Contextual Awareness, Messaging and Communication in Nomadic Audio Environments” (Nitin Sawnhey, M. SC. Thesis , Massachusetts Institute of Technology, 1998). This document describes a portable device that can interface with a remote server. The status of one or more programs launched on the server can be reported by a portable audio device (typically worn on the user's collar). This device only receives messages from a program running on a remote server and only monitors the operation of the program (all with similar properties) so that it can be viewed as a single application Is. This document does not suggest that a number of individual applications can be operated by a common interactive system, even if they are different in nature, so that the user not only monitors but controls these different applications.

それゆえ、本発明の目的は、容易で高価でない方法であって、ユーザがインターラクトしている異なるアプリケーションを共通の対話管理システムを用いて快適かつ複雑でなく確実に区別できる方法を提供することであり、特にユーザが間違って1つのアプリケーションに向けたコマンドを別のアプリケーションに出さないようにすることである。   SUMMARY OF THE INVENTION It is therefore an object of the present invention to provide a method that is easy and inexpensive and that allows different applications with which a user interacts to be comfortably and complexly and reliably distinguished using a common dialog management system. In particular, the user should not accidentally issue a command for one application to another application.

このため、本発明は、共通の対話管理システムにより多数のアプリケーションを作動させる方法を提供する。該方法では、ユニークな音響アイコンのセットが各アプリケーションに割り当てられ、前記共通の対話管理システムは、前記アプリケーションのユニークな音響アイコンのセット中から選択した関係のある音響アイコンを対話フロー中の一時点において聞こえるように再生することにより、アプリケーションの状態をユーザに通知する。「音響アイコン」は、アプリケーションから特定タイプのフィードバックを記述するために使用される或るタイプの音声または専用な音声チャンク(chunk)であり、例えば人工的な短い音声チャンク(イヤコン)または現実世界の音に似せた音声チャンク(例えば、恋々のある音の録音)である。   Thus, the present invention provides a method for running multiple applications with a common dialog management system. In the method, a set of unique acoustic icons is assigned to each application, and the common dialog management system selects a related acoustic icon selected from the set of unique acoustic icons of the application at a point in time in the dialog flow. The user is notified of the state of the application by playing it back so that it can be heard. An “acoustic icon” is a type of audio or a dedicated audio chunk that is used to describe a specific type of feedback from an application, for example an artificial short audio chunk (an earphone) or a real world An audio chunk that resembles a sound (for example, a recording of a sound of love).

本発明による対話管理システムは、次の要素を有する:前記システムへのユーザ入力を検出する入力検出機構と、可聴プロンプトを出力する音声出力機構と、ユーザ入力を解釈し出力プロンプトを生成することにより対話フローを調整するコア対話エンジンと、対話管理システムとアプリケーションの間の通信をするアプリケーションインターフェイスと、アプリケーションに割り当てられたユニークな音響アイコンのセットのソースと、対話フロー中の適当な時点において再生する、アプリケーションに対応したユニークな音響アイコンのセットから関連する音響アイコンを選択する音響アイコン管理部。   The dialog management system according to the present invention comprises the following elements: an input detection mechanism for detecting user input to the system, a voice output mechanism for outputting an audible prompt, and by interpreting the user input and generating an output prompt. The core interaction engine that coordinates the interaction flow, the application interface that communicates between the interaction management system and the application, the source of the set of unique acoustic icons assigned to the application, and plays at the appropriate time during the interaction flow A sound icon management unit that selects a related sound icon from a set of unique sound icons corresponding to the application.

本発明による対話管理システムを用いて多数のアプリケーションを作動することにより、ユーザは、異なるアプリケーションからの異なるタイプのフィードバック間を容易に区別することができる。アプリケーションから通知される各タイプのフィードバックは、ユニークな意味のある音響サウンドがついているので、ユーザは対応するアプリケーションと容易に関連づけることができ、ユーザが混乱して1つのタイプのフィードバックを他のタイプと間違えるようなおそれはない。ユニークな音響アイコンにより、ユーザは現在インターラクトしているアプリケーションに関して常に通知を受けることができる。これにより、ユーザが間違って1つのアプリケーションを他のアプリケーションと間違えてコマンドを発することがなくなる。それゆえ、本発明は完全に音声制御された対話管理システムの場合に特に有利である。または、ユーザが対話をするためにスクリーンを見なければならないことは実際的ではなく危険でもあるアプリケーションにおいて特に有利である。例えば、自動車ナビゲーションシステムのようにユーザが交通状態から気をそらすべきでない場合や、外科医が手術の状態について常に通知を受けながら、その手術に意識を集中しつづけねばならない場合などである。それゆえ、本発明により、例え異なる性質のものであっても、多数の個別のアプリケーションが共通の対話システムにより駆動され、ユーザにより監視及び制御される。   By operating multiple applications with the dialog management system according to the present invention, the user can easily distinguish between different types of feedback from different applications. Each type of feedback notified by the application is accompanied by a unique and meaningful acoustic sound, so that the user can easily associate it with the corresponding application, and the user is confused by one type of feedback to the other type There is no risk of mistakes. A unique acoustic icon allows the user to be always informed about the currently interacting application. This prevents a user from mistakenly issuing one application as another application and issuing a command. Therefore, the present invention is particularly advantageous in the case of a dialog management system with full voice control. Or, it is particularly advantageous in applications where it is impractical and dangerous that the user has to look at the screen to interact. For example, when the user should not be distracted from traffic conditions, such as in an automobile navigation system, or when the surgeon must be constantly informed about the status of the operation and keep focused on the operation. Therefore, according to the present invention, a large number of individual applications, even of different nature, are driven by a common interactive system and monitored and controlled by the user.

従属項は本発明の特に有利な実施形態と特徴を開示しており、方法の請求項の特徴によりさらにシステムを改良することができる。   The dependent claims disclose particularly advantageous embodiments and features of the invention, and the system can be further improved by the features of the method claims.

本発明による対話管理システムは、PC、テレビ、ビデオレコーダ等の既存の装置に組み込むこともでき、家庭及び/またはオフィス環境において動作している様々なアプリケーションの状態の使用をユーザに知らせることができる。好ましい実施形態では、対話管理システムは、スタンドアロン装置として、物理的態様はロボットや好ましくは人間として実施される。対話システムは、例えば、独国特許出願第10249060A1号に記載されている専用装置として実現されてもよい。この装置は、顔の特徴を有する可動部分をユーザに向けて、装置がユーザの言葉を聞いているような印象を与える。このような対話管理システムは、ユーザが部屋から部屋に移動するとついてくるように構成することもできる。対話管理システムと個々のアプリケーション間のインターフェイスはケーブルで実現されてもよい。好ましくは、インターフェイスは無線(赤外線、ブルートゥース等)で実現し、対話管理システムが基本的にモバイルであり、使用するアプリケーションの近くに限定されない。無線インターフェイスの到達距離が十分長ければ、対話管理システムを使用して、建物内の異なる部屋(オフィスブロックやプライベートの家屋)にある装置の多数のアプリケーションを制御することが容易にできる。対話管理システムと個々のアプリケーション間のインターフェイスは、好ましくは、専用アプリケーションインターフェイス部において管理される。ここで、アプリケーションと対話管理システムとの間の通信は、発話ユーザ入力から解釈されたコマンドまたは命令を各アプリケーションに送り、アプリケーションからユーザに向けられたフィードバックを受信することにより管理される。アプリケーションインターフェイス部は、幾つかのアプリケーションを平行して処理することができる。   The dialog management system according to the present invention can also be incorporated into existing devices such as PCs, televisions, video recorders, etc., and can inform the user of the use of various application states operating in home and / or office environments. . In a preferred embodiment, the dialogue management system is implemented as a stand-alone device and the physical aspect is a robot or preferably a human. The dialogue system may be realized, for example, as a dedicated device described in German Patent Application No. 10249060A1. This device gives the impression that the device is listening to the user's words with the moving part having facial features directed at the user. Such a dialogue management system can also be configured to follow when the user moves from room to room. The interface between the dialog management system and the individual application may be realized by a cable. Preferably, the interface is realized wirelessly (infrared, Bluetooth, etc.), and the dialog management system is basically mobile, and is not limited to the vicinity of the application to be used. If the reach of the wireless interface is long enough, the dialog management system can be used to easily control multiple applications of devices in different rooms (office blocks and private houses) in the building. The interface between the dialog management system and individual applications is preferably managed in a dedicated application interface section. Here, communication between the application and the dialog management system is managed by sending a command or command interpreted from the spoken user input to each application and receiving feedback directed to the user from the application. The application interface unit can process several applications in parallel.

対話管理システムにより駆動されるアプリケーションは、パーソナルコンピュータ、ネットワーク、その他のプロセッサにより制御される電子装置上でソフトウェアとして動作するプログラム、または家庭の暖房システム、電子レンジオーブン等の簡単な回路であってもよい。同様に、アプリケーションは、機械的または物理的装置を制御し、またはプロセッサにより通常は制御されない対象を制御すると理解することもできる。このような装置または対象は、例えば郵便受けのような、純粋に機械的な装置または対象であってもよい。このような対象に適当なセンサーと対話管理システムとのインターフェイスを設けて、例えば郵便受けに郵便が入れられた時に対話管理システムに通知されるようにする。このイベントは、次に適当な音響アイコン(例えば、ポストホルン音)によりユーザに通知される。対話管理システムのユーザは、このように、実際に行って見なくても郵便が配達されたことを知ることができる。本発明による対話管理システムのこのようなアプリケーションは、高層住宅に住んでいるユーザや体の不自由なユーザにとって特に有利である。季節に応じてユーザが再プログラミングできる家庭タイプの暖房システム等を本発明の対話管理システムで制御することもできる。ユーザは対話管理システムを利用して、休暇に出かける前に発話コマンドにより暖房システムを容易に再プログラムすることができる。このように、時間がかかる手作業の再プログラミングは必要ない。対話管理システムは、暖房システムの状態をユーザに報告することができ、これにより関連するプロンプトに適当な音響アイコンを付加することができる。アプリケーションはインターコムや電話等の本質的に電子的な装置であってもよい。ここで、対話管理システムは、好適なインターフェイスにより、インターコムや電話に接続して、ユーザがドアを開けたり受話器を取らなくても、適当な音響アイコン(例えば、ドアのところにいる来訪者が扉をノックしている音)を発することによりユーザにイベントを通知することにより、来訪者や電話を処理してユーザを補助することができる。   The application driven by the dialog management system may be a program operating as software on an electronic device controlled by a personal computer, a network, or other processor, or a simple circuit such as a home heating system or a microwave oven. Good. Similarly, an application can be understood as controlling a mechanical or physical device or controlling an object not normally controlled by a processor. Such a device or object may be a purely mechanical device or object, for example a mailbox. An interface between an appropriate sensor and a dialog management system is provided for such an object so that the dialog management system is notified when a mail is put in a mailbox, for example. This event is then notified to the user by an appropriate acoustic icon (eg, post horn sound). In this way, the user of the dialog management system can know that the mail has been delivered without actually going to see it. Such an application of the dialogue management system according to the present invention is particularly advantageous for a user living in a high-rise house or a user with a physical disability. The dialogue management system of the present invention can also control a home-type heating system or the like that can be reprogrammed by the user according to the season. A user can easily reprogram the heating system with an utterance command before going on vacation using the dialog management system. Thus, time-consuming manual reprogramming is not necessary. The dialogue management system can report the status of the heating system to the user, thereby adding an appropriate acoustic icon to the associated prompt. The application may be an essentially electronic device such as an intercom or telephone. Here, the dialogue management system is connected to an intercom or telephone by a suitable interface, so that even if the user does not open the door or pick up the handset, an appropriate sound icon (for example, a visitor at the door) By notifying the user of the event by emitting a sound of knocking the door, the visitor and the phone can be processed to assist the user.

対話管理システムへのユーザ入力は声であってもよく、ユーザの発話コマンドやコメントをマイクロホン等の入力検出機構により記録することができる。入力検出機構は、対話管理システムが完全に音声制御になっていない場合は、キーボード、マウス、いくつかのボタンをさらに有し、それによりユーザはシステムにコマンドを入力することができる。高度な入力検出機構には、ユーザの動きを感知するカメラを備えていて、ユーザは例えば手を振ったり頭を振ったりしてジェスチャにより対話管理システムとコミュニケーションするようになっている。対話管理システムは、ユーザ入力を解釈し、ユーザ入力が向けられているアプリケーションを決定し、ユーザ入力をそのアプリケーションが理解できる好適な形式に変換する。   The user input to the dialogue management system may be a voice, and the user's utterance command or comment can be recorded by an input detection mechanism such as a microphone. The input detection mechanism further includes a keyboard, mouse, and some buttons if the dialog management system is not fully voice controlled, so that the user can enter commands into the system. The advanced input detection mechanism is equipped with a camera that senses the movement of the user, and the user communicates with the dialogue management system through gestures, for example, by shaking hands or shaking the head. The dialog management system interprets the user input, determines the application to which the user input is directed, and converts the user input into a suitable format that the application can understand.

発せられたユーザ入力を分析し、アプリケーションからのフィードバックをコア対話エンジンにより出力プロンプトに変換する。対話管理システムは、アプリケーションからのフィードバックに応じてコア対話エンジンにより生成された可聴プロンプトを出力する音声出力機構(好ましくは1つ以上のラウドスピーカ)によりユーザとコミュニケーションする。   Analyzes emitted user input and converts feedback from the application into output prompts by the core interaction engine. The dialog management system communicates with the user via a voice output mechanism (preferably one or more loudspeakers) that outputs audible prompts generated by the core dialog engine in response to feedback from the application.

コア対話エンジンは、通常の音声認識及び音声合成のステップを実行するユニットやモジュールを有する。例えば、言語理解部や音声合成部等である。対話制御部は、言語理解部により識別されたテキストを解釈し、それが向けられたアプリケーションを特定し、そのアプリケーションが処理できる好適な形式に変換する。さらに、対話制御部は、アプリケーションからの入来フィードバックを分析して、そのアプリケーションと関連したユニークな音響アイコンのセットから選択した好適な音響アイコンを出力音声機構に送る。可聴プロンプトは音響アイコンを含み、アプリケーションからの特定タイプのフィードバックを記述する専用音声チャンク(dedicated sound chunks)であると考えてもよい。   The core dialog engine has units and modules that perform normal speech recognition and speech synthesis steps. For example, a language understanding unit or a speech synthesis unit. The dialogue control unit interprets the text identified by the language understanding unit, identifies the application to which it is directed, and converts it into a suitable format that can be processed by the application. In addition, the dialog controller analyzes incoming feedback from the application and sends a preferred acoustic icon selected from the set of unique acoustic icons associated with the application to the output audio mechanism. The audible prompt may be thought of as dedicated sound chunks that contain acoustic icons and describe specific types of feedback from the application.

アプリケーションは、音響アイコンを用いて、対話フロー中のイベントや、電子メールの到着等のユーザが関心を持っている特定のイベントが発生したことを示す。さらに、例えばユーザがプロンプトを聞き逃した場合に、アプリケーションがユーザの応答を待っていることを示すために音響アイコンを用いることができる。音響アイコンは、好ましくは、ユーザに通知されるべきアプリケーションの動作状態の変化を示すために使用できる。   The application uses an acoustic icon to indicate that an event in the dialog flow or a specific event of interest to the user, such as the arrival of an email, has occurred. Furthermore, an acoustic icon can be used to indicate that the application is waiting for a user response, for example if the user misses a prompt. Acoustic icons can preferably be used to indicate changes in the operating state of the application to be notified to the user.

アプリケーションは、いかなる状況でも使用できる完全な音響アイコンのセットであって、アプリケーションがその状態または動作に関するフィードバックをユーザに提供することができるものを備えている。好ましい一実施形態では、アプリケーションは、その音響アイコンのセットのコピーを、各音響アイコンの好適な使用すなわち再生に関する付随命令や付帯情報とともに、対話管理システムに供給してもよい。これらのアイコンは、対話管理システムにより音響アイコン管理部において管理される。この音響アイコン管理部は、どの音響アイコンがどのアプリケーションに割り当てられたか、及び各音響アイコンが使用されるべきフィードバックのタイプを記録する。対話管理システムは、ユーザとアプリケーションの間の対話フローの始まりにおいて、またはアプリケーションの最初の起動または組み込みの時に、完全な音響アイコンのセットを取得してもよい。また、音響アイコン管理部は、音響アイコンとそれに付随する命令に関するすべての情報をローカルメモリに記憶して後で使用してもよい。このように、対話管理システムは、対話フロー中に何がおこっても、ユーザへの適当なフィードバックを提供するのに必要な音響アイコンを有する。   The application includes a complete set of acoustic icons that can be used in any situation that allows the application to provide feedback to the user regarding its state or behavior. In a preferred embodiment, the application may provide a copy of the set of sound icons to the dialog management system along with accompanying instructions and accompanying information regarding the preferred use or playback of each sound icon. These icons are managed in the acoustic icon management unit by the dialogue management system. This acoustic icon manager records which acoustic icons are assigned to which applications and the type of feedback each acoustic icon should be used for. The interaction management system may obtain a complete set of acoustic icons at the beginning of the interaction flow between the user and the application, or at the initial launch or incorporation of the application. The acoustic icon management unit may store all information related to the acoustic icon and the instruction accompanying it in the local memory for later use. Thus, the dialog management system has the acoustic icons necessary to provide appropriate feedback to the user whatever happens during the dialog flow.

あるいは、対話管理システムは、最初に、そのセット中の各音響アイコンについて関連する識別情報(例えば、ユニークな記述名や番号)、及び異なる音響アイコンに関連した使用命令のみを提供するようにアプリケーションに要求してもよい。対話管理システムは、メモリのコストを下げるために、次に、必要となった各音響アイコンを要求してもよい。対話管理システムは、前の対話フローに基づいて、近い将来にあるアプリケーションについて必要となるどのタイプの音響アイコンが必要となるか決定して、アプリケーションから事前にこの音響アイコンを要求しておいてもよい。   Alternatively, the dialogue management system initially provides the application with only relevant identification information (eg, unique descriptive name or number) for each acoustic icon in the set and usage instructions associated with different acoustic icons. You may request. The dialogue management system may then request each required acoustic icon to reduce memory costs. The dialog management system can determine which type of acoustic icon is required for an application in the near future based on the previous interaction flow and request this acoustic icon from the application in advance. Good.

所定の音響アイコンのセットを利用しないアプリケーションに対して、対話管理システムは適当なセットを提供することができる。このため、対話管理システムは、アプリケーションの性質を判断でき、好適な音響アイコンのセットを決定することができる。または、ユーザが自分で音響アイコンを定義する選択をすることもできる。ユーザはこれを、インターネットからダウンロードするか、サウンドトラックや歌から好適な音声チャンクを抽出することにより、デジタル形式の音声チャンクを見つけることにより行う。また、録音装置を用いて音声チャンクを録音して、その録音を対話管理システムに送ってもよい。例えば、フォーミュラワンレーシングカーの録音を録音または取得して、その録音を対話管理システムに送る。音響アイコン管理部は、その録音をローカルメモリに記憶して、スポーツニュースを提供するアプリケーションがフォーミュラワンレースに関するニュースを更新したときはいつもこの音声チャンクが再生されるように指示する。ユーザは、有利にも、対話管理システムのマイクロホンを用いて好適な音声チャンクを録音することもできる。本発明の好ましい一実施形態において、対話管理システムは、USBスティック、メモリカード等のポータブルメモリに接続する好適なインターフェイス、または音響アイコンとして使用する音声チャンクを探してダウンロードするためのインターネット等の外部ネットワークへのインターフェイスを備える。   For applications that do not utilize a predetermined set of acoustic icons, the dialog management system can provide an appropriate set. For this reason, the dialogue management system can determine the nature of the application and can determine a suitable set of acoustic icons. Alternatively, the user can choose to define an acoustic icon himself. The user does this by finding a digital audio chunk by downloading from the Internet or extracting a suitable audio chunk from the soundtrack or song. Alternatively, a voice chunk may be recorded using a recording device, and the recording may be sent to the dialog management system. For example, recording or obtaining a recording of a Formula One racing car and sending the recording to the dialog management system. The acoustic icon manager stores the recording in local memory and instructs the audio chunk to be played whenever an application providing sports news updates the news about Formula One race. The user can also advantageously record a suitable audio chunk using the microphone of the dialog management system. In a preferred embodiment of the present invention, the dialogue management system is a suitable interface connected to a portable memory such as a USB stick, a memory card, or an external network such as the Internet for searching for and downloading audio chunks for use as acoustic icons. With an interface to

本発明の特に好ましい実施形態では、対話管理システムは、アプリケーションにそれが必要とする音響アイコンを提供することができる。例えば、アプリケーションは、プロセスの開始を示すか、エラーが発生したことを示してユーザの注意を引きつける1つか2つの音響アイコンのみを使用するかも知れない。しかし、ユーザとアプリケーションの間の対話フローを直感的かつ容易に理解するためには、このように少ない選択肢では不十分である。この場合、対話管理システムは、好適な音響アイコンのセットを利用可能な選択肢の中から選択して、アプリケーションにそれを割り当てることができる。さらに、2つ以上のアプリケーションが同様のまたは同一の音響アイコンをレパートリー中に有していることもある。両方のアプリケーションが同時にアクティブな場合生じるユーザの混乱を避けるために、これらの音響アイコンを対話管理システムで修正するか、同様に好適な異なる音響アイコンにより置き換えることもできる。例えば、新しいアプリケーションをロードする場合、対話管理システムは新しいアプリケーションと関連する音響アイコンを調べて、他のアプリケーションにすでに割り当てられた音響アイコンと比較する。新しい音響アイコンに既存の音響アイコンと同一または非常に似たものがある場合、対話管理システムは好ましくはユーザに通知して、利用可能なものがあれば好適な代替音響アイコンを提案する。代替に使える好適な音響アイコンがない場合、対話管理システムはユーザにプロンプトを出して好適な代替音響アイコンを入力させてもよい。   In a particularly preferred embodiment of the invention, the dialog management system can provide the application with the acoustic icons it needs. For example, an application may use only one or two acoustic icons that indicate the start of a process or that indicate that an error has occurred and draw the user's attention. However, in order to intuitively and easily understand the interaction flow between the user and the application, such a small number of options is not sufficient. In this case, the dialog management system can select a suitable set of acoustic icons from the available choices and assign it to the application. In addition, two or more applications may have similar or identical acoustic icons in the repertoire. In order to avoid user confusion when both applications are active at the same time, these acoustic icons can be modified in the dialog management system or replaced by different suitable acoustic icons as well. For example, when loading a new application, the interaction management system looks up the acoustic icon associated with the new application and compares it with the acoustic icons already assigned to other applications. If there are new acoustic icons that are identical or very similar to existing acoustic icons, the dialog management system preferably notifies the user and suggests a suitable alternative acoustic icon if one is available. If there is no suitable sound icon available for replacement, the dialog management system may prompt the user to enter a suitable sound icon.

アプリケーションが使用してユーザに可聴フィードバックを提供することができる音響アイコンの例は、ユーザとアプリケーションの間の対話フローが起動された場合、またはスタンバイから再起動された場合に再生する開始音響アイコンと、ユーザとアプリケーションの間の対話フローが終了し、非アクティブになり、またはスタンバイモードになった時に再生される終了音響アイコンである。開始音響アイコンはそれ自体アプリケーションの性質を反映するべきであるが、終了音響アイコンは開始アイコンの音声を逆に再生したものであってもよい。アプリケーションは有益な音響アイコンを使ってもよい。その音声にはアプリケーションの性質、またはこの音響アイコンと関連した実際のフィードバックタイプに関するヒントが含まれている。例えば、天気予報を提供するアプリケーションは、荒天の場合は風、雨天の場合は雨音、晴天の場合は取りの鳴き声等の天気に関連した音声を有する音響アイコンを再生する。音響アイコンの他の例は、アプリケーションがアクティブな時間中に状態や情報更新を提供するために使用するものである。例えば、パーソナルデジタルアシスタントのアプリケーションは、ユーザに、アポイントメント、入来電子メール、レポートの期限等に関する、異なるタイプの状態フィードバックを提供する幾つかの音響アイコンを有する。例えば、パーソナルデジタルアシスタントは、好適な音響アイコンを用いてアポイントメントについてユーザに繰り返しリマインドし、アポイントメントが近づくにつれてリマインダがますますしつこくなるようにしてもよい。   Examples of acoustic icons that the application can use to provide audible feedback to the user include a start acoustic icon that plays when the interaction flow between the user and the application is activated or restarted from standby , An ending acoustic icon that is played when the interaction flow between the user and the application ends, becomes inactive, or enters standby mode. The start sound icon should itself reflect the nature of the application, but the end sound icon may be a reverse playback of the sound of the start icon. The application may use useful acoustic icons. The audio contains hints about the nature of the application or the actual feedback type associated with this acoustic icon. For example, an application that provides a weather forecast reproduces an acoustic icon having sound related to the weather such as wind in the case of stormy weather, rain sound in the case of rainy weather, and a crying sound in case of fine weather. Another example of an acoustic icon is one that is used to provide status and information updates during times when the application is active. For example, a personal digital assistant application has several acoustic icons that provide the user with different types of status feedback regarding appointments, incoming emails, report deadlines, etc. For example, the personal digital assistant may repeatedly remind the user about the appointment using a suitable acoustic icon so that the reminder becomes increasingly persistent as the appointment approaches.

本発明の好ましい実施形態では、ユーザは、対話フロー中でどのアプリケーションの可聴アイコンを聴きたいか、ユーザプロファイルに好適な情報を入力して指定することができる。音響アイコンの大きさ、対話フロー中で音響アイコンが再生される回数を指定することもできる。また、いろいろなアプリケーションに優先順位を付けて、インターコムからのフィードバックがパーソナルデジタルアシスタント等のアプリケーションよりも優先されるようにすることもできる。このように、ユーザは、対話フローで優先順位の高いアプリケーションと低いアプリケーションが同時にフィードバックを通知する場合に、優先順位の高いアプリケーションが通知されるようにできる。ユーザプロファイルを定期的に、または音響アイコン管理部による修正があるたびに調べて、音響アイコンを再生すべきかどうか、所望の大きさ、この対話フロー中にこの音響アイコンを再生する回数を判断する。   In a preferred embodiment of the present invention, the user can enter and specify suitable information in the user profile which application he wishes to listen to in the dialog flow. It is also possible to specify the size of the acoustic icon and the number of times the acoustic icon is played during the dialogue flow. It is also possible to prioritize various applications so that feedback from intercom takes precedence over applications such as personal digital assistants. In this way, the user can be notified of the application with the higher priority when the application with the higher priority and the application with the lower priority notify the feedback at the same time in the dialog flow. The user profile is examined periodically or whenever it is modified by the acoustic icon manager to determine whether the acoustic icon should be played, the desired size, and the number of times this acoustic icon should be played during this interaction flow.

さらに好ましい実施形態では、対話管理システムは、対話フローを解釈することによりユーザの好みを求めることができる。例えば、アプリケーションが適当な音響アイコンにより近づいてくるアポイントメントのリマインダを通知し、ユーザが「分かった、分かった」と答えた場合、対話管理システムは、これを、ユーザがこれ以上リマインド受ける必要がないという意味と解釈して、次にそのアプリケーションによるフィードバックをする場合の音響アイコンを抑制する。対話管理システムの側におけるこのレベルの「知的な」解釈は、ユーザプロファイルでユーザにより指示されてもよい。1人以上のユーザにより使用される対話管理システムは、複数のユーザプロファイルを設定することが好ましく、各ユーザが自分のプライベートユーザプロファイルを有し、自分自身の個人的な好みを指定することができる。   In a further preferred embodiment, the dialog management system can determine user preferences by interpreting the dialog flow. For example, if the application notifies an appointment reminder that is closer to the appropriate acoustic icon and the user responds “Yes, I know”, the dialog management system does not need to be reminded any more by the user. This means that the sound icon for the next feedback by the application is suppressed. This level of “intelligent” interpretation on the side of the dialog management system may be indicated by the user in the user profile. A dialogue management system used by one or more users preferably sets up multiple user profiles, each user having his own private user profile and can specify his own personal preferences. .

本発明による対話管理システムは、ソフトウェアモジュールやコンピュータプログラム製品を組み込むことにより、上記の処理ステップの一部を実行することができる。このようなコンピュータプログラム製品は、プログラマブルな対話管理システムのメモリに直接ロードすることができる。コア対話エンジン、アプリケーションインターフェイス部、及び音響アイコン管理部等のユニットやモジュールの一部は、コンピュータプログラムモジュールの形で実現することができる。必要なソフトウェアやアルゴリズムは、ハードウェア装置のプロセッサのために符号化してもよい。また、既存の電子装置を容易に適応させて、本発明の特徴からの利益を享受することができる。あるいは、上記のようにユーザ入力と出力プロンプトを処理するユニットまたはブロックは、等しくハードウェアモジュールを用いて実現することもできる。   The dialogue management system according to the present invention can execute a part of the above processing steps by incorporating a software module or a computer program product. Such a computer program product can be loaded directly into the memory of a programmable dialog management system. Some of the units and modules such as the core dialog engine, application interface unit, and acoustic icon management unit can be realized in the form of computer program modules. The necessary software and algorithms may be encoded for the hardware device processor. Also, existing electronic devices can be easily adapted to benefit from the features of the present invention. Alternatively, the units or blocks that process user input and output prompts as described above can equally be implemented using hardware modules.

本発明の他の目的及び特徴は、添付した図面を参照して以下の詳細な説明を読めば、明らかとなるであろう。しかし、言うまでもなく、図面は例示だけを目的として描かれたものであり、本発明を限定するものではない。限定は添付した請求項を参照されたい。   Other objects and features of the present invention will become apparent from the following detailed description when read in conjunction with the accompanying drawings. However, it should be understood that the drawings are drawn for purposes of illustration only and are not intended to limit the invention. See the appended claims for limitations.

図を説明するが、本発明のその他の可能な実施を排除するものではなく、システムをユーザ装置(例えばホーム対話システム)の一部として示す。説明を明確にするため、ユーザと本発明の一実施形態である装置とのインターフェイスは図示しない。   Although the figures are described, other possible implementations of the invention are not excluded and the system is shown as part of a user device (eg, a home interaction system). For clarity of explanation, the interface between the user and the device according to one embodiment of the present invention is not shown.

図1は、外部の複数のアプリケーションA1、A2、A3、...、Anと通信するインターフェイスを有する対話管理システム1を示す。アプリケーションA1、A2、A3、...、Anは、ブロックとして簡略化して示したが、実際にはどんな種類の「アプリケーション」でも「機能」でもよく、それに関してユーザが通知を受けたいものであるか、何らかの方法で制御したいものである。この実施例では、アプリケーションA1、A2、A3、...、Anは、なかんずくパーソナルデジタルアシスタントA1、ニュース及び天気予報サービスA2、及び電話A3を含む。   FIG. 1 shows a plurality of external applications A1, A2, A3,. . . 1 shows a dialog management system 1 having an interface for communicating with An. Applications A1, A2, A3,. . . , An is shown in a simplified form as a block, but in practice it can be any kind of “application” or “function” and the user wants to be notified about it or wants to control it in some way. . In this embodiment, the applications A1, A2, A3,. . . An includes, inter alia, a personal digital assistant A1, a news and weather forecast service A2, and a telephone A3.

対話管理システム1は、該対話管理システム1とアプリケーションA1、A2、A3、...、Anとの間で送られる入出力情報を処理するアプリケーションインターフェイス10を備えている。さらに、対話管理システム1は、各アプリケーションA1、A2、A3、...、Anが備えている音響アイコンと、その音響アイコンをいつ再生すべきかに関する情報をそのアプリケーションから取得することができる。この情報は音響アイコン管理部11に格納される。この実施例では、アプリケーションの1つA1が、その音響アイコンのセットに関するすべての関連情報を対話管理システム1に自動的に与える。関連情報とは、例えばアプリケーションA1がいつ起動すなわちブートされるか等の情報である。他のアプリケーションA3は、その音響アイコンに関する記述的情報のみを事前に送って、音響アイコンが対話フロー中で実際に必要になった場合に、要求に応じて単一の音響アイコンを送ってもよい。対話管理システム1は、アプリケーションA1、A2、A3、...、Anが起動された時に、アプリケーションA1、A2、A3、...、Anに要求して、必要に応じて1つ以上の音響アイコンに関する情報を提供させることができる。   The dialogue management system 1 includes the dialogue management system 1 and the applications A1, A2, A3,. . . , An includes an application interface 10 for processing input / output information sent to and from An. Further, the dialogue management system 1 includes each application A1, A2, A3,. . . , An can be obtained from the application information regarding the sound icon provided by An and when the sound icon should be reproduced. This information is stored in the acoustic icon management unit 11. In this embodiment, one of the applications A1 automatically provides the dialog management system 1 with all relevant information regarding the set of acoustic icons. The related information is information such as when the application A1 is started, that is, booted. The other application A3 may send only descriptive information about the acoustic icon in advance and send a single acoustic icon on demand if the acoustic icon is actually needed in the dialogue flow. . The dialogue management system 1 includes applications A1, A2, A3,. . . , An when the applications A1, A2, A3,. . . , An can be requested to provide information on one or more acoustic icons as needed.

すべてのアプリケーションが、自由になる好適な音響アイコンのセットを完全に有している訳ではない。アプリケーションによっては音響アイコンを有していなかったり、同一の音響アイコンを有していたりする。このような状況に対処するため、音響アイコン管理部11は、所定の音響アイコンの集まり13から好適なものを選択して、その音響アイコンをアプリケーションA2に割り当てることができる。このようなアプリケーションの場合、ユーザは、音響アイコン管理部11がアプリケーションA2に特定の音声録音(sound recording)を割り当てることを好むかも知れない。例えば、天気予報サービスA2が晴天の報告をする時には、鳥の鳴き声を聞きたいと思うかも知れない。嵐の予報の場合には、雷の音を聞きたいと思うかも知れない。ユーザはこれらの録音(recording)をユーザインターフェイスを介して好適なフォーマットのオーディオデータとして入力して、音響アイコン管理部11に天気予報サービスアプリケーションA2に割り当てさせることができる。このような録音を有する音響アイコン管理部11を提供する他の方法として、好適なインターフェイス14を介して、外部コンピュータまたはインターネット等のネットワーク12からダウンロードする方法がある。   Not all applications have a complete set of suitable acoustic icons that are free. Some applications do not have an acoustic icon or have the same acoustic icon. In order to cope with such a situation, the acoustic icon management unit 11 can select a suitable one from the predetermined collection 13 of acoustic icons and assign the acoustic icon to the application A2. In the case of such an application, the user may prefer that the acoustic icon management unit 11 assign a specific sound recording to the application A2. For example, when the weather forecast service A2 reports sunny weather, you may want to hear birds cry. In the case of a storm forecast, you may want to hear the sound of thunder. The user can input these recordings as audio data in a suitable format via the user interface, and have the acoustic icon management unit 11 assign the weather forecast service application A2. As another method of providing the acoustic icon management unit 11 having such a recording, there is a method of downloading from an external computer or a network 12 such as the Internet via a suitable interface 14.

音響アイコン情報を取得する異なる方法により、対話管理システム1は、対話フロー中で必要に応じて必要な音響アイコンを再生するために、必要とする全ての情報を集めることができる。   With different methods of acquiring the acoustic icon information, the dialogue management system 1 can collect all the necessary information to reproduce the necessary acoustic icons as needed in the dialogue flow.

この実施例中の対話フローは、ユーザ(図示せず)と対話管理システム1により作動されたいろいろなアプリケーションA1、A2、A3、...、Anとの間のコミュニケーションにより構成されている。ユーザは、発話コマンド(spoken commands)を発する。すなわち、マイクロホン5を通して対話管理システム1に要求する。発話コマンドすなわち要求は、入力検出機構4で記録されデジタル化される。その入力機構4は、記録された音声入力をコア対話エンジン8に送る。このエンジン8は、音声認識に含まれる通常のステップを実行するブロックを有する。オーディオインターフェイスブロック20は、自動音声認識器221に送る前に、入力音声信号に必要なデジタル信号処理を実行する。この処理により入力オーディオ信号から認識可能な音声成分が抽出され、言語理解ブロック22に送られる。言語理解ブロック22において、ユーザの発話コマンドすなわち要求の関連性(relevance)が分析され、対話コントローラ23に適当に送られる。その対話コントローラ23は、ユーザ入力を適当なアプリケーションA1、A2、A3、...、Anにより実行可能なコマンドすなわち要求に変換する。   The dialogue flow in this embodiment includes various applications A1, A2, A3,... Operated by a dialogue management system 1 with a user (not shown). . . , An is configured by communication with An. The user issues spoken commands. That is, the dialogue management system 1 is requested through the microphone 5. The utterance command or request is recorded and digitized by the input detection mechanism 4. The input mechanism 4 sends the recorded voice input to the core dialog engine 8. The engine 8 has a block for executing normal steps included in speech recognition. The audio interface block 20 performs digital signal processing necessary for the input voice signal before sending it to the automatic voice recognizer 221. By this processing, a recognizable speech component is extracted from the input audio signal and sent to the language understanding block 22. In language understanding block 22, the relevance of the user's utterance command or request is analyzed and appropriately sent to dialog controller 23. The dialog controller 23 receives user input from the appropriate applications A1, A2, A3,. . . , An command that can be executed by An.

ユーザからさらに情報を取得する必要がある場合、例えば自動音声認識ブロック21と言語理解ブロック22が発話コマンドを解釈すなわち理解できない場合、または発話コマンドを起動されているアプリケーションA1、A2、A3、...、Anのいずれにも適用できない場合、対話コントローラ23は適当な要求を生成してそれを音声ジェネレータ24に送る。音声ジェネレータ24においてその要求が音声合成される。オーディオインターフェイスブロック20は、出力音声信号に必要なデジタル信号処理を実行する。出力音声信号は、次に、ラウドスピーカ等の音声出力機構6において変換されて可聴音声7となる。   When further information needs to be obtained from the user, for example, when the automatic speech recognition block 21 and the language understanding block 22 cannot interpret or understand the utterance command, or the applications A1, A2, A3,. . . , An, the dialog controller 23 generates an appropriate request and sends it to the audio generator 24. The request is synthesized by the voice generator 24. The audio interface block 20 performs digital signal processing necessary for the output audio signal. The output audio signal is then converted into an audible audio 7 by an audio output mechanism 6 such as a loudspeaker.

図1に示した対話管理システムにより制御された対話フローの典型的な実施例において、ユーザは自分のパーソナルデジタルアシスタントA1のダイアリーに予定を入力したいと思うかも知れない。ユーザは、「来週月曜日の午前11時に税金アドバイザーとのアポイントメントを入力」と言うだけでよい。コア対話エンジン8は、そのコマンドを適当な形式に変換して、パーソナルデジタルアシスタントA1に送る。アポイントメントがパーソナルデジタルアシスタントA1に問題なく入力できると、適当なフィードバックが対話管理システム1に通知される。対話管理システム1は、出力すべき適当な確認フィードバック(例えば、「OK」や「了解」などの発話)を選択する。   In the exemplary embodiment of the dialog flow controlled by the dialog management system shown in FIG. 1, the user may wish to enter a schedule in his personal digital assistant A1 diary. The user only has to say “Enter appointment with tax advisor at 11:00 am next Monday”. The core dialog engine 8 converts the command into an appropriate format and sends it to the personal digital assistant A1. When the appointment can be input to the personal digital assistant A1 without any problem, an appropriate feedback is notified to the dialog management system 1. The dialogue management system 1 selects an appropriate confirmation feedback to be output (for example, an utterance such as “OK” or “OK”).

その日の同じ時間に予定がすでに入っている場合、パーソナルデジタルアシスタントA1は、対話管理システム1に通知する。対話管理システム1では、アプリケーションインターフェイス10及び/または対話コントローラ23がアプリケーションからの応答を解釈して、適当な音響アイコンを選択する。例えば、シンバルを鳴らす音により、新しいアポイントメントがすでに入力されているアポイントメントと衝突することを示す。また、対話コントローラ23は、好適なプロンプトの生成をトリガーする。例えば、「11時には誰それとのアポイントメントがあります」などである。任意的に、ユーザは詳細なフィードバックがいらない場合には、プロンプト出力を無効(deactivate)にしてもよい。   If a schedule has already been entered at the same time of the day, the personal digital assistant A1 notifies the dialog management system 1. In the dialog management system 1, the application interface 10 and / or the dialog controller 23 interprets a response from the application and selects an appropriate acoustic icon. For example, a cymbal sound indicates that a new appointment collides with an already entered appointment. The interaction controller 23 also triggers the generation of a suitable prompt. For example, “No one has an appointment with 11:00”. Optionally, the user may deactivate the prompt output if detailed feedback is not required.

この実施例では、ユーザはユーザプロファイルに音声アイコンの再生に関する自分の好みを特定して、使用するアプリケーションで生じるイベントについて通知を受けたい範囲と、対話フロー中で優先するアプリケーションとをカスタマイズまたは設定している。これらの好みは、ユーザが後で変更するまで保持されてもよいし、一時的なものであってもよい。例えば、ユーザは、ある時間内の反応の仕方を対話管理システムに命じる(tell)ことができる。例えば、ユーザが「本当に重要でない限り、2時間は邪魔をするな」と命じた場合、対話管理システムはその2時間以内に発生した重要でないイベント(例えば自動的な天気予報の更新など)の通知を控える。そして、比較的重要でないイベント(例えば今後の予定の24時間リマインダである。例えば「明日の午後3時に歯医者」などである)はすべて2時間遅らせる。比較的重要なイベントの場合だけユーザはインターラプトされる。比較的重要なイベントとは、例えばその時間内に予定されているアポイントメントであり、例えば「取締役とのミーティングまで後15分」や電話アプリケーションA3に重要であるとタグされている顧客からの電話などである。対話管理システムは、ユーザプロファイル3に指定されている情報を調べて、何が重要で何が比較的重要でないかを決定する。   In this embodiment, the user specifies his / her preference for playing audio icons in the user profile, and customizes or sets the range in which he / she wants to be notified of events that occur in the application he / she uses and which application has priority in the interaction flow. ing. These preferences may be retained until the user later changes them or may be temporary. For example, the user can tell the dialog management system how to react within a certain amount of time. For example, if the user orders "Do not disturb for 2 hours unless really important", the dialog management system will notify you of unimportant events (such as automatic weather forecast updates) that occurred within that 2 hours Refrain from. And all relatively unimportant events (for example, upcoming 24 hour reminders, such as “Dentist at 3pm tomorrow”) are delayed by 2 hours. Users are interrupted only for relatively important events. Relatively important events are, for example, appointments scheduled within that time, such as “15 minutes after meeting with the director” or a call from a customer tagged as important to the telephone application A3. It is. The dialogue management system examines the information specified in the user profile 3 to determine what is important and what is relatively unimportant.

他の好みとして、2つ以上のアプリケーションが音響アイコンを同時に再生する場合にそのアプリケーションに与えられる優先順位を指定してもよい。この場合、ユーザのユーザプロファイル13の指定は、ニュース及び天気予報サービスA2よりも電話A3の方が優先度が高いとなっている。ニュース及び天気予報サービスA2が自動的に最新ニュースを与えようとしている時に同時に電話がかかってきた場合、アプリケーションインターフェイス10は電話アプリケーションA3の方が、優先度が高いことを了知し、ニュース及び天気予報サービスA2の音響アイコンを抑制する。ニュース及び天気予報サービスA2の音響アイコンは遅らせて、後で出力してもよい。   Another preference may be to specify the priority that is given to an application when two or more applications play an audio icon simultaneously. In this case, the designation of the user profile 13 by the user has a higher priority for the telephone A3 than for the news and weather forecast service A2. If a call is received at the same time that the news and weather forecast service A2 is automatically giving the latest news, the application interface 10 knows that the telephone application A3 has a higher priority, and the news and weather The acoustic icon of the forecast service A2 is suppressed. The sound icon of the news and weather forecast service A2 may be delayed and output later.

本発明を好ましい実施形態及びそのバリエーションの形で開示したが、言うまでもなく、本発明の範囲から逸脱することなく多数のさらに別の修正やバリエーションを考えることができる。例えば、音響アイコン管理部はコア対話エンジンの一部として実施することもできるし、対話コントローラ等の別のモジュールに組み込んでもよい。本発明の一実施形態では、対話システムは一言二言を処理すれば現在のユーザの声の質を決定することができ、ユーザは識別コードを入力することによりシステムに自分を知らせることができる。この識別コードを用いて記憶されたユーザプロファイル情報にアクセスし、またはオーディオインターフェイスの適当な制御パラメータを生成することができる。   Although the invention has been disclosed in the form of preferred embodiments and variations thereof, it will be appreciated that many further modifications and variations can be envisaged without departing from the scope of the invention. For example, the acoustic icon manager may be implemented as part of the core dialog engine or may be incorporated in another module such as a dialog controller. In one embodiment of the present invention, the dialogue system can process a word or two to determine the current voice quality of the user, and the user can inform the system by entering an identification code. . This identification code can be used to access stored user profile information or to generate appropriate control parameters for the audio interface.

説明を明瞭にするため、本出願では、「1つの」とは複数の場合を排除するものではなく、「有する」とはその他のステップや要素を排除するものではない。「何々部」や「モジュール」とは単一のユニットやモジュールでの実施を限定するものではない。   For the sake of clarity, in this application, “one” does not exclude a plurality of cases, and “having” does not exclude other steps or elements. “Non-part” and “module” do not limit the implementation in a single unit or module.

本発明の一実施形態による対話管理システムを示すブロック図である。It is a block diagram which shows the dialogue management system by one Embodiment of this invention.

Claims (13)

共通の対話管理システムによる複数のアプリケーションの駆動方法であって、
ユニークな音響アイコンのセットを各アプリケーションに割り当て、
前記共通の対話管理システムは、それぞれのアプリケーションのユニークな音響アイコンのセットから選択した関連する音響アイコンを対話フローの一時点において再生することにより、アプリケーションの状態をユーザに通知することを特徴とする方法。
A method of driving multiple applications by a common dialog management system,
Assign a unique set of acoustic icons to each application,
The common dialog management system notifies the user of the state of the application by playing back a related acoustic icon selected from a set of unique acoustic icons for each application at a point in time of the dialog flow. Method.
請求項1に記載の方法であって、
アプリケーションの音響アイコンを再生してアプリケーションの動作状態の変化をユーザに示すことを特徴とする方法。
The method of claim 1, comprising:
A method of playing back an acoustic icon of an application to indicate to the user a change in the operating state of the application.
請求項1または2に記載の方法であって、
アプリケーションが可聴アイコンのセットとその使用に関する関連命令とを前記対話管理システムに送ることを特徴とする方法。
The method according to claim 1 or 2, wherein
A method wherein an application sends a set of audible icons and associated instructions regarding their use to the dialog management system.
請求項3に記載の方法であって、
アプリケーションの個々の可聴アイコン及び関連命令の識別情報は、前記対話管理システムにより得られ、前記可聴アイコンは要求に応じて前記アプリケーションから前記対話管理システムにより読み出されることを特徴とする方法。
The method of claim 3, comprising:
An identification information of an individual audible icon of an application and associated instructions is obtained by the dialogue management system, and the audible icon is read from the application by the dialogue management system on demand.
請求項3に記載の方法であって、
アプリケーションの完全な音響アイコンのセットは、前記ユーザと前記アプリケーションとの間の対話フローの最初、または前記アプリケーションの起動または組み込み時に前記対話管理システムにより取得されることを特徴とする方法。
The method of claim 3, comprising:
A method wherein a complete set of acoustic icons for an application is obtained by the interaction management system at the beginning of an interaction flow between the user and the application, or upon launching or incorporation of the application.
請求項1ないし5いずれか一項に記載の方法であって、
前記対話管理システムは、前記アプリケーションの音響アイコンのセット中のユニークではない音響アイコンを修正することにより、及び/または音響アイコンの集まりから前記アプリケーションのユニークな音響アイコンを選択することにより、ユニークな音響アイコンのセットをアプリケーションに提供することを特徴とする方法。
A method according to any one of claims 1 to 5, comprising
The interaction management system may modify the unique acoustic icon in the set of acoustic icons for the application and / or select a unique acoustic icon for the application from a collection of acoustic icons. A method comprising providing a set of icons to an application.
請求項1ないし5いずれか一項に記載の方法であって、
ユーザとアプリケーション間の対話フローにおいて再生する音響アイコンのセットは、前記対話フローの始めに再生する少なくとも1つのユニークな開始音響アイコンと、及び/または対話フローの最後に再生する少なくとも1つのユニークな終了音響アイコンとを有することを特徴とする方法。
A method according to any one of claims 1 to 5, comprising
The set of acoustic icons to be played in the interaction flow between the user and the application includes at least one unique starting acoustic icon to be played at the beginning of the interaction flow and / or at least one unique end to be played at the end of the interaction flow. A method comprising: an acoustic icon.
請求項1ないし5いずれか一項に記載の方法であって、
ユーザとアプリケーション間の対話フローにおいて再生する音響アイコンのセットは、前記対話フロー中の一時点において再生されるいくつかのユニークな情報を有する音響アイコンであって各音響アイコンが前記アプリケーションからの特定タイプのフィードバックを記述する音響アイコンを有することを特徴とする方法。
A method according to any one of claims 1 to 5, comprising
The set of acoustic icons to be played in the interaction flow between the user and the application is an acoustic icon having some unique information to be played at a certain point in the interaction flow, and each acoustic icon is a specific type from the application. A method characterized by having an acoustic icon describing the feedback.
請求項1ないし8いずれか一項に記載の方法であって、
音響アイコン及び/または前記音響アイコンの再生特性はユーザプロファイルにおいてユーザに対して指定されていることを特徴とする方法。
A method according to any one of claims 1 to 8, comprising
A method wherein the acoustic icon and / or the playback characteristics of the acoustic icon are specified for a user in a user profile.
幾つかのアプリケーションを作動させる対話管理システムであって、
前記システムへのユーザ入力を検出する入力検出機構と、
可聴プロンプトを出力する音声出力機構と、
ユーザ入力を解釈し出力プロンプトを生成することにより対話フローを調整するコア対話エンジンと、
対話管理システムとアプリケーションとの間の通信をするアプリケーションインターフェイスと、
前記アプリケーションに割り当てられたユニークな音響アイコンのセットのソースと、
前記アプリケーションに対応するユニークな音響アイコンのセットから関連する音響アイコンを選択して前記対話フローの各時点で再生する音響アイコン管理部と、を有することを特徴とするシステム。
A dialogue management system for running several applications,
An input detection mechanism for detecting user input to the system;
An audio output mechanism for outputting audible prompts;
A core interaction engine that coordinates the interaction flow by interpreting user input and generating output prompts;
An application interface for communication between the dialog management system and the application;
A source of a set of unique acoustic icons assigned to the application;
And a sound icon management unit that selects a related sound icon from a set of unique sound icons corresponding to the application and reproduces the sound icon at each point in the dialogue flow.
請求項11に記載の対話管理システムであって、
前記ユーザに音響アイコンを入力させる手段を有することを特徴とするシステム。
The dialogue management system according to claim 11,
A system comprising means for allowing the user to input an acoustic icon.
請求項11または12に記載の対話管理システムであって、
外部ソースから音響アイコンのセットまたは個々の音響アイコンを取得するインターフェイスを有することを特徴とするシステム。
The dialogue management system according to claim 11 or 12,
A system having an interface for obtaining a set of acoustic icons or individual acoustic icons from an external source.
プログラマブル対話管理システムのメモリに直接ロード可能なコンピュータプログラムであって、前記コンピュータプログラムを前記対話管理システム上で動作させた時、請求項1ないし10いずれか一項に記載の方法のステップを実行するソフトウェアコード部分を有することを特徴とするコンピュータプログラム。   11. A computer program that can be directly loaded into a memory of a programmable dialog management system, wherein the steps of the method according to any one of claims 1 to 10 are executed when the computer program is run on the dialog management system. A computer program comprising a software code portion.
JP2007505684A 2004-03-29 2005-03-21 Driving multiple applications with a common dialog management system Pending JP2007531141A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP04101295 2004-03-29
PCT/IB2005/050956 WO2005093715A1 (en) 2004-03-29 2005-03-21 A method for driving multiple applications by a common dialog management system

Publications (1)

Publication Number Publication Date
JP2007531141A true JP2007531141A (en) 2007-11-01

Family

ID=34961270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007505684A Pending JP2007531141A (en) 2004-03-29 2005-03-21 Driving multiple applications with a common dialog management system

Country Status (8)

Country Link
US (1) US20080263451A1 (en)
EP (1) EP1733383B1 (en)
JP (1) JP2007531141A (en)
KR (1) KR20060131929A (en)
CN (1) CN1938757B (en)
AT (1) ATE429010T1 (en)
DE (1) DE602005013938D1 (en)
WO (1) WO2005093715A1 (en)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925357B2 (en) 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US20050204438A1 (en) * 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
EP1891848B1 (en) 2005-06-13 2015-07-22 Intelligent Mechatronic Systems Inc. Vehicle immersive communication system
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
SG186528A1 (en) * 2006-02-01 2013-01-30 Hr3D Pty Ltd Au Human-like response emulator
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US9976865B2 (en) 2006-07-28 2018-05-22 Ridetones, Inc. Vehicle communication system with navigation
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
AU2009227944B2 (en) * 2008-03-25 2014-09-11 E-Lane Systems Inc. Multi-participant, mixed-initiative voice interaction system
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US8838075B2 (en) 2008-06-19 2014-09-16 Intelligent Mechatronic Systems Inc. Communication system with voice mail access and call by spelling functionality
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US9652023B2 (en) 2008-07-24 2017-05-16 Intelligent Mechatronic Systems Inc. Power management system
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9084551B2 (en) * 2008-12-08 2015-07-21 Medtronic Xomed, Inc. Method and system for monitoring a nerve
US8335546B2 (en) * 2008-12-19 2012-12-18 Harris Technology, Llc Portable telephone with connection indicator
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
WO2010135837A1 (en) 2009-05-28 2010-12-02 Intelligent Mechatronic Systems Inc Communication system with personal information management and remote vehicle monitoring and control features
EP2446652A4 (en) 2009-06-27 2012-08-29 Intelligent Mechatronic Sys Vehicle internet radio interface
US11399153B2 (en) 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US9978272B2 (en) 2009-11-25 2018-05-22 Ridetones, Inc Vehicle to vehicle chatting and communication system
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US8965579B2 (en) 2011-01-28 2015-02-24 Intouch Technologies Interfacing with a mobile telepresence robot
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9418674B2 (en) 2012-01-17 2016-08-16 GM Global Technology Operations LLC Method and system for using vehicle sound information to enhance audio prompting
US9934780B2 (en) * 2012-01-17 2018-04-03 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance spoken dialogue by modifying dialogue's prompt pitch
US9263040B2 (en) 2012-01-17 2016-02-16 GM Global Technology Operations LLC Method and system for using sound related vehicle information to enhance speech recognition
US9569594B2 (en) 2012-03-08 2017-02-14 Nuance Communications, Inc. Methods and apparatus for generating clinical reports
US9569593B2 (en) * 2012-03-08 2017-02-14 Nuance Communications, Inc. Methods and apparatus for generating clinical reports
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
WO2013176758A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9256889B1 (en) * 2012-09-20 2016-02-09 Amazon Technologies, Inc. Automatic quote generation
US10187520B2 (en) * 2013-04-24 2019-01-22 Samsung Electronics Co., Ltd. Terminal device and content displaying method thereof, server and controlling method thereof
US9853860B2 (en) 2015-06-29 2017-12-26 International Business Machines Corporation Application hierarchy specification with real-time functional selection
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10983753B2 (en) * 2017-06-09 2021-04-20 International Business Machines Corporation Cognitive and interactive sensor based smart home solution
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11316865B2 (en) 2017-08-10 2022-04-26 Nuance Communications, Inc. Ambient cooperative intelligence system and method
US10978187B2 (en) 2017-08-10 2021-04-13 Nuance Communications, Inc. Automated clinical documentation system and method
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US10565312B2 (en) 2017-10-04 2020-02-18 Motorola Mobility Llc Context-based action recommendations based on a shopping transaction correlated with a monetary deposit as incoming communications
US20190163331A1 (en) * 2017-11-28 2019-05-30 International Business Machines Corporation Multi-Modal Dialog Broker
US10878124B1 (en) * 2017-12-06 2020-12-29 Dataguise, Inc. Systems and methods for detecting sensitive information using pattern recognition
US11250382B2 (en) 2018-03-05 2022-02-15 Nuance Communications, Inc. Automated clinical documentation system and method
EP3762921A4 (en) 2018-03-05 2022-05-04 Nuance Communications, Inc. Automated clinical documentation system and method
EP3762929A4 (en) 2018-03-05 2022-01-12 Nuance Communications, Inc. System and method for review of automated clinical documentation
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching
US11227679B2 (en) 2019-06-14 2022-01-18 Nuance Communications, Inc. Ambient clinical intelligence system and method
US11216480B2 (en) 2019-06-14 2022-01-04 Nuance Communications, Inc. System and method for querying data points from graph data structures
US11043207B2 (en) 2019-06-14 2021-06-22 Nuance Communications, Inc. System and method for array data simulation and customized acoustic modeling for ambient ASR
US11531807B2 (en) 2019-06-28 2022-12-20 Nuance Communications, Inc. System and method for customized text macros
US11670408B2 (en) 2019-09-30 2023-06-06 Nuance Communications, Inc. System and method for review of automated clinical documentation
US11222103B1 (en) 2020-10-29 2022-01-11 Nuance Communications, Inc. Ambient cooperative intelligence system and method
CN114765027A (en) * 2021-01-15 2022-07-19 沃尔沃汽车公司 Control device, vehicle-mounted system and method for vehicle voice control

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197355A (en) * 1992-01-23 1993-08-06 Hitachi Ltd Acoustic effect defining device
US6513009B1 (en) * 1999-12-14 2003-01-28 International Business Machines Corporation Scalable low resource dialog manager
JP2003062327A (en) * 2001-08-27 2003-03-04 Nintendo Co Ltd Game equipment and program
JP2003131773A (en) * 2001-08-17 2003-05-09 Ricoh Co Ltd Equipment-operating device, program, data-storage medium and image-forming device
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product
US20030098892A1 (en) * 2001-11-29 2003-05-29 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
JP2003323081A (en) * 2002-04-30 2003-11-14 Ricoh Co Ltd Machine operating device, program, recording medium, and image forming apparatus
JP2004051074A (en) * 2001-11-13 2004-02-19 Equos Research Co Ltd In-vehicle device, data preparation device, and data preparation program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5287102A (en) * 1991-12-20 1994-02-15 International Business Machines Corporation Method and system for enabling a blind computer user to locate icons in a graphical user interface
US6359636B1 (en) * 1995-07-17 2002-03-19 Gateway, Inc. Graphical user interface for control of a home entertainment system
US5767835A (en) * 1995-09-20 1998-06-16 Microsoft Corporation Method and system for displaying buttons that transition from an active state to an inactive state
US6184876B1 (en) * 1996-07-10 2001-02-06 Intel Corporation Method and apparatus for audibly communicating comparison information to a user
US6404442B1 (en) * 1999-03-25 2002-06-11 International Business Machines Corporation Image finding enablement with projected audio
US20010047384A1 (en) * 1999-11-29 2001-11-29 John Croy Methods and systems for providing personalized content over a network
DE10028447A1 (en) * 2000-06-14 2001-12-20 Merck Patent Gmbh Monolithic porous molded article production, used for chromatographic separation of substances, comprises repeated filling of gel mold with monomer sol, polymerization and aging gel
US7765163B2 (en) * 2000-12-12 2010-07-27 Sony Corporation System and method for conducting secure transactions over a network
CN1154395C (en) * 2001-02-28 2004-06-16 Tcl王牌电子(深圳)有限公司 Acoustical unit for digital TV set
US20030142149A1 (en) * 2002-01-28 2003-07-31 International Business Machines Corporation Specifying audio output according to window graphical characteristics
US7742609B2 (en) * 2002-04-08 2010-06-22 Gibson Guitar Corp. Live performance audio mixing system with simplified user interface
US7318198B2 (en) * 2002-04-30 2008-01-08 Ricoh Company, Ltd. Apparatus operation device for operating an apparatus without using eyesight
DE10249060A1 (en) 2002-05-14 2003-11-27 Philips Intellectual Property Dialog control for electrical device
AU2002950336A0 (en) * 2002-07-24 2002-09-12 Telstra New Wave Pty Ltd System and process for developing a voice application
ATE421117T1 (en) * 2003-04-07 2009-01-15 Nokia Corp METHOD AND APPARATUS FOR PROVIDING VOICE-CONTROLLED INPUT TO AN ELECTRONIC DEVICE HAVING A USER INTERFACE
US7257769B2 (en) * 2003-06-05 2007-08-14 Siemens Communications, Inc. System and method for indicating an annotation for a document
US20050125235A1 (en) * 2003-09-11 2005-06-09 Voice Signal Technologies, Inc. Method and apparatus for using earcons in mobile communication devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05197355A (en) * 1992-01-23 1993-08-06 Hitachi Ltd Acoustic effect defining device
US6513009B1 (en) * 1999-12-14 2003-01-28 International Business Machines Corporation Scalable low resource dialog manager
JP2003131773A (en) * 2001-08-17 2003-05-09 Ricoh Co Ltd Equipment-operating device, program, data-storage medium and image-forming device
JP2003062327A (en) * 2001-08-27 2003-03-04 Nintendo Co Ltd Game equipment and program
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product
JP2004051074A (en) * 2001-11-13 2004-02-19 Equos Research Co Ltd In-vehicle device, data preparation device, and data preparation program
US20030098892A1 (en) * 2001-11-29 2003-05-29 Nokia Corporation Method and apparatus for presenting auditory icons in a mobile terminal
JP2003323081A (en) * 2002-04-30 2003-11-14 Ricoh Co Ltd Machine operating device, program, recording medium, and image forming apparatus

Also Published As

Publication number Publication date
EP1733383A1 (en) 2006-12-20
ATE429010T1 (en) 2009-05-15
US20080263451A1 (en) 2008-10-23
EP1733383B1 (en) 2009-04-15
WO2005093715A1 (en) 2005-10-06
DE602005013938D1 (en) 2009-05-28
CN1938757B (en) 2010-06-23
KR20060131929A (en) 2006-12-20
CN1938757A (en) 2007-03-28

Similar Documents

Publication Publication Date Title
JP2007531141A (en) Driving multiple applications with a common dialog management system
EP3591648B1 (en) Information processing apparatus, information processing method, and program
JP6739907B2 (en) Device specifying method, device specifying device and program
JP6335139B2 (en) Manual start / end point specification and reduced need for trigger phrases
US9509269B1 (en) Ambient sound responsive media player
US11282519B2 (en) Voice interaction method, device and computer readable storage medium
CN109739469B (en) Context-aware service providing method and apparatus for user device
JP5383966B2 (en) System and method for dialogue without using eyes with computer equipment by environmental recognition
EP3748630B1 (en) Automatically monitoring for voice input based on context
WO2016052018A1 (en) Home appliance management system, home appliance, remote control device, and robot
JP2005223928A (en) Connected clock radio
JP2017009867A (en) Control apparatus, control method thereof, and program
JP2010541481A (en) Active in-use search via mobile device
WO2018100743A1 (en) Control device and apparatus control system
JPH0990963A (en) Sound information providing device and sound information selecting method
WO2019107145A1 (en) Information processing device and information processing method
WO2017141530A1 (en) Information processing device, information processing method and program
CN109286727A (en) A kind of method of controlling operation thereof and terminal device
US20070176786A1 (en) Device control apparatus
WO2012032714A1 (en) User device, server, and operating conditions setting system
US11275554B2 (en) Information processing apparatus, information processing method, and program
KR101457422B1 (en) Method for controlling AV device by using privacy and apparatus thereof
JP7230803B2 (en) Information processing device and information processing method
JP7415952B2 (en) Response processing device and response processing method
JP6927331B2 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110412