JP2005056170A - Interactive operation supporting system - Google Patents
Interactive operation supporting system Download PDFInfo
- Publication number
- JP2005056170A JP2005056170A JP2003286651A JP2003286651A JP2005056170A JP 2005056170 A JP2005056170 A JP 2005056170A JP 2003286651 A JP2003286651 A JP 2003286651A JP 2003286651 A JP2003286651 A JP 2003286651A JP 2005056170 A JP2005056170 A JP 2005056170A
- Authority
- JP
- Japan
- Prior art keywords
- character
- user
- name
- function
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、複数の機能を有する各種家電機器や情報機器に対するユーザの操作を支援する、キャラクタエージェントを用いた対話型操作支援システムに関するものである。 The present invention relates to an interactive operation support system using a character agent that supports user operations on various home appliances and information devices having a plurality of functions.
従来、テレビ受像機などの各種家電機器や携帯電話などの各種情報機器に用いられるインタフェースとしては、リモコンやタッチパネルなどを介して画面に表示された操作メニューを選択する方法や、アイコンと呼ばれる絵文字を指定する方法が主流である。 Conventionally, as an interface used for various home appliances such as a television receiver and various information devices such as a mobile phone, a method of selecting an operation menu displayed on the screen via a remote control or a touch panel, or a pictogram called an icon is used. The method of specifying is the mainstream.
一方、近年の情報処理技術の向上に伴い、各種家電機器の機能は高機能化の一途をたどっている。たとえばテレビの例では、それまでのアナログ放送からデジタル放送に変化することによって、多チャンネル放送の受信が可能となったり、データ放送の受信や、双方向通信によるユーザ参加型放送の受信が可能となったりといったような例がある。 On the other hand, with the improvement of information processing technology in recent years, the functions of various home appliances are steadily improving. For example, in the case of a television, it is possible to receive multi-channel broadcasts by changing from analog broadcasts to digital broadcasts, receive data broadcasts, and receive user-participation broadcasts through two-way communication. There are examples such as becoming.
このような高機能を有する機器を操作するとき、前述のリモコンやタッチパネルなどのいわゆる手先操作によるインタフェースでは、画面に表示する操作メニューの数を増加させるか、あるいは一度に表示する操作メニューの数を少なく限定するかわりに機能階層を深くするなどの対応がとられてきた。しかしながら、操作メニューの数が増加した場合、ユーザは提示された数多くのメニュー項目の中から希望する機能を探し出す必要があり、操作が煩雑になるという問題が生じる。また、機能階層を深くすれば同時に提示される選択肢の数は減るものの、目的の機能に到達するまでに深い機能階層をたどらなければならず、やはり操作が煩雑になるという問題が生じる。 When operating a device with such high functions, the number of operation menus displayed on the screen is increased or the number of operation menus displayed at one time is increased in a so-called hand-operated interface such as the above-described remote control or touch panel. Instead of limiting it to a few, measures such as deepening the function hierarchy have been taken. However, when the number of operation menus increases, the user needs to find a desired function from among the many menu items presented, which causes a problem that the operation becomes complicated. Further, if the function hierarchy is deepened, the number of options presented at the same time is reduced, but the deep function hierarchy must be followed until the target function is reached, and there is a problem that the operation becomes complicated.
そこで、最近ではキャラクタをディスプレイに表示させ、ユーザがディスプレイ上のキャラクタと会話を行う形式で機器の操作を行う対話型操作支援システムが提案されている。このシステムによれば、ユーザの発した音声を機器側が認識し、その認識結果に基づいてユーザの要求を解析することで機器の操作が可能となることから、ユーザは多数の操作メニューの中から所望する選択肢を探す手間や深い機能階層をたどる手間が不要となり、機器操作時の負荷を軽減することが出来る。 Therefore, recently, an interactive operation support system has been proposed in which a character is displayed on a display and a user operates a device in a form in which the user talks with the character on the display. According to this system, since the device side recognizes the voice uttered by the user and analyzes the user's request based on the recognition result, the user can operate the device. The trouble of searching for a desired option and the trouble of following a deep function hierarchy are not required, and the load at the time of device operation can be reduced.
たとえば、特許文献1によれば、自然言語に近い命令体系を備え、また、応答時間を要する処理をユーザが命令した場合に、機器の進行状況をユーザにフィードバックすることでユーザの不安を生じさせないようにした対話型操作支援システムである。これによれば、ディスプレイ上に出現したアシスタントとの対話に基づいて、ユーザが不安を感じることなく機器を容易に操作することが可能となる。
一方で、機器のネットワーク化が進み、各種機器はそれまでの単独の機能を有する専用機としてだけでなく、多様な機能を持った複合機としての側面をもち始めている。たとえば携帯電話は、常に携行しておりいつでも使えるという便利さから、単なる電話としての機能以外にも、メール送受信機能や写真撮影機能、さらには外出先から自宅にあるビデオ録画装置に録画予約の指示を出す機能など、多種多様な機能を有するにいたっている。また家庭内においては、家庭内の情報を集約するホームサーバの研究がなされており、これによれば、空調装置の操作から施錠状態の確認、冷蔵庫に保存されている食品の確認など家庭内のあらゆる機器の操作を、1台の端末から操作できるようになることが想定されている。 On the other hand, the networking of devices has progressed, and various devices have started to have aspects such as multifunction devices having various functions as well as dedicated machines having a single function so far. For example, mobile phones are always carried and can be used at any time. In addition to simple phone functions, e-mail transmission / reception functions and photo shooting functions are also available. It comes to have a wide variety of functions, such as the function to output. Also, in the home, research on home servers that collect information in the home has been conducted, and according to this, in the home such as confirmation of the locked state from the operation of the air conditioner, confirmation of food stored in the refrigerator, etc. It is assumed that all devices can be operated from a single terminal.
このように多数の機能を持った機器を操作するためには、音声コマンドであってもまず機能を特定するための命令を発声する必要がある。たとえば、スケジュール管理機能とテレビ番組案内機能といった機能を持った情報端末を操作する際、「明日の8時は?」といった命令だけではそれがスケジュール管理機能に対する命令なのかテレビ番組案内機能に対する命令なのかを識別することができず、機能名称を付加した命令(「明日の8時のスケジュールは?」や「明日の8時のテレビ番組は?」など)をユーザに発声させる必要がある。 In order to operate a device having such a large number of functions, it is necessary to utter a command for specifying the function even if it is a voice command. For example, when operating an information terminal having functions such as a schedule management function and a TV program guide function, it is only a command such as “Tomorrow at 8:00?” That is a command for the schedule management function or a command for the TV program guide function. It is necessary to make the user utter a command to which a function name is added (such as “What is the schedule for tomorrow at 8:00?” Or “What is the TV program at tomorrow at 8:00?”).
しかしながら、ユーザに発声させる命令長を長くすると、ユーザが発声すべき内容が煩雑となり、さらにはユーザが命令を忘れてしまう可能性が高く「まず何を話し始めたらよいか分からない」といった状況が発生することが予想される。 However, if the command length to be uttered by the user is lengthened, the content to be uttered by the user becomes complicated, and there is a high possibility that the user forgets the command. It is expected to occur.
本発明の目的は、多数の機能を持った情報機器に対するユーザ操作を対話的に操作することができ、複雑な操作の機器に対してもユーザの発声する命令を複雑なものにすることなく、直感的な命令により機器の操作を行うことができる対話型操作支援システムを提供することにある。 It is an object of the present invention to interactively operate a user operation on an information device having a large number of functions, without complicating a command issued by a user even on a device with a complicated operation. An object of the present invention is to provide an interactive operation support system capable of operating a device with an intuitive command.
かかる目的を達成するために、本発明の請求項1にかかる対話型操作支援システムは、表示手段と、キャラクタ画像を生成して、表示手段を介してユーザにキャラクタを提示するキャラクタ制御手段と、音声出力手段と、キャラクタが話す言葉を音声合成して、音声出力手段を介して外部出力する出力音声制御手段と、音声入力手段と、音声入力手段を介して入力されたユーザの声を音声認識する入力音声認識手段と、複合機器が有する機能グループ別に個々に対応付けされたキャラクタの名称を記憶する名称記憶手段と、入力音声認識手段により取得したユーザの言葉に、名称記憶手段で保持しているキャラクタの名称を含むかどうかを判定し、含む場合は機器の有する複数の機能の中からキャラクタの名称に対応する機能を選択する機能選択手段と、入力音声認識手段により取得したユーザの言葉により、機能選択手段を介して機器の機能を選択させ、選択された機能に基づいてキャラクタの言葉と動作を決定する中央制御手段とを具備することを特徴とする対話型操作支援システムである。
In order to achieve such an object, an interactive operation support system according to
また、請求項2にかかる対話型操作支援システムは、キャラクタ制御手段が、複数体のキャラクタ画像を生成し、表示手段に複数体のキャラクタ画像が同時に出現することを特徴とする対話型操作支援システムである。
The interactive operation support system according to
また、請求項3にかかる対話型操作支援システムは、入力音声認識手段により取得したユーザの言葉に、名称記憶手段が保持しているキャラクタの名称が含まれる場合、中央制御手段が、キャラクタの名称に対応するキャラクタの動作を変更するようにキャラクタ制御手段に指令を出すことを特徴とする対話型操作支援システムである。 In the interactive operation support system according to claim 3, when the name of the character held by the name storage means is included in the user's words acquired by the input voice recognition means, the central control means The interactive operation support system is characterized by issuing a command to the character control means so as to change the action of the character corresponding to.
また、請求項4にかかる対話型操作支援システムは、中央制御手段が、キャラクタの話す言葉として、キャラクタの名称に対応する機能に関する説明を設定することで、キャラクタによるヘルプ機能を実現することを特徴とする対話型操作支援システムである。 The interactive operation support system according to claim 4 is characterized in that the central control means realizes a help function by the character by setting an explanation regarding the function corresponding to the name of the character as a word spoken by the character. Is an interactive operation support system.
また、請求項5にかかる対話型操作支援システムは、さらに名称記憶手段が保持しているキャラクタの名称と機能グループとの対応を変更するための名称変更手段を備え、ユーザの好みに合わせてキャラクタの名称を変更できるようにしたことを特徴とする対話型操作支援システムである。 The interactive operation support system according to claim 5 further comprises name changing means for changing the correspondence between the name of the character held by the name storage means and the function group, and the character according to the user's preference. This is an interactive operation support system characterized in that the name of the user can be changed.
本発明の対話型操作支援システムは、以上の説明の構成により、多数の機能を持った情報機器に対するユーザ操作を対話的に操作することができ、複雑な操作の機器に対してもユーザの発声する命令を複雑なものにすることなく、直感的な命令により機器の操作を行うことが可能となる。 With the above-described configuration, the interactive operation support system of the present invention can interactively operate user operations on information devices having a large number of functions. It is possible to operate the device by an intuitive command without complicating the command to be performed.
以下、本発明の実施例を図面に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態1)
図1は本発明の実施例にかかる対話型操作支援システムのハードウェア全体構成を示す図である。該システムは、たとえばスケジュール管理機能とテレビ番組案内機能、メール送受信機能を搭載した情報機器として構成され、対話型操作支援システムは、ディスプレイに表示されたキャラクタと対話を行うことにより、スケジュール管理機能・テレビ番組案内機能・メール送受信機能の各機能を提供することが出来るようにしたものである。以下、図1を参照しながら各部について説明する。
(Embodiment 1)
FIG. 1 is a diagram showing an overall hardware configuration of an interactive operation support system according to an embodiment of the present invention. The system is configured as an information device equipped with, for example, a schedule management function, a TV program guide function, and an e-mail transmission / reception function. The interactive operation support system interacts with a character displayed on the display to Each function of the TV program guide function and the mail transmission / reception function can be provided. Hereinafter, each part will be described with reference to FIG.
中央制御部10は、各種制御プログラムや制御データに従って対話型操作支援システム1の各部を制御する中央演算装置である。
The
記憶装置50は、磁気ディスクや光ディスクなど大量のデータが記憶可能なもので、この記憶装置50の中には、本発明にかかる対話型操作支援システムを実行するための制御プログラムや制御データが格納されている。制御プログラムの具体例としては、対話型操作支援システム1全体を包括的に制御するオペレーティングシステムOSのプログラムや、音声データを文字データに変換する音声認識プログラム、文字データを音声データに変換する音声合成プログラム、キャラクタの表情表現や動作を制御するキャラクタアニメーション制御プログラム、キャラクタの発声する内容や発声の抑揚を制御するキャラクタ音声制御プログラム、ディスプレイを介してキャラクタを画面出力する画面出力制御プログラム、スピーカを介してキャラクタ音声を出力する音声出力制御プログラム、対話型操作支援システムが提供する複数の機能の中からユーザが所望する機能に切り替える機能選択プログラム、などがある。また、制御データの具体例としては、キャラクタ画像を生成するためのキャラクタ画像データ、キャラクタの表情および動作のアニメーションを生成するためのキャラクタアニメーションデータ、キャラクタの話す内容を定義した発話内容データ、ユーザが音声により入力すべき操作コマンドを定義した操作コマンドデータ、などがある。
The
さらに、図1に示すような対話型操作支援システム1のように、スケジュール管理機能とテレビ番組案内機能とメール送受信機能を搭載した情報機器として構成される場合は、記憶装置50に格納される制御プログラムの例として、ユーザのスケジュールデータを保持してディスプレイを介してユーザにスケジュールデータを提示するためのスケジュール管理制御プログラム、インターネットなどの広域ネットワーク60を介して番組表配信サーバ70からテレビ番組表データを取得するための番組表データ取得プログラム、広域ネットワーク60により接続されたメールサーバ80を介してメールの送受信を行うメール送受信プログラムなどが含まれる。また、制御データの例として、カレンダーの日付データやユーザのスケジュールデータ、番組表配信サーバ70から取得した番組表データ、ユーザが過去に送受信したメール文章やメールのあて先を記録したアドレス帳などからなるメールデータ、などが含まれる。
Further, in the case of being configured as an information device equipped with a schedule management function, a TV program guide function, and a mail transmission / reception function as in the interactive
ディスプレイ40はプラズマディスプレイや液晶ディスプレイなど、キャラクタ画像をユーザに提示することのできるものである。図1に示す対話型操作支援システム1の例では、ディスプレイ40が表示する内容の例として、キャラクタ画像のほかに、テレビ番組表やユーザのスケジュール一覧、メールの文章などが表示される。
The display 40, such as a plasma display or a liquid crystal display, can present a character image to the user. In the example of the interactive
さらに、本発明にかかる対話型操作支援システム1の記憶装置50には、図2に示すように、キャラクタの名称と操作支援システムが提供する機能とを1対1に対応付けたキャラクタ名称データを保持している。キャラクタ名称データの例としては図2に示すように、ID番号0番のテレビ番組案内機能に対応するキャラクタ名称として名称ID番号0番の「奈々子」がわりあてられており、ID番号1番のスケジュール管理機能に対応するキャラクタ名称として名称ID番号1番の「隆史」がわりあてられており、ID番号2番のメール送受信機能に対応するキャラクタ名称として名称ID番号2番の「拓也」がわりあてられている、といった具合である。
Furthermore, as shown in FIG. 2, the
図3は、本発明の実施例の対話型操作支援システム1のシステム構成を示す機能ブロック図である。
FIG. 3 is a functional block diagram showing the system configuration of the interactive
図3に示されるように対話型操作支援システム1は、表示手段101と、キャラクタ制御手段102と、音声出力手段103と、出力音声制御手段104と、音声入力手段105と、入力音声認識手段106と、名称記憶手段107と、機能選択手段108と、中央制御手段109と、名称変更手段110と、からなる。図3の例では、さらに、テレビ番組案内手段201と、スケジュール管理手段202と、メール送受信手段203とを具備することによって、スケジュール管理機能、テレビ番組案内機能、メール送受信機能の各機能を対話型操作支援システムが提供できるようにしたものであり、これら各機能は他の機能(例えばビデオ録画機能など)を実現するための手段であってもかまわない。
As shown in FIG. 3, the interactive
表示手段101は、ユーザが対話的な操作を行う際にユーザとの対話の相手になるキャラクタを表示する。また、テレビ番組案内手段201がテレビ番組表一覧を表示する場合や、スケジュール管理手段202がスケジュール一覧を表示する場合など、対話型操作支援システム1が提供する各機能がユーザに情報を提示する場合も表示手段101により表示する。具体的には、ディスプレイ装置40がこの表示手段101に該当する。
The
キャラクタ制御手段102は、あらかじめ保持しているキャラクタ画像データとキャラクタアニメーションデータとからキャラクタ画像を生成して、表示手段101を介してユーザにキャラクタを提示する。キャラクタ制御手段102は、中央制御手段109の指示により、単体のキャラクタ画像制御だけでなく、複数のキャラクタ画像を同時に生成したり、複数のキャラクタ画像を同時に表示しているときに特定のキャラクタだけの動作を変更したりといった複数キャラクタ画像制御も行う。具体的には、記憶装置50が記憶しているキャラクタ画像データ、キャラクタアニメーションデータと中央制御部10による演算処理により、キャラクタ制御手段102が構成される。さらに具体的には、キャラクタ画像データとはキャラクタの3次元形状を記述したものであり、キャラクタを構成する頂点座標や色などのデータなどが保持されている。
The
またキャラクタアニメーションデータは、時間軸に対してキャラクタを構成する頂点座標がどのように変化するかを記述したものであり、キャラクタの顔表情変化(喜んでいる顔、悲しんでいる顔など)や口形状の変化(「あ」を発声しているときの口形状、「い」を発声しているときの口形状など)、さらにキャラクタの動作(手を上げる、歩くなど)を頂点座標の変化として保持している。これらキャラクタ画像データ、キャラクタアニメーションデータは、複数キャラクタ分だけ記憶されており、中央制御手段109が、描画したいキャラクタと、そのキャラクタに適用したいアニメーションを指定することで、キャラクタ制御手段102がアニメーション付のキャラクタ画像を生成する。 The character animation data describes how the vertex coordinates that make up the character change with respect to the time axis, such as changes in the facial expression of the character (such as a happy face or a sad face) and mouth. Changes in shape (mouth shape when uttering “A”, mouth shape when uttering “I”, etc.) and character movement (raising hands, walking, etc.) as changes in vertex coordinates keeping. These character image data and character animation data are stored for a plurality of characters, and the central control means 109 designates a character to be drawn and an animation to be applied to the character, so that the character control means 102 has animation. Generate a character image.
音声出力手段103は、キャラクタが発声する言葉を音声としてユーザに提示する。具体的には、スピーカ20が相当する。
The voice output means 103 presents the words uttered by the character to the user as voice. Specifically, the
出力音声制御手段104は、キャラクタの話す内容を定義した発話内容データを、音声出力手段103を介して音声としてユーザに提示するための音声データを生成する。出力音声制御手段104は、中央制御手段109の指示により、話す速度を変更したり、話の抑揚を変更したりといったように、単調な音声データの生成だけでなく変化を付けた音声データを生成も行う。具体的には、記憶装置50が記憶しているキャラクタ発話内容データと中央制御部10による演算処理により出力音声制御手段104が構成される。さらに具体的には、キャラクタの話す内容はテキスト形式で複数記憶されており、中央制御手段109によって選択されたキャラクタの発話内容を、既存の音声合成手法を用いて音声データを生成する。
The output voice control unit 104 generates voice data for presenting utterance content data defining the content spoken by the character to the user as voice via the
音声入力手段105は、ユーザの話す声を音声入力信号として対話型操作支援システムに取得するものである。具体的には、マイク30が相当する。
The voice input means 105 acquires the voice spoken by the user as a voice input signal to the interactive operation support system. Specifically, the
入力音声認識手段106は、音声入力手段105を介して取得した音声入力信号をテキスト形式に変換して、ユーザが発話した内容の解析処理をおこなう。具体的には、記憶装置50が記憶している音声認識プログラムと中央制御部10による演算処理により、入力音声認識手段10が構成される。より具体的には、音声認識プログラムは、いわゆる音素解析(音と文字との関係を明らかにする)だけでなく、既存の自然言語解析手法としてよく知られるような、形態素解析(単語や品詞の語形変化や並び方を明らかにする)や構文解析(語や文節からなるまとまり同士の関係を明らかにする)を行う手法を用いてもよい。
The input
名称記憶手段107は、対話型操作支援システム1によって提供される複数の機能に対し各々対応付けされたキャラクタの名称を記憶する。具体的には、記憶装置50が記憶するキャラクタ名称が相当し、その内容は図2に示すように、ID番号0番のテレビ番組案内機能に対応するキャラクタ名称として名称ID番号0番の「奈々子」がわりあてられており、ID番号1番のスケジュール管理機能に対応するキャラクタ名称として名称ID番号1番の「隆史」がわりあてられており、ID番号2番のメール送受信機能に対応するキャラクタ名称として名称ID番号2番の「拓也」がわりあてられている、といった具合である。
The name storage means 107 stores the names of characters associated with a plurality of functions provided by the interactive
機能選択手段108は、ユーザが発話した内容の中に名称記憶手段107が記憶しているキャラクタの名称が含まれるかどうかを判定し、もし含まれている場合は、対話型操作支援システム1によって提供される複数の機能の中から、キャラクタ名称に対応する機能を選択する。具体的には、記憶装置50が記憶している機能選択プログラムと中央制御部10による演算処理により、機能選択手段108が構成される。
The function selection means 108 determines whether or not the name of the character stored in the name storage means 107 is included in the content uttered by the user, and if it is included, the interactive operation support system 1 A function corresponding to the character name is selected from a plurality of provided functions. Specifically, the function selection means 108 is configured by the function selection program stored in the
中央制御手段109は、入力音声認識手段106により取得したユーザの発話内容から機能選択手段108に対し機能選択を指示し、対話型操作支援システム1が提供する機能のうち選択された機能を起動する。また、あらかじめ保持している機器の操作コマンドをもとに、ユーザの発話内容に対応する機器の操作コマンドを抽出する。また、操作コマンドの内容に従ってキャラクタの動作を決定し、キャラクタ制御手段102に対しキャラクタ動作を変更させるような指示を出す。また、操作コマンドの内容に従ってキャラクタの発話内容を決定し、出力音声制御手段104に対し、出力する音声データを作成するような指示を出す。
The
図12は、この実施例の動作の全体の流れを示したフローチャートである。 FIG. 12 is a flowchart showing the overall flow of the operation of this embodiment.
まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力された後、入力音声認識手段106がテキスト形式の発話内容に変換する(S10)。次に、中央制御手段109は機能選択手段108に対し、対話型操作支援システム1が提供する複数の機能の中からユーザの発話内容に相当する機能を選択するよう指示を出すが、このとき機能選択手段108はまず、ユーザの発話内容の中に名称記憶手段107が記憶しているキャラクタ名称と一致する名称が含まれるかどうかを判定し(S20)、もし含まれている場合は(S20でYES)、そのときの名称に対応する機能を選択するために、その機能IDを記憶する(S30)。次に、中央制御手段109は、あらかじめ中央制御手段109が保持している操作コマンド一覧を参照して、ユーザが発話した内容の中に、現在選択中の機能に対する操作コマンドが含まれているかどうかを判定する(S40)。
First, the content uttered by the user is input to the system as a voice input signal via the voice input means 105, and then the input voice recognition means 106 converts it into text-like utterance contents (S10). Next, the
図13に、中央制御手段109が保持している操作コマンド一覧の例を示す。 FIG. 13 shows an example of a list of operation commands held by the central control means 109.
この例では、機能ID番号0番〜2番の機能(テレビ番組案内機能、スケジュール管理機能、メール送受信機能)それぞれについて有効な操作コマンドの一覧を示している。具体的にはテレビ番組案内機能は操作コマンドとして「明日の9時は?」「一覧見せて」「おすすめは?」などの音声コマンドを受け付けることを示しており、メール送受信機能は操作コマンドとして「メールみせて」「メール出したい」などの音声コマンドを受け付けることを示している。なお、ここでは説明を容易にするために複数の文節からなるような比較的長い操作コマンドを例として列挙したが、実際には自然言語解析するために必要となる形態素毎の情報などを保持しておき、それらの組合せにより有効な操作コマンドが構成されるようにしておく。中央制御手段109は、この操作コマンド一覧を参照して、発話内容の中に現在選択されている機能IDが受け付ける操作コマンドが含まれるかどうかを判定する。もし操作コマンドが含まれているなら(S40でYES)、現在選択中の機能に対しその操作コマンドを実行するよう指示を出す(S50)。具体的には、現在テレビ番組案内機能が選択されている場合は、テレビ番組案内手段201に対して、ユーザが発話した操作コマンド(一覧みせて、など)を実行するよう指示を出す。
This example shows a list of operation commands effective for each of the
次に中央制御手段109は、あらかじめ保持しているキャラクタのアニメーションデータと発話内容データから、ユーザが発話した操作コマンドに対応したアニメーションと発話内容を選択し、キャラクタ制御手段102および出力音声制御手段104に対して、キャラクタ画像の生成および音声データの生成を指示することで、キャラクタ画像および音声がユーザに提示される(S60)。 Next, the central control means 109 selects an animation and utterance content corresponding to the operation command uttered by the user from the character animation data and utterance content data held in advance, and the character control means 102 and the output voice control means 104. On the other hand, by instructing the generation of the character image and the generation of the voice data, the character image and the voice are presented to the user (S60).
本発明の実施例にかかる対話型操作支援システム1の実際の動作例を説明するために、図を用いて具体例を挙げながら説明する。
In order to describe an actual operation example of the interactive
図4は、対話型操作支援システム1を起動した直後や、機器が動作を行っていないアイドル状態にあるときに、表示手段101によってユーザに提示される画面例を示した図である。
FIG. 4 is a diagram showing an example of a screen presented to the user by the
この図ではキャラクタが3体表示されているが、これは本発明の実施例にかかる対話型操作支援システム1がテレビ番組案内機能、スケジュール管理機能、メール送受信機能の3つの機能を提供するものであることに起因しており、対話型操作支援システムの提供する機能の数の増減によって、ユーザに提示されるキャラクタが増減してもよい。また、この図においては3体のキャラクタが表示されている大きさはほぼ同じであるが、特定の1キャラクタのみを大きく表示することで、ユーザが最初に話しかけるキャラクタを誘導してもよい。また、キャラクタ制御手段102が、あらかじめキャラクタのアニメーション動作を保持しておき、そのアニメーション動作に基づいてキャラクタ画像を変更することで、表示される各キャラクタが静止しているのではなく適度な動作を行っているようにしてもよい。
In this figure, three characters are displayed. This is because the interactive
図5は、ユーザがキャラクタの名称を知りたいという意思で「名前は?」と発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。 FIG. 5 shows an example of a screen presented to the user by the display means 101 when the user speaks “What is the name?” With the intention of knowing the name of the character, and is presented to the user by the voice output means 103. It is the figure which showed the audio | voice example.
この図では、ユーザが「名前は?」と発言すると、表示手段101に提示されている複数のキャラクタがそれぞれ自己紹介を行うように、キャラクタの名前とそれに対応する機能の名称を話している図を示している。 In this figure, when the user says “What is the name?”, The name of the character and the name of the function corresponding to the character name are spoken so that the plurality of characters presented on the display means 101 each introduce themselves. Is shown.
このような応答は次のような処理によって実現されている。まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「名前は」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対し、対話型操作支援システム1が提供する複数の機能の中からユーザの発話内容に相当する機能を選択するよう指示を出すが、このとき機能選択手段108は「名前は」に一致するキャラクタ名称が存在しないことから何も処理を行わない(S20でNO)。次に、中央制御手段109はあらかじめ中央制御手段が保持している音声コマンド一覧により、「名前は」という発話が「キャラクタの自己紹介」に相当するコマンドであることを判断する(S40でYES)。次に、中央制御手段109は名称記憶手段107に保持されているキャラクタ名称を参照し、各キャラクタの名称とその機能名称を取得して(S50)、出力音声制御手段104に対して、キャラクタ名称とその機能名称を音声出力させると同時に、キャラクタ制御手段102に対して、各キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。
Such a response is realized by the following processing. First, the content spoken by the user is input to the system as a voice input signal via the voice input means 105. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “name is” (S10). Next, the
図6は、ユーザがあるキャラクタの名称を発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。
FIG. 6 is a diagram showing an example of a screen presented to the user by the
この図では、ユーザがキャラクタの名称である「奈々子」と発言したときに、「奈々子」と名づけられているキャラクタがユーザの呼びかけに反応し、該キャラクタに該当する機能が「テレビ番組案内機能」であることをユーザに提示している図を示している。このような応答は次のような処理によって実現されている。 In this figure, when the user says “Nanako”, which is the name of the character, the character named “Nanako” reacts to the user's call, and the function corresponding to the character is the “TV program guide function”. The figure which is showing to the user that it is is shown. Such a response is realized by the following processing.
まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「奈々子」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対し、対話型操作支援システム1が提供する複数の機能の中からユーザの発話内容に相当する機能を選択するよう指示を出すが、このとき機能選択手段108は名称記憶手段107が記憶しているキャラクタ名称の中に「奈々子」と一致する名称があるかどうか探索し、「奈々子」と一致する機能が「テレビ番組案内機能」であることを取得する(S20でYES)。次に機能選択手段108は、テレビ番組案内機能に切り替えるため、機能ID「0」を記憶しておく(S30)。次に、中央制御手段109は、あらかじめ中央制御手段109が保持している操作コマンド一覧を参照して、ユーザが発話した内容の中に機能ID0番の機能に対する操作コマンドが含まれているかどうかを判定するが、ユーザの発話内容が名称のみであるという操作コマンドであると判断する(S40でYES)。次に中央制御手段109は、名称のみという操作コマンドからキャラクタの自己紹介として機能案内を行う必要があると判断し(S50)、出力音声制御手段104に対して、「テレビ番組案内機能」担当であることを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。
First, the content spoken by the user is input to the system as a voice input signal via the voice input means 105. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “Nanako” (S10). Next, the
図7は、ユーザがキャラクタ名称と機器の操作コマンドを続けて発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。
FIG. 7 shows a screen example presented to the user by the
この図では、「奈々子」、「隆史」という異なるキャラクタ名称それぞれに続けて、同じ操作コマンド「明日の9時は?」をユーザが発話した場合に、テレビ番組案内機能を担当する「奈々子」は、明日の9時からのテレビ番組をユーザに提示し、スケジュール管理機能を担当する「隆史」は、明日9時のユーザのスケジュールをユーザに提示する、といったように、同じ操作コマンドを与えたときでも、キャラクタ毎に異なる反応をユーザに提示する様子を示した図である。 In this figure, when the user utters the same operation command “when is 9:00 tomorrow?” Following each of the different character names “Nanako” and “Takashi”, “Nanako” who is in charge of the TV program guide function is When the same operation command is given, such as “Takashi” who presents the TV program from 9:00 tomorrow to the user and presents the schedule of the user at 9:00 tomorrow to the user. However, it is the figure which showed a mode that a different reaction for every character is shown to a user.
このような応答は次のような処理によって実現されている。まず、ユーザが発話した「奈々子、明日の9時は?」という音声は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析してユーザの発話内容が「奈々子、明日の9時は?」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対しユーザの発話内容に従って機能を選択するよう指示を出す。次に機能選択手段108は、ユーザの発話内容に名称記憶手段107が記憶している名称と一致する「奈々子」が含まれることを検知し(S20でYES)、「奈々子」に一致する機能である「テレビ番組案内機能」を選択するために、機能ID0番を記憶する(S30)。次に、中央制御手段109は、あらかじめ中央制御手段109が保持している操作コマンド一覧を参照して、ユーザが発話した内容の中に機能ID0番の機能に対する操作コマンドが含まれているかどうかを判断し、「明日の9時は?」という一致するコマンドであることを判断する(S40でYES)。次に中央制御手段109は、機能ID0番に対応するテレビ番組案内手段201に対して「明日の9時は?」という操作コマンドを発行する。テレビ番組案内手段201は、「明日の9時は?」に対応した操作コマンドとして、明日の9時の番組表データを取得する(S50)。次に中央制御手段109は、出力音声制御手段104に対して、明日9時からの番組表データを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。
Such a response is realized by the following processing. First, the voice “Nanako, 9 o'clock tomorrow?” Spoken by the user is input to the system as a voice input signal via the voice input means 105. The input speech recognition means 106 analyzes the speech input signal and acquires that the user's utterance content is “Nanako, 9am tomorrow?” (S10). Next, the
一方、ユーザが「隆史、明日の9時は?」と発生した場合は、機能選択手段108が「隆史」に相当する「スケジュール管理機能」を選択する(S30)ため、次に中央制御手段109はスケジュール管理手段202に対し「明日の9時は?」という操作コマンドを発行する。スケジュール管理手段202は、「明日の9時は?」に対応した操作コマンドとして、明日9時のユーザスケジュールを取得する(S50)。次に中央制御手段109は、出力音声制御手段104に対して、明日9時からのユーザスケジュールを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。このようにして、同じ操作コマンド「明日の9時は」に対して、キャラクタ毎に異なる反応をユーザに提示することができる。
On the other hand, when the user generates “Takashi, 9 o'clock tomorrow?”, The
図8は、ユーザがキャラクタ名称に続けて、そのキャラクタが担当していない機能名称を追加する操作コマンドを発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。
FIG. 8 shows an example of a screen presented to the user by the
この図では、テレビ番組案内機能を担当している「奈々子」というキャラクタ名称に続けて、「メールもお願い」と操作コマンドを発話することで、今後「奈々子」と発話すると、テレビ番組案内とメール送受信機能の2機能が選択される様子を示した図である。 In this figure, the character name “Nanako”, who is in charge of the TV program guide function, is followed by an operation command such as “Please email”. It is the figure which showed a mode that two functions of a transmission / reception function were selected.
このような応答は次のような処理によって実現されている。まず、ユーザが発話した内容は、音声入力手段105を介して音声入力信号としてシステムに入力される。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「奈々子、メールもお願い」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対しユーザの発話内容に従って機能を選択するよう指示を出す。次に機能選択手段108は、ユーザの発話内容に名称記憶手段107が記憶している名称と一致する「奈々子」が含まれることを検知し(S20でYES)、「奈々子」に一致する機能である「テレビ番組案内機能」を選択するために機能ID0番を記憶する(S30)。次に中央制御手段109は「メールもお願い」がテレビ番組案内機能の操作コマンドではなく、メール送受信機能を現在選択されているキャラクタに追加する操作コマンドであることを検知して(S40でYES)、名称記憶手段107が記憶している名称一覧に対して、メール送受信機能に対応するキャラクタ名称を「奈々子」に変更する(S50)。次に、中央制御手段109は出力音声制御手段104に対して、「奈々子」が担当している機能が「テレビ番組案内機能」と「メール送受信機能」であることを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。
Such a response is realized by the following processing. First, the content spoken by the user is input to the system as a voice input signal via the voice input means 105. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “Nanako, please email” (S10). Next, the
図9は、ユーザがキャラクタ名称に続けて、そのキャラクタ名称を変更する操作コマンドを発話したときに、表示手段101によってユーザに提示される画面例、および、音声出力手段103によってユーザに提示される音声例を示した図である。この図では、「奈々子」というキャラクタ名称に続けて、「を紀香に変更」と操作コマンドを発話することで、今後「紀香」と発話することで、テレビ番組案内機能が選択される様子を示した図である。このような応答は次のような処理によって実現されている。入力音声認識手段106は、音声入力信号を解析することで、ユーザの発話内容が「奈々子を紀香に変更」であることを取得する(S10)。次に、中央制御手段109は機能選択手段108に対しユーザの発話内容に従って機能を選択するよう指示を出す。次に機能選択手段108は、ユーザの発話内容に名称記憶手段107が記憶している名称と一致する「奈々子」が含まれることを検知し(S20でYES)、「奈々子」に一致する機能である「テレビ番組案内機能」を選択するために機能ID0番を記憶する(S30)。次に中央制御手段109は「を紀香に変更」がテレビ番組案内機能の操作コマンドではなく、キャラクタの名称を変更する操作コマンドであることを検知して(S40でYES)、名称記憶手段107が記憶している名称一覧に対して、「奈々子」の名称を「紀香」に変更する(S50)。次に、中央制御手段109は出力音声制御手段104に対して、それまで「奈々子」と呼ばれていたキャラクタの名称が「紀香」に変更され、「紀香」の担当する機能は「テレビ番組案内機能」であることを音声出力させると同時に、キャラクタ制御手段102に対して、キャラクタが話しているようにみせるためのアニメーションを設定するように指示を出す。出力音声制御手段104およびキャラクタ制御手段102がそれぞれキャラクタの音声と画像データを生成し、音声出力手段103および表示手段101を介してユーザに提示される(S60)。
FIG. 9 shows an example of a screen presented to the user by the display means 101 when the user utters an operation command for changing the character name following the character name, and is presented to the user by the voice output means 103. It is the figure which showed the audio | voice example. This figure shows how the TV program guide function is selected by speaking “Nika” in the future by speaking the operation command “Change to Noka” after the character name “Nanako”. It is a figure. Such a response is realized by the following processing. The input voice recognition means 106 analyzes the voice input signal to acquire that the user's utterance content is “change Nanako to Norika” (S10). Next, the
本発明に係わる対話型操作支援システムは、多数の機能を持った情報機器に対するユーザ操作を対話的に操作することができ、複雑な操作の機器に対してもユーザの発声する命令を複雑なものにすることなく、直感的な命令により機器の操作を行うことが可能となる効果を有し、複数の機能を有する各種家電機器や情報機器に対するユーザの操作を支援する、キャラクタエージェントを用いた対話型操作支援システムとして有用である。 The interactive operation support system according to the present invention can interactively operate a user operation on an information device having a large number of functions, and has a complicated command issued by a user even on a complicated operation device. The dialogue using the character agent that supports the user's operation on various home appliances and information devices with multiple functions, which has the effect of allowing the device to be operated with intuitive commands without having to It is useful as a mold operation support system.
1 対話型操作支援システム
10 中央制御部
20 スピーカ
30 マイク
40 ディスプレイ
50 記憶装置
60 ネットワーク
70 番組表配信サーバ
80 メールサーバ
101 表示手段
102 キャラクタ制御手段
103 音声出力手段
104 出力音声制御手段
105 音声入力手段
106 入力音声認識手段
107 名称記憶手段
108 機能選択手段
109 中央制御手段
110 名称変更手段
201 テレビ番組案内手段
202 スケジュール管理手段
203 メール送受信手段
DESCRIPTION OF
Claims (5)
表示手段と、
キャラクタ画像を生成して、前記表示手段を介してユーザにキャラクタを提示するキャラクタ制御手段と
音声出力手段と、
前記キャラクタが話す言葉を音声合成して、前記音声出力手段を介して外部出力する出力音声制御手段と、
音声入力手段と、
前記音声入力手段を介して入力されたユーザの声を音声認識する入力音声認識手段と、
前記複合機器が有する複数の機能毎に個々に対応付けされたキャラクタの名称を記憶する名称記憶手段と、
前記入力音声認識手段により取得したユーザの言葉に、前記名称記憶手段で保持しているキャラクタの名称が含まれるかどうかを判定し、含まれる場合は機器の有する複数の機能の中からキャラクタの名称に対応する機能を選択する機能選択手段と、
前記入力音声認識手段により取得したユーザの言葉により、前記機能選択手段を介して機器の機能を選択させ、選択された機能に基づいてキャラクタの言葉と動作を決定する中央制御手段と
を具備することを特徴とする対話型操作支援システム。 An interactive operation support system that supports user operations on a composite device having a plurality of functions,
Display means;
A character control unit that generates a character image and presents the character to the user via the display unit; a voice output unit;
Output speech control means for synthesizing the words spoken by the character and outputting externally via the speech output means;
Voice input means;
Input voice recognition means for recognizing the voice of the user input via the voice input means;
Name storage means for storing names of characters individually associated with a plurality of functions of the composite device;
It is determined whether or not the name of the character held in the name storage means is included in the user's words acquired by the input voice recognition means, and if included, the name of the character from a plurality of functions of the device A function selection means for selecting a function corresponding to
A central control means for selecting a function of the device via the function selection means based on the user's words acquired by the input voice recognition means, and determining a character's words and actions based on the selected functions. Interactive operation support system characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003286651A JP2005056170A (en) | 2003-08-05 | 2003-08-05 | Interactive operation supporting system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003286651A JP2005056170A (en) | 2003-08-05 | 2003-08-05 | Interactive operation supporting system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005056170A true JP2005056170A (en) | 2005-03-03 |
Family
ID=34365884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003286651A Pending JP2005056170A (en) | 2003-08-05 | 2003-08-05 | Interactive operation supporting system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005056170A (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007256456A (en) * | 2006-03-22 | 2007-10-04 | Denso It Laboratory Inc | Content providing apparatus and content providing method |
KR100764287B1 (en) * | 2005-07-30 | 2007-10-05 | 엘지전자 주식회사 | Air pollution indication system of refrigerator |
KR100792074B1 (en) | 2005-10-05 | 2008-01-04 | 엘지전자 주식회사 | Avatar refrigerator |
KR100792073B1 (en) | 2005-09-20 | 2008-01-04 | 엘지전자 주식회사 | Effect sound change-type refrigerator |
JP2011139143A (en) * | 2009-12-25 | 2011-07-14 | Sharp Corp | Display device, television receiver, display method, program, and recording medium |
JP2013232230A (en) * | 2013-07-25 | 2013-11-14 | Sharp Corp | Display device, television receiver, display method, program, and recording medium |
WO2015186445A1 (en) * | 2014-06-03 | 2015-12-10 | ソニー株式会社 | Information processing device, information processing method, and program |
JP6420514B1 (en) * | 2018-04-04 | 2018-11-07 | 一般社団法人It&診断支援センター・北九州 | Conversation robot |
JP6447689B1 (en) * | 2017-09-11 | 2019-01-09 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US10283109B2 (en) | 2015-09-09 | 2019-05-07 | Samsung Electronics Co., Ltd. | Nickname management method and apparatus |
CN111699529A (en) * | 2017-12-06 | 2020-09-22 | 索尼互动娱乐股份有限公司 | Facial animation for social Virtual Reality (VR) |
-
2003
- 2003-08-05 JP JP2003286651A patent/JP2005056170A/en active Pending
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100764287B1 (en) * | 2005-07-30 | 2007-10-05 | 엘지전자 주식회사 | Air pollution indication system of refrigerator |
KR100792073B1 (en) | 2005-09-20 | 2008-01-04 | 엘지전자 주식회사 | Effect sound change-type refrigerator |
KR100792074B1 (en) | 2005-10-05 | 2008-01-04 | 엘지전자 주식회사 | Avatar refrigerator |
JP2007256456A (en) * | 2006-03-22 | 2007-10-04 | Denso It Laboratory Inc | Content providing apparatus and content providing method |
JP2011139143A (en) * | 2009-12-25 | 2011-07-14 | Sharp Corp | Display device, television receiver, display method, program, and recording medium |
JP2013232230A (en) * | 2013-07-25 | 2013-11-14 | Sharp Corp | Display device, television receiver, display method, program, and recording medium |
JPWO2015186445A1 (en) * | 2014-06-03 | 2017-04-20 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
CN106463110A (en) * | 2014-06-03 | 2017-02-22 | 索尼公司 | Information processing device, information processing method, and program |
WO2015186445A1 (en) * | 2014-06-03 | 2015-12-10 | ソニー株式会社 | Information processing device, information processing method, and program |
US10657959B2 (en) | 2014-06-03 | 2020-05-19 | Sony Corporation | Information processing device, information processing method, and program |
US10283109B2 (en) | 2015-09-09 | 2019-05-07 | Samsung Electronics Co., Ltd. | Nickname management method and apparatus |
JP6447689B1 (en) * | 2017-09-11 | 2019-01-09 | 富士ゼロックス株式会社 | Information processing apparatus and program |
JP2019050519A (en) * | 2017-09-11 | 2019-03-28 | 富士ゼロックス株式会社 | Information processing apparatus and program |
US10805243B2 (en) | 2017-09-11 | 2020-10-13 | Fuji Xerox Co., Ltd. | Artificial intelligence conversation interface for receiving and interpreting user input |
CN111699529A (en) * | 2017-12-06 | 2020-09-22 | 索尼互动娱乐股份有限公司 | Facial animation for social Virtual Reality (VR) |
JP2021505943A (en) * | 2017-12-06 | 2021-02-18 | 株式会社ソニー・インタラクティブエンタテインメント | Face animation for social virtual reality (VR) |
JP6420514B1 (en) * | 2018-04-04 | 2018-11-07 | 一般社団法人It&診断支援センター・北九州 | Conversation robot |
JP2019184694A (en) * | 2018-04-04 | 2019-10-24 | 一般社団法人It&診断支援センター・北九州 | Conversation robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10565990B1 (en) | Signal processing based on audio context | |
JP5819269B2 (en) | Electronic device and control method thereof | |
US10276157B2 (en) | Systems and methods for providing a voice agent user interface | |
US9148688B2 (en) | Electronic apparatus and method of controlling electronic apparatus | |
JP6482911B2 (en) | Device control method and electric device | |
CN107430855B (en) | Context sensitive dynamic update of a speech to text model in a speech enabled electronic device | |
KR20180072845A (en) | Providing suggested voice-based action queries | |
TWI249729B (en) | Voice browser dialog enabler for a communication system | |
KR101284594B1 (en) | Image processing apparatus and control method thereof, image processing system | |
WO2015186445A1 (en) | Information processing device, information processing method, and program | |
MX2014001447A (en) | Electronic apparatus and method for controlling thereof. | |
US20140095171A1 (en) | Systems and methods for providing a voice agent user interface | |
US20140095172A1 (en) | Systems and methods for providing a voice agent user interface | |
US20130041665A1 (en) | Electronic Device and Method of Controlling the Same | |
WO2018100743A1 (en) | Control device and apparatus control system | |
US20090006100A1 (en) | Identification and selection of a software application via speech | |
JP2002073322A (en) | On-demand interface device and its window display device | |
JP2005056170A (en) | Interactive operation supporting system | |
US20140095167A1 (en) | Systems and methods for providing a voice agent user interface | |
KR20190006323A (en) | Remotely controller and method for receiving a user's voice thereof | |
CN103428339A (en) | Method for controlling mobile phone to be operated through voice input | |
JP2007086935A (en) | Multiplex work support system and multiplex work support method | |
WO2014055181A1 (en) | Systems and methods for providing a voice agent user interface | |
CN111768755A (en) | Information processing method, information processing apparatus, vehicle, and computer storage medium | |
JP2005241971A (en) | Projector system, microphone unit, projector controller, and projector |